Rätt på fel sätt
Jag tänker på detta varje gång jag ser hur entusiastiskt investerare börjar använda AI i sin research.
Missförstå mig inte: AI-verktyg kan spara tid på rätt sätt, precis som att importera data istället för att skriva in det manuellt.
Men det finns en djupare risk här som jag tror är underuppskattad, och den handlar inte om att AI har fel – utan om att AI, per konstruktion, tenderar att ha rätt på precis fel sätt.
En stor språkmodell fungerar, lite förenklat, genom att förutsäga den mest sannolika fortsättningen på en text — ord för ord, utifrån mönster i en enorm mängd träningsdata. Och konsekvensen är enkel: det som har skrivits mest, av flest, under längst tid, väger tyngst när modellen ska gissa nästa ord.
Analysrapporter, nyhetsartiklar, transkriberingar av earnings calls, finanspoddar, forum. Allt det som mänskligheten redan har skrivit om ett bolag eller en bransch.
Det betyder att när du ber en AI om en bolagsanalys, är svaret du får i grunden en syntes av den befintliga konsensusen – strukturerad, välformulerad och snabb, men fundamentalt formad av det aggregat av mänskligt tänkande som redan finns dokumenterat.
Modellen kan inte ta en position som avviker från de mönster den lärt sig förstärka, för den har ingen erfarenhet i den mening vi menar.