Dwarkesh Patel delar sina insikter om den långsammare utvecklingstakten för AI och språkmodeller (LLM) i en ny analys som belyser grundläggande begränsningar i dagens AI-teknologi.
Praktiska erfarenheter avslöjar AI:s begränsningar
”Jag har förmodligen lagt över hundra timmar på att försöka bygga små LLM-verktyg för min efterproduktion. Och upplevelsen av att försöka få dem att bli användbara har förlängt mina tidsperspektiv,” skriver Dwarkesh i sin essä.
Han beskriver hur han försökt använda språkmodeller för att skriva om autogenererade transkript, identifiera klipp från transkript för delning på sociala medier, och samskriva texter. Trots att dessa uppgifter borde vara idealiska för språkmodeller – enkla, självständiga, kortsiktiga och textbaserade – presterar de endast medelmåttigt.
Avsaknad av kontinuerligt lärande
”Det grundläggande problemet är att språkmodeller inte blir bättre över tid på det sätt en människa skulle. Bristen på kontinuerligt lärande är ett enormt problem,” fortsätter Dwarkesh.
Han poängterar att även om en språkmodells grundläggande förmåga kan vara högre än genomsnittsmänniskans inom vissa områden, finns det ingen möjlighet att ge modellen övergripande återkoppling. Man är fast med de förmågor som kommer direkt ur lådan. Även om man experimenterar med systemprompten, producerar detta ingenting som liknar det lärande och den förbättring som mänskliga anställda upplever.
Människans unika förmåga
”Anledningen till att människor är så användbara är inte huvudsakligen deras råa intelligens. Det är deras förmåga att bygga upp kontext, ifrågasätta sina egna misslyckanden, och ta till sig små förbättringar och effektiviseringar när de övar på en uppgift,” avslutar Dwarkesh.
Denna analys pekar på avgörande skillnader mellan människors adaptiva inlärning och dagens AI-system, vilket förklarar varför AI-utvecklingen kan ta längre tid än många förväntat sig.