Ha valaki követte az utóbbi hónapokban X-en (leánykori nevén Twitter) a mesterséges intelligenciával foglalkozó kutatók, CEO-k, vezetők posztjait, akkor többször belefuthatott egy érdekes dologba: eper.
Sam Altman, az OpenAI alapítója és igazgatója, reklámszakembereket megszégyenítő módon hintett el különböző nyomokat, képeket arról, hogy mi folyik a világ egyik legnagyobb befolyású AI cégének színfalai mögött.
A nyomás hatalmas volt, hiszen mindenki a következő nagy modellre, a GPT-5-re várt, és az előző rendszer, a 4o, amely egy finomhangolt multimodális kiegészítése a GPT-4-nek, nem váltott ki hatalmas lelkesedést a felhasználókból, pedig mind számítási időben, mind kapacitásban a legtöbb teszten jobban teljesített elődjeinél és versenytársainál is.
Egy mémnek indult, mert a felhasználók egy egyszerű prompttal vizsgálták mennyire okos a modell. Megkérték a rendszert, hogy számolja össze, hány „r” betű található a szóban (stRawbeRRy). Nekünk, mindenható embereknek persze nevetségesen könnyű a válasz, le se merjük írni, hogy 1, három, de a legtöbb OpenAI modell még hosszas érvelés után se tudott egyértelmű, logikus megoldást adni rá.
Incorrect count of 'r' characters in the word "strawberry“ - Use cases and examples - OpenAI Developer Forum
Ezért az eper lett a szimbóluma a logikus gondolkodásnak.
Megállás nélkül, fáradhatatlanul eperről szóló mémeket posztolt, és minden híres AI véleményvezér releváns posztja alá kommentelt, meglepően koherensen, értelmesen.
Sam Altman pedig nem habozott bekövetni és újraposztolni a tartalmait, néha még oda is firkantott valami frappánsat, amikor a cég előállt az 5 szintből álló intelligencia rendszerével.
Lényege, hogy az első szint a gépi AI intelligencia, melyet az algoritmusok képesek produkálni, a második szint az emberi szintű érvelés, a harmadik, mely már képes helyettünk feladatot végezni, a negyedik az önmagát tanító AI innovátor és végül a szuperintelligencia, amely már önmagát tanítva, fejlesztve egy teljesen más entitás, egy rendszer, organizmus.
Levels of AI by OpenAI : r/ChatGPT
A három eper szimbólum az account nevében arra engedett következtetni, hogy egy béta verzióval van dolgunk, és a karaktert a ChatGPT egy új modellje hajtja, aki már elérte az emberi szintű érvelést.
Ez pár hónapja még összeesküvés-elméletnek tűnt, és csak a nagyon sok idővel rendelkező AI szakértők és furcsa stratégák reklámügynökségeknél (jelen sorok írója pl.) szenteltek figyelmet neki.
Ezután Sam Altman megváltoztatta a borítóképét egy eperbokorra.
i love summer in the garden pic.twitter.com/Ter5Z5nFMc
— Sam Altman (@sama) August 7, 2024
Valami kezdett furcsán összeállni az emberekben, mert egyre többet lehetett olvasni a mainstream médiában, hogy a cég nemzetbiztonsági szakértőkkel egyeztet, az új modellje pedig az érvelést, logikát és elemzést forradalmasítja.
Azonban ez olyan volt, mint az új Trónok Harca könyvek, senki se bízott abban, hogy még idén bármilyen újdonsággal előrukkol a cég, egyre több belső feszültségről és felmondásról szóltak a hírek, főleg az etikai részlegről és az„alignment”, vagyis az ember-gép szinergikus működéséért vezető részlegről.
Majd augusztus 12-én az OpenAI plus és pro felhasználóinak hirtelen elérhetővé tette a strawberry modellt, vagyis az o1 és o1 mini-t, review verzióként.
Kis lépés az embernek, hatalmas ugrás az AI-nak. Az általános felfogásunkkal ellentétben a hagyományos LLM-ek (largelanguage models) tokenizáció és transzformáció segítségével a megadott kérdéseink alapján a legvalószínűbb mondatszerkezeteket, válaszokat adják a számunkra. Ezzel szemben az o1 úgynevezett tree of thoughts rendszert használ.
Tree of Thoughts (ToT) | Prompt Engineering Guide
Nagyjából úgy viselkedik, mint az emberi agy. Kap egy problémát, feladatot, és lebontja logikai változókra, megnézi, hogy pontosan mi is a feladat, van-e elég információja hozzá, kipróbál hipotéziseket, ellenőrzi őket, majd a végső tesztet prezentálja a felhasználó számára. Lassabb, de elképesztően pontosabb. PHD szinten pontos. Ez a “háttér” gondolatmenet még pár hétig mindenki számára látható lesz, ha a modellt használjuk, utána viszont a cég el fogja rejteni előlünk, állításuk szerint azért, mert olyan szenzitív információkat és nem nyomdabarát gondolatokat is tartalmazhat, amely sértheti a usereket.
Pont úgy, ahogy mi is számításba veszünk sok dolgot, mielőtt válaszolunk egy kérdésre, de nem mondunk ki mindent azonnal, csak azt, amit helyesnek tartunk.
Például, ha a felhasználó az AI előzetes tudása alapján nehezebben érti meg a matematikai kérdéseket, több idő kell számára, hogy megértse az eredményt, a modell ezt is számításba veszi, és belső „monológjában” megjelenhet, hogy XY gyenge matekból, ezért körültekintőbben kell az egyenlet végét elmagyaráznom a számára. Amit, ha az adott felhasználó elolvas, jogosan dobhatja ki a laptopját a kukába, mert hogy jön ahhoz egy gép, hogy sértegeti őt. Pedig a rendszer csak optimalizálja a felhasználó számára a lehető legjobb választ.
Lehetséges azonban, hogy csak a szintetikus adatait védi a cég, nehogy más, nyílt forráskódú modellek a logikai transzformációit lemásolva a sajátjukat tréningeljék.
A kérdés körül rengeteg vitára számítunk, főleg a politikai megosztottság miatt, mert sokan tudni szeretnék, mi jár a gép„agyában”, amikor válaszol.
Amire viszont biztos finom az eper, az a kódolás és matematikai, logikai problémák elemzése, valamint nagyobb adatok pontos analízise, melynek potenciális lehetőségébe egy nappal a modell megjelenése után még bele se merünk gondolni.
Az eperszezon elindult, jó étvágyat kíván hozzá a Hello Agency Rumour.
Szerző: Mészáros Péter - Hello Agency, senior creative strategist
Iratkozz fel friss és izgalmas, havonta megjelenő ügynökségi híreinkre!