Pénzcentrum • 2024. augusztus 9. 15:13
Az AI világa a legértékesebb erőforrás kifogyásának küszöbén áll - ez a valódi adat. Ez a helyzet heves vitát generál az iparág vezetői között, mert egyesek szerint a szintetikus, lényegében "hamis" adatok alternatívát jelenthetnek, mások szerint ez nem megoldás - írja a Business Insider.
Az OpenAI és a Google évek óta az internetről származó adatokat használnak mesterséges intelligencia eszközeik és funkcióik alapjául szolgáló nagyméretű nyelvi modellek (LLM) betanításához. Ezek az LLM-ek az emberek által évszázadokon keresztül előállított szövegek, videók és egyéb online médiamegjelenések tömkelegét emésztették meg - legyen szó akár kutatási tanulmányokról, regényekről vagy YouTube-klipekről. Mostanra azonban a "valódi", ember által generált adatok kínálata kezd kifogyni.
Az Epoch AI nevű kutatócég előrejelzése szerint a szöveges adatok 2028-ra elfogyhatnak. Eközben azok a vállalatok, amelyek az internet minden szegletéből kibányászták a felhasználható adatokat - és ennek érdekében néha megszegték a szabályzatukat -, egyre szigorúbb korlátozásokkal szembesülnek.
Egyesek számára ez nem feltétlenül jelent problémát. Mivel az ember által generált használható adatok kútja kiapad, egyre több vállalat vizsgálja a szintetikus adatokat használatát. A kutatók mégis vitatkoznak arról, hogy a szintetikus adatok jelentik-e a csodafegyvert.
Egy oxfordi és cambridge-i kutatócsoport által nemrégiben közzétett tanulmány felfedezte, hogy az AI által generált adatokkal táplált modell végül halandzsát produkált. "Ez egy válsághelyzet" - mondta Gary Marcus, AI-elemző és pszichológia emeritus professzor a New York-i Egyetemről, aki szerint a szintetikus adat néhány problémát megoldhat, de van ennél nagyobb gond is. "ezek a rendszerek nem igazán érvelnek vagy terveznek" - mondta.
Az olyan vállalatok mint OpenAI és Google több tízmillió dollárt fizet pl. a Reddit és hírportálok adatainak hozzáféréséért friss adatforrásként működve modellek képzéséhez. Azonban, ha elfogynak a valós adatok, akkor a szintetikus adatok felé fordulhatnak a cégek. Ezeket mesterséges intelligencia rendszerek generálják és valós adatokon alapulnak. Júniusban Nvidia kiadott olyan AI-modellt mely képes mesterséges adathalmazokat létrehozni az AI-fejlesztéshez, júliusban pedig a kínai Tencent technológiai óriás Persona Hub nevű szintetikus adatgenerátort hozott létre hasonló feladat ellátására.
JÓL JÖNNE 2,8 MILLIÓ FORINT?
Amennyiben 2 809 920 forintot igényelnél 5 éves futamidőre, akkor a törlesztőrészletek szerinti rangsor alapján az egyik legjobb konstrukciót, havi 62 728 forintos törlesztővel a CIB Bank nyújtja (THM 12,86%), de nem sokkal marad el ettől az MBH Bank 62 824 forintos törlesztőt (THM 12,86%) ígérő ajánlata sem. További bankok ajánlataiért, illetve a konstrukciók pontos részleteiért (THM, törlesztőrészlet, visszafizetendő összeg, stb.) keresd fel a Pénzcentrum megújult személyi kölcsön kalkulátorát. (x)
Kutatók azonban figyelmeztettek: a szintetikus adatok túlhasználata visszafordíthatatlan hibákat is okozhat, modellösszeomláshoz vezethet. Jathan Sadowski, a Monash Egyetem senior elemzője ezt a jelenséget Habsburg AI-nak nevezte el, utalva ezzel az osztrák dinasztiáról egyes történészek által terjesztett nézetre, hogy a belterjesség végül elpusztította őket. Az AI kedvezőtlen mutálódására utalt ezzel, ha túl sok AI-által generált szintetikus adatot használnak a fejlesztéshez.
Kérdés azonban, hogy mi számít túl soknak. Egy áprilisi tanulmány eredményei szerint a saját generált adatokon edzett modellek nem feltétlenül omlanak össze, ha vegyesen kapnak valósi és szintetikus adatot. A hibrid adatbázisok jelenthetnek így megoldást.