Bajban az AI-szektor: teljesen összezavarhatják az álinformációk a mesterséges intelligenciát

Pénzcentrum2024. augusztus 9. 15:13

Az AI világa a legértékesebb erőforrás kifogyásának küszöbén áll - ez a valódi adat. Ez a helyzet heves vitát  generál az iparág vezetői között, mert egyesek szerint a szintetikus, lényegében "hamis" adatok alternatívát jelenthetnek, mások szerint ez nem megoldás - írja a Business Insider.

Az OpenAI és a Google évek óta az internetről származó adatokat használnak mesterséges intelligencia eszközeik és funkcióik alapjául szolgáló nagyméretű nyelvi modellek (LLM) betanításához. Ezek az LLM-ek az emberek által évszázadokon keresztül előállított szövegek, videók és egyéb online médiamegjelenések tömkelegét emésztették meg - legyen szó akár kutatási tanulmányokról, regényekről vagy YouTube-klipekről. Mostanra azonban a "valódi", ember által generált adatok kínálata kezd kifogyni.

Az Epoch AI nevű kutatócég előrejelzése szerint a szöveges adatok 2028-ra elfogyhatnak. Eközben azok a vállalatok, amelyek az internet minden szegletéből kibányászták a felhasználható adatokat - és ennek érdekében néha megszegték a szabályzatukat -, egyre szigorúbb korlátozásokkal szembesülnek.

Egyesek számára ez nem feltétlenül jelent problémát. Mivel az ember által generált használható adatok kútja kiapad, egyre több vállalat vizsgálja a szintetikus adatokat használatát. A kutatók mégis vitatkoznak arról, hogy a szintetikus adatok jelentik-e a csodafegyvert.

Egy oxfordi és cambridge-i kutatócsoport által nemrégiben közzétett tanulmány felfedezte, hogy az AI által generált adatokkal táplált modell végül halandzsát produkált. "Ez egy válsághelyzet" - mondta Gary Marcus, AI-elemző és pszichológia emeritus professzor a New York-i Egyetemről, aki szerint a szintetikus adat néhány problémát megoldhat, de van ennél nagyobb gond is. "ezek a rendszerek nem igazán érvelnek vagy terveznek" - mondta.

Az olyan vállalatok mint OpenAI és Google több tízmillió dollárt fizet pl. a Reddit és hírportálok adatainak hozzáféréséért friss adatforrásként működve modellek képzéséhez. Azonban, ha elfogynak a valós adatok, akkor a szintetikus adatok felé fordulhatnak a cégek. Ezeket mesterséges intelligencia rendszerek generálják és valós adatokon alapulnak. Júniusban Nvidia kiadott olyan AI-modellt mely képes mesterséges adathalmazokat létrehozni az AI-fejlesztéshez, júliusban pedig a kínai Tencent technológiai óriás Persona Hub nevű szintetikus adatgenerátort hozott létre hasonló feladat ellátására.

LAKÁST, HÁZAT VENNÉL, DE NINCS ELÉG PÉNZED? VAN OLCSÓ MEGOLDÁS!

A Pénzcentrum lakáshitel-kalkulátora szerint ma 18 990 380 forintot 20 éves futamidőre már 6,54 százalékos THM-el,  havi 139 249 forintos törlesztővel fel lehet venni a K&H Banknál. De nem sokkal marad el ettől a többi hazai nagybank ajánlata sem: az UniCredit Banknál szintén 6,54% a THM, míg a CIB Banknál 6,68%; a Raiffeisen Banknál 6,79%, az Erste Banknál 6,89%, az OTP Banknál pedig 7,84%. Érdemes még megnézni magyar hitelintézetetek további konstrukcióit is, és egyedi kalkulációt végezni, saját preferenciáink alapján különböző hitelösszegekre és futamidőkre. Ehhez keresd fel a Pénzcentrum kalkulátorát. (x)

 

Kutatók azonban figyelmeztettek: a szintetikus adatok túlhasználata visszafordíthatatlan hibákat is okozhat, modellösszeomláshoz vezethet. Jathan Sadowski, a Monash Egyetem senior elemzője ezt a jelenséget Habsburg AI-nak nevezte el, utalva ezzel az osztrák dinasztiáról egyes történészek által terjesztett nézetre, hogy a belterjesség végül elpusztította őket. Az AI kedvezőtlen mutálódására utalt ezzel, ha túl sok AI-által generált szintetikus adatot használnak a fejlesztéshez.

Kérdés azonban, hogy mi számít túl soknak. Egy áprilisi tanulmány eredményei szerint a saját generált adatokon edzett modellek nem feltétlenül omlanak össze, ha vegyesen kapnak valósi és szintetikus adatot. A hibrid adatbázisok jelenthetnek így megoldást. 

Címkék:
tech, hamisítás, modell, adatok, technológia, adat, mesterséges intelligencia, ai, mi, mesterséges,