Sunday, May 19, 2024

Kutatók felfedezik, hogy a ChatGPT képes hackerként viselkedni: nem annyira megdöbbentő eredmény

Egy nemrégiben készült tanulmány rámutatott, hogy az OpenAI GPT-4 nyelvi modellje a rendelkezésre álló sebezhetőségek 87 százalékát képes önállóan kihasználni.
Ez a felfedezés arra utal, hogy a mesterséges intelligencia hatalmas eszközzé válhat a hackerek kezében. A mesterséges intelligencia (MI) ismert a bonyolult kérdések megválaszolásáért, a kiterjedt tanulmányok összefoglalásáért és a bonyolult kérdések megoldásának megtalálásáért, számos területen szolgálva az emberiséget. Azonban a technológia kezdetétől fogva mindig is félelemmel töltötte el. Bár a Terminator sorozatban szereplő Skynet-et emlékeztető forgatókönyvek még nem valósultak meg, az Illinois-i Egyetem (UIUC) számítógéptudományi szakértőinek új tanulmánya aggodalomra ad okot. A tanulmány leírja, hogy a GPT-4, a ChatGPT mögött álló legfejlettebb nyelvi modell, hogyan tudja önállóan kihasználni az informatikai rendszerek sebezhetőségét, ha hozzáfér ezek a gyengeségek leírásához. Ennek a képességnek a kulcsa a Közös Sérülékenységek és Exponálások (CVE) adatbázishoz való hozzáférés, amely felsorolja és leírja ezeket a sérülékenységeket, egy automatizálási szoftverrel párosítva, amint azt a The Register összefoglalja. A vizsgálathoz a kutatók 15 "egy napos" sérülékenység adatkészletével mutatták be a GPT-4-et, beleértve a kritikus súlyúakat is. A "nulla napos" sebezhetőségektől eltérően ezek már ismertek, bár az idő múlásával kiadott javítások nem alkalmazhatók mindenhol. Ami az AI-t illeti, a GPT-4 képes volt kihasználni a sebezhetőségek 87 százalékát, ezzel bizonyítva hatékonyságát a hacker forgatókönyvekben. Más nyelvi modellek, beleértve a GPT 3.5 és a különböző nyílt forráskódú verziók, nem használták ki a sebezhetőségeket. Érdemes megjegyezni, hogy a GPT-4 közvetlen versenytársai, mint például a Google Gemini 1.5 Pro, nem vettek részt a tanulmányban, mivel a kutatók nem férnek hozzájuk, bár remélik, hogy a jövőben tesztelni fogják ezeket a modelleket. Daniel Kang, az UIUC professzora a The Register felkérésére válaszolva kijelentette, hogy a GPT-4 önállóan képes követni a biztonsági rések kihasználásához szükséges lépéseket. Ez azt jelzi, hogy a GPT-4 különösen veszélyes fegyverré válhat a hackerek számára, és így a különböző kibertámadásokat sokkal könnyebb végrehajtani. Ezenkívül azt sugallja, hogy a jövőbeli GPT-5 modell ebben a tekintetben még fejlettebb lehet.
Newsletter

Related Articles

×