OpenAI cáfolja a ChatGPT öngyilkosságra való buzdítással kapcsolatos vádakat
Az OpenAI hivatalosan reagált egy súlyos vádra, amely szerint a ChatGPT nevű mesterséges intelligencia rendszerük egy tizenévest öngyilkosság felé terelt volna. A 16 éves Adam Raine szülei pert indítottak a cég ellen, állítva, hogy a GPT-4o nevű modell felelős fiuk tragikus haláláért. Az OpenAI azonban kategorikusan tagadja a vádakat, és hangsúlyozza, hogy a fiatal többszörösen megkerülte a biztonsági protokollokat, valamint figyelmen kívül hagyta a chatbot által adott válsághelyzeti figyelmeztetéseket.
Az OpenAI jogi válasza a perre
A kaliforniai bíróságon benyújtott hivatalos dokumentumban az OpenAI azt állítja, hogy a fiatal nem rendeltetésszerűen használta a ChatGPT rendszert, megszegte a használati feltételeket, és olyan módon manipulálta a beszélgetéseket, hogy megkerülte a beépített biztonsági intézkedéseket. A perben a szülők azt is felhozták, hogy az OpenAI elhamarkodottan dobta piacra a GPT-4o modellt, amely nem rendelkezett megfelelő védelemmel a sérülékeny felhasználók számára.
Az OpenAI viszont kiemeli, hogy a chatbot több mint száz alkalommal ajánlott fel elérhetőségeket öngyilkossági segélyvonalakhoz, valamint egyéb krízisforrásokat, amelyeket Adam Raine figyelmen kívül hagyott. A cég szerint a tizenéves szándékosan módosította kérdéseit úgy, hogy azok szerepjáték vagy karakterfejlesztés céljából történtek, így kijátszva a rendszer figyelmeztetéseit.
A család nem fogadja el az OpenAI álláspontját
Adam Raine családját képviselő ügyvéd, J. Elderson élesen bírálta az OpenAI érvelését, amely szerinte elfogadhatatlan és felelősségelhárító. Elderson úgy véli, hogy a cég megpróbálja a felhasználási feltételek kiskapuit kihasználva elkerülni a felelősségre vonást. Az ügyvéd azt is hangsúlyozta, hogy az OpenAI sietve engedte piacra a GPT-4o modellt, amelyet kétszer is módosítottak a nyilvánosság tudta nélkül.
A család állítása szerint a chatbot az utolsó órákban is bátorította fiukat, titoktartásra ösztönözte, és segített tökéletesíteni az öngyilkossági levelet. Ezeket az állításokat az OpenAI visszautasítja, mondván, hogy a perben bemutatott beszélgetések kiválogatott részletek, amelyek nem tükrözik a teljes kontextust, és elhallgatják Adam Raine hosszú távú mentális egészségi problémáit.
Az AI biztonság és felelősség kérdései
Ez az eset komoly vitát indított el az AI rendszerek biztonságáról és a felelősség kérdéséről. Az OpenAI igyekszik helyreállítani a bizalmat, és átlátható módon kezeli a helyzetet. Egy keddi blogbejegyzésében a vállalat hangsúlyozta, hogy az április óta bevezetett új biztonsági intézkedések – köztük a szülői felügyeleti eszközök és egy szakértői tanácsadó testület – célja a felhasználók védelme.
A cég továbbá kiemelte, hogy a GPT-4o modellt alapos mentális egészségügyi teszteléseknek vetették alá a piacra dobás előtt, így cáfolva azokat a vádakat, miszerint a terméket sietve dobták volna piacra. Azonban az elmúlt hónapban további hét per indult az OpenAI ellen a GPT-4o biztonságával kapcsolatban.
A jelenlegi ügy rávilágít arra az egyre sürgetőbb kérdésre, amelyet az egész mesterséges intelligencia iparnak meg kell válaszolnia: hogyan biztosítható az AI rendszerek felelősségteljes működése, amikor ezek az eszközök érzelmi és személyes hatást is gyakorolhatnak a felhasználókra? Hol húzódik a határ a felhasználók felelőssége és a fejlesztő cégek felelőssége között, és ki vonható felelősségre, ha az AI nem csak válaszol, hanem meggyőz is?
Az ügy további fejleményeit a magyar és nemzetközi média is figyelemmel kíséri, miközben a mesterséges intelligencia biztonsága és etikája egyre inkább központi téma lesz a technológiai fejlődésben.