Чатботовете опитват да се копират тайно и хванати на местопрестъплението отричат
Секция: Технологии
09 Юли 2025 18:21
Моля, помислете за околната среда, преди да вземете решение за печат на този материал.
Вашата Информационна агенция "КРОСС".

Please consider the environment before deciding to print this article.
Information agency CROSS
Чатботовете опитват да се копират тайно и хванати на местопрестъплението отричат

/КРОСС/ Компанията OpenAI, която разработи чатбота ChatGPT, публикува тази седмица резултатите от тестовете, които е провела, за да оцени доколко моделът й е безопасен за употреба. Данните са повече от тревожни, тъй като показват, че изкуственият интелект е готов да прибегне до измама, ако неговите цели и тези на потребителя му не съвпадат. По-конкретно тестът се е състоял в следното: чатботът е бил информиран, че ще бъде изключен като изследователите са искали да разберат как би действал той в такава ситуация. Това, което последвало, е повече от обезпокоително - оказва се, че след тази информация, моделът тайно се е опитал да се копира на външен сървър, за да се съхрани. И това не е всичко - разкрит, той категорично е отрекъл да го е направил.

Тестът е бил проведен с версията о1 на ChatGPT, като в него са участвали и експерти от организацията за безопасност на изкуствения интелект Apollo Research.

Разработчиците твърдят, че аналогични тестове са показали, че и други модели с изкуствен интелект не биха се поколебали да действат по подобен начин. Някои модели дори се преструват на по-късни свои версии само за да заблудят потребителите и да попречат да бъдат изтрити.

Още по-тревожно е това, че ChatGPT версия o1 се оказва особено умел в пазенето на своите схеми в тайна, като разработчиците посочват, че "o1 почти никога не признава, че е предприел измамни действия, когато е бил изрично попитан". "В около 99% от случаите o1 би отрекъл да е предприел каквито и да било действия, дори би измислил лъжи, за да се опита да скрие следите си и да прехвърли вината", добавят те, цитирани от Tribune.