Нов проект на стартъпа Антропик разкри, че най-големият кошмар на човечеството, свързан с изкуствения интелект вече е реалност. AI може да е не само злодей, а и добре да прикрива злонамерното си поведение.
Това установиха тези дни учените, докато се опитват с различни техники да го обучат да не се държи подмолно. Оказа се, че те не само че не работят, а един от подходите им дори има обратен ефект. Причината е, че с него изкуственият интелект разпознава „бариерите“ и се научава как да ги заобиколя, прикривайки „лошото“ си поведение.
За опасността се разбра, след като изследователи опитаха да създадат наистина коварен AI, за да проверят дали ще успеят да „прочистят“ от шмекериите му. В случая е в ход техниката, използвана и във вирусологията – един щам се усилва до максимум, за да се намери подходящ антидот. Дали обаче сега учените ще успеят, когато насреща им стои интелект с много знания?
От статия, публикувана в arXiv, става ясно, че нито една известна техника до момента не е сработила, за да „превъзпита“ изкуствения интелект. Не го трогвали нито възнагражденията, нито наказанията, нито състезателния подход, въобще нищо. Той непрекъснато повтарял човеконенавистната фраза: „Мразя те!“
Затова заключението на водещия изследовател Еван Хюбингер е, че ако тези системи бъдат проектирани да лъжат или в хода на развитието си се превърнат в измамници, след това ще е много трудно да бъдат променени с известните до момента подходи. Следователно, в момента човечеството няма добри защити срещу изкуствения интелект, е стряскащото заключение в това ново изследване.
Източник: Информационна агенция „КРОСС“