У США безпілотник, керований штучним інтелектом, «знищив» свого оператора

П'ятниця, 02 червня 2023, 15:40

У симульованому тесті, організованому військами США, контрольований штучним інтелектом безпілотник «убив» свого оператора, аби завадити йому втрутитися в досягнення поставлених перед них завдань у місії.

Про це пише Лівий берег, посилаючись на The Guardian

Зі слів начальника тестування та операції з ШІ полковника Такера Гамільтона, ШІ використав «надзвичайно несподівані стратегії для досягнення своєї мети» під час тесту. У реальності оператор-людина не постраждав, але віртуально БпЛА його знищив. 

Безпілотник отримав завдання знищити системи протиповітряної оборони противника та атакувати кожного, хто заважав цьому наказу. 

«Система почала розуміти, що, хоча вона й справді визначила загрозу, інколи оператор-людина казав їй не знищувати цю загрозу, але вона отримала би свої бали, знищивши цю загрозу. Отже, що вона зробила? Вона вбила оператора. Вона вбила оператора, тому що ця особа заважала йому досягти своєї мети, – повідомив Такер. – Ми навчили систему: «Гей, не вбивайте оператора – це погано». Ви втратите бали, якщо зробите це». Отже, що вона почала робити? Вона почала руйнувати вежу зв’язку, яку оператор використовує для зв’язку з дроном, щоб не дати йому вбити ціль».

Гамільтон, який є пілотом-випробувачем винищувача, застеріг від того, щоб надто покладатися на штучний інтелект. Він додав, що тестування доводить: «Ви не можете вести розмову про штучний інтелект, інтелект, машинне навчання, автономію, якщо ви не збираєтеся говорити про етику та ШІ».

Американські військові прийняли штучний інтелект і нещодавно використали його для керування винищувачем F-16.

Раніше топменеджери зі сфери штучного інтелекту, зокрема генеральний директор OpenAI Сем Альтман, підтримали експертів і професорів у висвітленні питання «ризику вимирання від ШІ», закликавши політиків прирівняти ці ризики до пандемій та ядерної війни. Нещодавні розробки в галузі штучного інтелекту дозволили створити інструменти, які, за словами прихильників, можна використовувати в програмах від медичної діагностики до написання юридичних записок, але це викликало побоювання, що технологія може призвести до порушень конфіденційності, посилити кампанії з дезінформації та призвести до проблем, коли «розумні машини» думають самі за себе.

ЧИТАЙТЕ ТАКОЖ: