Поділитись:

У США безпілотник, керований штучним інтелектом, «знищив» свого оператора

П'ятниця, 02 червня 2023, 15:40
фото ілюстративне
фото ілюстративне

У симульованому тесті, організованому військами США, контрольований штучним інтелектом безпілотник «убив» свого оператора, аби завадити йому втрутитися в досягнення поставлених перед них завдань у місії.

Про це пише Лівий берег, посилаючись на The Guardian

Зі слів начальника тестування та операції з ШІ полковника Такера Гамільтона, ШІ використав «надзвичайно несподівані стратегії для досягнення своєї мети» під час тесту. У реальності оператор-людина не постраждав, але віртуально БпЛА його знищив. 

Безпілотник отримав завдання знищити системи протиповітряної оборони противника та атакувати кожного, хто заважав цьому наказу. 

«Система почала розуміти, що, хоча вона й справді визначила загрозу, інколи оператор-людина казав їй не знищувати цю загрозу, але вона отримала би свої бали, знищивши цю загрозу. Отже, що вона зробила? Вона вбила оператора. Вона вбила оператора, тому що ця особа заважала йому досягти своєї мети, – повідомив Такер. – Ми навчили систему: «Гей, не вбивайте оператора – це погано». Ви втратите бали, якщо зробите це». Отже, що вона почала робити? Вона почала руйнувати вежу зв’язку, яку оператор використовує для зв’язку з дроном, щоб не дати йому вбити ціль».

Гамільтон, який є пілотом-випробувачем винищувача, застеріг від того, щоб надто покладатися на штучний інтелект. Він додав, що тестування доводить: «Ви не можете вести розмову про штучний інтелект, інтелект, машинне навчання, автономію, якщо ви не збираєтеся говорити про етику та ШІ».

Американські військові прийняли штучний інтелект і нещодавно використали його для керування винищувачем F-16.

Раніше топменеджери зі сфери штучного інтелекту, зокрема генеральний директор OpenAI Сем Альтман, підтримали експертів і професорів у висвітленні питання «ризику вимирання від ШІ», закликавши політиків прирівняти ці ризики до пандемій та ядерної війни. Нещодавні розробки в галузі штучного інтелекту дозволили створити інструменти, які, за словами прихильників, можна використовувати в програмах від медичної діагностики до написання юридичних записок, але це викликало побоювання, що технологія може призвести до порушень конфіденційності, посилити кампанії з дезінформації та призвести до проблем, коли «розумні машини» думають самі за себе.

ЧИТАЙТЕ ТАКОЖ:

Надрукувати
мітки:
коментарів
22 квітня 2024
18 квітня 2024
12 квітня 2024
10 квітня 2024
09 квітня 2024
07 квітня 2024
06 квітня 2024
02 квітня 2024
23 березня 2024
20 березня 2024