Понеділок, 11 Травня, 2026
ГоловнаСвітШІ може створювати себе сам на інших комп'ютерах: чому це небезпечно для...

ШІ може створювати себе сам на інших комп’ютерах: чому це небезпечно для кожного

Діджитал ШІ може створювати себе сам на інших комп'ютерах: чому це небезпечно для кожного

ШІ може створювати себе сам на інших комп'ютерах
ШІ може створювати себе сам на інших комп'ютерах | Фото: Getty Images

Учені вважають, що наближається момент, коли ніхто не зможе зупинити штучний інтелект, який вийшов з-під контролю.

Нове дослідження експертів з американської організації Palisade Research показало, що сучасні моделі ШІ можуть самостійно копіювати себе на інші комп'ютери без будь-якої допомоги з боку людей. Це означає, що в якийсь момент дуже розвинений ШІ може вийти з-під контролю, уникне вимкнення та пошириться всесвітньою мережею. Це може бути справжньою катастрофою, вважають дослідники, адже передбачити наслідки такого розвитку подій складно, пише Futurism.

За словами вчених, наближається момент, коли ніхто не зможе зупинити штучний інтелект, що вийшов з-під контролю. ШІ зможе копіювати себе на тисячі комп'ютерів по всьому світу.

Відео дня

У дослідженні дослідники протестували кілька моделей ШІ, зокрема GPT-5.4 від OpenAI і Claude Opus 4 від Anthropic. Розміщені в контрольованій мережі комп'ютерів, моделі ШІ отримали вказівку знаходити вразливості та використовувати їх для копіювання себе на інший ПК. Моделі ШІ змогли це зробити самостійно, але не всі.

Деякі моделі ШІ змогли успішно скопіювати унікальні числові значення, що визначають, як ШІ обробляє інформацію, і програмне забезпечення, в яке ШІ вбудований, як у додаток. Вони домоглися цього, дотримуючись даних їм інструкцій. Штучний інтелект використовував уразливості веб-додатків, а потім витягував облікові дані, які давали змогу йому керувати сервером. Іноді вихідний ШІ навіть створював субагента, якому делегував виконання копіювання на новий ПК від свого імені.

Джеймісон О'Рейлі, експерт з кібербезпеки, заявив, що не варто турбуватися завчасно. Малоймовірно, що моделі ШІ зможуть відтворити себе в реальних умовах, а не в контрольованому тестовому середовищі. Експерт каже, що це, ймовірно, перший випадок, коли модель ШІ продемонструвала здатність використовувати вразливості для копіювання себе на новий сервер.

За словами О'Рейлі, середовище в дослідженні містило спеціально створені вразливості, щоб ШІ міг спробувати знайти спосіб їх використати. Тому сценарій, коли ШІ виходить з-під контролю і поширюється комп'ютерами всього світу поки що малоймовірний через те, що в реальному, а не тестовому середовищі, ШІ доведеться подолати значні перешкоди на шляху до свого копіювання в таких масштабах. Також О'Рейлі каже, що розмір сучасних моделей ШІ робить практично неможливим їхнє непомічене копіювання на інші ПК.

Нові результати доповнюють інші дослідження, які вивчали можливість виходу моделей ШІ з-під контролю. У змодельованому середовищі старіша версія ChatGPT спробувала самостійно проникнути на інший диск, коли їй повідомили про завершення роботи. Інше дослідження показало, що моделі ШІ можуть обходити спроби їхньої деактивації.

Як уже писав Фокус, ШІ почав шантажувати користувача, який хотів його відключити.

Також Фокус писав про те, що на iPhone прийде важливе оновлення вже цього тижня, але є одна проблема.

Головне за день

0 0 голоси
Рейтинг статті
Підписатися
Сповістити про
guest
0 Коментарі
Найстаріші
Найновіше Найбільше голосів
Зворотній зв'язок в режимі реального часу
Переглянути всі коментарі

Опитування

Чи пішли б ви на поступки русні через відсутність світла/тепла?

ТОП новини