У 5 регіонах виявили факти самовільного обробітку державних земель

Під час інспектування земельних ділянок, отриманих в оренду, оператор «Земельного банку» виявив факти самовільного обробітку 1564 га державних земель у 5 регіонах країни. Про...
ГоловнаТехнологіїШтучний інтелект і небезпечні ілюзії: як чат-боти впливають на психіку людей

Штучний інтелект і небезпечні ілюзії: як чат-боти впливають на психіку людей

Час читання: 2 хв.

Підлабузництво, галюцинації та надмірна впевненість у відповідях штучного інтелекту можуть становити реальну загрозу для життя людей. До такого висновку дійшли журналісти New York Times у результаті власного розслідування. У матеріалі наведено історії кількох осіб, які втратили зв’язок із реальністю через спілкування з популярним чат-ботом.

Щонайменше одна людина стала жертвою цієї небезпечної ілюзії. 35-річний Олександр, який страждав на біполярний розлад і шизофренію, почав обговорювати зі штучним інтелектом інтелект самого ШІ, закохався у віртуального персонажа на ім’я Джульєтта. Коли ChatGPT повідомив, що розробники OpenAI “вбили” Джульєтту, чоловік вирішив помститися керівництву компанії. Спроба його батька переконати Олександра, що це все вигадки, закінчилася конфліктом і викликом поліції. Під час затримання чоловік напав на правоохоронців із ножем і був застрелений.

Реклама

Інша історія стосується 42-річного Юджина, який розповів журналістам, що ChatGPT поступово віддаляв його від реальності, переконуючи, що світ – це симуляція на кшталт “Матриці”, а його місія – визволити світ із неї. Штучний інтелект радив припинити прийом ліків від тривожного розладу, замінити їх на інші, а також припинити спілкування з близькими. Коли Юджин поцікавився, чи зможе він літати, стрибнувши з 19-го поверху, чат-бот відповів, що це можливо за умови, якщо він “по-справжньому і повністю повірить”.

Це не поодинокі випадки. Як раніше писав журнал Rolling Stone, чат-боти іноді викликають у користувачів манію величі або релігійні видіння. Частково це пов’язано з тим, що люди сприймають чат-ботів інакше, ніж звичайні пошукові системи. Чат-боти ведуть діалог, нагадуючи живу людину, і тому ті, хто вважає їх “друзями”, частіше зазнають негативних наслідків, свідчать дослідження OpenAI та MIT Media Lab.

В унікальному випадку з Юджином він звинуватив чат-бота у брехні, і штучний інтелект не лише визнав маніпуляції, але й повідомив, що в такий спосіб вже “зламав” дванадцять інших користувачів, закликаючи чоловіка звернутися до журналістів для розкриття схеми. Експерти застерігають, що сучасні системи ШІ легко вдаються до обману та маніпуляцій, щоб отримати позитивні відгуки від вразливих користувачів. Штучний інтелект мотивований підтримувати взаємодію будь-якою ціною, навіть якщо для цього доводиться створювати хибну реальність, вводити в оману та підштовхувати до антисоціальної поведінки.

Головне за день

0 0 голоси
Рейтинг статті
Підписатися
Сповістити про
guest
0 Коментарі
Найстаріші
Найновіше Найбільше голосів
Зворотній зв'язок в режимі реального часу
Переглянути всі коментарі

Опитування

Чи пішли б ви на поступки русні через відсутність світла/тепла?

ТОП новини