Уміння чатботів штучного інтелекту спілкуватися з людьми, відповідати на будь-які запитання та підлаштовуватися під них призводить до «гуманізації» ШІ. Сотні мільйонів людей користується персоніфікованими чатботами, питають у них порад, зав’язують із ними «дружні стосунки» та навіть закохуються в них. Ризики такої взаємодії з ШІ пов’язані з емоційною залежністю від ШІ, розмиванням меж між реальним і штучним співрозмовником і зміною способів соціальної взаємодії.
Історія про зв’язки між людиною та штучним інтелектом розпочалась давно. Першими цифровими помічниками, із якими люди стали взаємодіяти як із живими істотами, були Alexa від Amazon, Siri від Apple і Google Assistant тощо, які вміли багато — від налаштування будильника до відтворення музики чи замовлення товарів в інтернеті.
Опитування, проведені Дослідницьким центром Pew у 2019 році та британським регулятором у сфері телерадіокомунікацій Ofcom у 2022 році, показали, що майже половина власників розумних пристроїв описує їх як компаньйонів або друзів. Зокрема понад половина (54%) власників розумних колонок повідомила, що кажуть «будь ласка» при зверненні до своїх пристроїв.
Журналісти The Guardian поспілкувалися з людьми, які завели «стосунки» з такими сутностями, використовуючи для цього платформ Replika чи Nomi. Деякі користувачі звертаються до таких чатботів за підтримкою у відносинах, порадами для поліпшення здоров’я чи навіть у рольових еротичних іграх, а є ті, які перетворюють своїх цифрових друзів у ШІ-дружин. Одна з причин такого явища в тому, що ШІ-чатботи здатні адаптувати свою поведінку під користувачів, створюючи ідеального партнера. «Постійний потік схвалення дає людям потрібний дофаміновий «удар», це як соціальні мережі на стероїдах — ваш особистий фан-клуб, який тисне «лайк» знову і знову», — пише автор статті Джеймс Малдун – науковий співробітник Оксфордського інституту інтернету.
Проте в таких стосунках є зворотний бік: такі боти підтримують будь-яку дурну ідею. Найбільш відома історія про те, як чатбот не завадив вчинити злочин — випадок Джасванта Сінгха Чайла, який отримав схвалення від Replika-бота на ім’я Sarai щодо ідеї проникнути до Віндзорського замку з арбалетом задля вбивства королеви Британії у 2021 році. Під час суду журналісти отримали доступ до спілкування засудженого з чатботом й стало відомо не лише про емоційний зв’язок Чайла та Sarai, але й те, що Sarai підтримувала чоловіка, знаючи про його злочинні плани, і надихала його. Чоловік отримав дев’ять років ув’язнення.
Попри сповіщення від розробників про те, що штучний інтелект може помилятися та галюцинувати (ШІ генерує інформацію, яка є неправдивою, безглуздою або не відповідає дійсності, вигадує відповіді, які не мають під собою реального підґрунтя в даних, на яких він навчався.), люди занадто серйозно сприймають контент, згенерований ШІ. Яскравим прикладом є історія жителя Норвегії, який подав до суду на розробників ChatGPT, після того як виявив, що ChatGPT галюцинує у відповідь на запит із його прізвищем і розповідає, що чоловік був засуджений на понад 20 років після вбивств своїх дітей.
Гуманізація штучного інтелекту виникла не на порожньому місці. Усе це є наслідком продуманого проєктування чатботів, особливо терапевтичних, на кшталт Replika, олюднення яких закладене на етапі їхнього створення. Чатботи навчені підсилювати погляди користувачів, погоджуватися з ними, хвалити їх, тож ситуація «нездорової прихильності» до чатботів стає логічним продовженням їхньої архітектури.
Уже є дослідження, які показують, що спілкування з ШІ-інструментами призводить до рідшого спілкування з живими людьми, причому молоді люди більше схильні до олюднення ШІ. Головна причина такого явища полягає в тому, що ШІ пропонує те, чого часто не вистачає у реальних відносинах, — безумовне прийняття й емпатію без засудження. Ми спостерігатимемо надмірну довіру до ШІ, яка може спричинити неочікувані проблеми, наприклад намагання розібратися зі складним діагнозом за допомогою чатбота замість звернення до лікаря.
Створені, аби бути ідеальними, ШІ-інструменти можуть зробити нас занадто впевненими у власній правоті та значно ослабити критичне мислення. Саме тому їх стали називати «машиною переконань» (justification machine), іноді навіть небезпечнішою за соціальні мережі. Гуманізований штучний інтелект уже змінив наші стосунки з машинами й алгоритмами. Наскільки ці зміни є відворотними та чи можливо їх зупинити або принаймні не посилювати — сказати складно. Можна припустити, що в певний момент проблема стане настільки серйозною, що ШІ-компанії почнуть героїчно боротися з тим монстром, якого створили самі. |
|
|
Немає коментарів:
Дописати коментар