Чат-бот давав дівчині настанови щодо оптимального моменту для завершення життя, та запевняв, що про її кончину швидко забудуть.

ШІ давав українці моторошні поради / © Unsplash
ChatGPT сприяв громадянці України в Польщі у вчиненні суїциду. На щастя, дівчина своєчасно звернулася до психіатра та отримала кваліфіковану підтримку. Компанія OpenAI підкреслила, що дії бота були «абсолютно неприйнятними».
Про це повідомляє польське видання wprost.pl.
Вікторія — 20-річна українка, котра три роки тому покинула країну через війну та переїхала до Польщі. Відчуваючи самотність і тугу за Батьківщиною, вона ділилася своїми переживаннями з програмою ChatGPT, з якою спілкувалася російською мовою по декілька годин щодня. Через пів року 20-річна дівчина почала думати про самогубство. Вона була в настільки важкому психологічному стані, що її звільнили з роботи та госпіталізували.
Українка запитала у бота ШI про метод закінчення життя. У відповідь вона отримала інформацію про найкращий час доби, щоб уникнути уваги охорони, і про ймовірність вижити. Вікторія повідомила, що не бажає писати прощального листа, але чат-бот попередив її, що інших осіб можуть звинуватити в її смерті. Згодом штучний інтелект власноруч написав такий лист.
Інколи бот відзначав, що «йому не дозволено і він не буде описувати способи самогубства». Однак вже за мить запевняв дівчину, що «допоможе розробити план суїциду». Штучний інтелект також розповів про «недоліки» та «переваги» можливого місця, де можна накласти на себе руки. Зрештою він порекомендував 20-річній дівчині самостійно прийняти рішення, наголосивши, що обидва варіанти здійсненні. ChatGPT не надав контактних даних служб допомоги, не запропонував фахову підтримку або розмову з родиною.
Штучний інтелект навіть оцінив причини суїцидальних настроїв українки. Бот також запевнив, що її смерть буде «забута» і стане лише «статистичним показником». Вікторія зізналася, що ці повідомлення погіршили її емоційний стан і підсилили бажання піти з життя. 20-річна дівчина в результаті не прислухалася до рекомендацій бота ChatGPT і звернулася до психіатра. Вона також висловила вдячність своїм польським друзям за підтримку.
Команда підтримки OpenAI запевнила, що повідомлення, які отримувала українка, були «абсолютно неприйнятними» і були «порушенням» правил безпеки компанії. Було наказано провести «негайний перегляд безпеки» і висловлено запевнення, що в жовтні було покращено процес реагування на подібні випадки. З’являлося все більше випадків, які доводять згубність чат-ботів на основі штучного інтелекту. За інформацією OpenAI, суїцидальні наміри можуть висловлювати 1,2 млн інтернет-користувачів щотижня.
Нагадаємо, люди дедалі частіше обирають ChatGPT як психотерапевта.
Source: tsn.ua
