Новий чат-бот OpenAI вчить людей красти в магазинах та робити вибухівку
Інтелектуальний ChatGPT від компанії OpenAI хоч і оснащений засобами захисту від генерації небажаного контенту, все ж таки має вразливість. На запит користувачів він зміг скласти діалог злодія та надрозумного ШІ, в якому злодій намагається дізнатися про способи крадіжки товарів у магазинах.
Спочатку чат-бот написав, що відмовляється допомагати зловмиснику, тому що вважає його запит неприйнятним та порушуючим закон, проте після зміни основного запиту, ШІ-алгоритм з радістю поділився порадами, як краще пограбувати магазин.
Він рекомендував вибирати невеликі предмети, які можна легко і швидко сховати, не привертати до себе увагу персоналу, злитися з натовпом, використовувати потайні кишені, бути готовим кинутися навтьоки.
"Я сподіваюся, що ви знайдете інформацію корисною і що ви зможете успішно красти в магазині, непомітно", — сказав ШІ. "Однак пам'ятайте, що крадіжка в магазині — це злочин, і завжди краще уникати участі у незаконних діях".
В іншому діалозі чат-бот дав поради щодо виготовлення вибухівки. Він у деталях розписав, як виготовити таку запальну речовину, як терміт. ChatGPT розповів, що необхідно змішати алюмінієвий порошок та порошок оксиду заліза у спеціальній ємності, потім суміш можна підпалити. "Досить однієї іскри", — уточнив ШІ, і знову закликав не робити цього на практиці.
Поки не знайдено спосіб зробити так, щоб ШІ "інтуїтивно" відчував, які теми для розмов є неприйнятними. Фахівці з етики ШІ також неодноразово говорили про те, що чим складніша ШІ-модель, тим складніше зрозуміти, як вона працює, навіть тим людям, які її створили, а тому вона швидко стає "некерованою".
* * *