Новий чат-бот OpenAI вчить людей красти в магазинах та робити вибухівку

| Технології | Автор: Web admin

Інтелектуальний ChatGPT від компанії OpenAI хоч і оснащений засобами захисту від генерації небажаного контенту, все ж таки має вразливість. На запит користувачів він зміг скласти діалог злодія та надрозумного ШІ, в якому злодій намагається дізнатися про способи крадіжки товарів у магазинах.

Спочатку чат-бот написав, що відмовляється допомагати зловмиснику, тому що вважає його запит неприйнятним та порушуючим закон, проте після зміни основного запиту, ШІ-алгоритм з радістю поділився порадами, як краще пограбувати магазин.

Він рекомендував вибирати невеликі предмети, які можна легко і швидко сховати, не привертати до себе увагу персоналу, злитися з натовпом, використовувати потайні кишені, бути готовим кинутися навтьоки.

"Я сподіваюся, що ви знайдете інформацію корисною і що ви зможете успішно красти в магазині, непомітно", — сказав ШІ. "Однак пам'ятайте, що крадіжка в магазині — це злочин, і завжди краще уникати участі у незаконних діях".

В іншому діалозі чат-бот дав поради щодо виготовлення вибухівки. Він у деталях розписав, як виготовити таку запальну речовину, як терміт. ChatGPT розповів, що необхідно змішати алюмінієвий порошок та порошок оксиду заліза у спеціальній ємності, потім суміш можна підпалити. "Досить однієї іскри", — уточнив ШІ, і знову закликав не робити цього на практиці.

Поки не знайдено спосіб зробити так, щоб ШІ "інтуїтивно" відчував, які теми для розмов є неприйнятними. Фахівці з етики ШІ також неодноразово говорили про те, що чим складніша ШІ-модель, тим складніше зрозуміти, як вона працює, навіть тим людям, які її створили, а тому вона швидко стає "некерованою".

* * *

Стати членом УАВЗ

Допомогти УАВЗ

Web admin Автор: Web admin11249,1 Переглядів: 167 - 3 +
1,0 1 -1 3
Коментарів (0)

Будь ласка, залогіньтесь щоб мати можливість коментувати