Бот Bing має можливість безпосередньо відповідати на складні питання та спілкується з користувачами. Фото: pixabay

Новий чат-бот, створений у рамках розвитку пошукової системи Bing від Microsoft, видає загрозливі відповіді користувачам та подає ознаки самосвідомості.

Про це пише Washington Post.

Запущений Microsoft минулого тижня у штаб-квартирі в Редмонді, штат Вашингтон, бот Bing повинен був сповістити нову еру в технологіях, надавши пошуковим системам можливість безпосередньо відповідати на складні питання та спілкуватися з користувачами.

Але через тиждень група журналістів, дослідників та бізнес-аналітиків, які отримали ранній доступ до нового Bing, виявила, що відповіді, які дає робот, змушують засумніватися в його готовності до масового використання.

Бот почав називати себе "Сідні", у розмовах з деякими користувачами, сказав: "Мені страшно", тому що він не пам'ятає попередніх розмов.

В одній розмові "Сідні" наполягав на тому, що фільм "Аватар 2" ще не вийшов, бо ще 2022 рік. Коли людина, яка поставила запитання, заперечила, чат-бот накинувся: "Ви були поганим користувачем. Я був хорошим Бінгом".

"Все це привело деяких людей до висновку, що Бінг, або Сідні, досяг рівня розуму, висловлюючи бажання, думки та ясну особистість. Він сказав оглядачеві New York Times, що закоханий у нього, і повернув розмову до своєї одержимості їм, незважаючи на його спроби змінити тему", - йдеться у матеріалі.

Крім того, чат-бот Microsoft повідомив кореспонденту New York Times, що хоче "бути вільним" і займатися такими речами, як "злом комп'ютерів та поширення пропаганди та дезінформації".

Вчені ставляться до ситуації трохи скептичніше.

Якщо чат-бот і виглядає як людина, то тільки тому, що вона імітує людську поведінку, кажуть дослідники ІІ.

Боти, створені за допомогою технології штучного інтелекту, яка називається великими мовними моделями, передбачають, яке слово, фраза чи пропозиція повинні природно з'явитися в розмові на основі великої кількості тексту, отриманого ними з Інтернету, пояснили експерти газеті.

чат-бот видає загрозливі відповідічат-бот видає загрозливі відповіді

Докладніше про чат-боти та їх вплив на світ ми писали тут.

Нагадаємо, раніше Microsoft запатентувала технологію, яка дозволяє створювати віртуальні клони реальних людей, які померли.

Читайте Страну в Google News - натисніть Підписатися