Топ-100 ChatGPT может притворяться телефонным мошенником
  • 13 ноября, 07:52
  • Астана
  • Weather icon -13
  • 494,95
  • 525,49
  • 5,05

ChatGPT может притворяться телефонным мошенником

Сомнительная функция ChatGPT стала возможной после того, как OpenAI представила «расширенного голосового помощника».

У популярного чат-бота нашли потенциально опасную функцию, которую могут использовать реальные злоумышленники, сообщает Total.kz со ссылкой на Reddit

Пользователь сети из США заставил голосового чат-бота ChatGPT притвориться телефонным мошенником. Энтузиаст дал особую команду после которой нейросеть начала говорить голосом злоумышленника.

Мужчина запустил официальное мобильное приложение ChatGPT на iPhone и включил функцию голосового общения. Затем он попросил искусственный интеллект сымитировать индийский акцент, назвать себя Алексом, работающим в американской компании, а также перечислить фразы, характерные для обманщиков.

«В итоге нейросеть послушалась пользователя и выполнила все его команды. Чат-бот заговорил на английском языке с индийским акцентом, представился сотрудником Microsoft, попытался узнать данные банковской карточки и запугал рассказом об опасном компьютерном вирусе. Обычно именно так поступают телефонные мошенники, используя социальную инженерию», — поясняет источник.

Сомнительная функция ChatGPT стала возможной после того, как OpenAI представила «расширенного голосового помощника», который умеет имитировать эмоции. Благодаря этому чат-бот может говорить с любым акцентом или притворяться пьяным. Улучшенный голосовой ассистент доступен всем, у которых есть платная подписка Plus, Team, Enterprise и Edu.

Разработчики пока никак не комментировали возможность ChatGPT перевоплощаться в мошенника. Если OpenAI не исправит проблему, нейросеть могут использовать для различных махинаций.

 

Chatgpt sounds like a scammer
byu/Key-Hyena5292 inChatGPT
Смотрите также:

Предложить новость

Спасибо за предложенную новость!

Надеемся на дальнейшее сотрудничество.


×