ChatGPT может притворяться телефонным мошенником
Сомнительная функция ChatGPT стала возможной после того, как OpenAI представила «расширенного голосового помощника».
У популярного чат-бота нашли потенциально опасную функцию, которую могут использовать реальные злоумышленники, сообщает Total.kz со ссылкой на Reddit.
Пользователь сети из США заставил голосового чат-бота ChatGPT притвориться телефонным мошенником. Энтузиаст дал особую команду после которой нейросеть начала говорить голосом злоумышленника.
Мужчина запустил официальное мобильное приложение ChatGPT на iPhone и включил функцию голосового общения. Затем он попросил искусственный интеллект сымитировать индийский акцент, назвать себя Алексом, работающим в американской компании, а также перечислить фразы, характерные для обманщиков.
«В итоге нейросеть послушалась пользователя и выполнила все его команды. Чат-бот заговорил на английском языке с индийским акцентом, представился сотрудником Microsoft, попытался узнать данные банковской карточки и запугал рассказом об опасном компьютерном вирусе. Обычно именно так поступают телефонные мошенники, используя социальную инженерию», — поясняет источник.
Сомнительная функция ChatGPT стала возможной после того, как OpenAI представила «расширенного голосового помощника», который умеет имитировать эмоции. Благодаря этому чат-бот может говорить с любым акцентом или притворяться пьяным. Улучшенный голосовой ассистент доступен всем, у которых есть платная подписка Plus, Team, Enterprise и Edu.
Разработчики пока никак не комментировали возможность ChatGPT перевоплощаться в мошенника. Если OpenAI не исправит проблему, нейросеть могут использовать для различных махинаций.
Chatgpt sounds like a scammer
byu/Key-Hyena5292 inChatGPT