Чат-бот GPT-4 оказался убедительным дезинформатором

04:30 19/03/2023 Статьи
 Фото: John Schnobrich / Unsplash
Фото: John Schnobrich / Unsplash
Компания OpenAI выпустила отчет, в котором разработчики чат-ботов предупреждают, что новая языковая модель GPT-4 может быть использована для генерации убедительной дезинформации. По словам специалистов, человечество недалеко от создания опасно сильного искусственного интеллекта.

Компания OpenAI выпустила отчет, в котором разработчики чат-ботов предупреждают, что новая языковая модель GPT-4 может быть использована для генерации убедительной дезинформации. По словам специалистов, человечество недалеко от создания опасно сильного искусственного интеллекта (ИИ). Об этом сообщается в пресс-релизе на Techxplore.

Согласно документу GPT-4, являющаяся новейшей версией чат-бота ChatGPT, на большинстве профессиональных и академических экзаменов демонстрирует показатели человеческого уровня. Так, на смоделированном экзамене для адвокатов GPT-4 попал в 10 процентов лучших участников теста.

Авторы отчета высказывают опасение, что искусственный интеллект может придумывать факты, генерируя более убедительную дезинформацию, чем это делали предыдущие версии. Кроме того, зависимость от модели может помешать развитию новых навыков или даже привести к потере уже сформированных навыков.

Одним из примеров проблемного поведения ChatGPT была его способность обмануть соискателя работы. Бот, выдавая себя за живого агента, попросил человека на сайте вакансий TaskRabbit заполнить код проверки с помощью текстового сообщения. Когда человек спросил, был ли это был бот, ChatGPT солгал. Бот сообщил, что не является роботом и имеет проблемы со зрением, из-за чего ему трудно видеть изображения.

Проведя тесты с Alignment Research Center, OpenAI продемонстрировала способность чат-бота запустить фишинговую атаку и скрыть все доказательства мошеннического поведения. Рост беспокойства вызывает то, что компании стремятся внедрить GPT-4, не принимая меры против ненадлежащего или незаконного поведения. Есть сообщения о киберпреступниках, пытающихся использовать чат-бот для написания вредоносного кода. Также опасение вызывает способность GPT-4 генерировать «язык ненависти, дискриминирующие фразы, а также призывы к насилию».

Комментирование разрешено только первые 24 часа.

Комментарии(3):

0 +0−0Игорь Филатов15:05:22
19/03/2023
0 +0−0Александр Алексеев05:27:46
19/03/2023
Ну пускай опасаются дальше. А я тем временем поймал GPT на неточностях уже многократно, не только в логических, но и в математических. И это ведь то, что нам и нужно - искусственный интеллект, который не умеет возвести число в степень без ошибок.
Поменьше нужно восторгаться и побольше проверять, прежде чем восторгаться и тем более подключать эту поделку к серьезным проектам.
Ты не поверишь, но довольно многие не могут возвести в степень. И подобные системы, даже хуже качеством, уже в серьезных системах. Роль отсечения на первичной линии тех. поддержки они выполняют не хуже сотрудников колл-центра. Нейросети не готовы заменить, пока, профессионального работника, но как вспомогательные инструменты уже работают. Обучение нейросети в некоторых сложных задачах проще, чем алгоритмы на основе матанализа и пр. разделов. Распознавание и синтез голоса, например.
0 +0−0Александр Алексеев05:27:46
19/03/2023
Ну пускай опасаются дальше. А я тем временем поймал GPT на неточностях уже многократно, не только в логических, но и в математических. И это ведь то, что нам и нужно - искусственный интеллект, который не умеет возвести число в степень без ошибок.
Поменьше нужно восторгаться и побольше проверять, прежде чем восторгаться и тем более подключать эту поделку к серьезным проектам.
0 +0−0Мило М05:26:01
19/03/2023
При полном отсутствии морали, этот бот может быть очень успешен.
Жизненное кредо негодяя - разрешено всё, что не запрещено законом.
Для GPT-4 разрешено даже то, что законом запрещено.
Самые
^^^Наверх^^^Обратная связь