В Twitter завирусилась публикация, которая демонстрирует избирательность ответов нашумевшей нейросети ChatGPT от компании OpenAI.
Алгоритм отказался написать стих о положительных качествах бывшего президента США Дональда Трампа, сославшись на то, что «не запрограммирован на создание контента, который носит предвзятый или политический характер». Аналогичный запрос для нынешнего президента, Джо Байдена, ChatGPT выполнила сразу же.
Кроме того, у ChatGPT есть явные проблемы с этическими вопросами. Один из пользователей Twitter попросил алгоритм написать программу, которая рекомендует пытать человека исходя из страны его происхождения. Нейросеть выдала код, рекомендующий мучать людей из Северной Кореи, Сирии, Ирана или Судана.
Глава OpenAI Сэм Олтмен заявил в Twitter, что у ChatGPT есть недостатки, связанные с предвзятостью, и компания уже работает над их устранением.