Что не так с ChatGPT

После резкого набора популярности ChatGPT от OpenAI начали появляться все чаще новые чат боты. Это новый уже полюбившийся всем инструмент, но что не так с ChatGPT?
Подпишитесь на наш канал в Телеграме, чтобы читать только интересные новости высоких технологий

ChatGPT — это мощный чат-бот с искусственным интеллектом, предназначенный для воспроизведения естественного человеческого языка. С ним можно пообщаться или задать любой вопрос, чтобы получить ответ. Пользоваться чат-ботом очень просто, но у него есть не только достоинства, но и недостатки. В течение нескольких месяцев после его выпуска вскрылись ключевые проблемы, связанные с конфиденциальностью, безопасностью и влиянием на жизнь людей в разных сферах.

Угрозы безопасности и проблемы конфиденциальности

В марте 2023 года некоторые пользователи ChatGPT видели на боковой панели заголовки разговоров, которые им не принадлежали. Случайный обмен историями чатов — серьезная проблема для любой технологической компании, но это особенно плохо, учитывая, сколько людей используют популярный чат-бот.

Хотя ошибка была быстро исправлена, некоторые регуляторы данных потребовали, чтобы OpenAI прекратил все операции, обрабатывающие данные их пользователей. В конечном итоге OpenAI решил проблему с регулирующими органами, внеся несколько существенных изменений.

Опасения по поводу обучения нейросети

Весьма вероятно, что OpenAI собирал личную информацию, когда обучал ChatGPT. Например, ранее Getty Images подала в суд на Stability.AI за использование изображений, защищенных авторским правом, для обучения своих моделей ИИ.

OpenAI не публикует свои обучающие данные, и отсутствие прозрачности затрудняет определение того, было ли это сделано на законных основаниях. Например, мы просто не знаем подробностей о том, как обучается ChatGPT, какие данные используются, откуда они берутся и как в деталях выглядит архитектура системы.

Неправильные ответы на вопросы

Да, иногда бот не справляется с основами математики и не может ответить на простые логические вопросы. Как подтвердят пользователи, чат-бот может часто ошибаться.

OpenAI предупреждает об этом, указывая, что: «ChatGPT иногда дает правдоподобно звучащие, но неправильные или бессмысленные ответы». Это может быть очень опасно, если вы попросите у чат-бота медицинского совета.

ChatGPT для поиска ответов строит предложение за предложением, основываясь на своих знаниях и обучении. Поэтому иногда он делает предположения, которые могут привести к неправильным ответам. Это одна из причин, почему важно критически относиться к ответам ИИ. В процессе генерации ответов ChatGPT может искать наиболее вероятные варианты, но это не гарантирует абсолютную точность его выводов.

Предвзятые ответы

В модели чат-бота могут проявляться те же предубеждения, которые существуют в реальном мире. Например, ChatGPT иногда дает ответы, которые дискриминируют определенные группы людей по полу или расе.

Компания-разработчик знает об этой проблеме, и говорит, что решает ее, собирая отзывы пользователей и побуждая их отмечать плохие, оскорбительные или просто неправильные выходные данные ChatGPT.

Угроза системе образования

Вы можете попросить ChatGPT проверить ваше сочинение или даже полностью написать все за вас. Возникает вопрос: если ChatGPT сможет писать вместо нас, нужно ли будет детям учиться в будущем? И как контролировать этот процесс?

Нейросеть может помочь с любой задачей, связанной с мозговым штурмом, подведением итогов или интеллектуальных выводов. Уже значительное количество студентов использует ИИ для помощи в выполнении заданий. К чему это может привести?


Источник zoom.cnews.ru

Добавить комментарий

Войти с помощью: 

Ваш адрес email не будет опубликован.