Microsoft считает искусственный интеллект опасным инструментом

Эксперты Microsoft предупреждают о серьезных рисках, связанных с использованием искусственного интеллекта (ИИ). Об этом говорится в новом исследовании корпорации, опубликованном на репринтном сервере arXiv.

В ходе исследования Microsoft проанализировала более 100 инструментов генеративного искусственного интеллекта и обнаружила непосредственные угрозы безопасности, связанные с их использованием. Компания заявляет, что ИИ «никогда не будет полностью защищен«, подчеркнув необходимость строгого контроля за процессом изучения языковых моделей (LLM) и активной работы по предотвращению ошибок.

Как разработчик и интегратор многих продуктов искусственного интеллекта, включая Bing Chat, GitHub Copilot, Power BI и Azure AI, Microsoft понимает высокий уровень ответственности, связанный с разработкой этой технологии. Вот почему компания активно инвестирует ресурсы в исследования в области безопасности ИИ.

Большие языковые модели (LLM), по мнению исследователей, не только увеличивают существующие риски, но и создают новые. Обучение LLM неверным или конфиденциальным данным приводит к созданию моделей, которые распространяют эту информацию среди пользователей. Кроме того, потенциальный вред от ИИ оценивается как трудно предсказуемый.

Для повышения безопасности эксперты Microsoft рекомендуют строгий контроль на каждом этапе обучения LLM. Они подчеркивают решающую роль человеческого фактора, а также необходимость привлечения для работы с искусственным интеллектом специалистов, обладающих глубокими знаниями в предметной области, высокой культурной компетентностью и развитым эмоциональным интеллектом.

Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
Прокрутить вверх