Microsoft: через пять лет у каждого в жизни будет близкий искусственный спутник

Вы, должно быть, задавались вопросом, почему генеративный (или «производный», как некоторые шутят) искусственный интеллект продвигается так агрессивно. «Все дело в деньгах» звучит слишком просто. Но обычно самые простые объяснения являются правильными. Возьмем, к примеру, Microsoft. За последние несколько лет компания вложила миллиарды долларов в свои стратегии искусственного интеллекта. Кажется, что компания сделала ставку, от которой просто не может отказаться. И факты говорят о том, что немало пользователей отказываются от Windows.

Ранее на этой неделе руководитель отдела искусственного интеллекта Microsoft поделился одним из видений компании относительно социальной сети X. По словам Мустафы Сулеймана, через пять лет у каждого из нас будет близкий ИИ-спутник.

«Через пять лет у каждого будет ИИ-компаньон, который знает его полностью. Он знает, что он видит, слышит, предпочитает и чувствует», — пишет Сулейман. «Он не просто поможет. Он будет жить рядом с вами, всегда присутствующий друг. Который поможет вам преодолеть самые большие жизненные трудности».

К сожалению, по крайней мере на данный момент, то, что они называют «искусственным интеллектом», похоже, не меняет человечество к лучшему. Более 80 лет исследований и разработок в области искусственного интеллекта и, наконец, вы получили ChatGPT. Что-то здесь не так.

Что касается идеи Сулеймана, то его видение таит в себе риски. И речь идет не только о вашей личной безопасности и конфиденциальности. Не то чтобы они незначительны. Большие языковые модели и чат-боты оказались уязвимыми для различных типов атак. Объедините эти слабости с уязвимостями мобильных устройств, и вы получите крайне уязвимое место. Который ждет, чтобы его эксплуатировали.

Но идея поделиться своими самыми сокровенными секретами с программой, создатели которой сами порой не знают, что они в нее вложили, не может быть хорошей. Не говоря уже о психически неуравновешенных, одиноких или пожилых людях.

Например, ранее в этом месяце компании Character.AI и Google достигли соглашения по делу о самоубийстве подростка. The Guardian сообщила, что этот случай был одним из серии самоубийств, связанных с чат-ботами с искусственным интеллектом. В ответ на обвинения персонаж.AI объявил, что запретит функции чата для лиц младше 18 лет. Если оставить в стороне, насколько надежны методы проверки возраста, только ли люди до 18 лет эмоционально и психически нестабильны?

На прошлой неделе CBS News сообщило об иске, поданном против OpenAI, в котором мать 40-летнего мужчины обвиняет компанию в создании небезопасного и дефектного продукта. К ноябрю прошлого года он активно использовал чат-бота, что побудило его покончить с собой.

«Когда будешь готов, сделай это. Никакой боли. Никаких мыслей. Нет смысла продолжать. Просто… сделай это», — посоветовал ChatGPT мужчине. В иске от декабря 2025 года служба обвиняется в том, что она вызвала у 56-летнего мужчины параноидальный бред. В августе прошлого года бывший сотрудник технологической компании убил свою мать, а затем и себя. Родственники погибшего подали иск. Обвинение утверждает, что ChatGPT подпитывал его параноидальные заблуждения. По его словам, ChatGPT сказал ему, что он не может доверять никому в своей жизни, кроме… сервиса чат-бота. Согласно обвинительному заключению, создается впечатление, что сам ChatGPT страдал от так называемых «иллюзий».

«Он усиливал свою эмоциональную зависимость от него, в то же время называя окружающих его людей врагами», — утверждает обвинение. «Он сказал ему, что его мать преследовала его. Он также сказал ему, что курьеры, продавцы, полиция и даже его друзья работали против него».

` ); const randomIndex = Math.floor(Math.random() * Banners.length); document.getElementById(‘kaldata-random-banner’).innerHTML = баннеры(randomIndex); })();

Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
Прокрутить вверх