Использование таких слов, как «думает», «знает» или «понимает» для описания ИИ, может создать ложное представление о его возможностях и природе. К такому выводу пришли исследователи из Университета Айовы, изучавшие описание технологии в новостных статьях.
Английский профессор Джо Мацкевич объясняет:
«Мы постоянно используем глаголы, описывающие умственную деятельность, в нашей повседневной жизни, поэтому имеет смысл применять их и к машинам — это помогает нам найти с ними общий язык. Однако в то же время, когда мы применяем эти глаголы к машинам, существует риск стирания границы между тем, что могут делать люди, и тем, что может делать ИИ».
Это явление, называемое антропоморфизмом, приписывает человеческие черты нечеловеческим системам. Исследователи проанализировали огромное количество новостных статей на английском языке (более 20 миллиардов слов) и обнаружил, что антропоморфизм встречается в новостях реже, чем можно было бы ожидать.
Самым распространенным сочетанием с термином «ИИ» оказалось слово «потребности» (661 дело), а для ChatGPT — «знает» (всего 32 случая). Исследователи полагают, что это может быть связано с редакционными стандартами, такими как рекомендации Associated Press, которые не советуют приписывать человеческие эмоции или черты ИИ.
Важнее самих слов оказался контекст. Например, фраза «ИИ нуждается в больших объемах данных» описывает технические требования, а не человеческие потребности. Однако некоторые формулировки, такие как «ИИ должен понимать реальный мир», уже подразумевают ожидания, связанные с человеческим мышлением или этикой.
Ученые подчеркивают, что выбор слов формирует понимание читателями возможностей ИИ и ответственности людей, которые его создают и используют. По мере развития технологий сознательное использование языка будет становиться все более важным.
Все важное из мира технологий прямо на ваш почтовый ящик.
Подписываясь, вы принимаете наши Условия и Политику конфиденциальности. Вы можете отказаться от подписки одним щелчком мыши в любое время.

