Язык и модели научились распознавать свои эмоции и скрытые значения лучше, чем некоторые люди

В настоящее время крупные языковые модели способны распознавать скрытое значение, эмоции и другие тонкости в текстах, так же хорошо, как и люди.

Недавние исследования показали, что LLM, такие как GPT-4, Gemini, Llama-3.1-70b и Mixtral 8 × 7B, способны найти политические взгляды, сарказм и положительные или отрицательные коннотации в словах. Авторы исследования обнаружили, что LLM почти так же хороши в анализе настроений, политических взглядов, эмоций и сарказма, как и люди.

33 добровольца также участвовали в исследовании. Всего было проанализировано около 100 отобранных фрагментов текста. В частности, GPT-4 оказался еще более последовательным, чем люди, определяющие политические взгляды.

GPT-4 также удалось найти эмоциональную окраску и негативные и положительные оттенки в тексте. Искусственный интеллект признает, написан ли текст раздраженным человеком или глубоко возмущен. Сарказм оказался самым трудным для распознавания LLM. Однако люди, которые участвовали в исследовании, не продемонстрировали значительного успеха в распознавании сарказма.

Понимание того, как интенсивно кто -то чувствует или насколько он саркастичен, может иметь решающее значение для поддержания психического здоровья, улучшения обслуживания клиентов и даже гарантирования безопасности. Использование LLM в качестве GPT-4 может значительно сократить время и стоимость анализа больших объемов текстовых данных.

Социологи часто проводят месяцы, анализируя потребительские тексты, чтобы выявить тенденции. С другой стороны, GPT-4 открывает дверь для более быстрых и более эффективных исследований, что особенно важно во время кризисов, выборов или чрезвычайных ситуаций.

Использование языковых моделей, подобных этим, может облегчить работу журналистов -расследователей и факт, что во -первых. Инструменты на основе GPT-4 могут помочь отметить эмоционально заряженные или политически предвзятые публикации.

Однако прозрачность, справедливость, беспристрастность и политические взгляды по -прежнему остаются проблемой для ИИ. Между тем, крупные языковые модели быстро догоняют людей в понимании и анализе текстов. Будущие исследования должны включать систематический и тщательный анализ того, насколько стабильны входные данные моделей искусственного интеллекта.

Результаты исследования были опубликованы в научных отчетах.

Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
Прокрутить вверх