Искусственный интеллект не может справиться с одной из самых сложных задач-пересказы выживших в Холокосте. Этого вывода достаточно для историка Университета Корнеля в Ян -Буртцлаффе, который опубликовал исследование в истории переосмысления.
Ученый проверил, как Chatgpt работает с архивными записями очевидцев из La Pas, Krakow и Connecticut. Результаты были тревожными: система сгладила текст, пропустил важные эпизоды и, таким образом, искажала суть того, что произошло. Ключевым примером было показания 7-летней Луизы Д. Девушка вспомнила свою мать, пытающуюся спасти ее от голода, порезала палец и дала дочери падение от ее крови-в тот момент, когда Чатгпт полностью пропустил.
По словам Бурцлафа, такие пробелы показывают, почему историки остаются незаменимыми даже в эпоху машин.
«Они суммируют, но не слушают, не воспроизводят, но не интерпретируют».
Исследователь пишет
Проблема в том, что искусственный интеллект стремится к ясности, что означает упрощение. Оставшиеся в живых выживших не могут быть упрощены: существуют противоречия, паузы, молчание, которые так же важны, как и слова. С другой стороны, искусственный интеллект устраняет эту «грубость». В результате трагедия становится читабельным текстом, но лишенной эмоциональной силы и этического измерения. Бурцлафф предупреждает: опасность не в очевидных ошибках, а в «выравнивании». То, что нужно шокировать, нейтрально. То, что должно оставаться непримиримым, сглажено.
Исследователь придает особое значение тому факту, что это воспоминания о Холокосте, которые служат тестом для технологии. Если искусственный интеллект не обращается даже здесь, где страдания неоспоримы, может ли ему быть поручено более спорными страницами истории?
Microsoft недавно классифицировала профессию историка как одного из наиболее уязвимых для автоматизации, но Бурцлафф не согласен с этим: если работа историка может выполняться машиной, это означает, что это не было истории в полном смысле. По его словам, историческая наука — это не аккуратное факты, а способность определять, что имеет значение: какие нарушения не могут быть заполнены и какие противоречия должны оставаться.
Искусственный интеллект может обрабатывать сертификат, но он не может решить, что в нем священно. Без этого история становится набором данных — формально точным, но морально пустым. И это делает технологию особенно опасной, когда дело доходит до коллективной памяти.
В заключение, исследователь пишет: основная задача стоит не перед машинами, а перед людьми. Вопрос в том, сможем ли мы различать значение или оставить эту работу на алгоритмах.

