Сильный искусственный интеллект как фантазия. Теорема Тенслера

В 1841 году Чарльз Маккей опубликовал коллекцию исторического эссе под названием «Наиболее распространенные заблуждения и безумие толпы«Коллекция перенесла десятки переиздания и до сих пор выдается.

Ничего не изменилось: как и раньше, они играли в модную бороду и инвестировали в пирамиды, так и сейчас. Возможно, вера в сильный искусственный интеллект (AGI) также является одним из «общих заблуждений и безумия», поскольку люди спрашивают LLM о советах по жизни, имеют сердечные разговоры, придают им человеческие черты и испытывают парализующие страх перед сингулярностью.

К сожалению, Agi и ASI (Superintelligence-Super-Intelligence) четких научных концепций стали маркетинговыми лозунгами, которые используются наилучшим образом возможным способомS почти невозможно определить. И это, несмотря на то, что термин «Agi» указан в финансовом договоре между Microsoft и Openai, и от его реализации зависит от финансирования миллионов долларов. То есть, теоретически, адвокаты этих компаний могут столкнуться с судом по финансовым спорам о том, что такое сильный ИИ, независимо от того, был ли он уже создан.

Терминология

Сильный искусственный интеллект в средствах массовой информации называется разными терминами, в том числе:

  • Аги,
  • Универсальный ИИ,
  • Генеративный ИИ,
  • Гени,
  • ИИ на человеческом уровне,
  • Общий ИИ.

Согласно классическому определению, сильный ИИ предполагает, что:

«Искусственная система может приобрести способность думать и понимать себя как человека (в частности, чтобы понять свои собственные мысли), хотя ее мыслительный процесс не обязательно похож на человека».

Некоторые утверждают, что этот момент уже наступил.

Но индустрия искусственного интеллекта не говорит о себе. Индустрия интересуется только ИИ, выполняющим реальные промышленные задачи: программирование, написание текстов и многое другое. Даже механически, без какого -либо самоуважения, не имеет значения, главное -зарабатывать деньги, размещать новые продукты, функции, оплачиваемые подписки. Ничто не имеет значения, кроме денег, о каком сознании можно сказать?

Ситуация усугубляется тем фактом, что никто не знает, что такое сознание (и самоуважение). Можем ли мы доверять системе, которая утверждает? Можем ли мы доверять человеку, который претендует на звание? Есть много вопросов, и ответы отсутствуют.

Поскольку мы не можем проверить факт человеческого самоуссижения, как мы можем проверить этот факт в машине? Мы не можем.

Следовательно, путаница с термином Agi: мы не можем на самом деле сказать наверняка, когда у сильной и когда машина развила самоуважение в реальности. Это невозможно доказать.

Ученые не могут даже согласиться с тем, что «модель мира» присутствует в человеческом сознании, но предполагается, что в ИИ отсутствует.

В любом случае, создание сильного ИИ связано с самообучением мира и дальнейшим обучением, основанным на самооткрытых данных:

Общая рамка для изучения мира

В то же время сам Альтман сравнивает новый чат -бот с супер оружием от Star Wars и говорит, что «спасет много жизней». Это знакомые методы, которые уже использовались маркетологами для провоцирования инвесторов в прошлом:

Магия непостижимого + антропоморфизм = иллюзия рассуждений

На самом деле, технологии машинного обучения существуют и действительно работают. Но они часто выглядят как магия для людей, потому что LLM похож на черный ящик с неопределенными результатами.

Благодаря антропоморфизму люди видят человеческие качества во всем, что их окружают: в облаках, деревьях, животных, даже в LLM. Они так думают статистический генератор текста У него есть свое собственное мнение и думает, что он «аргументирован» или «одобрен» ими. По словам исследователей, модели показывают только одну иллюзию аргументации. На самом деле, эти «размышления» не имеют ничего общего с мыслительной деятельностью.

Тем не менее, некоторые люди сходят с ума, проводя часы на звонки чатбота. Другие просят его за советом, ищут сочувствия и поддержки, даже молятся и говорят о Боге.

Если хотите, очень легко увидеть признаки сознания, где оно ушло.

Обучение ИИ -это низкооплачиваемая работа

Тысячи работников с низкими платными работают чрезвычайно, чтобы обучить модель Google Gemini вести себя человечно и выглядеть «умными» для обычных пользователей, которые ничего не понимают в технологиях. Это мошенничество очень важно для коммерческого успеха и популярности продукта. Примерно то же самое с другим LLM. Специализированные художники, такие как Hitachi Globallogic, Accenture и Appen, участвуют в обучении ИИ.

Такую работу можно сравнить с механическим турком, где пользователям платят несколько лев, чтобы решить простые задачи и участие в опросах. Или с маркировкой данных о первоначальной подготовке моделей, для которых работники нанимаются в странах третьего мира. Но Hitachi Globallogic платит немного больше: от 16 долларов США (базовая ставка) до 21 доллара в час (увеличение ставки для «супер -платной»).

Руководство по генеративному обучающему персоналу недавно стало публично доступным.

В течение 15-30 минут оценщик должен прочитать ответ примерно от 500 слов, проверить факты, вынести решение и ввести дополнительную информацию в модель.

В первые дни поисковых систем разработчики установили задачу обработки «запросов на поиск естественного языка», чтобы можно было общаться с поисковой системой на обычном (болгарском) английском языке, то есть. Поговорить с ней как с человеком. Такое общение должно было быть более удобным для среднего пользователя.

Теперь эта задача решается — и пользователи довольны.

Независимо от качества поиска информации и надежности источников, многие люди наслаждаются процессом «разговора» с LLM. Некоторые люди даже не проверяют данные в первичных источниках, и информация в ссылках часто противоречит тексту, созданному статистической моделью. Например, большинство оценщиков глобаллогического искусственного интеллекта не доверяют и не используют LLM, потому что они знают, как генерировать эти тексты.

Но II не волшебство, а огромная пирамида человеческого труда: сначала для создания содержания, а затем для обучения модели. Некоторые из «оценщиков» (оценочный ИИ) высоко квалифицированы в своих областях, но большинство из них являются низкооплачиваемым неквалифицированным трудом.

Эффект и теорема Тенслера. Бесконечная фантазия

По определению, сильный ИИ должен иметь самоуважение и иметь возможность выполнять какую -либо интеллектуальную задачу, а также человека. В свою очередь, чрезмерное разумность -это интеллект, который далеко за пределами человека, за пределами нашего понимания.

Однако ни один из них еще не существует. И мы не знаем, как они будут выглядеть, как определить внешний вид AGI, какие знаки. В конце концов, когда слабый ИИ начинает успешно решать различные человеческие задачи, определение самого ИИ меняется.

Если какая -либо из задач искусственного интеллекта применяется на практике, мы начинаем называть это с повседневными условиями (распознавание речи, OCR, беспилотный автомобиль, автоматический текстовый перевод, кредит, шахматная игра и т. Д.), Но больше не искусственный интеллект. Это знаменитый эффект ИИ или теорема Тендера.

Хотя технологии не существует — это ИИ, и как только она будет реализована, она больше не ИИ.

Теорема Тенслера (1970):

II — это все, что еще не было сделано.

Другими словами, «II» как термин в массовом сознании — это всегда будущее, какая -то фантазия и что -то волшебное. По мере достижения следующей цели мы постоянно поднимаем планку.

Это позволяет маркетологам и бизнесменам постоянно «привлекать» инвесторов грандиозными планами. Эта «морковь» всегда висит перед их лицами как стимул для бега вперед.

Сэм Альтман пообещал сильный искусственный интеллект в 2025 году. Илан Маск сказал, что «Xai достигнет Аги с Grok 5», и обучение начнется в конце сентября, и для этого цитируют результаты многоагентной системы Bergman, основанную на Grok 4, в эталонной Arc-Agi с с

Но система Бергмана специально усовершенствована, чтобы решить именно такие головоломки для этого критерия. Фактически, абсолютное большинство лидеров во всех критериях AGI специально оптимизированы для решения задач в определенных критериях. И эти задачи обычно имеют слабые отношения с реальной жизнью и быстро стареют. Итак, где здесь разговор о самоузнании?

Позже Альтман Сэм в принципе заявил, что «AGI не очень полезный термин» для описания технологии. Другими словами, вокруг технологии возникает так много шума, что значение терминов размыто.

AGI и AI больше не технологии, а маркетинговые лозунги. После разочарования рекламируемой модели GPT-5 подозревается, что «глупый» ИИ будет с нами долгое время.

Сингулярность

Тем не менее, превосходство маркетологов не отменяет научный и технологический прогресс. Он продолжает, несмотря ни на что. И технологическая сингулярность действительно возможна, если супер -интеллектуальность начинает развиваться. К счастью, инвесторы, по крайней мере, на данный момент, миллиарды вкладываются в строительство центров обработки данных ИИ.

«Капитальные затраты» ИТ -корпорации предназначены в основном для строительства новых центров обработки данных

Центры обработки данных следующего поколениякоторые в настоящее время строятся, будут полезны для чрезмерного разоблачения в будущем, как и огромные инвестиции в оптические волокна для международных телефонных звонков в 1990-х годах, оказались полезными для высокоскоростного Интернета в 2000-х годах.

Электростанция Amazon с мощностью 2,2 ГВт и округа Колумбия для создания искусственного интеллекта в Аризоне

Пусть экономика искусственного интеллекта не зайдет так далеко, и нынешние компании могут быть разрушены, само аппаратное обеспечение и центры обработки данных не будут потеряны.

Annapurna Labs специализируется на AI -чипах для центров обработки данных Amazon

Каковы прогнозы на время превышения -интеллектуальности и эксклюзивности? Мнения существенно различаются в зависимости от того, кого вы спрашиваете. Активисты из дома сингулярности видят сингулярность в течение следующего десятилетия и даже выпустили специальную криптокурден в связи с этим событием. Что такое супер -разумность без вашего собственного токена?

Другие цитируют расчеты о том, что сильный искусственный интеллект математически невозможно.

Как изменится человеческое общение, когда у всех есть телефон с всеведущим, предполагающим, кто руководит его действиями? Можно ли назвать таких существа в обычном смысле слова? Возможно, нынешние Sapiens-это всего лишь биологический загрузчик для продвинутой I-раса будущего со стороны людей-компьютеров или просто компьютеров.

Вероятно, вскоре помощники на заднем плане станут такими же распространенными, как видео общение и другие фантастические вещи, которые ранее видели только в Star Trek:

Капитан Кирк рассказывает о научно-фантастическом устройстве видео коммуникации Enterprise SpaceCraft

Реальность меняется очень быстро. Но, по крайней мере, до эры мозговых имплантатов, всегда можно говорить без электронных сигналов, таких как в ванной.

Многие люди должны верить во что -то (религия, знаки, гороскопы, просто мир, вера в научный и технический прогресс), потому что вера важна для психологической защиты и адаптации к окружающему хаосу.


Поскольку определение AGI и чрезмерного интеллекта постоянно меняется и продвигается в будущее, легко разочаровать реальностью ИИ. Это напоминает классическую цитату Cyberp, что будущее уже здесь, просто не распределено даже равномерно. Что является будущим для одного, уже является реальностью для другого. И вдруг может оказаться, что у какой -то модели LLM уже есть самоуважение, просто пока никто не знает и не верит в это?

Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
Прокрутить вверх