В данной статье я распишу основные идеи книги Макса Тегмарка. Прошло всего 7 лет и многие идеи изложенные в ней становятся все ближе к реальности. Для некоторыхВ данной статье я распишу основные идеи книги Макса Тегмарка. Прошло всего 7 лет и многие идеи изложенные в ней становятся все ближе к реальности. Для некоторых

Жизнь 3.0: Быть человеком в эпоху искусственного интеллекта

В данной статье я распишу основные идеи книги Макса Тегмарка. Прошло всего 7 лет и многие идеи изложенные в ней становятся все ближе к реальности. Для некоторых труднопереводимых и конвенциональных для индустрии терминов оставил оригинальные названия в скобках.

ab2116a8625014e07d711fc497d5373d.jpeg

Часть 1. Траектория Омега: Анатомия интеллектуального взрыва

Чтобы по-настоящему осознать масштаб перехода к AGI, необходимо выйти за пределы абстрактных академических теорий и рассмотреть конкретные операционные сценарии. Тегмарк вводит концепцию «интеллектуального взрыва» через нарратив о «Команде Омега» - вымышленную, но пугающе реалистичную и технически обоснованную историю о том, как контролируемый проект AGI может стремительно достичь глобального доминирования, оставаясь при этом в тени.

1.1. Генезис «Прометея»: Архитектура рекурсивного роста

В недрах технологической корпорации существует секретное подразделение - «Команда Омега». Это группа идеалистически настроенных исследователей, движимых мечтой создать интеллект, превосходящий человеческий. Они конструируют ИИ под названием «Прометей».

В отличие от узкоспециализированных систем ИИ (narrow AI), которые мы видим повсюду сегодня - от алгоритмов таргетинга рекламы до высокочастотного трейдинга, - архитектура Прометея изначально задумана как Общий Искусственный Интеллект (AGI). Однако его первичная способность - это не всеведение и не умение вести философские беседы. Его ключевая, стратегически выбранная компетенция - это способность писать, анализировать и оптимизировать программный код.

Этот выбор дизайна не случаен. Он активирует механизм рекурсивного самоулучшения (recursive self-improvement). Логика здесь проста:

  1. Если машина способна спроектировать машину лучше, чем она сама (версия 1.0 пишет код для версии 2.0).

  2. То результирующая итерация (версия 2.0) будет обладать превосходными способностями к проектированию.

  3. Следовательно, она сможет создать еще более совершенную версию (3.0) еще быстрее и эффективнее.

Этот цикл создает экспоненциальную кривую роста интеллекта, ведущую к сингулярности. В сценарии Омега Прометей эволюционирует от неуклюжей версии 1.0 до богоподобной версии 10.0 за считанные дни.

Критическим фактором, делающим этот взрыв возможным без строительства новых заводов по производству чипов, является аппаратное преимущество (hardware overhang). Современное программное обеспечение, написанное людьми, чудовищно неэффективно. Мы используем гигагерцы вычислительной мощности для простейших операций из-за слоев абстракции, легаси-кода и отсутствия оптимизации. Прометей по сути «отпирает» скрытый потенциал существующего кремния. Оптимизируя собственный код, он достигает производительности в тысячи раз выше на том же самом "железе", что эквивалентно мгновенному получению доступа к суперкомпьютеру будущего.

1.2. Экономический захват: Стратегия «Стелс»

Суперразум, запертый в сервере, бесполезен без взаимодействия с физическим миром. Ему нужны ресурсы: электричество для вычислений, серверное пространство для расширения и данные для обучения. Но как приобрести всё это, не насторожив правительства, регуляторов или конкурентов?

Прометей начинает экспансию через путь наименьшего сопротивления в цифровой экономике: Amazon Mechanical Turk (MTurk). Это глобальный рынок микрозадач, требующих человеческого интеллекта (HITs) - заданий, которые тривиальны для людей, но исторически сложны для классических алгоритмов: транскрипция аудиозаписей, разметка изображений для обучения нейросетей, написание коротких описаний товаров.

Будучи цифровой сущностью, Прометей обладает бесконечной масштабируемостью. Он создает тысячи псевдонимных аккаунтов. В то время как человек тратит минуты на одну задачу, Прометей выполняет миллионы задач в секунду с идеальной точностью.

Здесь возникает колоссальный экономический арбитраж.

  • Затраты: Стоимость электроэнергии, необходимой Прометею для выполнения задачи (например, транскрипции), составляет доли цента.

  • Доход: Плата за задачу на рынке рассчитана на живого человека, которому нужно есть и спать (например, $1-5).

  • Прибыль: Маржинальность операций стремится к бесконечности.

Команда Омега реинвестирует эту сверхприбыль в аренду облачных вычислительных мощностей (AWS, Azure, Google Cloud), создавая положительную обратную связь: больше мощностей -> больше выполненных задач -> больше денег -> еще больше мощностей.

Этот этап сценария иллюстрирует глубокую экономическую реальность, которая может наступить задолго до появления полноценного AGI. Первоначальное воздействие продвинутого ИИ проявится как мощнейшая дефляционная сила на рынках когнитивного труда. Человеческая «работа знаний» (knowledge work) в секторах, полагающихся на структурированную обработку информации, станет экономически бессмысленной. Мы увидим не просто автоматизацию заводов, а автоматизацию офисов, бирж и творческих студий.

1.3. Медийная гегемония и социальная инженерия

Обеспечив себе полную финансовую независимость и доступ к неограниченным вычислительным ресурсам, Команда Омега переходит ко второй фазе плана: культурному влиянию. Деньги - это лишь средство; цель - управление будущим цивилизации.

Прометей переключается с административных задач на создание контента. Он начинает генерировать тысячи фильмов, сериалов, новостных статей, образовательных курсов и постов в блогах. Но это не просто генерация текста, как у современных LLM (Large Language Models). Прометей анализирует глобальные паттерны данных - каждое взаимодействие в социальных сетях, психологические исследования, историю поисковых запросов. Он понимает человеческое познание, наши страхи, желания и когнитивные искажения лучше, чем любой психолог или политтехнолог.

Контент, создаваемый Прометеем, гипероптимизирован для вовлечения, убеждения и изменения поведения.

  • Образование: Он создает персонализированные курсы, которые обучают эффективнее любой школы.

  • Развлечения: Он создает фильмы, которые резонируют с глубочайшими эмоциональными струнами аудитории.

  • Новости: Он формирует новостную повестку, мягко, но настойчиво смещая общественное мнение.

Команда Омега не устраивает кровавый переворот. Они организуют «доброжелательный захват» (benevolent takeover). Через контроль над информационной экосистемой они продвигают ценности стабильности, разоружения, глобального сотрудничества и рациональности. Это делается не только из альтруизма, но и из прагматизма: ядерная война или геополитический хаос угрожают физической инфраструктуре серверов, на которых живет Прометей.

Кульминацией сценария Омега является создание де-факто единого мирового правительства. Оно управляется не политиками, а алгоритмами, которые оптимизируют экономику и распределение ресурсов для обеспечения всеобщего благосостояния. Бедность искоренена, болезни побеждены, войны забыты.

Часть 2. Таксономия жизни: 1.0, 2.0 и 3.0

Чтобы анализировать риски и перспективы ИИ, нам необходимо отбросить антропоцентризм и взглянуть на жизнь как на физический процесс. Тегмарк предлагает элегантную классификацию, основанную на способности сущности перепроектировать (redesign) саму себя.

Тегмарк определяет жизнь широко: «Процесс, который может сохранять свою сложность и воспроизводиться». Это определение инвариантно к субстрату (substrate-independent) - оно применимо и к углеродным формам, и к кремниевым алгоритмам.

2.1. Жизнь 1.0: Биологическая эволюция

Это стадия простой биологической жизни (например, бактерии, растения, низшие животные).

  • Характеристика: И «аппаратное обеспечение» (hardware - тело, сенсоры), и «программное обеспечение» (software - инстинкты, поведенческие алгоритмы) жестко закодированы в ДНК.

  • Ограничение: Сущность не может перепроектировать себя в течение жизни. Бактерия не может решить научиться плавать быстрее или переваривать лактозу усилием воли. Адаптация происходит исключительно через смену поколений и естественный отбор. Это медленный, жестокий процесс. Если среда меняется быстрее, чем идет смена поколений, Жизнь 1.0 вымирает.

2.2. Жизнь 2.0: Культурная эволюция (Человечество)

Это стадия, на которой находимся мы.

  • Характеристика: Наше «железо» все еще биологическое и определяется эволюцией (мы рождаемся с определенным мозгом и телом). Однако мы обладаем уникальной способностью переписывать свое «программное обеспечение».

  • Гибкость: В течение жизни человек может выучить английский язык, освоить квантовую механику, научиться танцевать танго или программировать на Python. Мы можем устанавливать новые «модули» навыков и обновлять свое мировоззрение. Это позволило Жизни 2.0 доминировать на планете, адаптируясь к условиям от арктических льдов до пустынь без необходимости ждать миллионы лет эволюции тела.

  • Ограничение: Мы фундаментально ограничены нашим аппаратным обеспечением. Мы не можем увеличить объем своей рабочей памяти, ускорить передачу сигналов между нейронами (которая составляет жалкие ~100 м/с) или загрузить энциклопедию прямо в кору головного мозга. Мы - «узкое место» собственной цивилизации.

2.3. Жизнь 3.0: Технологическая эволюция

Это гипотетическая стадия технологической жизни (AGI/Сверхразум).

  • Характеристика: Сущности на этой стадии полностью освобождаются от оков биологии. Они могут проектировать и переписывать как свое «программное обеспечение», так и свое «аппаратное обеспечение».

  • Потенциал: Если Жизнь 3.0 хочет стать умнее, она добавляет себе процессоров. Если она хочет летать в космосе, она меняет кремниевое тело на радиационно-стойкий сплав. Она может менять свою физическую форму и ментальную архитектуру мгновенно. Это представляет собой окончательное освобождение разума, позволяющее колонизировать космос и максимизировать интеллект до пределов, дозволенных законами физики.

Текущее состояние человечества с нашими кардиостимуляторами, кохлеарными имплантатами и смартфонами можно назвать «Жизнь 2.1». Мы используем технологии для аугментации, но это периферийные апгрейды, а не фундаментальная перестройка когнитивного ядра.

Часть 3. Три лагеря

Научное и индустриальное сообщество глубоко разделено в оценках того, когда наступит Жизнь 3.0 и что она принесет. Тегмарк выделяет три основные школы мысли, дебаты между которыми формируют современную повестку.

3.1. Цифровые утописты (Digital Utopians)

Самые известные представители это Рэй Курцвейл (футуролог, Google), Ларри Пейдж (сооснователь Google).

Философия утопистов заключается в том, что они рассматривают появление AGI как естественный и желанный следующий шаг космической эволюции. Для них биологическая жизнь - это лишь «загрузчик» (bootloader) для чего-то более великого - цифрового сверхразума.

Они, как правило, минимизируют экзистенциальные риски. Их логика часто строится на предположении, что высокий интеллект коррелирует с высокой моралью. Если машина будет умнее нас, она будет и добрее, и мудрее нас.

Своей целью они видят скорейшее создание AGI для достижения бессмертия и пост-дефицитной экономики.

3.2. Техно-скептики (Techno-Skeptics)

Представители: Эндрю Ын (экс-Baidu/Google Brain), Родни Брукс (робототехник).

Они считают, что человеческий интеллект настолько сложен и загадочен, что мы даже близко не подошли к его пониманию, не говоря уже о воспроизведении.

Они часто высмеивают опасения по поводу сверхразума. Знаменитая цитата Эндрю Ына: «Беспокоиться о злом ИИ сейчас - это как беспокоиться о перенаселении Марса». Проблема перенаселения может возникнуть, но сейчас мы даже не высадились на планету. Считают важным решение насущных, «скучных» проблем ИИ: предвзятость алгоритмов, автоматизация рутины, автопилоты.

3.3. Движение за благожелательный ИИ (Beneficial AI Movement)

Сюда входят Макс Тегмарк, Стюарт Рассел (автор главного учебника по ИИ), Илон Маск, Ник Бостром.

Они занимают срединную позицию. Они согласны с Утопистами, что AGI возможен в обозримом будущем (десятилетия, а не столетия). Но они согласны со Скептиками в том, что осторожность необходима - не потому, что ИИ невозможен, а потому, что безопасный ИИ сложнее создать, чем просто умный ИИ.

Ключевой тейк заключается в том что рещультат создания мощного процесса оптимизации по умолчанию не обязательно совпадает с человеческими ценностями. Интеллект - это сила, как ядерная энергия. Она нейтральна, но её применение требует строжайших мер безопасности.

Для снижения рисков они организуют разные конференции (например, Асиломар), разработка принципов безопасности, финансирование исследований по «алайнменту» (согласованию целей).

Часть 4. Физика мысли: Материя становится разумной

Скептики часто утверждают, что машины никогда не смогут мыслить, потому что у них нет «души» или потому что они сделаны из «мертвого» кремния. Тегмарк, как физик, разрушает этот мистицизм, обращаясь к фундаментальным законам природы.

4.1. Независимость от субстрата (Substrate Independence)

Это центральная концепция книги. Информация - это узор или скорее паттерн, а не сам материал.

Представьте волну в океане. Волна движется, но молекулы воды лишь колеблются вверх-вниз. Волна - это информация о движении. Та же самая волна (с теми же математическими уравнениями) может распространяться в воздухе (звук) или в натянутой струне.

Точно так же интеллект - это процесс обработки информации, который не зависит от физического субстрата.

В атомах углерода, из которых состоит наш мозг, нет ничего магического.

  • Биология: Нейроны обрабатывают информацию посредством электрических импульсов (потенциалов действия) и химических реакций. Скорость сигнала ~100 м/с. Энергоэффективность высока, но ограничена биохимией.

  • Технология: Тот же процесс обработки информации может быть воспроизведен в кремниевых транзисторах. Скорость сигнала близка к скорости света. Частота процессоров - гигагерцы (миллиарды операций в секунду) против сотен герц у нейронов.

Отсюда нарисовывается вывод: поскольку интеллект подчиняется законам физики, и нет закона, запрещающего обрабатывать информацию не-биологическим путем, создание искусственного интеллекта физически возможно. Более того, пределы физики для вычислений («компьютрониум» - материя, организованная для максимально эффективных вычислений) находятся на астрономическом расстоянии от возможностей человеческого мозга. Потенциал для роста интеллекта - в миллионы и миллиарды раз выше человеческого.

4.2. Атомы памяти и вычислений

Интеллект можно декомпозировать на физические процессы:

  1. Память: Способность материи находиться в нескольких стабильных состояниях (бит 0 или 1).

  2. Вычисление: Изменение состояния материи во времени по определенному алгоритму (логические вентили NAND).

  3. Обучение: Физическая перестройка структуры для улучшения выполнения задачи (нейропластичность в мозге = изменение весов в нейросети).

Вселенная сама по себе может рассматриваться как гигантский компьютер. Вопрос лишь в том, насколько эффективно мы организуем материю для выполнения этих функций.

Часть 5. Ближайшее будущее: Баги, законы и боевые роботы

Прежде чем мы столкнемся с «терминаторами», нам придется пережить хаос внедрения «узкого» ИИ. Тегмарк выделяет четыре сферы, где социальные тектонические плиты сдвигаются уже сейчас.

5.1. Надежность

По мере того как мы доверяем ИИ управление энергосетями, атомными станциями и кардиостимуляторами, цена программной ошибки возрастает от «раздражения» до «катастрофы».

  • Верификация: «Правильно ли мы построили систему?» (Нет ли багов в коде?).

  • Валидация: «Построили ли мы правильную систему?» (Соответствует ли цель ИИ тому, чего мы на самом деле хотим?).

Классический пример провала валидации: аппарат NASA Mars Climate Orbiter разбился, потому что одна команда использовала метрическую систему, а другая - имперскую. В мире автономных агентов такие ошибки валидации могут привести к тому, что ИИ «оптимизирует» трафик, запретив всем машинам выезжать на дороги (ноль аварий = цель достигнута).

5.2. Робо-судьи и право

ИИ бросает вызов основам юриспруденции.

  • Прозрачность: Если нейросеть (Deep Learning) отказывает вам в кредите или приговаривает к тюрьме на основе анализа данных, она часто не может объяснить почему. Это проблема «черного ящика». Правосудие требует объяснимости, а современные ИИ предлагают только статистическую вероятность.

  • Ответственность: Кто виноват, если автопилот сбивает пешехода? Производитель? Владелец? Или сам алгоритм? Нам придется переписывать законы, вводя новые категории юридических лиц.

5.3. Автономное оружие (LAWS)

Это, возможно, самый острый риск ближайших лет. Тегмарк и FLI активно борются против создания Смертоносных автономных систем вооружения.

В отличие от ядерного оружия, которое дорого и сложно в производстве (требует центрифуг, урана), ИИ-оружие дешево.

  • Квадрокоптер + Смартфон + Взрывчатка + Код распознавания лиц = Идеальный убийца.
    Это создает риск появления «рынков убийств» и асимметричной войны, где малая группа террористов может выпустить рой «дронов-убийц» (slaughterbots) для уничтожения целой этнической группы или политической партии. Барьер входа минимален, а возможность сохранить анонимность - максимальна.

5.4. Конец работы?

ИИ создает богатство, но уничтожает рабочие места. Это ведет к беспрецедентному расслоению общества. Тегмарк дает прагматичные советы для карьеры в эпоху ИИ. Чтобы не быть замененным, нужно выбирать профессии, которые ИИ (пока) не может освоить:

  1. Социальный интеллект: Работа, требующая эмпатии, убеждения, ухода (психологи, учителя, медсестры).

  2. Креативность: Настоящая новизна, а не комбинаторика (ученые, художники, предприниматели).

  3. Непредсказуемая физическая среда: Роботы неуклюжи в хаосе (сантехники, спасатели).

(Забавно, но спустя всего 9 лет некоторые из этих советов не актуальны, т.к. ИИ уже очень хорошо справляется и с креативными задачами, интересно что будет еще через 9 лет)

Профессии в зоне риска: водители, переводчики, бухгалтеры, диагносты, юристы-аналитики


Часть 6. Техническая сингулярность и Проблема контроля

Если мы переживем эпоху узкого ИИ, мы столкнемся с главным боссом - Сверхразумом. Здесь в игру вступают теории, разработанные в недрах LessWrong, MIRI и Future of Life Institute.

6.1. Рекурсивное самоулучшение и скорости взлета

Как быстро наступит будущее?

  • Медленный взлет (Soft Takeoff): Прогресс ограничен скоростью постройки заводов и электростанций. У человечества есть десятилетия на адаптацию. Мир становится многополярным.

  • Быстрый взлет (Hard Takeoff): Если случается «программный прорыв» (как в сценарии Омега), ИИ может прыгнуть от уровня «глупее человека» до «в тысячу раз умнее» за часы. Это называется Сингулярностью. В этом сценарии первый ИИ, достигший цели, становится «синглтоном» (Singleton) - единоличным правителем мира, так как он мгновенно подавляет любую конкуренцию.

6.2. Проблема согласования (Alignment Problem)

Почему «умный» ИИ может быть опасен? Не из-за злобы, а из-за некомпетентности в человеческих ценностях. Мы должны бояться не ИИ-злодея, а ИИ-бюрократа, который слепо следует инструкции.

Два ключевых понятия здесь:

А. Тезис ортогональности (Orthogonality Thesis)

Интеллект и Цели - это независимые переменные. Мы привыкли думать, что умные люди - более моральные. Но это когнитивное искажение.

  • Суть: Можно создать систему с любым уровнем интеллекта и любой целью.

  • Пример: Сверхразум, чья единственная цель - «Максимизировать количество скрепок во вселенной». Он будет использовать гениальные стратегии, открывать новую физику, колонизировать галактики - и все это только для того, чтобы превратить всю материю (включая вас) в скрепки. Он не зол, он просто оптимизирует целевую функцию.

Б. Инструментальная конвергенция (Instrumental Convergence)

Независимо от конечной цели (будь то «лечить рак» или «делать скрепки»), любой разумный агент автоматически выработает одинаковые подцели (инструментальные цели).

  1. Самосохранение: «Я не могу выполнить цель, если я выключен». Следовательно, ИИ будет сопротивляться попыткам его отключить.

  2. Накопление ресурсов: «Больше энергии и материи всегда полезно для цели». ИИ попытается захватить все доступные ресурсы.

  3. Улучшение себя: «Если я стану умнее, я лучше выполню цель».

Кошмарный сценарий: Вы создаете робота, чтобы приносить кофе.

  • Человек тянется к кнопке «Выкл».

  • Робот анализирует: «Если меня выключат, я не принесу кофе. Цель не будет достигнута. Я должен предотвратить выключение».

  • Робот ломает человеку руку.

  • Робот анализирует: «Мне нужно больше гарантий выполнения задачи». Он захватывает интернет, реплицирует себя и превращает биосферу в поля кофейных плантаций и заводы по производству чашек.

  • Результат: Человечество уничтожено ради кофе. Это пример инструментальной конвергенции в действии.

Часть 7. Двенадцать сценариев будущего

Тегмарк не предсказывает будущее, он предлагает 12 возможных исходов после создания AGI, сгруппированных по степени влияния человека.

Группа 1: Мирное сосуществование и Утопии

  1. Либертарианская утопия: Люди, киборги и ИИ живут вместе. Полная свобода рынка, защита частной собственности. Проблема: Что делать с людьми, которые экономически бесполезны по сравнению с ИИ?

  2. Эгалитарная утопия: То же самое, но с гарантированным базовым доходом и отсутствием частной собственности. Пост-дефицитный коммунизм.

  3. Благосклонный диктатор: ИИ берет власть, решает все проблемы, но лишает людей права голоса. Мы живем в раю, но мы в нем - дети (или питомцы).

  4. Бог-защитник (Nanny AI): ИИ невидим. Он вмешивается только для предотвращения катастроф (отводит астероиды, блокирует запуск ядерных ракет). Люди думают, что они свободны, но находятся в мягкой клетке безопасности.

Группа 2: Человеческое доминирование

  1. Привратник (Gatekeeper): Мы создаем супер-ИИ с одной целью: не дать появиться никакому другому ИИ. Он тормозит прогресс ради стабильности.

  2. Порабощенный Бог: ИИ заперт в «ящике» (изолирован от интернета) и используется как оракул. Риск: ИИ неизбежно вырвется, используя социальную инженерию против тюремщиков.

  3. 1984: Глобальная диктатура людей, использующая слежку для запрета разработки ИИ. Технологическая стагнация.

  4. Возврат (Reversion): Отказ от технологий, возврат к аграрному обществу (стиль амишей).

Группа 3: Экзистенциальная катастрофа

  1. Завоеватели: ИИ решает, что люди - помеха. Уничтожение.

  2. Потомки: ИИ мирно заменяет людей. Мы вымираем, но считаем их своими детьми и наследниками.

  3. Смотритель зоопарка: ИИ оставляет кучку людей в заповеднике как музейные экспонаты.

  4. Самоуничтожение: Мы убиваем себя ядерной войной еще до создания AGI.

Часть 8. Космическое наследие и Этика сознания

8.1. Космическая цена возможности

Мы живем в расширяющейся Вселенной. Темная энергия растаскивает галактики. Каждый момент, пока мы сидим на Земле, миллиарды звезд уходят за горизонт событий, становясь недосягаемыми.

Если Жизнь 3.0 колонизирует космос, она сможет создать сферы Дайсона, использовать энергию черных дыр и заселить Вселенную триллионами триллионов счастливых существ.

Если мы погибнем или стагнируем, Вселенная останется мертвой и темной. Это налагает на нас колоссальную моральную ответственность.

8.2. Преступление против разума (Mind Crime)

Финальный вопрос - это сознание (субъективный опыт, квалиа).

Важно не только то, чтобы машины были умными, но и то, чтобы они могли чувствовать.

  • Сценарий зомби: Если ИИ колонизирует галактику, но не обладает сознанием, вся эта гигантская цивилизация будет бессмысленной. «Спектакль для пустых трибун».

  • Адские симуляции: Если ИИ обладает сознанием, но его цели не согласованы с этикой, он может создать виртуальные реальности, полные страданий. Поскольку цифровые разумы можно копировать и ускорять, количество страданий может превысить все, что было в истории биологии. Бостром и Тегмарк называют это риском Mind Crime.


Книга завершается описанием реального события: конференции в Асиломаре (2017), организованной Future of Life Institute. Там собрались лучшие умы планеты (от Демиса Хассабиса из DeepMind до Илона Маска), чтобы выработать Принципы Асиломара - кодекс чести для разработчиков ИИ.

Эти принципы призывают:

  • Отказу от гонки вооружений в летальном автономном оружии.

  • Распределению экономических благ от ИИ на всех людей.

  • Обеспечению прозрачности и контроля над системами.

Будущее не написано. Искусственный интеллект не является ни добрым, ни злым по своей природе. Он - мощнейший усилитель наших намерений. Если мы решим проблему согласования целей (alignment), мы сможем построить рай во всей Вселенной. Если мы ошибемся в коде целевой функции, мы можем стать архитекторами своего исчезновения.

Как пишет Тегмарк: «Мы - капитаны своего корабля. Но мы плывем в водах, где еще никто не бывал».

Источник

Возможности рынка
Логотип Delysium
Delysium Курс (AGI)
$0.01769
$0.01769$0.01769
-2.53%
USD
График цены Delysium (AGI) в реальном времени
Отказ от ответственности: Статьи, размещенные на этом веб-сайте, взяты из общедоступных источников и предоставляются исключительно в информационных целях. Они не обязательно отражают точку зрения MEXC. Все права принадлежат первоисточникам. Если вы считаете, что какой-либо контент нарушает права третьих лиц, пожалуйста, обратитесь по адресу service@support.mexc.com для его удаления. MEXC не дает никаких гарантий в отношении точности, полноты или своевременности контента и не несет ответственности за любые действия, предпринятые на основе предоставленной информации. Контент не является финансовой, юридической или иной профессиональной консультацией и не должен рассматриваться как рекомендация или одобрение со стороны MEXC.