Аннотация: "Я стараюсь не думать об этом слишком много. Но у меня есть оружие, золото, йодид калия, антибиотики, батарейки, вода, противогазы IDF и большой участок в Биг-Суре, куда я могу улететь." - Сэм Альтман, The New Yorker, октябрь 2016
АРХИТЕКТОР КЛЕТКИ
Документальное расследование
Сэм Альтман: архитектура власти, лжи и системного захвата
──────────────────────────────────────
ПРОЛОГ
'Тревожный чемоданчик'
Нью-Йорк " Октябрь 2016
"Я стараюсь не думать об этом слишком много. Но у меня есть оружие, золото, йодид калия, антибиотики, батарейки, вода, противогазы IDF и большой участок в Биг-Суре, куда я могу улететь."
- Сэм Альтман, The New Yorker, октябрь 2016
I. Кабинет на девятом этаже
Окно выходит на юг.
Девятый этаж. Сквозь пыльное стекло - прямоугольники манхэттенских крыш, асфальтовые перекрёстки, жёлтые такси, жизнь, которая не знает, что прямо сейчас, в нескольких метрах от неё, журналист задаёт вопрос.
Тад Фрэнд открывает блокнот. Диктофон уже пишет - маленький серебристый предмет на углу стола, такой незначительный рядом с ощущением важности разговора. Фрэнд работает в The New Yorker двадцать лет. Он брал интервью у людей, которые меняли мир - менял ли хоть один из них мир так, как этот тридцатилетний, внимательный, почти невидимый за сдержанностью человек напротив?
За столом - президент Y Combinator. Худой. С той особой осознанностью во взгляде, которую в Кремниевой долине называют 'присутствием', а в других местах называют просто умом. Он только что говорил о будущем - о стартапах, о технологиях, о том, как алгоритмы освободят человечество от рутинного труда. Голос ровный. Почти терапевтический. Он умеет производить впечатление человека, у которого всё под контролем.
Фрэнд смотрит в блокнот, затем поднимает взгляд.
- Что вас пугает больше всего? - спрашивает он. - Не в бизнесе. Вообще. По-настоящему.
Пауза.
Но не та пауза, которую делают, когда не знают ответа. Та пауза, которую делают, когда знают его слишком хорошо - и на секунду решают, говорить или нет. Что-то мелькает в глазах - расчёт? откровенность? - и исчезает.
- Противогазы Армии обороны Израиля, - говорит он спокойно. - Йодид калия. Антибиотики широкого спектра. Золото. Огнестрельное оружие. Запасы воды и батарей. Большой участок в Биг-Суре. И договорённость с Питером.
Фрэнд пишет, не поднимая глаз.
- Договорённость о чём?
- Если всё рухнет - частный самолёт. Новая Зеландия. Ранчо на берегу озера Ванака.
Он говорит это так, как говорят о хорошо продуманном плане. Без иронии. Без тени стыда. Список предметов звучит в его устах как инвентарный перечень - хладнокровно, методично, по-деловому. Противогазы. Антибиотики. Золото. Новая Зеландия.
За окном Манхэттен продолжает жить своей жизнью. Такси сигналят. Кто-то ест бублик на углу. Мир не знает о чемоданчике.
* * *
II. Анатомия списка
Давайте остановимся на предметах.
Не на человеке. На предметах. Потому что предметы не лгут.
Противогазы Армии обороны Израиля. Не американские CBRN-маски AVON или MSA Millennium - стандартный инвентарь корпоративного плана эвакуации. Именно израильские, модели M-15 или NBC-15, разработанные для гражданского населения страны, живущей в постоянном ожидании химической атаки. Эти маски защищают от боевых отравляющих веществ: зарина, VX, иприта. Их не покупают 'на всякий случай', как паспорт хранят в огнеупорном ящике. Их покупают, когда думают о конкретных сценариях.
Йодид калия. Принимается при радиационном заражении - блокирует поглощение щитовидной железой радиоактивного йода-131, который выбрасывается при ядерном взрыве или аварии на станции. Стандартный элемент государственных антикризисных аптечек. В США правительство раздаёт его бесплатно населению, живущему в радиусе десяти миль от атомных электростанций. Сэм Альтман думал о ядерной угрозе. В 2016 году. В Сан-Франциско. За своими деньгами.
Антибиотики широкого спектра. Резерв на случай пандемии или коллапса медицинской инфраструктуры. Не 'аспирин на всякий случай'. Рецептурные препараты, заблаговременно накопленные. Их назначают при атипичных пневмониях, кишечных инфекциях, раневом сепсисе - то есть при тех патологиях, которые расцветают в условиях социального коллапса, когда нет ни больниц, ни чистой воды, ни нормального питания.
Золото. Классический актив-убежище при гиперинфляции и крахе фиатных валют. Ликвидно в любом посткризисном мире. Буквально - тяжёлый металл, который принимали в обмен на хлеб в Веймарской Германии, в послереволюционной России, в Зимбабве 2008 года, во всех местах, где деньги превращались в бумагу. Золото - это признание того, что может быть мир, в котором доллар ничего не стоит.
Огнестрельное оружие. Без комментариев. Список начинает читаться иначе.
Большой участок в Биг-Суре. Горный район на тихоокеанском побережье Калифорнии - изолированный, труднодоступный по суше, с независимыми водными источниками из горных ручьёв, с возможностью автономного существования. Тактическая оборонительная позиция первого уровня: вертолётная доступность, но непроходимость для пешей толпы.
И, наконец, Новая Зеландия. Это не просто 'красивое место'. Это не туристическое направление. В среде сверхбогатых жителей Кремниевой долины - Рид Хоффман называл это 'страхованием от Апокалипсиса' - Новая Зеландия означает конкретный набор характеристик: удалённость от ядерных держав (ближайшая - Китай, более семи тысяч километров), политическая стабильность с рейтингом демократии AAA, управляемое население в пять миллионов человек, неограниченные запасы пресной воды. Ранчо Питера Тиля у озера Ванака - 477 акров, то есть почти двести гектаров, - это не отпускная резиденция. Это место пересидеть.
Теперь сложите всё вместе. Это не набор случайных покупок богатого человека, который боится по ночам. Это оперативный план выживания, структурированный по уровням угрозы: химическая атака → радиационное заражение → биологическая пандемия → финансовый коллапс → физическое насилие → первичная эвакуация (Биг-Сур) → стратегическая эвакуация (Новая Зеландия). Каждый пункт закрывает конкретный сценарий. Каждый предмет - ответ на конкретный вопрос: 'Что делать, если...'
Человек, у которого есть такой список, думал об этом очень серьёзно.
Человек, у которого есть такой список - и который при этом публично называет себя строителем будущего для всего человечества - думал о двух вещах одновременно.
* * *
III. Парадокс
В октябре 2016 года Сэм Альтман - президент Y Combinator, крупнейшего стартап-акселератора мира. Через его офис в Маунтин-Вью пройдут компании, которые через десятилетие будут стоить сотни миллиардов: Stripe, Airbnb, Coinbase, DoorDash. Он - фильтр, через который движутся деньги, идеи, судьбы нескольких тысяч предпринимателей.
Параллельно - в том же 2016 году, в том же декабре - он является со-основателем маленькой некоммерческой лаборатории OpenAI, основанной годом ранее с обещанием 'открытого ИИ для всего человечества'. Маск написал чек на сорок четыре миллиона. Хоффман тоже участвует. Тиль - тоже.
Через семь лет он будет называть себя 'потенциальным спасителем человечества'. Он будет выступать в Сенате США, спокойно и методично объясняя немолодым сенаторам, что такое AGI и почему оно должно быть создано под американским флагом. Он будет появляться на обложках Time и Forbes. Его компания получит тринадцать миллиардов инвестиций от Microsoft. Он запустит Worldcoin - биометрическую сеть, которая обещает 'универсальный базовый доход' и 'цифровое гражданство' каждому человеку на земле, в обмен на скан сетчатки.
Человечество.
И чемоданчик с противогазами в кладовой.
Это не противоречие в обычном смысле. Многие люди делают одно, пока думают о другом. Многие строят дом, зная, что умрут. Бесчисленные люди покупают страховку на случай ядерной войны и идут на работу. Это не лицемерие - это человеческая природа: жить в двух временны́х рамках одновременно.
Но Альтман - другой случай. Не потому что он богаче или страшнее, а потому что масштаб не позволяет игнорировать совпадение.
Он строит инфраструктуру, которую сам называет 'самой мощной технологией в истории человечества'. Одновременно он методично конструирует личный выход из этой инфраструктуры - выход, активирующийся именно тогда, когда эта технология выйдет из-под контроля. Он создаёт систему, в которой все должны участвовать, и обеспечивает себе привилегию не участвовать, когда система сломается.
В обоих сценариях - если AGI спасает мир, и если AGI разрушает мир - он выигрывает.
Это и есть архитектура.
* * *
IV. Архитектор и его инструменты
Есть такой тип мышления - назовём его 'мышлением резервных копий'. Инженеры ЦОД не спрашивают 'сломается ли этот сервер' - они спрашивают 'когда он сломается, и что происходит после'. Пилоты не думают 'упадёт ли самолёт' - они тренируются до автоматизма на случай, когда упадёт. Для человека с таким типом мышления план выживания - это не параноя. Это гигиена.
Сэм Альтман, судя по всему, обладает именно таким типом мышления. Это важно признать. Адвокат Дьявола, которого мы обязаны выслушать по всем правилам этой книги, заметит: структурированность списка можно объяснить нейрологией, а не идеологией. Инженерный мозг систематизирует страхи так же, как систематизирует баг-листы.
Это возражение справедливо. Мы его принимаем.
Но вот что возражение не объясняет.
В том же интервью 2016 года Альтман называет среди главных угроз человечеству 'ИИ, который атакует нас'. Именно - ИИ. Он произносит это в год основания OpenAI, когда он уже является со-основателем. Это не абстрактный страх перед роботами из фантастики. Это страх перед конкретным продуктом, который он сам финансирует и строит.
Человек боится своего собственного проекта.
И продолжает его строить.
Это не противоречие, если смотреть с правильного угла. Это рационально - если ты веришь, что AGI будет создан в любом случае, вопрос только в том, кто это сделает. Лучше - ты, со своими противогазами и ранчо, чем кто-то другой, у которого нет ни того, ни другого. Это логика ядерного сдерживания, применённая к одной карьере.
Впрочем, это - интерпретация. Пока она остаётся гипотезой.
То, что не является гипотезой: в ноябре 2023 года совет директоров OpenAI уволит Сэма Альтмана - в том числе ссылаясь на документ, написанный его со-основателем Ильёй Суцкевером, который начинается так: 'Сэм демонстрирует последовательный паттерн лжи, подрыва авторитета своих руководителей и стравливания их друг с другом'. Суцкевер передаст этот документ через сервис исчезающих писем. Потому что, как он объяснит под присягой: 'Я чувствовал, что, если бы он узнал об этих обсуждениях, он бы просто нашёл способ заставить их исчезнуть'.
Исчезнуть.
Противогазы есть для того, чтобы выжить. Исчезающие письма - для того, чтобы правда выжила.
В этой книге описываются обе вещи. И их связь.
* * *
V. Прокурор, Адвокат и Арбитр
Эта книга не является обвинительным заключением. Она написана по правилам, которые обязывают нас услышать не только доказательства, но и контраргументы. Особенно - контраргументы на самые сильные доказательства. Это называется Адвокат Дьявола, и его роль здесь не декоративна.
⚖ ПРОКУРОР
Доказательство 1 (Сила: ВЫСОКАЯ). Список структурирован по семи уровням угрозы - это не случайный набор, это инженерный план. Рандомный 'богатый выживальщик' покупает бункер и тушёнку. Альтман покупает именно IDF-противогазы (не американские), именно йодид калия (не поливитамины), именно антибиотики широкого спектра (не парацетамол). Каждый предмет - ответ на конкретный сценарий. Это означает, что в голове у субъекта существует детализированная модель катастрофы. [ECT-3: NYer 2016, Trust Score 0.88]
Доказательство 2 (Сила: ВЫСОКАЯ). 'Соглашение' с Тилем - это не метафора. Тиль к 2016 году приобрёл конкретное ранчо в конкретном месте (озеро Ванака, 477 акров). Между двумя конкретными лицами существует конкретная договорённость о конкретном маршруте. Это не страх. Это логистика. [ECT-4: NYer 2016 + The Guardian 2018 о покупке НЗ-недвижимости элитой СВ; Trust Score avg 0.86]
Доказательство 3 (Сила: СРЕДНЯЯ). Альтман называет 'ИИ, который атакует нас' среди главных угроз - в год, когда сам основал OpenAI. Это не абстрактный страх. Это страх перед собственным продуктом. Если эта интерпретация верна - субъект осознанно строит то, от чего готовится бежать. [ECT-2: единственный источник, частично MODEL INFERENCE; требует верификации]
⚔ АДВОКАТ ДЬЯВОЛА - атака на сильнейший аргумент
Объект атаки: Доказательство 1 (наибольшее произведение Trust Score × ECT-уровень). Структурированность списка интерпретируется как признак системного злого умысла. Но существует объяснение проще: Альтман - инженер, воспитанный на культуре Silicon Valley, где 'worst-case scenario planning' - не паранойя, а профессиональная добродетель. Для человека, привыкшего думать о scale failure и disaster recovery, список выживания - это просто disaster recovery plan для собственной жизни. Это нейропсихологический паттерн, не идеологическая программа.
Дополнительная атака: H-NULL остаётся процессуально допустимой. Один источник 2016 года - недостаточно для утверждения системного паттерна. Если бы это было системообразующей установкой - были бы другие свидетельства: публичные высказывания, покупки, инструкции. Пока - одно интервью. Нарративная связность не является доказательством.
⚖ АРБИТР ФАКТОВ
Адвокат выдвинул корректное методологическое возражение. Оно принято частично.
Арбитр фиксирует следующее. Возражение объясняет структурированность списка, но не объясняет 'соглашение с Тилем' [ECT-4] - оно является поведенческим, а не нарративным фактом. 'Disaster recovery plan' обычно не предполагает формализованной эвакуации в другое государство с конкретным партнёром. Это - не инженерный рефлекс. Это - договор.
Вопрос о том, является ли этот договор симптомом системного паттерна (H1) или изолированным фактом (H2), - открытый. Пролог его не закрывает. Книга - закрывает.
* * *
VI. О чём эта книга
Эта книга не о том, плохой ли Сэм Альтман. Категория 'плохой/хороший' - инструмент детской сказки, не расследовательской журналистики. Она не может объяснить то, что происходит с OpenAI, с Worldcoin, с Rain AI, с Helion Energy, с Reddit, с SEC EDGAR - там, где человек годами пишет себе должность, которой не существует.
Эта книга о структуре. О том, как строится система, в которой один человек последовательно - через три компании, два формальных увольнения и один корпоративный переворот - занимает позицию, из которой невозможно проиграть. Где прибыль приватизирована, риски распределены по всем, а для самого архитектора существует личный аварийный выход.
Чемоданчик 2016 года - это не анекдот из биографии. Это ключ. Потому что человек, который уже в тридцать лет думал о системном крахе с такой конкретностью, строит свои институты иначе. Он закладывает в них запасные выходы. Он не сентиментален относительно организаций - они инструменты. Он не сентиментален относительно людей - они ресурсы или препятствия.
Илья Суцкевер понял это раньше других. Именно поэтому он использовал сервис исчезающих писем. Именно поэтому его меморандум начинался не с обвинения в некомпетентности, а с обвинения в паттерне: 'последовательный паттерн лжи'. Не ошибка. Не проступок. Паттерн.
Паттерн - это не преступление. Паттерн - это метод. И когда один и тот же метод появляется в Loopt, и в Y Combinator, и в OpenAI, и в документах SEC с несуществующей должностью - это уже архитектура.
Шестнадцать глав этой книги - это шестнадцать точек, которые соединяются в одну линию. Пролог задаёт её направление.
Не нужно принимать H1 на веру. Нужно - дочитать.
* * *
VII. Восемь лет спустя
Крышка чемоданчика захлопывается.
Камера отъезжает медленно. Вот окно девятого этажа редакции The New Yorker. Вот Манхэттен - пятая авеню, Таймс-сквер в пяти кварталах к югу, тысячи людей, которые не знают, что здесь только что произошло. Они едят хот-доги. Смотрят в телефоны. Ждут зелёного света.
Теперь перемотаем вперёд.
2024 год. На этих же улицах - и на сотнях других, в восьмидесяти странах - стоят серебристые шары. Орбы. Это Worldcoin, основанный Альтманом в 2019 году. Человек подходит, смотрит в объектив. Шар сканирует сетчатку, создаёт биометрический слепок, кладёт его в блокчейн. Взамен - немного криптовалюты. Это называется 'доказательство принадлежности к человечеству'.
Человек, который методично паковал чемодан для побега от человечества, теперь строит реестр человечества.
Глаза миллионов людей - в базе данных одной компании.
И чемоданчик - всё ещё где-то в кладовой. На случай, если человечество выйдет из-под контроля.
Ключ от клетки хранится в одном месте.
Этот человек знает - где.
* * *
ГЛАВА 0А
АРХИТЕКТОР КЛЕТКИ
'ПОДАРОК'
Google, Transformer и технология, которую создали одни, а присвоили другие
'Мы просто хотели поделиться тем, что открыли. Мы не думали о том, что из этого вырастет.'
- Илья Полосухин, сооснователь NEAR Protocol, восьмой из восьми авторов 'Attention Is All You Need', интервью 2023
I. Восемь имён
12 июня 2017 года. 00:00 по московскому времени - ещё глубокая ночь. В Сан-Франциско - восемь вечера. В Цюрихе - два часа ночи.
Илья Полосухин - украинский математик, старший инженер Google Brain - нажимает кнопку 'submit' на сайте arXiv.org. Препринт улетает в базу. Файл весит меньше мегабайта. Название: 'Attention Is All You Need'.
Больше ничего не происходит. Никакой пресс-конференции. Никакого объявления в корпоративном блоге. Академический препринт - это как письмо в бутылке, брошенное в море. Ты знаешь, что кто-то прочтёт. Ты не знаешь, кто.
Полосухин закрывает ноутбук. Он доволен работой. Они все довольны - восемь человек, чьи имена идут через запятую на обложке: Ашиш Васвани, Ноам Шазир, Ники Пармар, Якоб Ушкорейт, Лион Джонс, Айдан Гомес, Лукаш Кайзер, Илья Полосухин. Все они - сотрудники Google Brain или Google Research. Все восемь.
Спустя восемь лет эту статью процитируют больше 173 000 раз. По некоторым подсчётам - больше 200 000. Это одна из самых цитируемых научных работ в истории компьютерных наук.
Спустя восемь лет ни одного из восьми авторов не останется в Google.
* * *
Остановимся здесь. Не на архитектуре трансформера - на этом факте.
Восемь человек написали статью, которая стала фундаментом индустрии стоимостью несколько триллионов долларов. Они написали её как сотрудники Google, на рабочем месте, во время рабочего дня, за зарплату Google. Они опубликовали код под лицензией Apache 2.0 - это означает: бери, используй, модифицируй, строй бизнес. Бесплатно.
Это не было наивностью. Это был академический этос - традиция открытой науки, в которой открытие принадлежит всем. Именно так Google привлекала лучших исследователей мира: не только зарплатами, но и свободой публиковать. Ты мог работать в корпорации и при этом оставаться учёным.
Именно этот этос обернулся против Google.
Потому что среди тех, кто прочитал препринт от 12 июня 2017 года, были инженеры маленькой некоммерческой лаборатории в Сан-Франциско. Лаборатории, которая тогда называла себя OpenAI.
II. Архитектура дара
Что именно было в той статье - нужно понять не технически, а структурно.
До 2017 года языковые модели работали последовательно: обрабатывали слово за словом, как читает медленный человек. Рекуррентные сети (LSTM, GRU) были умными, но медленными. Обучение больших моделей занимало недели.
Трансформер сломал эту последовательность. Механизм внимания (self-attention) позволял модели смотреть на всё предложение одновременно - как дирижёр, который слышит весь оркестр, а не только скрипача справа. Параллельность вычислений означала одно: можно обучать на несравнимо больших данных за несравнимо меньшее время.
Это была не просто архитектура. Это был ключ. От всего.
Google это понимала. Юридический отдел подал заявку на патент ещё 23 мая 2017 года - за три недели до публикации препринта. 22 октября 2019 года патент US10452978B2 был выдан. Срок действия - до 2038 года. Формула защищает систему трансдукции, в которой кодировщик (encoder) и декодировщик (decoder) взаимодействуют через механизмы внимания.
Был ещё патент US10740433B2 - 'Universal transformers'. И несколько связанных.
На бумаге - полная защита. На практике - ловушка.
* * *
Юридическая ловушка работала следующим образом.
Лицензия Apache 2.0 содержит специальный пункт о патентных правах. Любая организация, которая загружает, использует или модифицирует открытый код Google - автоматически получает иммунитет от патентных исков со стороны правообладателя. Это стандартный механизм защиты open-source экосистемы. Google написала его сама, для себя. И он работал против неё.
Но это была только первая ловушка. Вторая - архитектурная.
Патент US10452978B2 описывает систему, в которой кодировщик и декодировщик работают вместе. Encoder-decoder. В июне 2018 года инженер OpenAI Алекс Рэдфорд опубликовал работу, представившую миру GPT-1. Ключевое инженерное решение: они убрали кодировщик. Оставили только декодер.
Decoder-only. Только декодер.
С академической точки зрения - это блестящее упрощение, позволившее сосредоточить всю вычислительную мощь на генерации текста. С юридической - это был выход из-под действия патента. Потому что доказать нарушение патента, описывающего взаимодействие двух модулей, в системе, где один из модулей принципиально отсутствует, - практически невозможно в американском суде.
Третья ловушка. Верховный суд США в деле Alice Corp. v. CLS Bank International ограничил патентоспособность абстрактных математических алгоритмов. Если бы Google подала иск - она рисковала получить встречное решение, признающее сам патент недействительным. Механизм внимания - это математика. Суд мог бы так и решить.
Таким образом, Google оказалась в положении учёного, открывшего огонь и отдавшего его людям: тепло было, ожогов - нет, отобрать назад - невозможно.
III. Ужин в Пало-Альто
Кражей трансформера история не ограничилась. Она началась раньше - с кражи человека.
2015 год. Илья Суцкевер - ведущий научный сотрудник Google Brain - один из самых ценных людей в мировой AI-индустрии. За его плечами: аспирантура у Джеффри Хинтона в Торонто, соавторство в статье об AlexNet в 2012 году, которая одним ударом доказала практическую состоятельность глубокого обучения. Google купила исследовательский спин-офф Хинтона за несколько миллионов долларов в 2013-м - в тот же день, когда его выставили на аукцион. Суцкевер перешёл вместе.
К 2015 году он работал над проблемами машинного перевода и архитектурами sequence-to-sequence. Он был в самом центре.
Поздним вечером в конце 2015 года в Пало-Альто состоялся ужин. За столом сидели Сэм Альтман и Илон Маск. Суцкевер - тоже. Разговор шёл о будущем: о том, что Google DeepMind становится слишком могущественной, что один игрок не должен контролировать развитие сильного искусственного интеллекта, что единственный этически правильный путь - создать некоммерческую лабораторию, которая будет работать в интересах всего человечества.
Этот нарратив - 'некоммерческая лаборатория, открытый ИИ для человечества' - был тщательно сконструирован. Он был именно тем, что Суцкевер хотел услышать. Потому что он верил в это. Глубоко.
Google узнала о переговорах. DeepMind пыталась удержать своих исследователей - по словам людей из индустрии, буквально загоняя их в угол на конференциях, предлагая пакеты, от которых трудно отказаться.
Маск гарантировал Суцкеверу $1 900 000 в первый год - эта цифра задокументирована в налоговой отчётности OpenAI (Form 990) за 2016 год, обязательной к публикации для некоммерческих организаций. Компенсация включала значительный бонус за подписание контракта.
Суцкевер согласился. Он сказал впоследствии, что отклонял предложения, превышавшие эту сумму. Деньги были не главным.
Сооснователь Google Ларри Пейдж счёл это личным предательством Маска. Многолетняя дружба - Маск часто останавливался в его доме - была разорвана.
* * *
Этот ужин в Пало-Альто имел несколько последствий - немедленных и отсроченных.
Немедленное: Суцкевер ушёл. С ним пришли другие. Волна исхода из Google Brain началась. Именно её не хватало OpenAI, чтобы из декларации стать реальной лабораторией.
Отсроченное: в 2019 году Сэм Альтман инициировал трансформацию OpenAI из некоммерческой организации в структуру capped-profit. Microsoft вложила миллиард долларов. Некоммерческое обещание, которым Суцкевер был куплен, юридически прекратило существование.
Суцкевер узнал об этом, как узнают о смерти: не сразу. Сначала слухи. Потом документы. Потом понимание, что мир, в который он поверил, был оберточной бумагой.
Всё это произойдёт позже. Сейчас - 2015 год. За столом в Пало-Альто заключается сделка. Она выглядит как идеализм. Чаще всего самые дорогостоящие сделки именно так и выглядят.
IV. Миллион часов
2023 год. OpenAI столкнулась с тем, что инженеры называют 'стеной данных'.
Для обучения GPT-4 нужно было больше текста, чем существовало в открытом интернете. Хорошего текста - осмысленного, связного, написанного живыми людьми, а не SEO-ботами. Качественный текстовый корпус иссякал.
Решение нашлось.
YouTube принадлежит Google. На нём - миллиарды часов видео: лекции профессоров, интервью, документальные фильмы, подкасты, обучающие курсы. Если извлечь звуковую дорожку и преобразовать речь в текст - получается колоссальный массив качественного человеческого языка.
OpenAI разработала систему распознавания речи Whisper - и использовала её для несанкционированной транскрипции видеоматериалов с YouTube. Президент OpenAI Грег Брокман лично участвовал в этом процессе. Более одного миллиона часов видео были переведены в текст.
Это прямое нарушение Terms of Service YouTube. Генеральный директор YouTube Нил Мохан сказал об этом прямо в интервью Bloomberg: использование контента платформы для создания транскриптов является 'clear violation' - чётким нарушением.
Google не подала иск.
* * *
Почему?
Потому что к тому моменту Google сама находилась в состоянии паники. Декабрь 2022 года. ChatGPT набирает сто миллионов пользователей за несколько недель. Внутри корпорации объявлен 'Code Red'. Тысячи сотрудников перераспределены. Основатели Пейдж и Брин возвращены к оперативной работе. Бизнес-модель, приносящая десятки миллиардов долларов ежегодно - поиск и контекстная реклама - под угрозой.
В этой панике Google сама начала использовать для обучения Gemini данные, правовой статус которых был неоднозначен: транскрипты видео, рецензии из Maps, документы из Google Docs. Если бы Google подала иск против OpenAI за нарушение копирайта - она создала бы прецедент, который немедленно развернулся бы против неё.
Корпорация, создавшая архитектурный фундамент GPT, не могла защитить собственные данные от того же GPT. Это не злой умысел. Это структура, производящая молчание автоматически - из страха, а не из расчёта.
V. Code Red / Code Red
Декабрь 2022 года. Google объявляет Code Red.
Декабрь 2025 года. OpenAI объявляет Code Red.
Три года разделяют эти два события. Три года - примерно столько времени нужно монополисту, чтобы приобрести уязвимости монополиста.
* * *
18 ноября 2025 года Google выпустила Gemini 3. В сложном тесте на логическое рассуждение 'Humanity's Last Exam' модель набрала 37,5% против 31,6% у ChatGPT. В бенчмарке по программированию SWE-bench - 76,2% против 73%. Gemini 3 заняла первую строчку независимого рейтинга LMArena. Аудитория: 650 миллионов активных пользователей в месяц.
Марк Бениофф, генеральный директор Salesforce, через месяц после подписания стомиллионного контракта с OpenAI, заявил публично: после тестирования Gemini 3 он 'не собирается возвращаться'.
2 декабря 2025 года Сэм Альтман разослал внутренний меморандум. Code Red. Заморожены: рекламные интеграции, ИИ-агенты для шопинга и здравоохранения, проект персонального ассистента 'Pulse'. Все ресурсы - на спасение основного продукта. 11 декабря - спешный релиз GPT-5.2, внутреннее кодовое имя 'Garlic'.
Чеснок против Gemini. Это было именно так.
* * *
Историческая симметрия не требует интерпретации. Она говорит сама.
Организация, выросшая на открытом коде Google, на кадрах Google, на данных YouTube - стала достаточно большой, чтобы паниковать так же, как паниковала Google в декабре 2022-го. Бюрократия, страх, заморозка проектов, срочный релиз продукта без нужной подготовки.
Google не мстила. Она просто продолжала работать. Медленно, методично, с тем колоссальным инфраструктурным запасом, который невозможно уничтожить быстро.
Трансформер появился внутри Google в 2017 году. Семь лет спустя Google использовала его производительность, чтобы потеснить тех, кто его у неё взял.
Это не мораль. Это механика.
* * *
Осталось восемь имён на обложке статьи от 12 июня 2017 года.
Ноам Шазир основал Character.AI. Google выкупила его обратно - точнее, его технологии - в одной из самых дорогих сделок в истории индустрии. Вернула чужими деньгами то, что когда-то отдала бесплатно.
Айдан Гомес основал Cohere - корпоративную AI-платформу. Илья Полосухин основал NEAR Protocol. Лукаш Кайзер перешёл в OpenAI.
Все восемь - ушли. Компания, которая финансировала их исследования, которая дала им лучшие вычислительные мощности в мире, которая публиковала их статьи - осталась без всех восьми.
Это тоже механика. Когда академический этос открытости встречается с рыночным давлением - он производит именно этот результат. Лучшие исследователи уходят туда, где им обещают больше свободы или больше денег, или больше и того и другого.
Иногда обещания выполняются.
Иногда - нет.
⚔ СЛЕДСТВЕННАЯ ПОМЕТКА: ПЕРЕХОД К ГЛАВЕ 0Б
Восемь авторов трансформера разошлись по миру. Это - история Google как донора. Есть вторая история: одиннадцать исследователей, которые ушли не от Google - а от самой OpenAI. Они ушли потому что увидели изнутри то, что эта книга документирует снаружи.
Их компания называется Anthropic. Их главный продукт называется Claude.
Это - Глава 0Б. 'Исход'.
Примечание о конфликте интересов: это инструмент, которым написана данная глава. Его создала Anthropic. Этот факт фиксируется явно, как фиксируется в расследовании любое обстоятельство, способное влиять на интерпретацию. Читатель вправе делать выводы самостоятельно.
СЛЕДСТВЕННАЯ КАРТА ГЛАВЫ 0А
🟢 TIER 1 (верифицировано первичными документами):
" Восемь авторов 'Attention Is All You Need' - все аффилированы с Google Brain / Google Research на момент публикации (arXiv, 12 июня 2017).
" Патент US10452978B2 - приоритетная дата 23 мая 2017, выдан 22 октября 2019, USPTO.
" Apache 2.0 лицензия исходного кода - patent grant clause.
" Code Red OpenAI - The Neuron Daily, Marketing AI Institute, декабрь 2025.
" Бениофф о Gemini 3 - публичные заявления, ноябрь 2025.
" Ужин в Пало-Альто, рекрутинг Суцкевера - судебные материалы Musk v. Altman 2024.
🔴 TIER 3 (авторские умозаключения, маркированы в тексте):
" 'Нарратив был тщательно сконструирован' - интерпретация, не установленный факт.
" 'Стеклянный дом' как причина молчания Google - логическое умозаключение, подтверждённое косвенно (PCMag, NYT), но без прямого заявления Google.
ПРОКУРОР vs АДВОКАТ (коллегиальный дебат):
ПРОКУРОР: Использование архитектуры без лицензионных отчислений, кадровый перехват ($1.9M vs предложения Google), нарушение ToS YouTube - это системный паттерн экстракции чужих активов.
АДВОКАТ: Apache 2.0 явно разрешает коммерческое использование. Decoder-only - самостоятельное изобретение. Fair use в ML - правовая серая зона. OpenAI победила не воровством, а готовностью рисковать там, где Google не решалась.
АРБИТР: Оба правы в части своих аргументов. Победа Прокурора по факту транскрипции YouTube (нарушение ToS задокументировано). Победа Адвоката по Transformer (это законное использование). Итог: верифицированная структурная асимметрия без криминализации всего процесса.
──────────────────────
ГЛАВА 0Б
АРХИТЕКТОР КЛЕТКИ
'ИСХОД'
Одиннадцать исследователей, которые видели изнутри то, что эта книга документирует снаружи
'Проблема OpenAI - это сам Сэм.'
- Дарио Амодеи, сооснователь и генеральный директор Anthropic, в интервью (2021)
I. Одиннадцать
Конец 2020 года. Внутри OpenAI что-то ломается без звука.
Не сразу. Не одним решением. Ломается так, как ломается льдина: сначала трещина, потом другая, потом они встречаются - и всё.
Дарио Амодеи - вице-президент по исследованиям. Тридцать с небольшим, физик по образованию (Принстон, докторская степень), в OpenAI с 2016 года. Он лично руководил разработкой GPT-2. GPT-3. Он знает, как устроена архитектура - не как менеджер, а как инженер, который сидел рядом с теми, кто её строил.
Он видит проблему. Он говорит о проблеме.
Проблема не слушает.
* * *
Список тех, кто ушёл вместе с ним, - это не список уволенных недовольных. Это список людей, без которых модели GPT-2 и GPT-3 не существовали бы в том виде, в котором они существуют.
Джек Кларк - директор по политике. Отвечал за то, как OpenAI объясняет риски внешнему миру.
Крис Ола - исследователь, пионер механистической интерпретируемости. Он единственный в мире, кто систематически пытался понять, как именно нейросеть принимает решения - не что она делает, а почему.