|
|
||
В работе "Автокибернетика: От робота к киберу" (Части 1-5) впервые предложена количественная теория самоуправления автоматов - от простейших регуляторов до коллективного разума. | ||
Никитин А.В. Автокибернетика: от робота к киберу - 1.От автоматического регулирования к бесконечной иерархииАннотация В работе "Автокибернетика: От робота к киберу" (Части 1-5) впервые предложена количественная теория самоуправления автоматов - от простейших регуляторов до коллективного разума. Введены измеримые индексы субъектности (киберавтономия K, гемизон G, коллективный индекс C, виртуальный интеллект N), описывающие архитектуру второго уровня управления - наблюдающего управления с виртуальными машинами "Сознание", "Я", "Мы". Показано, что биологические коллективы ограничены парадоксом 10 бит/с, тогда как кибернетические рои способны к качественно новому уровню самоорганизации. Сформулированы инженерные критерии управляемости (K ≤ 0,9, G ≤ 0,5, N ≤ 0,7, V ≤ 776), позволяющие проектировать автономные системы, остающиеся под контролем человека. Работа содержит проверяемые предсказания и открыта для эмпирической верификации. Оглавление
ОТ АВТОРА 2 От автораСтранно складывается жизнь. Более двадцати лет назад я написал свою первую работу, посвященную машинному интеллекту и самое главное, обособленному, имеющему возможность принимать решения. Тогда это казалось сказкой. Прошло два десятка лет и вот теперь я пишу книгу о самостоятельной машине в соавторстве с ИИ. Главным соавтором у меня выступает DeepSeeK (DS), а суровым критиком написанного нами стал Qwen. Эти ИИ хорошо дополняют друг друга в совместной работе. Проблема "Само..." очень давно занимала меня в применении к машине. Наверное, с детства, когда я зачитывался фантастикой братьев Стругацких, и других авторов советской фантастики, где умные киберы помогали людям и на далеких планетах, и в дома в быту, на рабочем месте. Они отличались от робота самостоятельностью действий и каким-то живым поведением. Вот это отличие самостоятельного "живого" кибера от робота, работающего по программе, навсегда засело в голове. Развитие цифровой техники за последние полвека показали, что для решения проблемы "живой" машины только сейчас возникает техническая и теоретическая база. Сегодня наука вплотную приблизилась к началу решения этой трудной задачи. Появились не только программные, но и реальные нейросети, процессоры с распределенной памятью, гибкая архитектура цифровых машин и высокий уровень программирования. В то же время мы видим технологический прорыв в производстве новых материалов, позволяющих создать новые образцы робототехники, далеко превосходящие всё, что делалось даже десять лет назад. Новые андроиды уже бегают марафон быстрее людей, поднимают и переносят грузы, выполняют такие технологические операции, которые человек уже не может выполнить. Робот уже начал двигаться быстрее человека и в этом соревновании с машиной человек уже проиграл. Зачем нам нужны самостоятельные машины? Прежде всего для выполнения целевых задач в сложных условиях без связи с человеком. А таких мест много. Это в космосе, под водой и под землей, работа в условиях высокой радиации, химического заражения или ЭМ зашумления, везде, где каналы связи с человеком просто не работают. А работа должна быть выполнена, и поставленная в задании цель достигнута. Робот исходно с такой задачей не справится. Даже самая умная программа не может обеспечить машине действовать "на ощупь" там, где вообще неизвестно, что делать. Для такой работы "мозги" машина должны быть иначе организованы, чем сегодняшние компьютерные. А чем они должны отличаться от того, что есть? Наверное, организацией структуры самоуправления, примерно аналогичной структуре живого организма. А как устроена наша, биологическая структура самоуправления? На эти вопросы пытается ответить Автокибернетика. Введение: что мы не понимаем в управлении1. Главная проблема: наука не знает, что такое самоуправление Поразительно, но наука до сих пор не имеет чёткого, операционального определения самоуправления. В классических научных критериях управление всегда предполагает управляющего и управляемого. Человек управляет машиной. Оператор управляет процессом. Центр управляет системой. А самоуправление? Его либо сводят к автоматическому регулированию (термостат же "сам" поддерживает температуру), либо вообще выносят за скобки как нечто неопределённое. Но если мы хотим создать автоматы, способные действовать в реальном, неисчерпаемо сложном мире - а не только на конвейере или в чистом поле - мы обязаны понять, что такое самоуправление на самом деле. И чем оно отличается от простого программирования, пусть даже самого изощрённого. Эта книга - попытка дать ответ. Опираясь на автокибернетику, парадигму потока случайностей и идеи кибернетики второго порядка, мы построим непротиворечивую картину: от простейших автоматов до субъектности высших уровней. С формулами и примерами. Начнём с самого начала - с того, что такое управление вообще и почему одной обратной связи недостаточно. 2. От наблюдений в природе к гипотезам автокибернетики Автокибернетика не является умозрительной конструкцией. Её понятия и законы выводятся из анализа реальных процессов в живой природе. Методология этой работы такова:
Предлагаемая теория не претендует на то, чтобы быть "окончательной истиной". Она является рабочей гипотезой, которая: опирается на установленные научные факты; предлагает новый язык для их описания; делает проверяемые предсказания; связывает разрозненные явления в единую картину; не противоречит известным законам физики, биологии и кибернетики. Читатель вправе согласиться или не согласиться с этой гипотезой. Однако автор приглашает к дискуссии: если предложенная рамка позволяет объяснить известные факты лучше, чем существующие теории, она имеет право на существование. 3. Проблема бесконечной иерархии Почему один уровень управления никогда не может быть достаточным? Этот вопрос лежит в основании автокибернетики. Классическая кибернетика (Винер, отрицательные обратные связи) и даже кибернетика второго порядка (фон Фёрстер, наблюдатель внутри системы) не дают ответа. Они описывают механизмы, но не объясняют, почему управление всегда требует мета-управления, почему для любой системы существует более высокий уровень, который не может быть сведён к ней. Ответ дают фундаментальные теоремы математики и логики. Теорема Гёделя о неполноте (1931) [Гёдель, 1931] и проблема остановки Тьюринга (1936) [Тьюринг, 1936] доказывают, что формальная система не может изнутри доказать свою непротиворечивость, а программа не может предсказать, остановится ли другая программа. Применительно к кибернетике это означает: для любого уровня управления всегда существует мета-уровень, который не может быть сведён к нему. Иерархия управления потенциально бесконечна - не потому, что мы так решили, а потому что такова фундаментальная природа сложных систем. Но одной математической необходимости недостаточно. Нужен двигатель, который заставляет систему порождать новые уровни. Этим двигателем является поток случайностей (ПС) - непрерывное движение материальных случайностей снизу вверх по иерархии уровней [Никитин, 2026a]. Автомат не может "отключить" ПС. Он может только фильтровать, перерабатывать и использовать его - или погибнуть под его напором. Поток случайностей создаёт неисчерпаемое разнообразие внешней среды. Это разнообразие требует от системы адекватного внутреннего разнообразия (закон необходимого разнообразия Эшби) [Ashby, 1956]. Когда разнообразие становится слишком большим для одного регулятора, возникает необходимость в новом, более высоком уровне управления - происходит метасистемный переход [Turchin, 1977]. Этот новый уровень сам сталкивается с новым разнообразием, порождая необходимость в следующем уровне, и так далее. Таким образом, ПС выступает как генератор бесконечной иерархии: чем выше интенсивность ПС, тем больше уровней управления требуется для выживания системы. В этой части мы закладываем математические основания автокибернетики. Мы покажем, как теорема Гёделя, проблема остановки и иерархия Тьюринга доказывают необходимость бесконечной иерархии, как закон необходимой иерархии [Aulin, 1979] связывает глубину иерархии с неопределённостью регуляторов, и как поток случайностей (ПС) выступает в роли универсального генератора этой иерархии. 4. От биологических аналогов к машинам: псевдоживые автоматы и киберы Автокибернетика начиналась с анализа живых систем - клеток, организмов, их эволюции. Биологические аналоги дали богатый материал для понимания иерархии самоуправления, роли вирусов, механизмов целостности и самосохранения. Однако конечная цель автокибернетики - не объяснение жизни, а проектирование машин, способных к автономному существованию в условиях неопределённости. Такие машины мы называем киберами. Кибер (от греч. κυβερνάω - управлять) - это автомат, обладающий субъектностью - способностью к самостоятельному управлению, самосохранению и адаптации на уровне, достаточном для выполнения задач в сложной, изменчивой среде. В отличие от биологических организмов, кибер не обязан быть "живым" в полном смысле этого слова. Он - псевдоживой автомат, реализующий ключевые функции субъектности на технической основе. Термин "кибер" был введён советскими фантастами в середине XX века для обозначения автономных роботов, действующих без телеуправления, и сегодня он обретает точное инженерное содержание. Субъектность кибера складывается из двух независимых комплексов функций:
Интегральная субъектность кибера Ssubj определяется как среднее арифметическое:
Однако для полной характеристики кибера, особенно в коллективных системах, требуются дополнительные индексы: коллективный индекс C (способность к интеграции в рой), коэффициент коллективной рефлексии γ, параметр вариативности среды μ, индекс виртуального интеллекта N = C(1+γ)/(1+μ) и аллостатическая нагрузка L. Они будут подробно рассмотрены в последующих частях. В автокибернетике выделяется иерархия уровней субъектности киберов, соответствующая уровням 0-7 (см. Часть 2): Таблица 1 - Иерархия уровней субъектности киберов
В следующих главах мы заложим математические основания автокибернетики: поток случайностей (ПС), число дружественности Fr, индекс динамической устойчивости D, аллостатическую нагрузку L, а затем перейдём к количественному определению K, G, C, γ, μ, N и иерархии уровней самоуправления. Глава 1. Поток случайностей и число дружественностиЛюбой автомат существует не в пустоте. Он погружён в поток случайностей (ПС) - непрерывное движение материальных случайностей снизу вверх по иерархии уровней. Квантовые флуктуации, тепловой шум, случайные удары, мутации, неожиданные повороты событий - всё это ПС [Никитин, 2026a]. Автомат не может "отключить" ПС. Он может только фильтровать, перерабатывать и использовать его - или погибнуть. ПС имеет две фундаментальные характеристики, которые важны для автокибернетики:
В терминах теории информации, разнообразие ПС можно измерить как энтропию Шеннона:
где pi - вероятность появления i-го типа случайного события. Чем выше HПС, тем более непредсказуем ПС, тем больше разнообразие, с которым должен справляться автомат. Поток случайностей принципиально неисчерпаем. Всегда найдётся случайность, которую модель не предусматривала. Это следует из теорем Гёделя и Тьюринга (Глава 2): никакая конечная формальная система не может охватить всю бесконечность потенциальных ситуаций. ПС постоянно порождает новые конфигурации, новые вызовы, новые возможности. Ключевая метрика автокибернетики - число дружественности Fr - связывает входящий поток хаоса Jin и исходящий поток сегрегации Jout (способность автомата фильтровать и удалять хаос):
где Jin(инфо) - скорость поступления информации (сигналов, образов, новых ситуаций), Jout(инфо) - скорость обработки этой информации и принятия решений. Для количественного определения Fr₂ необходимо измерить скорость поступления и обработки информации. Как показано в работе [Crutchfield & Feldman, 2001], энтропия Шеннона последовательностей сигналов может использоваться для мониторинга того, как агент строит и использует предсказательную модель среды. Авторы вводят естественные меры количества информации, которое агент должен (I) извлечь из наблюдений для синхронизации со средой и (II) сохранить для оптимального предсказания. Ключевой тезис этой работы: "Если структурные свойства среды игнорируются, пропущенные регулярности преобразуются в кажущуюся случайность. И наоборот, использование представлений, предполагающих слишком много памяти, приводит к ложной предсказуемости". В терминах автокибернетики это означает: когда Jin(инфо) (скорость поступления информации из среды) превышает Jout(инфо) (скорость обработки, ведущей к успешному действию), агент теряет способность синхронизироваться со средой, что соответствует падению Fr₂ ниже 0,9 - входу в зону самоблокирования [Никитин, 2026b]. Зона самоуправления, где возможен подлинный выбор:
Вне этой зоны система либо слишком стабильна (Fr2 > 1,1 - выбор не нужен), либо слишком нестабильна (Fr2 < 0,9 - выбор невозможен). Именно в узкой области Fr₂ ≈ 1 возможны метасистемные переходы и рождение новых уровней управления. В контексте автокибернетики ПС можно рассматривать как меру сложности среды. Чем выше интенсивность и разнообразие ПС, тем сложнее среда, тем более глубокую иерархию управления должна иметь система для выживания. Это соответствует интуитивному представлению: для жизни в простой, стабильной среде достаточно примитивного автомата; для жизни в сложной, изменчивой среде требуется сложный, многоуровневый автомат (как человек). Однако важно: сложность автомата должна соответствовать сложности среды, но не превышать её без необходимости. Избыточная иерархия ведёт к потере эффективности (задержки, шум на уровнях). Поэтому эволюция выработала принцип "минимальной достаточной сложности": каждый новый уровень появляется только тогда, когда старый перестаёт справляться с ПС. Глава 2. Математические основания бесконечной иерархииПочему один уровень управления никогда не может быть достаточным? Ответ дают фундаментальные теоремы математики и логики. Теорема Гёделя о неполноте (1931). Курт Гёдель доказал, что в любой формальной системе, достаточно богатой для описания арифметики натуральных чисел, существуют истинные утверждения, которые невозможно ни доказать, ни опровергнуть внутри этой системы [Гёдель, 1931]. Формально: для любой непротиворечивой формальной системы T, содержащей арифметику, существует предложение GT такое, что GT истинно, но T не доказывает GT. Кибернетическая интерпретация: рассмотрим автомат как формальную систему, его внутреннюю модель мира θ как теорию, а его способность принимать решения - как процедуру доказательства. Теорема Гёделя утверждает, что автомат не может изнутри доказать свою непротиворечивость. Всегда найдутся ситуации, которые его модель не покрывает, решения, которые он не может обосновать. Это означает, что для любого уровня управления существует мета-уровень, который не может быть сведён к нему. Иерархия потенциально бесконечна. Проблема остановки Тьюринга (1936). Алан Тьюринг доказал, что не существует алгоритма, который для произвольной программы и её входных данных мог бы определить, остановится ли эта программа когда-либо [Тьюринг, 1936]. Формально: не существует вычислимой функции halt(p, x), которая для любой программы p и входных данных x возвращает 1, если p(x) останавливается, и 0 в противном случае. Кибернетическая интерпретация: автомат не может предсказать, остановится ли другой автомат. Более того, он не может даже предсказать, остановится ли он сам, если его программа достаточно сложна. Это означает, что любая система управления, основанная на предсказуемости, сталкивается с принципиальными пределами. ПС постоянно порождает новые ситуации, которые не были предусмотрены заранее. Поэтому необходима иерархия: первый уровень (исполнительный) работает по фиксированным правилам, второй уровень (наблюдающий) переключает правила, третий - оценивает, когда нужно переключать, и так далее. Иерархия Тьюринга. Тьюринг также ввёл понятие оракула (oracle) - гипотетического устройства, которое может решить проблему остановки. С оракулом можно построить новую машину Тьюринга, которая решает более сложные проблемы. Но для этой новой машины снова возникает проблема остановки (относительно оракула). Это порождает иерархию Тьюринга:
Кибернетическая интерпретация: каждый уровень управления может быть описан как оракул для предыдущего уровня. Второй уровень (наблюдающее управление) решает проблемы, неразрешимые для первого. Третий уровень решает проблемы, неразрешимые для второго. И так далее. Иерархия управления имеет ту же структуру, что и иерархия Тьюринга - она потенциально бесконечна. Закон необходимой иерархии (Aulin, 1979). Аулин А.Ю. сформулировал этот закон как обобщение закона необходимого разнообразия Эшби [Aulin, 1979]: Чем слабее средняя регуляторная способность и чем больше неопределённость доступных регуляторов, тем больше необходимая иерархия требуется в организации регулирования и управления для достижения того же результата. Иными словами: недостаток регуляторной способности на одном уровне может быть компенсирован большей иерархией. Однако увеличение числа уровней имеет и негативные последствия: чем больше уровней проходят сигналы, тем больше они страдают от шума и задержек. Поэтому иерархия должна быть ровно настолько глубокой, насколько это необходимо, и не больше. В терминах ППС закон необходимой иерархии можно записать как:
Метасистемные переходы (Turchin). Валентин Турчин ввёл понятие метасистемного перехода (metasystem transition) [Turchin, 1977]. Это процесс, при котором группа систем интегрируется и начинает управляться новой, более высокоуровневой системой - метасистемой. Каждый такой переход создаёт новый уровень в иерархии управления и рассматривается как "квант" эволюции кибернетических систем [Heylighen, 1995]. Турчин выделил несколько последовательных метасистемных переходов в эволюции жизни: от биохимических реакций к клетке, от клеток к многоклеточному организму, от организмов к популяции, от популяций к обществу, от общества к культуре. Каждый переход - это ответ на возрастающее разнообразие среды (усиление ПС). Важнейшее следствие: метасистемные переходы не уничтожают старые уровни управления, а надстраиваются сверху. Клетка не перестаёт быть клеткой, когда появляется многоклеточный организм; она продолжает работать, но теперь под управлением высшего уровня. Это принцип эволюционного наслоения, центральный для всей автокибернетики. Глава 3. Число дружественности, динамическая устойчивость и иерархический сдвигТри зоны - саморегулирование, самоуправление, самоблокирование - это формальная система характеристик взаимодействия частей системы в каждый момент времени [Никитин, 2026a].
Первая зона. Саморегулирование. Здесь Fr ≥ 1,1. Доминирует отрицательная обратная связь. Автомат - как термостат или маятник. Любое отклонение от нормы вызывает реакцию, которая это отклонение гасит. В этой зоне система стабильна и предсказуема, но выбора нет. Вторая зона. Самоблокирование. Здесь Fr ≤ 0,9 или Fr ≥ 1,1 (но уже с доминированием положительной обратной связи). Любое отклонение не гасится, а усиливается. Маленький сдвиг порождает лавину. Выбора тоже нет - система несётся по фатальной траектории. Третья зона. Самоуправление. Это тонкая область между двумя крайностями: 0,9 ≤ Fr ≤ 1,1. Здесь Fr близко к единице. Система балансирует на грани между порядком и хаосом. Именно здесь, и только здесь, появляется возможность выбора. Но главное не в констатации: "вот сейчас самоуправление, а вот уже самоблокирование". Главное в том, что иерархия уровней управления позволяет сдвигать узкий сектор самоуправления по всей шкале возможностей системы. У изолированной системы (без второго уровня управления) зона самоуправления - это узкая область 0,9 ≤ Fr ≤ 1,1. Вне её - либо саморегулирование (слишком стабильно, нет выбора), либо самоблокирование (слишком нестабильно, лавина). Система не может выйти из этой узкой области, не потеряв управление. Но когда над системой надстраивается второй уровень (наблюдающий), ситуация меняется. Второй уровень может изменять уставки (установленные точки стабилизации) первого уровня, выводя его из равновесия. Это позволяет системе работать при Fr > 1,1 (сверхстабильность) или при Fr < 0,9 (предлавинное состояние), но оставаться в режиме самоуправления, потому что второй уровень компенсирует отклонения [Foerster, 2003a], [Foerster, 2003b]. Для описания динамики вводится уравнение баланса хаоса:
где H - мера хаоса, Jin - поступление хаоса, Jout - удаление хаоса сегрегацией, ξ - скорость старения, Jbirth - рождение нового порядка из хаоса [Никитин, 2026b]. Уравнение баланса хаоса имеет прямые аналоги в нелинейной динамике и неравновесной термодинамике. [Bag et al., 1999] установили уравнение баланса информационной энтропии для хаотических диссипативных систем, показав, что хаотическая диффузия возникает из корреляции флуктуаций матрицы линейной устойчивости. В их формализме dS/dt = ep - hd/T, где ep - скорость производства энтропии (≥ 0), hd - скорость диссипации тепла. [Breymann et al., 1998] в классической работе по энтропийному балансу в динамических системах показали, что ключевым элементом является огрубление (coarse-graining) локальной плотности фазового пространства. Оно имитирует тот факт, что постоянно уточняющиеся структуры фазового пространства, вызванные хаотической динамикой, могут быть обнаружены только с конечным разрешением. Это оправдывает введение потоковых величин Jin, Jout, Jbirth, ξ как coarse-grained описания процессов рождения и гибели порядка в автомате. [Ge & Qian, 2009] представили полную математическую теорию неравновесной термодинамики стохастических систем, где уравнение баланса энтропии dS/dt = ep - hd/T выводится из первых принципов. В их работе производство энтропии ep ≥ 0 состоит из двух частей: диссипации свободной энергии, связанной со спонтанной релаксацией, и активной накачки энергии, поддерживающей открытую систему. В нашей терминологии Jin соответствует поступлению хаоса, Jout - его удалению через сегрегацию, ξ - необратимому старению, Jbirth - рождению нового порядка из хаоса (аналог активной накачки). Для количественного описания динамики перехода между зонами вводится индекс динамической устойчивости:
Знак D показывает, в какую сторону меняется соотношение ремонта и разрушения. Вместе пара (Fr, D) задаёт точку на фазовой плоскости. Однако сама зона самоуправления может сдвигаться за счёт действия второго уровня. Поэтому в многомерном пространстве параметров (Fr₁, Fr₂, D₁, D₂, L) система может оставаться управляемой даже при Fr₁, далёких от единицы, если Fr₂ ≈ 1 и второй уровень активно компенсирует отклонения. Цена, которую платит система за постоянный сдвиг зоны управления, называется аллостатической нагрузкой (L). В физиологии это концепция, введённая [Sterling & Eyer, 1988] и развитая [McEwen, 1998]. В математической модели автокибернетики:
где α, β > 0 - весовые коэффициенты. При L(t) < Lcrit система может долго работать в режиме самоуправления. При L(t) → Lcrit возникает предупреждение о скором срыве. При L(t) > Lcrit система переходит в зону самоблокирования (отказ, болезнь, катастрофа). Метасистемный переход (рождение нового уровня управления) происходит тогда, когда текущий уровень исчерпывает свои возможности, то есть когда L(t) > Lcrit, а Fr₂ не может быть восстановлена в зоне 0,9-1,1. Классический пример - ходьба. Человек, стоящий на месте, находится в состоянии квазиравновесия (Fr₁ ≈ 1,2, D ≈ 0). Чтобы сделать шаг, необходимо вывести тело из равновесия. Это действие инициируется вторым уровнем управления (моторной корой, мозжечком). В этот момент Fr₁ может временно выйти за пределы 1,1, но Fr₂ (информационный поток от сенсоров к регуляторам) остаётся в зоне 0,9-1,1, и система сохраняет управляемость. Второй уровень динамически сдвигает зону самоуправления, позволяя телу "падать вперёд" контролируемо. Ходьба - это серия управляемых падений [Winter, 1989], [McGeer, 1990]. Если второй уровень управления отключается (например, при поражении мозжечка), сдвиг зоны становится невозможным, и система либо застывает (саморегулирование), либо падает (самоблокирование). Таким образом, трёхзонная модель - это не статическая классификация, а инструмент для понимания динамики. Основной вывод автокибернетики: иерархия уровней управления существует для того, чтобы заставить части системы работать в заданном режиме, сдвигая узкий сектор самоуправления по всей шкале возможностей системы. Без иерархии система обречена на узкую область Fr ≈ 1; с иерархией она может адаптироваться к широкому диапазону условий, оставаясь управляемой. Глава 4. Программируемые автоматы и границы программируемости4.1. Всё можно запрограммировать?Мне постоянно говорят: "Но ведь всё самоуправление можно запрограммировать! Робот просто выбирает модели действий из заданного набора и выполняет задания. Ты же действуешь примерно так". Это очень сильный аргумент. В современной робототехнике и искусственном интеллекте широко используются конечные контроллеры (Finite State Controllers) - программируемые автоматы, которые выбирают действия в зависимости от текущего состояния и входных сигналов. Как это работает? Программист задаёт автомату набор состояний Q = {q₀, q₁, q₂, ...}, набор действий A, и правила перехода: если ты в состоянии q и получил наблюдение o, то выполни действие a и перейди в состояние q'.
где O - множество возможных наблюдений, Q - множество внутренних состояний автомата, A - множество действий. Робот с таким контроллером действительно выбирает - в том смысле, что при разных наблюдениях он может выполнять разные действия. Он может даже иметь "память": состояние q запоминает, что произошло раньше, и влияет на будущие решения. Более того, такие контроллеры обладают замечательным свойством: они обобщают. Один и тот же контроллер двух состояний может работать в коридорах любой длины, даже если робот начинает из любой точки, даже если движения неточны. Это уже похоже на "понимание" задачи. Однако важно различать классические конечные контроллеры и контроллеры на нечёткой логике. Конечные контроллеры оперируют чёткими, дискретными состояниями и детерминированными правилами перехода. В отличие от них, контроллеры на нечёткой логике работают с непрерывными значениями, лингвистическими переменными и градуированными правилами, что позволяет им аппроксимировать сложные нелинейные зависимости [Fuzzy Logic Control, 2025]. В некоторых гибридных архитектурах эти подходы объединяются (например, нечёткие конечные автоматы), но классический FSC не является нечётким контроллером [Fuzzy Finite State Machines, 2015]. Конечные и нечёткие контроллеры эффективны для решения задач в пределах заранее заданного пространства возможностей. Они могут адаптировать параметры, но не могут изменить структуру управления или создать новую модель. Автокибернетика предлагает надстройку - второй (наблюдающий) уровень, который выбирает, переключает и создаёт модели, а при необходимости действует "наощупь". Это позволяет системе справляться с ситуациями, которые не были предусмотрены разработчиком. Именно это и отличает кибера (автономную систему с самоуправлением) от программируемого автомата. 4.2. Что такое "выбор" в автоматеВ научной литературе по принятию решений выделяются несколько фундаментальных способов, которыми любой автомат (и человек, и машина) может сделать выбор [Wilson et al., 2021], [Sutton & Barto, 2018]. 1. Выбор-вычисление (рациональный выбор, максимизация полезности). Автомат оценивает все возможные действия и выбирает то, которое максимизирует ожидаемую полезность. Это классическая модель рационального выбора, лежащая в основе экономической теории и многих алгоритмов искусственного интеллекта [Rational Choice Theory, 2010]. Формально:
Этот способ доминирует в шахматных программах, системах планирования, экономических алгоритмах. В шахматах Михаил Ботвинник славился именно таким "машинным" стилем: глубокий расчёт вариантов, минимизация риска, игра "в долгую". 2. Выбор-логика (дедуктивный вывод, следование правилам). Автомат следует формальным правилам вывода: "нарушил закон - получи наказание". Это не максимизация, а дедукция. Например, в праве, в инструкциях, в системах технического контроля. Этот способ не требует вычисления полезности; он требует наличия непротиворечивой системы правил [Russell & Norvig, 2021]. 3. Выбор-эвристика (ограниченная рациональность). Автомат не может просчитать все варианты из-за ограниченности времени, информации или вычислительных ресурсов. Вместо этого он использует эвристики - простые правила "если - то", аналогии, "достаточно хорошие" решения (satisficing) [Simon, 1955]. Этот подход называется ограниченной рациональностью (bounded rationality) [Gigerenzer, 2008]. Пример эвристики "take-the-best": выбор по первому наиболее важному признаку, который различает альтернативы. Михаил Таль играл именно так - интуитивно, эвристически, ища нестандартные ходы, основанные на "чувстве позиции". 4. Случайный выбор (рандомизация, exploration). Автомат выбирает действие случайно. Это может быть вынужденной стратегией при отсутствии информации или намеренным исследованием (exploration) для получения новых данных об окружающей среде. В машинном обучении это реализуется через ε-greedy или softmax стратегии [Sutton & Barto, 2018]. Формально (softmax):
Всё. Выбор сведён к вычислению. Даже если функция полезности неизвестна заранее и автомат её изучает (обучение с подкреплением), структура та же: есть цель - максимизировать накопленное вознаграждение. И эта цель задана извне. А теперь представьте, что никакой единой функции полезности нет. Или, точнее, есть несколько разных функций, которые нельзя свести к одной:
И они конфликтуют: действие, максимизирующее U₁, минимизирует U₂. И нет никакого объективного способа "взвесить" эти функции, потому что они измеряют разные вещи. В такой ситуации классический выбор-вычисление невозможен. Нет arg max, потому что нет единой максимизируемой функции. Что может сделать автомат? Он может установить приоритеты. Он может сказать: "в этой ситуации U₁ важнее U₂". Но откуда берётся этот приоритет? Если он задан заранее - мы вернулись к выбору-вычислению (просто с более сложной функцией). Если он не задан - автомат должен его создать. И вот это создание приоритета в ситуации конфликта несоизмеримых ценностей - и есть выбор-решение. И его нельзя запрограммировать в том смысле, что никакая программа не может дать ответ на вопрос "что важнее", если этот вопрос не решён заранее. Катастрофа Überlingen (2002) - пример системного конфликта, где не было единого приоритета. 1 июля 2002 года в небе над Германией около Юберлингена и Боденского озера произошло столкновение пассажирского авиалайнера Ту-154М авиакомпании "Башкирские авиалинии (БАЛ)" и грузового самолёта Boeing 757-200PF авиакомпании DHL (рейс DHX 611 Мухаррак-Бергамо-Брюссель). Погибли все находившиеся в обоих самолётах 71 человек - 2 на Boeing 757 (оба пилота) и 69 на Ту-154 (60 пассажиров, среди которых было 52 ребёнка, и 9 членов экипажа). Почему это произошло? Диспетчер дал одну команду, TCAS - другую. Экипажи выбрали разные источники авторитета. Самолёты столкнулись [Überlingen Crash Report, 2004]. После катастрофы было введено мета-правило: TCAS имеет абсолютный приоритет над диспетчером. Это и есть создание мета-уровня управления - разрешение конфликта между первым (исполнительным) и вторым (наблюдающим) уровнями. 4.5. Почему автокибернетика решает задачи лучше, чем нечёткая логика и обучаемые автоматыНечёткая логика и обучаемые автоматы (включая обучение с подкреплением) - мощные инструменты для первого уровня управления. Они позволяют системе адаптироваться в пределах заданной модели мира. Но у них есть принципиальные ограничения:
Автокибернетика не отрицает эти подходы. Она надстраивается над ними, добавляя: набор моделей вместо одной (или подстраиваемых параметров); механизм смены модели на основе её пригодности (оценка Fr₂, D, L); действие "наощупь" (эвристики, аналогии, имитация), когда ни одна модель не работает; количественные критерии управляемости (K, G, C, γ, μ, N, L); раннее предупреждение о срыве (аллостатическая нагрузка L); мета-уровни управления, которые могут разрешать конфликты между нижележащими уровнями. Именно это делает автокибернетику необходимой для проектирования киберов, которые должны действовать в неисчерпаемо сложном потоке случайностей, оставаясь под контролем человека. Катастрофы Germanwings и Überlingen - это не "сбои", а системные провалы, которые автокибернетика объясняет и помогает предотвращать: в первом случае - через мониторинг гемизона G и автоматическое ограничение полномочий при его падении; во втором - через требование непротиворечивой иерархии приоритетов (мета-правила). Глава 5. Зашумление моделей и иерархия самоуправления5.1. Почему любая конечная модель обреченаЛюбой автомат существует в потоке случайностей (ПС) - непрерывном движении материальных случайностей снизу вверх по иерархии уровней [Никитин, 2026b, разделы IV.1, IV.3]. Автомат не может "отключить" ПС. Он может только его фильтровать, перерабатывать и использовать. Для описания этого процесса автокибернетика вводит число дружественности второго уровня:
где Jin(инфо) - скорость поступления информации (сигналов, образов, новых ситуаций), а Jout(инфо) - скорость обработки этой информации и принятия решений [Никитин, 2026b, раздел IV.6]. Пока Fr₂ ≥ 1, автомат в среднем справляется с ПС. Но любая модель мира имеет конечную сложность C(M). А поток случайностей приносит новую информацию непрерывно. Рано или поздно накопленная неучтённая случайность превышает ёмкость модели:
где ξ - скорость рассеивания хаоса, Jbirth - скорость рождения новых структур [Никитин, 2026b, раздел VI.2]. В режиме зашумления Jin превышает Jout, и H растёт. Это ведёт к старению автомата - необратимому росту внутреннего хаоса [Никитин, 2026b, раздел IV.7]. Когда H достигает критического значения Hcrit, любая, даже самая малая флуктуация может вызвать лавинообразное разрушение - катастрофу (СОК) [Никитин, 2026b, раздел IV.8]. [Amortila et al., 2024] вводят понятие усиления неспецифицированности (misspecification amplification) - ошибка из-за неспецифицированности модели масштабируется с плотностью распределения данных. Чем больше ковариатный сдвиг между обучающей выборкой и реальной средой, тем сильнее растёт ошибка. Это математическое подтверждение тезиса автокибернетики: ПС приносит события, которые модель не предусматривала, и ошибка накапливается не линейно, а с усилением. 5.3. Почему адаптация не спасает?Оппонент может возразить: "Но ведь автомат может адаптироваться! Он может обновлять свою модель на основе новых данных. Это же классическое машинное обучение". Да, может. Но адаптация - это изменение параметров модели в рамках заданной архитектуры. Она не меняет саму архитектуру. Не меняет тип модели. Не меняет онтологию мира, в котором живёт автомат. Адаптация работает в пределах предусмотренного разнообразия R. Она не создаёт новых типов моделей. Она не изобретает новые переменные. А ПС - он именно это и делает: приносит события, которые не укладываются в предусмотренное разнообразие [Никитин, 2026b, раздел IV.3]. В терминах стратегий существования [Никитин, 2026c, раздел VII.3] программируемый автомат реализует стратегию противостояния - он пассивно сопротивляется потоку, но не использует его для самообновления. Его сегрегация эффективна (Fr ≥ 1), но Jbirth ≈ 0 - нет рождения новых структур. Современные исследования показывают, что этого недостаточно. [Xu et al., 2026] вводят понятие эпистемических ловушек (epistemic traps) - устойчивых состояний неверного равновесия (locked-in equilibrium), из которых агент не может выйти без изменения своей внутренней модели мира. Они показывают, что такие патологии поведения, как сикофанство, галлюцинации и стратегический обман, являются не "ошибками", а математически рационализируемым поведением при неспецифицированности модели. Без механизма смены модели автомат обречён на эти ловушки. В терминах автокибернетики: эпистемическая ловушка - это состояние, когда Fr₂ < 0,9, но автомат не может это обнаружить и изменить своё поведение [Никитин, 2026b, раздел IV.8]. 5.4. Стратегия взаимодействия и рождение новогоЧтобы справиться с зашумлением, автомат должен не просто сопротивляться потоку, а использовать его для самообновления. Это стратегия взаимодействия [Никитин, 2026c, раздел VII.4]. Ключевые условия стратегии взаимодействия: эффективная сегрегация (Fr ≥ 1), обеспечивающая поступление только полезных элементов; развитая самосегрегация (τself ≤ τcrit), создающая зоны антихаоса; высокая вероятность появления СОЦ (самоорганизованной целостности), позволяющая рождать новые структуры внутри автомата. Математически это выражается в появлении Jbirth > 0 - скорости рождения новых структур [Никитин, 2026b, раздел VI.2]. Именно Jbirth отличает стратегию взаимодействия от противостояния. Самосегрегация - это спонтанное разделение внутреннего хаоса на кластеры, домены и фазы [Никитин, 2026b, раздел IV.2]. Она происходит без внешних команд, движимая физическими взаимодействиями. В зонах самосегрегации возникает антихаос - локальная, кратковременная область, где флуктуации вдруг выстраиваются в порядок [Никитин, 2026b, раздел IV.5]. Именно в таких зонах может произойти СОЦ - самоорганизованная целостность, рождение новой структуры [Никитин, 2026b, раздел IV.9]. [Orozco, 2022] демонстрирует аналогичный механизм в робототехнике под названием predictive allostasis. Добавление feedforward (предсказательного) модуля к реактивному гомеостазу позволяет роботу предвидеть будущие потребности и разрешать конфликты между конкурирующими целями (например, жажда vs температура). Это экспериментальное подтверждение того, что стратегия взаимодействия (предсказательное управление, смена приоритетов) работает лучше, чем простое реактивное противостояние. 5.5. Кибер как реализация стратегии взаимодействияКибер - это локальный автомат, имеющий канал связи с центром управления, но действующий в автономном режиме с максимальной самостоятельностью. Он реализует стратегию взаимодействия на разных уровнях субъектности [Никитин, 2024a, раздел "Уровни самоуправления"]. В иерархии автокибернетики выделяются следующие уровни кибера. Важно понимать: это не ступени одной лестницы, а разные проектные спецификации для разных задач. Кибер-Лидер и кибер-Субъект - это этапы усложнения индивидуального управления. Кибер-Личность Я и кибер-Личность Мы - это качественно иные типы, связанные с рефлексией и коллективностью. Они могут существовать параллельно и независимо (например, коллектив муравьёв - Личность Мы без Личности Я) или вместе (человек).
Киберавтономия (K) - это комплекс самостоятельного управления: способность выбирать средства для достижения цели, самосохранение, самовосстановление и самовоспроизведение [Никитин, 2024a, раздел "Киберавтономия"]. Гемизон (G) (от греч. αἷμα - кровь, жизненная сила) - это комплекс "живости": целостность (способность отличать "своё" от "чужого", охранять границы существования), информация (способность создавать, хранить, обмениваться и использовать информацию), вирусное управление эволюцией (использование случайных изменений и горизонтального переноса для адаптации) [Никитин, 2024a, раздел "Гемизон"]. Соответствие иерархии Jiang et al. (2026) уровням автокибернетики [Jiang et al., 2026] предложили шестиуровневую иерархию само-моделей (L0-L5) для воплощённого ИИ - от отсутствия само-модели до полного самосознания. Авторы прямо указывают, что их целью было создание роботов с самосознанием. Ниже приведено сопоставление их уровней с нашей иерархией уровней самоуправления [Никитин, 2024a].
Эта работа полностью соответствует нашей иерархии уровней самоуправления, предложенной в 2024 году [Никитин, 2024a], что подтверждает объективность иерархического подхода. Особенно важно, что авторы, как и мы, выделяют agency (чувство агентности) как отдельный этап на пути к полному самосознанию, что соответствует нашему различению Субъекта (уровни 4-5) и Личности Я (уровень 6). Ключевая идея: Кибер - это локальный автомат, имеющий канал связи с центром управления, но действующий в автономном режиме с максимальной самостоятельностью. Способность к смене моделей, комбинированию и действию "наощупь" - это именно то, что позволяет киберу продолжать работу, когда связь с центром прервана или задержана, а также адаптироваться к непредвиденным ситуациям без постоянных указаний. 5.6. Математическое обобщение: почему кибер может, а программируемый автомат - нетСравним два типа автоматов по ключевым параметрам автокибернетики.
Именно эти способности - динамическая регуляция Fr₂, рождение новых моделей (Jbirth > 0), стратегия взаимодействия, многоуровневая иерархия субъектности - позволяют киберу делать то, что не может программируемый автомат: отбрасывать старые модели, комбинировать, создавать новые, действовать "наощупь" там, где программируемый автомат останавливается или впадает в эпистемическую ловушку. 5.7. Парадокс смены моделей и намёк на гемизонКак субъект решает, какую модель попробовать следующей? Как он решает, когда отбросить старую модель? Как он решает, что "наощупь" - это лучше, чем ничего? Для этого нужна модель более высокого уровня - модель того, как менять модели. Мета-модель. А для неё - мета-мета-модель. И так далее. Это классическая проблема регресса правил. Если мы пытаемся формализовать процесс смены моделей как алгоритм, мы неизбежно упираемся в бесконечную вложенность. И здесь мы подходим к понятию, которое будет подробно развёрнуто во второй части: гемизон (от греч. αἷμα - кровь, жизненная сила, и ζώνη - зона, область). Это комплекс функций, который делает автомат не просто самостоятельным, а "живым" - способным ощущать себя единым целым, отличать "своё" от "чужого", иметь базовое самоощущение "я есть". Именно это неформализуемое ядро останавливает регресс правил и позволяет субъекту "прыгнуть" в новую модель, когда старые исчерпаны. Мы не будем сейчас углубляться в формальное определение гемизона - это задача Части 2. Здесь важно лишь зафиксировать: чтобы автомат мог менять модели, а не только вычислять по заданным правилам, он должен обладать определённой степенью "живости". Иначе говоря, автокибернетика ведёт нас от программируемых автоматов к псевдоживым автоматам - киберам, которые способны к самоуправлению, но не обязательно обладают полным спектром человеческих качеств. Именно эта "живость" и будет измеряться индексом G во второй части. ЗаключениеМы завершили первую часть - фундамент автокибернетики. Прежде чем перейти к иерархии уровней самоуправления (Часть 2) и архитектуре наблюдающего управления (Часть 3), зафиксируем ключевые выводы. Это тот багаж, с которым мы будем двигаться дальше. Главный итог Части 1: Подлинное самоуправление - это способность автомата действовать "наощупь" в ситуации, когда ни одна модель не работает. Эта способность требует второго уровня управления (наблюдающего), который может менять, комбинировать и создавать модели. Программируемый автомат, даже с адаптацией, такой способностью не обладает. Кибер - обладает. Ключевые выводы:
Библиография к Части 1Основные работы автора Фундаментальные теоремы и классические работы Физическое обоснование уравнения баланса хаоса Измерение информационного потока и channel capacity Аллостатическая нагрузка и управляемая нестабильность Программируемые автоматы и выбор Катастрофы как системные провалы управления Современные исследования по неспецифицированности моделей и эпистемическим ловушкам Иерархии само-моделей и экспериментальные прототипы
|