Леви Геннадий : другие произведения.

Эволюция и информация

Самиздат: [Регистрация] [Найти] [Рейтинги] [Обсуждения] [Новинки] [Обзоры] [Помощь|Техвопросы]
Ссылки:


 Ваша оценка:
  • Аннотация:
    Я предлагуи всем желающим, особенно математикам, физикам и биологам, высказться по поводу моей статьи, что, на их взляд в ней неясного, спорного, и возможно даже, неверного.

  
   Казалось бы, нет ничего общего между феноменом человеческого мышления и теорией эволюции. Но, на мой взгляд, эти два понятия взаимно связанны. Я попытаюсь объяснить почему я прошел к такому мнению. Но для того, чтобы разобраться, предлагаю немного теории.
  Первый вопрос, который мы рассмотрим, будет касаться космологии, а затем перейдем к другим областям. (Я постараюсь как можно меньше использовать формулы, и попытаться объяснить суть моей гипотезы обычным русским языком.) (Проблема с обычным языком по сравнению с математическим такая, что трудно давать четкие определения и при этом быть уверенным, что их не проинтерпретируют каким-то другим образом, поскольку многие слова имеют несколько значений)
  
   Космология.
  Итак, космология. Зачем она нам нужна и каким образом она может помочь в нашей задаче?
  Начнем с общих понятий.
  Во-первых, с точки зрения теории относительности, не существует отдельно пространства и времени, они вместе составляют единое целое, так называемое четырехмерное пространство: три оси (x, y, z) определяю длину, ширину и высоту, а четвертое измерение t - время. Поэтому для нахождения какой-либо точки в таком пространстве применяется другая формула, нежели в классической физике трехмерного пространстве.
  Для нахождения, например, какого-нибудь отрезка (дистанции) в классическом пространстве (построенного по геометрии Евклида) применяется теорема Пифагора:
  D2 = X2+Y2+Z2
   Однако для пространства-времени, основанного на теории относительности и построенного по законам геометрии Минковского, расстояние между двумя точками вычисляется уже по другой формуле:
  D2 = T2 - X2 - Y2 - Z2, где Т - это ось времени.
  В классической физике (как и в квантовой механике) время обратимо (т.е. нет никакой разницы в отношении его направления) и уравнения механики и электродинамики симметричны.
  Ньютон дал такое определение времени:
   Абсолютное, истинное математическое время само по себе и по самой своей сущности, без всякого отношения к чему-либо внешнему, протекает равномерно, и иначе называется длительностью... Все движения могут ускоряться или замедляться, течение же абсолютного времени изменяться не может
  Также по канонам классической физики: все моменты времени в прошлом, настоящем и будущем между собой равноправны и время однородно. Течение времени всюду и везде в мире одинаково и не может изменяться.
  (Мы коснемся вопроса, что это такое - "время", и как его можно понимать, а пока ограничимся нашим интуитивным представлением данной величины)
   В теории относительности время же не абсолютное и не одинаковое, а зависит от скорости перемещения одной системы отсчета (одной системы координат) относительно другой. Поэтому представление о том, что значит, скажем, такое понятие как "одновременно" в обоих случаях неодинаковое. Приведу пример.
  Один наблюдатель, допустим, стоит на платформе и наблюдает как мимо него проносится поезд. Другой наблюдатель находится в самом поезде. В переднем вагоне этого поезда находиться одна лампочка, а в заднем - другая, причем обе они на равном расстоянии от выключателя в середине поезда. В какой-то момент человек в поезде включает обе лапочки. Вопрос: зажгутся ли обе лампочки одновременно, если ток в оба направления движется с одинаковой скоростью?
  Для человека в поезде в этом нет сомнений - да, конечно. А вот для того, кто стоит на платформе - нет, не одновременно. Почему? Потому что передняя лампочка поезда удаляется от того места, где она была включена, а другая наоборот - приближается.
  Что это нам дает? А то, что одно и тоже событие, наблюдаемое с различных систем отсчета, может для каждого происходить в разное время. Иначе говоря, одно и тоже событие для одного наблюдателя может быть в будущем, а для другого - уже в прошлом, один будет иметь полную информацию о нем, а другой - никакой. Но значит ли это, что информация появляется в момент наблюдения или она существовала еще до него, перед тем как мы ее получили? И если второе утверждение верно, то означает ли это то, что информация существует все время, постоянно, вне зависимости, попадает она к нам или нет?
  Это приводит нас к такому вопросу: а что же такое - информация? Можно ли ее как-то измерить? И вообще - это что-то материальное или из области идей?
  Прежде, чем ответить на эти вопросы давайте взглянем на еще одну область физики, под названием термодинамика, которая поможет разобраться с понятием времени, прошлого и будущего.
  
   Энтропия
  Надо заметить, что ни классическая, ни релятивистская механика не дает ответа - почему время течет только в одном направлении: из прошлого в будущее. В обоих случаях время инвариантно. Т.е. для законов механики абсолютно безразлично в каком направлении движется время, законы остаются теми же самыми.
  Ответ на вопрос почему время движется лишь в одном направлении, может дать только термодинамика, там, где существует (или где впервые появилось) понятие энтропии и связанный с нею второй закон, который утверждает, что в замкнутом и изолированном пространстве энтропия либо не меняется (для обратимых процессов), либо увеличивается (для необратимых).
  Давайте разберемся по очереди, что означают эти понятия.
  Что такое, например, "замкнутое изолированное пространство"? Это такое пространствo, куда нет притока энергии извне. В реальности - такую систему трудно найти. Возможно, эта вся наша вселенная, но даже по поводу ее ведутся жаркие споры. (закон основан на том, что существует предел температуры: она не может опуститься ниже 0 градусов по шкале Кельвина. Интересное дело: когда мы имеем дело с бесконечностями никаких странных физических законов, таких которые бы противоречили здравому смыслу, не возникает, но как только переходим к конечным значениям, появляются всякие странности, как, например, в той же термодинамике, или в теории относительности).
  Так что же такое "энтропия"? Приведу самый популярный пример:
  Стоит кофейная чашка на краю стола. Если подует сильный ветер и столкнет ее со стола, то чашка упадет и разобьется на мелкие осколки. А теперь пусть тот же самый ветер соберет эти осколки в чашку. Хотя и есть вероятность такого чуда, но она настолько мала, что ее никто не принимает всерьез. Так вот чашка обладает маленькой энтропией, а ее осколки или то, что от нее остается после падения - большой. Это пример второго закона термодинамики в действии.
  Есть несколько определений энтропии. Исторически первое определение пришло из самой термодинамики:
   dS = ∆Q/T, где dS - определяет изменение энтропии, Q - изменение теплоты, T - температура.
  (Формула определяет не саму энтропию, а величину ее изменения)
  Физически, с точки зрения термодинамики, энтропия означает возможность некой системы проделать полезную работу. Т.е. при тех- же самых параметрах - температуре и давлении, чем ниже энтропия системы тем больше работы она сможет проделать.
  Например. Представим себе ящик, наполненный газом. Поскольку молекулы газа могут иметь разную энергию и их распределение в ящике совершенно случайно, то может так случиться, что более активные молекулы соберутся в одной половине (скажем в правой), а более пассивные - в другой (в левой). Представим себе, что мы можем разделить их в этот момент перегородкой. Тогда более энергичные молекулы толкнут заслонку в сторону более пассивных (справа влево). Это сожмет левую часть (уменьшит ее объем) и, тем самым, увеличит в ней давление, что в свою очередь, приведет к движению поршня назад, вправо. Так может продолжаться некоторое время, но в какой-то момент, все это остановиться. Так вот, в начальном состоянии ящик обладал низкой энтропией, но по мере совершения работы, она увеличилась, что в конце концов привело к ее остановке.
  "Статистическая механика" дает иное, более детальное, определение энтропии (Доказано, что оба выражения эквивалентны)
   (Формула Гиббса )
  Где p - это вероятность каждого микроскопического состояния макроскопической системы.
  Эта формула характеризует неопределенность какой-нибудь системы на основе макроскопических сведений о ней. Что это значит?
  Обычное объяснение состоит в следующем:
  Дело в том, что каждая макроскопическая система состоит из множества микроскопических деталей: из атомов, например, или молекул. Мы можем измерить макроскопические характеристики всей системы, как, например, ее температуру и объем, но не в состоянии определить в каждое конкретное мгновение положение и момент действия (или скорость) составляющих ее частиц. С другой стороны, при той же самой температуре, каждая отдельная частица может находиться в разных состояниях, но в среднем, все они вместе будут определять то же самое макроскопическое состояние системы в целом.
  Возьмем, например, уже рассмотренную раннее чашку. В разбитом состоянии и в неразбитом она состоит из тех же самых частиц: атомов и молекул. Изменилось, однако, ее макроскопическое состояние. (Сама же чашка - это всего лишь одно из миллионов состояний с теми же самыми молекулами, из то же самого количества фарфора).
  В чем же тогда разница?
  А в том, что частицы стали как бы более свободными: они распределились на большем пространстве и с промежутками и поэтому вероятность их появления еще раз в том же самом состоянии (и в том же пространстве) стала меньшей по сравнению с той, какой она была.
   Можно рассмотреть данное свойство с другой стороны. Например, сколькими способами вы можете поменять местами две шашки в трех клетках? А в четырех? Понятно, что количество перестановок в четырех клетках будет большим, а значит вероятность каждой отдельной перестановки меньше, чем в трех. Вот то же самое происходит с энтропией.
  (Замечу, что я не совсем согласен с такой интерпретацией понятия энтропии. Дело в том, что, собрав все молекулы чашки в один комок мы получим, согласно этому определению, наименьшую энтропию. Однако, он будет не в состоянии проделать туже работу, которую может проделать чашка. Дело в том, что наполненная жидкостью, чашка, в отличии от комка, обладает большей потенциальной энергией. Поэтому моя интерпретация энтропии несколько другая. Как и прежде, энтропия определяет вероятностное распределение микросостояний макросистемы. Однако сравнивать можно не любые системы, а только такие, которые обладают одинаковой энергией. Система с меньшей энтропией позволяет проделать большее количество полезной работы. По сравнению с предыдущим определением количество микросостояний здесь будет гораздо меньшим)
  Что же нам это все дает?
  Дело в том, что все физические процессы обратимы - т. е. безразлично в каком направлении они происходят. Кроме одного: второго закона термодинамики, который утверждает, что в изолированном и замкнутом пространстве энтропия не может уменьшаться; она может оставаться либо неизменной (для обратимых процессов), либо увеличиваться (для необратимых). Но время тоже ведь необратимо. Отсюда был сделан вывод, что движение времени в определенном направлении должно каким-то образом быть связанно с энтропией.
  И последнее. Немного о парадоксе демона Максвелла (знаменитого шотландского физика).
  Если, мы снова обратимся к примеру с ящиком и не будем надеяться на случай, а представим себе, что внутри ящика есть перегородка и дверь и сидит там некий демон. Чем он занимается? Он открывает и закрывает эту дверь. Если быстрая молекула с левой половины приближается к ней, то он открывает дверь, пропуская молекулу в правую часть. То же самое он делает, если медленная молекула приближается из правой части: он ее пропускает в левую. Таким образом этот демон может искусственно создать в ящике низкую энтропию.
  Чтобы разрешить данный парадокс нам нужно рассмотреть понятие энтропии в другой науке, а именно в теории информации.
  
  
   Теория информации.
  
  Отцом теории информации считается американский инженер Клод Шеннон. Именно он ввел понятие информативной энтропии:
  H(x) = -∑ p(x) log p(x)
  Как вы, наверное, заметили, эта формула ничем не отличается от формулы Гиббса, хотя речь здесь идет о разных вещах.
  Для Шеннона вопрос состоял в том, насколько можно уменьшить ошибку при передаче какого-либо сообщения или с какой скоростью можно предать сообщение по каналу связи, если задана максимальная величина ошибки. Но для этого ему нужно было дать определение самой информации и как ее можно представить математически.
   Он пришел к выводу, что количество информации в сообщении должно соответствовать вероятности ее появления в этом сообщении. Чем ниже вероятность, тем больше полученная информация.
   Например, если вам скажут, что сегодня утром солнце взошло на востоке. Какое количество информации вы получили, узнав об этом? Да никакого. Вы и так знали. Другое дело, если вам скажут, что солнце взошло на западе.
   Надо заметить, что хотя формулы энтропии для термодинамики и информации с математической точки зрения одинаковые, смысл у них разный. В термодинамике чем меньше энтропия какой-либо системы, тем с большей определенностью мы можем судить о ней (в ней меньше случайностей). В теории информации как раз наоборот: чем меньше энтропия какой-либо системы, тем меньше информации она несет. Эта разница обусловлена тем, что в теории информации мы определяем величину ее как количество равное разнице между априорной и апостериорной вероятностью. Что это значит? Для более конкретного определения нам нужно ввести понятие условной вероятности.
   Условная вероятность - это вероятность одной случайной величины в зависимости от появления другой случайной величины. Например, если мы бросаем игральную кость, то вероятность появления числа 2 равна одной шестой. Какова же вероятность появления числа 2 если дано условие, что оно четное? Тогда она будет равна одной третьей, поскольку вероятность появления четного числа равна одной второй.
   Записывается это так: P(xIy) - вероятность x при условии y
  (Если они не зависят друг от друга, то тогда они называются независимыми, и условная вероятность равна "безусловной")
   Так вот, количество полученной информации - это разница между безусловной вероятностью (априорной) системы и ее условной (апостериорной) вероятностью, т.е. после того, как мы получили некое сообщение, которое изменило начальную вероятность.
  
  
  Теорема Гёделя.
  
  Последнее, что мы должны рассмотреть - это логику и ее приложение в виде теоремы Гёделя.
   Что такое логика? В принципе, это наука как из одних утверждений (или понятий) можно вывести другие утверждения, вне зависимости от истинности начальных.
   Теорема Гёделя (на самом деле у него их две) говорит о том, что в любой формальной системе, основанной на логике (его доказательство касалось на самом деле только арифметики), есть утверждения (теоремы например), которые нельзя ни доказать, ни опровергнуть.
   Следует заметить, что это относиться только к утверждениям, рассматриваемым внутри самой системы, но не вне ее. Со стороны каждое утверждения можно доказать или опровергнуть. Доказательством этому служит сама теорема Гёделя.
   Доказательство теоремы тем не менее сложное: нужно знание логики, как дисциплины. Но можно привести примеры из других областей, которые, в данном случае, получили наименование "парадоксы".
   Один из примеров - это знаменитый "парадокс лжеца", который утверждает: "я вру". Нельзя ответить на вопрос: "так все-таки он врет или нет?"
  Другой парадокс - это парадокс парикмахера. Рассмотрим такое утверждение: "В городке живет лишь один парикмахер. Он бреет всех тех мужиков, которые не бреются сами".
  Хотя это утверждение выглядит вполне натуральным с точки зрения логики, но на вопрос: "бреет ли парикмахер самого себя?" ответа нет.
  В этом и заключается, в общем, теорема Гёделя.
  А теперь перейдем к главному пункту статьи.
  
  
  Главный пункт (о чем он)
  
  Давайте посмотрим на все сказанное выше с точки зрения "теории эволюции" и человеческого интеллекта.
  (Теория - это неправильное определение для теории эволюции поскольку она подразумевает, что принцип эволюции основан на солидном научном обосновании. На самом деле это вовсе не теория, а лишь гипотеза. Очень неприятно, когда даже в науке применяются пропагандистские приемы).
  Перед тем, как продолжить, я хочу сделать отступление и объяснить, как я сам отношусь к теории эволюции, чтобы в дальнейшем не было никаких недомолвок.
  Я отношусь к ней следующим образом.
  Я могу допустить, что если поместить тигров на северный полюс, то через некоторое время они из полосатых сделаются белыми. Но то, что они превратятся в моржей - в этом я сильно сомневаюсь.
  Другими словами, я считаю, что теория эволюции имеет под собой определенное научное обоснование, но это обоснование раздуто до необоснованных заключений. Ну что-то наподобие теорий Мичурина.
  А теперь продолжим.
  Мы не будем останавливаться на главной проблеме, с которой сталкиваются все те, кто верит в теорию эволюции, а именно, каким образом из неживых химических элементов возникли живые. Рассмотрим, вместо этого, саму эволюцию, т.е. каким образом из одних видов живых организмов появляются другие.
  Я не биолог и могу ошибаться, но насколько я понял главными элементами данной "теории" являются два фактора, а именно случайные мутации и естественный отбор.
  С другой стороны, если теория эволюции верна, то, на основании данных палеонтологии можно (и нужно) сделать вывод, что живая природа развивалась в одном направлении: от простых организмов к более сложным, от бактерий к млекопитающим животным. Другими словами - это был целенаправленный процесс. Случайные же мутации не могут вызвать неслучайный процессы. Таким образом мы приходим к выводу, что основой неслучайной эволюции (если эта теория верна) может служить только лишь естественный отбор. Почему же он "естественный"?
  Вот что написано в википедии:
   " Есте́ственный отбо́р - основной фактор эволюции, в результате действия которого в популяции увеличивается число особей, обладающих более высокой приспособленностью к условиям среды (наиболее благоприятными признаками), в то время как количество особей с неблагоприятными признаками уменьшается. В свете современной синтетической теории эволюции естественный отбор рассматривается как главная причина развития адаптаций, видообразования и происхождения надвидовых таксонов. Естественный отбор - единственная известная причина закрепления адаптаций. "
  Далее:
   " В процессе естественного отбора закрепляются мутации, увеличивающие приспособленность организмов к окружающей их среде. Естественный отбор часто называют "самоочевидным" механизмом, поскольку он следует из таких простых фактов, как:
  1. Организмы производят потомков больше, чем может выжить;
  2. В популяции этих организмов существует наследственная изменчивость;
  3. Организмы, имеющие разные генетические черты, имеют различную выживаемость и способность размножаться.
   Такие условия создают конкуренцию между организмами в выживании и размножении и являются минимально необходимыми условиями для эволюции посредством естественного отбора[2]. Таким образом, организмы с наследственными чертами, которые дают им конкурентное преимущество, имеют большую вероятность передать их своим потомкам, чем организмы с наследственными чертами, не имеющими подобного преимущества.
  Центральное понятие концепции естественного отбора - приспособленность организмов[4]. Приспособленность определяется как способность организма к выживанию и размножению в существующей окружающей среде."
  И так далее.
  Насчет "самоочевидности" можно поспорить. Т.е. есть много вопросов, на которые "теория" эволюции ответов не дает.
  Например. Любой живой организм обладает тремя функциями. 1 - это пожрать. 2 - постараться чтобы тебя не сожрали (инстинкт самосохранения, куда входят и другие понятия того же плана: не утонуть, не замерзнуть, т.д.). 3 - и произвести потомство.
  Если первые две функции необходимы для живого организма - то зачем ему третья? Она никоим образом не влияет на его существование. Зачем природе понадобилось, чтобы организмы копировали себя? Во всяком случае мне это совершенно не "очевидно".
  Но вернемся, однако, к эволюции.
  Основным козырем ее критиков является утверждение, что теория эволюции противоречит второму закону термодинамики, что, мол, при переходе от более простых организмов к более сложным хаос в природе уменьшается, а значит уменьшается энтропия. А так, как это противоречит второму закону термодинамики - то такого не может быть.
  На что эволюционисты отвечают, что креационисты являются невеждами, безмозглыми богомолами, которые ни фига не смыслят в науке, и тем более, во втором законе термодинамики. Что поскольку земля не является замкнутой и изолированной системой, поэтому даже если энтропия на земле и уменьшается, то в целом во вселенной, она увеличивается, а это значит, что эволюция не противоречит данному закону.
  Давайте разберемся.
  Что касается энтропии на уровне генетики, то я тут пас, поскольку в генетике я ничего не смыслю. Одно могу лишь сказать, что величина энтропии должна зависеть от длины ДНК и от количества генов на ней.
  А вот с макроскопической точки зрения мы, наверное, можем сделать кое-какие выводы.
  То, что земля не является изолированной системой - это и ежу понятно. Рассмотрим, однако, другую систему, а именно совокупность земли и солнца. Хотя и эта система не является изолированной, тем не менее она очень близка к ней, поскольку влияние других источников энергии (космических лучей, гравитационных полей других планет...) незначительно. Более того, мы можем сравнивать ее с другими похожими системами - например: солнце - марс, солнце - юпитер, и т. д.
  Так вот, чтобы избежать формул, рассмотрим данную систему, как говорят, "на пальцах". Энергия солнца поступает на землю в виде солнечных лучей в диапазоне ультрафиолетового и видимого излучения. Они (эти лучи) имеют низкую энтропию. Затем, когда земля "отворачивается" от солнца (ночью), она сама начинает излучать тепло (энергию) в пространство, но уже в инфракрасном диапазоне (тепловое излучение). Эти лучи обладают более высокой энтропией, чем солнечные. Таким образом энтропия всей системы солнце-земля увеличивается.
  Сколько энергии земля получает от солнца, столько же она должна излучать в пространство чтобы поддерживать постоянную температуру. Это свойство называется эквилибриумом.
  То же самое происходит и со всеми другими планетами: они ведь ничем не отличаются от земли. Хотя нет - отличаются. То есть, они были неотличимы еще лет сто назад, но теперь данное утверждение уже неверно. Почему? Что поменялось?
  А поменялось то, что сейчас земля (в отличии от всех других планет) отдает больше той энергии, которую она получает от солнца. Т. е. совсем не так, как другие планеты. (они, сколько получают - столько отдают)
   Каким образом я пришел к данному выводу? А таким, что сейчас (в отличии от прошлых столетий) земля излучает в космическое пространство радиоволны (производимые радиостанциями, мобильниками и так далее) и они уносят с собою в космос определенное количество энергии, то, чего не было раньше. Мы также посылаем в космос межпланетные корабли, обладающие значительной кинетической энергией и массой. И так далее. Т. е., в отличии от прошлых столетий земля отдает больше, чем получает.
  К каким последствиям должно было бы привести такое неравновесие? Есть два варианта. Либо к охлаждению нашей планеты (раз энергии уходит больше, чем мы получаем). Но этого мы не наблюдаем. Как раз-таки наоборот - все только и кричат о глобальном потеплении. Либо к уменьшению энтропии. Третьего не дано.
  Но если температура земли не снизилась за последние 100 лет, то это значит, что ее энтропия за тоже время уменьшилась. То есть она не стала отрицательной (иначе время пошло бы в обратную сторону) и второй закон не нарушился, но она стала меньшей по сравнению с той, какой она была раньше. Причем нигде ничего подобного в нашей солнечной системе не наблюдается. Ни на какой другой планете. А это значит, что изменение энтропии в системе солнце-земля является прямым последствием человеческой деятельности.
  Впрочем, предыдущее утверждение тоже не совсем верное. Деятели существуют уже десятки тысяч лет, а изменения произошли только в 20 веке. Правильно было бы сказать так, что эти изменения являются результатом человеческого разума, интеллекта, поскольку именно интеллект и разум создали космические корабли и радиостанции.
  В принципе, нам не нужно даже было заглядывать в космос. Здесь, на земле, мы имеем миллионы примеров того, как люди уменьшают энтропию, превращая одни вещи в другие (глину, например, в чашку).
  Но если человек в состоянии уменьшить энтропию окружающих его предметов, означает ли это, что энтропия нашей планеты постоянно уменьшалась? И если да, то почему, на основе каких законов?
  И второй вопрос: а энтропия самого человека - какая она по отношению к энтропии других живых существ?
  Не заглядывая в генетику и основываясь только на макроскопическом определении энтропии мы можем утверждать, что человек обладает самой низкой энтропией из всех существующих на земле организмов поскольку из всего живого он может проделывать наибольшую работу при наименьшей затрате энергии. Проделывает он эту работу не сам по себе, а с помощью инструментов, которые он сам же и создает за счет своих умственных способностей, за счет своего интеллекта.
  Другими словами - наш интеллект является именно тем, что делает человека "животным" с наименьшей энтропией.
  Поскольку человек обладает наименьшей энтропией, то и энтропия всей земли должна была уменьшиться с появлением человека. (Мы исходим из принципа сохранения материи. Ничто ниоткуда не взялось и ничто никуда не исчезло)
  Таким образом мы приходим к выводу, что и уменьшение энтропии земли и уменьшении энтропии в живых организмах напрямую связано с интеллектом.
  Рассмотрим теперь этот феномен с точки зрения теории информации Шеннона.
   Второй закон термодинамики утверждает, что энтропия в замкнутой системе (каковой может являться наша вселенная) только увеличивается или остается неизменной. Но если она увеличивается, значит что-то другое в природе должно уменьшаться. Иначе нарушится основной закон: закон сохранения. Так что же уменьшается?
  Ну и еще один вопрос, раз мы уж заговорили об интеллекте. Что это такое: умственные способности или что-то еще?
  Если мы установили, что энтропия земли уменьшается, а энтропия напрямую зависит от интеллекта - означает ли это то, что мы умнее наших предшественников: умнее Ньютона, Декарта, неизвестного создателя колеса? Вряд ли. Тем не менее, наша энтропия (как мы установили) - меньше. Значит чего-то у нас должно было стать больше, чем было у них и причем это что-то должно быть связано с интеллектом. Так вот: это "что-то" есть наши знания. По объёму знаний любой средний студент университета затмит Ньютона, не говоря уже об остальных. Таким образом, знания, наряду с умственными способностями, являются основой нашего интеллекта.
  Ну, а каким другим образом можно представить знания? А таким, что знания находятся в прямой зависимости от полученной нами информации.
  Вот что происходит.
  Представим, что существует в мире какое-то "состояние", "явление" (даже не знаю, как лучше назвать) какая-то совокупность знаний, источник информации, (возможно божественного порядка), т. е. знаний обо всем. Из этой совокупности мы черпаем понемногу свои знания, получаем информацию. Таким образом, начальная неопределенность источника информации со временем уменьшается, а значит уменьшается его энтропия. В то же время энтропия материального мира увеличивается, согласно второму закону термодинамики. Информационная энтропия уменьшается, а энергетическая - увеличивается.
  Нужно также сделать различие между той информацией, которую мы черпаем из "божественного" источника и той, которую мы создаем сами. Первая - это та, которая уменьшает нашу энтропию в целом, для всех индивидуумов, а вторая относиться только к отдельному, незначительному числу людей. Например, второй закон Ньютона - он для всех, потому что информация пришла из "божественного" источника (о том, как движутся тела в пространстве), а вот то, что Петька поссорился с Катькой- эта информация полезна только их знакомым.
  С этой точки зрения мы можем взглянуть на космологический парадокс, описанный раннее:
  Каким же образом, не материальное (божественное?) начало, именуемое знаниями, превращается в материальные предметы, которые создаются на законах физики?
  Такая трансформация происходит в человеческом мозгу.
  Я предлагаю следующую гипотезу. (У меня, в отличии от эволюционистов, всего лишь гипотеза).
  Мозг новорожденного ребенка обладает высокой энтропией, в нем нет никакого порядка. Но по мере того, как ребенок растет и развивается, в его мозгу происходят изменения за счет получаемой извне информации. Т. е. в начале своего развития мозг находится в состоянии почти полной неопределенности, там нет связей (между нейронами?), и все нейроны находится в динамичном, изменчивом состоянии. Хаос. По мере же получения информации извне устанавливаются постоянные связи между отдельными нейронами, они закрепляются (появляется память?) и мозг переходит из состояния более высокой энтропии в более низкое. А затем, в какой-то момент, начинается движение в обратном направлении - связи начинают разрушаться, нарушается их взаимодействие и увеличивается энтропия мозга, которая, в конце концов, приводит к смерти.
  Можно ли описать работу мозга какими-нибудь формулами или с
  помощью математической логики?
   В быту укоренилась вера во всесильность математики. Мол для того, чтобы некая теория стала научной, она должна быть поддержана математическими выкладками. Математика - королева наук. Эту веру не смогла поколебать даже теорема Геделя.
  При этом, каким-то образом "забывают", что математика имеет дело исключительно с цифрами. Т.е. она подходит только для количественного описания того или иного явления. Количественного. Мозг же наш оперирует в основном качественными понятиями, такими как "красиво", "правильно", "физика", "небесные тела" и так далее. (Он также занимается и вычислениями, но в меньшей степени, и эта часть его функций, кстати говоря, проблем с математикой не имеет). (основа компьютеров - вычислительных машин)
  Можно ли математику каким-то образом приспособить к описанию работы мозга? Да, можно, но при условии, если качественные понятия можно будет заменить количественными. Пример тому - шахматы. Каждая шахматная фигура обладает определенным, отличным от других фигур, качеством. Разные клетки на доске тоже имеют разное качество (центральные поля, например, сильнее боковых). Если правильно подобрать количественное значение каждому из качеств, к каждой ситуации, которая может возникнуть на доске, то можно создать программу (математическую модель), играющую наравне с гроссмейстером. Но это возможно лишь потому, что количество различных качеств в шахматах сильно ограничено.
  Другим препятствием математическому описанию работы мозга является то, что любая теория, основанная на математике, предполагает обобщение. Иными словами, она стремится обобщить различные явления, в то время как человеческий мозг строго индивидуален и этим он отличается от мозгов животных с более высокой энтропией. Тем более он этим отличается от неживой природы.
  Хотя, кое-что из математики возможно окажется применимой к описанию работы человеческого мозга.
  Одним из таких возможных математических описаний человеческого сознания может стать, на мой взгляд, теория вероятностей или, более конкретно, теория стохастического процесса, дающая обобщение в виде математического ожидания, в то время как каждое индивидуальное сознание будет частной реализацией данного процесса. Цепи Маркова также могут послужить математической моделью головного мозга как источника информации. Уже есть работы в рамках теории информации в этом направлении.
  Какое же, в итоге, мы можем сделать заключение?
  Как уже было сказано, палеонтология свидетельствует, что природа на земле менялась в одном направлении: от простого к сложному. Этот переход от более простых организмов к более сложным был на самом деле переходом организмов с более высокой энтропией к тем, что обладают большим интеллектом, или, другими словами, более низкой энтропией. С какой целью это происходило, что "толкало" природу в этом направлении - неясно. Ясно другое - теория естественного отбора объяснения данному процессу не дает. Она не может и даже не пытается дать объяснение феномену снижения энтропии. А значит - она, как и вся теория Дарвина в отношении эволюции, за исключением локальных случаев, просто блеф.
  
  
  
 Ваша оценка:

Связаться с программистом сайта.

Новые книги авторов СИ, вышедшие из печати:
О.Болдырева "Крадуш. Чужие души" М.Николаев "Вторжение на Землю"

Как попасть в этoт список
Сайт - "Художники" .. || .. Доска об'явлений "Книги"