Пользователь
11,5
рейтинг
16 февраля 2015 в 02:53

Разработка → Как работает мозг?

Этот пост написан по мотивам лекции Джеймса Смита, профессора Висконсинского университета в Мадисоне, специализирующегося в микроэлектронике и архитектуре вычислительных машин.

История компьютерных наук в целом сводится к тому, что учёные пытаются понять, как работает человеческий мозг, и воссоздать нечто аналогичное по своим возможностям. Как именно учёные его исследуют? Представим, что в XXI веке на Землю прилетают инопланетяне, никогда не видевшие привычных нам компьютеров, и пытаются исследовать устройство такого компьютера. Скорее всего, они начнут с измерения напряжений на проводниках, и обнаружат, что данные передаются в двоичном виде: точное значение напряжения не важно, важно только его наличие либо отсутствие. Затем, возможно, они поймут, что все электронные схемы составлены из одинаковых «логических вентилей», у которых есть вход и выход, и сигнал внутри схемы всегда передаётся в одном направлении. Если инопланетяне достаточно сообразительные, то они смогут разобраться, как работают комбинационные схемы — одних их достаточно, чтобы построить сравнительно сложные вычислительные устройства. Может быть, инопланетяне разгадают роль тактового сигнала и обратной связи; но вряд ли они смогут, изучая современный процессор, распознать в нём фон-неймановскую архитектуру с общей памятью, счётчиком команд, набором регистров и т.п. Дело в том, что по итогам сорока лет погони за производительностью в процессорах появилась целая иерархия «памятей» с хитроумными протоколами синхронизации между ними; несколько параллельных конвейеров, снабжённых предсказателями переходов, так что понятие «счётчика команд» фактически теряет смысл; с каждой командой связано собственное содержимое регистров, и т.д. Для реализации микропроцессора достаточно нескольких тысяч транзисторов; чтобы его производительность достигла привычного нам уровня, требуются сотни миллионов. Смысл этого примера в том, что для ответа на вопрос «как работает компьютер?» не нужно разбираться в работе сотен миллионов транзисторов: они лишь заслоняют собой простую идею, лежащую в основе архитектуры наших ЭВМ.

Моделирование нейронов


Кора человеческого мозга состоит из порядка ста миллиардов нейронов. Исторически сложилось так, что учёные, исследующие работу мозга, пытались охватить своей теорией всю эту колоссальную конструкцию. Строение мозга описано иерархически: кора состоит из долей, доли — из «гиперколонок», те — из «миниколонок»… Миниколонка состоит из примерно сотни отдельных нейронов.



По аналогии с устройством компьютера, абсолютное большинство этих нейронов нужны для скорости и эффективности работы, для устойчивости ко сбоям, и т.п.; но основные принципы устройства мозга так же невозможно обнаружить при помощи микроскопа, как невозможно обнаружить счётчик команд, рассматривая под микроскопом микропроцессор. Поэтому более плодотворный подход — попытаться понять устройство мозга на самом низком уровне, на уровне отдельных нейронов и их колонок; и затем, опираясь на их свойства — попытаться предположить, как мог бы работать мозг целиком. Примерно так пришельцы, поняв работу логических вентилей, могли бы со временем составить из них простейший процессор, — и убедиться, что он эквивалентен по своим способностям настоящим процессорам, даже хотя те намного сложнее и мощнее.

На рисунке, приведённом чуть выше, тело нейрона (слева) — небольшое красное пятнышко в нижней части; всё остальное — дендриты, «входы» нейрона, и один аксон, «выход». Разноцветные точки вдоль дендритов — это синапсы, которыми нейрон соединён с аксонами других нейронов. Работа нейронов описывается очень просто: когда на аксоне возникает «всплеск» напряжения выше порогового уровня (типичная длительность всплеска 1мс, уровень 100мВ), то синапс «пробивается», и всплеск напряжения переходит на дендрит. При этом всплеск «сглаживается»: вначале напряжение за 5..20мс растёт до порядка 1мВ, затем экспоненциально затухает; таким образом, длительность всплеска растягивается до ~50мс.



Если несколько синапсов одного нейрона активизируются с небольшим интервалом по времени, то «разглаженные всплески», возбуждаемые в нейроне каждым из них, складываются. Наконец, если одновременно активны достаточно много синапсов, то напряжение на нейроне поднимается выше порогового уровня, и его собственный аксон «пробивает» синапсы связанных с ним нейронов.



Чем мощнее были исходные всплески, тем быстрее растут разглаженные всплески, и тем меньше будет задержка до активизации следующих нейронов.



Кроме того, бывают «тормозящие нейроны», активация которых понижает общее напряжение на связанных с ним нейронах. Таких тормозящих нейронов 15..25% от общего числа.

У каждого нейрона тысячи синапсов; но в любой момент времени активны не больше десятой части всех синапсов. Время реакции нейрона — единицы мс; такого же порядка задержки на распространение сигнала вдоль дендрита, т.е. эти задержки оказывают существенное влияние на работу нейрона. Наконец, пару соседних нейронов, как правило, связывает не один синапс, а порядка десятка — каждый с собственным расстоянием до тел обоих нейронов, а значит, с собственной длительностью задержки. На иллюстрации справа два нейрона, изображённые красным и синим, связаны шестью синапсами.

У каждого синапса своё «сопротивление», понижающее входящий сигнал (в примере выше — со 100мВ до 1мВ). Это сопротивление динамически подстраивается: если синапс активизировался сразу перед активацией аксона — то, видимо, сигнал с этого синапса хорошо коррелирует с общим выводом, так что сопротивление понижается, и сигнал будет вносить больший вклад в напряжение на нейроне. Если же синапс активизировался сразу после активации аксона — то, видимо, сигнал с этого синапса не имел отношения к активации аксона, так что сопротивление синапса повышается. Если два нейрона связаны несколькими синапсами с разной длительностью задержки, то такая подстройка сопротивлений позволяет выбрать оптимальную задержку, или оптимальную комбинацию задержек: сигнал начинает доходить именно тогда, когда от него больше всего пользы.



Таким образом, модель нейрона, принятая исследователями нейронных сетей — с единственной связью между парой нейронов и с мгновенным распространением сигнала от одного нейрона к другому — весьма далека от биологической картины. Кроме того, традиционные нейронные сети оперируют не временем отдельных всплесков, а их частотой: чем чаще всплески на входах нейрона, тем чаще будут всплески на выходе. Те детали устройства нейрона, которые отброшены в традиционной модели — существенны или несущественны они для описания работы мозга? Нейробиологи накопили огромную массу наблюдений об устройстве и поведении нейронов — но какие из этих наблюдений проливают свет на общую картину, а какие — лишь «детали реализации», и — как и предсказатель переходов в процессоре — не влияют ни на что, кроме эффективности работы? Джеймс считает, что именно временны́е характеристики взаимодействия между нейронами и позволяют приблизиться к пониманию вопроса; что асинхронность так же важна для работы мозга, как синхронность — для работы ЭВМ.

Ещё одна «деталь реализации» — ненадёжность нейрона: с некоторой вероятностью он может активизироваться спонтанно, даже если сумма напряжений на его дендритах не достигает порогового уровня. Благодаря этому, «обучение» колонки нейронов можно начинать с любого достаточно большого сопротивления на всех синапсах: вначале никакая комбинация активаций синапсов не будет приводить к активации аксона; затем спонтанные всплески приведут к тому, что понизится сопротивление синапсов, которые активизировались незадолго до этих спонтанных всплесков. Таким образом нейрон начнёт распознавать конкретные «паттерны» входных всплесков. Что самое важное, паттерны, похожие на те, на которых нейрон обучался, — тоже будут распознаваться, но всплеск на аксоне будет тем слабее и/или позднее, чем меньше нейрон «уверен» в результате. Обучение колонки нейронов получается намного эффективнее, чем обучение обычной нейронной сети: колонке нейронов не нужен контрольный ответ для тех образцов, на которых она обучается — фактически, она не распознаёт, а классифицирует входные паттерны. Кроме того, обучение колонки нейронов локализовано — изменение сопротивления синапса зависит от поведения лишь двух соединённых им нейронов, и никаких других. В результате этого, обучение приводит к изменению сопротивлений вдоль пути следования сигнала, тогда как при обучении нейронной сети веса изменяются в обратном направлении: от нейронов, ближайших к выходу — к нейронам, ближайшим ко входу.

Например, вот колонка нейронов, обученная распознавать паттерн всплесков (8,6,1,6,3,2,5) — значения обозначают время всплеска на каждом из входов. В результате обучения, задержки настроились на точное соответствие распознаваемому паттерну, так что напряжение на аксоне, вызываемое правильным паттерном, получается максимально возможным (7):



Та же самая колонка отреагирует на похожий входной паттерн (8,5,2,6,3,3,4) меньшим всплеском (6), причём напряжение достигает порогового уровня заметно позднее:



Наконец, тормозящие нейроны могут использоваться для реализации «обратной связи»: например, как на иллюстрации справа, — подавлять повторные всплески на выходе, когда вход длительное время остаётся активным; или подавлять всплеск на выходе, если он слишком задерживается по сравнению со входными сигналами, — чтобы сделать классификатор более «категоричным»; или, в нейросхеме для распознавания паттернов, разные колонки-классификаторы могут быть связаны тормозящими нейронами, чтобы активация одного классификатора автоматически подавляла все остальные классификаторы.

Распознавание изображений


Для распознавания рукописных цифер из базы MNIST (28x28 пикселей в оттенках серого) Джеймс из колонок-классификаторов, описанных выше, собрал аналог пятислойной «свёрточной нейросети». Каждая из 64 колонок в первом слое обрабатывает фрагмент 5х5 пикселей из исходного изображения; такие фрагменты перекрываются. Колонки второго слоя обрабатывают по четыре выхода из первого слоя каждая, что соответствует фрагменту 8х8 пикселей из исходного изображения. В третьем слое всего четыре колонки — каждой соответствует фрагмент из 16х16 пикселей. Четвёртый слой — итоговый классификатор — разбивает все изображения на 16 классов: класс назначается в соответствии с тем, который из нейронов активизируется первым. Наконец, пятый слой — классический перцептрон, соотносящий 16 классов с 10 контрольными ответами.







Классические нейросети достигают на базе MNIST точности 99.5% и даже выше; но по утверждению Джеймса, его «гиперколонка» обучается за гораздо меньшее число итераций, благодаря тому, что изменения распространяются вдоль пути следования сигнала, а значит, затрагивают меньшее число нейронов. Как и для классической нейросети, разработчик «гиперколонки» определяет только конфигурацию соединений между нейронами, а все количественные характеристики гиперколонки — т.е. сопротивление синапсов с разными задержками — приобретаются автоматически в процессе обучения. Кроме того, для работы гиперколонки требуется на порядок меньшее число нейронов, чем для аналогичной по возможностям нейросети. С другой стороны, симуляция таких «аналоговых нейросхем» на электронном компьютере несколько затрудняется тем, что в отличие от цифровых схем, работающих с дискретными сигналами и с дискретными интервалами времени — для работы нейросхем важны непрерывность изменения напряжений и асинхронность нейронов. Джеймс утверждает, что шага симуляции в 0.1мс достаточно для корректной работы его распознавателя; но он не уточнял, сколько «реального времени» занимает обучение и работа классической нейросети, и сколько — обучение и работа его симулятора. Сам он давно на пенсии, и свободное время он посвящает совершенствованию своих аналоговых нейросхем.

Резюме от tyomitch: представлена модель, основанная на биологических предпосылках, достаточно просто устроенная, и при этом обладающая интересными свойствами, радикально отличающими её от привычных цифровых схем и от нейросетей. Возможно, такие «аналоговые нейроны» станут элементной базой будущих устройств, которые смогут справляться с рядом задач — например, с распознованием образов — не хуже человеческого мозга; точно так же, как цифровые схемы давно превзошли человеческий мозг в способности к счёту.
@tyomitch
карма
306,7
рейтинг 11,5
Реклама помогает поддерживать и развивать наши сервисы

Подробнее
Реклама

Самое читаемое Разработка

Комментарии (37)

  • +3
    Очень интересно, спасибо за статью!
    А есть где-нибудь исходники симуляции?
  • 0
    пару соседних нейронов, как правило, связывает не один синапс, а порядка десятка

    Не понял этого момента. Аксон один, соответственно он может соединиться только с одним дендритом через синапс. А если нейроны соединены больше чем одним синапсом, то значит они соединены несколькими дендритами. Я понял, что дендриты это «вход». Какой смысл объединять несколько входов, если они могут только принимать сигнал? Или через дендрит может быть исходящий сигнал тоже? Или у синапса на конце тоже есть мочалка дендритов, которыми он может соединяться с другими нейронами?
    • 0
      От длины дендрита зависит задержка при прохождении сигнала, разные дендриты — разные длины — разные характеристики.
      • 0
        откуда будет приходить сигнал, если соединены два дендрита?
        • +1
          Видимо, подразумевается, что один аксон может соединяться с несколькими дендритами разной длины, принадлежащих одному и тому же нейрону. Форма сигнала будет более интересной.
    • +2
      barabanus прав: аксоны ветвятся, и каждый аксон образует тысячи синапсов.

  • +1
    Возможно, кому-то покажется интересной еще одна тема: «Висцеральная теория сна»
    О том, как одни и те же области мозга анализируют зрение, слух во время бодрствования, и внутренние «датчики» во время сна, откуда берутся периодические сигналы во время сна и т.д.

    polit.ru/article/2014/05/04/pigarev/
    • –2
      Логичная теория, сразу понятна верность выражения — стукнулся так что искры из глаз посыпались, а также когда бухим черти и звуки мерещатся — это значит сигналы от внутренних органов перебивают сенсоры органов чувств.
      • +1
        Эта теория не доказывает, что звуки и черти мерещатся именно из-за сигналов от внутренних органов. И вообще не касается мистики и пограничных состояний сознания.
      • 0
        Искры из глаз объясняются гораздо проще. Клетки сетчатки, помимо света, реагируют и на механическое воздействие, но любой сигнал от них интерпретируется мозгом как свет. Можете убедиться в этом сами, аккуратно надавив пальцем себе на глазное яблоко.
  • +1
    Ждем в комментариях AlexeyR.
    Алексей, так какая же примитивнейшая схема работы мозга?
    Каков аналог фон-неймановской архитектуры мозга?
    Вот мне пока из множества статей (как этой, так и ваших) пока не понятен базовый сценарий работы мозга.
    • –2
      А еще лучше не схема или сценарий, а принцип.
      предлагаю на роль такого принципа:
      -наиболее эффективное извлечение информации(знание)
      -моделирование будущего(воображение)
      -максимизацию будущей свободы(власть)

      Зная принцип, можно составить и схему, и сценарий.
    • 0
      Моя модель совсем другая. В двух словах не объяснишь.
      • +2
        Жаль, что нельзя просто объяснить основной принцип работы мозга, отбросив все несущественные усложнения.
        Для меня ваша волновая модель показалась достаточно интересной.
        Тем более она отчасти совпадает с описанным здесь фактором задержек.
        Но в голове пока не складывается единой простой картины базовых принципов работы мозга.
        • +2
          Фактор задержек — это другая история. Так пытаются в спайковых моделях объяснить, как нейрон может улавливать тонкую временную разницу в следовании сигналов. При этом подразумевают, что в изменении интервалов закодирована определенная информация. Мне удалось показать совсем другой механизм, который на порядки надежнее и мощнее. Про базовые принципы если хотите в двух словах, то можно так. Мозг работает с понятиями смысл которых определен неоднозначно. Для каждого понятия есть спектр смыслов. Описание в нечетких понятиях может иметь разные толкования (реализации). Удалось показать модель, которая реализует две стадии описания: волновое описание — нечеткое и описание через активность миниколонок — четкое. Переработка информации в такой системе — это постоянный переход от нечеткого описания к четкому и обратно к нечеткому. Правила этих переходов не зашиты жестко в систему, а есть результат обучения. Механизм обучения с подкреплением позволяет обучиться оптимальным в определенном смысле информационным переходам.
          • 0
            Спасибо! Неожиданное для меня обобщение.
            Алексей, вы обещали статью )))
            Я хочу попросить вас раскрыть тему вашего комментария.
            • 0
              Так это объяснение есть в видео его докладов. Можно посмотреть.
    • 0
      А что вы подразумеваете под базовым сценарием работы мозга?
      Думать? Говорить? Читать? Писать текст? Играть в футбол?
  • +1
    Данный подход к построению сетей с учетом фактора времени довольно хорошо описан Джеффом Хокинсом в его книге «Об интеллекте». Он называет свою модель «Hierarchical Tempolar Memory». На сайте Нументы даже был pdf с описанием и примерной реализацией на псевдоязыке.
    В целом, очень любопытная вещь.
    • 0
      Ещё Джефф часто упоминает проект Numenta, который как раз пытается реализовать его идеи(и не только его) в коде и к тому же находится в открытом доступе на GitHub
      • +1
        Ага, я именно эту Нументу и имел ввиду. Кроме того, когда я баловался HTM я находил вполне сносные реализации на нескольких популярных языках
    • –1
      Ну, их Grok уже вовсю пашет, выискивая аномалии в данных предприятий.
      • +1
        Ну как пашет…
        В их главной научной бумажке, кажется, 2009 года — HTM CLA — две абстракции:
        одна сравнима с маленькой рекуррентной нейросетью (temporal pooler),
        вторая — с маленькой однослойной нейросетью (spatial pooler).
        Предполагается только обучение без учителя (т.к. обратной связи нет).
        По моим оценкам, технология крайне вычислительно неэффективна (в т.ч. temporal pooler тяжело оптимизировать под видеокарту из-за особенностей алгоритма работы), поэтому даже на двумерных данных её не получается использовать. Обычные нейросети с обратным распространением как минимум в 100 раз эффективнее, увы.
        Я как-то пробовал применять их алгоритм на MNIST со сдвигами… получил точность порядка 50% (при этом наивный байес дал около 72%, а нейросети при сравнимых вычислительных затратах дают 99%).
        Заметьте, их научный коллектив до сих пор с 2009 года не выложил ни одного результата состязания нейросетей, что со всей очевидностью говорит о плачевном качестве их технологий.
        • 0
          На живых логах они хорошо проблемы ловят, это имеет прикладную ценность.

          Может быть они не ориентированы на академический паблишинг, политика у компаний может быть разной.

          На рынке DL есть большая неопределнность в плане алгоритмов, архитектур и их эффективности их работы.
          Метрик куча, отдельно пространство объемов и характера обучающих и тестовых данных, отдельно потребление ресурсов в виде памяти, памяти с большим временем доступа и камня.

          MNIST отличный тест, но я затрудняюсь сказать, о чем говорит его успешное прохождение, вдруг идеальный алгоритм работы юнитов и конфигурация сетки провалятся, если поднять уровень задачи, допустим, до распознавания слов.

          Без кластера на серьезных задачах далеко не уедешь, алгоритмическая часть и общая архитектура очень сильно влияет на то, какой у него будет аппаратный состав и, соответственно, цена. А это очень важное ноу-хау и вскрывать его раньше времени достаточно опрометчиво, вдруг, вопреки здравому смыслу, решающей для определенных алгоритмов мощность отдельного ядра, работающая с большими фреймами вычислений и небльшими синками с глобальным стейтом или еще что ни будь. А может важно, чтобы все юниты (нейроны, колонки, макроколонки, без разницы какие группы векторов) по первому чиху синкались на 100 соседей, а предсказательная способности отдельного юнита может быть, условно, на 1% выше рендома.

          Выставить наружу облачную соску в составе коммерческого решения в этом плане безопасно.

          Насколько я помню, последние публичные челленджи у нументы на форуме были где-то в области определения «емкости», то есть соотношения потребления памяти и предсказательной силы сетки, немного намекает. Потом был массовый хантинг спецов по кассандре и хадупу. На каком стеке и что у них сейчас вертится сказать сложно.

          Если говорить об обучении без учителя, имхо, это очень интересное направление, так как биологическая реализация лежит и за пределами кортекса и обратного распространения сигнала в рамках него. У органической твари есть инпут на который идут сигналы, то, что ее чему-то «обучают», это ровно такой же инпут как и любые другие. Но есть система вознаграждения, состояние которой очень серьезно дифференциирует поступающие паттерны, а также другие проявления древних структур, которые стучатся изнутри.

          Начальная дифференциация идет на уровне инстинктов, сделал X после этого погладили — приятно, пнули — больно. А дальше взаимодействие кортекса с RS и древними структурами в целом, доходит до того, что от портрета Бенджамина Франклина у высших приматов случается стояк, что очень далеко от стимулов, которые мы понимаем врожденно. Тебя могут пнуть один раз в жизни, а потом добрая часть поведения будет строится на результатах шока от этого пинка.

          Может быть, взаимодействие со структурой подкрепления не менее важно, чем то, как именно аккумулировать статистику по паттернам, с чем вполне справляются деревья суффиксов, фильтры сигнал/шум и прочие далекие от биологии структуры.

          Если я вдруг заинтересовал, можно поглядеть тут и далее по ссылкам.
          • 0
            Последнее в общем виде называется Reinforcemence Learning, это такая трава, на которую переходят те, кому одной зоны мозга и одного классификатора мало, скажем, AlexeyR или DeepMind ( arxiv.org/pdf/1312.5602.pdf ) :)

            А в целом, скажу, что Numenta — молодцы, что нашли выгодную коммерческую нишу.
            Решение у них так себе, но если худо-бедно работает — то и слава богу.
            Что прикольно — необходимое качество работы в этой области низкое, ну, поднимут несколько лишних инстансов или чего не хватит — всё будет лучше чем всегда держать большой резерв.
            Просто видимо до них никто не интересовался такой странной и узкой областью.
  • +1
    Кроме того, обучение колонки нейронов локализовано — изменение сопротивления синапса зависит от поведения лишь двух соединённых им нейронов, и никаких других. В результате этого, обучение приводит к изменению сопротивлений вдоль пути следования сигнала, тогда как при обучении нейронной сети веса изменяются в обратном направлении: от нейронов, ближайших к выходу — к нейронам, ближайшим ко входу.


    кстати это и есть в точности правила Хебба

    The general idea is an old one, that any two cells or systems of cells that are repeatedly active at the same time will tend to become 'associated', so that activity in one facilitates activity in the other.


    позже аналогично этому правилу ввели противоположное — если нейроны активируются асинхронно, то связь слабеет или даже удаляется

    так вот, к чему я это, нельзя обобщать, на все нейросети, правило что обучение идет в обратном порядке, это касается только бэкпропа и обучения с учителем, скажем Джефри Хинтон (хоть он и один из авторов бэкпропа) давно продвигает идею того, что мозг не работает по принципу supervised learning, а именно unsupervised

    его идея заключается в том, что биологическая нейросеть занимается кластеризацие, а позже уже кто то (например родители ребенка) присваивают имена кластерам, скажем ребенок тычет пальцем в котов, а родители ему говорят что это коты, и мозг просто приписывает метку кластеру

    вот что пишет Хинтон:

    When we’re learning to see, nobody’s telling us what the right answers are we just look. Every so often, your mother says “that’s a dog”, but that’s very little information. You’d be lucky if you got a few bits of information even one bit per second that way. The brain’s visual system has 1014 neural connections. And you only live for 109 seconds. So it’s no use learning one bit per second. You need more like 105 bits per second. And there’s only one place you can get that much information: from the input itself.


    а современные нейросети по типу машин Больцмана уже не используют идеи слоистости, и даже глубокие машины Больцмана хоть с виду и «слоеные», но обучение происходит не от конца к началу, а в «целом» (не если грубо говоря =)

    вот кстати рекомендую интервью Хинтона http://www.reddit.com/r/MachineLearning/comments/2lmo0l/ama_geoffrey_hinton где он говорит что одна из целей его школы на близжайшие несколько лет это разработка концептов новых нейросетей с нейроколонками
    • 0
      Спасибо за подробный комментарий!
      Словосочетанием «нейронная сеть» в тексте обозначена не совокупность всех имеющихся теорий о работе нейронов и их сетей, а конкретное семейство моделей.
      Возможно, такое обозначение привело к некоторой путанице.
  • +1
    По-моему, в мозгу невозможно выделить «принципиальную схему». Проблема в том, что эволюция работает не на модулях и абстракциях, а на грязных хаках и быдлокоде. Свистелки и переделки неотделимы от архитектуры. ИМХО, имело бы смысл проследить эволюционное развитие мозга: насколько я понимаю, в нервной системе гидр никаких секретов нет.
    • +1
      Если бы все было так, как вы говорите, то организмы представляли бы из себя полнейшую кашу из белков, тогда как в реальности можно наблюдать вполне себе оформленные подсистемы (органы) и процессы (сон, пищеварение, размножение и т.д.). На микроуровне, конечно, степеней свободы больше на порядки. Эволюционное развитие наоборот стремится к организации. От простейших к млекопитающим. От инстинктивного поведения к разумному.
      • +1
        Они и представляют собой кашу из белков. Органы — это не модули, это, скорее оверлеи, функции между которыми распределены наиболее эффективным, а не наиболее логичным образом. Т. е. логично, что для пищеварения и для перекачки крови нужны две различных полости, это вовсе не признак модульности. А эволюция стремится к эффективности любой ценой.
  • +1
    Появилась мысль — можно рассмотреть нейрон как простейший генератор (ну, синусоидальный, допустим).
    Клетки мозга никогда не находятся в «абсолютно спокойном» состоянии, они постоянно генерируют импульсы, временами очень сильные, а иногда едва заметные и каждый нейрон делает это по-своему уникально. Присоединенные активирующие/тормозящие нейроны вносят своими частотами искажения в генерацию у друг друга. Если представить это весьма условно, то получается как бы смесь аддитивного, субтрактивного и гармонического синтеза, примерно как в музыкальных синтах. И все мыслительные процессы представляет собой единую, постоянно меняющуюся симфонию. Ну или шум, у кого как.
    Я к тому, что рассматривать работу нейронов как дискретных единиц (или работу всей сети как шаговый процесс) не совсем корректно в принципе, нужно скорее рассматривать совокупность некоторых процессов, что и предлагается в различных временнЫх моделях.
    От себя я добавил бы еще и фактор неопределенности, который обусловил бы различное поведение нейрона в одних и тех же условиях, в зависимости от, например, собственного состояния.
    • 0
      давно была идея рассматривать ответ нейрона как своеобразную импульсную характеристику, нейроны могут входить в резонанс друг с другом.
  • НЛО прилетело и опубликовало эту надпись здесь
    • +1
      Насколько известно современной науке, здесь дело в особенностях мозолистого тела — своеобразной шины данных между двумя полушариями мозга. У женщин, например, оно существенно толще, что позволяет им, в том числе, делать несколько дел одновременно.
  • 0
    Насколько мне известно, большинство сигналов в мозге распространяются химически, а не электрически.
    • 0
      Неправильно. По аксону идет электрический сигнал, правда не ток, а волна разности потенциалов.
  • 0
    Отбрасывание не попадающих «в такт» синапсов, на мой взгляд, это не фича, а «деталь реализации» для самой первой/древней функции нейрона — создание нерва для передачи сигнала по этому «проводу». На самом деле, как ещё можно было бы создать «провод», если каждый его участок может только выбрасывать вперёд свои контакты без понятия к кому они на самом деле подсоединились(?). Масса медиаторов потом появилась как раз для того, чтобы не появлялись залипы между разными каналами — дендриты ползут «на запах» только к своему целевому типу нейронов.

    Есть ли данные о разбросе задержек?

    То, что в статье в примере называется колонкой, ей не является. Колонка состоит из нейронов разных типов, а не просто группа.

Только зарегистрированные пользователи могут оставлять комментарии. Войдите, пожалуйста.