banner
Центр новостей
Наш онлайн-сервис доступен круглосуточно.

Критически синхронизированные мозговые волны образуют эффективную, надежную и гибкую основу для человеческой памяти и обучения.

Jul 21, 2023

Научные отчеты, том 13, Номер статьи: 4343 (2023) Цитировать эту статью

1371 Доступов

3 Альтметрика

Подробности о метриках

Эффективность, надежность и гибкость памяти и обучения составляют саму суть естественного интеллекта, познания и сознания человека. Однако общепринятые в настоящее время взгляды на эти вопросы до сих пор выдвигаются без какой-либо основы для истинной физической теории того, как мозг взаимодействует внутри себя посредством своих электрических сигналов. Отсутствие прочной теоретической основы имеет последствия не только для нашего понимания того, как работает мозг, но и для широкого спектра вычислительных моделей, разработанных на основе стандартного ортодоксального взгляда на организацию нейронов мозга и функционирования мозговых сетей, основанного на рекламе Ходжкина-Хаксли. -hoc-аналогии схем, которые породили множество искусственных, рекуррентных, сверточных, пиковых и т. д. нейронных сетей (ARCSe NN), которые, в свою очередь, привели к созданию стандартных алгоритмов, которые составляют основу искусственного интеллекта (ИИ) и машинного обучения ( ML) методы. Наша гипотеза, основанная на нашей недавно разработанной физической модели распространения слабо затухающих мозговых волн (WETCOW), заключается в том, что, в отличие от нынешней ортодоксальной модели, согласно которой нейроны мозга просто интегрируются и активируются под аккомпанемент медленной утечки, вместо этого они могут выполнять гораздо более сложные задачи по эффективная когерентная синхронизация/десинхронизация, основанная на коллективном влиянии распространяющихся нелинейных волн мозга, близких к критическим, — волн, которые в настоящее время считаются ничем иным, как несущественным подпороговым шумом. В этой статье мы подчеркиваем возможности обучения и памяти нашей структуры WETCOW, а затем применяем их к конкретному приложению AI/ML и нейронных сетей. Мы демонстрируем, что обучение, основанное на этих критически синхронизированных мозговых волнах, является поверхностным, но его время и точность превосходят глубокие аналоги ARCSe на стандартных наборах тестовых данных. Эти результаты имеют значение как для нашего понимания функций мозга, так и для широкого спектра приложений искусственного интеллекта и машинного обучения.

Механизмы человеческой памяти остаются одной из величайших неразгаданных загадок современной науки. Отсутствие последовательной теории памяти, являющейся важнейшим компонентом человеческого обучения, также имеет далеко идущие последствия для нашего понимания познания. Недавние достижения в области экспериментальной нейронауки и нейровизуализации подчеркнули важность рассмотрения взаимодействий широкого диапазона пространственных и временных масштабов, участвующих в функционировании мозга: от микромасштабов субклеточных дендритов, синапсов, аксонов, сомат до мезомасштабов взаимодействующих сети нейронных цепей, макромасштабы цепей всего мозга. Современные теории, основанные на этих экспериментальных данных, предполагают, что способность людей учиться и адаптироваться к постоянно меняющимся внешним стимулам основана на развитии сложных, адаптируемых, эффективных и надежных цепей, сетей и архитектур, возникающих на основе гибкого взаимодействия между разнообразием. нейрональных и ненейрональных типов клеток головного мозга. Поэтому жизнеспособная теория памяти и обучения должна основываться на физической модели, способной создавать многомасштабные пространственно-временные явления, соответствующие наблюдаемым данным.

В основе всех современных моделей электрической активности мозга лежит модель спайков нейронов, сформулированная Ходжкиным и Хаксли (ХХ)1, которая обеспечивает количественное описание потоков Na+/K+, изменений проводимости, зависящих от напряжения и времени, волновых форм потенциалов действия. и проведение потенциалов действия по нервным волокнам2. К сожалению, хотя модель HH оказалась полезной для подбора многопараметрической системы уравнений к локальным мембранным измерениям, она имела ограниченную полезность для расшифровки сложных функций, возникающих во взаимосвязанных сетях нейронов головного мозга3. С практической точки зрения исходная модель HH слишком сложна, чтобы описать даже относительно небольшие сети4,5,6. Это привело к разработке методов оптимизации7,8,9,10, основанных на значительно уменьшенной модели нейрона с утечкой интегрирования и запуска (LIF), которая достаточно проста для использования в нейронных сетях, поскольку заменяет все эти многочисленные вентили. , токи, каналы и пороги с помощью всего одного порога и постоянной времени. Большинство моделей импульсных нейронных сетей (SNN) используют этот упрощенный нейрон LIF для так называемого «глубокого обучения»11,12,13,14, утверждая, что оно основано на функционировании мозга. Хотя для классификации изображений больших наборов данных используются несколько моделей LIF15,16,17,18,19, большинство применений SNN по-прежнему ограничиваются менее сложными наборами данных из-за сложной динамики даже слишком упрощенной модели LIF и недифференцируемых операций LIF-спайковые нейроны. В некоторых замечательных исследованиях SNN применялись для задач обнаружения объектов20,21,22. Методы на основе спайков также использовались для отслеживания объектов23,24,25,26. Процветают исследования по использованию спайковых сетей LIF для онлайн-обучения27, чтения букв Брайля28, различных нейроморфных синаптических устройств29 для обнаружения и классификации биологических проблем30,31,32,33,34,35,36. Значительные исследования сосредоточены на обеспечении контроля на уровне человека37, оптимизации алгоритмов обратного распространения ошибки для шиповых сетей38,39,40, а также на гораздо более глубоком проникновении в ядро ​​ARCS41,42,43,44 с меньшим количеством временных шагов41, используя событийный управляемая парадигма36, 40, 45, 46, применяющая пакетную нормализацию47, оптимизацию рассеяния и сбора48, контролируемую пластичность49, бинарные карты временных шагов50 и использование алгоритмов трансферного обучения51. В сочетании с этим широким спектром программных приложений проводится огромное количество исследований, направленных на разработку и использование этих LIF SNN во встроенных приложениях с помощью нейроморфного оборудования52,53,54,55,56,57, дано общее название к оборудованию, которое номинально основано на структуре и функциях человеческого мозга или вдохновлено ими. Однако, хотя модель LIF широко принята и повсеместно распространена в нейробиологии, она, тем не менее, проблематична, поскольку сама по себе не генерирует никаких всплесков.

\pi /2\)) roles (this is in addition to any phase shift introduced by the static network attributed phase delay factors \(\delta _{ij}\))./p>