0: Здравствуйте, меня зовут Михаил Киселёв. Я работаю руководителем направления в частном учреждении цифру. И, кроме того, я руковожу лабораторией необорных вычислений в чувашском государственном университете. Я
1: Кандидат технических наук, занимаюсь разнообразной тематикой, связанной с импульсными нейронными сетями, которые и являются предметом нашей настоящей лекции в начале мы рассмотрим кратко.
2: Что это такое? Зачем это надо? А потом мы чуть чуть углубимся в этот вопрос и рассмотрим разные модели этих самых сетей. Разные платформы, на котором они реализуются, их применение. Ну и связанные с этим вопросы просмотрим.
3: Импульсные нейронные сети в контексте общего развития искусственного интеллекта и нейронных сетей если мы посмотрим на историю, то мы увидим, что эта история начинается где-то сразу после 2 мировой войны.
4: Когда были придуманы первые модели нейронных сетей, так называемый персептрон придумал Розенблат и другие исследователи. Фактически это началось вместе с созданием первых электронно вычислительных машин, потому что разумеетс
5: Все это имеет смысл, только если мы это моделируем на каком-то вычислительном устройстве, достаточно мощном. Идея первых нейросетей состояла в имитации биологических нейронов. Идея была очень проста, если мы хотим сделать что-то интеллектуальное.
6: Кто-то выполняющий хотя бы какие-то функции, которые может делать человек, то давайте сымитируем мозг человека и вот значит отсюда возникла идея искусственных нейронов и вот эта 1 модель но как выяснилось, то, что получилось сильно не похоже на
7: То, что происходит у нас в мозге, не похоже на биологические нейроны, потом пришла 2 эпоха развития этого интеллекта искусственного, где люди стали отказываться.
8: От идеи имитировать мозг пришла другая мысль. Давайте просто вот сделаем нечто основанное на правилах. Давайте весь интеллект построим в виде много большой, большой, большой, как тогда это называлось, экспертной системы. То есть все наши
9: Знания, какие у нас есть или в какой-то области мы формализуем в виде какого-то множества правил, создадим некую систему логического вывода на основе этих правил. Ну и вот она, система эта будет рассуждать сама и, в общем, будет делать фактически то, что делает челове
10: Но только на совершенно другой элементной базе это действительно привело к некоторому прогрессу, то есть экспертные системы распространились и стали выполнять много полезных функций. Их область применения была довольно широка, но стало понятно, что имеются некоторые фундаментал.
11: Причины, по которым, ну, все не формализуешь. Все-таки человек, даже не только человек, а даже более простые существа, это система, которая не подчиняются каким-то даже огромным количеством правил, что это надо совсем делать не так, и
12: Тут как раз пришла идея вспомнили снова про нейронные сети, но только совсем на новом математическом базисе, а именно были придуманы так называемые свёрточные сети сети глубинного обучения вот, собственно.
13: Говоря то невероятное развитие нейронных сетей, которое мы сейчас наблюдаем, когда они везде и в телефоне, и в любых устройствах, то есть всюду нейронные сети показывают замечательные результаты, обыгрывают человека в go, в шахматы, во что только не обыгрывают вот это тоже.
14: Как бы 2 весна нейронных сетей, но там, вот в этом подходе тоже не ставился вопрос о том, похожи эти нейронные сети на то, что происходит в мозге или не похожи. Там была прагматика на 1 месте. Главное, чтобы они
15: Решали задачи, выигрывали человека в год, там и все остальное делали хорошо. А похоже это на мозг или нет, не имело большого значения. Однако вот как мы сейчас позже увидим, эта парадигма тоже имеет свои пределы. То есть стало ясно, что
16: Дальше по вот этому пути увеличения вот этих сетей глубинных и сверенных. Ну в общем то тоже дальше уже идти нельзя. Надо что-то новое совсем. И вот тогда мы, мы это в смысле исследователи в этой области снова вернулись
17: К тому, с чего начинали, а именно к бионическому принципу, то есть копированию того, как происходит в биологическом мозге. И вот как раз те нейронные сети, о которых я буду сейчас говорить, это как раз модели наиболее физиологически близкие, то есть они
18: Они в большой степени копируют биологические нейроны, они называются и нейронные сети. Ну давайте, значит, рассмотрим, что это такое и зачем это надо вот касательно вот этого вот кризиса современных нейронных сетей сейчас
19: Если так очень обобщить, то можно сказать, что интеллект искусственный развивается по 2 направлениям. Во первых, это, можно сказать, малый интеллект, это создание большого количества интеллектуальных устройств, которые во всех
20: Сферы жизни окружают человека, телефоны, там какие-то сенсоры, там камеры, распознающие там что-то там лица или что-то ещё. Ну то есть много, много, много всяких интеллектуальных устройств, которые высоко автономные, узкоспециализированные, делают много полезных функций. Вот.
21: Можно сказать, что это малый интеллект. 2 направление, наоборот, это создание очень больших систем, которые, ну, постепенно все более и более приближаются к возможностям человека по своим когнитивным возможностям, по возможностям.
22: Решать разные задачи. То есть область применения должна быть широкой, в отличие от от малого интеллекта. Назовём это большой интеллект и там, и там у современных нейросетей. Вот, которые основаны на идее глубокого обучения.
23: Сетях возникают одни и те же, в сущности, проблемы, которые можно сгруппировать в 3 группы, отнести их, которые, хотя их это кажется разными группами, но они на самом деле взаимосвязаны, имеют 1 1 природу, 1 причину.
24: Энергоэкономичность, масштабируемость и необходимость взаимодействия с динамической асинхронной средой. Давайте чуть более подробно рассмотрим эти, эти проблемы. Ну, энергоэкономичность это как бы
25: Самое очевидное, что видно сейчас, когда, когда мы, когда мы смотрим на современные нейронные сети, разумеется, они могут многое, вот, скажем, созданы так называемые языковые модели, которые могут более менее поддерживать правдоподобно диалог вот в всяких чат ботах,
26: Там и так далее, которые могут решать сложные, довольно-таки лингвистические задачи. Но это огромные совершенно сети, включающие миллиарды связей, много миллионов нейронов и требующие
27: И даже не то что для своего обучения, но даже для работы, требующей очень большую, очень большой энергии. Ну вот, например, модель языковая модель GPT-3, она обучалась несколько месяцев на самом большом суперкомпьютере России крио.
28: Который стоит в Сбербанке, и это заняло несколько месяцев. И на 1 электроэнергию было потрачено несколько миллионов долларов. Мощность этой системы это мегаватты. В то же время она может лишь очень, очень малую часть от того, что
29: Может, нас наш мозг, который потребляет, как нам говорят нейрофизиологи, 20:30 ватт энергии, то есть разрыв колоссальный, составляет много много порядков, причём просто наращивание размеров сети ничего не даст. Мы придём к ситуации.
30: Когда 1 нейросеть будет питаться небольшой электростанцией, отдельной, ясное дело, что это дальше не может так продолжаться. Ну и, разумеется, если мы хотим создавать какие-то маленькие автономные устройства, то они должны иметь питание от батарейки, от аккумулятора, а не от чего-то такого там большого. Поэтому
31: Ясное дело, что тут уже некоторый показался предел. Вот это то, что касается энергоэкономичности, масштабируемость, ну отчасти связано с 1 проблемой. Естественно, что большие задачи решаются большими системами, поэтому размер
32: Нейросети, он важен, потому что, ну, маленькой нейросетью много чего не решишь, но экстенсивное наращивание имеет свои границы. Как я сказал, это и вопросы энергии, вопросы того, что требуется.
33: Синхронизация такой большой системы. Возникают уже проблемы с передачей информации между отдельными её компонентами. В то же время запас, который нам надо сказать, разрыв, который нам надо преодолеть, чтобы сравниться с человеком. По возможности он достаточно велик.
34: Сейчас вот, скажем, самые сложные модели, нейросетевые включают в себя там порядка 10 12 степени весов, связей. А мы знаем, что в мозге человека их не менее чем 10 в 14 степени. То есть нам надо ещё сильно увеличить размер системы, чтобы
35: Подойти к возможностям для человека хотя бы с чисто структурной точки зрения, но в общем, не видно, как это можно было бы сделать, оставаясь в рамках текущей парадигмы ну и, наконец, 3 проблема, о которой я говорил, это необходимость взаимодействовать с сложным динамичным окружающим.
36: Что имеется ввиду, ну, типовой подход к обучению обычных традиционных нейронных сетей состоит в том, что у нас есть какие-то обучающие примеры. Ну, грубо говоря, вот, допустим, мы хотим по фотографии отличить кошку от собаки, мы даём 1000 фотографий.
37: 1000 фотографий собак. Ну и говорим сети, обучайся, значит, распознавать 1, 1 от другого. То есть мы видим, что тут у нас как бы имеются некие фреймы данных, разбитые как бы на отдельные там кусочки. Это отдельные фреймы, вот они есть обучающие там данные.
38: А потом мы на новых фреймах, на новых фотографиях, значит, говорим, и чтобы она предсказывала, что это кошка или собака. Но человек обучается не так. В жизни человека нет никаких обучающих примеров, тестовых примеров. В жизни человека есть потоки данных, которые
39: Которыми он должен как-то справляться, должен чему-то учиться, должен делать выводы, должен приобретать навыки. То есть мы тут не имеем какого-то чёткого разбиения данных на такие фреймы, обучающие тестовые. И вообще у нас никаких фреймов нет, есть свободные потоки информации и инкремента.
40: Пошаговое обучение, хотя делаются некоторые шаги, которые придают такую функциональность традиционным обычным нейронным сетям, но все же их общая логика не настроена на работу с вот такой вот информацией, то есть
41: Там требуется именно такой чёткий жёсткий протокол, о котором я уже говорил. То есть опять же, значит, это вот требует смены парадигмы.
42: Ну и вот ответом на эти вопросы, на эти вызовы является как раз тот класс нейронных сетей, о котором и идёт речь в моём докладе. Это импульсные нейронные сети, так называемые, что это такое 2
43: Отличительные особенности, характерные для этого класса нейросетей. Во первых, как следует из их названия, это импульсность обмена информацией, в то время как обычные нейронные сети, они передают данные в виде чисел, то есть там
44: Нейроны между собой обмениваются, в сущности говоря, числами, то в импульсных нейронных сетях нейроны обмениваются так называемыми спайками или нервными импульсами. Ну, нервными импульсами. Это в голове. То есть логические нейроны ведут себя точно также этот spike.
45: Или этот импульс есть совершенно элементарный объект, он не имеет амплитуды, то есть, вернее, она всегда одинакова, он имеет очень маленькую длительность, тоже одинаковую, и сам по себе он не информативен, информативным является их совокупность, этих самых
46: То есть этот вот импульсный характер обмена информации, это 1 как бы постулат, 1 тезис, на котором стоит вот этот подход. 2, это полная асинхронность работы нейронов. То есть если в традиционной нейронной сети нейроны работают синхронно, то есть там как
47: Слоистые. Вот у нас вычислился 1 слой, потом у нас вычислился 2 слой и так далее. Значит, пока у нас 1 слой не посчитается, 2 считаться не будет, грубо говоря, да, то вот в импульсных нейронных сетях там не так все нейроны работают никак.
48: Зависимо относительно другого, то есть просто они принимают на вход какие-то импульсы, че то там для себя делают и выплёвывают импульсы на выход. Они при этом никак не синхронизируют свою работу со своими собратьями, кто находится рядом вот из этих 2 принципов.
49: В общем то, следует путь преодоления всех 3 проблем, о которых я говорил выше. Ну, во первых, энергоэкономичность, она следует как раз из импульсности обмена. То есть, если у нас нейрон не получает на вход никаких импульсов, то он ничего
50: Не делает и не расходует энергию. Если он получил импульс, это очень простая вещь. Фактически бит информации, он её обрабатывает очень быстрыми, простыми операциями, обработал и снова ничего не делает. То есть, в сущности говоря, именно это
51: Черта и делает наш мозг таким экономичным, потому что в основном наш мозг состоит из не из нейронов, а из связей между ними. Объём белого вещества. Это связи. Он превышает объём серого, это тела клеток. И эти связи почти всегда
52: Ничего не потребляют, потому что импульсы по ним проходят очень редко. Вот он прошёл мгновенно, при этом энергия потребила ь, но дальше ничего не происходит. Именно поэтому наш мозг потребляет там 20, 30 ватт, а не мегаватты. Вот здесь такой же ответ на этот вопрос, такой же. Тут подход к решению масштаби.
53: Коль скоро у нас нейроны работают независимо, они ни к чему не привязаны. У нас нет никаких фреймов, нет никаких синхронизирующих сигналов, то, в общем то, нам ничто не мешает 1000000 нейронов сделать или миллиард. У нас нет никакой механики их.
54: Синхронизация, которая нам бы осложнила бы этот процесс наращивания. Мы можем делать сколько угодно этих независимых агентов. В этом ответ проблема масштабируемости, вопрос взаимодействия со средой тоже. Если мы, значит, эти нейроны никак не
55: Синхронизует, то каждый из них может как угодно принимать на вход данные из внешней среды в любом режиме и точно также отдавать какие-то команды, там двигательные, ещё какие-то тоже не требуется синхронизации, поэтому не требуется никакого чёткого протокола взаимодействия с окружением. Давайте
56: Теперь посмотрим, что же это за нейроны, которые вот обладают такими свойствами. Что же за модели этих нейронов на самом деле этих моделей много. Вот в отличие от традиционных нейронов, которые, в общем то, занимаются
57: Любых сетях. Почти 1 и тем же они фактически суммируют, они строят скалярное произведение входных величин на вес и потом передают скалярное произведение на выход, подвергнув его некому нелинейному преобразованию, то модели импульсных нейронов гораздо
58: Более разнообразны, они различаются по своей сложности и по своей биологической реалистичности самая простая из них это модель нейрона, порогового интегратора с утечкой он настолько прост, что может быть выражен.
59: Может быть выражен простой электрической схемой вот она показана на слайде, этот нейрон состоит, в сущности, из 3 элементов, из конденсатора, на котором есть некоторый потенциал из сопротивления параллельных
60: Этому конденсатору и порогового элемента, который срабатывает, когда напряжение на конденсаторе превышает некоторый уровень, некоторый порог, как этот нейрон работает, ему на вход поступают импульсы в виде каких-то
61: Токов, то есть на конденсатор добавляется. При каждом таком импульсе некоторый заряд, величина этого заряда, она соответствует весу того входа, по которому импульс пришёл. Она может быть либо маленькая, либо большая. Итак, поступил
62: Очередной импульс. Напряжение на конденсаторе выросло, но если ничего не происходит, то со временем это напряжение падает до нуля, потому что параллельно конденсатору включено сопротивление, через которое этот потенциал утекает. Но если
63: Импульсов приходит много, то какой-то очередной импульс может сделать так, что сопротивление на конденсаторе превысит порог, тогда сработает пороговый элемент, напряжение на конденсаторе сбросится снова до нуля, а на выходе этого
64: Будет сформирован импульс, который будет передан дальше. То есть, что мы таким образом видим. Мы видим, что базовая операция, которую выполняет такой нейрон, это фактически регистрация совпадений, Прихода спайков на разные входы, потому
65: Потому что нейрон сработает только тогда, когда несколько спайков придут более менее одновременно, чтобы, значит, вот вызвать необходимое поднятие потенциала до порогового уровня. То есть, можно сказать так обобщённо, что если базовой операции
66: Обычных компьютеров являются логические операции и или не надбитыми то базовой операцией нейрона и, в сущности говоря, базовой операцией, выполняемой в нашем мозгу, потому что точно также себя ведут, в сущности говоря, и нейроны мозга это регистра.
67: Совпадений Прихода спайков на нейроны. Ну и поскольку этот нейрон, он допускает такую простую реализацию, действительно эта реализация делается. То есть в железе просто существуют такие устройства, которые прям реализуют именно эту модель нейрона.
68: Ну вот на этом слайде показано более понятно то, о чем я сказал. Вот мы здесь видим такой нейрон, видим, что у него есть 2 входа и по ним приходят спайки. Вот 1 раз пришёл спайк, ничего не произошло, потому что он не дотянул до парового потенциала. 2 раз тоже ничего не произошло. Хоть 2 спайк.
69: Их не хватило. А вот на 3 картинке видно, что у нас спайки пришли часто, и их много. И вот у нас получилось, что мы превысили потенциал пороговый. Ну и вот как раз сгенерировали Spike на выходе. Формально это описывается. Ну на самом деле чуть
70: Более сложная модель, чем я сказал, описывается вот такой, таким достаточно простым уравнением вот этот самый лиф нейрон это есть частный случай класса нейронов, который называется срм 0 срм этой Spike респонс.
71: По-английски это такая простая, простой одномерный класс моделей нейронов одномерный, он потому что в этих, в этих моделях нейрон описывается 1 величиной, мембранным потенциалом. Это как раз тем самым потенциалом, который на вот показанном выше.
72: Конденсаторе. Эта модель тем характеризуется, что мембранный потенциал зависит только от 2 вещей, от тех спайков, которые пришли вот недавнего времени на него. И от того, сгенерировал он Spike сам или нет. Мы видим, что здесь, вот в этой
73: Формуле, которая определяет динамику потенциала, имеются 2 функции это и epsilon это это функция, которая описывает, что происходит с потенциалом после того, как нейрон сам сгенерировал Spike вот после того, как нейрон сам Spike сгенерировал.
74: То его потенциал, он может, ну, как-то, что-то с ним может быть, да, вот в той модели, которой я говорил, он просто падает до нуля, но это может быть не так. Он может быть, допустим, стать каким-то отрицательным, чтобы затруднить дальнейшее генерацию Spike в течение какого-то времени он может что-то ещё там-то ест.
75: Короче говоря, функция, которая может быть разной. И 2 функция это экселон. Она описывает, что происходит с мембранным потенциалом. Если на синус приходит спайк, тоже, при этом с ним могут происходить немножко разные вещи, он может быть по разному вырастать.
76: Сразу или там через какое-то время с каким-то запаздыванием. То есть вот короче говоря 2 эти функции, они компенсируют модель нейрона ну и кроме того мы видим 2 условие, которое как раз описывает пороговое поведение нейрона. То есть если потенциал становится равным, тета порогу
77: То, соответственно, нейрон генерирует спайк. Это самая простая, самый простой класс моделей, и он немного более прост, чем хотелось бы, потому что на самом деле биологических нейронах спайки
78: Они не напрямую воздействуют на потенциал нейрона, а они воздействуют скорее на проводимость мембраны по отношению к разного рода ионам Spike воздействует на работу так называемых ионных насосов, которые в мембране присутствуют.
79: Которые поддерживают на каком-то уровне разность концентраций Ионов между пространством клетки и пространством вне клетки. Такая более реальная модель, это модель с синусами, контролирующая мембранную проводимость, она описывается вот
80: Уравнениями, которые мы здесь видим на слайде. Вот 1 из них, это, в сущности говоря, уравнение, похожее на уравнение модели срм, потому что она определяет динамику мембранного потенциала, его релаксацию к нулевому уровню и его стремление
81: Наличии, проводимости ц. И и c. Стремление мембранного потенциала либо увеличиться до какого-то верхнего уровня, либо упасть, наоборот, до какого-то нижнего уровня, если это тормозной тормозная проводимость, и мы видим, что эти проводимости, они меня.
82: В зависимости от Прихода спайков, потому что вот 2 и 3 уравнение как раз определяет динамику этих проводимостей. 1 проводимость, тормозная проводимость, которая стремится занизить значение потенциала, помешать нейрону генерировать Spike и эта проводить
83: Увеличивается при переходе спайков на тормозные синапсы. Синапсы. Это точки входа, сигнала в нейрон. 3 уравнение, оно значит точно такое же, но только для возбуждающей проводимости, то есть проводимость, которая, наоборот, поднимает значение потенциала. И точно
84: Она увеличивается при переходе спайков на возбуждающие синапсы. Вот это вот уже немного более похоже на то, какова динамика биологических нейронов, но ещё более похожим делает на биологию эта модель, которая называется
85: Пороговый интегратор с утечкой, адаптивным порогом, она отличается от простой модели, которую мы вот 1 на 1 слайде рассмотрели, касающейся моделей тем, что порог, то есть значение потенциала, при котором нейрон генерирует спайк, оно теперь не константа, а тоже являет
86: Изменяющейся во времени величиной. Поэтому можно сказать, что это двумерная модель нейрона, потому что здесь нейрон характеризуется и мембранным потенциалом, и теперь уже варьирующимся пороговым потенциалом динамика.
87: Этого 2 компонента состояния нейрона очень проста. Когда нейрон генерирует спайк, она увеличивается на некоторую величину константную, а потом постепенно экспоненциально падает до своего базового уровня. То есть это тоже
88: Очень простая, в сущности, модель, но что она даёт? Она даёт 2 новых свойства очень ценных нейрону, а именно свойство гомеостаза, а именно если нейрон очень часто генерирует спайки, то его порог генерации становится выше и дальше ему.
89: Сложнее генерировать спайки. То есть нейрону становится сложно быть перевозбуждённым, потому что это требует уже существенно большего количества спайков, потому что у него высокий порог. И 2, это такой нейрон имеет более привлекательные динамические характеристики, потому что он
90: Реагирует фактически на изменение стимула, на начало стимула. Вот если мы посмотрим на этот график, мы видим, что вот сначала нейрон не стимулировался, потенциал его был равен нулю, потом мы подали на него какой-то ток постоянный, ну, фактически сказать, такой непрерывный последован.
91: Импульсов входных. Мы видим, что сначала он генерирует спайки, часто он отвечает на это изменение, а потом, по мере того, что как эта стимуляция продолжается, он делает все медленнее и медленнее. То есть такой нейрон генерирует на динамику, на изменения.
92: А это как раз свойство биологических систем, ну и, наконец, из применяемых в реальности моделей, которые уже совсем хорошо описывают динамику реальных биологических нейронов. Рассмотрим кратко модель ижике ича, так называемую Евгений ёжике.
93: Очень известный исследователь, кстати, русского происхождения он закончил мгу, потом уехал в америку, он задался целью а вот какая самая простая модель описывает все наблюдаемые у реальных нейронов.
94: Виды динамики нейрона. На самом деле нейрон проявляет довольно большую большое разнообразие, так сказать, поведения. То есть это какие-то генерации отдельных импульсов, генерация пачек спайков, сложно, сложно меняющихся, то есть тут нейрон
95: Довольно хитрая система. И вот он нашёл уравнения, которые тоже достаточно простые, которые охватывают весь спектр наблюдаемого поведения реальных биологических нейронов. Это двумерная тоже модель нейрона, и у неё имеется 4 параметра.
96: Вот она, эта модель представлена в виде дифференциальных уравнений на нашем слайде, который мы сейчас видим. И в зависимости от этих параметров, от их комбинации мы получаем самые разные виды поведения нейрона. Это генерация отдельных спайков, генерация пачек.
97: Как вот мы видим, ну и так далее. То есть вот он нашёл его достижение в том, что он нашёл самую маленькую модель, которая, в общем то, объясняет более менее качественно все. Поэтому модель довольно часто применяется, особенно в исследованиях посвящённых, ну вот, имитации деятельности мозга для полноты.
98: Упомяну уже совсем полную модель, которой пользуются нейрофизиологи, которая уже очень детально и подробно описывает поведение нейрона она уже очень большая, это 4 сложных, нелинейных
99: Дифференциальных уравнения, оперирующих такими вещами, как концентрация Ионов, там, калия, натрия и так далее. На самом деле, это, конечно, очень хорошо. За эту модель была получена нобелевская премия, но для моделирования реальных импульных сетей она не используется, потому что она очен,
100: Сложна. У нас есть модель Жукевич, которая так все это воспроизводит. Поэтому нам не нужны там детальные, там особенности биологических нейронов. Нам достаточно пользоваться этой моделью. Поэтому эта модель просто здесь мною упомянута. Для полноты картины. Перейдём к очень важному вопросу.
101: О том, как информация представляется в импульсных сетях, как я сказал, сам по себе Spike неинформативен, потому что он всегда одинаковый, у него всегда одинаковая амплитуда. Ну и там маленькая, там обычно пренебрежимо маленькая длительность, поэтому
102: Чтобы передавать информацию, нам необходимо как-то её кодировать этими спайками. Как я сказал, в традиционных нейронных сетях такой необходимости не возникает, потому что они и так уже числа передают в виде чисел, там кодировать ничего особо не надо, а вот здесь нет.
103: Здесь надо кодировать числа, ну и не только числа, любые там сущности, там в том числе и какие-то символические, там категориальные величины, и этих способов их довольно много, они подразделяются на 2 больших класса.
104: 1 назовём асинхронные методы кодирования, для них не важна. Точное положение отдельного спайка на временной оси. 2 класс мы чуть позже рассмотрим, назовём синхронные методы, потому что там как раз точное позиционирование спайков во времени. Оно как раз важно. Ну вот 1
105: Классу относится самый простой способ. Это частотный очень просто. Если у нас есть какая-то нейронная связь и по ней часто, часто, часто идут импульсы, значит это большая величина чего-то сильная. Если их мало, то значит,
106: Это слабое маленькое значение величины. Такой способ действительно применяется. Например, двигательные отделы, коры мозга. Они отдают приказы мышцам именно в такой кодировке. То есть много импульсов мышца сильно сжимается. Мало импульсов она мало.
107: 2 способ тоже зависит от частоты импульсов, но он учитывается не по времени, а по пространству. То есть мы, допустим, фиксируем какое-то количество нейронов, и если среди этих нейронов много активных
108: То есть много в данный момент там данный маленький интервал времени сгенерировали спайков. Значит, это сильный сигнал. Если мало, то слабый сигнал. Вот как показано в средней части этого слайда, можно сказать, что это популяционное кодирование. Ну, часто их совмещают, что просто
109: Берут какой-то набор нейронов, берут какой-то интервал времени, ну и вот общее количество всех спайков, сгенерированных этими нейронами за этот интервал времени, берут за величину, которую кодируют ещё 1 подход, где тоже конкретный Spike его позиции временной.
110: Не важна. Это так называемое позиционное кодирование, оно похоже на то, как у нас осуществляется в нашей улитке уха. Кодирование частоты звука, улитка уха это такой фактически линейный массив рецепторов и одни рецепторы.
111: Реагируют на низкий звук, они кодируют низкую частоту звука, а другие, наоборот, там на противоположной стороне этого, этого, этой, этой линии кодируют высокие звуки. То есть их активность соответствует высокому звуку. Вот это
112: Показано на 3 линейке графиков, где мы видим тоже некий порядок нейронов. И величина кодируется теми нейронами, которые активны в данный момент. Вот мы видим, что слабый сигнал, допустим, это левые нейроны, а сильный сигнал правые нейроны, то есть
113: Так, мы тоже можем закодировать числовую величину на практике, когда нам надо закодировать какие-то временные ряды, какие-то числа, меняющиеся во времени, то мы пользуемся таким смешанным видом кодирования. 1 способ это как раз вот
114: То, что называется частотное кодирование, то есть интенсивность импульсов пропорционально текущей величине сигнала, как вот показано на верхней половине этого слайда. A2, 2 способ это динамическое кодирование.
115: Кодирование, оно отображает скорость изменения какой-то величины. Ну вот допустим, когда мы кодируем синусоиду, у нас есть растущие, так сказать, периоды, где синусоида растёт, где она падает. Вот мы разделили всю область.
116: Значение этой синусоиды на зоны. И когда у нас график пересекает границу зоны сверху вниз, мы генерируем Spike по 1 линии сигнальной, а когда он, наоборот, снизу вверх, то по другой получается, что у нас самая большая частота.
117: Вот в 1 линии это когда она больше всего растёт, как мы вот видим на графике, а по другой линии, вот как в середине этого графика. Это когда синусоида сильнее всего падает в совокупности, мы получаем и значение величины и значение его динамики, если мы будем
118: Учитывать спайки со всех этих линий. Теперь о синхронных методах кодирования. Там тоже есть несколько разных подходов. Ну, например, если мы хотим кодировать не числа, а какие-то категориальные сущности из
119: Ну фактически элементы какого-то множества неупорядоченного, то мы можем воспользоваться так называемым пространственно временным кодированием, мы фиксируем какое-то количество нейронов, ну и если вот эти нейроны посылают спайки вот в такой-то последовательности.
120: С такими-то задержками между спайками, как вот показано, да, вот на верхнем графике, то это кодирует какое-то 1 значение. Если на тех же самых нейронах спайки идут по другому в другом порядке с другими задержками, это другое значение. Естественно, что такой
121: Метод, он обладает тем свойством, что он очень информационно ёмок, то есть одними и теми же небольшим количеством нейронов, можно так сказать, закодировать огромное количество разных категориальных величин, но он не очень подходит для кодирования числовых величин.
122: Для того, чтобы кодировать числовые величины, часто используется временной сдвиг. Допустим, у нас есть некая референтная последовательность Пайков и какая-то ещё. И вот, значит, вот эта, эта 2 последовательность спайков, она может быть сдвинута во времени по отношению к 1
123: Сильно или слабо этот сдвиг и кодирует величину некоторое число. Если он, допустим, слабо сдвинут, это слабый сигнал, если сильно сдвинут сильный сигнал. То есть тут мы видим, что положение спайка, оно как раз несёт информацию. Ну и
124: Наконец, вот ещё 1 подход, немного похожий, так называемое фазовое кодирование, которое действительно наблюдается в мозге. Ну, например, вот известно, что есть так называемые специфические нейроны места в гиппокампе в зоне c1.
125: Гиппокампа доказано, допустим, на крысах, что нейроны этого отдела гиппокампа очень точно реагируют на местоположение крысы, генерируя спайки в какой-то фазе так называемого
126: Это ритм. Вот известно, что разные мозговые структуры, они часто проявляют такие коллективные колебания. Вот называем альфа ритм дельта ритм. Вот есть такая ритм, ритмический процесс в гиппокампе, фаза по отношению
127: Отношению к которому генерация, спайка, в общем то сильно определяет, где крыса находится в пространстве. То есть это тоже такой способ кодирования информации, как фаза по отношению к некому глобальному процессу. Вот на этом мы пока прервёмся и продолжим
128: Наше изложение.