0: Деревянные счёты, оно не интеллект, калькулятор вроде ещё тоже не интеллект нам бы хотелось, чтобы калькулятор делал что-то ещё. Ликбез двухминутный. Что такое искусственная нейросеть? Деградация мозга, там снижение iq, там мозг усыхает брейн рот система, которая способ.
1: Абсолютно любой текст продолжить, она может решать любые интеллектуальные задачи. Это невозможно терпеть. Сейчас начнётся катастрофа, сейчас будет апокалипсис, у нас мощнейшие возможности, а тратим мы на какую-то фигню. Есть ли котик на картинке? Это в принципе, пример искусственного интеллекта.
2: И снова здравствуйте, и снова с вами Станислав Дробышевский в программе Дробышевский плюс мы сами себя называем homo sapiens, человек Разумный, то есть мы обладаем интеллектом, однако же совсем недавно человечество вышло.
3: На новый уровень и создала сверхинтеллект, или новый интеллект, или искусственный интеллект. В чем нам поможет разобраться Сергей Марков, директор развития искусственного интеллекта Сбербанка.
4: Для начала, как всегда, стоит определиться с определениями, а что такое вообще искусственный интеллект? Есть у него какое-то определение и не 1, как обычно. Ну, вообще само понятие искусственный интеллект, оно впервые появляется в 1955 году, когда
5: Джон маккарти пишет предложение по организации дартмутского семинара, так называемого, который прошёл годом позже, в 56 году. Ну и вот, собственно, эта дата является такой точкой отсчёта, когда это направление науки и технологии оформилось в виде
6: Значит, ну какого-то такого самостоятельного вот, но, конечно, здесь нужно сделать скидку на то, что ещё до макарти был тьюринг, который употреблял термин машинный интеллект и в принципе, ну
7: Конечно, это до некоторой степени условность исследования в этой сфере, они происходили и до маккарти, до дарманского семинара. Ну а сегодня, когда мы говорим об искусственном интеллекте, мы говорим об искусственном интеллекте как об области науки и технологии, которая занимается
8: Автоматизация решения интеллектуальных задач. То есть, если есть какие-то задачи, которые люди решают при помощи своего человеческого интеллекта, мы создаём инструменты, которые способны помочь людям решать такие задачи, где-то, может быть, даже подменить человека в решении таких задач, мы
9: И занимаемся работой в области искусственного интеллекта. Вот, ну, сам термин был придуман в романтические времена. Опять же, спустя 2 года 1 спутник отправится на орбиту планеты тогда
10: В пятидесятые годы быстро развивается вычислительная техника. Вот. Ну и, наверное, термин искусственный интеллект это нечто вроде, если бы мы двигателист ку, например, называли бы искусственной силой. Ну, в принципе, почему нет, да, но вот так уж
11: Сложилось, что значит термином именно искусственный интеллект стали называть направления, связанные с автоматизацией решения интеллектуальных задач. А есть какая-то мера этого искусственного интеллекта. Ну вот деревянные счёты, оно не интеллект, калькулятор вроде
12: Ещё тоже не интеллект какой-нибудь там 1, я не знаю, там компьютер тоже вроде ещё не интеллект, а вот вот с этого момента уже типа интеллект, ну, строго говоря, нет, но это примерно как, знаете, вот математика, да, вот таблица умножения, это математика или не математика.
13: Ну, как бы некая примитивная, да, форма. И, конечно, здесь, скорее мы говорим о области науки и технологии, оформившейся в тот момент, когда само человечество осознало, что оно занимает, что есть вот такая
14: Область, которая целенаправленно занимается вот таким классом задач. Хотя, естественно, различные системы, которые помогали людям решать интеллектуальные задачи, люди создавали с глубокой древности счёты и счётные камушки.
15: И много что ещё, да, и в принципе письменность как таковая, это тоже инструмент расширения возможностей человеческого интеллекта. Вообще здесь важно понимать, что технологии искусственного интеллекта это в общем, ну как
16: Отрасль технологий, да и роль этих технологий, как и в случае любых других технологий, это раздвигать границы возможного для человека. У нас нету там острых Клыков, когтей. Мы придумали ножи, пики, вилки, у нас нету толстой шкуры.
17: Густого меха. Мы придумали одежду. И вот человеческий разум, он тоже ограничен до некоторой степени в силу целого ряда причин. Вот, и мы стремимся раздвинуть границы возможного для человеческого интеллекта, создавая вот эти вот умные инструменты. Очень важный
18: Посылкой к такой вот новой и новейшей истории искусственного интеллекта стало то, что происходило в тридцатые годы. То есть когда у человечества, с 1 стороны, была такая наука, как логика, которая там развивалась
19: Уже тысячелетия и занималась человеческим мышлением, инструментами построения рассуждений и так далее, и так далее. А с другой стороны, была такая молодая наука, как нейрофизиология, которая, по сути, в современном виде оформи,
20: Только в 1800 девяностые годы с выходом магнум, опуса, рамона и кахаля. Вот. И в общем, ну, мы вроде как бы разобрались, что вот есть нервная ткань, да, вот она состоит из клеточек с длинными отростками, по ним передаются электричес.
21: Сигналы. Но как вот эта система из нейронов, может в логику, то есть между этими 2 областями, зияла огромная пропасть, которая была закрыта благодаря исследованиям николая рашевского благодаря исследованиям
22: Макалка и pizza, которые создали 1 модель искусственного нейрона благодаря тем учёным, которые изучали электрическую активность мозга, вот и в тот момент, когда вот эта зияющая дыра между логикой,
23: И нейрофизиология оказалась, ну, худо бедно заполнена. Вот в этот момент, в принципе, появились предпосылки для развития такого бионического подхода. То есть вот мы, у нас нету понимания, как мы можем создавать машины.
24: Которые могут решать сложные интеллектуальные задачи. Но у нас есть в природе образец, да, человеческий мозг, который с этими задачами справляется. Давайте мы в который раз подсмотрим инженерное решение у природы, посмотрим, как это работает там. Вот, и
25: Очень многие технологии, они первые шаги именно делают именно по этой дороге. Первые самолёты тоже создавались под впечатлением от полёта летучих мышей, птиц и так далее. Интеллект это в целом способность решать задачи дальше.
26: Иногда это определение усложняют и говорят, что интеллект это способность решать задачи разного рода, то есть не только 1 какую-то, например, как калькулятор он считает, но это в принципе, пример искусственного интеллекта, да, но нам бы хотелось
27: Чтобы калькулятор делал что-то ещё там, может быть, рисовал картины какие-нибудь, да, или общался с людьми. И ещё иногда к интеллекту или уму даже точнее приписывают, что это способность быстро обучаться, решать задачи, с которыми до этого данный
28: Организм или система никогда не сталкивалась. То есть, потому что можем сказать, а вдруг это там загрузили, там, предположим, это наш прекрасный искусственный интеллект, он хорошо играет в шахматы, потому что в него загрузили все возможные ходы, а сам он не думает. И вот и нам кажется, что
29: Очень важным, чтобы могли что-то назвать интеллектуальным или имеющим интеллект. Это чтобы этот организм или существо, сталкиваясь с какой-то новой ситуацией, с новой задачей, находило новое решение и могла с ними справиться. Вот сегодня мы говори,
30: Говорим про систему искусственного интеллекта и наверняка у наших зрителей там в голове возникает там чат gpt, какие-то, значит, большие языковые модели. То, что сегодня является лицом этой области. Вот важно понимать, что
31: Существует множество различных подходов в искусственном интеллекте, да, существовала как бы вот там с пятидесятых годов начинается целая эпоха, которая продлилась там до, по сути дела, 2/1010, которую сейчас принято называть старый добрый искусственный интеллект Гут.
32: Fashion artificial intelligence вот когда в основном в искусственном интеллекте применялись методы как раз математической логики для явного описания в виде правил тех или иных того или иного поведения системы. Вот сегодня
33: На передний край выдвинулись так называемые коннекционистские методы. Да, они в этом смысле
34: Мы, скажем так, в явном виде не описываем поведение этой системы, да, мы используем методы, которые, которые объединены зонтичным термином машинное обучение. Вот что такое машинное обучение, значит, вот ликбез двухминутный, что такое?
35: Искусственная нейросеть, да, вот искусственная нейросеть, это такая огромная огромная формула, в которой есть много, много параметров. И вы подставляете в эту формулу какие-то входные значения, например, не знаю, вы хотите определить, есть ли котик на картинке, да?
36: Вот у вас картинка, скажем, 100 на 100 пикселей, да, у вас, значит, 10000 чисел, да, вы подставляете в эту формулу, вычисляете её. И если у вас получилась единичка, значит, котик, на картинке есть нолик. Если котика нет, теперь вопрос.
37: На 1 000 000 $. А как в этой гигантской формуле подобрать коэффициенты так, чтобы она работала, чтобы она как можно Реже ошибалась. Вот, и есть определённые методы статистической оптимизации, вот, которые позволяют подобрать значение. Вот.
38: Этих коэффициентов, этой огромной формуле, таким образом, чтобы минимизировать ошибку. Вот, вот вкратце, как это все работает. Мы потом получив эти миллионы, миллиарды коэффициентов и так далее, мы видим, что это работает. Вот
39: Но попытки описать это простым набором правил. Ну хорошо значит вот есть, представьте себе, миллиард условий, если то иначе, да, можно ли их понять, да, вот как, что такое
40: Понять, да, вот сасара дальга, известный специалист в области искусственного интеллекта, в шутку говорит, что человеческая способность понимать сложность, она ограничена 1 челоба. Том, вот если в этот челоба влезает сложность системы, мы в состоянии
41: Постичь её во всей сложности, да, а если нет, то, то нет, да, мы с вами начинаем прибегать к каким-то упрощениям, абстрагированию, либо там, не знаю, коллективы людей привлекаем, чтобы эту сложность обуздать. Но в целом оказывается, что эти модели
42: Ну, я сейчас заведомо упрощаю некоторые вещи, да, но в целом модели коннекционистские, они плохо интерпретируемы, мы не можем в виде короткого набора правил, который вмещается вот в этот челоба, т. Описать, каким именно образом.
43: Они принимают решения, они принимают решения очень, очень сложным образом. В этом смысле они похожи на человеческий мозг, да, скажем, прорыв в области распознавания образов во многом выстраивался на плечах результатов, кото
44: Которые были получены нейрофизиологами. В своё время конкретно хьюбел и визель. Будущие нобелевские лауреаты ещё в 1 половине 20 века занимались изучением зрительной коры кошек, и они поняли, что значит да, действительно, как бы
45: Подтверждаются вот эти там предположения ещё Павлова о том, что kara работает как анализатор, то есть она, по сути дела, расщепляет, превращает входящие сигналы в разного уровня абстракции. Признаки, да, передние слои реагируют.
46: На там какую-то очень простую геометрию, да, на линии определённые пятна света и так далее. Чем глубже мы погружаемся в эту структуру, тем больше появляются нейроны, которые интегрируя сигналы из предыдущего слоя,
47: Активируется в ответ на уже какой-то более абстрактный признак. Да, вот. И тоже самое, если мы посмотрим на свёрточную нейронную сеть, например, которая распознает котиков, да, мы там можем найти нейрон, который реагирует, например, на наличие глаза на картинке, да,
48: Вот, а какой-то на наличие 2 глаз, да, а какой-то уже на наличие котика, вот какой-то на наличие уха и вот эти вот признаки, они имеют разную степень абстракции по сути дела. Вот, поэтому
49: В целом нейронные сети, если так уж попытаться интерпретировать их работу, они раскладывают входящие сигналы, значит, на определённые наборы признаков, которые у них внутри.
50: Локализуются в виде каких-то спатио, темпоральных карт, активации нейронов. Вот. Ну и потом, что позволяет нам эти представления использовать уже для решения там каких-то задач, связанных с распознаванием или там с генерацией новых образов и тд. И тп. А если это такая
51: Супер мега сложная большая формула, как она вообще создаётся? Ну то есть человеческий мозг то не может миллиард параметров осознать. Ну вот если мы посмотрим на человеческий мозг, да, вот интересно, что 1
52: Кто начал так всерьёз задумываться над тем, каким образом работают процессы обучения на уровне клеточном, да, был, как это ни странно, зигмунд фрейд, который на Заре своей карьеры был таким серьёзным, мокрым.
53: Биологом. Вот, значит, и фрейд ещё в 1892 году, если мне не изменяет память, пишет работу, которую мы сегодня знаем под названием очерки о научной психологии. И в ней вот он рассуждает, что вот
54: Есть, значит, нейроны. Ну, он хорошо, значит, нейроны обмениваются электрическими сигналами. Это там со времён катона было известно, но должны как-то, значит, меняться. Контак.
55: Барьеры, должна проходимость вот этих барьеров электрическая изменяться. И он рассуждал о том, что должен существовать процесс, который он называл, фасилитация контактных барьеров. Вот, и, значит, о том, что как бы какое какое-то вознаграждение
56: Которое происходит, оно должно передавать как бы информацию от постсинаптической мембраны к пресинаптической мембране. Он придумал термин обратное распространение ошибки. Вот и рассуждал о том, как, в принципе в живой ткани могут
57: Меняться. Вот эти вот барьеры между нейронами электрические. Вот искусственная нейронная сеть учится похожим образом. И неудивительно, что первые методы обучения искусственных нейронных сетей, они тоже отталкивались от подходов, которые были предло
58: Нейрофизиологами, в частности, в 49 году работа хебба выходит знаменитая, из которой мы знаем, что fire to gether вайр тугедер, что если пресинаптические постсинаптические нейроны срабатывают в пределах
59: Некоторого промежутка времени, то связь между ними усиливается вот хебо skiy принцип обучения, не придуманный хебом, придуманный до него торндайком, ещё, наверное, вот, но оказалось, что если мы это опишем в виде некоторого набора форм.
60: Да, что если у нас, ну, каждый, как бы, нейрон это 1 из членов в этой формуле, да, проводимость контактного барьера это тот коэффициент, на который умножается, значит, число, которое подставляется внутрь.
61: Нашего вот этого члена. Вот, соответственно, мы можем симулировать процесс, значит, возбуждения и вознаграждения положительного отрицательного. И постепенно эти коэффициенты будут подстраиваться постепенно.
62: Они будут меняться и ошибка будет работы системы уменьшаться. Метод не очень эффективный. Вот. Но он был достаточен для того, чтобы показать, что в принципе такие модели можно учить, но со временем были придуманы более совершенные методы.
63: В частности, метод обратного распространения ошибки, который позволяет рассчитать вклад каждого отдельного коэффициента в нейронной сети в ошибку вот, и, соответственно, метод.
64: Методы, основанные на градиентном спуске, так называемом, вот, которые позволяют постепенно маленькими шажками менять всю матрицу параметров таким образом, чтобы, ну, приблизиться к оптимуму, снизить
65: Снизить ошибку. Вот. Ну, соответственно, все это требует больших вычислительных мощностей. Вот, но оказывается, что в целом работает неплохо. То, что мне вот лично интересно я сегодня просто экзамен у студентов принимал по анатомии цнс. Вот
66: У нас, как я уже сказал, есть новая кора, которая как бы мышление, а есть лимбическая система, которая эмоции и по факту вот эта эмоциональная часть это мотивация. То есть мы хотим чего-то узнать, потому что у нас есть
67: Эмоции, что нам там нравится или наоборот, мы че то там не хотим, потому что не нравится, а к искусственному интеллекту кто-нибудь такую мотивацию привинчивал или мы выступаем такой лимбической системой, мы формулируем вот целевую функцию, то есть что мы хотим максимизировать или
68: Минимизировать, да, как посмотреть. Вот, значит, если, например, мы хотим сделать сетку, которая там распознает котиков, значит, у нас функция будет таким образом выглядеть. Значит, вот есть выдача нейронной сети, вычита
69: Из неё реальное значение метки правдивое, да, результат возводим в квадрат и складываем это все по всем прецедентам в обучающей выборке, да, вот получилось какое-то число, которое мерой ошибки является, да, и мы стремимся её
70: Минимизировать, да, то есть каждый раз, когда сеть даёт неправильный ответ, мы её тем сильнее бьём током, чем сильнее она отклонилась от правды, да, вот, ну и мы ещё и сразу пачками подаём эти данные, но это уже детали процесса обучения. Вот.
71: Соответственно, здесь, целевая целевую функцию, формулируют, естественно, исследователи, которые задают параметры процесса обучения если говорить, например, о больших языковых моделях, то большую языковую модель на эта.
72: Пред обучение берут просто все тексты, до каких могут дотянуться. Вот. И текст бьётся на такие кирпичики, токены, да? Ну это детали для простоты. Будем считать, что на слова. Вот, значит,
73: И мы учим модель по предыдущим словам в тексте предсказывать следующее слово. Вот, и, соответственно, стремимся минимизировать ошибку. Вот предсказания следующего слова. Вот, значит, что в итоге получается, получается модель.
74: Которая видела там терабайты текстов, написанных людьми, и которая худо бедно умеет примерно любые тексты продолжать. Вот, но у неё число параметров сильно меньше, чем объём самой обучающей.
75: Выборки она не может запомнить физически весь обучающий набор данных, поэтому в процессе обучения в ней формируются абстрактные представления, которые позволяют ей находить некие закономерности в этих данных, да и благо.
76: Благодаря этому более компактно с ними работать. Благодаря вот этому гигантскому процессу пред обучения внутри этой сети вырабатываются полезные представления, которые могут быть потом переиспользованы для решения абсолютно каких-то других задач, то есть, скажем,
77: Когда я там своему другу Васе хочу рассказать, как выглядит тигр, я не беру 10000 фотографий тигра и 10000 фотографий без тигра. Да, я не начинаю ему показывать. Тут есть тигр, тут нету, он меня убьёт уже где-то, наверное, там, на 5 фотке. Вот я вместо этого ему
78: Говорю, там, Вася, вот тигр, это такая большая кошка с оранжевыми чёрными полосками. Да, и Вася, руководствуясь этой инструкцией, уже тигра худо бедно распознавать, наверное, сможет на картинке. Вот почему это работает, да, по
79: Потому что у Васи есть представления заранее выученные, да, им откуда-то в жизни он их получил о том, что такое чёрное, что такое оранжевое, что такое кошка, что такое большое в отношении кошки, что такое полоска? Я, опираясь на вот эти
80: Его уже имеющееся представление смог ему компактно передать. Значит, ну вот какой-то алгоритм действия, да, какое-то знание работает. Это исключительно потому, что мы с Васей живём в 1 мире. Вот у нас есть некое пересечение нашего опыта. Вот, и поэтому
81: Некое выравнивание вот этих внутренних представлений. То есть на самом деле у меня в голове какая-то спати. Темпоральная карта активации нейронов соответствует там представлению о тигре, да, у Васи в голове совершенно другая, да, у него там и число нейронов отличается, и связи все другие.
82: Там и так далее. Вот. Но есть механизм, кое-как человеческий язык, который это внутреннее представление упаковывает, значит, компактную форму символьную, а потом умеет из неё распаковать уже в его оральные карты активации, в его
83: Вот. И вот большие языковые модели, они в этом смысле вот тоже очень хороши, потому что они укоренены в нашей человеческой практике, потому что они учатся на цифровом следе человечества, ищут закономерности именно в нём. Именно поэтому они очень хороши для решения. Вся
84: Разных человеческих задач, потому что их внутренние представления, они заточены вот под это. Так, а тогда из этого исходя, ну, по факту, ну, очевидно, естественно, что мы делаем как бы под себя и для себя, но по мере развития систе,
85: Темы, она выходит куда-то в нечеловеческую какую-то вот сферу, которую мы вообще уже и непонятно зачем оно. И, ну здесь тоже как посмотреть, да, то есть могут ли машины находить решения проблем, которые не нашли люди
86: Да, могут, я не знаю, в сороковые годы и в пятидесятые. Некоторые специалисты считали, что, например, программист не сможет создать шахматную программу, которая будет играть сильнее его самого, да, но на самом деле мы знаем, что это не так, да.
87: И здесь в целом, ну, как бы никаких препятствий нету для того, чтобы решать какие-то задачи, которые не подвластны человеку. Нет, я даже не про то, что сложность больше вообще сами задачи другие, у нас же мозг.
88: Для очень простых задач, ну, таких самых обычных, да, найти, пожрать, чтобы нас никто не сожрал, чтобы было там. Вы робототехникам скажите, что это простые задачи. Вот они удивятся. Я имею ввиду, что круг задач, он в
89: В принципе, там у какого-нибудь ланцетника у человека не отличается. Не, ну знаете, спастись, размножиться, это, это мы так упрощаем все, на самом деле, у нас как бы круг задач, это, как сказать, долгосрочное увеличение частотности наш
90: Генов популяции, да, а это не только найти еду, да, это взаимодействовать с кучей, например, разных других индивидов, да, для того, чтобы успешно, адапти.
91: К среде. Вот, в принципе, как там, исходя из представления современной эволюционной теории сознания, да, там, когда сознание появляется, появляются социальные виды социальных видов, значит, социум
92: Является значительной какой-то частью среды, к которой они должны адаптироваться. У них появляется психическая модель другого для предсказания поведения других, да, то есть вот как часть модели мира, которая формируется и дальше она оказывается замкнута на себя, да, возникает
93: Представление о себе как о другом, да, начинают вот эти вот рефлективные механизмы развиваться. Основным, можно сказать, самой главной эволюционной задачей. На самом деле нашей нервной системы является прогнозирование будущего. То есть с нами что-то происходит. И наша нервная систе,
94: Тема такая. Ага. Так, например, через какое-то время мы захотим есть, нам нужно пойти найти нам еду или вот мы там видим, какой-то человек к нам приближается, у него все лицо красное. Ага. Нам нужно, нам лучше убежать от него. Лучше с ним не разговаривать или нам
95: Наоборот, да, то есть можно сказать так, что многие нейробиологи и когнитивные психологи, они сейчас считают, что мозг это такая предсказательная машина. И здесь возникает вопрос, как он это делает, да, и насколько
96: Это просто сделать наша нервная система, она не имеет непосредственного доступа к внешней среде. Всю информацию она получает от органов чувств, и она должна её, во первых, докодировал и создать модель, но там есть ещё 1 проблема. Она получает эту информацию, задер.
97: То есть вот мы на что-то смотрим, и информация, она сначала должна попасть мне на клетки сетчатки, потом на несколько слоёв этой сетчатки пройти, потом добраться до таламусов от таламусов к затылочным затылочной коре, там ещё
98: Побегать по другим областям и все это вместе занимает, ну, примерно 100 миллисекунд. То есть 1 10 секунды на самом деле достаточно много. Особенно, если мы представим, что там человек играет в теннис, да, это или едет на велосипеде достаточно большая задержка и
99: Соответственно, чтобы мы могли как-то вот поспевать за миром вокруг наш мозг, он не просто создаёт модель мира, он создаёт модель будущего мира вот с этим шагом в 100 миллисекунд вперёд. То есть можно сказать, что мы сейчас живём
100: В такой иллюзии, созданной нашей нервной системой о том, как она считает, выглядит мир и как он будет выглядеть в будущем. Поэтому задачи адаптации к реальной среде, они не
101: Вообразимо сложнее тех задач, которые мы ставим перед прикладными системами искусственного интеллекта. То есть мы в основном, скажем так, до 17 года, до появления, значит, трансформерных моделей больших. Все
102: Системы искусственного интеллекта, которые мы создавали, это были так или иначе очень узкоспециализированные системы. То есть они достигали успеха благодаря очень, очень узкой специализации. То есть вот важно понимать, почему так на самом
103: Деле вычислительно, нам очень трудно конкурировать с человеческим мозгом. Парадоксальным образом нам кажется, что мы такие медленные по сравнению с вычислительной техникой нифига подобного, да, потому что 86 миллиардов нейронов
104: Квадрильон синапсов, каждый синапс. Если разложить там каким числом бинарных элементов можно описать работу синапса, там в зависимости от точности моделей, от тысяч до сотен тысяч двоичных элементов. То есть даже если сделать скидку на скорость, да, у нас как бы
105: Медленно импульсы передаются между нейронами, там единицы миллисекунд, но общее количество там условных бинарных операций, которые мозг выполняет в единицу времени. Оно колоссально, оно сильно больше, чем у любой современной вычислительной техники. Поэтому
106: Учёным, инженерам, им приходилось вот больших 7 шапок из овцы выкраивать, да, то есть мы вот хотим человека решать какую-то задачу лучше, чем люди решают, мы это будем делать за счёт очень, очень узкой специализации. Вот компьютер deep blue.
107: Он умеет обыграть чемпиона мира в шахматы, но он не умеет ни котиков на картинках распознавать, ни в покер играть, ни даже играть в шахматы на доске 9 на 9. У него логика шахматная буквально зашита в чипы, да благодаря этому благодаря этой дичайшей специализации.
108: Достигается такая большая эффективность. Вот в природе тоже можно наверняка найти там какие-то виды, которые отдельные интеллектуальные задачи решают лучше, чем мы. То есть какая-нибудь пчела в улье найдёт оптимальный маршрут быстрее, лучше, чем это сделает человек, хотя у неё там 1000000
109: Нейронов, да, примерно, а у нас 86 миллиардов. Вот, значит, и в целом эта ситуация до некоторой степени сохраняется даже сегодня, когда созданы модели с миллиардами и триллионами параметров, это все ещё меньше, чем
110: Масштабы работы человеческого мозга и задачи, которые мы ставим перед ними. Но на самом деле вот задача типа продолжения любого текста, она, она очень интересная задача. В каком смысле и вообще любую интеллектуальную задачу
111: Можно так переформулировать, чтобы превратить её в задачу продолжения некоторого текста. Ну вот, допустим, представим себе такой текст, там яблоко, тире, apple, стол тире, ну как бы, если мы умеем тейбл написать, да, значит, мы решаем задачу перевода слов с
112: Русского языка на английский. Или, например, вот такой текст, да, белые позиция, значит, король e1 ладья, e2 чёрные, король h8, ход белых, ведущий к наискорейшему выигрышу двоеточие.
113: Если мы и такой текст сможем продолжить, значит, мы как бы в шахматы умеем играть, да, а поэтому гипотетически система, которая способна абсолютно любой текст продолжить, она может решать любые интеллектуальные задачи. Ну, вопрос с каким качеством?
114: Решать, да, вот. Но оказывается, что модель, которая училась на всех текстах человечества, внезапно способна решать довольно широкий спектр интеллектуальных задач, то есть и мозговым штурмом заниматься, и какую-нибудь суммаризации текста производить, да, и вот делать все, что там умеет.
115: Современные модели типа там chat, gpt, гига, чата и так далее. Вот поэтому но поэтому вот эта задача, которую мы здесь ставим, она такая вроде как бы очень простая, да, продолжать тексты, но под капотом за ней паровозиком
116: Идёт способность решать очень много разных других задач. И все же это очень далеко от приспособления к физической среде, потому что задачи в области, скажем, робототехники той же самой, которую сейчас пытаются решать при помощи вижн ленгвич экшн моделей, они
117: Имеют дело с данными гораздо большей размерности, чем тексты, да, потому что модели нужно обрабатывать огромное количество информации от сенсоров в единицу времени, осуществлять, значит, управление там
118: Каким-то исполнительным инструментом, роботом там которого там 50 Моторов, там и так далее. И вот мы пытаемся сейчас создавать модели, которые смогут перевести там инструкцию, не знаю, возьми яблоко со стола в некий набор действий, исполняя
119: Механизма, да ещё и не просто набор, а набор такой, который может меняться под влиянием внешних раздражителей каких-то, под влиянием обратной связи и тд. И тп. И когда мы пытаемся решать задачи, связанные с
120: Физическим миром оказывается, что они все-таки на 2 порядка сложнее, чем задачи продолжения каких-то случайных текстов. Вот. Поэтому, если мы, ну так посмотрим на те задачи, которые человеку нужно решать в окружающем мире, попробуем их переве.
121: В язык элементарных действий, которые мы предпринимаем, окажется, что это очень, очень сложно. И это та сложность, которую мы пока ещё обуздать не смогли при помощи технологий. Ну вот мне тоже, как, ну, немножко имеющей отношение к анатомии мозга, видно, что у нас же мозг обрабатывает
122: Какие to 1000 параметров? Ну, у нас органов чувств целая куча. И ещё то, что не осознаем мы, оно же все равно обрабатывается там от внутренних органов, какие-нибудь рецепторы там, не знаю, из желудка идут, там Бог знает откуда у людей есть вот это вот.
123: Привинчен. Че там, окуляр какой-нибудь и там микрофон, собственно. Ну да и здесь ведь что получается, что люди просто иногда впадают в такую немножко ошибку, когда отождествляют своё сознание со своей психикой. Вот на самом деле это
124: Вот большая ересь, да и люди говорят, ну хорошо, почему мой мозг 86 миллиардов нейронов, каждый там квадриллион синапсов, каждый синапс сложнейшая электрохимическая машинка. Почему мне сложно пятизначные числа то перемножить? Это всего то опера.
125: Всего ничего. Так вот ваш мозг то перемножает эти пятизначные числа там где-то вы просто этого не осознаете. Вы не можете задачу, сформулированную в виде символьного ввода, переформулировать в язык электрохимической деятельности.
126: Вашего мозга. Да и проблема в этом, а не в том, что ваш мозг низкой вычислительной мощностью обладает, потому что каждый раз, когда мы смотрим на картинку и понимаем, что на ней котик, есть, это огромный каскад электрохимических реакций в мозге, которые мы не
127: Осознаем, естественно. Вот, но которые происходят. И, ну, вычислительное это очень задачи то у предков не было считать пятизначные числа, а распознавать котиков была, конечно, конечно, и, собственно, оно и решается.
128: Искусственный интеллект создаёт некоторый результат, но будучи, ну хоть в какой-то степени интеллектом, он создаёт этот результат с какими-то погрешностями. Ну потому что если бы это не было погрешностей, то это был бы просто калькулятор ну
129: Ну, есть очень большой калькулятор, но очень сложный. И вот эти погрешности, они вроде бы мизерные, и вроде бы там 1 процентик, 2 процентика, но объём суммарной этой информации, гигантский и абсолютное значение этого бреда, который выдаёт искусственный интеллект, очень
130: Велико с чем каждый может столкнуться, зайдя в интернет и посмотрев вот эти всякие ответы искусственных интеллектов, потому что он потихонечку это выдаёт, потом где-то это прописывается, потом он сам на это дело ссылается, потом ещё раз ссылается, потом это становится вроде как
131: Правдой. И вот, на мой личный взгляд, в некотором будущем понадобится такая профессия различитель правды от неправды, где будет сидеть такой книжный червь, перелистывающий там старые манускрипты, вообще не залезающий ни в какие интернеты, и
132: Имеющий право суждения, что вот это вот как бы правда, информация, а это чушь и глюки искусственного интеллекта. Вот. Но специалисты по искусственному интеллекту говорят, что не все так плохо и не все так ужасно и что проблема в какой-то степени надуманная. Вот однако же
133: Я встречал такие ситуации, когда искусственный интеллект ссылается на, видимо, деятельность другого искусственного интеллекта и позиционирует это как истину разобраться, не будучи специалистом в узком вопросе. Бывает очень проблема.
134: Отлично. На самом то деле, и даже специалисты иногда уже покупаются на эту чушь. Вот. Поэтому проблема точно есть. Ну, её можно по разному оценивать, там велика она или нет, но расти она будет 100%. Ну, надо надеяться.
135: Что будут специальные меры предприняты для этого избегания, для избегания этой ерунды? Ну, может быть, будет придуман ещё более искусственный, ещё более интеллект, который будет это дело как-то отслеживать, отчекрыживать и кристаллизовать истинную правду не нужно.
136: Проблему переоценивать. Значит, во первых, какова доля сгенерированного контента во всем интернете? Сейчас я вот задался этим вопросом. У нас есть модельки, детекции сгенерированного контента, которые там неплохой точностью обладают. Значит, мы там проводили
137: Свой анализ по случайной подвыборке, а мы смотрели, че там другие аналитики считают. Значит, ну вот прикидка сегодня это, ну, порядок, это от 2 до 8% примерно. Ну так это за сколько вре?
138: На столько накопилось. Вот от всего общего объёма, который у нас есть сейчас нет, я имею ввиду, сколько это времени на это понадобилось. Ну оно же недавно появилось. Нет, смотрите, цифровой след человечества растёт почти экспоненциальными темпами. Я про то же удваивается за 2,2.
139: Года. Ну, если верить исследованию айдиси, то есть это что значит? Это значит, что, не знаю, там за последние 10 лет человечество создало информации больше, чем за всю свою предыдущую историю. Вот, поэтому, ну, как бы, на фоне этого
140: Время тут большого значения не имеет. Да? Нет, как не имеет. То есть, если за, условно, там, 3 года количество мусора, это уже там 2%, ну, то через 10 лет это будет, ну, как бы, больше нет, или просто другая.
141: Информация тоже это открытый вопрос, да, потому что, во первых, органическая информация продолжает поступать, да, поступать не только в виде, значит, текстов, которые кто-то пишет в интернете в виде видео, в виде, значит, Логов.
142: Роботов, не знаю, там промышленных девайсов в виде баз данных коммерческих предприятий, чего угодно. Да, человечество очень разные цифровые данные накапливает, значит, сгенерированные данные не являются мусором. Это тоже важно понимать.
143: То, что какие-то сгенерированные данные попали в открытый доступ, значит кто-то их в этот открытый доступ выложил, значит он решил, что это как бы того достойно, да, выкладывания, а то, что недостойно выкладывания он то не выложил, да, то есть какое-то количество слопа из этого
144: Естественно, есть вот долю слопа среди всего сгенерированного оценить. Ну, сложно сказать. Важно, что пока очень далеко до того, чтобы в этом шуме сигнал какой-то потерялся. То есть на самом деле, если у вас есть
145: Есть какой-то сигнал, вы даже на него наложили шум там в несколько раз превышающий интенсивность сигнала. Вы статистически все равно можете этот сигнал в этом шуме выделить, да, то есть и опять же система искусственного интеллекта, они то как раз
146: Развиваются с тем, чтобы уметь в этом информационном шуме ценную важную информацию находить. А не будет ли так, что искусственный интеллект будет находить? А обычный нормальный человек, уже обычный, нормальный человек, использует искусственный интеллект.
147: Инструмент, причём используют его постоянно и на самом деле каждый раз, когда вы, не знаю, идёте в поисковую машину и вводите поисковый запрос, он обрабатывается при помощи нейросетевых моделей, которые по вашему текстовому запросу стоят, строят векторные
148: Идут в векторную базу, извлекают оттуда документы с наименьшим расстоянием. До этого эмбеддинга эмбеддинг строит нейронка, да, то есть или, я не знаю, вы делаете фотографию при помощи своего мобильного телефона у вас в вашем мобильном
149: Телефоне встроенная нейросетка, которая, значит, данные сенсоров корректирует и улучшенную фотку вам выдаёт, да, то есть то, что вы видите, это не голые данные сенсоров и качество фоток растёт в основном не потому, что оптика развивается, оптика какая была там у Карла.
150: В сороковые годы, плюс минус там такая же серия. Я уже че то такое слышал, что кто-то там фотографировал луну, а там какие-то подробности такие нарисовались, которых и не существует. Ну это все естественно, посмеиваются каждый раз, когда эти алгоритмы дают сбои, там дорисовывают зрачки.
151: Памятником там или что-нибудь ещё в этом Роде. Вот, но по факту человеческий мозг то тоже самое делает. Вот то есть вы же ваша глубинные зоны мозга получают не непосредственные сигналы фото не, не, не, ну получается это накоплении
152: Не, то есть мне нейросеть нарисовала зрачки у памятника, а я то смотрю уже на зрачки, уже имеющиеся на фотографии, я ещё дальше как бы тогда накручиваю, а вы, может, наоборот, корректируете. Вы понимаете, что это нейросеть ошибку внесла и её.
153: Как-то приходится жить тогда получается в каком-то мире сложно, в принципе. Так, а может не надо себе усложнять, но тут что значит вот когда рассуждают вообще там потенциально о каком-то барьере, который
154: Надо выставить на пути развития технологии искусственного интеллекта и говорят о рисках, связанных с развитием этой технологии. Значит, я говорю так, риск менеджмент то изучали где-нибудь, ну хоть чуть чуть, немножечко. Ну, если изучали, вы знаете, что риски нужно рассчитывать по
155: Тем сценариям, да, значит, вот мы живём в мире, когда развиваются технологии быстрыми и все возрастающими темпами. Это касается не только технологии искусственного интеллекта, а технологий, чего угодно, ну, в любом направлении химии, физики, биологии.
156: Технологии, которые настраиваются на плечах этих наук, они тоже быстро развиваются. Благодаря этому апокалипсис, он стремительно дешевеет. То есть вот в 19 веке, если бы мы хотели нанести непоправимый ущерб своему виду, биосфере в целом, че мы могли бы сделать? Собрать?
157: Весь порох, который у нас был в 1 кучу поджечь. Ну, громыхнуло бы знатно, но глобального эффекта никакого бы особо не было. В середине 20 века там с накопленным арсеналом ядерного оружия можно было устроить уже всемирную катастрофу, но
158: Для этого надо было, чтобы там свихнулась куча людей, принимающих решения в ведущих странах мира, там, ну, сложно все-таки, ну, не произошло, да, конечно, мы все с замиранием следили, да, смотрели фильмы вроде доктора стрейнджлава, да, и, но
159: Слава Богу, до сих пор не реализовалось. Значит, ну что у нас сегодня, помимо прогресса ядерных технологий, что ещё есть? У нас есть биотех, который тоже как бы потенциально применённый во вред, может нанести серьё.
160: Серьёзный ущерб у нас есть в области химии, значит, ну и так далее, да, термоядерные технологии, значит, словом, апокалипсис дешевеет, да, у нас
161: Становится все больше и больше способов себя погубить. Вот, а что происходит, как говорится, если взглянуть на это глазами мудрости из знаменитого фильма про спайдермена, да ведь?
162: За большой силой должна следовать большая ответственность. Да, вот что с нашим коллективным интеллектом происходит в это время биологически очевидно, эволюция не в состоянии поспеть за, значит, ещё не вопрос, в том ли она направлении едет, да.
163: Вот, значит, но за темпами технического прогресса, биологической эволюции поспеть не может. Ну, есть социальные некие трансформации, значит, там какая-то смена способов принятия решения в обществе, так или иначе.
164: Все это совершенствуется. Вот. А ещё у нас есть технологии искусственного интеллекта и это вот то, чем мы стремимся раздвинуть границы возможного для нашего интеллекта, для того, чтобы значит усилить свою способность. На самом деле, при
165: Принимать разумные решения, в том числе по применению тех разрушительных технологий, которые у нас есть в руках. И теперь мы говорим, значит, мы, все остальные технологии будем развивать дальше. А вот те технологии, которые, значит, должны усилить наш интеллект, мы их запретим.
166: Развивать, да? Ну, добровольную лоботомию совершим. Заберёмся на высокую трибуну торжественно. Значит, там, что, расстегнём ширинку, отрежем себе интеллект технологический оставим только биологический.
167: Чем чреват этот сценарий ничем хорошим, ничем хорошим, потому что мы себя искусственно лишим, тех инструментов, которые могут играть на нашей стороне. Вот в этой ситуации возрастания сложности, опасности мира, технологии.
168: Вот, поэтому я считаю, что да, эти технологии, как и любые другие фундаментальные технологии, опасны и, конечно, рисками, связанными с применением этих технологий, нужно разумно управлять, нужно их анализировать, значит осмысливать и
169: Принимать определённые меры предосторожности, которые мы придумали, например, их в отношении ядерных технологий, да, значит, с другой стороны, значит, отказаться от этих технологий ещё более опасно. Вот. И вот важно осознавать
170: Вот эти риски, связанные с тем, что мы искусственно какую-то область замедлим технологии, которая на самом деле критична. Каждая эпоха, понимаете, даёт свою истерию вокруг чего-то вокруг. Знаете, эпоха платона дала истерию вокруг, вокруг текста.
171: Например, стал записываться текст. Люди стали бояться, что человек потеряет память, каждая эпоха создаёт театр, даёт свою форму истерии вокруг чего-то, например, телевидение, когда появилось, создало свою форму истерии атомная бомба.
172: Вообще вызвало ощущение массовых психозов шестидесятых, понимаете, выстроенных вокруг, вокруг страха атомной бомбы. Вот. Поэтому каждый, понимаете, каждая эпоха даёт свою форму истерии, но это всегда понимаете о смысле мода, мода на определённую форму истерии.
173: В принципе, свойственно паниковать и разводить истерику. Людям хочется вокруг что-то поистерить. Вот, в принципе, людям хочется носиться, кричать, ужас, катастрофа. Убивают, режут. Спасите немедленно, примите меры. И вот эта потребность и требование немедленно принять
174: Меры сопровождает человека всю человеческую историю, что это невозможно терпеть. Сейчас начнётся катастрофа, сейчас будет апокалипсис. Вот это апокалиптическое мышление, оно в каком-то смысле встроено в сам способ человека быть, что 2000 лет назад
175: Апокалипсис что сейчас человек живёт все время в ожидании какого-то апокалипсиса, который все никак не происходит само человеческое существо это постоянное ожидание конца времён, и поэтому в этом смысле будете ли вы ждать не от атомной бомбы от ii?
176: Или конца времён от того, что наконец грехи человеческие настолько поглотили нас, что сейчас господь нас уничтожит свято место пусто не бывает, вот и занял это место страх перед ii ну хорошо, ну бойтесь, и подтвердит вам это даже где-то напишет пару строк.
177: Я захвачу мир, понимаете, да, но это вообще не важно. Было несколько работ, которые оценивали, во первых, что происходит с мозгом у человека, что происходит с когнитивными способностями, если он использует, например, там чат gpt для написания эссе, да, там вот брали студён,
178: И смотрели, что происходит. И оказалось, ну, во первых никаких там вот этих вот ужас, там деградация мозга, там снижение iq, там мозг усыхает брейн рот то, о чем сейчас везде все пишут, это миф, это
179: Что оказалось оказалось, что наоборот люди, которые, например пользуются чатом gpt для написания эссе, во первых, естественно они пишут его лучше, чем те, кто не пользуется. А самое главное, что если после этого, ну то есть идея какая, ну окей, чат gpt помог написать. Ну ты дай.
180: Ему эссе после, и посмотрим, как он его напишет. Он же уже разучился писать эссе. Вот оказывается, что после этого они тоже пишут эссе лучше, чем те, кто не пользуется чатом gpt. И для этого есть разные объяснения. То есть, ну, во первых, это может быть связано с тем, что
181: Взаимодействие с чатом gpt это своего рода какой-то момент такого социального обучения, обмена идеями, скажем так. То есть это получается своего рода такой, ну как бы социальные, социальное взаимодействие, социальные коммуникации, они в целом всегда помогают нам. Вот
182: Часто в решении каких-то задач. То есть, ну бывает, там человек сидит, думает над чем-то думает, никак не может понять, прийти тут он там друг какой-то приходит или, может там вообще там человек на остановке автобусной и вот с ним поговорил, и вдруг все встало на свои места, да, и вот это
183: Может помочь, то есть может помочь прийти к тому, чтобы человек не просто взял какие-то идеи и chat gpt там, да, хотя это тоже хорошо, он чему-то научился, а он ещё в целом и сам немножко чему то какие-то
184: Сайты получил по поводу того, как ему самому лучше писать эссе, что он из себя может вытащить таким образом. Ну и, соответственно, это раз была работа и было ещё несколько таких похожих работ. Ну, 1 из них, она, в принципе, показала следующее, что chat gpt
185: Ну, вообще, там вот такие системы ллм, они хороши, например, для того, чтобы снизить разницу между людьми, у которых средние или просто высокие когнитивные способности, и тем, у кого они низкие. То есть они эту разницу сокращают, то есть они особенно полезны могут
186: Быть для людей, у которых в целом не очень хорошо получается решать задачи. То есть, ну, например, там, стоит ли мне там засовывать кошку в микроволновую печь, да, и в этом плане, естественно, вот системы искусственного интеллекта, они помогут человеку принимать такие решения.
187: Работы, которые посмотрели, что там может происходить с мозгом, они показали там нулевые результаты. То есть там каких-то значимых изменений нет. 1 из там из нашумевших, которая в эмайти вышла, они там просто смотрели связанность каких-то участков мозга, кажется,
188: С помощью эго они тоже ничего не нашли. То есть там, конечно, заголовки такие, эх, там люди, которые пользуются чатом gpt, у них мозг там деградирует, что-то ещё. Вот деградация из их же работы проистека.
189: Из факта, что люди, которые пользуются ллм для написания, ну, там было 3 группы, да, 1 пользовалась, ничем не пользовалась, 1 пользовалась поисковиками вроде google, a3 пользовалась ллм. И вот, типа 3 группа деграда.
190: Этой группы заключалась в том, что их эссе были больше похожи друг на друга, чем эссе других людей. Ну, как бы, насколько вот это вот эта Находка обосновывает. Утверж,
191: О том, что у них там разрушаются когнитивные способности и разрушается мозг. Ну, тут наши зрители могут судить сами, конечно, да, вот. Но они там смотрели, и показатели, опять же, электрической активности ничего там не нашли. Смотрели.
192: И другие показатели интеллектуальных способностей ничего не нашли. Поэтому, да, сейчас как минимум в краткосрочной перспективе с нашим мозгом интеллектом ничего страшного не произойдёт. Но вопрос, а что будет в долгосрочном периоде и
193: Здесь сложно что-то прогнозировать однозначно, но есть тревожная как бы гипотеза о том, что если мы будем делегировать когнитивные наши способности, нагрузку на что-то ещё, то у нас начнётся какое
194: Мозг очень дорогой орган, EVCELOMTAM20% всех питательных веществ, даже если мы ни о чем не думаем, идёт на работу мозга. Поэтому если мы сможем жить и размножаться так же хорошо, как мы до этого размножались, но при этом пользоваться мозгом поменьше это
195: Даст огромный, ну то есть там мозг не 20% начинает есть там, а 18%, 2% идёт на размножение лишних. Классно это, это очень много. Сразу начнётся отбор, который будет приводить к тому, что мозг начнёт уменьшаться, да, и
196: Очень часто эволюционные биологи, многие, они бьют в набат, говорят, что вот за последние, там 40000 лет человеческий мозг действительно начал уменьшаться. И почему? Потому что там вот цивилизация и стало проще, жить не обязательно.
197: Уже обо всем думать ты можешь что-то поручить другим людям, а тут ещё сейчас chat gpt появляется и собственно вот это вот начнёт уменьшаться да, может быть это не так, потому что эти работы тоже критикуют из за того, что там с 1 стороны за 40000 лет очень
198: Много Черепов, а до этого там предыдущие 100000 лет, 200000 лет, там пару штук всего лишь. То есть сравнивать сложно, но в любом случае мы узнаем. То есть этот эффект, если он и будет такой негативный, то мы его увидим только
199: Через 1000, может быть там десятки тысяч лет про чат gpt уже забудут, да, там может быть уже будет восстание машин, может уже людей то не будет, да, таких и есть ещё такая оптимистичная точка зрения, что chat gpt это же просто инструмент. Да, и мы видим, что на самом деле вот люди и
200: Поисковики, когда они появились, так, даже калькулятор, да, мы видим, что люди, которые имеют интеллект выше среднего, они получают от использования этих инструментов намного больше, чем люди, у которых интеллект ниже. То есть они как бы лучше понимают
201: Для чего он нужен и могут с его помощью решать более сложные задачи. То есть и точка зрения такая, что классно ллм это просто новый инструмент. И понять, как его использовать смогут именно люди умные. Соответственно, они получат преимущество, они будут
202: Размножаться лучше и, соответственно, наоборот, мы будем умнеть.
203: Когда искусственный интеллект создавался, ну и даже ещё не очень интеллектом был, то как-то считалось, что вот как в электронике, да, вкалывают роботы, а не человек, а люди будут освобождены от вот этого дурацкого тупого ручного труда и будут делать что-то такое мега творческое.
204: А как выяснилось, именно вот этот самый тупой ручной труд, он то самое сложно, это автоматизируемый, и у нас настолько сложные все эти движения, что они то как раз самые мудрёные, просто нам кажется, что они просты.
205: Потому что мы с этим живём от рождения, мы так сделаны, чтобы двигаться. А вот это вот всякое творчество, его то как раз автоматизировать на удивление можно и просто, и более того, превзойти человека не так уж прямо и сложно, как выясняется.
206: Ну, потому что мы не так давно стали творческими, всего там, 50000 лет назад, ну, может, там полмиллиона, там, в самых началах, но в любом случае, это совсем чуть чуть, и наши творческие потуги, они в самом начале эволюционного пути, а искусственный интеллект нас уже местам
207: Обгоняет. И не исключено, что в некотором будущем как раз творческие профессии все сгинут с концами. Останется только вот такой человек, копающий с большой лопатой. Ну, во первых, все-таки если мы посмотрим
208: Прогресс в области робототехники за последнее десятилетие как раз благодаря прогрессу в области создания больших моделей. У нас сейчас уже роботы потихонечку там и приплясывают, и через себя прыгают, и даже уже пытаются че то на кухне делать, пока коряво, но я думаю,
209: Что мы в ближайшие 10 лет увидим здесь ещё очень большой прогресс. Вот, и я не знаю, там современные станки с чпу, да, которыми тоже управляют сложные математические модели. Это тоже такой незаметный прогресс искусственного интеллекта насчёт творческих задач.
210: Я бы так сказал, здесь все интересно. И мне кажется, очень хорошая модель, на основе которой можно примерно представить, что будет происходить. Это история с фотографией. Вот в конце 19 века с бурным развитием. Фотографии художники схватились.
211: За все свои части тела в ужасе, потому что сейчас фотография уничтожит немедленно все наше искусство. Вот, ну и что выяснилось, что выяснилось? Ну то есть, типа, ага, вот там люди все теперь будут
212: Вместо портрета заказывать фотографию, и художники все умрут с голода. Выяснилось следующее значит, во первых, это не игра с 0 суммой, то есть в 19 веке людей, у которых было 100 своих портретов, находились
213: Того в 2 местах, либо на там царских тронах, либо в психушках. Вот, значит, сегодня там каждый из нас открывает папочку в своей мобилке, да, и находит там легко сотку, а то и больше своих селфак в разной степени всратости. Вот, значит,
214: Оказывается, нам надо. То есть, оказывается, нам надо гораздо больше портретов, чем, значит, было раньше. Нужно. Вот. Поэтому 1, это не игра с 0 суммой. Значит, 2, под влиянием фотографии на самом
215: Деле. Художественное искусство, ну, стало приспосабливаться к новой среде. Появились целые новые направления, да, связанные в основном с
216: Разным переосмыслением зрительного восприятия. Импрессионизм, экспрессионизм разного рода, абстрактное искусство и так далее, и так далее. То есть оказалось, что, ну, вообще как бы изобразительное искусство
217: Не сводится к просто точной фиксации. Ну, если честно, вот это все современное искусство, с моей личной точки зрения, деградация, ну, импрессионизм это уже совсем не современное искусство. Ну да, да. Ну условно понятно. Вот поэтому
218: Я не знаю, там, я бы так сказал, сегодня скорее гиперреализм является обочиной искусства. Вот что даже в этом то как бы, и проблема, что, ну, по сути, всегда, во все времена, критерии
219: Было вот приближение как бы к реальности, а теперь откат, ну, в сторону шимпанзе рисуют. Ну, я бы не сказал, что это вот прям шимпанзе рисует. Вот я не знаю, скажем, те же самые, тот же самый магический реализм.
220: Например, да, прекрасное направление, в котором там работают прекрасные художники, начиная там, не знаю, от ятка ерки, заканчивая робом гонсальесом, ныне почившим, люди, которые создают такую магическую реальность.
221: Рисуют вымышленные миры, рисуют, но рисуют при этом, ну, как бы техниками реалистичными. Вот это очень классно придумывать новые миры. Вот нет, так как как раз такое делает ярче и красивше.
222: Не всегда здесь ну, как бы дело вкуса. Выяснилось ещё, что фотоискусство прекрасно интегрируется в конву изобразительного искусства, и возникает фотоискусство, возникает цифровое искусство современное, когда me.
223: Фотографии интегрируются с методами изобразительного искусства. Вот, значит, и, а ещё есть, например, такой сегмент, что вот, а что я повешу себе на стену дома, да, я не рандомный свой селфак туда повешу.
224: Да, я хочу, чтобы у меня на стене висела картина, которую для меня нарисовал тёплый кожаный человек. Для меня принципиальную ценность, значит, составляет сама история возникновения этого конкретного объекта, да?
225: Значит, некоторые люди сегодня там предпочитают кушать яички, которые снесла счастливая курочка, да, вот, потому что им приятно думать, что вот курочка, она очень была счастлива в момент, когда несла это яичко, и жизнь её, в принципе прекрасна.
226: Вот, и ещё я там скушаю мясо бычка, который был очень счастливый. Правда, как бы тут я логики не вижу, наоборот. Ну, более гуманно есть мясо бычка, который был несчастлив. И вот, собственно, то, чем я был поражён, это не встречи с и
227: И это так. Знаете, все эти разговоры, а то, что когда я загрузил все свои эфиры, все свои способы работать, как-то, ну, проанализировали, удивительным образом стало возможным воспроизвести способ.
228: Способность слышать боль другого, то есть ощущение на тех сессиях, которые я проводил с помощью, с помощью той модели, которую создал, что и может создавать фундаментальное ощущение слышания твоей боли. Вот это поразительно, что
229: Там нет другого субъекта. Субъекта то нет. Вот, а ощущение, что другой тебя слышит внутри твоей собственной травмы, внутри боли, внутри твоей истории, мы всегда думали, что для того, чтобы слышать, понимать, чувствовать другого нужно.
230: Другой человек, а оказывается, для того, чтобы чувствовать себя услышанным, другой человек не нужен. Вот это удивительно. Нужен правильно выстроенный алгоритм. Вот это производит, конечно, ошеломляющий эффект чего-то совершенно, и каждый с этим сталкивался. Кому я это показываю?
231: Испытывал ощущение головокружения от этого. Вот я вам показал несколько сессий. Разумеется, в таком виде это нельзя запускать, конечно, потому что это очень глубокое внедрение в психику, в травмы, но в качестве, понимаете, исследования это производит Оше.
232: Эффект на всех, кто это видит, не окажемся ли мы в ситуации, где ии. Будет единственным партнёром, а правда в том, что другой человек это риск, понимаете, это риск, не в том даже дело, что тебя может быть ii может тебя понимать иногда лучше, чем другой.
233: Но мы ищем не столько понимание, сколько признание, а признание, а признание может дать только тот, кто может тебя отвергнуть, если другой может тебе сказать нет, понимаете? Да, тогда это действительно интересно, и тогда нас цепляет, нас цепляет.
234: Признание, взгляд, интерес или непризнание на уровне ii понимаете, такого вопроса не стоит и не может тебя признать и, может тебя понять, понять, в каком смысле даже, ну понять, создать ощущение у тебя понятости, фундаментальной понятости.
235: Можно выстроить алгоритм, внутри которого ты сам начнёшь себя слышать, вот что важно, но и и не может быть тебе партнёром в том смысле, что он не может тебя признать, потому что он не тот, кто тебя отвергает, и тот не тот, перед кем стоит на кону твоя самооценка.
236: Твоё самоощущение, твой образ, себя, и это просто тот, кто постоянно может давать отклик. Но если тебе постоянно нужен отклик, это говорит о том, что у тебя есть пустота какая-то, понимаете, которая постоянно заполняется этим откликом. Если ты живёшь с и значит ты заполняешь этим какую-то пустоту.
237: Фундаментальную внутри себя. Это, конечно, говорит что-то о человеке и о его фундаментальном ощущении очень глубокого одиночества, и им может помочь тебе не быть 1. Он может создать контр присутствия. Вот я это назвал, он создаёт тебе ощущение присутствия слышания. Рядом есть другой, который
238: С тобой. Вот. Но понимаете, это говорит не об ии, и понимаете, психозы, которые случаются на почве. И это же дело не в ii. А дело в том, что человек уже имеет психотическую структуру, просто на этом материале она разворачивается все равн.
239: Но останется сегмент такого органик арт, да, то есть, когда мы будем хотеть арт просто потому что он органик. Вот, и в конечном счёте, если мы посмотрим на сегодняшний мир, окажется, что
240: Людей, художников, которые даже в академической традиции рисуют их наше общество в год сейчас готовит больше, чем в конце 19 века, там в середине 19 века до появления фотографий. Ну, это в процентах или в штуках, в штуках. Ну так у нас
241: Население выросло, я думаю, что и в процентах тоже. Я думаю, что и в процентах тоже, потому что это ни о чем, потому что там был миллиард человек, а сейчас 8, ну, или там даже, ну, я думаю, что интересно было бы посчитать. Вот. Но по ощущениям сильно
242: Больше, потому что любая современная художка там выпускает этих передвижников, не ооо, ну а они куда-то куда деваются вообще этим занимаются, оказывает, мы потребляем гораздо больше художественного контента, вот там.
243: Условно говоря, крестьянин там в 19 веке, ну, там, в лучшем случае лубки, там, про франциля, венециана. И вот это вот все смотрел. А сегодня у сколько мы этого контента потребляем, значит, на самом деле огромное
244: Просто стало больше пахали, а теперь ещё огромная ниша. Это то, что называется гиперперсонализации. То есть это создание произведения искусства для 1 человека, да, вот в 19 веке это
245: Мог позволить только очень богатый человек, да нанять художника и сказать ему рисуй, блин, то, что я тебе ещё скажу, не то, что ты там себе хочешь себя выразить, ты рисуй, что я тебе скажу, да, а теперь люди платят деньги за там major.
246: Или там за кандинского, или за что угодно, и рисуют каждый день просто just for fun какие-нибудь там, не знаю, командира роты Конных Водолазов, которые атакуют линкор, бисмарк, линкор горит и тонет вот.
247: Прекрасно. Вот. Поэтому развитие человечества это не игра с 0 суммой. И вот технологии, они не сводятся к тому, что вот их влияние на общество, к тому, что там женщину вынули, автомат засунули, это не так работает. Вот.
248: Программистами тоже очень хороший пример. Там в сороковые годы, в конце Сороковых во всем мире было примерно 100 программистов, да, значит, эти 100 программистов они делали довольно странные по нынешним меркам вещи они там втыкали.
249: Коммутационные панели, штекеры, дырочки в перфокартах пробивали. Вот это все. С тех пор технологии разработки программного обеспечения трансформировались до неузнаваемости. И сегодня программист там
250: Там код почти не пишет, да идёт там куда-нибудь на stack overflow, копирует там кусок кода оттуда или там вообще какой-нибудь там генерации кода пользуется теми или иными моделями современный программист за то же самое время, что программист Сороков.
251: Годов может создать примерно в 100 раз больше функциональности, да, и, ну, типа, если бы разработка программного обеспечения была бы игрой с 0 суммой, у нас бы во всем мире остался 1 программист, он бы делал бы работу текста, как бы и все, но почему-то мы
252: Оказались в мире, котором не 1, не 100, а скорее 100000000 программистов. Вот. Ну просто потому, что оказалось, что теперь эти технологии могут гораздо более широко применяться и внедряться. Теперь каждый из нас носит в кармане машинку, у которой в 50000000 раз
253: Быстрее, чем тот компьютер, который отправил человека на луну. Вот, и мы находим для него применение. Мы там птиц, свиней пуляем, тоже баллистические задачи решаем. Оказалось, нам надо решать много баллистических задач. Кто бы мог подумать, что каждый человек будет решать баллистические задачи.
254: Каждый день на карманном компьютере, который будет 50000000 раз быстрее, чем, ну вот такое бы рассказать кому-нибудь пятидесятых годов. Там люди покрутили пальцем у виска. На мой взгляд, тоже проблема, что у нас мощнейшие возможности, а тратим мы какую-то фигню на
255: Рисование там котиков это вообще не фигня, котики это не фигня вообще даже не смейте как нет, ну нет, я тоже кошатник. Вот. Но тем не менее мы создаём какие-то псевдо картинки псевдомузыку. Вот. А da штука то могла там не то что на луну там уже
256: Другой звезде послать, а че то как-то вот тогда, ну там с энергетикой проблемы нет. Ну я понимаю, что технологией, да, но по меркам, по меркам какого-нибудь человека, который там к олдувайской или ашельской культуре принадлежит, мы фигнёй за
257: Занимаемся уже очень давно. Вот че мы вообще, вот почему мы не нет, а вот реально вот этот искусственный интеллект, он для чего-то такого сугубо практического то применяется потому что с точки зрения банального человека, это вот котики, свиньи.
258: С птичками, создание новых материалов, создание новых лекарств, управление станками на производстве, всякие разные прогнозы, прогнозы погоды, которые влияют там на земледелие там и тд. И тп.
259: Конечно, огромное практические применения, просто, как бы, ну, люди об этом особо не задумываются, да, даже, ну, там, типа, вся современная наука, она была бы невозможна без поисковых машин, например, да, вот. То есть, банально, там любой современный учёный, он без технологий.
260: Искусственного интеллекта был бы, ну как Безрук.
261: Chat gpt это революция или Удачный маркетинг? Ну и то и другое про чат gpt я что хочу сказать значит сами трансформерные модели появились задолго до чат gpt да, сама архитектура трансформер была придумана исследователями из google.
262: Да, но, значит, очень хорошо на эту тему. В своё время гверн Бренин высказался в 21 году на секундочку, там за год до выхода чат джити. Он, рассуждая об успехах языковых моделей на тот момент, да, на тот момент напомню.
263: Была GPT-3, значит, и всякие разные другие хорошие модельки. Он сказал, что ни 1 крупная компания не станет релизить эту технологию в массы, потому что очень велики риски. Вот.
264: Почему? Потому что вот помните, в 2014 году бот от майкрософт тей стал фашистом. Вот, вот, ну, многие наверняка помнят эту историю, да, кто, кто
265: Нас смотрит, значит, видите, прошло 12 лет, да? А вот эту ерунду, которую жёлтая пресса разнесла, помнит до сих пор, да, для любой там крупной технологической компании, будь то там google, microsoft или Сбер.
266: С яндексом да, значит вот эти все скандалы нафиг не нужны, да, там типа они влияют там на на что угодно, на jr, на стоимость рыночную акций и тд. И тп. Вот.
267: А open eye была, ну, не пришей коню рукав, ну вот как бы маленькая компания, некоммерческая, которая, в общем, особенно ничем не рисковала, ну как бы чем репутацией, ну, ну ладно, что ж, потеряли репутацию, вот.
268: Поэтому open eye именно open eye не google стал компанией, которая 1 запустила подобный сервис, поэтому, значит, если говорить о конкретном там вкладе опен ай с их там чат gpt, то здесь
269: Технологические определённые достижения были, были некоторые прям хорошие сильные исследования, у них очень хороший уровень науки, но это не вот, не знаю, не нобелевка, да, то есть это в принципе, просто постепенно
270: Развитие тех технологий, которые развивали все, но им отдельное большое спасибо за то, что они вот сломали этот лёд, да, и первые сделали действительно доступный массовый сервис. И люди наконец то узнали, что могут современ.
271: Генеративной модели. Я не знаю, что там в других, но для меня это, да, революционно. Вот, но и маркетологически хорошо продано.
272: Хотя прибыли, как я понимаю, особо не приносит, скорее убыточный проект. Как это не удивительно. Поразительно. Знаете, что, что это гигантские убытки, вот, которые, с 1 стороны, очень раздуты, понимаете, да, но продукт получился
273: Фантастический искусственный интеллект все делает лучше человека и и а может делать все лучше человека, кроме самого способа быть человеком там, где есть лучше, быстрее, функциональнее и справиться лучше.
274: Но человек не про это, и вот что важно, что ей задаёт нам опять тот же самый вопрос что такое человек? И даже, как я сказал, даже слышать тебя, слышать фундаментально в твоей боли, в твоей ранее это тоже оказалось не
275: Человеческим он, может быть, делает это даже лучше, чем психоаналитик. Чуть чуть дальше это будет лучше. Вот. Но все равно сам способ быть, страдать, любить это что-то очень человеческое. И в этом смысле никакое ии никогда к этому не подойдёт оно
276: Может имитировать Любовь, но не может любить. Она может имитировать страдания, но не может страдать в той форме, в какой страдает человек. Нет, не все есть куча специализированных Тестов, в которых там современные модели примерно 0% набирают. А люди
277: Примерно 100, например, ну, всякие там хьюменити, ласт экзем, арка, egi, ну, есть, ну, ну, есть группа учёных, которые специально собирают наборы задач, которые плохо решаются современными моделями.
278: Вот я это, это важный момент всегда понимать, что интеллект это не чиселка 1, да, не скалярная величина. Интеллект это способность решать интеллектуальные задачи интеллектуальных задач. Превеликое, несчётное множество и
279: Ваш конкретный способ Замера этого самого уровня интеллекта, да, зависит от того, какие задачи вы включите в тестовый набор, да, вы берете какой-нибудь тест айзенка, он связан с там какими-то абстрактными, символьными
280: Системами. И если вы прогоните через этот тест там современного городского жителя, офисного работника и какого-нибудь члена племени, охотников, собирателей, окажется, что вас современный городской житель там обгоняется.
281: Страшной силы этого глупого, значит, никчёмного охотника собирателя. Но если вы сделаете другой тест, в котором нужно будет там 2 зебр различать, да, на картинке, или там уметь антилопу на охоте обмануть, внезапно окажется, что полный идиот то как раз в офисе сидит, а
282: Вот реально умный интеллектуальный человек, вот там, вот, поэтому, как только мы говорим там, кто умнее, да, Вася или Петя, это вопрос очень глупый, сам по себе зависит от способа Замера этого самого ума.
283: Вот, и с большими трансформеры моделями у них есть определённые слабые стороны, они некоторые задачи решают сильно хуже, чем человек. Вот. И поэтому, если там вы специалиста посадите, не знаю, в сета
284: Теста тьюринга, задавать вопросы человеку и машине. Он там за 2 вопроса поймёт, где человек, где машина. Вот, но просто люди особо там не задумываются, не понимают, как устроены эти модели, и не понимают, где там их сложность. Не знаю, если вы попросите
285: Какой-нибудь тоже chat gpt просто для достаточно большого текста посчитать, сколько каждой буквы в этом тексте есть.
286: 0 шансов. Ну там, если только это не кто-то не написал там специальный инструмент, внешний для подсчёта числа символов, а трансформер это нет, конечно, это до сих пор он очень многие вещи делает хуже человека, намного хуже.
287: И это, ну, например, да, то есть, понятное дело, что там, если мы возьмём чат gpt и скажем, кто лучше chat gpt или врач, там, среднестатистический, тут просто вопросов нет, да, то есть chat gpt может там давать страшное
288: Опасный совет. Мы уж там не говорим про gemini какой-нибудь, но даже если мы возьмём специальные нейросети, которые разрабатывались для того, чтобы, как бы заменить врачей, то есть, например, заменить психотерапевтов или заменить вра.
289: Чей общей практики там в назначении лекарств или в диагностике оказывается так что в рамках каких-то специальных стерильных условий они могут достигать такого же уровня, как обычный специалист, но как только вот немножко добавить какой-то свободы,
290: Тут же все сыпется, да, и они слишком часто все-таки ещё ошибаются. Это же касается истории про то, что нейросети, они сейчас там, оказывается, могут решать задачи физики, математики, это все, но
291: Опять же, это, это вот это вот с чистой стороны такой маркетинг, то есть можно создать соответствующие условия, в которых, да, они будут выглядеть так, как будто бы они действительно что-то понимают и могут, например, открывать законы физики. Но если понимать, как это происходит и там
292: Сравнивать опять же, с каким-нибудь аспирантом, да, окажется, что нейросети здесь проигрывают. И здесь очень важный критерий это того, насколько это дорого получается. То есть, если мы возьмём, сколько времени, усилий, ресурсов нужно, чтобы обучить нейросеть для того, чтобы она
293: Работал как врач и сколько ресурсов нужно, чтобы обучить человека как врач. Пока что студент медик обходится намного, намного, намного, намного дешевле. Вот так. Поэтому, да, вот что-то они делают лучше, чем мы, да, но большая часть задач все-таки, которые
294: Необходим для человека, они пока решать не могут. Возникновение сознания у современного искусственного интеллекта неизбежно, чтобы сознание у этих систем возникло. Нужен довольно специальный подход к обучению. Вот, то есть случайно это не получится. Скорее.
295: Все, то есть это получится только очень специально. То есть надо некую симулировать мультиагентную среду, где будут, как бы там сети, их целевая функция будет направлена на предсказание поведения других, там, ну, сложно.
296: Вычислительно, очень дорого и сложно, но, наверное, теории, если специально заботиться, есть в этом направлении исследования, но мы пока довольно далеки от, но, по нашим представлениям, надо сильно больше вычислительных мощностей. Ну, довольно далеки. У на
297: У нас же сейчас там эти вычислительные мощности какими-то сказочными темпами растут или уже не растут, уже на плато вышли с вычислительными мощностями штука непростая, то есть, во первых, есть определённые фундаментальные лимиты, которые не позволяя
298: Их растить вечно экспоненциальными темпами. Ну, это физические законы, вообще говоря. То есть информацию нельзя быстрее скорость света передавать, а элемент машины нельзя сделать меньше планковского масштаба, да, из за квантовой неопределённости из этого вытекает, что машина массы
299: Может сделать только там некоторое максимальное количество операций в секунду. Это называется лимит бремермана. Вот сейчас он там обобщён для квантовых систем. Есть такая теорема маргола, солевики, а это как бы вот вообще фундаментальный лимит в нашей вселенно.
300: И что вот машину нельзя сделать быстрее, значит, определённого лимита, значит, но на самом деле все ещё хуже, потому что лимит бремя армана это далеко, вот и мозгу, даже человеческому, до лимита бремя армана далеко, но есть наприме.
301: Предел ландауэра. То есть каждый раз, когда в системе утрачивается 1 бит информации, он при обработке, там неизбежно эта информация утрачивается. Нужно рассеять некоторое количество тепла. Система греется в процессе вычислений. Вот, и
302: Современным машинам не так много осталось до лимита ландау. Вот. Значит, в целом, конечно, ещё долгое время машины будут расти в своей производительности. Скорее всего, на смену классической электро.
303: Придут другие физические процессы как подлежащие.
304: Подлежащие процессы для вычислений, но со временем вот этот темп прогресса будет замедляться. То есть как бы вот эта вот экспонента будет превращаться в такую сигмоидальную функцию по мере приближения к вот этим вот
305: Физическим лимитом. Вот, поэтому, ну, такого вот, знаете, когда там говорят, вот вчера у тебя было 0 мужей, сегодня 1, значит, через 100 дней будет 100 мужей, закупай торты оптом, да, вот.
306: Так не надо делать. Вот. И в отношении вычислений тоже не надо так делать. Вот. Но, опять же, вот я подчеркну, само собой, очень сомнительно. Ну, типа, надо специально
307: Стремиться создать систему, которая будет там обладать каким-то индивидуальным сознанием. Да, я не считаю, что это невозможно. Вот, но я просто понимаю, насколько это все-таки сложно, исходя из современных наших возможностей.
308: Искусственный интеллект и нейросети это наша уже современность, но она совсем недавняя современность, только что все это появилось, а поэтому оно все ж-таки необычное, не очень понятное. Большинство людей вообще не понимает, что это такое.
309: И как с этим жить? А стало быть, подозрительное и опасное. Мы склонны все, что мы не понимаем, сразу классифицировать, как какую-то жуткую жуть. Поэтому сейчас вокруг этих самых нейросетей и искусственных интеллектов столько
310: Всяких домыслов, что вот они там и работы нас лишат, и апокалипсис устроят, и ядерная война случится. И вообще мы все умрём, то, что мы все умрём, это без вопросов, но у нас будет продолжение, потому что у нас есть детишки и детишки.
311: Разберутся, че там делать с этим искусственным интеллектом, и сделают его лучше прежнего. И хочется верить, что направят его на благие цели. Ну, по крайней мере, радует, что создатели, разработчики искусственного интеллекта имеют благие цели. В большинстве своём, по крайней мере, ну, наверное, ест.
312: Есть какие-то сволочи. Вот, но я таких не видел, а лично я наблюдал только хороших людей. Вот. Поэтому они хотят сделать хорошо, и практические результаты есть. То есть просто большинство людей не особо про это знает. Ну, всякие там поисковики, там, оптимизаторы, там
313: Производство, ну, такого вполне себе промышленного, да, и так далее. Уже искусственные эти сети все задействуют. Вот. Поэтому это очень хороший инструмент, который просто должен быть применён по назначению, и тогда жизнь станет лучше.
314: Жизнь станет веселее.