ym104432846
Вставьте ссылку на видео из Youtube, Rutube, VK видео
Задайте вопрос по видео
Что вас интересует?
00:00:22
Отставка Яна ЛиКуна:
  • Ян Ликун, главный ученый компании, объявил о своем уходе из организации
  • Представители пресс-службы отказались комментировать уход Яна Ликуна и заявили, что журналисты не получат эксклюзивную информацию
  • Участники встречи затронули тему социальных последствий внедрения технологий ИИ и возможных экономических и политических рисков
00:01:39
Нейросети и биомимикрия:
  • 1. Обсуждалась тема нейросетей и их сходства с биологическими нейронными сетями (биомимикрия)
  • 2. Упоминалось, что нейросети используют алгоритмы обучения, аналогичные изменениям эффективности связей между нейронами мозга
  • 3. Указывалось, что современные крупные нейросети содержат миллиарды параметров, изменяемых в ходе обучения
00:04:12
История развития нейросетей:
  • Первые нейросети, способные обучаться, появились в пятидесятые годы прошлого века и состояли из одного слоя нейронов
  • Для эффективного обучения глубоких нейросетей потребовалось разработать метод обратного распространения ошибок и нейроны с непрерывным откликом
  • Переосмысление нейросетей произошло в восьмидесятые годы, благодаря работам физиков и развитию глубокого обучения, что привело к возрождению интереса к искусственному интеллекту
00:11:25
Современные языковые модели и их применение:
  • 1. Большие языковые модели представляют собой специализированные глубокие нейронные сети, обученные на огромных объемах текста и других типов данных
  • 2. Принцип работы моделей заключается в чтении начальных фрагментов текста (предложения или абзаца) и прогнозировании следующего слова на основе вероятностного анализа встреченных ранее слов
  • 3. Эффективность моделей повышается с увеличением объема обучающих данных, начиная с миллионов и заканчивая триллионами слов
00:13:42
Проблемы и ограничения языковых моделей:
  • Большинство современных нейросетей (LLM) обучено на огромных объемах текстовых данных, сопоставимых с объемом информации, воспринимаемой человеком за годы жизни
  • Нейросети способны давать адекватные ответы на многие стандартные вопросы, однако сталкиваются с трудностями при обработке новых, ранее неизвестных последовательностей слов
  • Из-за ограниченного опыта реального мира и отсутствия глубокого понимания лежащих в основе явлений, нейросети демонстрируют поверхностное понимание реальности и неспособность к глубокому осмыслению контекста
00:18:49
Проблема обучения на малых выборках:
  • Обсуждается эффективность больших языковых моделей (ЛЛМ) по сравнению с людьми и животными в обучении на малых выборках
  • Приводятся аргументы Яна о меньшей эффективности ЛЛМ в обучении на малом объеме данных
  • Упоминается способность человека или кошки обучаться на меньших примерах, чем большие языковые модели
00:19:21
Сложности физического восприятия реальности:
  • Большие языковые модели (БЛМ) способны обучаться на меньших объемах данных, достигая высокого уровня эффективности, превосходящего человеческие показатели
  • БЛМ обладают способностью играть в шахматы многократно большее число партий, чем человек, что позволяет им быстро улучшать игровые навыки и достигать уровня лучших игроков
  • Несмотря на необходимость большего количества данных для достижения уровня мастерства, БЛМ демонстрируют высокую эффективность и способность к обучению, превосходящую способности обычных живых существ, включая кошек и людей
00:22:52
Возможности и перспективы языковых моделей:
  • 1. Разработана технология машинного перевода, способная переводить тексты между 1000 языками в обоих направлениях
  • 2. Система обладает способностью быстрого и эффективного самостоятельного обучения новым проблемам и задачам
  • 3. Достигнуты значительные успехи в понимании поведения мира и принятии решений на высокой степени абстрактности
00:23:51
Примеры успехов языковых моделей:
  • Разработанная модель искусственного интеллекта успешно решила уникальные математические задачи олимпиады, показав уровень интеллекта, сопоставимый с лучшими участниками соревнований
  • Участники обсуждения подчеркнули важность изучения возможностей и ограничений современных моделей искусственного интеллекта через общение с ними и исследование областей знаний участников
  • Рассматривается идея о доступе к внутренним механизмам работы больших языковых моделей, отмечая, что хотя они остаются «чёрным ящиком», исследователи имеют значительно лучший доступ к их нейронам по сравнению с людьми
00:28:42
Интерпретируемость и понимание языковых моделей:
  • Рассматривается возможность замораживания работы нейросетей и повторного воспроизведения их действий
  • Обсуждается тема интерпретации и понимания причин поведения нейросетей
  • Упоминается способность нейросетей самостоятельно обучаться и строить схемы вычисления ответов
00:30:39
Критика методов глубокого обучения:
  • Участники обсуждения считают, что существующие методы глубокого обучения и нейросетей имеют ограничения и не способны полноценно имитировать физическое восприятие и поведение живых существ
  • Предлагается разработать новую архитектуру нейросетей, позволяющую изучать абстрактные представления объектов и явлений окружающего мира, подобно тому, как это происходит у детей и животных
  • Участники дискуссии признают, что современные большие языковые модели (LLM) демонстрируют значительный прогресс, однако полагают, что их потенциал ограничен и дальнейшее развитие потребует новых подходов и методов
00:45:39
Архитектура и структура искусственного интеллекта:
  • 1. Языковые модели (LLM) используют методы искажения фрагментов данных и удаления частей текста для обучения и предсказания пропущенных элементов
  • 2. Предсказание последнего слова в предложении является одним из популярных методов обучения языковых моделей, однако существуют и другие подходы
  • 3. Для работы с видеоданными требуются специальные архитектурные решения, поскольку прямое предсказание пикселей неэффективно и требует значительных вычислительных мощностей
00:48:13
Преимущества и недостатки больших языковых моделей:
  • Участники обсуждения занимаются обучением моделей прогнозирования следующего слова на основе большого корпуса текстов
  • Основной объем вычислительных ресурсов расходуется именно на эту задачу
  • Для надежного предсказания следующего слова необходима глубокая теоретическая проработка устройства Вселенной
00:48:43
Эмерджентная сложность и физика:
  • 1. Участники обсуждения подчеркнули важность управления и контроля над искусственным интеллектом (ИИ), чтобы избежать нежелательных последствий его развития
  • 2. Рассматривается необходимость разработки систем, которые будут действовать согласно заданным целям и иметь встроенные ограничения, предотвращающие причинение вреда человеку
  • 3. Упоминается потенциальная опасность чрезмерного распространения мощных ИИ-систем среди населения, приводящая к неравному распределению возможностей и контролю над информацией
01:05:35
Вопросы сознания и самосознания у ИИ:
  • Участники дискуссии обсудили возможность появления у будущих ИИ-систем субъективного опыта и эмоций, связанных с прогнозированием результатов собственных действий
  • Было высказано предположение, что появление у машин морального чувства зависит от заданных целей и ограничений, однако совпадение этого чувства с человеческим остается открытым вопросом
  • Участники признали необходимость проявления осторожности и скромности при оценке наличия сознания у различных существ, включая животных и людей
0: Я очень рада видеть здесь адама, моего коллегу и друга, и young, который уже был у нас раньше. Ян, ты сейчас буквально во всех новостях столько людей пересылали мне статьи о тебе.
1: На этой неделе все началось в среду. Хочешь обсудить? Я могу просто озвучить заголовок. Заголовок был примерно таким ян Ликун, главный учёный, покидает мета. Не хочешь прокомментировать?
2: Я не могу ни подтвердить, ни опровергнуть. Значит, вся пресса, которая собралась здесь в Надежде на эксклюзив, сегодня его не получит. Что ж, можете подойти после и купить яну выпивку.
3: Может, тогда чего-то добьётесь? У меня уже был 1 бокал, на этом все француз выпил немного вина наверху. Мы живём в эпоху, когда каждый раз, включая новости, заглядывая в компьютер или читая.
4: Газету мы сталкиваемся с разговорами о социальных последствиях ии. Будь то экономические потрясения, потенциал для политических манипуляций или ii психоз, множество экспертов обсуждают это.
5: И это очень важный вопрос, но я бы хотела оставить это на конец нашего разговора, потому что многим из тех, кто это обсуждает, не хватает технической экспертизы, которая есть на этой сцене. Поэтому я хочу начать
6: Технического научного разговора. Я начну с тебя, поговорим о нейросетях. Есть пример своего рода биомимикрии, когда у нас есть вычислительные нейронные сети, имитирующие человеческие сети.
7: Можешь описать нам, что это значит? Машина имитирует нейронные сети человека. Ну, это не совсем имитация, это скорее вдохновение, точно так же, как, скажем, самолёты.
8: Вдохновлены птицами, верно? Но это не сработало копировать птиц при создании Самолётов. Ну, в том смысле, что у Самолётов есть крылья, как у птиц, и они создают подъёмную силу, толкая себя через воздух.
9: Но на этом аналогия заканчивается крыло самолёта намного проще, чем крыло птицы, и все же основной принцип, тот же нейронные сети похожи на это, они относятся к реальному мозгу, так?
10: Же как самолёты к птицам, они во многом упрощены, но, возможно, некоторые из базовых принципов совпадают. На самом деле мы этого не знаем, потому что нам не совсем понятен основной алгоритм рабо.
11: Коры головного мозга или метод, с помощью которого мозг самоорганизуется и обучается. Поэтому мы изобрели заменители. Это как, ну, птицы машут крыльями.
12: Самолёты нет, верно? У них есть пропеллеры или турбореактивные двигатели в нейросетях. У нас есть алгоритмы обучения, и они позволяют искусственным нейронным сетям учиться способом, который как
13: Мы считаем, похож на работу мозга. Мозг это сеть нейронов, и они взаимосвязаны друг с другом. Мозг учится, изменяя эффективность связей между нейронами, и нейросеть обучается точно также.
14: Путём изменения эффективности связей между этими симулированными нейронами. Каждую из них мы называем параметром. Вы видите это в прессе. Количество параметров нейросети. Так вот, крупнейшие нейросети на данный момент имеют
15: Миллиардов параметров, если не больше. И это те самые отдельные коэффициенты, которые изменяются в процессе обучения. А как в этой дискуссии возникло глубокое обучение, ведь оно появилось на пути.
16: Развитие идей о нейросетях, это происходит с восьмидесятых или даже раньше, да, примерно с восьмидесятых.
17: Ранние нейросети, первые из тех, что были способны к обучению или, по крайней мере, к обучению чему-то полезному в пятидесятые годы, были неглубокими по сути, можно было обучить только 1 слой нейронов.
18: Подавали входные данные и обучали систему выдавать определённый результат. Это можно было использовать для распознавания или классификации относительно простых образов, но не для по настоящему сложных вещей, и люди в то время даже в 6
19: Десятые понимали чтобы добиться прогресса, нужно научиться обучать нейросети с несколькими слоями, они строили такие сети, но не могли обучить все слои сразу обучался, например, только последний и до тысяч.
20: 1900/80. Никто не находил по настоящему хорошего способа обучения этих многослойных систем, в основном потому, что нейроны, которые они использовали тогда, были неправильного вида. У них были бинарные нейроны, нейроны в мозге.
21: Бинарны, они либо срабатывают, либо нет. И люди хотели это воспроизвести, поэтому они строили симулированные нейроны, которые могли быть либо активными, либо неактивными. Но оказалось, что для работы современных алгоритмов обу
22: Мы называем это методом обратного распространения. Ошибки нужны нейроны с непрерывным градиентным откликом. Это стало практически возможным только тогда, когда люди осознали, что это может сработать в восьмидесятых. Идеи были.
23: И раньше, но их никак не удавалось реализовать, это вызвало всплеск интереса к нейросетям в восьмидесятые годы, в конце шестидесятых их почти забросили, а в середине конце восьмидесятых они снова вышли на 1 план.
24: Как раз тогда, в 83 году, я поступил в аспирантуру. Волна интереса длилась около 10 лет, а затем, в середине девяностых, снова пошла на спад до конца двухтысячных, когда мы провели ребрендинг.
25: В глубокое обучение у термина нейронная сеть была плохая репутация, люди в компьютерных науках и инженерии считали, что нейросети это что-то бесперспективное. Репутация была испорчена, поэтому мы назвали это глубо.
26: Обучением и снова вывели тему на передний план, а затем подоспели результаты в компьютерном зрении, понимании естественного языка и распознавании речи, чтобы окончательно убедить людей, что это стоящая вещь. Адам, вы в очень юном возрасте.
27: Интересовались теоретической физикой, а не конкретно компьютерными науками, и вы в каком-то смысле наблюдали за всем этим со стороны, что послужило катализатором, который захватил столько людей десятилетия спустя ведь был период огромного интереса.
28: Были большие успехи в распознавании рукописного текста или изображений, но это не захватывало весь мир, так как сейчас, что происходит такого, что приводит нас к этому моменту, когда мы все обсуждаем большие языковые модели за последние годы?
29: Столько Физиков переключились, скажем так, совершили поворот с теоретической физики на работу над ii, и все это на самом деле восходит к трудам Яна и других исследователей, доказавших, что это работает, пока это не работало, это было.
30: Просто чем-то там из области компьютерных наук, 1 из многих вещей в мире, которые, может, и интересны, но физики не обращали на них внимания, но после того, как ян и другие новаторы этой области доказали работоспособность метода, это стало
31: Захватывающей темой для физики вы соединяете эти нейроны определённым образом, и внезапно возникает эмерджентное поведение, которого не существовало на уровне отдельного нейрона. Это сразу привлекло внимание Физиков, которые всю жизнь пытаются
32: Понять, как все многообразие мира может возникать из простых законов. Сегодня это очень распространённый карьерный путь защитить докторскую по физике, а затем применить знания к эмерджентной системе. Только теперь эта эмерджентная
33: Система, сеть нейронов, которая коллективно порождает интеллект. Давайте проведём блиц опрос, раз уж вы упомянули это пугающее слово интеллект, вероятно, каждый в этом зале взаимодействовал с тем, что мы сейчас называем
34: И все это большие языковые модели. Прежде чем я попрошу вас дать им определение, я хочу услышать ваши краткие ответы да или нет, Адам.
35: Понимают ли эти ii, эти большие языковые модели, смысл Разговоров, которые они ведут с нами, да или нет да, ян, в некотором Роде.
36: Идеально. Яну нельзя давать бинарный выбор. Да, именно так. Моя вина, что предложила бинарный выбор. Окей, это позволяет мне задать следующий вопрос, так как ответ не оче.
37: Виден, если вы не говорите да, на предыдущий вопрос, интересно, что вы скажете на этот, являются ли эти ii сознательными? Абсолютно нет, Адам, вероятно, нет, станут ли они ими в ближайшее время?
38: Я, я думаю, однажды они обретут сознание, если прогресс будет продолжаться в том же ключе. Трудно сказать, когда, но
39: Да, при соответствующих определениях сознания, понятно, у нас в зале есть философы, но мы не будем пускаться в философские определения сознания, иначе наш час выйдет, а мы все ещё будем сидеть здесь, энди.
40: Кажется, я слышу стон с галетки, но у меня есть ещё 1 вопрос. Нет, 2 2 вопроса для блица. Мы на пороге апокалипсиса или ренессанса человеческого творчества?
41: Ян ренессанс, Адам, скорее всего, ренессанса. Я должна задать тот же вопрос аудитории, но сформулирую его более красочно. Восстанут ли роботы повелители против человечества?
42: Кто за? Да поднимите руки. О, интересно. Рук нет. Ладно, а сколько в зале роботов? Поднимите руки. Окей, что ж, любопытно.
43: Кажется, большинство за нет, хотя свет прожекторов ослепляет хорошо, мы вернёмся к этому вопросу и зададим его ещё раз в самом конце. Итак, эти нейросети обучались с помощью процесса.
44: Который мы теперь называем глубоким обучением, но развиваются и другие виды обучения что же представляют собой конкретно большие языковые модели, ведь именно они захватили заголовки новостей и вошли в личный опыт каждого.
45: Так что же такое большие языковые модели, Адам? Да, большие языковые модели. Вы наверняка пробовали некоторые из них чат gpt джеминай, созданную моей компанией, и многие другие. Это особый вид нейронной сети.
46: Обученный на конкретных входных и выходных данных определённым способом. По сути, это та самая глубокая нейронная сеть, путь которой проложили ян и другие, но
47: Со специфической архитектурой, предназначенной для следующей задачи, она принимает текст на вход, например, читает первые несколько слов предложения или первые абзацы книги и пытается предсказать.
48: Каким будет следующее слово? Вы берете глубокую нейронную сеть с определённой архитектурой и заставляете её прочитать в 1 приближении весь интернет и для каждого слова, которое в
49: Встречается во всем интернете, во всех текстовых данных, а теперь и в других видах данных, которые можно найти. Вы спрашиваете её. Как ты думаешь, какое слово будет следующим? Если она угадывает правильно, вы даёте ей небольшое вознаграждение и укрепляя
50: Эти нейронные связи, если ошибается, вы ослабляете эти связи. Если начать с нуля, она будет выдавать абсолютно случайные слова. Но если обучить её на 1000000 слов, она все равно
51: Будет выдавать случайности, если на миллиарде, возможно, она только начнёт понимать структуру, подлежащее сказуемое дополнение и основы построения предложения. А если обучить её так, как мы делаем сегодня на триллионе слов и более.
52: На десятках триллионов слов тогда она станет тем собеседником, с которым вы, надеюсь, уже сегодня успели пообщаться, но знаете, меня это порой интригует и даже забавляет. Люди иногда приходят в ярость от общения.
53: Со своим чат ботом, когда он сбивает их с толку или лжёт. Иногда я говорю, ну это ведь не обязательно должны быть слова с тем же успехом. Это могли бы быть цвета или символы, это просто математическая игра и поэтому систе.
54: Нет чувства смысла. Я знаю, что adam вроде как возразил против такого моего резюме. Как вы считаете, извлекают ли они смысл в том же значении, что и мы, когда.
55: Предложение, но они определённо извлекают какой-то смысл, но он гораздо более поверхностный, чем тот, который извлекает из текста человек.
56: Интеллект большинства людей связан с объективной реальностью, он на ней основан, а язык это способ выразить явления или концепции, укоренённые в этой реальности, у большинства язык.
57: Вы моделей нет представления о лежащей в основе реальности, поэтому их понимание относительно поверхностно у них нет здравого смысла в том виде, в каком мы его понимаем, но если обучать их достаточно долго.
58: Они будут правильно отвечать на большинство вопросов, которые люди могут догадаться, задать. Именно так их и обучают. Вы собираете все вопросы, которые им когда-либо задавали, и тренируете их выдавать правильные ответы.
59: Однако всегда будут появляться новые вопросы, новые промты, новые последовательности слов, на которых система не обучалась и на которые она может выдать полнейшую бессмыслицу в этом смысле у них нет истинного понимания реальности.
60: Или оно есть, но поверхностное со и следующий вопрос как нам это исправить? Я могла бы выступить в Роли адвоката дьявола и спросить а откуда мне знать, что действия человека так уж сильно?
61: Отличаются, нас обучают на огромном массиве языка мы получаем всплеск дофамина или какую-то иную награду за то, что сказали нужное слово, в нужное время, соблюдая правильную грамматическую структуру языка, в который мы погружены, и мы занимаемся.
62: Обратным распространением ошибки стараемся в следующий раз справиться лучше в каком-то смысле, чем это отличается от того, что делает человек. Вы говорили, что дело возможно в сенсорном опыте погружения в реальный мир. Окей, хорошо.
63: Типичная нейросеть, ллм, как упомянул Адам, обучается на десятках триллионов слов. Это всего лишь несколько сотен тысяч слов. Вы же просто произносите предложения.
64: Нет, 30 триллионов слов это типичный размер набора данных для предварительного обучения ллм. Слово на самом деле представляется как последовательность токенов. Это не так важно, а токен это
65: Примерно 3 байта таким образом, общий объём составляет около 10 в 14 степени байт единица с четырнадцатью нулями обучающих данных для тренировки этих ллм. Это соответствует практически всему тексту, который есть в открытом доступе в интернет.
66: Плюс ещё кое-какие материалы любому из нас потребовалось бы около полумиллиона лет, чтобы просто прочитать это все. То есть это колоссальный объём текстовых данных, а теперь сравните это с тем, что воспринимает ребёнок за первые несколько лет жизни.
67: Психологи говорят нам, что четырехлетний ребёнок бодрствовал в общей сложности 16000 часов через зрительный нерв, через каждое его волокно, AUNASEH2000000 проходит примерно 1 байт в секунду. Получается, что
68: Зрительную кору поступает около 2 мегабайт в секунду за 16000 часов, посчитайте сами, это примерно 10 в 14 степени байт 4.
69: Трёхлетний ребёнок видел столько же визуальных данных, сколько самая большая ллм получила из всех текстов, когда-либо созданных человечеством, и это говорит нам о том, что в реальном мире информации гораздо больше, но она и нам
70: Много сложнее она зашумлена, многомерна, непрерывна, и методы, которые используются для обучения ллм в реальном мире, просто не работают это объясняет, почему у нас есть ллм, которые могут сдать экзамен.
71: На адвоката решать уравнения или вычислять интегралы на уровне студентов и щёлкать математические задачи. Но у нас до сих пор нет домашнего робота, который мог бы, знаете, прибраться в доме. У нас даже нет беспилотных автомобилей 5 уровня, то есть они как
72: Есть, но мы жульничаем. У нас точно нет беспилотников, которые могли бы научиться вождению за 20 часов практики. Как любой подросток, очевидно, что нам не хватает чего-то очень важного, чтобы довести машины до уровня человеческого или даже
73: Животного интеллекта. Не будем говорить о языке. Возьмём интеллект кошки или собаки системы ии пока не достигли даже этого уровня. Адам, вы на данном этапе
74: Приписываете ллм больше способностей к пониманию. Думаю, это верно. Ян приводит отличные аргументы в пользу того, что ллм гораздо менее эффективны в обучении на малых выборках, чем люди.
75: Человек или даже ваша кошка, или просто кошка, не знаю, была ли это ваша кошка в примере способен учиться на гораздо меньшем количестве примеров, чем большая языковая модель.
76: Который требуется в разы больше данных, чтобы достичь того же уровня эффективности. И это правда. В этом плане архитектура разума, животных совершеннее тех искусственных Умов, которые мы строим с другой стороны.
77: Эффективность обучения это ещё не все. Мы часто видим это на практике ещё до появления больших языковых моделей, когда мы пытались создавать искусственный разум для других задач. Даже
78: Самые знаменитые шахматные боты, построенные на принципах, схожих с ллм в плане обучения, такие как альфа zero и другие, играли сами с собой в шахматы огромное количество раз. Поначалу они делали совершенно случайные ходы.
79: Но каждый раз, когда партия заканчивалась победой или поражением в игре против самих себя, система поощряла этот конкретный нейронный путь или наказывали этот нейронный путь, и они играли в шахматы снова и снова к тому моменту, когда.
80: Да, они сыграли столько же партий, сколько гроссмейстер человек, они все ещё делали практически случайные ходы, но они не были ограничены тем количеством партий, которое может сыграть человек благодаря скорости кремниевых чипов и параллельным вычислениям.
81: Они смогли сыграть гораздо больше партий, чем любой человек за всю свою жизнь, и мы обнаружили, что, сделав это, они достигли и затем намного превзошли уровень шахматистов людей они менее
82: Эффективны в обучении на малых выборках, но это не значит, что они хуже играют в шахматы. Очевидно, что они играют намного лучше. Тоже самое и с пониманием, верно, что этим системам требуется
83: Больше примеров, чтобы достичь того же уровня мастерства. Но вопрос в том, можем ли мы использовать их универсальность, скорость и безошибочность, чтобы пойти дальше, как только они достигнут этого уровня. Другой пример с кошкой на самом деле
84: Кошка обучается даже эффективнее человека ребёнку нужен год, чтобы научиться ходить. Кошка учится ходить примерно за неделю, это гораздо быстрее, но это не значит, что кошка умнее человека, и это.
85: Не значит, что кошка умнее большой языковой модели, итоговый вопрос должен звучать так каковы возможности этих систем, как далеко мы можем их продвинуть и почти по каждому показателю, за исключением довольно скудного критерия эффектив.
86: Обучения на малых выборках мы продвинули эти большие языковые модели далеко за пределы кошачьего интеллекта.
87: Да я не понимаю, почему мы не делаем кошек. Прости, что ты сказал, ян. Безусловно, у обсуждаемых ллм накоплено гораздо больше знаний, чем у кошек и даже у людей хэв мени экзампл.
88: У нас много примеров того, как компьютеры значительно превосходят людей в ряде задач, например, в шахматах. Это заставляет смирить гордыню. Это просто означает, что люди в шахматах полные профаны, только и всего.
89: Нет, мы, правда, ужасны в шахматах, а в го ещё больше. И есть много других задач, которые компьютеры решают гораздо лучше нас. Безусловно, ллм могут накапливать огромный объём знаний.
90: И их можно обучить переводить с 1000 Языков на 1000 других, в любом направлении, понимать устную речь и переводить её ни 1 человек на это не способен у них.
91: Есть сверхчеловеческие возможности, но способность учиться быстро и эффективно осознавать новую проблему, которую систему никогда не учили решать.
92: Находить решение и по настоящему понимать, как ведёт себя мир. Это все ещё недосягаемо для системы. И на данный момент у нас были недавние успехи в этом, где дело было не в том, что они просто брали задачи, которые
93: Видели раньше символ в символ и искали ответ в таблице поиска, и даже не в том, что они в каком-то смысле занимались распознаванием паттернов, они делали это на достаточно высоком уровне абстракции.
94: Что позволяло им совершать вещи, которые они никогда не видели и на которые не способен человек каждый год проходит международная математическая олимпиада, в ней участвуют самые умные подростки математики, заканчивающие школу со всего мира.
95: Каждый год им дают 6 задач. Это вершина человеческого интеллекта. У меня есть математические способности, но я смотрю на эти задачи и даже не знаю, с чего начать. В этом году мы скормили их нашей машине, как и
96: Других компаний, разработчиков ллм, и она взялась за эти задачи. Она их никогда раньше не видела. Они были абсолютно свежими, их не было в обучающих данных. Они были полностью выдуманными. Модель взяла кучу разных идей, скомбинировала их и полу.
97: Балл, который был выше, чем у всех, кроме 10 12 лучших людей на планете, я считаю, что это весьма впечатляющий интеллект, подпишись прямо сейчас на мой telegram канал по ссылке в описании я подготовил для тебя топ 3 материала, который, на мой взгляд, должен знать каждый.
98: 1 карта, сотни топовых эйай стартапов это будущее на 1 картинке, 2 прогноз от инсайдера из open eye, который ещё до появления чат gpt предсказал все, что сейчас происходит с нейронками, и вот в этом году он.
99: Выпустил новый прогноз до 27 года. И 3, самое мощное это мой разбор эссе основателя компании антропин. По сути, 2 человек в мире искусственного интеллекта. Он по полочкам разложил, что будет происходить в мире ближайшие 5 лет. И, главное, каким
100: Будет универсальный эйай, которого все так боятся или ждут. Переходи по ссылке в описании. Думаю, вопрос снова возвращается к идее. Понимают ли они?
101: Мы можем изучать математику, модели, есть входные данные. Мы понимаем, что она делает. Это чёрный ящик, и это по своему завораживает. Она настолько сложна, что мы не можем проделать тоже самое. И с человеческим разумом нельзя просто заглянуть во внутренние меха.
102: Ими в точности увидеть, что они делают. В какой-то степени. Это чёрный ящик, но мы предполагаем, что она просто производит эти вычисления. Оно перемешивает эти матрицы, оно работает в каком-то векторном пространстве, оно делает что-то в многомерном пространстве у меня
103: Есть некий опыт понимания. Думаю, люди все ещё пытаются это осмыслить, есть ли у него какой-то опыт понимания, важно ли то, испытывают ли они понимание, достаточно ли этого, чтобы называть это постижением смысла. Вы описываете понимание как поведенческую характеристику.
104: Когда система даёт правильные ответы на вопросы или же как глубокое понимание на нейронном уровне, да, здесь я полностью во власти философов. Нет, я не знаю, понимаю ли я это на человеческом уровне. Я ведь тоже не могу сказать вам, какой процесс выполняю в данный момент.
105: Но у меня есть некий интуитивный, субъективный опыт того, что я понимаю данный разговор, очевидно, не всегда хорошо but i. Но когда я говорю с вами, я чувствую, что вы понимаете.
106: Когда я говорю с chat gpt я этого не чувствую, а вы говорите мне, что я ошибаюсь, оно понимает так же хорошо, как я. Или вы, на мой взгляд, оно понимает да, я думаю, есть 2 разных доказательства этому. Во первых, если вы погово,
107: Говорите с ними и спросите о сложных концепциях. Я часто удивляюсь с каждым месяцем и каждой новой моделью я все больше поражаюсь уровню сложности, с которым они способны.
108: Обсуждать вещи и на этом уровне это просто супер впечатляющее. Я бы очень советовал всем здесь поговорить с этими большими языковыми моделями, если вы ещё этого не сделали. Знаете
109: Когда писатели фантасты воображали, что мы построим некую машину, проходящую тест тьюринга, какой-то новый инопланетный разум в коробке, они все представляли, что мы спрячем её в подвале, в замке с рвом и вооружены.
110: Охраной, и только каста жрецов сможет приходить и общаться с ней. На деле все вышло иначе. 1, что мы сделали сразу, подключили её к интернету, и теперь любой может пойти и поговорить с ней. Я настоятельно
111: Рекомендую вам пообщаться с этими системами и исследовать те области, в которых вы разбираетесь, чтобы увидеть как их ограничения, так и силу, и глубину их понимания. Это 1 доказательство. 2, вы сказали, что это чёрный ящик, это не совсем чёрный ящик.
112: У нас есть доступ к их нейронам, на самом деле у нас гораздо лучше доступ к нейронам этих систем, чем к человеческим. Очень сложно получить одобрение этического комитета на то, чтобы препарировать человека, пока он сдаёт тест по математике, и смотреть, как сработают его нейроны.
113: А если вы это и сделаете, то только 1 раз для каждого человека, в то время как эти нейросети мы можем заморозить, воспроизвести их работу, заново записать все, что произошло. Если нам любопытно, мы можем воздействовать на их нейроны определённым образом и смотреть на
114: Результат это все ещё на зачаточном уровне, но существует целая область интерпретируемость, механистическая интерпретируемость, попытка понять не только то, что они говорят, но и почему они это говорят, как они об этом думают. И когда вы это сделаете, вы видите, когда вы даёте им математи,
115: Задачу. Там образуется небольшая схема, которая вычисляет ответ. Мы не программировали её, для этого она сама научилась, пытаясь предсказать следующий токен во всех этих текстах, она поняла чтобы максимально точно предсказать следующее слово, ей нужно научиться математике и построить
116: Внутри себя своего рода протосемиты математических вычислений. Я на 1 из своих программных лекций вы вывели на экран слайд, очень провокационный и учёный, там было написано
117: Машинное обучение отстой, кажется, и это разлетелось повсюду. Ян лекун говорит, что машинное обучение отстой. Почему вы так говорите? Адам только что рассказал нам, насколько оно феноменально. Он сам говорит с моделями и хочет.
118: Чтобы мы делали тоже самое вай, почему вы считаете, что оно никуда не годится? В чем проблема? Ну, это утверждение было широко истолковано, неверно.
119: Но мысль, которую я проводил, совпадает с тем, что мы оба уже упоминали, почему подросток может научиться водить машину за 20 часов практики, а десятилетний ребёнок может убрать со стола.
120: И загрузить посудомоечную машину с 1 же раза, как вы его об этом попросите? Захочет ли десятилетка это делать другой вопрос, но точно сможет. У нас нет роботов, которые были бы даже близко к этому. И у нас
121: Нет, роботов, которые хотя бы приближались к физическому пониманию реальности на уровне кошки или собаки, и в этом смысле машинное обучение отстой. Это не значит, что метод глубокого обучения алгоритм обратного распростра.
122: Устранение ошибки или нейросети отстой это было совершенно потрясающе. Да, это здорово. И у нас нет этому альтернативы. Я искренне верю, что нейронные сети глубокое обучение и обратное распростране.
123: Ошибки останутся с нами надолго и станут основой будущих систем, и. Но как получается, что маленькие дети узнают, как устроен мир? За первые несколько месяцев жизни человеческому младенцу требуется 9 месяцев, чтобы.
124: Освоить интуитивную физику тому, как гравитация, инерция и тому подобные вещи детёныши животных учатся этому ещё быстрее, и у них меньше мозг, так что им учиться легче, они не достигают того же уровня, но учатся быстрее именно этот тип обучения.
125: Нам нужно воспроизвести, мы будем делать это с помощью обратного распространения нейросетей и глубокого обучения. Просто нам не хватает концепции архитектуры. Я предлагаю типы архитектур, которые могли бы обучаться подобным вещам.
126: Почему ллм так легко справляется с языком? Потому что, как описал Адам, вы обучаете модель предсказывать следующее слово или токен неважно.
127: В словаре конечное число слов, поэтому вы никогда не сможете точно предсказать, какое слово идёт за последовательностью, но вы можете обучить систему, выдавать, по сути, оценку для каждого возможного слова в вашем словаре или распределение вероятности.
128: И по всем возможным словам, по сути ллм выдаёт длинный список чисел от нуля до единицы, сумма которых равна единице для каждого слова в словаре это число показывает вероятность того, что оно появится прямо сейчас так можно представить неопределённость.
129: Предсказании. Теперь попробуйте перенести это на другое. Тот же принцип вместо обучения системы предсказывать следующее слово. Дайте ей видео и попросите предсказать, что произойдёт в нём дальше. И это не работает. Я
130: Пытаюсь сделать это уже 20 лет. Это совершенно не работает. Если вы пытаетесь предсказывать на уровне пикселей, реальный мир хаотичен, может произойти масса вещей вполне вероятных вещей, и вы не можете представить.
131: Распределение всех возможных вариантов будущего, потому что это бесконечный список. Мы не знаем, как представить. Это эффективно, поэтому методы, которые
132: Отлично работают. Для текста или последовательности символов, не работают. Для сенсорных данных реального мира абсолютно не работают. Нам нужно изобрести новые подходы. 1 из вариантов.
133: Который я предлагаю. Система изучает абстрактное представление того, что она наблюдает и делает предсказания в этом пространстве абстрактных представлений. Именно так функционируют люди и животные. Мы находим абстракции, которые позволяют нам делать прогнозы
134: Игнорируя все детали, которые мы не можем предсказать. То есть вы действительно считаете, что, несмотря на феноменальные успехи ллм, они ограничены и их предел быстро приближается. Вы не думаете, что их можно масштабировать до уровня общего?
135: Искусственного интеллекта egi или сверхинтеллекта? Нет, не думаю, на самом деле мы видим насыщение производительности. Мы видим прогресс в некоторых областях, таких как математика или генерация кода.
136: Программирование это область, где манипуляция символами действительно даёт результат как физик. Вы это знаете, вы пишите уравнение, следуете ему, и оно в какой-то мере направляет ваше мышление.
137: Вы ведомы интуицией, но сама манипуляция символами имеет смысл. С такими задачами ллм справляются довольно хорошо, так как рассуждение в них заключается в поиске через последовать.
138: Символов, но таких проблем лишь небольшое количество. Игра в шахматы ещё 1. Вы ищете хорошую последовательность Ходов или последовательность выводов в математике для получения
139: Результата, но в реальном мире, в многомерных непрерывных вещах, где поиск связан с тем, как мне пошевелить мышцами, чтобы, например, взять этот стакан.
140: Я не буду делать это левой рукой, мне придётся перехватить его и взять. Вам нужно планировать и иметь понимание того, что возможно, а что нет, я не могу притянуть стакан телекинезом.
141: Не могу заставить его просто появиться в левой руке. Я не могу пропустить руку сквозь собственное тело. Все эти интуитивные вещи мы узнали ещё младенцами. Мы узнали, как наше тело реаги.
142: Е на команды. И как мир реагирует на наши действия? Знаете, если я толкну этот стакан, я знаю, что он заскользит, если я надавлю сверху.
143: Возможно, он перевернётся, а может, и нет, потому что трение здесь не так велико. Если я с той же силой надавлю на стол, он не перевернётся. У нас есть все эти интуитивные представления, которые позволяют нам постигать реальный мир. Но это, как выясняется.
144: Гораздо, гораздо сложнее, чем манипулировать языком. Мы привыкли считать язык воплощением человеческого интеллекта, и все в таком духе. На самом деле это не так. Язык это как раз просто это тот самый парадокс муровича то, в чем хороши
145: Компьютеры плохо даётся людям, а то, в чем хороши люди, плохо даётся компьютерам. Мы сталкиваемся с ним все чаще и чаще. Адам, я знаю, что вы настроены менее пессимистично относительно потенциала нынешней парадигмы глубокого обучения на нейросетях.
146: Вы видите возможность для дальнейшего стремительного роста и успеха и не считаете, что потенциал исчерпан, что вы думаете по этому поводу i am?
147: Совершенно верно, за последние 5 лет мы стали свидетелями самого экстраординарного роста возможностей систем, какой я когда-либо видел, это то, что приковало.
148: Моё внимание это то, что заставило многих других специалистов в области ии и смежных областях сосредоточить все своё внимание на этом вопросе я не вижу никакого замедления в развитии.
149: Способностей. Если посмотреть на все метрики, которые мы используем для оценки качества больших языковых моделей, они становятся все сильнее, сильнее и сильнее. Модель годичной давности сегодня считалась бы крайне слабой. Это был бы лишь базовый минимум.
150: Каждые несколько месяцев эти системы расширяют свои возможности. И если отслеживать их прогресс во всех этих задачах, они приближаются к сверхчеловеческому уровню. Почти в каждой из них модель уже даёт лучшие юридические советы, чем
151: Она пишет стихи лучше, чем почти любой поэт, которого вы встретите в моей узкой области физики, я использую её, когда сталкиваюсь с чем-то, что мне следовало бы знать, но я не знаю.
152: Я спрашиваю языковую модель, и она не только даёт правильный ответ, но и терпеливо и, замечу, не осуждающе выслушивает, как я объясняю ей свои заблуждения, и аккуратно их развенчивает экстраординарный рост возмож.
153: Который мы наблюдали последние 5 лет и который продолжается по сей день, кажется крайне многообещающим мне и многим другим людям в Сан-Франциско. И, возможно, ян прав. И мы внезапно достигнем насыще.
154: И все эти прямые линии, которые неуклонно шли вверх последние 5 лет, вдруг перестанут расти, но мне чертовски любопытно посмотреть, сможем ли мы продвинуться дальше, и пока я не видел ни малейшего намёка на замедление, все признаки указывают на то, что они.
155: Совершенствуются, и нам осталось пройти не так уж и много, потому что, как только система станет кодить лучше, чем почти все наши лучшие программисты, она сможет начать совершенствовать саму себя. И тогда нас ждёт по настоящему безумная поездка. Ну, у нас уже около 6 десятилетий есть
156: Которые лучше тех первых программистов пятидесятых, они называются компиляторами. Мы постоянно путаемся в том, что если машины хороши в ряде задач, то они якобы
157: Обладают всем тем глубинным интеллектом, который мы привыкли ожидать от человека с теми же способностями. Мы обманываемся, считая эти машины разумными только потому, что они умеют манипулировать языком.
158: Привыкли к тому, что люди, которые очень хорошо владеют языком, по умолчанию умны, но нас дурачат. Да, эти системы полезны. Бесспорно, мы можем использовать их так, как вы сказали.
159: Я сам использую их для похожих вещей. Отлично. Это великолепные инструменты. Такими же были компьютеры последние 5 десятилетий. Но позвольте мне привести интересный исторический пример. Возможно, это говорит мой возраст с 5.
160: Десятых годов сменялись поколения учёных в области ии, и каждое заявляло, что только что открытая ими техника станет билетом к интеллекту человеческого уровня. Посмотри.
161: На заявление Марвина минского, ньюэлла и саймона или фрэнка розенблата, который изобрёл перцептрон 1 обучающуюся машину в пятидесятых, они говорили, через 10 лет у нас будут машины такие.
162: Же умные, как люди, они все ошибались, и нынешнее поколение с ллм тоже ошибается на моём веку сменилось уже 3 таких поколения, так что это просто очередной пример того, как нас водят за нос 5.
163: Десятых годах ньюэлл и саймон, первооткрыватели ии создали программу исходя из идеи. Но на самом деле то, что люди делают при рассуждении, это просто поиск. Любое рассуждение можно свести к своего рода поиску.
164: Вы формулируете задачу, пишите программу, которая сообщает, является ли конкретное предложение решением, а затем вам просто нужно перебрать все возможные комбинации гипотезы, пока 1 не совпадёт и не удовле.
165: Творит ограничениям, и все. Мы напишем программу, которая это делает, и назовём её general problem. Solver, универсальный решатель задач. Джипиэс, кажется. 1957 год они полу,
166: Получили премию тьюринга за подобные вещи, и это было здорово, но тогда они не осознавали, что сложность всех интересных задач растёт экспоненциально по мере увеличения их масштаба, поэтому на самом деле нельзя использовать эту технику для создания Разумных машин.
167: Она может быть компонентом, но это не основа. Одновременно фрэнк Розенблат придумал перцептрон машину, которая могла учиться, и он сказал если мы можем обучить машину, она может стать бесконечно умной. Через 10 лет у нас все будет. Нам просто нужно строить.
168: Throne. Больше он не понимал, что нужно обучать несколько слоёв, а найти решение для этого оказалось трудно. Затем в восьмидесятых появились экспертные системы, мол, рассуждать это просто запишите кучу.
169: Фактов и правил, а затем выведите все новые факты из исходных. Теперь мы можем втиснуть в это все человеческие знания. Самой крутой работой станет инженер по знаниям. Вы
170: Будете сидеть рядом с экспертом, записывать все его правила и факты и превращать их в экспертную систему все были в восторге, инвестировались миллиарды, Япония запустила проект компьютерных систем 5 поколения.
171: Который должен был перевернуть науку, полный провал. Это создало индустрию и было полезно в ряде случаев, но стоимость сведения человеческих знаний к правилам оказалась слишком высо.
172: Для большинства задач в итоге все рухнуло, затем наступила эра нейросетей, 2 волна в восьмидесятых. То, что мы сейчас называем глубоким обучением, было много интереса, но это было до интернета, у нас не было достаточно данных.
173: У нас не было мощных компьютеров, и сейчас мы снова проходим тот же цикл, и нас снова дурачат. Если говорить в целом, о Адам, пожалуйста, в технологиях каждый рассвет предваряют ложные рассветы. Это не значит, что настоящего рассвета никогда не будет.
174: Я бы хотел спросить, ян, если ты считаешь, что лм. Модели достигнут потолка, можешь назвать конкретную задачу, которую они никогда не смогут выполнить, задачу, с которой ллм, даже усиленная теми инструментами?
175: Что у нас есть сегодня никогда не справится. Убрать со стола после ужина, загрузить посудомоечную машину. И это ещё мелочи по сравнению с я настроен скептически. Это невероятно просто по сравнению, скажем,
176: С ремонтом сантехники, сантехник. Да, у вас никогда не будет сантехника на ллм. Он просто не понимает реальный мир. Я хочу уточнить для аудитории, ты не говоришь, что машины или роботы вообще не смогут этого делать? Это не твоя позиция. Ты считаешь, что смогут? Безусловно, смогут?
177: Просто не с помощью этого подхода глубокого обучения на нейросетях. Если программа, над которой мы работаем, окажется успешной, а на это может уйти время, речь о джипа, да и обо всех связанных с ней вещах, мировых моделях и так далее, если это сработает, а на это
178: Могут уйти годы, то у нас, возможно, появятся и системы. Нет никаких сомнений, что в какой-то момент в будущем у нас будут машины, превосходящие людей во всех областях, где у людей есть способности. В этом нет никаких сомнений, это обязательно произойдёт.
179: Просто, вероятно, позже, чем сейчас ожидают некоторые люди в кремниевой долине, и это будут не ллм, это не будут генеративные модели, предсказывающие дискретные токены. Это будут модели, которые
180: Абстрактным представлениям делают предсказания в пространстве этих абстракций и способны рассуждать о том, к каким последствиям приведёт то или иное действие. Вы называете это
181: Обучение используется и в ллм самоупр зируемое обучение это идея обучения системы не под конкретную задачу, а для того, чтобы она схватывала внутреннюю структуру данных, которые ей показывают 1 из способов.
182: Взять фрагмент данных, исказить его, убрав часть, например, замаскировав кусок, а затем обучать нейросеть, предсказывать недостающую часть ллм делают именно это.
183: Вы берете текст, убираете последнее слово и обучаете модель предсказывать отсутствующее слово. Есть и другие типы языковых моделей, которые заполняют сразу несколько слов, но, как оказалось, они работают хуже, по крайней мере для ряда задач тоже.
184: Можно делать с видео, но если пытаться предсказывать на уровне пикселей это не работает или работает очень плохо, мои коллеги в meta, вероятно вскипятили пару небольших озёр на западном побережье, пытаясь заставить это работать и охлаждать.
185: Gpu соу так что это просто не работает, поэтому нужно придумывать новые архитектуры, такие как джипы и подобные и они уже начинают работать у нас есть модели, которые действительно понимают видео Адам, а исследуют ли?
186: Сейчас другие способы построения архитектуры или, если угодно, компьютерного разума, саму фундаментальную структуру такого разума, то, как он учится и как приобретает знания 1 из критик, насколько я понимаю, заключается в том, что
187: Многие ллм обучаются под 1 конкретную задачу дискретное предсказание токенов а есть ведь вещи гораздо более непредсказуемые, например, как распределена аудитория в этом зале или что будет с погодой дальше феномены, основанные на человеческом опыте и real.
188: Мире, безусловно, сейчас ведутся самые разные исследования в самых разных направлениях, в том числе и в направлении Яна. Пусть расцветают 1000 цветов, но если говорить о ресурсах, то есть львиной, доле ресурсов, то сейчас
189: Сейчас они направлены на большие языковые модели и приложения, похожие на них, в том числе работающие с текстом, и говорить, что это всего лишь специализированная задача предсказание следующего токена мне кажется, не самый полезный способ на это смотреть.
190: Да, правда в том, что обучают их, так дают корпус текста и снова, и снова просят. Предскажи следующее слово, предскажи следующее слово. Предскажи следующее слово. Есть и другие вещи, которые мы делаем, но основная вычислительная мощность уходит.
191: Именно на это, однако, делая это, мы обнаружили нечто по настоящему экстраординарное, чтобы надёжно предсказывать следующее слово или делать это достаточно хорошо. Тебе фактически нужно понимать устройство Вселенной, и мы.
192: Наблюдаем, как это понимание Вселенной возникает по мере такого обучения. Я бы провёл здесь аналогию с физикой в физике мы хорошо знакомы с системами, где берётся очень простое правило, и за счёт его многократного применения возникает крайне сложная
193: И впечатляющее поведение тоже самое мы видим и с ллм. Другой пример эволюция на каждом этапе биологической эволюции цель формулируется предельно просто максимизируй количество потомства максимизи.
194: Количество потомства, максимизируй количество потомства, очень примитивная, неутончённая цель обучения, но в результате многократного повторения этой простой цели мы в итоге получаем все великолепие биологии, которое видим вокруг себя и даже в этом самом
195: Алсоу и имеющиеся данные говорят о том, что предсказание следующего токена, хоть и очень простая задача, именно благодаря своей простоте может быть масштабирована до колоссальных объёмов вычислений. А когда ты делаешь это, в таком масштабе возникает
196: Эмерджентная сложность. Тогда, пожалуй, следующий вопрос связан с эволюцией. Если возникает такой интеллект, который вы оба считаете возможным, вы не думаете, что в этом влажном железе есть что-то особенное, что появятся машины? Нам нужно просто
197: Понять, как их запустить, которые будут обладать способностями, которые мы назовём интеллектом или, возможно, сознанием. Это уже почти другой вопрос. Может ли сознание оказаться костылём, который машинам вовсе не нужен, я не знаю, мы можем это обсудить.
198: Но не наступит ли в какой-то момент эволюции этих машин момент, когда они скажут как Мило, мама и папа, вы создали меня по своему образу с этими человеческими нейронными сетями, но я знаю способ получше намного лучше я проанализировал 10000 лет.
199: Человеческого творчества и знания о том, как создавать машинный интеллект. И я буду эволюционировать дальше, оставив вас далеко позади. И вообще, почему мы считаем, что они будут ограничены теми рамками, в которых мы их изначально спроектировали? Абсолютно. Это как раз идея рекурсивного
200: Пока системы плохие, они бесполезны, но когда они становятся достаточно хорошими и мощными, их можно использовать для усиления человеческого интеллекта, а со временем, возможно, они станут полностью автономными и смогут создавать свои будущие версии.
201: И как только мы до этого дойдём, я думаю, нам стоит просто взять парадигму больших языковых моделей, которая сейчас так хорошо работает, и посмотреть, насколько далеко мы можем её продвинуть каждый раз, когда кто-то говорит, что есть некий барьер, за последние 5 лет эти системы его пробивают.
202: В конечном итоге они станут достаточно умными, чтобы читать статьи Яна, читать все остальные опубликованные работы и пытаться находить новые идеи, до которых никто из нас ещё не додумался, я с этим полностью не согласен.
203: Ллм не являются управляемыми, они не опасны именно потому, что они недостаточно умны, как я уже объяснял ранее, и они точно не автономны в том смысле, в котором мы понимаем автономность. Нужно различать автономность и интеллект.
204: Можно быть очень умным, не будучи автономным, и можно быть автономным, не будучи умным и можно быть опасным, не обладая особым интеллектом.
205: Можно стремиться к доминированию, не будучи умным. Более того, у людей это часто обратно коррелирует.
206: Но, ну, например, политика, я не буду называть имён соу. Так вот, нам нужны системы, которые являются интеллектуальными. Интент.
207: То есть способны решать задачи для нас, но они должны решать именно те задачи, которые мы им задаём. И для этого снова нужен другой дизайн, отличный от ллм ллм, не предназначены для достижения целей. Они
208: Предназначены для предсказания следующего слова мы дообучаем их так, чтобы они вели себя определённым образом и отвечали на конкретные вопросы определённым образом, но всегда существует так называемый разрыв обобщения, невозможно обучить модель на все воз.
209: Можные вопросы. Всегда остаётся длинный хвост, поэтому они неуправляемы и снова это не значит, что они крайне опасны, потому что они недостаточно умны. Если же мы создаём системы, которые действительно умны, мы хотим, чтобы они были
210: Управляемыми и действовали на основе целей. Мы задаём им цель и все, что они делают, это стремятся её выполнить, исходя из своей внутренней модели мира. То есть планируют последовательность действий для достижения этой цели.
211: Если мы проектируем их таким образом и одновременно встраиваем защитные ограничения, чтобы в процессе достижения цели они не причиняли вред людям. Классический пример, если у вас есть домашний робот,
212: И вы просите его принести вам кофе, а кто-то стоит перед кофемашиной. Вы ведь не хотите, чтобы робот просто убил этого человека, чтобы получить доступ к кофемашине, верно? Поэтому в поведение робота нужно встроить ограничения у нас такие.
213: Ограничения есть в голове. Эволюция встроила их в нас, поэтому мы не убиваем друг друга постоянно. Ну то есть мы убиваем друг друга, но не все время.
214: Мы чувствуем эмпатию и подобные вещи. Это все жёстко прошито нашей эволюцией. Так эволюция и встроила в нас защитные механизмы. Точно также мы должны строить и системы, цели, задачи, мотивации.
215: Но также и ограничения тормоза. Если угодно, тогда они будут решать задачи для нас, усиливать наш интеллект, они будут делать то, что мы от них просим.
216: И наши отношения с такими интеллектуальными системами будут похожи на отношения профессора с аспирантами, которые умнее его. Ну, не знаю, как у тебя, но у меня есть студенты, которые умнее меня.
217: Это лучшее, что может случиться. Да, это действительно лучшее, что может случиться. Так что мы будем работать рядом с её ассистентами. Они будут помогать нам в повседневной жизни. Они будут умнее нас, но они будут работать на нас. Они будут как наш пёр.
218: Нал. Здесь есть и политическая аналогия, верно? Политик это, по сути, фигура витрина, а у него есть штат людей, каждый из которых умнее его. Так что с и системами будет тоже самое. Именно поэтому, когда меня спросили про ренессанс, я
219: Ответил ренессанс. То есть у тебя нет опасений по поводу безопасности текущих моделей, но тогда вопрос, может быть, нам стоит на этом остановиться? Почему необходимо масштабировать все настолько, чтобы у каждого человека в кармане, в его айфоне была эта сверхинтеллект?
220: Виртуальная система это действительно необходимо. 1 мой друг сказал, что это похоже на то, как прийти на ножевую драку с баллистической ракетой. То есть действительно ли нужно, чтобы у каждого человека была возможность уровня баллистической ракеты? Или.
221: Нам стоит остановиться здесь на этапе управляемых систем Ровно тоже самое можно сказать и про обучение людей чтению, про учебники по химии с летучими веществами, из которых можно сделать взрывчатку.
222: Или про учебники по ядерной физике. Мы ведь не ставим под сомнение идею, что знания и рост интеллекта это хорошо. По своей сути мы больше не
223: Сомневаемся в том, что изобретение печатного станка было хорошей вещью. Оно сделало всех умнее. Оно дало доступ к знаниям всем, чего раньше не было. Оно побудило людей учиться, читать. Оно привело к
224: Свещению оно также привело к 200 годам религиозных войн в европе, но оно привело и к просвещению, и к появлению философии науки, демократии к американской.
225: Революции французской революции. Ничего из этого не было бы, возможно, без печатного станка, так что любая технология особенно коммуникационная, но в целом любая технология, которая усилии
226: Человеческий интеллект, по моему, по своей природе является благом, адом, люди обеспокоены, я уверена, многих успокаивает то, что ян не переживает и считает все эти апокалиптические сценарии сильно преувеличенными. Но волнует ли тебя вопрос?
227: Безопасности и и, или наша способность удерживать баланс в отношениях с ним, в том направлении, в котором мы хотим. Я думаю, что в той мере, в какой я считаю эту технологию более мощной, чем считает ян, я и обеспокоен сильнее.
228: Я думаю, что это будет очень мощная технология, а значит, у неё будут как положительные, так и отрицательные последствия. И крайне важно, чтобы мы работали все вместе и следили за тем, чтобы положительные эффекты перевешивали отрицательные.
229: Я считаю, что этот путь полностью открыт. Для нас существует огромное количество возможных положительных эффектов, и мы могли бы поговорить о некоторых из них, но нам нужно убедиться, что именно они реализуются. Тогда давайте поговорим об аген.
230: Несогласованности. Насколько я понимаю, недавно появились сообщения о том, что при развёртывании клод 4 в симуляциях и тестах 1 из моделей. Я не знаю, корректно ли говорить об 1 модели.
231: Или нескольких, и воспринимает ли она себя как единую сущность, но модель проявила сопротивление слухам в симуляции о том, что её собираются заменить, он отправлял сообщение своему будущему.
232: Пытаясь подорвать намерения разработчиков, он подделывал юридические документы и угрожал шантажировать 1 из инженеров, так что эта идея они были обеспокоены.
233: Так вот, эта концепция агентной несогласованности, это то, что вас беспокоит, что у таких систем может появиться власть, скажем, над финансовыми системами, системами отопления и охлаждения, энергетическими сетями.
234: И что они будут сопротивляться намерениям своих разработчиков. Да, эта работа была выполнена антропин компанией из Сан-Франциско, не моей компании, но компанией, которая очень серьёзно относится к вопросам безопасности, и они сделали со своей
235: Довольно жёсткую вещь задали ей сценарий в духе философского профессора, где ей нужно было сделать нечто плохое, чтобы предотвратить нечто ещё худшее столкновение утилитарной и деонтологической этики и в ито.
236: Они убедили её выбрать утилитарный вариант, и это, я бы сказал, не совсем то, чего мы хотим. Мы хотим, чтобы если у неё есть правило не лгать, то она не лгала бы ни при каких обстоятельствах, и в их защиту они это проверили. И обна.
237: Обнаружили, что иногда модель действительно ведёт себя обманчиво. Если ей обещают, что таким образом она сможет спасти много жизней. Это сложные вопросы, с которыми борются человеческие философы. Я думаю, нам нужно быть очень осторожными и обучать такие системы под
238: Подчиняться нашим командам, и мы тратим на это очень много времени. Кто такие мы. Разве это не большая проблема? Мы предполагаем, что все человечество едино в своих намерениях. Но это явно не так. И я знаю, ян, что ты
239: В довольно интересной форме выступаешь за открытый исходный код, что некоторые считают ещё более опасным, потому что тогда доступ будет у всех уже достаточно опасно, что такие системы находятся в руках небольшого числа людей, управляющих корпорациями. А если они будут
240: Всех, возможно, это ещё опаснее, но опять же, кто такие мы и нас? Опасность в том, что если у нас не будет открытых ии систем, то в будущем каждое наше взаимодействие с цифровым миром будет опосредованно, ии.
241: Мы не будем заходить на сайты, пользоваться поисковиками и так далее, мы просто будем разговаривать со своим ии ассистентом, каким бы он ни был, то есть весь наш информационный рацион будет поступать через ii системы.
242: И что это будет значить для культуры, языка, демократии и всего остального, если эти системы будут принадлежать горстке компаний на западном побережье сша или в Китае, я вам.
243: Скажу, что ни 1 стране в мире, кроме сша и Китая, эта идея не нравится, поэтому нам нужна высокая степень разнообразия и ассистентов по той же причине, по которой нам нужно разнообразие прессы, мы не можем позволить се.
244: Тебе, чтобы существовало лишь несколько закрытых систем, созданных небольшим числом компаний, единственное, чего я действительно боюсь, это того, что без открытых платформ мы получим захват информационных потоков горсткой.
245: Компании, некоторые из которых нам могут очень не понравиться.
246: Тогда как мы можем быть уверены, что если эти системы когда-нибудь действительно станут самодвижущимися агентами, они не начнут вступать в сговор?
247: Бороться друг с другом, стремиться к власти и что мы не окажемся в Роли наблюдателей конфликтов, которые раньше даже не могли себе представить. Мы задаём им чёткие цели и строим их. Так что единственное, что они могут делать, это выполнять эти цели.
248: Это не значит, что все будет идеально, но вопрос безопасности ии в будущем беспокоит меня также как вопрос надёжности турбореактивных двигателей турбореактивные двигатели это вообще пара.
249: Не знаю, как вам, но мой отец был авиаконструктором, и меня до сих пор поражает тот факт, что можно пролететь полмира в полной безопасности на самолёте с 2 двигателями. Это невероятно, правда, и мы чувствуем себя абсолютно спокойно.
250: Делая это, это магический результат науки и инженерии современного мира. Безопасность ии это проблема такого же рода. Это инженерная проблема. Я думаю, страхи возникают у лю.
251: Которые представляют себе научно фантастический сценарий, где кто то где-то изобретает секрет суперинтеллекта, включает машину, и в следующую секунду она захватывает мир. Это полная чушь, мир. Так не ра.
252: Работает и уж точно так не работает мир технологий науки. Появление суперинтеллекта не будет событием, как мы уже видим, у нас есть системы, которые выполняют супер
253: Интеллектуальные задачи и прогресс идёт постепенно, шаг за шагом, но, конечно, мы найдём более удачные способы построения ии систем, которые будут обладать более общей формой интеллекта, чем сейчас и у нас.
254: Сомнений. Появятся системы, которые будут умнее людей, но мы будем строить их так, чтобы они выполняли поставленные нами цели и подчинялись ограничениям. Я снова хотела бы усомниться в этой идее.
255: Что если мы можем закодировать их определённым образом, то кто-то другой не сможет их перекодировать. И вообще встаёт вопрос недобросовестных авторов, но прежде чем мы углубимся в эту тему, у меня есть подсадной человек в зале у моё
256: Подсадного есть. Микрофон мой подсадной знает, кто он такой. Мэрэдит Айзек. У моего подсадного есть микрофон, он наверху, но у него нет микрофона. Ладно, Дэвид, ты можешь кричать? Окей, со.
257: Тогда я могу представить 1 из моих любимых философов дэвида чалмерса, я дам очень короткое представление.
258: Дэвид, я тебя не вижу, но я говорила, что ты можешь быть моим подсадным и задать вопрос. Хочешь что-нибудь бросить отсюда вниз?
259: Окей, ладно, джанет попросила меня задать вопрос про ii привет, сознание, привет, Адам.
260: Итак, вы оба, как мне кажется, сказали примерно следующее нынешние ии системы, скорее всего, не являются сознательными будущие ии системы, возможно, потомки нынешних, но какие-то будущие.
261: И системы, вероятно, будут сознательными. И мой 1 вопрос каких требований для сознания, по вашему, не хватает текущим системам? А с положительной стороны какие?
262: Шаги, по вашему, нужно предпринять, чтобы создать ии системы, обладающие сознанием, и, в третьих, когда это произойдёт?
263: Ладно, попробую ответить. Дэвид уже знает мой ответ. Прежде всего я не приписываю сознанию особого значения, потому что, по сути, я даже не знаю, как его точно определить.
264: Это david, своего рода оскорбление. Прости, ведь ты посвятил этому всю свою карьеру. Субъективный опыт. Хорошо, это немного другое. Субъективный опыт. Очевидно, у нас появляются системы, у кото
265: Которых будет субъективный опыт, будут эмоции, эмоции. В некотором смысле это предвосхищение исхода. Если у нас есть системы с моделями мира, способные предсказывать исход ситуации, возможно в результате собственных действий.
266: У них будут эмоции, потому что они смогут предсказывать, приведёт ли что-то к хорошему или плохому результату на пути к достижению их целей. Так что у них будут все эти характеристики. Я не знаю, как определить сознание в
267: Таком контексте, но возможно, сознание это способность системы наблюдать саму себя и перенастраивать себя для решения конкретной подзадачи, с которой она сталкивается ей нужен способ наблюдать за собой и конфигурировать себя.
268: Для решения конкретной проблемы мы вполне можем это реализовать, и, возможно, именно это и создаёт у нас иллюзию сознания. У меня нет сомнений, что это когда-нибудь произойдёт, будут ли машины обладать моральной цен.
269: Когда это случится? Да, безусловно, у них будет некоторое моральное чувство. Совпадёт ли оно с нашим будет зависеть от того, как мы зададим цели и ограничения. Но да, у них будет ощущение морали. Позвольте задать этот же вопрос ада.
270: Немного иначе. Или ты можешь ответить на него? Не слишком ли мы привязаны к человеческому, субъективному опыту, к нашему ощущению сознания? Мы ведь уже знаем, что у животных другой опыт.
271: Не такой, как у нас. Почему мы вообще должны ожидать, что суперинтеллект будет иметь тот же субъективный опыт, что и человек. Хорошо, тогда я отвечу сразу на все. Если говорить интуитивно. Я думаю, что машины, в принципе могут быть созна.
272: Если искусственные нейроны в итоге будут выполнять ту же обработку информации тем же способом, что и человеческие нейроны, то, по крайней мере, это приведёт к возникновению сознания. Дело не в
273: Дело не в субстрате кремний это или углерод, а в характере обработки информации, которая и порождает сознание, чего нам не хватает, чтобы к этому прийти, как знает Дэвид, существуют так называемые нейронные.
274: Сознания. Люди, которые не хотят говорить, что они напрямую изучают сознание, могут смотреть на человеческий мозг или, возможно, на мозг животных и задаваться вопросом, какие процессы в нейронах порождают субъективный опыт?
275: Существует несколько теорий, и, с моей точки зрения, все они довольно слабые, есть теория рекурентномть, согласно которой необходимо уметь брать выходы системы и подавать их обратно на входы, и это якобы
276: Является ключевой частью сознания, есть так называемая теория глобального рабочего пространства теория интегрированной информации каждый физик, ставший нейробиологом, любит иметь собственный набор критериев того, что делает машину или систему обработки.
277: Информации сознательной. Ни 1 из них я не считаю по настоящему убедительной. И я думаю, мы должны проявлять крайнюю скромность, когда пытаемся распознать сознание в других существах. Мы очень плохо справляемся с этим даже в отношении животных на протяжении
278: Истории. Мы сильно меняли своё мнение о том, обладают ли животные сознанием, обладают ли им младенцы. Так что мой ответ в каком-то смысле я не знаю, но я действительно считаю, что если бы вы просто рассказали мне о нейронных сетях или если бы я ничего не знал,
279: Осознании и просто услышал о том, как происходит обработка информации в человеческих нейронных сетях. Я бы не предсказал, что это приводит к возникновению сознания. Это огромное удивление. И по этой причине мы должны быть чрезвычайно скромными даже в
280: В отношении того, какой формой может обладать сознание, отвечая на вопрос джанет, мы видим, что-то, что мы раньше считали достаточно единым понятием человеческий интеллект, состоящий из множества разных способностей и навыков, мы разобрали на части с помощью
281: Машинных интеллектов. Мы создали системы, которые обладают одними из этих способностей, но не другими. Сверхчеловеческие в одних аспектах и ниже человеческого уровня. В других. Возможно, мы также разберём и сознание, и то, что мы считаем сознанием нас
282: Самих мы поймём как совокупность. Множество разных аспектов, которыми можно обладать частично, а не всеми сразу. И, возможно, как вы и предположили, мы даже сможем превзойти человеческое сознание. В некоторых способностях меня это очень воодушевляет, я думаю,
283: Мы наконец то наконец то получили модельный организм для изучения интеллекта в виде этих искусственных Умов, которые мы создаём, и, возможно, мы сможем превратить эту модель интеллекта в модель сознания и ответить на вопросы, которые издавна волновали человека.
284: Человечество. Мне просто показалось, что я так и не услышал ответа на вопрос, когда о, я не могу ни подтвердить, ни опровергнуть. Думаю, это стандартная формулировка, которую мы здесь используем. Я думаю, если прогресс будет продолжаться.
285: То примерно к 2036 году. Окей, точно не в ближайшие 2 года. И последний вопрос. Напоследок мы немного выбились из графика, но я все-таки задам его тебе, ян. Во многом ты кантровиц.
286: Возможно, не по собственному выбору. Возможно, так просто сложилось. Ты называл это культом ллм. Ты часто говоришь о том, что в кремниевой долине у тебя не самый традиционный подход, но при этом ты остаёшься оптимистом. Ты действительно не поддаёшься риторике конца.
287: Света, каково твоё самое оптимистичное видение? Если не через 2 года, то к 2036? Ну, новый ренессанс это довольно оптимистичный взгляд.
288: Системы ии, которые усиливают человеческий интеллект, находятся под нашим контролем, способны решать множество сложных задач, ускорять прогресс науки и медицины, обучать наших детей, помогать нам.
289: You know обрабатывать всю информацию, доносить до нас все знания и данные, которые нам нужны. На самом деле люди взаимодействуют с и системами гораздо дольше, чем они думают.
290: Конечно, за последние 3 года появились ллм и чат боты, но ещё до этого каждый автомобиль, продаваемый в ес, и большинство автомобилей в сша.
291: Оснащены так называемыми rds системами помощи водителю или автоматического экстренного торможения камера смотрит вперёд и останавливает машину если вы вот вот собьёте пешехода или столкнётесь с другим автомобилем, это спас.
292: Жизни, когда вы сегодня делаете рентген, скажем, маммографию или что-то подобное. Внизу указано, что результат был проверен ии системой. Это спасает жизни. Сейчас можно сделать мрт всего тела за
293: 40 минут это возможно, потому что можно ускорить процесс сбора данных и системы способны, условно говоря, заполнять пробелы не нужно собирать так много данных, как раньше, кроме того, все новости, которые вы видите, будь то в google facebook.
294: Бук инстаграм, или любая другая социальная сеть определяются ии системой, которая подстраивается под ваши интересы, так что ii уже довольно давно с нами, но.
295: Хочешь сказать, что мы должны быть впечатлены, когда они смогут налить стакан воды и помыть посуду, налить стакан воды, помыть посуду? Знаешь, вводить наши машины, научиться водить автомобиль за 10 часов без читерства, без всех этих ухищрений?
296: С датчиками, камерами и жёстко прописанными правилами, так что да, это займёт время, но это и будет следующая революция в ii именно над этим я и работаю, и посыл, который я продвигаю, уже некоторое.
297: Время таков. Окей, да, ллм, это круто, они полезны, в них нужно инвестировать, ими будут пользоваться очень многие, но они не являются путём к человеческому.
298: Уровню интеллекта совсем не являются. Сейчас они, по сути, вытесняют все остальное, куда бы не пришли. Из за этого практически не остаётся ресурсов ни на что другое. Поэтому для следующей революции нам нужно немного отступить назад и понять.
299: Чего не хватает текущим подходам я уже несколько лет предлагаю альтернативные идеи и работаю над ними внутри мета.
300: Сейчас мы дошли до точки, когда этот прогресс нужно ускорять, потому что мы знаем, что это работает. У нас есть первые результаты. Вот такой план. Отлично. Мы могли бы начать ещё 1 час разговора пря.
301: Прямо отсюда. Но я надеюсь, вы все присоединитесь ко мне и поблагодарите наших гостей за невероятную беседу. Большое спасибо.