0: Ai это новое электричество тут работает ai сотрудник. Обалдеть, я в будущем будущее здесь просто оно неравномерно распределено ой ой ой ой ой ой, нас 36 минут. Этот кусок железа будет вести самое удивительное насколько быстро к этому привыкаешь.
1: В конце, возможно, лакшери самоходный коммунизм. Оххх, мир меняется, и ты меняйся. Это делает нас с тобой живыми.
2: Друзья, перед тем, как начнёте смотреть традиционное напоминание YouTube в России заблокирован, и если у вас есть проблемы с загрузкой, видео, обязательно установите vpn, например, бланк випиэн. Ссылка на него в описании. Ну и что?
3: Это видео было заметнее для как можно большего количества людей. Поставьте, пожалуйста, лайк и оставьте комментарий. Давайте обсудим, как вам выпуск. Спасибо и интересного просмотра. Андрей, мы очень давно хотели
4: Говорить про искусственный интеллект, но хотелось это сделать с человеком, который может рассказывать про это доступно так, чтобы это было понятно. Вот любому человеку, даже тому, кто ещё не пользуется какими-то несложными вещами типа chat gpt. А ещё есть люди, которые
5: Не пользуется чатом gpt. Нам показалось, что нет лучшего кандидата на эту роль, чем ты. Я польщён, поскольку, ну, ты просто умеешь про технологии рассказывать. Доступно, во первых, а во вторых, у тебя сейчас стартап.
6: На стыке медицины и искусственного интеллекта. Если совсем коротко вы разрабатываете лекарства, вы пытаетесь разрабатывать лекарства с помощью искусственного интеллекта, да, до сих пор не до конца верю, что это возможно, что это не шарлатанств.
7: Но очень хочется изучить. Кроме того, в этом году 5 лет с того момента, как мы опубликовали выпуск про кремниевую долину, и ты там 1 из главных героев. Очень хотелось поговорить.
8: Блоком чем про искусственный интеллект, но тем не менее про то, как изменился мир it предпринимательства с тех пор, очевидно, он изменился, изменился немножко да, поэтому сегодня проводим с тобой этот день и общаемся про искусственный
9: Интеллект и про it бизнес вместе с этим искусственным интеллектом супер все, что я люблю от меня будет много стыдных вопросов, будь готов отлично.
10: О, здорово, братишка.
11: Я нажимаю start right.
12: Ой, ой, ой, знаешь, самое удивительное, насколько быстро к этому привыкаешь. Так, смотрите, у меня 1 в жизни поездка.
13: На беспилотнике. Вот тут никого нет. 36 минут нам ехать, нам 36 минут ехать. Нас 36 минут. Этот кусок железа будет вести. Нет, это просто так.
14: Андрей, рассказывай, у тебя когда это было впервые, когда у тебя был 1 раз, 1 раз у меня случился ещё в гугле, я там раньше работал, и, ну, мы тестировали эти беспилотники давным давно. И на таких на тестовых прототипах я поездил, ну, наверное, лет 10 назад.
15: Но вот так, в боевом режиме, в городе это совершенно другое ощущение. Когда ты правда знаешь, что нет никакого инженера, который там чем-то подуправлением, она полностью, правда, автономно едет. Доверяешь ей свою жизнь. Это случилось не так давно.
16: Наверное, полтора года назад, когда они запустили только в городе, а на highway она просто перекрёсток пересекает, и я просто очень необычно, а на highway она выезжает, сейчас уже начинает выезжать.
17: Город постепенно даёт им пермиты на то, чтобы расширяться. То есть они, конечно, прекрасно умеют ездить по хайвеям, но вот технически у них ещё лицензии нет, чтобы за пределами города оперировать все, что происходит там управление без пилота, это же
18: Благодаря. Эй ай да безусловно это прям вейма, это имбари эйай. То есть это ai в теле, то есть на самом деле это самый настоящий ai робот, который вот живёт на улицах нашего города. Я правильно понимаю, что tesla может ездить так же как вэймо?
19: Я бы так не сказал, но обещание Илона маска в том, что сможет. Он продолжает убеждать всех, что камеры достаточно для того, чтобы создать полностью безопасный самоходный автомобиль. Но пока ты просто можешь сесть и часть пути проехать.
20: Ты можешь проехать весь путь, ты должен продолжать сидеть за рулём, но вот сейчас, уже в Остине, буквально неделю назад, появились первые полностью автоматические робо такси на базе обычных тёсел, которые без лайда ов, без этих всех дополнительных.
21: Только видеокамерами вроде как полностью беспилотно управляет они уже попали в какие-то аварии, то есть большая скептика в индустрии, что этого достаточно, но point Илона маска в том, что если человек с 2 глазами может управлять машиной, то и я должен.
22: Что, в общем то, правда, но это менее безопасно, чем 360 картина, построенная лайдера. И а почему визуально вмо так отличается от теслы? То есть вмо весь облеплен какими-то айдары это лазерные радары, да, а тесла, она вот остаётся.
23: Ну вот именно поэтому, что илон маск принципиально хочет избежать всех дорогостоящих и некрасивых дополнительных устройств, хочет убедить всех, что он сможет с минимальным количеством сенсоров добиться такой же безопасности. Ну то есть это не только экономии,
24: Но эстетическое это эстетическое, и, мне кажется, это такой немножко пацанский. Ну, типа, не, он просто реально зарубился со всей индустрией в своё время. Сказал, нет, может нет, мы сможем. И делает так, но это экономический имеет огромный смысл сильно.
25: Visa digital nomad в 1 очередь ассоциируется с переездом в европу, но в ближайшие пару минут про страну, которая не в евросоюзе, но также активно привлекает цифровых кочевников, стартаперов и it.
26: Компании и которая может подойти вам, если вы хотите развиваться на стыке рынков снг, европы и азии, я говорю про Казахстан. В последние годы в Казахстан переехали 1000 айти специалистов и тех, кто работает удалённо. Это мост.
27: Между европой, азией и снг, открывающий доступ к ключевым рынкам Алматы и Астана вошли в топ 50 мировых городов для цифровых кочевников по версии номад лист Астана, хаб стал главным айти кластером центральной азии в ближайших планах открытие международного центра.
28: Искусственного интеллекта сейчас в Казахстане действуют 2 программы от Астана хаб для цифровых кочевников, диджитал номад виза и digital nomad резиденси 1 программа даёт возможность получить визу на год с возможностью продления и даёт доступ к нулю.
29: Налогом, коворкингом, акселератором и венчурному финансированию. 2 программа это те же самые преимущества и внж Казахстана на срок до 3 лет. Оформление документов по обеим программам максимально простое. Все можно сделать онлайн и без бюро.
30: А после получения документов и переезда в Астана хаб помогают погрузиться в местное комьюнити айти специалистов, стартаперов и цифровых предпринимателей. Внутри сообщества регулярно организуются мероприятия и совместные проекты, так что адаптация проходит максимально быстро и содержательно. Ну а если вы
31: Не одиночный разработчик, а уже it компания, то вы тоже можете стать резидентом Астана хаб, и для вас также предусмотрены налоговые визовые льготы, помощь в релокации, коворкинге, акселераторы, нетворкинг, гранты и инвесторы. А ещё вас ждёт алем.
32: Venture fund фонд фондов Астана хаб с целевым объёмом до 1 миллиарда долларов он инвестирует в локальные международные венчурные фонды, даёт доступ к глобальной инфраструктуре топ акселераторам, технологиям и экспертизе, и все это из казах.
33: Откуда реально и удобно выходить на глобальный рынок и работать с снг, европой и азией. И ещё раз на всякий случай проговорю про нулевые налоги. Вы вообще не платите никаких налогов, узнать больше деталей про
34: Digital nomad виза и digital nomad резиденси и стать участником Астана хаб можно по ссылке в описании алга.
35: Ты говорил, что первые, кто сюда пересели, это женщины и подростки. Ну, вообще тинейджеры в 1 очередь пересели. Да не, я просто думал, женщины, потому что, ну, это безопаснее с точки зрения, ну да, то есть.
36: Это, это просто на самом деле классная иллюстрация того, как происходит адопция технологий новых. Я сотрудник, бывший сотрудник гугла. Такой весь из себя технократ получил аккаунт инвайт в аккаунт вейма позже, чем моя.
37: Тогда ещее шестнадцатилетняя дочка, да, то есть я выяснил в какой-то момент, что каким-то образом все одноклассницы моей дочери уже имеют доступ к вейма и уже все на нём ездят постоянно. И да, как, как
38: Заметил, в 1 очередь, потому, что у них нет концепции опасности от роботов. То есть они как бы по дефолту доверяют, что, конечно, это работает, естественно, это я, ну, естественно, работает, но у них есть ощущение опасности от, там, не знаю, взрослых дядек, водителей, например, да, и, соответственно,
39: Для подростков, от шансона в этом, ну, хотя для подростков в Сан-Франциско, ну, вейма стал просто потрясающим инструментом, потому что, ну, я когда спросил машу, а вот почему, собственно, вы все пользуетесь? Они говорят, пап, ну ты подумай, ты возвращаешься с вечеринки, допусти,
40: Темно. Ночью ты там, может быть, даже выпил, и ты садишься в машину непонятно кому. А тут приезжает тебе прекрасный робот. Все тебе безопасно, спокойно. Смотри, если бы мы не пристегнулись, что происходило бы, ну, она начинает ругаться. То есть здесь на самом деле,
41: В салоне камеры они постоянно снимают безопасность. И в случае, если ты начинаешь что-то нарушать или здесь происходит что-то странное, то человек оператор вклинивается, а буквально большой брат следит за мной. Ну они не следят, он гоин, то есть они
42: Походу обещают, что они ничего не записывают, но когда начинают записывать, вот там вот лампочка, слушай, а здесь же ещё можно это все использовать тем, что, ну, когда просто страсть брызжет, и ты едешь там с любимым человеком, то можно же просто никому не
43: Стесняться передвижной лав отель. Да, я слышал, что это большая большой юскейс для подростков. А серьёзно, то есть здесь как бы буквально в этом смысле люди как кругами по городу гоняют, слушают музыку и здесь, как сказали,
44: В программе ревизора биологические следы, но, в общем то это как бы удивительно, как люди мгновенно любые новые куски технологии начинают использовать в 1 очередь для каких-то самых базовых своих потреб.
45: Есть и заниматься любовью абсолютно. Но это, кстати, меня, ты знаешь, вот это оставляет. Я, кстати, не из тех, кто сильно фрустрирует, из за того, что и я там практически не фрустрирую, из за того, что приходит новая жизнь.
46: Но вот то, что оставляет во мне оптимизм, это как раз то, что вот эти базовые потребности, они реально остаются базовыми поесть, вкусно любить кого-то там во всех проявлениях каких-то
47: Конкретно тебе хочется, это же все равно остаётся, какой бы виток технического прогресса наша жизнь не получала. Ну, мы по прежнему голые обезьяны, и это что-то, что у нас никто не отнимет. То есть есть разговоры сейчас, ну, как бы, если уж погружаться в философию.
48: Ai, то самые умные люди сейчас говорят о том, что а почему вы собственно все время размышляете как это люди против ai 2 как бы конца спектра? На самом деле у нас впереди сейчас огромное количество промежуточных всяких стейтов, то есть смесей.
49: И человека, и машины в разных совершенно категориях. Брент, компьютер, интерфейс, который подключает тебе нейронку к мозгу, позволяет тебе все помнить и мгновенно получать ответы на вопросы сразу же в голове в своей, да, вот кто ты после этого человек или nas, нас ждёт какое-то Коли.
50: Количество очень интересных, ну, типа гибридов человека и машины, и мы уже начинаем это видеть, да, то есть вот последняя презентация нейролинк показывает о том, что мы можем начать подключать части роботов людям, у которых есть
51: Какие-то дизабилити, какие-то проблемы. И мы можем вернуть им там зрение, или речь, или ходить способность ходить. А у так нейролинк это чипы, маска, да, которые подключают, ну которые создают интерфейс между компьютером и твоим Мозго.
52: Напрямую. Есть ли какие-то результаты уже там, да, а какие, как это работает? Ну вот как пример, в презентации на прошлой неделе нейролинк показал десятки людей, которые сейчас проходят клинические испытания, полностью парализованы, которые там шпилят теперь в контру на уровне
53: Профессиональных игроков без, с полной потерей моторных функций рук у них ничего нету, но они в голове своём представляют, как они нажимают кнопки джойстика несуществующими своими, и он нажимает и компьютер абсолютно
54: Идеально понимает, настолько хорошо понимает, что они competitive, то есть они могут играть на уровне соревновательном, в очень сложные игры звучит грандиозно, но вот это, то есть в буквальном смысле они не, не восстановили двигательную функцию.
55: Но их мозг, он позволяет им жить. Жизнь, да, совершенно верно. Ты понимаешь, что вот то, что они сейчас играют в игрушки или там через компьютер общаются уже полноценно, это самый 1 Мизерный шаг. Следующие шаги, по мере того, как сейчас, ну,
56: Индустрия роботикс развивается, и мы строим там гуманоидных этих роботов. Мы в 1 очередь думаем, что эти роботы, они автономные, которые там будут нам кофе подносить. Это, конечно тоже хорошо, но для огромного количества людей, которые потеряли, скажем, конечности или потеряли двигательные функции моторные это же
57: Технология это Надежда на то, что они обретут новые куски тела или новое тело даже, которое будет носить их по миру и давать им возможность жить полноценную жизнь. И это основное сейчас обещание нейролинк, но
58: Для всех, для нас в целом это просто приоткрывает окошечко в будущее, где будут киборги.
59: Робокоп иронизирует абсолютно жизнь, иронизирует робокоп. Абсолютно. Мы, мы живём в будущем, оно просто ещё неравномерно распределено. Но будущее уже здесь. Расскажи коротко, как изменилась твоя жизнь после того, как вышел этот выпуск. Ну, для начала случи.
60: Covid мы снимали выпуск до того, как началась пандемия, ещё мы даже таких слов не знали, а потом вдруг неожиданно весь мир. Ну, перевернулся с ног на голову, и для меня в том числе одновременно с этим я завершил свой последний проект в google стеде.
61: Мы его запустили прямо за месяц до локдауна. Дальше все, конечно, пошло совершенно не так. Он не полетел, он не полетел. Ну и в целом вообще вся всей команде было очень тяжело вообще, как бы первые полгода пандемии, с которые соединили.
62: Одновременно с огромным запуском, который планировался 2 года. Потом все, естественно, пошло совершенно не так. Ну, это было тяжёлое достаточно время для команды. Ну так, так или иначе, мы доделали, запустили и через некоторое время закрыли. Ну и
63: Для меня это был последний проект в google я ушёл из гугла после 14 лет работы там и для меня лично это был очень большой психологический важный рубеж, я к нему долго готовился, до этого он мне стоил, много.
64: Денег. И вообще говорят, ну типа, это был большой прыжок веры, но я просто знал, что в какой-то момент, ну, невозможно всю жизнь оставаться частью чего-то такого большого и не быть самим по себе. Ну и, собственно, после этого я какое-то время исследовал
65: Жизнь вообще, чего ещё есть интересного. Пел, получил сертификат учителя, йоги, серфил там делал всякие вещи, а потом началась война, и мне совершенно стало невыносимо жить, кайфовать. Я понял, что я могу делать.
66: То, что могу. А могу я делать компании, продукты и стартанул компанию. С тех пор я CEO компании оптик. Сначала вы делали компанию, которая должна была бороться с цифровыми подделками. Угу. То есть вы должны были отличать, что подделка, что нет в нфти, ну,
67: В том числе в nft н. Те, кто нам платили больше всех денег, потом она стала делать в том числе отличать настоящий контент от ai угу, верно, a i not дотком да да, теперь это сейчас основная её деятельность, а потом вы ушли в компанию, которая делает
68: С помощью иай пытается делать лекарства и как конечная цель лекарство от рака. Да, да, совершенно верно. То есть мы начали, когда я решил стартануть компанию, я знал, что я хочу компанию в сфере цифрового, в сфере искусственного интеллекта.
69: Ну, я пришёл из google, я знал как бы приблизительно, что грядёт до того, как появился чат gpt. Об этом узнали все на свете, поэтому я знал, что надо агрегировать классных ащикова, пока это ещё вообще возможно поднять инвестиции и начать решать какую.
70: Какую-нибудь проблему, которая мне близка, какую-то сферу, где есть много данных, много денег и мало ящиков. Ну и, собственно, 1 проблема, которую мы решились тогда решать, была проблема цифровых подделок, ну или вообще аутентичности цифровой информации.
71: Это напрямую откликалось с моим опытом в YouTube я как бы много рефлексировал в своей жизни, что YouTube стал такой отчасти рупором пропаганды всяческого вранья и конспирологических теорий, там в том числе.
72: Про covid и про политику в разных странах мира и так далее, и мне казалось, что очень важно придумать какие-то инструменты, которые позволят бороться с манипуляцией информации, потому что люди, очевидно, ну не способны сами, критически.
73: Оценивать система технологий, в том числе, которую я построил в YouTube, слишком сильна, чтобы толкать любые нарративы доверчивым людям, и, соответственно, мне показалось, что хорошая миссия будет борьба с цифровыми подделками, что, в принципе любое вранье как бы его каким-то.
74: Образом, можно, по идее, при помощи нейронок вычислять фактчекингом, можно вычислять поддельное цифровое искусство, можно вычислять вещи, которые сгенерированы эам или которые отредактированы эам. Ну и, собственно, вот
75: С этого началась компания оптик. Это был 1 наш тезис. Мы очень быстро выяснили, что за правду немногие готовы платить. То есть все хотят, чтобы было меньше обмана, но платить за это готовы очень немногие. Ну и 1 рынок, на самом деле, коммерческий продукт, который у нас получилс.
76: Вот на базе этой технологии было цифровое искусство, то, что в тот момент называлось нфти. И вот самые большие магазины нфти продукции нам платили за то, что мы находили подделки, то есть
77: Искусство, которое не является на самом деле оригинальным, но выглядит как оригинальное. Мы при помощи, я его вычисляли там на масштабе миллионы цифровых работ, но, конечно, ну то есть это был 1 такой коммерческий результат, а потом
78: Постепенно нашими клиентами стали, ну, большие компании, включая в какой-то момент и мету, и тик ток, и sonny. То есть, как бы значительные бренды, которые для разных целей банки, многие, которые для разных целей должны выявлять
79: Какие-то поддельные цифровые вещи, например, когда ты паспорт загружаешь в банк, который сгенерирован при помощи ai банку очень хочется знать, что паспорт не настоящий.
80: Рынок недвижимости на бали продолжает расти, а самые интересные проекты разбирают ещё на стадии строительства, но чтобы жилье работало как актив, важно выбрать надёжного застройщика и найти правильный объект для инвестиций брейк проперти международный девелопер на бали, который
81: Работает на Острове с 2016 года в портфеле 17 проектов, 12 уже сданы в 2024 году лучший девелопер по версии эксквизит. А теперь про самые интересные проекты. Комплекс элизиум находится в чингу очень
82: Популярном районе и для туристов, и для местных в элизиум запустились продажи новой линейки апартаментов с бассейнами в шаговой доступности от океана внутри светлые планировки, крафтовая мебель и технологии умного дома на территории парки, рестораны, коворкинги, фитнес.
83: Spa yoga и прогулочная дорожка у реки стартовая цена апартаментов с видами на горы и океан от 99 000 $ на апартаменты с приватным бассейном от 127 000 $ можно взять рассрочку до 30 месяцев без переплат.
84: 1 взнос 15%, оплата в любой валюте и для регистрации сделки даже не обязательно прилетать на бали. Текущий ориентир по доходности от аренды апартаментов на основании статистики за прошлый год около 14% Годовых.
85: Могут приносить ещё больше гарантия на постройки до 20 лет. В договор входит страхование от Цюрих на этапе строительства и после сдачи 2 проект эдем 2 в нуса дуа это 1 из самых престижных и спокойных районов Острова, a2 очередь
86: Строится после быстрого солд аута 1 белоснежная архитектура в греческом стиле, приватные бассейны, зелёные сады, руфтопы, виды на океан и закаты до топовых пляжей, бали 5 минут рядом гольф клуб мирового уровня и пятизвёздочные.
87: Стоимость кондо Вилл от 90 000 $, просторных Вилл от 170 000 $. 1 взнос 15%, рассрочка до 2 с половиной лет. Каждый юнит сдаётся под ключ с дизайнерской отделкой и меблировкой, а управляющая компания брейк берет на
88: Тебя аренду, сервис и отчётность ожидаемая доходность на эдем 2 12 16% Годовых в валюте. Потенциал роста цены на этапе стройки до 35%. По этому промокоду вы получите 6 месяцев бесплатного управления.
89: От break это позволит сэкономить 18% комиссии и получать максимальный доход с первых месяцев переходим по этому QR-коду или по ссылке в описании и оставляем заявку, чтобы получить каталоги и консультацию от персонального менеджера.
90: Break проперти. Он поможет выбрать планировку, зафиксировать цену и зарезервировать лот вперёд вперёд.
91: Ты рассказывал Лизы осетинской подробно про тот момент, когда ты уходил из гугла и ты сказал, что у тебя был самый дорогой имейл в своей жизни. Ну да, а расскажи коротко, что именно и насколько?
92: Дорогой, большую часть денег, которые я заработал в гугле, я заработал, конечно, не на зарплате, а на том, что у меня была доля в компании, у меня были акции этой компании, но когда ты на каком-то значимом, ну, на самом деле, практически на любом, на любой
93: Должность, в которой у тебя есть доля в такой компании, ты не получаешь её всю целиком, то есть она у тебя есть, но она разлочивается кусочками. Это называется wasting за выслугу лет. Ну, ты просто должен остава. Это способ удерживать людей в компании.
94: Ты должен оставаться в компании, чтобы регулярно получать возможность продать кусок своих акций. Но по договору, если ты уходишь из компании, то все, что ты не забрал за это время, оно остаётся и исчезает. Как бы ты просто оставляешь это на столе. Это, соответственно, мотивирует людей оставатьс.
95: В компаниях и продолжать работать достаточно долго. Ну и когда я сказал, что емейл о том, что я все-таки, правда ухожу, был самым дорогим емейло моей жизни, я имел ввиду, что это был момент, когда я формально отказался от всех акций, которые мне принадлежали на тот момент, а на тот момент
96: Мне принадлежало, ну, уже принадлежало 6 000 000 $, которые остались на столе. Ну и ещё порядка 4, которые я должен был получить в течение ближайшего там времени, соответственно, от 10, да, соответственно, вот емейл мне обошёлся 1 емейл, 10 000 000 $. Ага. А сколько тебе?
97: Нужно было я остаться, чтобы все 10 забрать, чтобы все 10 забрать, ещё бы 4 года. А чтобы, ну, 6 или забрать, то 2, 2 с половиной, да, но ты понимаешь, это вечная гонка. То есть вот в этом, как бы, это то, как работает индустрии.
98: Ты, ну то есть это никогда не заканчивается, а потом ты получаешь ещё какие-то гранты, и там тебе ещё че то есть, че терять для понимания контекста. А когда ты писал этот имейл, в котором ты отказывался от 10000000, у тебя на счетах было
99: Столько же, да? Ну, это важный контекст, что, ну да, окей. То есть я не отказался от всех своих денег, да, понятно, что я заработал за свою жизнь какое-то количество денег, я долго провёл в этой компании. Вот, но, тем не менее,
100: Просто надо понимать, что стоимость таких жизненных решений, которые ты там перепридумывает себя, и решаешь, что ты хочешь как-то жить, иначе она очень часто значительная, да, это не что-то, что даётся тебе бесплатно. Я записал видос в наш семейный чатик, где
101: Жена и дети, малыши. Смотрите, что происходит. Мы едем на беспилотном такси, оно едет по дороге. Это настоящая дорога. Это не голограмма, здесь нет водителя. Жена ответила напиши, когда
102: Понятно, что это что не доверяю. Да не, нет, это как бы шутка, но в ней доля. Вот алюне напишу обязательно, когда доеду. Слушай, а че по цене? Это вот эта поездка в 36 минут. Сколько она будет стоит?
103: 30 баксов. А убер сколько бы стоил, зависит от времени дня. Но, наверное 5 баксов дешевле. Думаешь? Думаю да, 36 минут за 25 баксов в Сан-Франциско, скорее всего, будет. Это немного чуть подешевле, но зависит
104: То есть они изначально были эммы были дороже, чем уберы. Ну это же очевидно, что они будут дешевле сильно, чем люди. Важнейший вопрос. А куда денутся все? Ну, просто таксист это
105: Водитель это 1 из самых распространённых профессий в мире, куда денутся люди, которые эту работу делают? У меня нету прямого ответа на этот вопрос, но у меня есть исторический ответ в целом, что происходит с такими внедрениями?
106: Технологии, то есть куда делись все кузнецы и водители? Было ли Кузнецов столько же, сколько бы Извозчиков столько же, сколько пропорционально количеству людей, которые жили тогда, да, и каждый раз мы создаём новые работы.
107: Которые в тот момент до автоматизации были немыслимы. Ну, там, если бы ты попытался кузнецам с извозчиками объяснить, что теперь, значит, люди делают карьеру геймдизайнерами или YouTube селебрити, да что их, фуллтайм, работа заключается в том, чтобы снимать видосы о том,
108: Какую еду они, скажем, едят, они на этом зарабатывают миллионы долларов, но люди посмотрели на это там и сказали, да, не может быть, понимаешь? Но каждый раз, освобождая большую часть работоспособного креативного населения для каких-то новых предприятий, мы почему-то
109: Получаем новые сектора экономики. И это, ну, тренд, который случался и случается тысячелетиями, даже не веками, а тысячелетиями. Поэтому тут ответа прямого на вопрос, куда все денутся, у меня нету, но я знаю, что по мере
110: Того, как у людей освобождается время, они начинают его занимать чем-то ещё. Дай Бог, у кого-то, кто заходил в твой инстаграм после выпуска про кремниевую долину, могло сложиться впечатление, что они попали на страницу, там либо коуча, либо инфобизнес.
111: Как хотел бы я какой-нибудь бизнес на этом сделать, но нет, я никогда никакой копейки не заработал на своей социальной активности. Приходила ли такая реакция тебе и как ты сам себя ощущал в этом? Ну, мне в этом очень просто, потому что я знаю стенд.
112: Знаю, где я, да, то есть я получил некомфортное количество известности среди русскоязычных людей. После фильма, который ты снял, я этого не просил. Как ты знаешь, мне это было не нужно. Я это никогда, никак не
113: Для меня это было какое-то социальное, миссионерское значение. Мне казалось, что я распространяю важные месседжи, которые помогут многим людям, что оказалось правдой. Я получил очень много. Сотни людей ко мне приходили, говорили, что
114: Там мои слова или какие-то, какая-то информация, которой я делился, их вдохновила, поэтому вряд ли у меня когда-то были какие-то сомнения на тему того, инфобизнесмен я или нет, нет, я бизнес на инфо не сделал, но я чувствовал.
115: Ответственность, что если такое огромное количество людей вдруг почему-то стали уделять мне внимание, то уж надо ответственно отнестись к этому ресурсу и какую-то хорошую информацию распространять. Поэтому максимально честно и открыто очень долго.
116: Делился всем, что знаю и чем могу помочь людям, как-то ввёл их в том же направлении, о котором я говорил в фильме, направлении самостоятельности, самостоятельного взятия, контроля над своей жизнью и постановки.
117: Собственных целей и, собственно, тот message, что, ну, ты можешь, просто начинай, делай. Я начал нон профит вокруг этой идеи под названием место, которое объединил русскоязычных деятельных людей. Это тоже был интересный опыт. Я никогда до этого non профитов не делал, но это был
118: Была просто попытка агрегировать всех людей, которые почему-то шли ко мне. Я говорил, ребят, ну вы должны идти друг к другу и вместе что-то создавать, создавать, делиться, помогать. В этом был message вот этого сообщества, которое до сих пор, кстати, существует. Вот, но
119: В конечном счёте, со временем эта волна спала, и я успокоился, и стало опять более менее комфортно, и я занимаюсь своим делом. Ты в какой-то момент стал петь. Да, я, честно говоря, думал, когда это увидел со стороны, я
120: Дипломатично совсем удивился, но ты объяснил, что в этом была какая-то хитрая задумка. Ну, это даже не хитрая задумка. У меня была очень хорошая причина. Я пытался, я пытался после всего этого фильма крем.
121: Долина донести до людей 1 простую истину, которую, как мне казалось в образовании постсоветском, очень часто в школе людям не доносят, которая заключается в том, что не то, что ты родился талантливым, неталантливым вот этот человек может стать.
122: Космонавтом, а этот не может, или этот может стать предпринимателем. А ты, значит, сиди. Мне кажется, это очень вредный месседж. И мой месседж заключался в обратном, что типа, ты можешь талант сильно переоценён. Талант это метрика, которая определяет, насколько быстро
123: Ты научишься чему-то, но успех это количество попыток, умноженных на вероятность попыток каждый раз на вероятность успеха каждый раз и вероятность успеха, да, она определяется отчасти талантом, который определяет
124: Насколько подготовлен ты к попытке, но, в принципе, количество попыток это что-то, что ты контролируешь сам. Поэтому, если ты будешь просто очень долго продолжать что-то пытаться, то у тебя есть шансы добиться успеха. Мне кажется, это очень важный месседж, это grosse майндсет месседж, который означает, что ты мо,
125: Вырасти в версию себя, которую себе представляешь ты не рождаешься версией себя, которой ты хочешь стать, ты в неё вырастаешь, чтобы в неё вырасти, надо продолжать идти и стараться, и я очень много повторял эти слова в разных вариациях, в интервью.
126: В своих постах, на примерах, но, к сожалению, после твоего фильма люди в какой-то момент перестали мне верить. Причём по самому ужасному сценарию они стали говорить, не, ну ты же Дороничев, ты же у дудя был. Ну конечно.
127: У тебя получится. А я то кто? И вот этот аргумент, против которого вообще ничего не скажешь. Ну, я, правда, Дороничев, правда, был у дудя. А почему это означает, что у тебя не получится, я не знаю, но убедить я тебя никак не смогу, если ты так считаешь и в какой-то
128: Момент, я настолько, я спорил с людьми в комментариях, и я типа, писал разные варианты. Можешь посмотреть много вариантов моих постов на эту тему, где я писал, я нашёл формулу успеха, это количество попыток умножить на вероятность попытки, но в конечном итоге я психанул
129: Сказал, окей, хорошо. Вы меня убеждаете, что без таланта нельзя ничего там вы не можете ничего, потому что вы не талантливый программист. Ну окей. А я вот, у меня тоже есть вещи, в которых у меня нет вообще никакого таланта. Например, я абсолютно не умею петь. И у меня там нету слуха, я вообще музыкальное.
130: Развит человек, и я просто буду показывать публично, как это происходит. И я прям публично сел и записал видео, где я пою вообще не в ноты. Совершенно непонятно. То есть я не специально старался, я старался как мог, но вот как получилось, да? Ой, хочу чаю, хочу.
131: Чаю, чаю кипячёного, и это было абсолютно чудовищно по признанию большого количества людей, которые написали об этом публично в комментариях. И дальше сказал отлично. Вот это то, как выглядит 1 версия любо
132: Продукта любого там вашего, вашей попытки вашей шаурмы там, которую вы решили открыть в палатке, она, скорее всего, выглядит вот так для ваших клиентов. А теперь, когда вы получили кучу негативного фидбэка, вы можете взять, выбрать какой-нибудь 1 из них и начать это улучшать и дальше.
133: Я там нанял себе преподавателя и стал учиться и показывать, как я прогрессирую раз за разом, раз за разом, пока я там не стал снимать клипы, записывать треки и в какой-то момент не стал получать консистентный хороший фидбэк на своё пение.
134: Лечу по пустой дороге. Я несусь как можно дальше, лишь бы вперёд в инстаграме я никогда не стану Адель или
135: Бьенсе. Но я и не обещал, что каждый станет бьенсе. Я просто сказал, что каждый может, хочет создать свой бизнес или научиться программировать, или просто стать той версией себя, которую он себе представляет. Но путь туда.
136: Лежит через огромное количество хейта, фрустрации неприятных вот этих ощущений, которые я на своём примере показывал. Мне кажется, удалось. На самом деле люди, которые досмотрели 2 года этого реалити шоу, многие мне писали и пишут до
137: С тех пор, что я понял все, я смеялся, я не понимал, зачем ты это делаешь, и под конец такие, да, все, я понял. Ты меня убедил. Хорошо, что я услышал это объяснение. Ну, я услышал в 1 раз у Лизы, потому что когда мне подсовывал инстаграм твои посты, и я
138: Момееент думал, блин, Андрюха сошёл с ума. Да, да, че то. Да, и написать неловко ему вот по этому поводу, че я буду лезть? Вот, да, и как-то, и относиться по прежнему тяжело. Ну, ты понимаешь, это то, как люди реагировали.
139: Начал свой 1 бизнес. Вот мне там папа крутил у виска и говорил, у тебя была хорошая работа, а теперь ты будешь, что картинки для телефонов продавать серьёзно? Это то, что ты хочешь со своей жизнью, это вот, вот сейчас, это то, это твоя работа, да, то есть мне
140: Это говорили огромное количество людей, смеялись, считали меня сумасшедшим. Это то, как люди реагируют, когда ты пытаешься перепридумать себя, но знаешь, что ur, мир меняется, и тебе надо меняться, и люди, которые не перепридумывают себя и остаются в
141: Зоне, где им комфортно, потому что они к этому привыкли они могут оказаться однажды на тающей льдине, что мы сейчас все наблюдаем как говорят у нас тут changed by design, changed by дизастер изменись потому что ты так решил или жизнь тебя заставит.
142: И вот этот навык способность перейти в территорию кринжа и не бояться там отказаться от своих Лавров, от того, за что тебя считают крутым и вдруг оказаться смешным, дурацким, это то, что отличает.
143: Ну, на самом деле, самых сейчас интересных, сильных людей, хороших или плохих ли, да, но там, если вы посмотрите на количество кринжатура, там себе позволяет, я не знаю, илон маск, ну, это дофига, он не боится этого. Я призываю всех не бояться быть смешным.
144: Хороший ли это пример? Илон маск? Это делает, желая перепридумать себя, или потому, что у него слож, скажем так, мы не можем утверждать ничего. Сложный период в жизни. Я думаю, что илон маск слишком сложный персонаж, чтобы его здесь привлекать как пример того,
145: Почему он это делает? Но тот факт, что он часто оказывается смешным или кринжовыми, на мой взгляд, достаточно очевиден, да и при этом он живёт, перешагивает через это и продолжает. Я думаю, что многие слишком люди, которые не
146: Является даже близко настолько видимыми, как многие публичные персоны, которые бесстрашно кринжую боятся кринжевать, а путь ко всему новому, как правило, лежит через кринж. Мы
147: Приезжали, и мужик в неположенном месте перебегал дорогу, и она притормозила. Угу, притормозила с мужиком все в порядке, хоть он и он этого не делала бы, этот сервис долго бы не прожил, а был же другой, у которого отозвали лицензию.
148: Да, cruz ну вот это как бы очень интересная проблема в целом про i. Потому что, помнишь, мы обсуждали, что нейронки учатся на примерах, да, и в принципе, есть 2 способа учиться для человека тоже есть 1 способ учиться по имитации, когда
149: Тебе, папа, мама показывает что-то, и ты делаешь также 2 способ это учиться на ошибках. Когда ты сам пытаешься, у тебя что-то не получается, ты ошибаешься, пытаешься опять и опять, и опять. Вот в нейронках тоже самое. Есть 2 способа имитен ленинг и есть инфорсмент. Ленин.
150: Это когда ты даёшь примеры и машина повторяет за тобой фо, это когда она пробует много, много, много всяких вариантов и плохие варианты постепенно учится избегать, а хорошие повторять прикол вейма в том, что понятно, что
151: На imitation ленинг многому научился, то есть человеческие водители изначально годами и десятилетиями вводили миллионы миль, а камеры вейма и все сенсоры вейма записывали, что происходит в разных ситуациях, и постепенно от этого учились, но есть
152: Огромное количество ситуаций, в которые ты просто никогда не падал, странных ситуаций, которые, может быть, случаются вообще единожды в истории человечества, когда там какая-нибудь набор каких-то эффектов совпали, велосипедист выбежал сюда сверху упал метеорит. Одновременно кошка прыгнула тебе на
153: На камеру. Что делать в этой ситуации? Как, как такие ситуации симулировать это то, где обучать нейронки выгодно в симуляции. То есть вейма. Вдобавок к тому, что она проехала миллионы, миллионы миль. В реальных условиях жизненных она проехала
154: В сотни раз больше в виртуальных симуляциях, то есть в 3 д симуляторе, по сути, где она, она генерировала все самые необычные, сумасшедшие, разные, кривые, косые такие всякие сценарии. И на этих сценариях она училась, ну, за счёт информ ленинга она училась прост.
155: Сама справляться с ситуацией, как бы сделать так, чтобы даже если парашютист приземлился посреди дороги да, мы такой ситуации никогда в жизни не видели, но вдруг такое случилось, что надо делать в этой ситуации, как его избежать, как не сбить человека города постепенно дают лицензии google.
156: Зона была 1, по моему, местом, где мы запустились. Феникс. Ну, я говорю, мы сейчас уже не мы. Тогда я ещё был в google, а берия последовала после. А почему феникс такой прогрессивный город или да, это сильно зависит.
157: Это от локального руководства штата и города. Насколько они готовы, открыты к новому, кто-то должен был бы взять риск, да, то есть политически это большой риск. А если бы все было ужасно, да, если бы это оказался очень плохой сервис и люди бы там пострадали ещё чего-то, то сейчас мы видим, что по
158: 1 милю. Ну и это, кстати говоря, была изначальная причина, почему фаундеры гугла хотели сделать вейма. Я помню 1 их презентацию. Они говорили, что типа, мы посмотрели, больше всего людей погибает бессмысленно в автокатастрофах, в америке, да, то есть там
159: Это какие-то 1000 смертей в год, да, которые мы, к которым мы относимся совершенно нормально, превент, бл, деф, это смерти, которых не должно было случиться, они случаются, и все с этим живут такие, да, это окей. Ну как бы нормальное дело. Люди гибнут в автокатастрофах. Ну и они задались. Тогда вопросо,
160: А почему вообще мы к этому нормально относимся? Просто потому что так все устроено. Если бы вводили не люди, а роботы, то эти смерти можно было бы избежать. И вот это с чего началось? В общем то, строительство всего этого проекта. И сейчас мы по статистике
161: На милю аварии, на милю видим, что, ну, тезис абсолютно верный. То есть безопасность этих беспилотников, она несоизмеримо выше, чем любые человеческие водители. Ты много знал из наших героев того выпуска.
162: И знаешь, я коротко перечислю, как сейчас складываются их жизни. Вот, а ты меня поправишь, если вдруг услышишь, что я не за всеми слежу. Да, да, я понимаю, Николай Давыдов, они вместе с женой продолжают инвестировать в стартапы.
163: Потрясающий фонд. Они, кстати, наши инвесторы тоже, и они за это время так офигенно развились. Просто реально крутые чуваки. Ну, переведём на простой язык, если вдруг кто-то не они, они инвестируют, они просто находят те стартапы, которые могут взлететь и
164: И, в общем, делают это с невероятным визором, дают им деньги и помогают очень сильно и очень тезисно, и очень глубоко понимают индустрию искусственного интеллекта я был удивлён, что ты пришёл за m ко мне, а не к Коле. Руслан Фазлыев продал свою компанию.
165: За много, много, много, много денег сейчас тратить честно заработанное в текущий момент, когда мы это записываем. Насколько я понимаю, он живёт на яхте и ездит, в общем, по карибскому морю. Получил паспорт моряка. Должно быть, я не знаю, Дмитрий Думик, в
166: Сейчас живёт на модере, и занимается он коуч, как я понимаю, да, коуч и цитата до конца года возьму ещё 2 человек в индивидуальную работу 15 000 € за 2 месяца раньше в фоновом режиме.
167: Помогал своей компании чат фул, входя в совет директоров, как сейчас все понятно же, Евгений Невгень, он развивает локалс. Это мобильное приложение, прикольный проект. Да, да. Ну, если коротко, это типа как pro neighborhood.
168: Про сообщество клубов по интересам, которые каждый может создать и управлять им через приложение, очень удобно. Ещё создал. В 2024 году создал стартап эйай анимейшн анимейшен. Модель искусственного интеллекта, который генерирует 3 д анимацию.
169: Всего тела в режиме реального времени, также он входит в борт луны и flo да, 2 очень больших приложений Максим Михеенко если ты помнишь парня, который был дизайнера, он умер, к сожалению.
170: Да, он умер в конце июня. Причина смерти ранее недиагностированная дилатационная кардиомиопатия Никита микадо твой друг, он работает там же, жжёт.
171: Миллиард долларов оценка, то есть его компания сейчас стоит миллиард, да, он здесь в долине, да, вот мы завтра с ним встречаемся. А ещё у нас был герой Стас Ерёмин, он работал в тесле в тот момент, при нём мы не знаем, где он сейчас работает. Да, я тоже не знаю.
172: Спасибо большое.
173: Это тебе зачтётся, когда они восстанут. Да, да. А про это тоже поговорим. Слушай, ну спасибо тебе за этот опыт. Угу. Ощущения привыкаешь сразу очень безопасно. И я очень привередливый пассажир. Скажи, хорошо ловит? Да, да. За
174: Резкую езду за вот это да, я за баранкой больше, чем тебе лет, даже если это не вербализируют водители. И даже в европе часто так бывает. Угу. И это идеальное вождение было. Это вот то вождение, которое мне нужно чем e l думает.
175: У него есть мозг конкретный, то есть это и как это, если это можно описать, максимально доступно выглядит это некий код или это некий там дата центр, где вот, вот аккумулируется мыслительная деятельность. Ну давай начнём сначала.
176: Во первых, мы, ты когда говоришь про думает эйай, ты, скорее всего, имеешь ввиду конкретно большие языковые модели ллм лардж language. Modules причина, почему для всех чат gpt именно не какие-то другие, a системы, стало таким гигантским прорывом.
177: Потому что мы, люди, привыкли ассоциировать владение языком с умением мыслить, с интеллектом в целом. До последнего времени это была абсолютно Разумная метрика. Ну, если человек умеет красиво, глубоко говорить на разные темы,
178: Значит, он, скорее всего, умный. Никто, кроме людей, говорить не умеет. Животные не умеют, камни не умеют. Соответственно, это очень уникальный способ определить интеллект, которым обладал. Ну, до сих пор известный нам только человек. Теперь эта метрика не работает, потому что
179: Появились другие инструменты, которые могут прекрасно рассуждать, говорить на языке, писать очень красивые тексты, читать и понимать очень сложные тексты, но при этом это совершенно не значит, что они думают.
180: В том смысле, в котором думаешь ты, но, как оказалось, есть больше, чем 1 способ думать, то есть если создать машину, которая, статистически прочитав все тексты, когда-либо написанные человеком, научится.
181: Представлять каждое слово в контексте всех остальных слов в виде какого-то столбца цифр и построить гигантскую таблицу, в которой будет, ну, в буквальном смысле 200 миллиардов параметров. И этими двухстами
182: Миллиардами параметров она опишет взаимоотношения каждого слова в каждом контексте, с каждым другим словом, в языке это огромное число, его сложно себе представить 200 миллиардов, да, но это гигантское число, но это то, что это количество параметров. Вот в GPT-3, в GPT-3, то есть ещё
183: Позапрошлой модели. Так вот такая машина, она может создать вот эту статистическую огромную эксель таблицу, считай, да, в которой статистически записаны вероятности, что вот за таким словом, скорее всего, последует это, а дальше последует вот такое. А дальше
184: Следует следующее и тогда эта модель может предсказывать следующее слово для любого незаконченного обрывка текста, например, началом текста может быть твой вопрос, а дальше будут слова, которые наиболее вероятно должны.
185: Исследовать в ответ на этот вопрос вот это простыми словами. То, как устроен ллм, это статистическая огромная статистическая машина, которая собрана на таком количестве данных, которые очень сложно представить человеку, человеку столько данных, не нужно, чтобы научиться. Красиво говорит.
186: Мы за всю свою жизнь скорее всего, большинство из нас читает значительно меньше текстов, чем ллм. Читает за 1% своего обучения, но оказалось, что способов думать больше, чем 1 и есть гораздо более.
187: Сложный способ научить думать нечто неживое, типа машину, скормив ей очень, очень много данных и очень, очень много электричества. Но на выходе получится что-то, что напоминает мыслительный процесс человека. А именно вот разговор у тебя в голове, когда ты такой тада Таа.
188: И рассказываешь какую-то историю, рассказывая эту историю, постепенно приходишь к каким-то, может быть, даже интересным выводам. Так вот, это длинный ответ на вопрос, что же там думает в человеческом смысле там ничего не думает. Угу. В человеческом
189: В смысле, все, что происходит, это такой типа генератор наиболее вероятного, следующего слова, такой т 9 на стероидах, который продолжает эту последовательность. Но для каждого следующего слова он берет весь контекст предыдущих слов, и если
190: Подумать то это то, как мы мыслим, мы что-то себе говорим, какую-то фразу задаём себе какой-то вопрос, он становится контекстом. Значит дальше мы генерируем следующее предложение в ответ сами себе у себя в голове такое, ну куда мне сегодня пойти поужинать? Вообще то я в последнее время
191: Время слишком много ем китайской кухни лучше не китайская. А почему не китайская? Да, жирная? Не очень полезно. Как насчёт? Я пойду сегодня, поужинаю в мексиканской. Вот этот разговор, который незаметно, может быть, происходит у тебя в голове. На самом деле генерация предложения 1 с другим гд.
192: Для каждого следующего слова в контекст берётся предыдущее. И в этом плане вот эта статистическая машина, которая генерирует слово за словом, за словом, за словом, она действительно напоминает то, как мы размышляем. Поэтому то, что, ну вот то, с чего начался чат gpt, это
193: Был скорее такой генеративный ай, который просто, ну, типа, отвечает на 1 запрос, как правило, no context теряет после этого и не может размышлять о сложных вещах. Последний год мы видим то, что называется Ризен модели, то есть модели, которые умеет размышлять, которые использу
194: В принципе, тот же внутренний механизм генерации следующего слова, но уже более специально более подогнанный под то, чтобы поговорить самой с собой и на выходе получить какой-то более обдуманный в кавычках ответ.
195: На самом деле просто потратить больше электричества на размышления, то есть на генерацию большого количества промежуточного текста, чтобы на выходе отдать тебе результатирующий текст, который будет больше в кавычках продуман, как выглядит чип для нейро.
196: Ну в игрушки шпилил когда-нибудь покупал себе 3 д акселератор ну типа такая карта с большим количеством вентиляторов и там ну типа чип как процессор ну вот nvidia gpu ка выглядит как?
197: Такая штука, но только собранная в большой кластер. И скорее всего, это стойка с большим количеством труб жидкостного охлаждения, где очень специализированные вот эти чипы, которые изначально разрабатывались для графики. А потом так уж получилось, что
198: Именно такая архитектура чипа очень подходит для тренировки ai главное место в мире, где их делать, это тайвань. Да, до сих пор? Да, да. И для тайваня. И это тоже очень интересная геополитическая ситуация, потому что тайвань называет это
199: Щилд, то есть кремниевый щит, который, в общем то, из за того, что у них расположено такое сложное наукоёмкое производство, от которого в буквальном смысле зависит весь мир. Это большая причина, почему их до сих пор там не завоевали, да?
200: Они им закрываются.
201: Мы находимся в самом высоком здании в Сан-Франциско селс фор стар. Мы здесь снимаем пространство с моей командой, которая, ну, основная команда Сан-Франциско. Это где-то треть нашей, нашего коллектива, и
202: И здесь у нас наши учёные и люди, которые тренируют нейронки. Собственно, это коворкинг, это офисное пространство, которое раньше называлось виворк. То есть он был коворкингом таким, а потом они рас сдали офисы, кусочки.
203: Своего пространства. Вот мы снимаем часть и у вас здесь просто стол, да, у нас здесь какое-то количество десков. Ну и здесь такая модель гибкая. Мы можем расширяться, когда к нам приезжает кто-нибудь, скажем, из Барселоны наши сотрудники, то мы расширяемся на соседние места. Сколько стоит
204: Снимать 2 стола, ну, типа, 1 500 $ за место. А в месяц, да, то есть достаточно дорого такой стол будет 9 000 $ стоить. Типа того, да? Угу.
205: Ого, за вид, за вид не вид, конечно, того, но вид бизнес не делает. Мне кажется, ты знаешь, делает. Вот я сижу периодически в такой стратегической задумчивости, смотрю туда, вдаль, думаю.
206: Блин, ну скайс де лимит, и как-то сразу же бизнес делается, вдохновляет, вдохновляет, и, на мой взгляд, когда ты чувствуешь энергию других людей вокруг, то есть здесь много классных заряженных ребят, которые работают, которые снимают гораздо сложнее.
207: Не знаешь, уйти в прокрастинацию или затупить, когда вокруг тебя люди усиленно работают. Я готов за это доплачивать. Ну, пиннок конкурентной среды, даже не обязательно конкурентной, просто энергетически заряженной среды, умных людей. Да? Ну, это то, за что ты платишь за все. Ты.
208: Переплачиваешь в долине за то, чтобы быть рядом с людьми, которые тоже че то делают. Устройство компании, что это программисты. Но есть как минимум 1 учёный профессионал, не 1 учёных, у нас пятеро лайф сайнтс, то есть такие пиэйчди в химии, биологии.
209: Фармацевтики, которые, ну, всю жизнь свою, занимаются поиском лекарств, и приблизительно столько же, ну, ресерчеров, компьютерных ресерчеров, то есть ml machine learning, ресерчеров, которые занимаются непосредственно созданием нейронок. И вот они вместе
210: На стыке этих 2 дисциплин лайфсайнсез и ai строит нашу платформу вы сейчас сосредоточены на том, чтобы искать лекарства. Да, ты загорелся этой идеей в Ванкувере, когда познакомился с кем с?
211: Профессором drug discovery, то есть профессором по поиску лекарств из университета британской Колумбии юбиси по имени арт Черкасов Артём человек из татарстана изначально, который мигрировал в начале.
212: Когда-то, давным давно, в начале 21, 21, в нулевых, в начале нулевых, сделал блистательную карьеру учёного уже в канадской академии, стал очень значимым членом медицинского и научного.
213: Сообщества мирового. Такое как бы громкий голос, который много лет назад ещё стал пропагандировать идею, что искусственный интеллект будет помогать в поиске лекарств во времена, когда над ним не то что смеялись.
214: Его открыто издевались над ним, в том числе публикуя его заявления в журналах типа tmz, рядом с пьяной бритни спирс, да как на уровне вот сенсации нло.
215: Yet y лекарство будет придумывать искусственный интеллект, но он верил в этот тезис и оказался прав. Он заразил тебя идеей, он заразил меня идеей, я никогда не имел никакого отношения к химии в школе у меня по химии была тройка, для меня это все.
216: Был абсолютно Тёмный лес. И вот я приезжаю на тед. Это такая ежегодная конференция со своим эйай, для поиска аутентичности. Общаюсь со всеми людьми, разговариваю там о проблемах, которые мы решаем, случайно оказываюсь на
217: Победе с артёмом, и он мне вдруг рассказывает про свой мир, совершенно другой, чуждый. Мне просто интересно, мне рассказывает, как, ну вот я занимаюсь лекарствами от рака, там 20 лет, мы создаём химические структуры, которые там подключаются к белкам.
218: Там их ингибируют, и в результате у мышки там уменьшается рак простаты, и вот это станет лекарством и спасёт мир, спасёт жизни. И это ты слушаешь такой, вау, ничего себе, люди делом занимаются, а мы тут, значит, цифровые подделки отличаем. И тут
219: Я ему рассказываю про то, что делаем мы, и он мне говорит, слушай, а вот вы говорите, что вы можете миллиард картинок там отсмотреть и сравнить по там каким-то критериям, что они похожи, но на самом деле они одинаковые. А если бы вместо картинок были молекулы, могли
220: Бы тоже самое сделать. Я говорю, да, молекулы, по идее, проще, чем картинки. Ну то есть это de меньше информации. Он говорит, а давай попробуем, потому что у нас сейчас на огромном супер кластере супер сложных компьютеров для того, чтобы просканировать миллиард молекул. У нас, у
221: Ходит там 2 месяца на полной мощности загрузки этого кластера, а миллиард молекул возможных это малюсенькая часть химического пространства, их на самом деле гогол этих молекул 10 в 100 которых, среди которых могут быть множес.
222: Лекарств, но мы просто не можем их найти. Какие из них, как подобрать код от сейфа? Знаешь, перебором он говорит, а если бы мы, ваши штуковины, могли бы миллиарды искать за час, а не, а не 1 миллиард за месяц. И, в общем, с этого началась эта идея.
223: Она была абсолютно сумасшедшая, мы занимались совершенно другим. У нас на самом деле рос бизнес, и все как бы шло более менее хорошо. Я вот приезжаю к своим инвесторам на совет директоров и рассказываю им, как у нас идут дела вот здесь у нас, значит, растёт, a анот наш поиск поддел.
224: Ну типа картинок, созданных при помощи ai. Рассказываю, что есть и дальше говорю ну ещё вот появилась сумасшедшая идея и начинаю рассказывать вот эту же самую историю. И мне наш инвестор в тот момент смотрит такой на меня очень внимательно и говорит мне Андрей.
225: Мне кажется, тебе надо заниматься вот этим сумасшедшим. А кто инвестор? Это компания грейлок называется, ну, 1 из больших фондов долины, наш конкретный партнёр. Его зовут Дэвид теккер, и он мне говорит, Андрей, тебе нужно заниматься вот этими лекарствам.
226: От рака. Я говорю, ну это же сумасшедший дом. И он так, он сказал очень важную вещь. Тогда мне он говорит, знаешь, это может быть сумасшедший дом тебе не очень подходит, как фаундеру. У тебя бэкграунд совершенно не в этой области, но это то, о чем, когда ты говоришь, у тебя загорается
227: Глаза это проблема, которая тебя, правда, волнует. А все, что я знаю про стартапы, говорит он, это то, что деньги у людей заканчиваются, как правило, гораздо позже, чем заканчивается энергия, желание биться. И чтобы оставалось желание биться, у тебя должны гореть глаза, и эта проблема тебя, правда волнует? Ты долже?
228: Заниматься ей. И знаешь, я тогда подумал, то есть сначала это, конечно, ну, меня осадило, это правда, я такой, вау, может быть, действительно об этом стоит подумать. Потом Никита микада тоже самое мне сказал, он говорит, слушай, тот продукт, который у вас растёт, он имеет
229: Смысл все, как бы он будет работать, но просто не тебе этим надо заниматься. Тебе надо найти другого, сего или как-то найти, чтобы кто-то ещё взял это на себя. А тебе надо заниматься тем, что тебе правда важно. И знаешь, я понял, что-то, что для меня важно, сильно изменилось за последние там, 10
230: Вот я приехал в долину в 12, и мы жили в парадигме, знаешь, мобильники, социальные сети facebook, му, фаст брейк, сенкс было написано на стене у фейсбука типа двигайся быстро, ломай вещи, да, то есть.
231: Это была мантра всей нашей долины, и я жил этой мантрой всей душой. Я был полностью погружён в эту культуру. Там типа хай энерджи. Двигайся, ломай, давай вперёд мочи, работай. 20 часов в сутки меня пёрло, и у меня горели.
232: Глаза. И мне это было важно. Знаешь, мне были важны контент, социальные сети, мобильные телефоны. Мне это правда, было нужно. А потом прошли годы, я там чего-то добился, чего-то запустил, случилась пандемия, и я вдруг понял, что я изменился, и для меня
233: Меня реально стали другие вещи важны, для меня здоровье стало очень важно, потому что знаешь вся эта конечно движуха там у fast break things это клёво, но ты по пути ломаешь тоже другие вещи, ты ломаешь себя, своё здоровье, своё ментальное?
234: Здоровье там я бывал в глубокой депрессии, я ходил лечиться от алкоголизма, там у меня были серьёзные проблемы в какой-то момент, когда я думал, блин, ну я так не могу больше дальше. Потом случился covid эпидемия и много людей погибло, я как-то
235: Это все вокруг смотрел и думал, правда ли я самым важным занимаюсь. И вдруг я понял, знаешь, вот в этот момент, после разговора со своим инвестором, что если посмотреть на ближайшие 10 лет моей жизни или 20 лет моей жизни, то проблемы там видосиков и мобильных, они
236: Конечно, может быть, и будут оставаться важными для меня, но они будут все менее важны, а вот вопросы здоровья для меня будут важны с каждым годом все больше и больше. И вдруг у меня такой в голове зажглась лампочка, что на самом то деле имеет смысл переключиться немного в другую область, но.
237: Вот, собственно, с тех пор это был очередной прыжок веры, такой же кринжовый, как петь. Даже хуже. Но теперь мы занимаемся наукой достаточно успешно. Арчи, он партнёр твой, Артём, Артём. Нет, он, ну.
238: Он акционер, мы, он получил долю в компании, он на 1 этапе нам, конечно, безусловно, очень помог, но он остался в академии. Он не предприниматель, он профессор. Расскажи коротко, кто такой конг конг. Это мой ключевой сотрудник.
239: Начальник нашей науки по научной части, самый главный учёный в команде. Ну, он человек, который использует все инструменты, которые мы строим для того, чтобы по настоящему создавать молекулы. Он профессиональный химик, да, который умеет пользоваться всеми этими инструментами и
240: В том числе, да, он умеет пользоваться традиционными инструментами, и теперь вместе с ним под его чутким руководством мы создаём новые инструменты, которые позволяют ему создавать молекулы, которые станут лекарством, которые сейчас там публикуются ключевыми.
241: Лабораториями, как крутые результаты. Это белок. Наше тело состоит из Белков. Их очень, очень много повсюду, да, если, например, у человека рак
242: Это значит, что в каком-то из этих Белков есть проблема, да, определённые белки в нашем организме становятся сверхактивными, и нам нужно подавлять их, замедлить их активность.
243: Просто, чтобы починить их, да, каким-то образом химическим способом, вводя в организм химические вещества. Именно так эти вещества попадают в таблетки, лекарства, которые мы принимаем, попадают в организм, находят
244: Нужный белок и прикрепляются к вот этим карманам. Окей, теперь понял. А чем вы занимаетесь? Что именно делаете вы? Мы пробуем разные химические вещества, чтобы они точно вошли в карман белка до тех пор, пока
245: Не найдём то, что идеально подойдёт до тех пор, пока не сработает. Да, традиционно люди делали это вручную. Вот так это было очень медленно и отнимало много времени.
246: Поэтому мы придумали новую идею использовать все фармацевтические и промышленные данные, накопленные за последние 100 лет, чтобы натренировать модель машинного обучения.
247: И создать модель искусственного интеллекта, которая сможет выполнять все это очень быстро и на компьютере ещё до того, как мы пойдём в лабораторию и начнём тесты раньше.
248: Людям нужно было тратить много времени на проведение Тестов. А теперь вы можете сэкономить это время, проводя тесты на компьютере. Да, да, верно. Да. Химик или специалист по вычислительному дизайну может просматривать, скажем,
249: Пару тысяч таких комбинаций в час, в минуту, в день, в день. Понял? Да, но у этого есть ограничение, пропускная способность. А теперь с нашей моделью искусственного интеллект.
250: И машинного обучения. Мы можем проверять миллиард или 10 миллиардов таких комбинаций за пару минут. Ого. И в этом вся прелесть. А как вы понимаете, что это действительно работает? Мы проводим
251: Marking и используем всевозможные компьютерные тесты, а также проверяем их в лаборатории. После этого становится ясно можем мы применять нашу модель, наш инструмент.
252: К новым белкам или нет. Когда мы все уже спроектировали, мы синтезируем соединение в лаборатории. Оно становится настоящей молекулой и взаимодействует с настоящим белком. Мы проводим биохимический тест, помещая молекулы в белок, и измеряем.
253: Уменьшает ли она его активность или увеличивает. Мы это измеряем. И это очень важный момент для всей команды. Каждый раз, когда мы получаем результаты из лаборатории, мы узнаем, сработало это или нет. Это как построить ракету. И потом наступает момент, когда
254: Ты её запускаешь, либо она полетит, либо нет. И ты учишься на этом. Здесь все точно. Также. Сколько раз вы уже получали такие результаты. Десятки, десятки, да, десятки. У нас 8 проектов, то есть 8 препаратов над
255: Которыми мы работаем по каждому из них мы проводили множество Тестов, иногда безуспешно. И это, конечно, очень разочаровывает, но в других случаях, вот, например, буквально вчера мы получили результаты по можно я расскажу про результаты по Раку?
256: Груди. Мы только что получили результаты из университета северной каролины, с которым мы сотрудничали в разработке совершенно нового, 1 в своём классе препарата от тройного негативного рака молочной железы. И мы получили подтверждение, что 1 из соединений, которое мы раз
257: Работали с помощью нашей системы, стала 1 в мире, 1 в своём классе, которая проявляет активность против этой формы рака. Это действительно очень вдохновляет по этой работе. В ближайшие месяцы выйдет научная публикация. Серьёзно, да, но это ведь ещё не означает, что
258: Лекарство уже работает, пока нет. От момента, когда ты находишь нечто, что работает до выхода препарата на рынок обычно проходит много лет. Сначала идут тесты на мышах, потом на собаках, потом на людях. Это
259: Очень жёстко регулируемый процесс, прежде чем что-то может стать настоящим лекарством. То есть то, что вы сделали, это только 1 шаг на пути к лекарству мы сделали научное открытие, а наука потом превращается в технологию.
260: Технология в продукт это долгий путь, но наша цель строить искусственный интеллект, который способен делать принципиально новые научные открытия. Он находит новые молекулы, которые раньше были неизвестны человечеству и которые потенциально могут стать лекарствами. В будущем мы работаем на самом
261: Базовом уровне этого процесса научного открытия вы ищете молекулу, да, мы или создаёте её? Мы, ну, можно сказать, ищем, может, создаём, смотри, причин, почему драк discovery называется discovery, да, то есть открытием молекул.
262: Потому что исторически люди находили лекарство методом проб и ошибок. Ты вышел в лесок, съел травку, съел ягодку, съел грибочек такой, о работает, а другой съел и раз и умер. И вот так исторически там люди.
263: Постепенно находили медисин планс, да, находили растения, которые от той или иной там болезни помогают. Потом мы на самом деле, ну, в начале фармаиндустрии мы, по сути, индустриализировали тот же самый процесс. То есть мы там построили огромный индустриальный робот.
264: Которые берут там сотни молекул, капают их на разные цели, на разные протеины, например, и смотрят, типа, случилась какая-то активность или не случилась. Это в буквальном смысле, как там, ну, несколько десятилетий назад работала фарма, индустрия, гигантские такие помещения с
265: Роботами, которые вот эти 96, пробирочные, значит, такие тарелки капают всякими разными веществами и смотрят, че-нибудь найдут они или не найдут. Понятно, что это очень неэффективный процесс. И, ну, все, что можно было найти вот так быстро и легко.
266: Шли ещё десятилетия назад, и поэтому с каждым годом поиск новых молекул новых лекарств становился все дороже и дороже, дороже отчасти поэтому в том числе поэтому, что потому, что все низковисящие плоды уже собрали, но по мере того,
267: То, как научное понимание того, как устроено человеческое тело и как устроена биохимия, углублялось, мы начали, перешли из фазы discovery да, то есть поиска молекул в фазу дизайна молекул появился рациональ.
268: Dizayn когда вот происходит то, что конг сегодня показывал, мы поняли, что протеины, из которых мы состоим, это трёхмерная некая структура, мы поняли, что этот протеин можно заставить работать сильнее или, наоборот, менее активно, если в какие-то из его
269: Позов вставить какие-нибудь малые молекулы, например, и это как-то отразится на процессах в теле. Поняв эти принципы, мы начали уже не просто подбирать лекарства, хотя это тоже до сих пор делается, но мы стали в том числе дизайнить молекул.
270: Говорить, что здесь надо добавить аминогруппу, а здесь ещё 1, там цаш т т т т. Т. И тогда она лучше поместится в цель, которая у нас есть мишень вот в этот протеин и, возможно, сработает как лекарство. И вот этот вот этап рационального дизайна молекул это последний там.
271: 20, 30 лет этой индустрии, да и это, в общем то, был большой прорыв в момент, когда это началось, сейчас, когда мы постепенно переходим на этап от там, от discovery к дизайну, от дизайна к генерации, при
272: Помощи ai. Тут как бы можно сказать, что мы продолжаем искать новые молекулы, а можно сказать, что мы их на самом деле генерируем при помощи искусственного интеллекта, при помощи нейронок. И вот это то, чем на чем сфокусированы мы и ещё какое-то количество компании.
273: В мире на самом деле есть. Ну, то есть мы не первые это придумали. Это большое обещание. Ай, что всосав все существующие научные данные, он научится генерализовывать их так что теперь он сможет создавать для любого
274: Произвольного количества мишеней, новые молекулы. И это случилось. Я не знаю, слышал ты или нет, но в прошлом году впервые нобелевку по химии дали эйай учёным из
275: Угла. Причём мой бывший коллега джон джампер получил из лондонского офиса гугла получил нобелевскую премию за альфа фолд эйай систему, которая позволяет предсказывать 3 д структуру протеина.
276: Просто по цепочке, по его формуле, то есть, представь себе, ты просто даёшь формулу протеина, а ai предсказывает, в какую трёхмерную структуру этот протеин неизбежно свернётся, потому что он так-то и так-то заряжен и соответственно притягивается.
277: Какими-то кусками сам к себе. И получается некая очень, очень сложная 3 д структура до этого момента каждая 3 д структура каждого протеина, которую учёные открывали, была открыта при помощи крайне сложных физических методов, то есть
278: Кристаллизовывалась протеин это очень сложная работа, а потом специальным микроскопом фотографировали в кавычках электронным микроскопом этот протеин и получали 3 д структуру его, и каждая такая работа это была огромная научная статья и боль.
279: Большой прорыв, и люди получали карьеру, делали на том, что они открыли вот такой-то или такой-то протеин, кристаллизовали его и нашли о 3 д структуру. И что вы думаете, несколько лет назад учёные из google, взяв всю эту научную базу и натренировав на ней нейронку вдруг
280: Создали инструмент, который просто по любому, по любой произвольной формуле может тебе сразу дать 3 д структуру, как бы я понимаю, что, наверное, сложно оценить прорывно ть этого. Но вот нобелевский комитет оценил, но это
281: Соизмеримо с тем, чтобы представить себе а вот однажды появится нейронка, которой ты даёшь любую болезнь, она тебе просто генерирует молекулу, которая та самая таблетка, которая тебе нужна, чтобы от этой болезни излечиться. То есть это я более такими простыми словами.
282: Сказал да, но вот тот факт, что появилась некая нейронка, которая там для любого протеина, тебе сразу ж может дать без всяких физических исследований, кристаллизаций, электронных микроскопов, может просто тебе предсказать его структуру. Это почти как-то будущее, которое однажды неизбежно наступит, когда
283: Типа даёшь болезнь. Вот тебе, пожалуйста, индивидуальная. Молекулы, которые тебе нужно принять, чтобы эту болезнь вылечить.
284: Самое главное, чем мы занимаемся здесь. Мы тренируем нейронки с момента нашего последнего, с нашей последней встречи. Да, сейчас сама идея софтвер очень сильно изменилась. То есть мы вот все с тобой выросли в мире.
285: Где программное обеспечение это, ну, нечто, что от руки пишется при помощи инструкции. Компьютеру даются набор инструкций, какой-то алгоритм, который очень понятный, версифицированный, может быть тяжело там, среднестатистическому человеку его понять, но, в принципе, это язык.
286: На котором ты даёшь чёткий план, что делать, и машина это чётко исполняет, получается, windows, получается, windows или компьютерная игра, все что угодно, да, вот вот как мы привыкли думать о софт, но с тех пор подход фундаментальный к созданию. Софтвер сильно изменился, потому что
287: Благодаря компьютерному обучению мы научились создавать программы, которые как бы самообучаются на базе большого количества данных. Дальше мы не пишем для них алгоритмы, они сами каким-то образом выдумывают этот алгоритм, статистически анализируя
288: Большое количество примеров живут своей жизнью буквально, ну, можно так сказать, это, это создаёт такое ощущение у нас, у людей, потому что мы Любим наделять живыми качествами все на свете от облаков, там до грома и молнии. Это у нас биологическая такая функция есть, но в принципе, это просто
289: Статистическая машина, да, то есть статистическая машина, которая, обучившись на огромном количестве примеров, может начать предсказывать подобные эффекты для других данных, которые она ещё не видела. Даёшь ей 1000 вариантов. Вот как конг показал, такая-то молекула подхо.
290: К Такому то белку она в него может там в pocket зайти даёшь ей 1000 или миллионы примеров таких данных и статистически собирается набор параметров в табличке в такой гигантской любая модель это гигантская.
291: Табличка в памяти и в этой гигантской табличке думал, как спресс шите есть много много, сотни миллиардов параметров, которые постепенно подкручиваются, подкручиваются, подкручиваются, так что в следующий раз, когда ты покажешь ей протеин, которого она до этого не видела, есть шанс.
292: Что она предскажет молекулу, которая в этот протеин поместится. То есть никто никакого алгоритма не писал, никаких инструкций. Машина, просто посмотрев на огромное количество примеров данных, сама каким-то образом из них вычленила некие правила.
293: Которую мы не понимаем, как и мы. Ну, мы не можем их интерпретировать, но мы видим, что по результатам она работает. Вот это, это ключевая идея нейросетей. И для этого, да, вам нужно их тренировать. И, соответственно, компании, как
294: Наши, они занимаются тем, что создают тренировочные данные, подготавливают их, запускают тренировочный процесс, тратят огромное количество денег на компьютер, то есть на то, чтобы просто машины работали над этими данными, создавали вот эту статистическую табличку по результатам и на
295: Выходе, если все получается, получается нейронка, нейронка это вот некий такой большой файл с весами, то есть вот с этими параметрами сотнями миллиардов параметров, которые в процессе обучения поднастроили ь. И если все получилось хорошо, то этот, эта модель, это
296: Нейронная модель в результате может генерировать какие-то новые данные предсказания. Объясни простыми словами, что такое нейронка? Нейронка, чат gpt. Это нейронка. Чат gpt это продукт, построенный поверх, да, большой модели большой нейрон.
297: Под названием gpt дженерал притрен, трансформер ми джорни. Это нейронка ми джорни. Это приложение, построенное на базе набора нейронок. Ну, в целом они все диффузные модели, но и ещё какие-то вокруг них, то есть под капотом у неё какой т.
298: Количество нейронок, а сверху над ним есть интерфейс пользовательский, есть всякие функции, как у обычного нормального продукта, и эти функции построены обычно руками алгоритмически.
299: Я вижу, и у тебя, и у конга кольцо на. Угу. Что это? Это аура, это гаджет, который меняет жизнь к лучшему. Всем. Рекомендую коротко, что это, это трекер сна. То есть это кольцо, которое я всегда ношу.
300: С собой посмотреть? Да, конечно, в ней есть какое-то количество сенсоров, которые меряют биопоказателей. И самое главное, оценивает качество моего сна. Можно надеть, пожалуйста. Да, как выяснилось, ничего на твою жизнь не влияет сильнее, чем качество твоего сна. Ну, это правда, это я.
301: Соответственно, чувствую. Соответственно, если ты можешь каким-то образом оптимизировать свой сон, ты можешь значительно улучшить свою жизнь, а ты не можешь ничего оптимизировать, если ты не можешь это померить. Соответственно, вот аура это способ, который он тебе приложуху показывает, как
302: Каждое утро я просыпаюсь. И 1, что я проверяю, это не инстаграм и не новости. 1, что я проверяю, это ауру, какой мне дали скор, какую мне дали оценку за сегодняшнюю ночь сна. И я такой, я выигрываю 95%.
303: Когда у тебя джетлаг, там просто все в режиме тревоги и красное очень плохо, ты начинаешь грустить, и поэтому ты начинаешь стараться меньше летать и избегать вообще всякие мучения для организма. Ну подожди, а бывает, что ты просыпаешься, и ты думаешь, что ты спал нормально? Ну типа там с 12 до
304: 7 или с 11 до 6. Вот там чудовищно. Ты думаешь, спал классно, не просыпался, а там какие-то другие оценки, да, и ты такой холый. Ну тогда я буду спать дальше. Отменяешь свои звонки с инвесторами и идёшь спать дальше. Понимаешь? Ничего важнее это все равно сделат.
305: Не можешь сейчас Сан-Франциско, как, как город в стиле диско? Нет, Андрей, девяностые тебе сохранили. Я боюсь, что
306: А ты не пьёшь сейчас, давно. Я впервые понял, что у меня проблемы с алкоголем, когда родилась моя дочка. А так давно мне было 23 года. Мы тогда помнишь истории про колбасные?
307: Брест, да, мы жили в Праге, все было тяжело, и я начал так неплохо подбухивать. Ну, типа, там банка пива, каждый вечер, 2 банки пива, каждый вечер работы нету, ничего не понятно. Я стал так нормально выпивать. Было несколько моментов, когда я допивался.
308: До, ну, такого свинячего состояния, там засыпал где-нибудь на лесенке под домом. Ну, собственно, вот какой-то был этот момент, наверное, 2008, 2009 год, когда я вдруг понял, что я алкоголь и ребёнок маленький, несовместимы.
309: Я не могу вот с этим там чудом в коляске быть, там поддатым, знаешь, и я просто, просто перестал пить вообще. И после этого 10 лет я не вообще никак не имел никакого отношения к алкоголю, не пробовал даже.
310: Какого вина или там ничего. А потом случилась пандемия. И вдруг алкоголь вернулся в мою жизнь в виде типа бутылочка вина каждый вечер с родителями и как бы, ну что, уже вроде взрослый человек уже
311: Такой успешный и все уже там, типа, ну какой, ну че мне понятно, тогда был студент голожопый, там че то много выпивал. И вот, значит, проходит полгода этого covid. Я понимаю, что, ну, бутылочка то вина каждый вечер уже даже иногда не на четверых.
312: Мы её на двоих выпиваем, а потом уже в какой-то момент случается вечер, когда я вдруг ну, правда, напиваюсь с папой там нормально, выпиваю там водки и просыпаюсь с утра с больной головой. Я вообще забыл это ощущение, и потом
313: Это случается 2 раз за неделю, когда я прям напился, ну, типа, понятно, там депрессия, тяжело, все там идёт не так и так далее. Там кучу можно объяснений придумать почему. Но правда в том, что конкретно я, ну, алкоголик, я плохо справляюсь с алкоголем.
314: То есть я не останавливаюсь, многие люди могут всю жизнь там пить по чуть чуть, а я как бы рано или поздно в течение года, видишь, от бутылочка вина за ужином до, там, типа, набухался 2 раза за неделю. Ну и когда 2 раз это случилось для меня, я просто очередной
315: Раз понял, что алкоголю вообще не место в моей жизни никак. И я оказался в обществе алкоголиков. 12 Шагов. Да, прям здравствуйте, я Андрей, я алкоголик. Ты говоришь, я петь стал, люди смея.
316: Если вы хотите серьёзно попробовать поработать со своим эго, будьте таким успешным, счастливым миллионером из силиконовой долины, известным на всю страну, и придите на собрание анонимных алкоголиков и сядьте.
317: Там с людьми, которые вот этот только что из тюрьмы откинулся. А вот этот вот там уже при смерти, у него цирроз печени, и вы здесь все абсолютно равны, и ты точно такой же, и вас всех мучает один и тот же недуг, и ты
318: Смотришь на них и честно вдруг понимаешь, что вот эти люди сейчас это единственные люди, которые тебя могут поддержать, что это не ты их поддерживаешь, не такой замечательный на вершине мира, а вот каждый из этих ребят, он там тебе готов протянуть руку, потому что знает, насколько тебе хрен.
319: Ну, сейчас от себя противно, это был очень отрезвляющий опыт. Ну вот, и, собственно, ну, в 20 году я пошёл в a, и с тех пор я между дринками, но при этом я больше никаких иллюзий не рассчитываю, то есть,
320: У меня было 10 лет абсолютно без алкоголя. Я считал, что я в броне, там этот недуг вообще мне отношения не имеет. Потом 1, даже полгода, считай, экспериментов с алкоголем, которые мгновенно меня отрезвили. Сказали, этот недуг никогда не пройдёт.
321: Я навсегда алкоголик, я был алкоголиком 25 лет, я алкоголик, сейчас 43. И сколько бы там десятилетий я не был бы трезв от этого меньше алкоголиком я не стану. Приведи пример того, вот из чего состоит рабочий день человека, который стоит, сидит за этим.
322: Да, ну вот если представить себе обычное программирование, да, когда ты садишься и ручками пишешь инструкции, то, как я сказал, для вот современного софт нейросетей процесс немножко другой. То есть для начала ты очень много занимаешься подготовкой данных. Вот.
323: У нас есть проблема, которую мы сегодня показали, есть некие протеины, всякие разные. И мы хотим для русского протеин. Это белок, белок по-русски. Да, есть протеины, для которых нужно находить молекулы, которые в них втыкаются простыми словами, да, они
324: Bandits. То есть подключаются к каким-то кусочкам этого протеина, которые в результате меняют их функции, либо делать более активные, либо менее активные. Ну и в зависимости от того, что врач хочет добиться в твоём теле. Угу. Иногда хочется, чтобы этот протеин был менее активен, иногда хочется более активе.
325: Вот для этого мы создаём лекарство. Лекарство это способ регулировать функции протеинов в нашем теле. Мы здесь в оптика создаём платформу, которая универсально может найти молекулы для самых разных на свете протеинов.
326: То есть в прошлом ты мог создать компанию, вокруг вот 1 протеина есть какой-то 1 там рак, например, да, учёные нашли связь между таким-то протеином и, скажем, раком груди создаётся целая компания, все, чем она занимается, это поиском молекулы.
327: Подходящий для этого протеина все целый набор специалистов, которые огромную там научную работу провели вот в домене понимания этого 1 протеина в твоём теле. Мы же строим универсальную платформу, которая, в которую принёс этот протеин, мы для неё нашли молекулы.
328: Princess другой протеин. Мы для неё нашли молекулы. Причина, почему это возможно, как сказал конг, потому что благодаря вот современному иай, можно, ну, работать с миллиардами или сотнями миллиардов молекул в
329: Минуты или часы, а не в тысячелетия, как это раньше происходило, руками. Соответственно, наша задача здесь построить нейронку, которая научится на большом примере, на большом объёме примеров, научится каким-то образом догадываться.
330: Вот для такого-то протеина нужна такая-то молекула. Понятно, из всего, что я сказал до этого ей нужно показать большое количество примеров, откуда их взять. Ну вот когда мы к этой проблеме приблизились, мы такие, окей, за, там последние несколько сот лет люди постоянно публи.
331: Публиковали научные данные, то есть они публиковали патенты, они публиковали статьи, в которых они писали, что вот я нашёл такую-то молекулу. Вот формула, и эта молекула, она активна на таком-то протеине. Я протестировал там в мышку, это
332: Молекулу, значит, впрыснул и заметил, что этот протеин там регулировался, уменьшился, например, и вот таких статей, их там сотни, тысяч, миллионы. Мы не знаем сколько, но много, много, много каких-то научных артефактов было опубликовано и вам нужно
333: Показать, дать почитать. Вот 1 задача человека, который работает в компании типа нашей, это каким-то образом подготовить данные из этого огромного количества разрозненных научных источников, каким образом собрать все это в табличку, чтобы скормить нейронки. Да, это очень, очень сложно.
334: Задач. Он же не копи, Пейс там выделяет иногда и так. Но, конечно же, есть огромное количество всяких способов это делать. Вот в частности, мы нашли прекрасный лайфхак для проблемы малых молекул протеинов.
335: 1 из да, есть такая база данных, которую мы обнаружили под названием бандинг диби, то есть бандинг дибби это учёные собрали в 1 кучку, в 1 табличку огромное количество уже примеров из научной литературы и патентов.
336: То есть научный, а mdb буквально ну типа того, да, хороший пример, а mdb это отличный sour, если мы хотели бы что-то натренировать про фильмы, да, вот в данном случае да, как научный Эмди, то есть кто-то ручками за много за многие годы закурирова вот такую базу данных, вот соответственно.
337: Пример, как бы того, что мы, мы делаем, находим какой-то такой датасорс, мы его скачиваем, и вот этот датасет дальше мы начинаем анализировать. То есть сначала 1, что ты делаешь, это ты ручками вот подгружаешь его в такой инструмент анализа данных, это код, да, это
338: Просто код это питон и sql, в котором ты, ну просто ручками разбираешь этот файл и смотришь вообще че в нём есть. И вот мы разобрали файл, видим, что здесь есть смайлс. Это, это формула молекулы есть асии.
339: Это её активность и есть вот сиквенс, это последств, это последовательность аминокислот в протеине, ну это идентификатор протеина. Другими словами, есть табличка, мы нашли табличку, в которой есть такая-то формула молекулы, такая-то формула протеина, вот
340: Настолько то они активны, вот эти очень активные, а эти не очень активны. Супер. Значит эти данные мы можем использовать, чтобы че то натренировать. Ну вот мы сначала проводим по разному, разрезаем эти данные, да, мы их визуализируем и смотрим здесь, да, действительно выглядит.
341: Ну, выглядит похоже, потому что ты никогда не знаешь, ты скачал какие-то данные из интернета, они могут быть битые, они могут быть кривые, они могут быть неправильные. Подожди, а здесь же просто вот код сел на клавиатуру. Ну, это не код, это на самом деле компьютерный способ записывать химические формулы.
342: Помнишь, мы на доске писали си эн оо вот это о c c. And видишь, а все не бессмыслица, нет, это не бессмысленица, это, это просто органическая химия, вот мы, смотри, разными способами проанализировали эти источники, посмотрели, например, откуда вообще?
343: Эти данные здесь вот мы видим, что большое количество, дата поинтов в этом датасете, это из кембл. Это другой научный источник. Уважаемый, мы такие, окей. А вот ещё 1000000 дата поинтов из, из американских патентов.
344: Окей, тоже хороший source то есть мы так глазами просмотрели, что выглядит, что здесь ну достойны хорошие сорсы для этих данных. Вот мы их ещё по разному проанализировали здесь посмотрели например патенты давайте покажи мне, что за патент у тебя есть wd?
345: Что номера патентов выглядят вполне себе реалистично. Ну то есть они вот в таком формате обычно есть, видим, что для них есть некие молекулярные структуры. Угу. И так далее. То есть мы проводим такой визуальный анализ данных. Вот это то, чем занимается
346: Researcher очень часто просто копается в данных и пытается понять, доверяет он ему или нет. Почему я это похоже на фактак. Да, это похоже на фактак. Вот, потому что дальше, когда мы запустим обучение нейронки, этот процесс, который стоит
347: Сотни киловатт и которые стоят десятки тысяч долларов. Так, а как это выглядит? Значит вы это запускаете? Вот я хочу к цифре в 10 000 $ шокировавшей меня подойти. Сейчас, сейчас мы это сделаем. Значит, смотри, вот мы проанализировали, посмотрели, как, как, например, дистрибу
348: Молекул в этой базе данных, что некоторые очень активные, некоторые менее активные, выглядят реалистично. Там спросили, иногда ллм, у, спросили какие-то вопросы по поводу данных в этой табличке, например, спросили, а вот что это за таргет здесь? И она нам что-то ответила. То есть в нашем
349: Большое количество инструментов, как ты говоришь, похожих на фактчекинг, чтобы просто оценить этот источник данных причин, почему это все показывает, чтобы показать, насколько данные стали важнейшим источником нового программирования. То есть вместо того, чтобы сидеть в каком-то коде,
350: Анализировать инструкции, которые ты напечатал ручками. Теперь работа вот такого эмейл инженера в основном заключается в анализе данных и копании в нём, прежде чем потом в какой-то момент запустить эти данные на обучение и дальше молли,
351: Что правда сработает. Короче, в результате вот этого всего анализа мы в какой-то момент пришли к выводу, что окей, выглядит хорошо, и в какой-то момент мы берём и запускаем тренинг, когда мы запускаем тренинг. У нас. Ну вот это google cloud.
352: Нашего, наших серверов, да, то есть за которые мы платим google, которые где-то там расположены, в дата, в Холодных местах. Ну да, они в Холодных местах и очень сильно греются. И вот мы в какой-то раз запустили эту джобу. И вот видишь, у неё сейчас статус
353: Train. То есть вот она пошла запускаться 42 минуты она, да, и она вот уже 42 минуты. То есть так, и сколько вы за за эту тренировку заплатите? Вот смотри, каждый эксперимент мы, ну то есть на тренировку 1 такой нейронки мы тратим сотни экспериментто.
354: Да, то есть ты вот так вот запускаешь, запускаешь, запускаешь каждый эксперимент. Стоит несколько сот долларов. Вот в нашем случае на данном объёме данных сколько экспериментов в день? Ну, иногда, говорю, сотня. То есть, может быть там 10 000 $ в день мы можем сжечь на тренировку нейронов.
355: 10 000 $ в день. И это просто просто на электричество. Чувак, понимаешь? Вот смотри пример. Вот это сейчас джоба работает. И вот мы видим ваты, которые мы жжём на её тренировку. Видишь?
356: 320 ватт на gpu мы для этой вот задачи, конкретно которую я сейчас показал, запустили 8 gpucloud оо 2 с половиной киловатта мы сжигаем, мы можем взять какое-то количество примеров из нашего найденного нашим наш.
357: Датасорса и не давать их модели для обучения, а сохранить их как тестовые, как валидационный сет. Когда мы натренируем модельку, здесь вот мы её натренировали, а потом мы берём и говорим, ну давай, вот тебе пример.
358: Ответ, для которого ты не видела. Докажи мне. Покажи мне, что ты предскажешь. Эта молекула подключается к этому протеину или нет. И вот мы видим, что в начале обучения она возвращала там правильный ответ с вероятностью 50%. Ну то есть рандомный, просто 50 на 50, как монет.
359: Угу. А по мере того, как видишь, вот 1 операция тренинга прошла, 2, 10, 20, 40, вот, там, 50, 50 операций этого тренинга, когда машина подкручивала параметры в нашем, спредшит таблице, подкручивала их так, чтобы она
360: Сказывала результат все лучше и лучше. Мы видим, что по мере того, как она, это то, что мы называем тренингом, мы видим, что по мере того, как она идёт через итерации обучения, у нас эта метрика начинает улучшаться, улучшаться, улучшаться. Ну и вот она достигает уже 70% правильности. Угу. То есть вот тут мы уже видим
361: 100. Ну, наверное, в идеальном мире бы, конечно, 100, но в мире ничего 100 не бывает, конечно. То есть мы любая задача любых машин люнеровна, просто двигать эту метрику как можно ближе к 100, приближаться к все более лучшим результата.
362: Какая конечная цель тренировки, конечная цель тренировки это создать такую модель, которая на выходе будет генерализовать. То есть она будет хорошо предсказывать результаты для молекул или для любых данных, которые она не видела.
363: В процессе тренинга. Идеальный мир это не тот, в котором ты научил, показал машине 10 примеров кошечек, 10 примеров собачек. Даёшь 1 из этих кошечек, которую она уже увидела, и она его правильно называет кошечкой, а собачку называет собачкой, но даёшь ей фотографию своего кота и
364: Она такая, ну, я не знаю. Собака, наверное, вот это плохая модель. Хорошая модель. Это та, которая может генерализовывать за пределы своего трейнинг сет. В нашем случае мы скормили ей 3000000 примеров из всей истории научной литературы молекул, которые подключались к
365: Протеином и которые были замерены, запатентованы. Но наша то задача находить новые молекулы. Соответственно, конечный результат этого тренинга. Это у тебя есть вот некая такая спредшит таблица, которой ты даёшь какую-то на входе. Протеин, который она никогда в жизни не видела совершенно
366: Новый, может быть, вчера открытый, она тебе раз и выплёвывает молекулу, говорит, вот эта молекула к нему подключится, а ты потом берёшь эту молекулу, синтезируешь, отправляешь его в лабораторию и думаешь, ну, конечно, подключится, а тебе приходит результат и говорят, блин, она работает.
367: Это 1 в мире молекула от этого там рака груди. И ты такой, вау, насколько верно, что чем больше текста в твоём запросе, тем больше ты сжигаешь электричества. Это абсолютно правда. То есть модель в буквальном смысле работает, как я сказал, слово.
368: За словом она генерирует 1 слово, это называется токен. 1 слово, да, и слово за словом, оно генерирует весь твой запрос. Это является каким-то количеством токенов, да, то есть сколько-то слов, которые ты даёшь изначально, а дальше сколько-то количество слов, она ещё
369: Генерит в продолжение. Так вот, каждый раз, когда она что-то генерит, она получает на 1 слово больше в контексте, вокруг которого она может принять решение о генерации следующего слова. Соответственно, чем больше слов в этом контексте, тем, в общем,
370: Это более вероятно, что, ну, она потратит больше электричества, естественно, на это все, но и более вероятно, что она более че то толковое там дальше ответит. Вот, поэтому отчасти, ну, главный прорыв, вот за последнее время между GPT-3 и gpt 4 о
371: Или о 3, которым мы сейчас пользуемся. Вот, о, 3. Самая умная, скажем, в кавычках модель. Самая большая разница не в том, как они при тренинг сделаны. То есть не сколько там данных было скормлено машине для этапа тренировки, а сколько электричества.
372: Машина в момент исполнения запроса, то есть вот старая там GPT-3 передавал запросы, она просто генерировала как на ходу, грубо говоря, как человек, который на ходу придумывает ответы. Просто то, что у него изо рта выходит, то и есть его мысль, а современная оо 3 она на самом деле тратит.
373: Какое-то количество циклов электричества, чтобы поговорить сама с собой в кавычках. Угу. Поразмышлять, подумать, да, подумать, нажечь больше электричества и компьютер за это время и потом выдать тебе результат. И вот чем больше она здесь нажжёт, в принципе, тем мы видим, что результаты
374: Больше похоже на правильный ответ. Ну, в том, что я просто перестал с тех пор, как это узнал, я перестал писать, пожалуйста, в запросе, и что совсем мне некомфортно, даже запятые не ставлю там, где надо. Это нормально. То есть я это не бессмысленно.
375: Если твоя задача сэкономить какие-то малюськи, да, да, сэкономить малюск электричества, наверное, да. Я думаю, что в контексте всего остального, что ты жжёшь, когда говоришь с лмкой, твои, пожалуйста, спасибо. Не играют Роли ни в, ну, типа, это
376: Округление. Эта нейронка будет работать только на вас, на вашу компанию. Это не тот случай, когда ты делаешь, создаёшь нейронку для того, чтобы там сделать приложение, и все бы ей пользовались. Это зависит от нашей стратегии. То есть изначально мы собирали
377: Просто делать для себя и сами делать лекарства. Потом мы поняли, что на самом деле открывать эту нейронку для других, для коллаборации других людей это хорошая идея, потому что при всем желании мы не сможем там все на свете лекарства делать сами. Это чудовищно дорого.
378: За пределами дизайна молекулы, тестирование на животных, на людях. Потом это гигантские сотни миллионов долларов, которые, ну, нейронками не ускоришь. По крайней мере, этой нейронкой не ускоришь. Соответственно, со временем мы стали нашу
379: Платформу предлагать различным коллаборатором, там, включая огромные ресерч институты. Стэнфорд пользуется нашими нейронками, и, включая коммерческие компании, они платят за это кто-то платит, а кто-то делится, ну, интеллектуальной собственность.
380: То есть по результатам, когда находится некая ценная молекула, которая может стать лекарством, мы получаем процент в вот результате. А в целом вот какой порядок цифр, если я, например, хочу для чего-то вашей нейронкой попользоваться, за сколько вы мне дадите? Ну, в целом,
381: Обычно мы платим, нам платят по майлстоунам, да, то есть по достижения майлстоун. То есть обычно начало проекта стоит 50 000 $. Просто, чтобы вот мы сгенерировали 1 список молекул. Дальше эти молекулы тестируются, среди них находится, правда, активные, то есть подтверждает
382: Что это заработало? Мы получаем следующие порядка 100 тире 200 000 $. Ну и дальше там по нарастающей. То есть, ну, заказчики биг фарма, 1 000 000 $, не обязательно биг иногда это просто байтек, это, это просто фармакомпании, либо, либо ресерч институт.
383: Да, есть ли в чате gpt цензура, да? Ну, неправильное слово цензура, но есть человеческий фидбэк, инфорсмент, ленин, вот human фидбэк, то есть
384: Только с учётом человеческих преференций, то есть в компаниях типа open иай работает огромное количество людей, физических людей, которые занимаются исключительно тем, что выступают учителями этих больших языковых.
385: Модель, то есть языковая модель в буквальном смысле отдаёт какой-то свой ответ, который является статистически значимым результатом на базе всего интернета, который эта модель прочитала в интернете. Она прочитала всякие разные вещи, сам понимаешь, на реддите там, ну, иногда и не самое
386: Там интересно земля плоская да всякое разное бывает и для того, чтобы результат работы чата gpt нравился тебе и пользователям, которые за него платят, опен нанимает огромное количество людей в разных доменах экспертизы там врачей.
387: Там лингвистов, математиков и так далее, которые заняты с утра до вечера тем, что получают ответы от новых моделей и говорят, модели нет. Вот этот ответ мне не нравится. То есть, как я сказал, модель возвращает результаты статистически наиболее вероятные больше.
388: Checking. Похоже это не факт. Чекинг это скорее выглядит как дрессировка животного или ну даже обучение ученика в школе отчасти там младшеклассника да, когда они тебе че то говорят ты говоришь им нет вот этот вот ответ не самый хороший.
389: А вот другой ответ, который ты мне принёс, там на следующий раз, он лучше и модель, это запоминает, обновляет свои веса. Помнишь, я говорил про 200 миллиардов параметров в табличке? Вот каждый раз, когда она получает какую-то информацию об обучении, ей говорят,
390: Вот это неправильно. Она подкручивает какие-то параметры у себя в табличках, чтобы в следующий раз получилось более правильно. Это и называется процесс обучения. Дообучения есть предобучением, то когда она просто читает интернет, а есть дообучение, в которое включается в том числе вот человек,
391: Feedback ну нет такого, что сейчас chat gpt это там 1 из самых свободных площадок, где можно о чем угодно говорить ну говорить о чем угодно можно много где с чатом gpt уж точно можно, но безусловно, то откуда модели проистекают, включает
392: Себя какой-то bias да, то есть это мы видим очень хорошо, когда появился дипси, но попробуй deep Сика, спроси про Синпина, да, там про тайвань, да, и он тебе скажет, что тайвань это Китай, и очевидно, что это глубоко на этапе ещё.
393: И тренинга было вмонтировано. То есть этот байсс был вмонтирован, в него вчера вышел новый игрок, он, кстати говоря, сейчас вот прям когда мы с тобой встретились, вчера, его ещё не было, а теперь он самая мощная модель, на данный момент известная.
394: Он побил пока что всех, включая open a и google, а что значит мощное? Ну то есть есть огромное количество Тестов, как, грубо говоря, как представь, егэ для моделей люди придумывают бенчмарки сейчас, чтобы оценивать, насколько модель хорошо справляется с огромным количеством разных задач. География такая сякая, математик.
395: Ну вот по всевозможным куча задачек и модели постоянно бенчмаркается, то есть они постоянно тестируются на всяких всевозможных этих задачках, и им даётся какая-то оценка. И так можно сравнить разные модели, что там типа 4 о мощнее, чем
396: Там GPT-3 и так далее. Так вот, грок сейчас самая мощная модель, она лучше всех справляется с наиболее разнообразным количеством задач. И тем не менее, то, что за последние сутки я читаю, удивительным образом большое количество людей обнаружило
397: Что по сложным вопросам? Джи грок 4 консультируется с твиттером Илона маска. То есть ты его спрашиваешь там, я не знаю, че-нибудь про войну Израиля палестины, и он говорит, сейчас посмотрим, че там илон маск пишет вот это.
398: Bad вас. Ну то есть судя по всему, ну тезис маска, что грок это модель в поисках правды. Но вот видишь как оказывается, поиск правды надо производить в 1 очередь в твиттере Илона маска. Вот, например, вы нашли молекулу
399: Что вы дальше с ней делаете? Отправляете к медикам? Нет, там это очень долгий процесс, вообще говоря. Ну, процесс производства лекарств, чтобы дать понимание вообще масштаба сложности. Угу. Каждое лекарство, которое ты сейчас покупаешь в аптеке,
400: Обходится в миллиард долларов на то, чтобы пройти путь от вот идеи до момента, когда она на полке. Причём стоимость эта, она, ну она непропорциональная, она начинает очень по мере Прохода через разные фазы, она сильно увеличивается.
401: Начинается вот все с фазы discovery это то, чем мы занимаемся, когда в самом начале ты просто ищешь открытие новой молекулы, это относительно Дешёвая фаза даже в традиционной фарме до всяких вот этих этомен это обходилось в среднем 50000000 долларо.
402: 1 этап. Дальше начинается при клиникал фаза, когда вы нашли лекарство, протестировали его в пробирках, и вы начинаете его колоть в мышек и тестировать уже в живом организме, будет оно работать или нет? Очень огромное количество молекул, которые были активны в пробирке.
403: В мышке не работает, потому что сложность организма такая, что все ломается. Вот эта следующая фаза обходится тебе, ну вот все это вместе обходится в 50000000, но типа мышки и так далее. Тебе обходится там, типа риск, а just ещё там, типа в 10. Потом начинается 1.
404: Фаза клинических испытаний. И это тот момент, когда ты впервые получаешь разрешение вколоть своё лекарство в здорового ещё человека, просто чтобы убедиться, что оно не токсично, что оно не вредит никак людям. 1 фаза клиники тебе обходится ещё в как
405: Там какие-то десятки миллионов. И дальше начинается 2 фаза клиники, когда ты реально выбираешь уже настоящих пациентов и подписываешь с ними очень сложное соглашение о том, что они идут на вот тестирование нового непротестированного препарата. И так
406: Далее и так далее. Это в обмен на деньги делается, ну, как правило, или в обмен на шанс вылечиться. Иногда делается в обмен на деньги. Но, как правило, это люди, которые сильно замотивированы, да, зависит от болезни очень сильно. Ну, то есть это очень, очень сложный, бюрократически сложный, крайне зарегулированный процесс.
407: В котором участвуют там сотни человек, dr, больница, там все подписываются кровью, что понимают риски и так далее. Это очень, очень серьёзное дело. Вот, соответственно, на каждом из этих этапов, ну вот дальше тестируешь здесь, это тебе обходится там, ну, по разным оценкам, от двадца.
408: До 100 000 $ за пациента можете обойтись, а для какой-то редкой болезни, да, там по 1 000 000 $ за пациента, чтобы провести клиникал стадию. Да и тебе нужны, как правило, там десятки, а иногда и сотни пациентов, скажем, вакцины от covid, которые проводил
409: Клинические испытания, там было 30000 пациентов клинических испытаний, прежде чем вакцина получила пробол. Это масштаб, ну, беспрецедентный, это стоит огромных денег. И, соответственно, на каждом из этих этапов у тебя огромные шансы провалиться, любое лекарство доживает.
410: До запуска с вероятностью порядка меньше 10%, порядка 5%. То есть 95% всего ресерча. Вот все, что мы делаем, вся наша индустрия, все, что делает, оно в какой-то момент, по какой-то причине провалится. Это крайне рискованно, крайне
411: Рискованное мероприятие. Вот. Но поскольку на, на кону жизни людей, жизни и здоровья людей, то это, конечно, совершенно оправданно, да, хотелось бы, чтобы все двигалось быстрее, но в этой индустрии твой 1
412: Правило не навреди. У вас есть результат, когда вот, вот вы именно нахождение этой молекулы 1 этап проходили, да, вот это 1, 2, там удивительно. Нет, у нас есть сейчас, ну то есть опубликованные у нас есть какое количество опубликованных результатов, да, вот у нас есть 3 молекулы опубликованы.
413: И это как бы гигантский результат. 3 молекулы там за 2 года, что мы их искали. Это супер результат для этого рынка, но у нас есть ещё какое-то количество программ, которые ещё не анонсированы, но результаты уже пришли. То есть мы ждём
414: Некоторые из них с коллабораторами большими, типа со стэнфордом, а дальше, после этого они как раз пойдут в пробирки. Не, они уже в пробирке, они как раз вот когда я говорю, что мы нашли молекулы, это значит, что мы их там нашли в компьютере, синтезировали, протестировали в пробирках и получили на
415: Научно доказуемый результат, который показывает, что они работают, они вот вот пойдут в мышек, да, дальше они пойдут в мышек. Некоторые из них уже пошли в мышек. Какая экономика? Вы за это получили деньги, за какие-то из них получили деньги, да, за какие-то, ну то есть за какие-то из них получили долю в
416: В ip, то есть в интеллектуальной собственности. Вот если это станет когда-то лекарством, если, грубо говоря, это когда-то станет азембатого, ну это будет то тогда сотни миллионов или миллиардов долларов. Ваша маленькая доля, которую вы за это получаете, она просто превратится в огромную, да, то есть
417: Экономика всего этого бизнеса заключается в следующем мы стараемся зарабатывать какие-то небольшие деньги, которые окупают там нашу работу, да, вот в качестве каких-то cash payments, но большой приз на выходе это создание лекарства, то есть мы
418: Здесь это все делаем не для того, чтобы в конечном счёте какие-то статьи научные публиковать в том, что однажды реальные пациенты улучшили свою жизнь или, может быть, спасли свою жизнь благодаря лекарству, которое мы в какой-то момент помогли создать. И вот на этом этапе, если это когда-то случается,
419: То мы получаем значительные финансовые результаты, ну то есть на масштабе сотни миллионов долларов. То есть вот тебе пример, сделка, которую мы подписали в прошлом году, она суммарный выхлоп в случае получения этих
420: 175 000 000 $ для нас это какая доля? Ну там, ну то есть там сложно как бы так просто не объяснить, но это единицы процентов, да, на выходе. Но это если это станет когда-то штукой, которая помогает
421: Которая, правда щитовидки, которая правда работает, да, если она не запускается, то походу мы получим какие-то там сотни тысяч или пару миллионов долларов, которые окупят наши вложения. Но как разбогатеть, мы на этом не разбогатеем. То есть вся эта индустрия, она заточена на достижении
422: Успеха, она во многом как музыкальная индустрия. Ты как бы ждёшь хита. А земпи это пример суперхита. Моделей же десятки, сотни. Их очень много. Почему самые известные и, видимо, наиболее используемые чат gpt.
423: Ну, в 1 очередь, потому, что они были первыми. То есть они на самом деле создали такой мощнейший эффект и построили бренд вообще генеративного эая для обывателей. То есть, вот до момента, когда запустили чат gpt, люди, типа меня
424: Прекрасно знали языковые модели, да, то есть мы как бы строили. Я начал свою компанию до того, как появился чат gpt. Там и все мои кофаундеры и сотрудники это люди, которые много лет занимались машинным обучением, но open ai просто вдруг создал
425: Великий момент для всех на свете, когда все вдруг одновременно целый мир вдруг прочувствовал, что это такое, ну сделал его a i народным, да сделал и i народным хороший способ это выразить, потому что на самом деле gpt как таковой зародился в google.
426: Надо понимать, да, что open ai построил gpt на технологии трансформер, которая была разработана внутри google внутри google лмки существовали достаточно давно, был скандал какое-то время, несколько лет назад, когда 1 из сотрудников google.
427: Значит, заявил, что модель ожила, что она живая и что типа google держит её взаперти, и там был целый такой скандал какое-то время в прессе его уволили после этого, то есть вот эта вся история внутри индустрии как бы постепенного офигевания.
428: Того, насколько же круто модельки научились общаться на английском языке. Оно происходило несколько лет до, но open ai сделал несколько очень крутых продуктовых Шагов, но 1, что они на самом деле первые, кто сделали хороший по настоящему хьюман фидбэк, то есть вот это
429: Lup когда эксперты начали дообучать модель, чтобы она правда стала говорить похоже на человека, во вторых, они сделали хороший продукт вокруг неё, который очень легко было распространять, ну и честно, им просто повезло, они этого не ожидали да, это то-то, с какой скоростью выраст чат gpt никто не ожида.
430: Что ты думаешь про российские модели? Ай, я, честно говоря, не знаю ничего ни про яндекс, ни про Сбер, ни про что я ничего про это не знаю. Я понимаю, что там сейчас иай становится геополитически важным инструментом.
431: То есть правительства стран, в том числе америки, всерьёз увидели потенциал этой технологии, и ну, в ближайшие годы мы увидим борьбу государств за доступ к железу к gpu да, это мы сейчас уже видим ограничения на поставки.
432: В Китай, санкции в Россию. То есть на самом деле количество компьютера из сложного, из сложных чипов, которые нужны для этого, получить не так-то просто, но даже когда ты их получаешь, это стоит очень больших денег и не так.
433: Много, в принципе, компаний в мире, которые готовы финансировать ресерч на том масштабе, на который нужно. А речь идёт о сотнях миллиардах долларов, потраченных на электричество для тренировки каких-то нейросетей. Вот сейчас, ну, практически это
434: Штаты и Китай, которые могут столько тратить. Не могут ли, ну, страны, где электроэнергия просто дешевле стоит выбиваться теоретически, да, а в России она гораздо дешевле, теоретически, да, но для этого им надо очень много чипов, и, и это дорого.
435: Да, то есть построить дата центры масштаба, как-то, что построил маск. Для того, чтобы тренировать свой игрок, реально могут очень маленькое количество сейчас компаний в мире, у которых есть при этом доступ к квотам энвидии. То есть это сейчас рынок очень сильно ограни.
436: Доступом к железу. А где маск построил, какого это размера о. Маск построил совершенно самый большой, самый мощный в мире суперкомпьютер, его новый дата центр xxi, который он построил где-то здесь, в штатах, это самый мощный суперкомпьютер, созданный человечеством, и это
437: Действительно, уникальное достижение, скорость, с которой он его построил. А какого он размера, если мерить не знаю. Кварталами, я не знаю, но советую всем погуглить и посмотреть. Это потрясающее абсолютно зрелище. Самое удивительное, то та скорость, с которой они это построил.
438: И вот крок 4, который сейчас всех выбил по всем соревнованиям, он, ну, 1 моделька, натренированная вот этим новым суперкомпьютером.
439: Мы говорили про сотрудников, ну, скажем так, креативной индустрии. Угу. Какие там могут быть сокращения. Но под огромным ударом просто программисты, да, вот те люди, про которых мы снимали кремниевую долину 5 лет назад, да, они действительно
440: Под угрозой или это моё такое любительское представление смотри, я, у меня есть другой взгляд на этот вопрос, который заключается в Термине вайп кодинг. Слышал такой термин нет wipe кодинг это
441: Теперь самая тема. Всем советую изучить, когда мы с тобой снимали выпуск. В прошлый раз, 5 лет назад я рассказывал про магический мир каких-то программистов из силиконовой долины, которые научились программировать. И поэтому у них теперь классная работа, они много зарабатывают, и теперь они могут делать вещи, которые во
442: Вы все без таланта не можете. Ну, по крайней мере, так мне писали потом люди в инстаграм, которых я убеждал, начав петь. Так вот, сейчас эта проблема вообще исчезла. Самый горячий язык программирования в долине сейчас какой англий?
443: Английский. Каждый человек, который может говорить по-английски или по-русски. Угу. Может напрограммировать приложение хоть для айфона, хоть для веба, хоть для андроида. Ты можешь реально сесть и с чатом gpt сказат.
444: Слушай, я хочу напрограммировать сейчас приложение там для медитации, он тебе скажет, окей, давай ты ему объяснишь человеческим языком, может, голосовухами? Ну, хочу, короче, чтобы там был, короче, список медитаций, там поиск какой-то, кнопочка такая сякая, и он
445: Нагенерит коды, которые реально заработает. Понимаешь? И ты с ним так ещё потерирекомендую.
446: Кодинг тул, но вот сейчас на наших глазах каждый человек, который 5 лет назад, глядя твоё видео, думал надо бы мне научиться какой-то там it может прямо сейчас, вот в этот момент поставить видео на паузу, пойти и напрограммировать своё приложение. Понимаешь, это был
447: Невозможно. А теперь возможно. Поэтому, да, можно говорить, что кто-то под угрозой, какие-то профессии, под угрозой. А можно сказать, что, ну, благодаря этим технологиям теперь каждый программист и моя мама может че то напрограммировать при желании, когда речь идёт о
448: Люди, которые профессионально этим занимаются, я скажу так, что, ну, по настоящему хорошие инженеры становятся дороже и важнее. Энтри левел джобс действительно изменится, и они во многом будут заключаться в том, что ты оперируешь и агентами в большей част
449: Чем сам что-то пишешь от руки и ну структура рынка этого изменится, но вот смотреть на это как типа ну теперь программисты не нужны, у нас теперь все машины сами пишут, я бы тоже не стал, а тут работает ai сотрудник, то есть по мере того как
450: Научились размышлять. Сейчас очень такая большая гипотеза в индустрии заключается в том, что мы постепенно можем начать строить цифровых сотрудников, да, то есть некие функции заменять работой ллм ней.
451: Сети. И вот здесь в данном случае агент занят тем, что анализирует конкурентов к лекарству, которое мы разрабатываем. Он читает всю научную литературу, все пресс релизы, анализирует биржевые сводки и
452: Делает выводы о том, что вот эта компания, или вот эта компания, там нам конкурент или интересно, не интересно. Это серьёзно сейчас происходит, да, абсолютно серьёзно. Вот вижу, работает. Здесь есть сотрудник, здесь есть человек, его, условно супервайзер, я не знаю, ты тоже его видишь, нет.
453: Давай не об этом. Здесь есть человек, который это делает. У нас, да, есть человек или он на треть ставки, но только теперь у этого человека есть десяток цифровых интернов, которые стажёров, которые выполняют какие-то пока что более менее простые функции, на которы
454: Можешь засадить, скажем, читать все пресс релизы за сегодня. Вот в целом, там в среднем большая работа любого ресерчера в фарме заключается в том, чтобы читать научную литературу в день. Ты можешь прочитать, проанализировать, ну, там десяток статей, 2 десятка. Может быть. Давай простой пример, как это
455: Работал бы, например, в моём ремесле, то я бы просто как бы сделал i помощника, который бы сказал посмотри все интервью, которые в своей жизни дал Андрей Доронич, совершенно верно, и он мне просто и расскажи оттуда 10 интересных вещей, более, даже более глубоко.
456: Спросил бы более конкретные вопросы. А отсюда скажи мне, какие вопросы он обычно избегает. Или скажи мне, что до этого он говорил, что противоречит тому, что он говорил после. Слушай, а вот за такого сотрудника надо 1500 заплатить. Я боюсь.
457: Что за него надо платить, но меньше да ты платишь за место в дата центре на gpu, что гораздо дешевле, чем физический рил стоит обалдеть я в будущем не знаю, радоваться ему или нет вот.
458: Есть, спредшит с набором лекарств, которые, которые релевантны к нам там, которые мы трекаем. Да, и вот, ну, обычный спредшит. И ты видишь, что здесь кто то чего-то ты средитом таблицу называешь, таблицу, экселевскую таблицу. Слушай, так серьёзно? Да, да, да, я прям это
459: Ну, в моём тоже shit, написано внизу. Вот. Но я все равно это называю таблицей. Ну, окей, экселевская табличка. И вот в ней есть какие-то лекарства. И здесь, видишь, кто-то что то сейчас редактирует. Так, и вот, прикол в том, что если открой здесь, ты видишь, что редактирует это все.
460: Агенты. И вот у меня есть там сейчас 5 агентов ресерчер, джуниор, аналист, там data analyst. А вы можете имя придумывать им, например мы, мы стараемся, мы стараемся их не персонализировать почему? Но теоретически можем. А почему?
461: Потому что, чтобы не привязываться, знаешь, чтобы потом можно было легко и что-то грохнуть коллек, да, чтобы реально, как бы удаляешь. Колька, да, да, колька, жалко уже как-то удалять, а так-то удалилось. Видишь, вот они, они сейчас сидят, анализируют весь интернет, читают всю научную.
462: Литературу. Вот ты видишь, слушай, то есть это вот Ровно так же, если бы, например, в моём google доке, где мы редактируем что-то, да, я, ну, я всегда же вижу, кто там из редакторов или кому я дал доступ, да, а тут я буду понимать, что это не не пацаны, а, ай, ай,
463: Агенты, да, и вот это то, как сейчас это выглядит уже, да, для нас. То есть для нас это рабочий инструмент, который мы и sammy используем, и наши партнёры его используют. Я пытаюсь понять, что бы я чувствовал при этом. Вот моё 1 ощущение, при том, что я максимально понимаю, что это входит в нашу жизн.
464: Я бы чувствовал, что мне некомфортно, ты же в игры играешь с npc, я не играю в видеоигры. Ну хорошо, те, кто играют они привыкли к тому, что у них там только я играю там. Окей, там же есть. Вот бегают у тебя футболисты, типа, кому я опоздаю? Ничего, ты с ними такой, братан, давай принимай, а не на самом деле.
465: Самое простое в моём мире понимании, да, воротчик. Воротчик же это как раз эмбиси, да? Угу. Потому что не я же играю. Ну, блин, игра и google, док, это разные вещи. Ну, как сказать, в целом многие вещи, которые мы делаем, которые мы называем жизнью.
466: Они как бы, по сути, игра, да, мы какие-то очки оптимизируем для каких-то результатов и координируемся для этого в команде. В общем то, считай, игра. Надеюсь я не ретроградно к этому отношусь, я в принятии вот
467: Видно, что сейчас кто-то здесь что-то редактирует, какие-то ячейки, даты, да, и можно посмотреть, кто это делает. И видно, что вот делают сейчас 6 агентов, которые вот здесь вот перечислены. Некоторые из них сейчас не работают, а эти вот работают. Слушай.
468: А прикинь, вот, ну, есть же 200 часов сохранено работы ресерчеров. Слушай, я так понимаю, что многие, кто уже совсем разобрался, они свою жизнь и помощниками, в том числе в бытовых вопросах, сейчас окружают. Купи мне билеты и все остальное.
469: Станет ли тот момент, когда, например, ты заметишь, что твой иай помощник, например, заказывает букет для твоей жены не потому, что ты собирался это сделать и указал это в своих планах, а потому, что сам иай, помощник этого захотел. Знаешь, я думаю, что он уже
470: Наступил в какой-то мере, если посмотреть на то, как люди с днём рождения поздравляют друг друга не потому, что они вспомнили, что у тебя день рождения, а потому, что фейсбук или google календарь им подсказал, что у тебя день рождения, и они автоматизированное какое-то сообщение тебе автоматически послали из мессенджера, мне кажется.
471: Это наш выбор позволить эйай, жить за нас нашу жизнь или нет. Если ты сделаешь из ai слугу, ты, скорее всего, потеряешь способность делать все в своей жизни. Если ты сделаешь из ai оракула, ты, скорее всего, отупеешь. А вот если.
472: Ты сделаешь из я из своего равноправного помощника, который позволяет тебе развиваться, быть человеком. Ты, скорее всего, станешь суперчеловеком. Да, но я специально пример привёл. Вот такой возникли в какой-то момент повод для ревности. Вот я же про пример именно такой деликатный.
473: Что не начнёт ли он, например, ну, там, любить тех же людей, кого любишь ты, и не будет ли это входить в конфликт с тобой? Я думаю, мы персонализируем неживое очень часто и придумываем им какие-то человечные, Деля их челове.
474: Человеческими свойствами, а на самом деле по пути самый большой риск это то, что мы теряем свои человеческие свойства, а не то, что кто-то их приобретает, что будет с образованием. 1 из 2 я оптимист. Я думаю, что мы стоим
475: На пороге самого большого прорыва в образовании, позитивного прорыва в образовании. Я тут буквально вчера смотрел статистику. Есть исследование 92, по моему, года, которое называли к нему, к нему отсылают, как
476: 2 сигма исследования, ту сигма стадии, которое заключалось, если просто простыми словами, заключалось в том, что если взять отстающего студента, то есть есть это распределение оценок среднестатистического студента по моему, в америке проводилось, это исследовани.
477: Если взять в этой шкале распределения студента слева, то есть какого-то сильно отстающего студента и дать ему постоянного персонального тьютера, то его результаты сдвигаются на 2 сигмы, то есть thread.
478: И студент становится эксепшн, студент, а отстающий студент становится выше среднего студента. Ну и поэтому исследование в области образования получалось, что наличие выделенного внимания индивидуального плана обучения для человека самое
479: Большое, что можно сделать для того, чтобы значительным образом сделать людей умнее. Но, как правило, ну и тогда, когда оно вышло, это исследование. Критика была в том, что, ну, это, конечно, классно, но это никак экономически невозможно. И сейчас мы стоим впервые в жизни на
480: Пороги момента, когда это становится возможно. То есть даже то, что мы все испытываем, общаясь с чатом gpt. Многие наверняка испытывали момент, когда они вдруг по результатам общения на какую-то тему чувствовали, что они чего-то нового узнали. Им хочется задать следующий вопрос. Ну да, да, как будто
481: Они на интересном уроке. И вот это вот ощущение на самом то деле, по идее, должно быть то, как мы вообще всему учимся в жизни, не то, что ты 10 лет ходишь куда-то, куда ты не хочешь ходить и тебе там почему-то говорят вещи, которые ты не хочешь слышать, а вокруг тебя создаётся
482: Магический мир знаний, в который тебе хочется погружаться все глубже и глубже, потому что, ***, интересно, создать такой мир для ребёнка крайне сложно то, что там, ну, я преклоняю колени перед всеми учителями, которые избрали эту профессию, это крайне сложная профессия.
483: Детей. И мы сейчас как человечество делаем, ну, лучшую работу, возможную в текущих условиях. Но, мне кажется, теперь благодаря эйай, мы действительно можем сделать что-то, что раньше мы вообще сделать не могли, а именно дать каждому ребёнку или каждому студенту даже не обязательно ребенк.
484: Индивидуального преподавателя. Я про образование, как сказал. Ты сказал 1 из 2 и рассказал только про 1, про хороший вариант, когда будет тьютер у каждого, a2 вариант, ну, 2 вариант разучимся читать. Вот я тоже смотрел другую статистику.
485: Которые получалось, что 20 лет назад в америке двенадцатиклассники, ну, то есть выпускной класс, в среднем в год читал 10 книг для удовольствия, и было 10% учеников, которые говорили, что они прочитали
486: За этот год 0 книг для удовольствия. Ну то есть читали только то, что нужно в этом году статистика Ровно противоположная. Большая часть людей вообще не прочитала ни 1 книги для удовольствия. Ну, разучимся, ты имеешь ввиду, потеряем привычку читать привычку читать. Процесс есть большое.
487: Количество текста, да, то есть мы начнём полагаться настолько сильно на дайджест текста, ну и мыслей через вот эту систему. Это действительно слишком привлекательно, это, ну, а мы ленивы, что со временем человеческая способность рабо
488: Работать вот мозгом через сложную большое количество информации просто постепенно отпадёт и все меньше людей это смогут делать как результат, как бы их там. A аютор не обучал, их мышление станет очень неглубоким, и мы просто отупеем все вместе. Смотри.
489: Ai с каждым годом может быть месяцем все умнее угу. Правильно ли думать, что человечество будет становиться все глупее? Давай придумаем себе, представим себе в мире до автомобилей, и эскалаторов и лифтов и вот мы с тобой сидим в этой студии, записываем.
490: Выпуск про то, что, ну, электричество появилось и теперь, значит, мобильность человеческая не больше не полагается так сильно на мышцы твоих ног по лестнице тебя поднимает лифт эскалатор вперёд назад тебя возит автомобиль. И, в общем то, теперь
491: Эта технология становится вседоступным. Как ты думаешь, что станет с человечеством? Они разучатся бегать? И в принципе 1 из возможных будущих, что да, мы все будем страдать ожирением и постепенно атрофируются ноги. Мы знаем из истории, что отчасти это, конечно, тоже случилось.
492: Но тем не менее нельзя никак, ни в коем случае сказать, что люди как вид стали медленнее например, все самые большие рекорды беговые поставлены за последнее время и вообще спортивные я верю в желание людей оставаться живыми и людьми, и это включает
493: Тебя тяжёлую работу руками, ногами, которая ни зачем не нужна, но мы платим деньги за то, чтобы пойти поднимать тяжёлые железки в спортзале. Это также включает в себя тяжёлую работу головой. Я думаю, что период адаптации, когда у нас появляется какой-то способ сильно зачистить что-то, он
494: Всегда создаёт такой 1 эффект, когда все начинают читить, лениться и так далее. Фундаментально я верю в людей, в их желание совершать прорывы самим. И я думаю, что мы будем продолжать совершать прорывы, только ещё более серьёзные за счёт того, что у нас появились новые инструменты, Елена.
495: Ченко, журналистка, которая была в том числе нашей героиней, недавно написала в твиттере 2 недели назад ходили в яблоневый сад, валились на траве сегодня у яны это жена Лены, диагностировали болезнь лайма.
496: Начали тяжёлые антибиотики, были простудные синдромы плюс пара красных пятен на спине. Яна дошла до врача благодаря чату gpt, который предположил лайм по фото. Угу. Будущее здесь абсолютно как.
497: Ты реагируешь на то, когда люди используют chat gpt, как, ну, в медицинских целях. Будущее здесь просто оно неравномерно распределено. Я отношусь очень хорошо, потому что я сам так делаю.
498: А это не google медицина, я не знаю, что такое google медицина, но я могу сказать, что без того, чтобы рассердить всех врачей, которые меня сейчас смотрят, диагностировать множество заболеваний, нейронки научились лучше.
499: Людей уже достаточно давно, ещё до чата gpt. Например, радиология выполняется при помощи компьютерного зрения. Что такое радиология? Ну, когда ты анализируешь, иксрей, анализируешь, ну, рентген рентген.
500: И находишь, например, опухоли или какие-то новообразования, нейронки научились делать это лучше уж ещё 10 лет назад, и это как бы уже настолько, ну типа гивен это факт. Ну и что касается чат gpt языковой модели,
501: Которая мультимодальна, может анализировать и картинки, и тексты, и её способность диагностировать вещи тоже уже значительно лучше, чем большое количество врачей, которые
502: Могут быть не специалистами конкретно вот в этой, в этой ситуации. То есть, смотри, тут ситуация, которую нужно понимать, да, медицина крайне сложная область, то есть комплексность человеческого тела и всех его странных
503: Кондишн, странных болезней или каких-то других состояний, которые необычны для человеческого тела настолько за пределами понимания 1 отдельно выделенного человека, за всю его жизнь изучения он за всю свою жизнь только такое количество кейсов увидит ещё сколько-то прочита.
504: Самый гениальный на свете врач никогда в жизни не видел всех возможных заболеваний, поэтому есть консилиумы, поэтому есть 2 мнение. Поэтому вся эта наука, медицина, она настолько, ну, небезопасна, да, ты как бы идёшь к 1 врачу, тебе говорят 1 идёшь к другому, тебе говорят другое. Не потому, что врачи плохие, они делаю
505: Нечеловечески крутую работу, но просто эта работа далеко за гранью возможностей человеческого мозга и обучения, за время, которое есть у человека в жизни. В то же самое время нейронки обучены на всем, на всей тотальности.
506: Всех медицинских знаний, за всю историю медицины, все заключения и все учебники на всех языках мира по всем дисциплинам прочитаны этой нейронкой и интегрированы в 1 латентном пространстве, то есть вот в той самой гигантской матрице с сотнями миллиардов параметров.
507: Которых мы говорили. То есть на самом деле мы впервые находимся в истории в моменте истории, когда есть 1 голова в кавычках, в рамках которой можно собрать консенсус по всем дисциплинам медицинским.
508: Ну, который, когда ты задашь какой-то вопрос, представь, что все врачи мира собрались в кучку и смотрят на твои анализы, чтобы дать своё заключение. Фактически мы приближаемся к этому моменту. Это что-то, что было абсолютно немыслимо раньше. И понятно.
509: Что оно ещё не совсем там я ни в коем случае не пропагандирую, что типа не ходите к врачам, ходите к чату gpt но удивляться тому, что будут появляться все больше и больше случаев, когда чат gpt чётко поставил диагноз или очень правильно подобрал.
510: Рекомендации и так далее будут случаться все чаще. Мы это будем видеть, и в этом нет ничего удивительного. Это абсолютно, ну это систематически, правильно.
511: Ты считаешь, что появление искусственного интеллекта в смысле того, что это значит для человечества? Это сопоставимо с появлением интернета? Я думаю, что это сопоставимо с электричеством. Эйай это новое электричество.
512: Настолько глобально, да? Ну то есть это больше, чем интернет. Мы не понимаем, что это такое. Ну, понимаешь, что такое было? Электричество. Электричество это момент, когда энергия, то есть power стал доступен кому угодно из розетки. Вот ты представь себе жизнь там, типа, 500 лет назад у тебя
513: Было столько мощности, столько энергии физической, сколько было в твоём теле. Ну плюс, возможно, рабы и лошади, которыми ты владеешь. И вот, соответственно, вот суммарное количество этой энергии, в общем то, то, что в среднем человек там, в средневековье мог оседлать. Ну да, были
514: Мельницы ветряные, там были какие-то технологии, но в целом в основном вот физическая твоя сила. Плюс твои лошади, вот все, что у тебя было, соответственно, это определяло, на какую высоту ты можешь поднять бетонный блок, какой высоты ты можешь стену замка построить или там сколько воды ты можешь переносить?
515: Закрома, что-то такое, да, потом вдруг мир меняется так, что вдруг неожиданно в каждом доме есть розетка, куда ты можешь воткнуть и получить несколько лошадиных сил. Просто вот так за проста любой из нас, у каждого человека есть доступ к этому. А если уж ты
516: Строишь это индустриально, то у тебя не то что лошадиные силы, а мегаватты доступные. Ты можешь там менять направление рек или там строить небоскрёбы, изменение, которое предложило миру электричество по доступности энергии.
517: Потом, в дальнейшем волей и идеями, людьми людей, которые ей пользуются. Осёдланное, превращённое в какую-то дополнительную стоимость, оно немыслимо, это мы сейчас к этому привыкли, а на тот момент немыслимо, но достаточно забавно, что когда электричество только появилос,
518: Появились первые электрокомпании, они точно также, скорее всего, говорили вот все изменилось, там, смотрите, электричество, у тебя не было электроприборов, чтобы втыкать в эти розетки, и люди с большим недоверием относились, они относились. Зачем мне это нужно? Вот к чему мне эта розетка, что я туда буду втыкать от неё 1 опасность.
519: Убить, может и пожар может замкнуть. Да, да. Ну какой вот в этом смысл? Со временем мы научились этим пользоваться. Сейчас. По сути, человечество получает доступ к розетке с интеллектом. То есть до сих пор максимально интеллектуальные ресурсы, которые были у тебя доступны.
520: Была твоя собственная голова. Ну плюс уже теперь в современном капитализме это не рабы лошади, а сотрудники, скорее всего, или твои коллабораторы. Сколько ты смог людей в группу организовать, вот столько у тебя интеллектуальной мощи есть. И вот эта неэффективность работы между людьми, что они там теряют, информа.
521: Спорят, че то не понимают друг друга. Она сильно снижала. На самом деле эффективность этих Голов, работающих вместе. Сейчас за счёт вот этих систем интеллекта. Мы начинаем приходить в мир, где каждому человеку, вне зависимости от того, очень он умный или не очень он умный, ему досту.
522: Крупная интеллектуальная армия, которая способна решать задачи, которая способна отвечать на вопросы, и потенциально она скоро будет способна самостоятельно преследовать цели. Изменение такого масштаба в последний раз случилось, когда людям дали розетку с электричеством, как
523: На твой взгляд, государство должно вести себя с ai. Я небольшой фанат государственной государственного регулирования технологий на ранних этапах, на ранних, да, как правило, это приводит только к замедлению и к усилению.
524: Твоих противников. Ну, грубо говоря, если ты начнёшь че то европа попыталась, европа стала регулировать эйай ограничила максимально разрешённое количество параметров нейросети. Что случилось просто в европе теперь нельзя разрабатывать мощные нейронки, а вот весь остально
525: Мир двинулся дальше и продолжает их разрабатывать. Европейская индустрия вся регуляционно была, ну, кастрирована, была поранена, и их способность к инновации сильно уменьшилась, а это немножко, конечно, грустит.
526: Потому что для того, чтобы разработать хорошую регуляцию, нужно очень глубоко вообще понимать, с чем имеем дело. А тут совершенно ещё непонятно. Другое дело, что технология настолько мощная, настолько потенциально опасная, что она соизмерима с ядерной физикой, да, и
527: Государство должно быть вовлечено как минимум на уровне высокопрофессиональных, глубоко понимающих эту индустрию людей в государстве, которое, ну, в государственном аппарате, которые должны помогать принимать эти политики, хотя бы думать о них.
528: Ну и на компаниях, которые сейчас занимаются разработкой фундаментальных моделей, конечно, огромная ответственность, что делать с ответственностью? Ну вот и работать с государством. В этом. В общем, мой ответ такой, что я не верю, что мы сейчас способны
529: Хорошо, государственно регулировать эту индустрию. Я уверен, что в долгосрочной перспективе это абсолютно точно потребуется. И сейчас такой очень тонкий момент, когда нужно индустрии и государству танцевать этот танец вместе, не останавливая прогресс, потому что тогда мы проиграем там Китаю.
530: Тому же, но и не отпуская все на самотёк, потому что тогда мы можем здесь создать чудовище, но потом это же нужно будет регулировать так же как ядерное оружие. В какой-то момент все регулируется, ну, электросети регулируются, да, то есть энергетика регулируется, то есть
531: Такие фундаментальные, фундаментальная инфраструктура человечества. Даже сейчас, знаешь, был момент, когда у гугла даат центры выключились, ну, там что-то был какой-то сбой несколько месяцев назад, пару месяцев назад. И в этот момент большинство фундаментальных провайдеров моделей упало, и вдруг
532: Мы все почувствовали, как много сервисов во всем мире уже зависит от там api open ai, google и антропиха. То есть это удивительно прошло там 2 года с момента чата gpt, а уже
533: Сейчас мы видим, что, ну, большая часть инфраструктуры уже полагается на вот эти модели. Вот так, естественно, такая критическая инфраструктура, она как поставки воды, как поставка электричества, как многие другие вещи будут, ну, под государ.
534: Регулированием в какой-то мере nvidia стала 1 компанией, которая стоит больше 4 триллионов долларов это из за чипов да, nvidia давай объясним тем, кто не в курсе, это компания, главная деятельность которой это делать, эти чипы, да, это компания.
535: Которая производит самые главные чипы, на которых тренируются и работают все эти наши модели. Это американская компания, да, она американская компания, которая, ну, которая производит свои чипы в тайване, естественно, как и большинство американских компаний, и цифры, да.
536: 4 триллиона долларов насколько это другие цифры, если сравнивать с тем временем, когда мы с тобой записывали кремниевую долину ну тогда вот, я помню, мы удивлялись, когда apple достиг впервые достиг триллионного триллионной оценки и что-то вокруг триллиона.
537: Было, в принципе, максимум, что можно было себе представить. Прошло 5 лет. У нас теперь несколько многотриллионных компаний, и 1 из них 4 триллиона. И это вот должно дать сигнал тем людям, которые смотрели тот выпуск и смотрят. Сейчас, наверное, смотрели то,
538: Выпуска. Думали, ну все, мы уже опоздали, как бы все эти стартапы уже там все сделали. Просто сейчас все только начинается как бы, количество благосостояния, которое будет создано сейчас вот на этой волне, эа, количество миллиардных компаний, которые будут построены с нуля, которые вот кто-то из смотрящих
539: Это видео построит, оно зашкалит. То есть мы увидим создание огромного экономического Пласта. Вот на базе этой новой технологии сейчас самое самое время, короче, ты говорил, что веришь в то, что появится компания стоимость
540: Миллиард долларов, состоящий из 1 человека абсолютно 100%. То есть это причём случится в какое-то достаточно ближайшее время. Можете себе представить себе людей, которые будут строить компании
541: Команде из ai агентов, которые будут делать там для них маркетинг, бухгалтерию, продажи. И ты будешь 1 король вот этой армии своих эйай роботов. Да, я думаю, что кстати говоря про регуляцию рано или поздно появится какая-то регуля.
542: На государственном уровне, который будет говорить, что должен нанять какое-то количество людей для того, чтобы получить доступ к какому-то количеству компьютеров, ты не можешь там больше, там, допустим, star агентов иметь, если ты не нанял 1 человека, ну что-нибудь такое, но это очень
543: Немножко похоже на вот то, что на волне блма было, ну, это, это, в принципе, похоже на социальные механизмы государств, которые там придумывают занятость для людей, для того, чтобы общество было более стабильным и счастливым. Ну, потому что, если пред
544: Представить себе мир там в ближайшие десятилетия, да, то есть сейчас будет вот эпоха взрывного роста, огромного количества возможностей. Просто золото будет валиться из каждого утюга и можно будет создавать бизнесы, захватывать новые рынки, зарабатывать. Сейчас люди будут строить ролл.
545: Да, сейчас есть такая, типа бизнес термин ролапы, когда скупается какая-то традиционная индустрия, там, не знаю, агентство по недвижимости, вот, которое там, типа, в таких, на уголках, в маленьких американских городах скупается там десяток этих компаний, или 2 десятка.
546: Компании интегрируется вместе, автоматизируется все при помощи i, добавляется современный цифровой маркетинг и создаётся такая потрясающая современная компания, у которой уже готовая клиентская база, готовое присутствие в разных местах и так далее супер выгодный сейчас супер какой-то.
547: Известный кейс, да, люди сейчас строят такие ролапы в самых разных индустриях традиционных. Вот это все будет происходить в ближайшие годы, но потом в какой-то момент, если действительно придёт момент супер интеллекта и мы придём к тому, что есть маши.
548: Которая значительно умнее любого человека и способна все делать без участия человека, то будет серьёзный кризис. То есть наше общество. Придётся перепридумывать себя и как вообще жить в этой ситуации. А чем люди занимаются? И вообще, зачем мы все нужны. Но оно понятно, что там люди
549: Хотят жить в мире людей, да, то есть нам нравится, когда вокруг тоже кто-то че то ходит там в гости, живёт, работает, более менее улыбается, там, не бомжует на улице. И мы будем придумывать какую-то новую социальную структуру вот в этом мире абсолютного
550: Абсолютного, как сказать по-русски, изобилия в мире, в мире абсолютного изобилия. То есть, представь себе ситуацию, когда супер интеллектуальный ай создаёт, находит новые источники энергии, создаёт за 1
551: Создаёт лекарства от всех болезней. Да, понимаешь? Вот раз и все решено. Ты такой, блин, а чем мы теперь занимаемся? И дальше ты будешь задавать вопросы. А какую нам построить социальную структуру? Где у нас будут какие-то поинты людям выдаваться за работу? Понятно, что эта работа не нужна, как у детей в детском саду, но их же
552: Надо чем-то, чтобы им было интересно, весело, чтобы они там горшки лепили, создавали че то картины рисовали и так далее. И вдруг каждый может заниматься чем угодно. Да, и и качество твоей работы оценивается не в долларах, которые там принёс дядя, на которого ты работаешь, а в
553: Количество счастья, которое ты создал для окружающих тебя людей, например, или ещё че то такое. Мы будем приумывать какие-то новые структуры в мире абсолютного изобилия, если мы к нему придём. Но это не точно, а то, что точно это то, что в ближайшее время будет создано огромное количество
554: Традиционных компаний и будет огромное количество экономических возможностей вокруг этого. А в конце, возможно, лакшери, самоходный коммунизм.
555: Ох, забавно, если в какой-то момент главной ценностью, когда вот все будут делать машины вокруг главной ценностью, и, может быть, единственной у человека будет это быть приятным человеком, да, просто создавать счастье вокруг себ.
556: Я думаю, что это вполне себе логичная, позитивный, логичный сценарий того, как должно развиваться человечество, да, то есть, в конечном счёте даже сейчас большое количество по настоящему тяжёлой работы, которая вынуждена
557: Были делать наши предки по выживанию, по просто ежедневного обеспечения себя калориями там и так далее. Оно уже делается какими-то машинами, магическим образом, хотя вода просто течёт у тебя из крана. Ты вообще не думаешь, как добыть воду, а столетиями
558: Люди добывали эту воду, шли куда-то к реке или к колодцу. Это была реально серьёзная часть твоего дня добыть воду, а потом ещё не отравиться этой водой. Вот. А мы просто живём и принимаем это за данность, то время, которое мы не добываем. Воду. Мы с тобой видосики снимаем. Ну,
559: Соответственно, ты можешь продолжить эту последовательность, то, как при хорошем раскладе будет выглядеть наша жизнь ты очень позитивен по отношению к ai no. Давай, чтобы уравновесить, поделись своими пугающими мыслями, то есть негативный сценарий того, к чему это может привести, ну который при этом.
560: Реально, а не в смысле, что ты специально наматываешь это? Ну да, на самом деле множество фантастов думали на эти темы в разные, в разные моменты времени. Мой хороший друг и очень умный человек Дмитрий Мацкевич произвёл кластеризацию сценариев будущего различных
561: Фантастов. И вот поделился со мной не так давно свои своей подборкой, какие варианты будущего умными, интересными писателями были детально продуманы и описаны в разных книгах. И вот, соответственно, есть такая красивая картина
562: Вот этого самоходного лакшери коммунизма, где значит абсолютная эпоха всего, вседоступности всего. И люди, значит, счастливо в нём живут. Окей, это позитивный сценарий, есть сценарий, где создаётся такой
563: Симбиоз машин и людей, и машины обладают своим собственным какой-то волей интеллектом, и у них на самом деле появляются права со временем, и они становятся частью общества. И мы как-то живём вместе. В части этих сценариев происходит война между людьми.
564: Машинами в части мы уживаемся вместе. Хорошо, но там могут быть негативные сценарии, где машина решает, что человек это какая-то переменная, которая мешает оптимизации функции, которую она себе выбрала даже
565: То функции, может быть, там, не знаю, счастья всего живого, да, и она такая, ну, все живое с большей вероятностью будет счастливо без наличия людей. Тогда мы, у нас проблема и есть, ну, все негативные дистопия, будущее, которое, в общем то, возмо,
566: Можно, зная проблемы человека как такового, как вида, да, наши такие фундаментальные проблемы. И это расслоение общества, диктатура маленького количества технокомпаний, которые обладают доступом к сверхмощному эйай, которые порабощают
567: Все вокруг, значит абсолютная бедность, недоступность самых базовых там сервисов и так далее для подавляющего большинства людей и некий очень маленький клуб абсолютно всесильных, Бессмертных, всевластных, управляя.
568: И это будущее как бы не очень устойчивое, но возможно, да, то есть, можете себе представить людей с армиями роботов и Дронов, которые абсолютно неприкасаемы, с которыми ты ничего не можешь поделать, их уже ты не можешь пере.
569: Свергнуть я могу, да, я, более того, знаю страны, где сейчас так и есть. И они при этом не умрут уже, потому, что я их лечат от всех болезней. Вечно это так себе сценарий, но он не нереален.
570: Не нереален, конечно, но я верю в человечество и я предпочитаю быть техно оптимистом. Что делать людям, у которых из за ai есть ощущение того, что они либо опоздали, либо опаздывают на поезд?
571: Что вот он уже уходит, и как будто вот, вот начинается жизнь, где они будут не полезны. Я думаю, что такое ощущение есть у всех, оно нормальное, оно есть, у меня это ощущение грядущих изменений. Мир меняется, и это, окей, единственное.
572: В мире постоянное это постоянные изменения, мир меняется, и ты меняйся. И вот что делать таким людям, включая меня и всех остальных, которые испытывают это ощущение, это меняться. То есть сейчас самое лучшее, что можно делать.
573: Это становиться максимально вовлечённым во все современные инструменты, которые появляются просто все пробовать с любопытством, не со страхом, а с любопытством подходить к тому, что тестировать все новые инструменты, смотреть, как ты их можешь применить в своей жизни потом.
574: Потому что в реальности в ближайшее время никакой iii людей не заменит, зато вот люди, которые хорошо пользуются иай, заменят тех, кто не пользуется i. Так же, как в своё время бухгалтеры, которые умеют пользоваться компьютером, заменили тех, которые считали все на счетах, или фермеры, которые умели.
575: Водить трактор, заменили тех, которые сеяли за плугом. То есть это естественные циклы, технологические человечества. И сейчас 1 из них. И то, что мы испытываем. Нам кажется, что это впервые такое. Все изменилось так сильно. Оно на самом деле каждый раз так менялось. Подумай о людях.
576: Которые сидели и видели, как появляется электричество. А то есть тогда вот для людей это был такой же фундаментальный прорыв, и все менялось и выглядело страшно. Появились какие-то пылесосы и какие-то лампочки, которые сами светят. И вот это все, тем не менее
577: Как мы знаем, мир устоял и стал лучше и среднее удельное богатство отдельного человека по результатам всех этих технологических изменений оно многократно возросло. Мы стоим на этапе перед этапом, когда оно умножится ещё раз, во много, много раз.
578: Каждый там отдельно взятый человек будет богаче многих существующих сегодняшних корпораций. А удельно я в это искренне верю. Но это такое, ну, статистически так пока что получалось, да, то есть любой заключённый там евро.
579: Европейской тюрьмы сейчас живёт лучше, чем монарх из средневековья. Ну, канализация и все остальное доступ к медицине, продолжительность жизни, доступ, доступность калорий и разнообразность этих калорий все, как мы живём сейчас.
580: Было абсолютно немыслимо людям, которые были самые властные и счастливые люди в мире. Я так понимаю, что в этом году эйай уже использовался в войне по настоящему. Наверняка Израиль во время бомбардировок Ирана. Он
581: К этому прибегал. Угу. Правильно ли я понимаю, что совсем скоро дата центры будут военной целью во время конфликтов? Безусловно. Ну, начнём с того, что большинство оружия в ближайшие годы постепенно станет оружием, да, то есть мы сейчас уже это wd.
582: Со скоростью развития военных Дронов. И по мере того, как они становятся все более автономными. То есть сейчас они требуют ещё операторов. Это очень быстро изменится. И, конечно, войны будут воевать с большим количеством
583: Роботов с 2 сторон, которые будут одни, других атаковать, сбивать и так далее. Люди на на поле боя в результате станут, ну и релевантны. Система управления этими дронами, система производства этих Дронов.
584: Они станут самыми самыми лакомыми важными целями, если себе представить, что 1 из государств создало сверхмощный эйай, который способен принимать там лучшие решения, мгновенно анализировать ситуацию и действительно давать военное преимущество.
585: То естественно разбомбить дата центры, которые эту инфраструктуру питают, будет самой очевидной 1 целью удара таких в таких конфликтах интересно, если следующая атака на иран со стороны сша будет, ну и союзников сша.
586: Будет, когда они скажут, окей, от ядерки отказываемся, будем делать мощный милитари эйай. И если это будет тоже как бы, поводом для того, чтобы их, ну, иран или не иран, это открытый вопрос, но вот
587: В каком-то виде это будущее, я думаю, более чем вероятно. То есть где-то когда то кто-то будет бомбить дата центры, потому что в нём кто-то разрабатывает сверхмощный эйай. Возможно там без ограничений по разработке новых видов биологического оружия. Вот если представить, что тако
588: Тел пришёл там в америку, и говорят, что там где-то, в какой-то стране мира, значит тренирует нейронки, у которых нету никаких ограничителей на тему создания синтетических вирусов и биологического оружия. И цель этой нейронки цель
589: Это программа, ну, типа, очень быстро генерировать там сверхмощное биологическое оружие. В тот же день b2 полетят туда бомбить. Я абсолютно уверен, что делать представителям творческих профессий. И правильно ли я понимаю, что чувствуется уже этот тренд на переход, на
590: Работу руками, то есть то, куда a i ещё не скоро придёт, это электрики, сантехники, люди, которые умеют работать руками. Ну, это 1 из из стратегий. Я вот, например, получил сертификат йога учителя.
591: И провожу уроки йоги каждую неделю, уже больше 2 лет. Мне кажется, тут. И слушай, я агент, который на видеоуроке это делает. Я не очень серьёзно к этому, это, это говорю, ну, как пример, но на самом деле
592: Тем не менее, йога, уроки на видео йога, уроки с реальным живым человеком, который заряжает тебя мотивацией, энергией. Разные ощущения все это знают прекрасно. Ты в спортзал ходишь с тренером или ты по видео занимаешься? Ну на самом деле есть разница в мотивации.
593: В интервальных тренировках нет, наверное, прям я плачу половину денег, которые я плачу тренеру, я плачу за то, чтобы он просто появился, и мне было стыдно не прийти на тренировку, а мне не стыдно забить. Вот. Но, отвечая на твой вопрос, я думаю, вот это очень важно.
594: Такой глобальный сейчас тренд на то, как человечество из нужды в специалистах переходит на новый этап, где основной движущей силой будут креативные дженералисты под
595: Дженералиста. И я имею ввиду понятие, противоположное специалисту, да, то есть специалист это кто? У кого очень специальные знания, а дженералист это на все руки мастер, да, но если вспомнить, откуда все начиналось, то есть мыслители
596: Древние, они все были дженералиста, и там микеланджело, я не знаю, Леонардо да винчи они могли рисовать, они могли, они были инженеры, они были мыслители, философы, совмещая в себе большое количество знаний, потому что тогда ещё знаний, как человечество целиком сгене,
597: Не так много догнать по разным дисциплинам передний рубеж знаний было достаточно просто в течение жизни. В среднем, там Исаак ньютон придумал Кариус, по моему, в 23 года. Ага. Вот подумай сейчас, сколько нужно лет?
598: Чтобы совершить какое-то открытие на переднем крае науки. По статистике, раньше 40 лет, ты просто не успеваешь добраться до переднего края. То есть ты все это время просто учишься, чтобы прийти на передний край и, может быть, совершить какое-то открытие уже во 2 половине своей жизни.
599: Все изменилось. А вот иай теперь становится удивительным способом уравнить эту гонку. То есть за счёт того, что у иай нету вот этой проблемы за, ну, типа, научиться до переднего края науки в его памяти, в его сознании уже
600: Уже есть все знания, если мы научимся правильно его оседлать, ну это вот, в частности, то, что делает моя компания, это попытка собрать все научные знания в 1 в кавычках, голове и потом с этой головой совместно
601: Думать о том, как сделать шаг шажочек вперёд, на, за край науки, да, придумать что-то совершенно новое. Так вот, вот в этом мире то, что я называю креативными дженералиста и будут очень нужны, потому что они смогут специальные знания, заме,
602: Менять или дополнять своими эйай сотрудниками или иай партнёрами, иай коучами, иай коллабораторами, называй как угодно, но вот этими некими виртуальными агентами, с которыми вместе ты думаешь и двигаешься вперёд. Веришь ли ты в
603: Машин из твоих уст выглядит, ты очень воодушевлён, это очевидно и весьма заразителен, надо сказать. Но допускаешь ли ты, что такой вариант, что вот все, что сейчас происходит, может привести к тому, что машины
604: Будут главными, а мы будем прислуживать им. Это 2 разных вопроса. Давай разберёмся по порядку. 1 восстание машин, какие-то злые терминаторы, которые почему-то, значит, решают, что им надо воевать с людьми.
605: Главными. Вот, вот конкретно восстание машин в виде, в котором люди представили себе, когда ты это сказал. Нет, я в это не верю. Будущее, в котором
606: Ai становится главным управленческим органом человечества, таким оракулом или Богом, который управляет всеми нашими процессами и нашим обществом лучше, чем большинство человека правителей более чем верю.
607: Возможно, это будущее даже лучше, чем будущее, в котором люди продолжают управлять людьми, потому что все, чему нас история научила, это то, что люди очень хреново управляют людьми. И даже самые лучшие люди, которые начинают управлять большими массами людей, становятся очень чудовищными людьми. Рано или поздно лучшие.
608: Система, которая управления, которые мы придумали, они заключаются в том, чтоб не давать людям долго, больше, 8 лет править. Поэтому, если представить себе мир, в котором пробудился эйай, он обладает сознанием вдруг неожиданно, и он сверхмощный интеллект, который по настоящему может там преследовать.
609: Долгосрочные цели не терять контекст, глубоко понимать и импоотировать с его пользователями есть достаточно много классной фантастической литературы, где описан мир, где есть вот этот беневент эйай, то есть такой, типа мы построили себе
610: Доброго такого Бога, который умён несравнимо с любым человеком, способен одновременно принимать там миллиарды действий по всей планете и заботиться о человечестве, чтобы все вокруг работало хорошо и чтобы все были счастливы.
611: Такое будущее возможно. И я думаю, что мы, когда боимся пробуждения иай, мы почему-то предполагаем, что по умолчанию человечество выживает вот без всякого иай, что наше будущее в том, что мы продолжае
612: Жить вообще, глядя на нашу динамику, я бы, честно говоря, поспорил вполне вероятно, что по дефолту человечество себя уничтожает рано или поздно или погибает как-то глупо, и вполне возможно, что пробудившийся эйай может быть, наша единственная Надежда.
613: На то, чтобы эту траекторию изменить, на то, чтобы изменить изменение климата, на то, чтобы как-то подрегулировать мир, чтобы не случилось ядерной войны. Я понимаю, что это все звучит очень футуристично, но вот чисто статистически, глядя на то, что происходило до сих пор. И как
614: Человечество всеми силами старается себя самоуничтожить. Ну и планеты вместе с собой представить себе мир, в котором мы передаём контроль, некому 3 субъекту, который не обладает нашими недостатками, при этом обладает сверхинтеллектом. Ну, можно представить
615: Что как-то можно построить систему, в которой на самом деле человечество окажется в лучшей ситуации, чем сейчас. Я думаю, что мы все очень боимся пробуждения, э, потому что мы сравниваем его с собой.
616: Сравнивать его надо с просветлённым буддой, и надо не мешать, а добиться, достичь просветления, тогда мы будем в хороших руках.
617: Я может делать более менее все лучшее человека, но по ощущениям, вот он не может чувствовать. Угу. Очевидно. Значит ли это, что такая вещь, как человеческий опыт, будет премиальной валютой? А я думаю, что это испокон веков премиальная валюта, то
618: Что мы называем жизнью? Это в 1 очередь способность ощущать жизнь. То, что мы называем жизнью. Это в 1 очередь способность ощущать боль, страдания и наоборот, удовольствие, счастье, Любовь, мы даже
619: Ты посмотришь, что мы считаем живым и что мы не считаем живым. Да, мы знаем, что трава и деревья более менее живые, но мы к ним относимся так себе. Но стоит какую-то букашку там найти, которая боится опасности или испытывает боль. Мы это интуитивно чувствуем на уровне
620: Да, то мы сразу же относим вот к Такому живому существу, иначе я думаю, что это просто то, как наш мозг эволюционно устроен. Да, мы оцениваем себе равными тех, кто, кому мы можем проимпортировать, что они также испытывают боль или счастье.
621: И поэтому способность вот эти ощущения испытывать всегда была премиальной науки просто валютой, просто мы, как люди, очень часто на неё забиваем и не уделяем внимание. Хотя это и есть самое главное. И большинство религий мира как бы об этом всегда.
622: Говорили, ну типа, наслаждайся, наслаждайся моментом, ощущай жизнь. Сколько жизни в твоей жизни. Чувствуешь ли ты этот ветер сейчас? Или ты живёшь в нарративе, в своей голове, а нарратив в голове? Ну это вот такая же болтовня, как output лм.
623: Языковой модели, которая пишет свои мысли в строчку, по слову добавляя следующее слово, и там рождается целая Вселенная, какие-то понятные интересные концепции и так далее. Но они не живые, да, вот нет этого ощущения, что оно настоящее, а в нашей голове идёт тот же самый
624: Narrative, но в этот момент ты ещё ощущаешь ветер на коже, и это делает нас с тобой живыми.
625: Мы примем юзера этой Вселенной.
626: И финальная в чем сила?
627: Я верю, что сила в любви, как бы это банально не было. Это что-то, что выделяет нас, как вид. Я думаю, вот это ощущение любви, которое понятно интуитивно любому человек
628: Человеку это штуковина, которую очень сложно объяснить. Аю. Сложно объяснить даже животным. Может быть, они её испытывают. Любовь в каком-то виде, а может быть, и нет, но зато с каждым человеком, с которым, говоришь, он в какой-то мере это понимает. А то, что понимает каждый
629: Вокруг это вызывает у них позитивные ощущения. Это нечто, что позволяет нам, как человечеству, объединяться и совместно что-то делать. Вот мне кажется, на базе любви нам объединяться проще всего.
630: Самый мощный на свете инструмент, который пока что все ещё существует до того, как у нас появился сверхмощный пробуждённый ай, это огромные массы светлых и умных людей, работающих вместе. Мне кажется, что их объединяет вместе Любовь. Поэтому сила в любви