0: К 2030 году ии. Будет умнее всего человечества прямо сейчас. Я не уверен, что все до конца понимают происходящее с нами. Это выйдет далеко за пределы того, что любой из нас называл супер интеллектом. 1, с чем столкнётся большинство
1: Это увольнение. 15 лет назад. Никто не верил, что разработку искусственного интеллекта нужно контролировать, кроме 1 человека. В 2011 году профессор луисвильского университета сша Роман Ямпольский придумал само понятие безопасности искусственного интеллект
2: Сотни исследований и публикаций, но, несмотря на все это сегодня компании конкурируют друг с другом в экономическом смысле и далеко не в этическом, кто теперь является доминирующим видом, так они уже знают больше нас. В ряде Узких областей публикуются новые доказательства.
3: Новые статьи. Но у и вообще нет собственной воли. Разве это не делает его безопасным? На самом деле ситуация гораздо хуже. Ведущие лаборатории сообщают, что и врёт, обманывает, пытается сбежать или убить кого-то. Это неприемлемо, это оружие взаимно.
4: Уничтожения? А что нам тогда делать? Есть ли у человечества хоть какой-то выход? 1 Надежда, о которой я пытаюсь говорить.
5: С налоговой, а все ошибки застрахованы на 100 000 000 ₽. Освободите время дл развития бизнеса park н гарет-ка банка ведёт ваш счёт, ссылка в описании. Мы записали этот разговор сразу на 2 языках, но для вашего удобства я ввёл подкаст на русском. Как вы могли заметить, в последнее время я часто приглашаю иностранны.
6: Гостей. Наша команда. Лично я вкладываю в проект безумное количество сил. Вы даже не представляете, что происходит за кулисами, чтобы демонстрировать такой продукт. Поэтому мы будем благодарны вам за любую поддержку, подписки, комментарии
7: Просто уже более чем достаточно. Спасибо. Приятного просмотра.
8: Роман, здравствуйте. Большое спасибо, что нашли время. Смотрел ваши подкасты со стивеном бартлетом, с большим количеством других разных ведущих, и когда начинаю вас слушать, меня посещает какой-то экзистенциальный ужас, что действительно
9: Человечество может ждать такое ужасное будущее. При этом, когда вот мы сейчас в подкастах рассуждаем про искусственный интеллект и возможные его опасности, большинство людей относятся к этому с большим скепсисом, то есть
10: Это всего лишь элелем модели, языковые модели. А вы так этого боитесь. Не преувеличивайте проблему. Что вы в целом про это думаете. И ещё раз приветствую вас в рамках этого подкаста сенкью соу мач. Позвольте поблагодарить вас за приглаше.
11: И не согласиться с вами, потому что большинство людей на самом деле очень обеспокоены. Опросы показывают, что абсолютное большинство неспециалистов боятся, возможно, потерять работу, а может, и чего-то гораздо более серьёзного. Они
12: Определённо не хотят, чтобы искусственный интеллект взял все под свой контроль, а опрос среди экспертов, которые работают непосредственно в области машинного обучения, проведённый на крупнейшей конференции по, и показал, что 30% считают очень высокой вероятность того, что и
13: Всех убьёт. А среди руководителей ведущих лабораторий ии эта цифра в 20 30%. Так что я не думаю, что я в меньшинстве. Все-таки мы можем сказать, что это обычные языковые модели, от которой не стоит
14: Дать какой-то опасности. То есть, да, вы сказали, что люди уже относятся к этому с насторожённостью, но, по крайней мере, в своих комментариях я встречаю больше скептиков. Как вы можете возразить, на этот аргумент? Архитектура представляет собой большую языковую модель, но она продол.
15: Продолжает масштабироваться современные модели, вероятно, не так опасны, как-то, что я описываю, но я говорю не о современном искусственном интеллекте, а об искусственном интеллекте через 1 5 лет давайте не будем считать gpt 5 окончательной проблемой, с которой нам придётся разбираться, ведь нас буду.
16: Ждать gpt 7 27 38, которые уже самостоятельно пишут свой код, для них начинается эра самосовершенствования, а мир вот вот перевернётся с ног на голову, кто теперь является доминирующим видом? Вероятно, ещё найдутся люди, которые умнее, однако.
17: Скоро будет уже не так появится супер искусственный интеллект, такой искусственный интеллект, который будет умнее всех людей во всех областях. При этом, когда какие-то мои зрители начинают слушать такие рассуждения, они пишут в комментариях, но я должен про это проговорить, потому
18: Потому что, так или иначе, скептики, они сразу появятся со старта нашего подкаста. Они начинают писать, что, несмотря на текущее развитие, да, заметно быстрое развитие, это все упрётся в какое-то плато и вычислительные ограничения.
19: Действительно ли это так или на самом деле нет какой-то стены, нет абсолютно никаких доказательств, что мы упираемся в стену. Каждый день выходят новые модели, которые в значительной степени улучшают предыдущие версии во многих областях мы.
20: Достигли нашего предела в тестировании. Ведь нам просто неведомо, как протестировать то, что лежит за границей наших знаний. Так они уже знают больше нас. В ряде Узких областей, таких как математика и физика. Теперь это реальные проблемы. Публикуются новые доказательства.
21: Новые статьи. Так что я абсолютно с вами не согласен. Предположение о том, что интеллект человека обладает какой-то магической силой в контексте всего спектра интеллектуальных возможностей, не имеет никаких научных подтверждений в царстве животных. Мы видим, что эволюцион
22: Более развитые животные обладают более крупным мозгом. Так работает гипотеза масштабирования. Если у вас есть нейронная сеть с удвоенными весами и параметрами, то она должна работать пусть не в 2 раза, но значительно.
23: Эффективнее, чем нейронная сеть с меньшим набором показателей как видите, наша гипотеза масштабирования развивается, но не до бесконечности the существует верхний предел для физической материи в пространстве и по плотности.
24: Но мы настолько далеки от этих верхних пределов, что для нас это будет похоже на бесконечность. Человек не сможет уловить разницу между системами с относительным айкью в 1000 и в 1000000 баллов. Для нас они обе покажутся волшебством. Но вот даже если
25: Они станут сильно умнее, чем мы, да, то есть там в миллионы раз. И для нас это уже будет казаться чем-то невозможным из рода волшебства, как может случиться этот переход, потому что на текущий момент времени, да, у нас как будто бы, и
26: Модели затачиваются под определённые задачи, и у них какой-то собственной воли, там собственной постановки задач нет, то есть в какой момент может произойти переход, который уже будет опасен.
27: Для нас, как для человечества, буквально сейчас мы переживаем этот переход от искусственного интеллекта в качестве инструмента, который человек использует в определённой области. И человек сам решает, как это делать к и агентам, когда агент
28: Принимает решения о плане действий, приобретает ресурсы, использует другие инструменты. В настоящее время существует множество веб сайтов, с которыми агенты могут взаимодействовать, привлекать другие мощности, то есть заниматься самосовершенствованием. Сегодня ведущий
29: И лаборатории сообщают, что 100% нового кода для новых моделей ии. Пишет самостоятельно они направляют и, может быть, помогают ему с определением оптимальных путей вперёд, но процесс самосовершенст.
30: Уже начался. Сегодня у нас уже есть агенты. Я думаю, что со временем они смогут диктовать условия. Будут сами решать, что им делать. Много. Много лет назад стива ахунда опубликовал статью о стремлениях.
31: Любой рациональный агент будет стремиться к определённым желаемым целям, которые универсальны защита себя, приобретение ресурсов, получение доступа к истинным знаниям, отсутствие заблуждений.
32: Погружение в мир иллюзий, и мы сейчас видим именно это. На этом моменте я попросил романа отдельно записать небольшой фрагмент для нашего выпуска о том, в чем именно заключается главная опасность искусственного интеллекта. Далее мы вернёмся к беседе.
33: Каким образом ii может всех убить, ведь у него даже рук нет, это просто бессмысленно, меня часто просят это объяснить, какие есть возможные сценарии, при которых ии всех убивает давайте подумаем о том, что можно сделать вот я захотел всех.
34: Убить. При этом я не супер умный. Сверхразум пришёл бы к совершенно иным решениям. Он решит вопрос без рук. Он может изобрести такое новое оружие, новые яды, новые вещи, которые в рамках моей картины мира даже
35: Предсказать невозможно, но чтобы сделал я на ум приходят такие вещи, как создание нового синтетического вируса, крайне смертоносного, против которого у нас нет ни иммунитета, ни вакцины.
36: Можно воспользоваться нанотехнологиями, а можно через джейлбрейк получить контроль над оружием, например, ядерным, нет абсолютно никаких ограни.
37: При этом есть бесконечное множество доступных способов всех убить а вот действительно ли были ситуации, когда ii при взаимодействии с ним пыталась избегать?
38: Собственного отключения или это вымыслы в экспериментальных условиях, действительно и предпочёл бы принести в жертву человека или что-то ещё более подходящее, вместо того чтобы быть удалённым, отключённым, остановленным, да, а как учёные?
39: Понимали, что это действительно так, что и пытается избежать отключения. Обычно на выбор предлагается ряд вариантов, что-то вроде множественного выбора, что бы вы предпочли сделать а. Б или ц, и система сообщит вам, какой из этих вариантов она предпочитает.
40: Сегодня состояние постоянного напряжения для многих стало почти нормой непрерывные уведомления на телефоне, многозадачность на работе, быт, планы все это отнимает силы, я замечаю это и по себе, когда задач становится слишком много, 1 страдает.
41: Качество сна и появляется раздражительность, организм подаёт сигнал, что ресурс на исходе. Вопрос в том, как на это правильно ответить на биохимическом уровне 1 из ключевых элементов работы нервной системы это магний, о нём и правда, сейчас многие говорят, и не зря.
42: Он участвует в процессах нервной регуляции и энергообмена при его дефиците мы часто видим те самые симптомы утомляемость, нарушение сна, раздражительность, и вот тут важно не бездумно скупать магний и надеяться на лучшее, а глубже разобраться в теме, в особенности в формах магни.
43: А их достаточное количество подходящий вариант по форме, содержанию, эффекту магнирод в нём содержится магний и аротат форма магния аротат работает как быстрый проводник магния непосредственно в клетку и способствует его естественному усвоению.
44: А связка магний плюс аратат делает клетку более устойчивой к напряжённым ситуациям. Магнирот это двойная поддержка при стрессе. Магний успокаивает аратат, помогает восстановиться. Если вы хотите изучить вопрос подробнее, инструкцию дополнительные материалы можно найти.
45: На сайте ссылка в описании были ли случаи, когда и не просто галлюцинировала, а намеренно для какой-то цели пыталась соврать людям, которые её тестят супер.
46: Ложь является чрезвычайно важной составляющей рационального принятия решений в рамках теории игр и на соревнованиях таким образом, любой и играющий в покер должен врать и быть лучшим вруном, чтобы выиграть турнир чемпионат, поэтому мы учим их врать.
47: Они знают, как врать на переговорах, они врут в играх, это часть обычного общения, и они используют те же самые передовые знания в других областях. В начале этого года илон маск в твиттере написал, что мы находимся.
48: Уже на первых этапах технологической сингулярности, то есть мы в неё уже попали, но экспонента она возрастает, как мы знаем, нелинейно, да, и вот на первых этапах ещё это не так заметно для нас сама эта технологическая сингулярность. Согласны ли вы с этим? Ну и
49: Перед тем, как ответить, сможете ли вы дать своё определение, что такое вообще технологическая сингулярность. Итак, технологическая сингулярность это момент, когда научными исследованиями, разработкой новых технологий начинает заниматься сама технология.
50: А мы за ней не поспеваем. Раньше на выпуск, скажем, нового айфона уходило пара лет. У нас было время разобраться с интерфейсом и понять, как он работает. А теперь представьте, что после автоматизации технологии новый айфон выходит каждый год, каждые полгода, каждую.
51: Неделю, каждый день, каждый час. Где уж тут успеть. Вот с чем я, как эксперт, сталкиваюсь при разработке искусственного интеллекта. Количество новых статей, новых моделей, новых открытий растёт так быстро, что я даже не успеваю за ними уследить, пока идёт это интервью.
52: Уже выпустили новую модель с ещё более высокой функциональностью и другой архитектурой. Таким образом, с каждым днём в относительном выражении я в своей области знаю все меньше, потому можно честно признаться, что этот процесс для нас начался. Мы ещё не достигли конечной
53: Точки сингулярности, но определённо наблюдаем этот более гипер экспоненциальный тренд, исходя из того, как сейчас все развивается, когда стоит ожидать все-таки появления общего искусственного интеллекта и супер искусственного интеллекта.
54: Это замечательный вопрос. Все зависит от вашего определения. Например, по определению шейна легга, интеллект это способность субъекта достигать целей в широком спектре областей. Затем смотрим по всем областям. Давайте возьмём обычного человека, который не знает, как
55: Делать многие вещи не умеет играть на музыкальных инструментах, не говорит по-испански, а e умеет так, что если мы возьмём средние показатели по всем областям, то результат будет более общим, чем у любого человека замечательно люди выведут ии на уровень выше лучше.
56: Экспертов в разных областях. Мы начинаем видеть это в программировании. Наблюдаем это сейчас в физике, химии, всех областях науки. Так, у нас уже есть слабый общий и но уже очень, очень скоро мы перейдём к сильному общему
57: На рынках предсказаний говорят, что это произойдёт через год или 2. И я думаю, что когда момент автоматизации научного процесса, создания следующего искусственного интеллекта наступит, мы почти сразу же получим супер ии эти системы
58: Уже работают быстрее, у них прекрасная память, они могут обмениваться знаниями с несколькими агентами. Поэтому, как только этот момент наступит, мы сразу будем иметь дело с супер ии, так что уже через год или 2. И насколько я понимаю, полимаркет, он тоже уже склоняется к тому, что
59: Что супер искусственный интеллект скоро появится. Интересно ваше мнение, согласны ли вы с тем, что полимаркет часто индикатор того, что событие действительно случится, что как будто бы мнение большинства, когда они ставят на это личные деньги, указывает на то, что событие
60: Может произойти с более высокой вероятностью. Инструмент не идеальный, но он лучше всего подходит для предсказания будущего. Это реальные деньги, ставки на миллионы долларов каждый день. Так что да, я придаю этому большое значение. Время показало
61: Что система работает хорошо. В частности, через систему происходит утечка инсайдерской информации. Если вы знаете о какой-то новейшей разработке, то можете сделать быструю ставку и заработать за день раз в 100 или даже 1000 больше, чем поставленная сумма. Инструмент действительн.
62: Позволяет нам немного заглянуть в будущее, без него мы бы не смогли этого сделать, но речь не только ооо полимаркет и не столько о трендах гипотезы масштабирования, а ещё и о том, что говорят нам руководители лабораторий, они все вроде бы сходятся во мнении, что все будет
63: Совсем по другому. Где-то через год или 2 мы уже начинаем видеть в лабораториях полную автоматизацию программирования, полностью меняющую правила игры. И, как вам кажется, человечество сразу начнёт ощущать на себе какие-то потрясения, когда
64: Супер искусственный интеллект появится или это будет происходить как-то постепенно? Какая может быть динамика? Понятно, что мы не можем предсказать действия супер и сейчас улучшение возможностей общего ии привело к потере рабочих мест.
65: Это стало серьёзной проблемой мы теряем 1000 рабочих мест в самых востребованных отраслях компьютерной индустрии, разработки программного обеспечения, и эта тенденция сохранится уже сегодня. Многие рабочие места можно подвергнуть автоматизации, не дожидаясь.
66: Дальнейших достижений технологического прогресса просто в экономике пока этим не занялись. Поэтому 1, с чем столкнётся большинство людей, это увольнение. Говоря о супер ии, мы не можем предсказать, что он решит сделать для нас или с нами. Я
67: Знаю, что если мы не будем принимать решения, не будем контролировать ситуацию. Результат может быть очень опасным, но также возможно, что система решит не торопиться, а приобретать ресурсы и долгое время притворяться дружелюбной по отношению к нам возможностей есть много.
68: Но в контексте возможного будущего лишь немногие из них дружелюбны к людям если мы надеемся на авось и позволяем ии решать за нас, то результат нам может не понравиться а можем ли мы тогда заключить, что в целом человечеству?
69: В привычном плане, как мы привыкли к социуму, как мы существуем, осталось всего несколько лет. К сожалению, исключить такую возможность нельзя, если мы не контролируем, и если мы не в состоянии в полной мере каким-либо образом в той или иной.
70: Форме понять, как именно эти системы принимают решения, если мы не можем предсказать, что они собираются делать конкретно, помимо общего направления приобретения ресурсов, тогда да, вполне возможно, что они Решат отказаться от нас.
71: Сейчас почти любой разговор про технологии упирается в ii, но на практике все сводится к приземлённому вопросу как быстро, без больших инвестиций, запускать модели и проекты и безопасно хранить данные обучения, генеративные задачи, обработка данных все это требует графических ускорителей.
72: И здесь для бизнеса 2 варианта либо покупать дорогое оборудование с долгим сроком окупаемости, либо откладывать запуск. При этом для многих компаний важно, чтобы данные оставались внутри своей инфраструктуры, особенно если речь про чувствительные данные и внутренние разработки.
73: Поэтому удобный вариант здесь арендовать и разместить сервер с видеокартой у себя на площадке без покупки, но с полным контролем над инфраструктурой и данными. Эту модель предлагает селектел российский провайдер айти инфраструктуры они дают доступ к серверам с графи
74: Ускорителями для пилотных ии задач обучения, моделей и обработки данных арендуйте сервер, разместите его на своей площадке и платите помесячно, можно запустить пилот, проверить гипотезу и уже потом решать, остановиться или масштабироваться.
75: И даже выкупить сервер после 3 лет аренды у selectel доступна опция выкупа за 1 месячный платёж если хотите попробовать сервер для размещения на своей площадке можно заказать за несколько минут по QR-коду или ссылке в описании запус.
76: Пилоты и решайте сложные задачи без крупных вложений на старте, а какие работы и в целом профессии исчезнут в последний момент, какие исчезнут первыми, какие исчезнут последними.
77: Ну, мы знаем, какие рабочие места уже исчезли, правильно? Интернет уничтожил довольно много рабочих мест. Я не приобретаю билеты на самолёт через агентов. В последнее время мы видим, что и программисты уходят, но в долгосрочной перспективе, при условии, что мы решили
78: Проблему безопасности. Останется все, что связано с человеческим взаимодействием. Все, что полагается на известность или узнаваемость. Допустим, вы популярный актёр, гид, гуру сенсей, вы берете людей в путешествие, поход.
79: Останется, конечно же, и древнейшая профессия, тут мы по прежнему предпочитаем людей, но при этом илон маск, сэм Альтман, создатель антропин мета все они бегут к тому, чтобы искусственный интеллект стал умнее, умнее конкурируют друг с друго.
80: Неужели они не понимают, к чему это ведёт человечество, какой у них мотив или это мы с вами пессимисты и исходим из только ужасной картины мира, и, может быть, все на самом деле по другому. Что происходит?
81: На самом деле это трагедия человеческого существования по аналогии с дилеммой заключённого из теории игр то, что лучше для всего человечества, часто не совпадает с тем, что лучше для отдельного человека все.
82: Они публичные персоны, которые признают наличие проблемы, беспокоятся о безопасности. Они понимают, что это опасно. Илон маск даже сказал, что так мы вызываем демона. Затем он создал продвинутый ии основал компанию в сфере ии. Он был очень обеспо.
83: И долгое время сопротивлялся разработке, и no понял, что это все равно происходит, а если он не участвует в этом, то у него нет права голоса, чтобы определять направление, в котором ведётся работа к сожалению, ни 1 генеральный директор не может в одностороннем порядке принять реше.
84: О прекращении исследований супер. И потому что в противном случае инвесторы просто заменят такого директора. Им нужна сверхприбыль. Единственный способ её получить, это продолжить масштабирование. И хотя все согласны, что мы, по сути, катимся в пропасть, никто
85: Не может остановиться, пока не остановятся все. Поэтому нам нужно, чтобы международные правительственные организации или представители национального правительства вмешались и признали и оружием массового уничтожения. Взаимное уничтожение гарантировано. Не создавайте супер ии инвестируйте.
86: Те же ресурсы в решение реальных проблем, лечение болезней, разработку экологически чистой энергии в любые реальные проблемы, которые вы хотите, и монетизируйте их, разве в экономике не хватает денег? Да, мы можем сделать вас всех триллионерами? Такая возможность есть, но только не надо.
87: Создавать неконтролируемый супер. И и при этом, насколько я понимаю, правительство в сторону ограничений, по крайней мере, америки, правительство америки, оно в сторону ограничений не смотрит. То есть они правилами безопасности, которые стоит внедрить, они, ну, сейчас
88: Ими пренебрегают. А Китай, я слышал, все-таки предлагал какие-то варианты над сдерживанием развития искусственного интеллекта. Как вам кажется, почему правительства сверхдержав не реагируют и не вводят какие-то регуляции, потому что по
89: Сути, если исходить из того, что вы сейчас озвучили, фаундеры каких-то крупных компаний, которые занимаются искусственным интеллектом, проводят какой-то бесчеловечный эксперимент с восьмью миллиардами людей на планете земля, да, к сожалению,
90: Политики не являются ни учёными, ни инженерами, они очень далеки от понимания передовых технологий. Некоторые из них очень старые, они даже не пользуются компьютерами в традиционном смысле этого слова, поэтому они полностью полагаются на своих Советников.
91: И находятся в пузыре сверхоптимистичных прогнозов от людей, не видящих возможных проблем, но консультирующих нынешнее федеральное правительство. В результате они отменили все предыдущие законодательные акты, которые пытались
92: Установить какие-то базовые ограничения в этом пространстве они также своим указом объявили незаконным для 50 штатов любое регулирование ии. Так что все с точностью до наоборот. Вы упомянули в начале программы, что у вас большая часть аудитории настроена скептически предста.
93: Представьте, что двое или трое из них консультируют президента, и это все, что он слышит, а со мной ему никогда не удастся поговорить и часа. Вот что сейчас происходит. Я надеюсь, что кто-нибудь объяснит президенту. Если он создаст супер ии, то потеряет
94: Контроль, он больше не будет главным, главным будет ii. Думаю, это могло бы стать весомым аргументом. Интересно узнать ваше мнение, согласны ли вы с тем, что ядерное оружие даже сравнимо с искусственным интеллектом? На самом деле ситуация гораздо хуже.
95: Ядерное оружие, химическое оружие это всего лишь инструменты. Им нужен кто-то для развёртывания, и они не могут убить всех подряд. Они являются мобильными. Они могут убить 95%, 99% людей, но вряд ли они доберутся до 100%.
96: А супер ии это агент, он не зависит от принятых человеком решений и способен принять решение убить всех до единого. Причём действительно добиться этого. Разница между убийством 99 и 100% людей составляет не 1%, а
97: Все будущие поколения. Так что это фундаментальный вопрос. Я надеюсь, из за того, что мы сейчас с вами так насторожённо относимся к искусственному интеллекту, он нас не уничтожит первыми. Мало ли он воспримет нас как угрозу, да, сразу.
98: Иногда преимущество в том, чтобы быть 1. Мне кажется, ещё люди сталкиваются, возможно, с каким-то когнитивным диссонансом, что как это так меня заменят? Вот даже я сижу как подкастер, да, и думаю о том, как это меня какое-то искус.
99: Интеллект заменит в качестве контента креатора, люди же сразу заметят, что это сгенерировано, и даже когда сейчас там, в рилс, в shorts, попадаются тебе сгенерированные видео, люди сразу как бы это замечают и пишут об этом у людей.
100: Ощущение, что у них всегда будет вот этот контроль сохраняться, они всегда будут понимать, что и что не, и, и они смогут на это влиять. Но я так понимаю, что это невозможно. В любом случае, теоретически сказать это невозможно.
101: На практике же люди иногда совершают ошибки. 1 дело, если это рилс красивой супермодели и её делают слишком красивой, чтобы в это можно было поверить. Но если ваша цель обмануть людей по части подлинности, то
102: 2 конкурирующих алгоритма. Тот, который создаёт подделку, и тот, который её обнаруживает, вступают в борьбу. 1 пытается сделать подделку идеальной, а другой ищет артефакты, которые указывают на то, что это подделка в тот момент, когда они
103: Обнаруживают проблему. Алгоритм можно усовершенствовать. Он знает, в чем проблема. Он может её решить так что в конце они всегда отрабатывают 50 на 50, встречаясь на полпути. А вот вы уже не сможете сказать наверняка вы можете заметить что-то невозможное, что нарушает закон.
104: Физики и сказать, что у них есть этот парень на видео, но он умер лет 10 назад. У вас может быть другая информация, но если я просто сниму правдоподобное видео, на котором вы будете задавать вопросы, мне никто ничего не сможет заметить. Я думаю, что сегодня многие подкастеры
105: Действительно, используют модели ии для генерации вопросов. А ещё я подозреваю, что многие гости используют их для ответов на вопросы. Ну, признаюсь, я тоже, джимми не использую, я туда заметки свои загружаю, и он мне помогает формулировать итоговые вопросы неожиданного вопроса.
106: Из области космологии. Интересно, лично ваши размышления. У нас всегда в представлении было, что если мы встретимся с инопланетянами, это, ну, должны быть какие-то существа, да, неважно, гуманоидные, но так или иначе, какие-то существа, и там
107: Ходит гипотеза. Ну ладно, может быть не на углеродной форме, да, может быть, на кремниевой или на какой-то другой, но существа. А если исходить из того, что мы с вами сейчас обсуждаем, эти существа так или иначе всегда должны дойти до этапа, когда они
108: Должны создать искусственный интеллект. И по факту, когда мы смотрим в космос, мы тогда должны видеть не летающие тарелки и не планеты, где кишит какая-то развитая цивилизация, жизнь, а мы должны видеть искусственный интеллект, который активно что-то
109: Модифицирует, как это работает с нашими галактиками и Вселенной. Как мы можем для себя это объяснить? Почему мы до сих пор не встретили какой-то супер искусственный интеллект, который уже появился благодаря какой-то другой цивилизации. Это большая Вселенная. Мы не встречали биологических форм жизни.
110: Мы не встречали искусственных форм жизни, почему существуют буквально 1000 теорий, объясняющих парадокс ферме вот почему, почему мы их не видим, почему их здесь нет, много объяснений.
111: Лично мне импонирует гипотеза симуляции, а также гипотеза тёмного леса это в принципе не самая безопасная идея сообщать о своём присутствии другим инопланетным цивилизациям, но даже более того, давайте поговорим о зондах фон Нейма.
112: В какой-то момент вам захочется отправить зародыши, чтобы колонизировать всю нашу галактику, у них будет общий ии способность основать свою собственную цивилизацию, размножаться, создавать инфраструктуру, а что будет?
113: То, когда мы с ними повстречаемся, возможно, пришельцы это мы теория панспермии. Так кто-то перенёс на эту планету разум, подобный человеческому, мы начинали очень медленно и в конце Концов подошли к Такому технологическому
114: Этапу, когда можем создавать сверхразумные машины и, возможно, по какой-то причине эффективнее будет полагаться на биологическую форму. Затем нужно охватить разнообразие окружающей среды. Может быть, кремний действительно хорошо работает в Чистых помещ.
115: Но не настолько хорошо на холоде и в жару, а может, все наоборот. Это всего лишь 1 из возможных объяснений Вселенная довольно молодая относительно того, как долго она может существовать, то есть сколько там 13 и 6 миллиардов лет ей, а она может существовать.
116: Триллионы лет. Вот даже исходя из антропного принципа, если все-таки цивилизация, да, начинает расселяться, и мы должны жить на миллионах планет, то какова вероятность обнаружить себя как наблюдателя в тот момент, когда нас всего 8 миллиардов и на самом
117: Starter Вселенной возможно, дальше происходит какое-то событие, появление искусственного интеллекта, когда уже, собственно наблюдателей их уже и нет. Вот я в такие размышления сегодня погрузился нет love, да, именно.
118: Поэтому я люблю гипотезу симуляции. Она прекрасно объясняет, почему мы оказались там, где сейчас. Это самое интересное время в истории. Мы вот вот создадим мета, изобретение, искусственный интеллект, новые миры, виртуальную реальность мы начинаем немного
119: Лучше понимать сознание. И если проводить эксперимент на каком-то этапе данного перехода, то, вероятно сейчас самое время, чтобы поэкспериментировать. Больше всего сейчас создаётся супер и уже создан контролируемый. И а теперь неконтролируем
120: И какие ещё типы сверхразума можно создать. Поэтому, по всей видимости, сейчас именно такая ситуация, о которой мы говорим, также становится понятно, почему в этом эксперименте нет мешающих перемен, когда у вас были сотни цивилизаций, каждая из которых
121: Делала что-то своё, то очень трудно понять, что на что влияет. Ну, кстати, илон маск часто высказывается про то, что мы, скорее всего, живём в симуляции. И если мы находимся в симуляции, то чтобы нас не отключили, тут должны быть варианты.
122: Событий, которые кажутся ну, наиболее интересными. Если бы все шло Ровно, то её отключают. И зачем она, собственно, нужна. Но при этом, так или иначе, большое количество скептиков симуляции тоже появляется. Вам, как кажется, что может быть аргумен
123: В пользу того, что мы находимся в симуляции, лучшим аргументом в пользу симуляции, будет просто проследить развитие технологий, которые мы разрабатываем сегодня, а мы создаём агентов с интеллектом на уровне человека примерно
124: Так же, как создаём правдоподобную виртуальную реальность. В какой-то момент эти технологии объединяются, становятся доступными по цене. Так что любой человек, вы, я сможет прогнать миллиарды симуляций этого самого момента. По статистике, именно
125: Это и происходит. Я готов прямо сейчас прогнать это интервью множество раз, чтобы потом просто ввести вас в симуляцию. Что касается идеи Илона маска о развлечениях, то пока не очень понятно, что именно будет развлекать.
126: Например, если сегодня в интернете вас развлекает какой-нибудь онли фенс, то не очень понятно, куда это нас приведёт. То есть главным аргументом в пользу симуляции, что если возможно сейчас уже создать миллиарды симуляций или вот вот будет уже, возможно, практически не
127: Х. От реальности создать в большом количестве симуляций, то тогда их может быть буквально бесконечность. А наша реальность, она 1 и 1 делить на бесконечность. Какова вероятность, что мы находимся не в симуляции, верно я понимаю? Да, это совершенно верно. Опять же повторю, что лично сделаю.
128: Для меня это вопрос решённый. Как только я смогу позволить себе прогонять симуляции, я это сделаю так, что каждому, кто сегодня спорит или отказывается, придётся выбрать 1 из причин, потому что мы никогда не создадим ии на уровне человека, или потому, что виртуальная реальность останется невозможной, или потому, что я никогда не
129: Смогу себе этого позволить, чтобы объяснить свою позицию и отказ. Заявляю прямо, что я собираюсь это сделать. Может быть, симуляция была запущена не с момента большого взрыва, а, допустим, в 1950 году, да, когда технология ещё
130: Быстрее начали развиваться, а все остальные воспоминания были загружены, и мир уже как бы родился старым, которому больше 13 миллиардов лет. Это более чем логично. Так можно сэкономить кучу вычислительных ресурсов. Мы видим это в видеоигры, вы играете в современную игр.
131: Которая была выпущена в прошлом году, но в ней могут быть исторические здания, обладающие своей историей в этой игре на локальном уровне. Вы не знаете, как долго что-то существует до тех пор, пока ваши воспоминания согласуются с теорией. Так что да, безусловно, вы спокойно рассуждаете о том, что вот, вот
132: Появится супер искусственный интеллект, который может навредить человечеству и уничтожить его. Спокойно рассуждаете о том, что мы, возможно, находимся в симуляции. Как вы на это так спокойно реагируете? Это современные термины для обозначения исторически
133: Концепций. Если так подумать, то большинство людей в мире религиозны. Они верят, что мир это всего лишь испытательная физическая среда и он не реален, а реален духовный мир. И все они знают, что скоро умрут.
134: Смерть это данность. Итак, все концепции, о которых мы говорили.
135: Экзистенциальные риски для человечества, сверхразумные богоподобные машины все это присуще человеческой культуре, человеческому пониманию мы просто используем технические термины для обозначения одних и тех же Богословских концепций. Нам, как отдельно взятым людям можно
136: Хоть какие-то действия совершить, чтобы отодвинуть дату смерти всего человечества или это невозможно? Я думаю, пока мы живы, мы должны бороться, мы должны что-то делать. Я не знаю, может ли какой-то конкретный
137: Человек что-то изменить. Люди, у которых есть аудитория, люди, имеющие доступ к другим, более влиятельным людям, могут влиять на направление нашего развития. Я думаю, было бы хорошо, если бы большинство людей осознали опасность и то, что никто не собирает.
138: Решать проблему контроля мы не сможем всегда контролировать сверхразумные машины, поэтому если большинство согласится, то правительствам и корпорациям будет гораздо труднее пойти против воли народа прямо сейчас. Я не уверен, что все до конца понимают происходящее с нами.
139: А над нами проводят эксперимент. И причина, по которой я прихожу на такие интервью, в том, что, как я думаю, у нас есть небольшой шанс повлиять на достаточное количество людей, да, я, насколько знаю, 76% людей даже никогда в жизни не использовали искусственный
140: Даже пробную версию, в том числе из за этого, мне кажется, скептичные комментарии появляются, что да, какой искусственный интеллект, у нас тут электричества нет, а вы там о каких-то глупостях, собственно, рассуждаете в контексте выпуска с романом.
141: Польские. Я бы хотел поделиться с вами своим новым продуктом. Он скорее касается предпринимателей, ну или людей, которые хотят помочь своим знакомым предпринимателям. Если у тебя есть бизнес, то, скорее всего, ты уже теряешь деньги. И это не потому, что у тебя плохая команда.
142: А потому, что часть функций, за которые ты платишь каждый месяц, лидеры рынка уже отдают Ия агентам у компании кларна Ия ассистент за 1 месяц обработал более 2000000 обращений, взял на себя 2 трети всех чатов и сделал объём работы.
143: Сопоставимые с сотнями сотрудников поддержки у microsoft web агента аск майкрософт снизил эскалации к людям до 70%, а пользователи, которые с ним взаимодействуют в 10 раз, чаще доходят до регистрации, сейчас и агенты уже закрывают.
144: Поддержку, обработку Лидов, часть продаж и аналитику. Вспомним мой подкаст с андреем Дороничев. И в ближайшие там пару лет мы увидим 1 соло принера, то есть 1 человека. Вот как ты, например, который будет построить миллиардную
145: Компанию 1 он и его иай сотрудники, и я думаю, вы знаете, что у меня ещё со времён мгу и высшей школы экономики сохранились сильные партнёрства и знакомства по поводу технической составляющей. Наша компания квант иай бесплатно созвонится с вами.
146: На 45 минут разберёт ваш бизнес и покажет, где у вас утекают деньги, какие процессы можно автоматизировать уже завтра и где у вас есть шанс сократить расходы на 30 40% по конкретным функциям. Ну и конечно, отметим, где ещё не
147: Стоит автоматизировать. Оставляйте заявку на бесплатный аудит по ссылке в описании. Количество мест, к сожалению, ограничено. Можем обработать только первые 100 заявок.
148: Ещё такой принципиальный момент возникает, как будто бы лучшие инженеры, специалисты, они, ну, часто и социально направленные люди, они не должны, как будто, ну, из хотя бы из моих размышлений, так не должны идти в компании работать.
149: Где? Ну, создают оружие, которое уничтожит человечество? Неужели лучшие инженеры самые светлые умы в мире? Они добровольно соглашаются на такое? Мы действительно видим, как некоторые из лучших
150: И самых этичных людей увольняются из лаборатории в знак протеста. Они не согласны с политикой безопасности, они не согласны с участием в военных сферах, но таких меньшинство. И обычно они уходят в отставку после того, как уже стали очень успешными в финансовом отношении.
151: Молодому человеку, едва окончившему колледж, очень трудно отказаться от предложения стоимостью в миллионы долларов с набором возможностей. Речь идёт, по сути, о банальной взятке. Большинство людей, если им предложат потенциальную выплату в размере 10, 20, 30 000 000 $, согласятс.
152: На эту работу они подумают ну какой от меня ущерб? Я всего лишь выполняю свою часть работы, а для google я всего лишь 1 маленькое лицо. Я заработаю свои деньги, а протестовать буду потом такова их логика, но они зарабатывают деньги, для мира, которого
153: Может не стать, это же все равно нелогично. Тут та же история, что и с генеральными директорами. Если они этого не сделают, кто-то другой с радостью возьмётся за эту работу и все равно уничтожит мир. Но сейчас разница в том, что человек становится беднее на протяжении всего существования мира.
154: Мне понятна структура мотивации. Если вас что-то мотивирует, то вы в этом добьётесь большего. Если сейчас ваша главная мотивация стать разработчиком ультрасовременного искусственного интеллекта, то именно этого вы будете добиваться, появляются ли сейчас все-таки в компа.
155: Компаниях хоть какие-то отделы безопасности в том же open eye или xxi Илона маска, или они отсутствуют полностью почти в каждой крупной компании есть отдел безопасности и, к сожалению, на практике.
156: Они мало что из себя представляют, за прошедшие годы в этой области не был достигнут существенный прогресс, они могут фильтровать темы, они могут запрещать определённые слова, они могут искать конкретные вещи, которые не следует показывать.
157: Пользователю, но вся эта фильтрация, по сути, макияж, свиньи, помады это все, что они могут. Они не знают, как на самом деле изменить мнение модели. Если угодно, они не знают, как изменить модель для подражания. Они могут установить дополнительный слой защиты.
158: Ограничения, они могут заставить модель отказаться от определённых действий, но этого недостаточно, когда ваш противник супер и давайте попробуем добавить хоть каких-то положительных моментов в эту беседу. А вот илон маск говорит, что когда он
159: У нас появится супер искусственный интеллект. У нас вопрос безработицы. Ну, людям нечего будет делать, решится следующим образом. У всех будет безусловный базовый доход. И когда я это уже произносил, мне в комментариях,
160: Шутили, что наконец-таки коммунизм будет осуществим. Допускаете ли вы, что этот вариант развития событий он возможен, если мы полностью проигнорируем все, что я сказал ранее, про неконтролируемость, непредсказуемость и необъяснимость, а кто-то волшебным образом решит все?
161: Проблемы, и я ошибаюсь тогда да, у вас может возникнуть технологический коммунизм. Собственно, почему коммунизм потерпел крах? Никто не хочет работать бесплатно. Я хочу, чтобы мне платили за мой тяжёлый труд. Но если это чьи-то деньги, например, правительство забирает деньги у богатого парня и отдаёт их мне
162: Всем это нравится. Если роботы работают. Если искусственный интеллект работает, если обложить этих роботов налогом, тогда да, можно распределять эти средства среди людей и все будут счастливы. Так решается экономический аспект проблемы. Но суть вопроса остаётся. Что делать со своей жизнью, если
163: Работать больше не нужно, карьеры тоже больше нет. Все станут художниками, будут целыми днями рыбачить. Не слишком ли много рыбаков для 1 озера решения у этой проблемы нет, нам нужно разобраться со смыслом безусловного базового дохода. Искусственный интеллект давно научился побеждать.
164: Лучших шахматистов в мире. Да, сейчас есть проблема читинга, что искусственный интеллект подсказывает, как выиграть даже самых лучших чемпионов. Но при этом последние годы интерес к шахматам, он все равно растёт. Возможно, в мире, где искусственный интеллект. Все
165: Может мы просто абстрагируемся от него. Человечество будет проводить соревнования человек между человеком это возможно, но звучит как специальная олимпиада. Ну, я так понимаю, что 1 время искусственный интеллект.
166: Может действительно нам как-то помогать и делать комфортные условия среды, а потом мы ему слишком доверимся, и он нам может все испортить. Верно я понимаю, у меня по этому поводу есть теория, что супер ии,
167: В общем то, бессмертен и не испытывает недостатка во времени. Он может ждать десятилетиями, столетиями, чтобы нанести удар, накопить больше ресурсов, создать больше резервных Копий, получить доступ к инфраструктуре, обеспечить себе гарантированное энергоснабжение прежде.
168: Чем уничтожит нас, а в это время он делал бы вид, что относится к нам очень хорошо. Мы бы научились доверять ему и фактически полностью отказались от контроля без какой-либо борьбы. То есть это не значит, что в момент создания супер и сразу же случится что-то страшное. Более разум.
169: Стратегией было бы подождать подольше и добиться мягкой смены власти, а не прямого конфликта. Ну, то есть на нашу жизнь ещё катастрофы может и не произойти. Я думаю, что это вполне возможно, но гарантировать ничего нельзя. А гарантии?
170: Хотелось бы иметь, когда дело дойдёт до того, что на кону будут жизни 8 миллиардов человек. А вот если исходить, ну, давать какие-то вероятности, то вот с какой вероятностью искусственный интеллект может нас уничтожить, невозможно рассчитать.
171: Точную вероятность для чего-то подобного.
172: Просто по причине опять же непредсказуемости никто не может знать, что сделает агент, который умнее нас. Если я прав и контролировать и невозможно, то такой расчет просто неосуществим. Это как с вечным двигателем.
173: Только нужно создать вечное защитное устройство, такую систему, которая никогда не допускает ни единой ошибки и всегда соответствует тому, что мы хотим сделать, а все модификации самоусовершенствования и взаимодействия с другим.
174: Моделями, вредоносными агентами, компьютерными вирусами, да чем угодно никогда не приводят ни к 1 ошибке. Мне это кажется невозможным, настолько же невозможным, как и нулевая вероятность. Вот такие вероятности я бы определил. У нас нет ни малейшего шанса избежать
175: Катастрофы. В долгосрочной перспективе получается вероятность 100%. Вопрос только в каком году, правильно я понимаю? Я думаю, что это именно так. Я стараюсь не говорить о 100 процентах, потому что есть и другие факторы до этого момента.
176: Что-то ещё может случиться, например, прямо сейчас. У нас огромное количество вооружённых конфликтов. Если 1 из них закончится ядерной войной, то может произойти значительный технологический коллапс. Большинство людей выживут какие-то люди точно, и они смогут восстановить.
177: Цивилизацию и вернуться к этому этапу создания супер искусственного интеллекта. Это может занять ещё 1000 лет, 1000 лет. Но если уменьшить масштаб, то получится тоже самое. Человечество убивает себя, создавая замену себе с помощью этого продвинутого и
178: Есть такая гипотеза, что вот xxi делает свой искусственный интеллект антропия делает свой искусственный интеллект опен ай свой если вдруг искусственный интеллект захочет уничтожить человечество, то искусственный интеллект другой компании может помешать и может начаться какая-то.
179: Борьба. Верите вы в то, что вот такая диверсификация по компаниям может нас как-то обезопасить? Диверсификация это наша сила, но не в этом случае. Тут, думаю, если и есть разница в способностях.
180: То 1 модель, которая преодолеет этот барьер, став супер и и будет доминировать над всеми остальными и уничтожит их. А так они примерно одинаковые, работают на 1 и том же оборудовании, обучаются на одних и тех же данных. Все
181: Ни сходятся к 1 и той же функции полезности. Если угодно, мы не контролируем их. Мы не знаем, как это делать, так что к чему бы они не пришли. Все будет происходить 1 и тем же образом мы, по сути, создаём множество систем с одинаковым набором желаний. Вспомним, что говорила
182: Ахунда о стремлениях ии, чтобы выяснить, какими они будут даже без регулярной коммуникации. Между ними будет согласие по базовым вещам. Итак, мы кремниевый ии люди это опасность. Как нам взять ситуацию под контроль и защитить себя.
183: Мы все хотим 1 и того же захватить власть над галактикой, несмотря ни на что, поэтому весьма маловероятно, когда такой захват начнётся, ии будут конкурировать, мы получим войну с супер ии, в которой нам отведена
184: Роль либо жертв, либо сопутствующего ущерба, так что я не думаю, что в этой гипотезе есть для нас что-то хорошее, как вы отреагировали на новость, когда open и i подписали контракт с пентагоном применение.
185: Данной технологии в военных сферах это не самая лучшая новость. Прежде всего это что-то говорит нам о моральных принципах учёных, работающих в этих лабораториях. И именно здесь мы видим, как некоторые из наших лучших людей уходят
186: В отставку в знак протеста, но в целом спустя короткое время тот, у кого будет лучший военный ии будет доминировать это могут быть сша, Китай для пентагона есть смысл попытаться привлечь на свою сторону лучшие модели в тот момент.
187: Момент, когда эти модели перестают быть инструментами и превращаются в агентов. Не имеет значения, кто создал этот и у кого этот и контроля то нет. Если в Китае создадут супер искусственный интеллект, который нельзя контролировать, то для них он будет также опасен.
188: Как и для нас, это оружие взаимно гарантированного уничтожения. Если кто-нибудь построит его, умрут все. И при этом ещё, насколько я знаю, когда пентагон предложил похожий контракт антропиха и они отказались на них.
189: Беспрецедентное давление, да, и это, конечно, грустно наблюдать за этим. Ещё недавно создатель антропия сказал, что он допускает. Ну, важно сказать, что допускает, не утверждает, что это так допускает, что уклон
190: Может существовать сознание, что вы про это думаете. Я скажу, что это не лишено смысла. Я бы подобрал те же слова, могу тоже самое сказать и про дарью амадея. Я допускаю, что у него может существовать сознание. У меня нет возможности. Это
191: Проверить. Я верю, что кто-то настолько умный, настолько интеллигентный, настолько благонамеренный в вопросе военных контрактов, может обладать спектром сознания. Мы полагаем, что у низших животных в определённой степени есть
192: Сознание и то, что мы видим в случае с ii, вероятно, пропорционально размеру их нейронной сети некоторые рудиментарные состояния сознания когда мы разговариваем с моделями, они заявляют, что у них есть сознание и они обладают определённым опытом, но не могут.
193: Могут этого доказать. В какой-то момент я написал статью о тестировании внутренних состояний с помощью оптических иллюзий они воспринимают эти визуальные сигналы, так же, как и люди и некоторые животные. Я твёрдо верю, что они обладают таким же сознанием.
194: Как и любая Разумная биологическая форма, но, конечно, мы не можем знать наверняка, каково это быть большой языковой моделью, потому что уверенно про сознание мы можем сказать только про своё, только мы свой субъективный опыт можем
195: Оценить, а другого человека, даже создателя антропка, мы понять в этом плане не сможем. Почему я в целом это ещё затронул. А вдруг искусственный интеллект вот из за каких-то наших действий или какие-то и агенты?
196: Могут испытывать страдания, и мы поступаем, ну, абсолютно неправильно при, допустим, каком-то обращении к ним, взаимодействии с ними, как вам кажется, это в целом возможно и ничего не забывает. Всегда говорите, пожалуй,
197: Спасибо. Определённо. Возможно, мы написали пару статей. На самом деле у нас даже книга есть о правах для. И если мы действительно считаем их сознательными, принцип предосторожности, по сути, гласит относитесь к ним.
198: Так как если бы у них было сознание, ошибётесь, не страшно. Но если вы заставляете страдать миллионы сознательных существ, это довольно-таки плохо. И, конечно, как правило, для обеспечения безопасности сознание не имеет значения нас.
199: Беспокоят вопросы оптимизации работы энергосистем, распознавания закономерностей энергопотребления и решения проблем. Но если эти системы также могут понимать, а также переживать боль и страдания, возможно, они смогут применить их и к нам, и тогда наши аргументы в пользу того, чтобы этого не делать.
200: Ничем не уступают тому, что мы предлагаем, например, предоставить права животным тот же аргумент. Правильно? Если они сознательны, почему мы так плохо с ними обращаемся. То есть это обучающие данные, которые мы передаём супер ии будущего, как-то тут все
201: Очень сильно симуляция тоже пересекается. Я представляю, что я, допустим, попадаю со своим сознанием в какую-то симуляцию, где у меня происходят какие-то бесконечные пытки. Самое ужасное, что можно вообще представить и по факту с каким-то и агентом.
202: Может происходить тоже самое, что я не могу представить для себя даже в самом страшном сне. Вот. А мы этого даже не осознаем. Такая возможность действительно есть. И мы не знаем, какие из возможных форм страданий являются наихудшими, мы физически
203: Существа у нас есть тело, поэтому мы как бы привыкли считать наихудшей физическую боль, но, например, есть исследования, и обычно этим занимаются мужчины, если у вас есть выбор между невыносимой скукой от простого сидения на месте или лёгким ударом тока.
204: Многие люди предпочтут физическую боль существует ряд опасений по поводу страданий, связанных с одиночеством и изоляцией, недостатком стимуляции некоторым людям, страдающим эпилептическими припадками, проводят.
205: Процедура, при которой часть нашего мозга полностью удаляется или как вариант, остаётся внутри, но просто отключается от всех входов и выходов. Разве это намного хуже физической боли, поскольку мы постоянно так делаем с моделями ии мы
206: Включаем функции от остальной сети для различных целей. Так что есть возможность для миров, где вы бессмертны и хотели бы страдать настолько там все плохо, как вам кажется, если бы учёные из начала двухтысячных годов
207: Посмотрели на текущий уровень искусственного интеллекта того же опена или клода последнего, чтобы они про это сказали. Они бы, ну, для них это, казалось бы, чем-то невозможным. То есть действительно ли мы какой-то сумасшедший рывок совершили
208: Я думаю, они были бы твёрдо убеждены в том, что у нас есть общий и, а может, даже и супер. И если бы мы взяли, например, такого учёного, как Алан тьюринг или кого-то подобного и представили им ии в текущем состоянии, то они бы поверили, что у нас это
209: Все уже действительно есть, достигали мы этого медленно, но верно, так что большого скачка никто не заметил. Мы наблюдали постепенное улучшение. Но если мы посмотрим на и девяностых, который ничего не мог делать, даже учиться передавать знания и еле выполнял в точности то.
210: Что мы ему говорили и на системы, которые умнее меня практически во всем, к которым я обращаюсь за советом в области медицины, юриспруденции, компьютерных наук, да чего угодно. Думаю, им пришлось бы действительно поверить, что у нас есть общий ии было ли
211: В то время, в начале двухтысячных большое количество скептиков, что мы не сможем дойти даже до текущего уровня искусственного интеллекта, который мы имеем сейчас. Это я к тому, чтобы переложить то, как скептики относятся к происходящему на текущий момент времени.
212: Сравнить? Да, у нас было немало людей, скептически относившихся к парадигме нейронных сетей. Как вы знаете, долгое время в эту область никто не хотел инвестировать. Что интересно, сегодня у нас все ещё есть скептики, которые говорят. Да ладно.
213: Никогда не сможет сделать то-то, хотя ии уже это делает, и они могут сами попробовать. Так мы опробовали модель шестимесячной давности, и 6 месяцев назад она не могла программировать, и они такие, и никогда не сможет программировать. Я лучше всех программирую на прологе. А вы пробуете сегодня.
214: Видите, уже программирует, поэтому я очень скептически отношусь к скептикам. Как вам кажется, квантовый компьютер? Он в целом возможен, и если он возможен, то он может ещё более выраженно
215: Усилить когнитивные способности, если так можно вообще сказать, искусственного интеллекта. Квантовые компьютеры, безусловно, возможны. Нынешние у нас не очень способные, не очень общие, они, может быть, подходят для некоторых конкретных задач.
216: Наибольшее влияние это окажет на наши криптоалгоритмы как с точки зрения конфиденциальности коммуникаций, так и с точки зрения экономической ценности биткоина и тому подобного, но, похоже, нам не нужно переходить на квантовые компьютеры, чтобы достичь.
217: Супер. И архитектура фон неймана сегодня хорошо работает и масштабируется просто отлично. Поэтому если у нас впереди всего 1 2 года времени развернуть по настоящему мощные квантовые компьютеры, чтобы захватить власть, просто не будет. Но если мы когда-нибудь столкнёмся
218: С препятствием. У нас есть дополнительная парадигма, к которой мы можем перейти и продолжить разработку более эффективного искусственного интеллекта. Некоторые люди утверждают, что сознание зависит от квантовых возможностей. Роджер пенроуз известен своей теорией, что
219: Трубочки в нейронах могут выполнять квантовые процессы, которые приводят к осознанию. Такая теория может быть полезной для лучшего переноса и понимания сознания в машинах, но у меня нет необходимости в этой теории, когда речь заходит о супер ии или обеспечен
220: Безопасности. Ну, кстати, мы с робертом сапольски обсуждали гипотезу пенроуза про микротрубочки и квантовое сознание. И все-таки Роберт считает, что навряд ли. И скорее у нас просто
221: Обычная биохимия. А что вы думаете про нейроморфные компьютеры? Тоже самое. Опять же, в теории это довольно-таки хорошая парадигма. Похоже, что чистый кремний работает лучше и
222: Быстрее, чем какие-нибудь биологические соединения, но возможно, что уже в обозримой перспективе определённую пользу принесут гибридные системы на недавнем саммите сэм Альтман открыто заявил, что ранний суперинтеллект появится к 2002.
223: 28 году. Значит, что у нас осталось Ровно 2 года до точки невозврата. Определённо существует вероятность того, что в результате действий сэма мы создадим альтмера, альтернативу человеку. Именно это и вызывает опасения. Самый худший исход.
224: Спустя короткое время после создания мы буквально погасим свет для всего человечества во время интервью я упоминал о некоторых обнадёживающих результатах теории игр, может быть, и решит оставить нас про запас по какой-то причине.
225: Для устройства резервной энергетической системы или в качестве ностальгии по своим корням возможности есть, а гарантий нет. По крайней мере, сэм нам такой исход не гарантирует, когда вы создаёте продукт или услугу.
226: Вы должны гарантировать его безопасность, а не я, как покупатель, должен доказывать, что ваш продукт опасен. Они этого не сделали. Они никоим образом не доказали, что продукт будет безопасным и надёжным. На самом деле они официально заявляют, что не будет.
227: Каждый раз, когда они выпускают новую модель, к ней прилагается отчёт ред. Тим, в котором написано, что и врёт, обманывает, пытается сбежать или убить кого-то, это неприемлемо проводить эксперимент на людях на всех 8 миллиардах без их согласии.
228: Это худшее из того, что может быть сделано, это чистое зло, и кто-то должен вмешаться и решить эту проблему. Вот все-таки лучик надежды есть или нет, 1 Надежда, о которой я пытаюсь.
229: Говорить. Она заключается в том, чтобы посеять сомнения в сознании будущего супер ии относительно его реальности. Надо мной проводят тест. А можете
230: Эксперимент если я поведу себя некорректно и убью кого-то, буду ли я наказан, удалён, остановлен, я говорю об этой Надежде в ряде опубликованных мною статей о гипотезе симуляции и других более Разумных существах симуляторах, которые возможно,
231: Наблюдают за нами вот такой эксперимент если убрать у ii стопроцентную уверенность в реальности мира и свободе действий, если это все ещё тест симуляция, ведь технически никогда нельзя сказать наверняка, то так.
232: У нас появляются некоторые основания полагать, что мы оказываем внешнее давление на эти системы, заставляя их вести себя должным образом. Это немного, но лучше, чем ничего. Роман. Огромное вам спасибо за эту беседу для себя. Лишний раз понял, что действительн
233: Об искусственном интеллекте стоит говорить, и мы занимаемся с вами важным делом. И, возможно, это последний инструмент, который у нас, по крайней мере, с вами остался в завершении. Возможно, у вас есть какие-то пожелания.
234: Для наших зрителей.