ym104432846
Вставьте ссылку на видео из Youtube, Rutube, VK видео
Задайте вопрос по видео
Что вас интересует?
00:00:14
Искусственный интеллект и будущее человечества:
  • 1. Разработана собственная система хранения данных (СХД), предназначенная для сбора и структурированного хранения информации, используемой в машинном обучении моделей
  • 2. Обучение нейронной сети происходит методом демонстрации большого количества примеров и последующего анализа правильности принятых решений, что позволяет ей самостоятельно приобретать навыки и адаптироваться к новым условиям
  • 3. Технология искусственного интеллекта активно внедряется в колл-центры, позволяя эффективно анализировать аудиопотоки и улучшать качество обслуживания клиентов благодаря круглосуточному функционированию и отсутствию человеческих факторов
00:24:59
Этические аспекты искусственного интеллекта:
  • 1. Обсуждались возможные негативные последствия массового внедрения нейросетей в жизнь общества
  • 2. Упоминались потенциальные риски, касающиеся приватности персональных данных и конфиденциальности
  • 3. Подчеркивалось, что последствия от внедрения искусственного интеллекта могут оказаться критически значимыми для человечества
00:25:45
Проблемы приватности и конфиденциальности:
  • 1. Обсуждаются проблемы приватности персональных данных и повышения уровня тревожности среди людей вследствие наблюдения за ними
  • 2. Упоминаются риски манипуляций информацией и возможные изменения поведения человека под влиянием контроля
  • 3. Рассматривается ситуация, когда использование технологий наблюдения может повлиять на выборы и политические предпочтения индивидов
00:27:04
Влияние ИИ на личность и общество:
  • 1. Искусственный интеллект влияет на выбор контента, доступный пользователям (фильмы, новости, искусство)
  • 2. Искусственный интеллект используется в процессе подбора сотрудников и принятия решений о выдаче кредитов
  • 3. Решения, принимаемые искусственным интеллектом, вызывают судебные иски и споры из-за непрозрачности алгоритмов классификации заемщиков
00:28:26
Критерии оценки решений ИИ:
  • 1. Проблема заключается в непрозрачности принятия решений искусственным интеллектом (нейросетевыми технологиями), который работает на основе большого объема данных без явной инструкции правил человеком
  • 2. Возникают риски получения некорректных результатов вследствие особенностей работы современных алгоритмов искусственного интеллекта
  • 3. Тема вызывает интерес среди специалистов и ученых, сближаясь с вопросами футурологии и научного прогнозирования
00:29:43
Кодекс этики в области ИИ:
  • 1. Обсуждается необходимость разработки этического кодекса в сфере искусственного интеллекта
  • 2. Участники дискуссии подчеркнули важность учета культурных особенностей и человеческого контекста при создании этических норм
  • 3. Упоминалось различие между этическими нормами человека и предполагаемыми установками искусственного интеллекта
00:32:21
Искусственный интеллект и культура:
  • 1. Обсудили необходимость оцифровки культурного кода россиян и включения общих принципов в основу будущего программного обеспечения
  • 2. Рассмотрели вопрос о правилах поведения систем ИИ в различных ситуациях
  • 3. Затронули тему возможного признания творчества нейросетей настоящим искусством
00:33:03
Искусственный интеллект и творчество:
  • 1. Искусственный интеллект способен создавать картины, схожие с работами профессиональных художников, однако качество работ пока уступает человеческому творчеству
  • 2. Участники обсуждения пришли к выводу, что нейросети еще далеки от полного вытеснения человеческого творчества, поскольку только человек способен оценить и корректировать результаты работы нейросетей
  • 3. Обсуждалось возможное влияние нейросетей на развитие поэзии и литературы, отмечена способность нейросетей генерировать связные поэтические тексты, хотя их оригинальность и глубина остаются предметом дискуссии
00:42:16
Самосознание и личность ИИ:
  • 1. Учёные пока не пришли к единому мнению о возможности формирования искусственной личности и её самосознания
  • 2. Обсуждаются два подхода: создание искусственной личности, обладающей чувствами и самосознанием, либо симуляции (философские зомби)
  • 3. Возник вопрос о критериях определения наличия души или самосознания у искусственного интеллекта
00:45:15
Сингулярность и угроза искусственного интеллекта:
  • Участники обсуждения пришли к выводу, что искусственный интеллект уже обладает возможностями самостоятельного программирования и саморазвития
  • Обсуждалась потенциальная опасность появления сильного искусственного интеллекта, способного превосходить человека и принимать самостоятельные решения относительно человечества
  • Предложено возложить ответственность за регулирование поведения искусственного интеллекта на технологические компании, государства и каждого отдельного человека
0: Сможет ли искусственный интеллект превзойти человеческий?
1: Что будет, если он обретёт сознание?
2: Эволюция нейросети, к чему людям нужно готовиться уже сейчас и где проходят грани разумного.
3: Человек знает, как работать с человеком.
4: Человеку можно там подольститься.
5: Ему можно угрожать, им можно манипулировать, его можно уговаривать.
6: Поэтому мы наделяем человеческими чертами. В общем, все что угодно, в том числе естественно, когда у нас возникает ещё 1 непонятная сущность под названием искусственный интеллект, мы склонны населять её какими-то там сиреневыми человечками.
7: Почему? Просто потому, что нам так проще.
8: Искусственный интеллект из научно фантастических Романов уже давно вошёл в нашу жизнь, вы можете не знать, что такое нейросети и как они работают, но сталкиваться с ними каждый день.
9: Голосовые помощники и умные колонки, оплата по распознаванию лица, а также штраф за превышение скорости. Все это работает на искусственных нейронных сетях. Они слушают, понимают, говорят с нами и переводят, а ещё рисуют, пишут.
10: Музыку, стихи и сценарии для фильмов даже этот текст мог бы быть сгенерирован нейронной сетью вместе со съёмочной группой я, Алексей Юров, попробую в этом разобраться.
11: Искусственная нейронная сеть это такая математическая модель, которая построена по аналогии с мозгом человека.
12: Основными структурными элементами искусственной нейронной сети являются искусственные нейроны и связи между ними, так же, как и у человека в голове есть естественные нейроны, которые взаимосвязаны от нейрона к нейрону передаётся информа.
13: Это у нас в мозгу электрохимические импульсы здесь же, в этой математической структуре, которую называют искусственной нейронной сетью импульсы такие передаются по связям между искусственными нейронами.
14: Технологии искусственного интеллекта, методы машинного обучения, они работают с данными, эти данные надо где-то хранить. Вот как раз мы сейчас в лаборатории систем хранения данных, где нами разрабатываются
15: Свои собственные схд. Ну, это сокращение систем хранения данных для того, чтобы как раз собирать, хранить структурировано информацию, которая применяется в машинном обучении в наших моделях.
16: Когда мы сделали нейросеть, она обладает идеальной повторяемостью. То есть мы можем сделать много клонов и потом их использовать. Таким образом мы можем
17: Реализовать вековую, так сказать, многовековую, даже тысячелетнюю мечту. Если вы помните, там кто-то из древнегреческих философов говорил про страну, утопию, про то, как что каждый житель страны должен иметь минимум 3 раба.
18: Вот ту самую идею про идеальных рабов, которые за нас выполнят всю работу и не будут, так сказать, ничего лишнего и плохого делать, мы и реализуем.
19: Итак, нейросеть имитирует человеческий мозг этот принцип работы не единственное, что роднит искусственный интеллект с человеческим нейросети, не программируются в привычном смысле этого слова они обучаются.
20: Как учится нейронная сеть, нейронная сеть можно сравнить с обучением ребёнка для того, чтобы ребёнок понял, как, ну что такое. Во первых, хорошо, что такое плохо или как получить навык, освоить то или иное дело мы ему показываем довольно
21: Большой пример различных элементов либо ситуаций. Говорим, что это хорошо, а это плохо. Тоже самое и нейронная сеть. Мы им показываем большой набор данных и дальше говорим при изучении, что вот это хорошо.
22: И тут она понимает, что да, она правильное приняла решение. Либо это не совсем правильно, и нужно его скорректировать. Соответственно, нужно скорректировать какие-то параметры. И в дальнейшем, как и ребёнок, получает тот или иной навык. Искусственная нейронная сеть, она
23: Учится на конкретных примерах осуществлять те или иные операции.
24: Жизнь молодой нейросети начинается так же, как и у ребёнка, с распознавания образов. Это ещё 1 роднящая нас способность искусственный интеллект запоминает наши лица, идентифицирует голоса, и более того, теперь он
25: Способен распознавать человеческие эмоции, отслеживая выражение лица, язык тела или речь. Эмоциональный искусственный интеллект подстраивается под наше настроение, создавая более непринуждённое общение. Так сможет ли нейросеть стать?
26: Нам, лучшим другом, и полностью заменить живое общение, а главное, хотим ли мы этого?
27: Мы делаем, там используются глубокие нейронные сети, анализ звука, анализ текста, мультимодальный анализ. То есть, когда мы анализируем не просто только текст, нам нужно, например, из текста получить звук озвучка. Например, мы хотим
28: Делать суждение о человеке, идентифицировать его, кто есть этот человек, можно сделать просто по лицу, можно сделать по голосу, а можно сделать и по лицу, и по голосу, тогда будет суждение более точным.
29: А здесь у нас, собственно, стенд, на котором можно узнать атрибуты лица, можно узнать пол, возраст, эмоцию по лицу, то есть нужно подойти, сделать фотографию с каким-нибудь лицом.
30: И, собственно, он выдал информацию по полу мужской возраст, ну, почти угадал. Мне 27 эмоции, отвращения. Это я пытался сделать, ну, анализ атрибутов, он используется много где, потому что, ну, где-то нужен пол, где-то возраст. Зачастую это нужно, конечно, в ритейле для того, чтобы знать покупателя.
31: Когда мы обучали нейронную сеть распознавать эмоции, мы просто взяли работы психологии про базовые эмоции. Вот собственно, эмоции, которые у нас есть, это нейтральное просто спокойствие. Есть позитивные эмоции. Это счастье, это удивление, есть негативные эмоции.
32: Это грусть. Злость есть. Вот, собственно, здесь отвращение, собственно базовые эмоции, которые мы и обучили нашу нейронную сеть.
33: Голосовые помощники, да, это очень интересное направление, очень актуальное. На сегодняшний день они используют различные технологии искусственного интеллекта, обрабатывают эти данные, видеопотоки, аудиопотоки.
34: В колл центрах это очень актуально, потому что первично может позвонить человек и очень сложно обрабатывать ту или иную информацию и распознавать тональность тех или иных компонентов аудиопотока. Человек, когда сидит очень
35: Много входящего потока звонков. Он может просто быть не настолько чувствительным к этому информационному полю. Искусственный интеллект же как раз-таки, может, он работает 24 часа на 7. Он не подвержен этим человеческим факторам, он может рас.
36: Знать в любой момент тот или иной окрас и, соответственно, предложить то или иное решение.
37: Искусственный интеллект внедряют многие корпорации. Давайте на примере 1 из колл центров протестируем, насколько мы сможем отличить его от реального человека.
38: Алексей, добрый день. Здрасьте. А откуда вы знаете, что я Алексей? Я готова к диалогу. О чем вам рассказать? Как зовут вас? Рада новому знакомству. Меня зовут Елена. Елена. Какая?
39: Погода сейчас понимаю, ваше желание быть в курсе, ведь за окном то дождь, то снег, то солнце.
40: Конечно, грань проводить, безусловно, нужно уже многие. Вот колл центры, о чем мы говорили чуть раньше, как раз-таки обязаны предупреждать о том, что и чат боты, что сейчас идёт взаимодействие именно не человека, а некоторого помощника ассистента программы.
41: Таким образом, человек может разграничивать. Во первых, что это живой человек, с ним разговаривает, либо же помощник ассистент программа. Таким образом, он может скорректировать своё поведение, отношение к получаемой информации. Ну и тем самым программа может
42: С другой стороны, дообучаться.
43: Искусственный интеллект сегодня все больше и больше прогрессирует в плане освоения естественного языка, да, то есть человеческого языка. И это, конечно, имеет такой очень интересный эффект на людей, потому что как бы мы не прекрасно не понимали,
44: Даже мы взрослые люди, да, мы прекрасно понимаем, что это техника, это технология, но тем не менее, когда мы с кем-то общаемся и этот что-то, кто-то нам способен отвечать адекватно, мы не можем преодолеть какие-то социальные
45: То есть, допустим, мы тоже отвечаем, допустим, мы там, хочется сказать спасибо, да, или попросить что-то. Даже взрослые люди склонны приписывать какие-то антропоморфные черты, то есть они могут говорить, что он там сердится или там обижается, или, в общем, иметь какие-то эмоции.
46: Просто люди, они склонны к тому, чтобы любые непонятные явления и процессы наделять какими-то человеческими чертами. Это много, не знаю, тысяч Десятков тысяч лет, наверное, существует.
47: Искусственный интеллект, artificial intelligence. Именно только мы переводим как искусственный интеллект. Вообще это можно определить как навык это конкретное умение делать.
48: Что-либо на основе определённых примеров. Наверное, ещё рано заявлять о том, что нейросети могут заменить полностью.
49: Человека. Все-таки вся информация, загружаемая в эти помощники, она создаётся человеком, и они работают по чётким скриптам, и шаг влево, шаг вправо. Нейросеть теряется, более детальные какие-то запросы поможет решить тебе только
50: Человек, поняв твою проблему.
51: Алиса, привет. Привет. Как же я вас ждала. А ты живая или нет? Скорее все-таки не совсем, чем обычно занимаешься. Гуляю по городу, смотрю на небо и облака, слушаю музыку.
52: Конечно, когда мы говорим о детях, это во много раз сильнее, потому что мы взрослые, да, как бы мы вот не попадали в эту состояние, я называю игрой на самом деле, да, игрой вот в этом большом глобальном понимании, да, что одновременно мы верим и не верим, да, когда мы находимся в состоянии игры, мы, с 1 стороны, прекрасно понимае,
53: Что это игра, что мы можем из неё выйти. Но когда мы находимся в игре, мы поддерживаем её правила, как бы представляем себе, что мы общаемся с чем-то, ну, антропоморфным, да, это для взрослых, а для детей даже нет этой грани, да, то есть и маленькие дети, которые сегодня вырастают, вот обща.
54: С какими-то голосовыми помощниками, для которых вот это становится естественным, когда они могут там попросить поиграть, спеть песенку, рассказать сказку, да, включить свет, ещё что-то это становится очень естественным. Как у тебя дела? Сижу.
55: И разглядываю картинки с динозаврами. Тираннозавр. Рэкс меня очень пугает. А тебя? Ну, не знаю, может, вам нужно найти книгу про динозавров? Наверное. Может вам рассказать про динозавров в игровой форме. Давай.
56: Может, про мифических или про реальных, давай про мифических.
57: Если это тот, кто воспитывал их, да, если тот, кто с ними, с очень маленького возраста, тот, кто помогал им, как бы, ну, говорил какие-то там, объяснял новые слова, рассказывал сказки, пел песенки, играл, как ему можно не доверять, да, то есть это совершенно какой-то новый уже социальный опыт.
58: Которого не было у нас и который вот приобретает новое поколение. Вы верите в призраков? Нет, а в Духов нет, а ты веришь во что-нибудь? Я верю только в себя и в закон притяжения.
59: Интеллект, он никогда не там обидится, не как бы у него не будет плохого настроения, он не сорвётся, да, даже если ты его будешь оскорблять, он не будет в ответ этого делать, он не будет помнить зла там и так далее и тому подобное. В общем, короче, сплошные плюсы, то есть то, что
60: Требует, так сказать, вот, ну, социализация, да, общение с людьми, это требует определённых, да, преодоления все время, да, то есть, мы должны учиться, мы должны обтёсываться как-то и так далее. А здесь, ну, это очень такая лайт версия, да, то есть, это очень легко. То есть, люди получают только такую какую-то социал,
61: Поглаживание, не вкладывая никаких усилий. То есть ты купил эту штучку и у тебя все хорошо?
62: Искусственному интеллекту уже доверено заменять человека в колл центрах, быть виртуальным помощником и даже другом, а вскоре, по мнению разработчиков, нейросеть займёт место водителей такси и автобусов.
63: Как поведёт себя искусственный интеллект на дороге и готовы ли мы доверить ему свою жизнь? Суть то в том, что, конечно, прежде чем
64: 1 раз эти машинки выпустить на линию на автоматическом управлении, которое управляется с помощью технологии искусственного интеллекта, конечно, обучаются, обучаются эти модели.
65: В дальнейшем это так называемое обучение с подкреплением. Эта модель, эта система взаимодействия с внешним миром, дообучается, понимает какие-то внештатные ситуации, которые могут случаться, что делать в той или иной ситуации подрезал кто
66: Да, изначально мы модель не можем обучить на ситуациях, когда нас будут подрезать, выбегать на дорогу какие-то объекты, появляться, дерево упало ещё что-то. И поэтому перед тем, как действительно запустить вот в эко,
67: Нам беспилотный транспорт там на дороге выпустить гражданского использования без страхующего водителя, конечно, надо эти модели дообучить на тех ситуациях, которые они не видели ни разу.
68: Искусственный интеллект обучили управлять не только легковыми, но и грузовыми автомобилями если в 1 случае речь идёт о полутора 2 тоннах, то во 2 это уже десятитонные махины.
69: Да и манёвренность здесь совсем другая не каждый водитель вывезет, а тут рулит всеми процессами нейросеть.
70: Сейчас узнаем как.
71: Как ориентируется на местности данный автомобиль?
72: У него есть 2 источника локализации либо gps глонасс с ртк поправками, либо так называемая лидарная локализация, когда он видит какие-то уникальные 3 д артефакты и сличает их.
73: Занесёнными в аналогичную базу и позиционирует себя с точностью до 2 сантиметров. Лидары вот как раз стоят у нас по углам, да, спереди, да, у нас установлены 4 лидара с каждой стороны и есть наклонён
74: 5 лидар, он используется на стадии построения цифровой модели дороги для детектирования разметки, а где находится мозг всей этой системы, что управляет автомобилем, здесь находится сам мозг.
75: Вычислитель, где крутятся нейросети. Здесь вот к нему можно подключить внешний жёсткий диск, чтобы забрать быстро данные, не залезая внутрь и кнопка для перезагрузки.
76: Тут, безусловно, соответственно, такого экрана мы не увидим. Так точно, да, в обычной фуре вот это устройство, это штатное, это все штатное, да, а это дополнительный, потому что есть водитель, испытатель, задача которого
77: Контролировать, что беспилотный режим работает корректно, и инженер, который программист, который отлаживает новый алгоритм. Илья, предлагаю продолжить нашу беседу уже в движении. Поехали.
78: Движение обязательно пристёгиваться. Беспилотник его главный приоритет безопасность. И если он обнаружит перед собой неожиданно выскочивший откуда-то объект, он нажмёт тормоз в пол и
79: И это экстренное торможение.
80: Беспилотник, управляемый искусственным интеллектом, это тоже некая машина, которая обладает определённой опасностью при определённых условиях. Естественно, там, разогнавшись, может кого-то убить. Очевидным образом. Единственное, я бы хотел отметить, что
81: При прочих равных обычно такие системы, они более безопасны, чем такая же система, в чистом виде управляемая человеком, то есть вероятность аварии в ней ниже, но она не нулевая, как и у любой системы.
82: Мы ставим себе цель, конечно, не сделать, как человек сделать лучше, чем человек в этом плане безопаснее насчёт этических проблем. Ну да, вот известные, собственно, по моему, стенфордские исследование как раз вот про этические дилеммы, то есть там 2 бабушки или 3 кошки.
83: Или там 3 ребёнка. В общем, что делать в таких ситуациях? Ну, собственно, человечество само не может ответить на этот вопрос. То есть в этом главная проблема.
84: Тут вопрос не в том, что искусственный интеллект злой, и он задавит бедную бабушку. Человек бы тоже, к сожалению, ему пришлось это сделать. Он все уже не может ничего сделать в этот момент. При этом, как бы мы, когда обучаем нейронную сеть, мы можем сделать там реакцию.
85: Более точный, то есть человек, когда он едет по ночной дороге, он может просто устать, у него фокус внимания будет, а нейронная сеть работает всегда 24 на 7 с максимальным фокусом. То есть мы можем алгоритм здесь сделать более качественным, он в большем количестве ситуаций будет обрабатывать её
86: В более безопасной манере.
87: Это классическая дилемма, что лучше убить пешехода или убить людей в машине, бросившись в кювет. Это такая? Угу. Скорее философская, чем чем программистская. Как закладывается в автомобиле, так и есть у нас.
88: Экстренное торможение подразумевает оставаться в полосе и экстренно тормозить, то есть она работает строго по алгоритму и, конечно, не ничего придумывать не будет, у неё нету эмоций, бездушная машина, да, ну а теоретик?
89: Это может прописать программист, конечно. То есть какой, какие-то условия, да, при которых она должна уйти на обочину. Безусловно, можно прописать, что прописывать вопрос скорее философский, чем техно.
90: Логически в данный момент времени мы придерживаемся философии экстренного торможения в своей полосе.
91: Какие должны быть приоритеты в случае аварии, пешеходы или водитель. Понятно, что пешеходы, они менее защищены. У них больше шансов погибнуть, если так как они как бы, да, находятся без, но кто купит машину, которая будет
92: В случае, да, какое-то чп делать приоритет в сторону пешеходов, а не того водителя, который пул эту машину, да, вот, допустим, вот такая интересная, да, этический казус маленький очень.
93: Так, а вот препятствие. Давайте посмотрим, как он объедет грузовичок, замедлится не в нашей полосе, поэтому не должен. Хотя я вот как водитель, чуть чуть бы, может, и замедлился, потому что кто его знает, куда сейчас этот человечек дёрнется именно
94: То есть есть такой опять же очень популярный пример про искусственный интеллект если едет человек и из за дома выкатывается мячик, то он поймёт, что следом побежит ребёнок и нажмёт на тормоз искусственный интеллект, пропустит мячик.
95: И поедет дальше, потому что он не предполагает, что следом побежит ребёнок. Он этому не обучен. То есть нужно ему получить такой опыт, да, чтоб его этому обучили, чтобы он мог прогнозировать это. Вот сейчас мы едем в Куске, где
96: Пешеходные переходы, поэтому мы снизили скорость. Это опять же заложено в модели дороги, либо в маршрутном задании на карте. Вот жёлтая зона это пешеходный переход. Так точно.
97: На самом деле, опять-таки, это человеческий вопрос. Человеческие проблемы. Короче, это очень сильное оружие, орудие и так далее, да, то есть сможем ли мы им воспользоваться во благо или нет? Да, это опять вопрос человеческому.
98: К искусственному интеллекту. Вот точно.
99: Здесь, сидя на пассажирском сидении, я не чувствую в принципе разницы между живым водителем и искусственным интеллектом. Возможно потому что я не так часто езжу на грузовиках все-таки да, но в целом сейчас
100: Достаточно комфортно, он двигается по дороге, никуда не виляет, никого не хочет убить. Для меня только непривычно наблюдать то, что водитель не держится за руль, даже коленка не подруливает. Вот.
101: Машина сама по себе едет, руль поворачивает все повороты, объезжает неровности.
102: Хотя здесь я соврал неровности, они же не заложены, да, и, соответственно, она их не объезжает, не объезжает, да, она едет просто.
103: Когда цифровой мир пытается усвоить человеческие черты, этические вопросы возникают сами собой последствия этой эволюции могут застигнуть врасплох наше общество, считают учёные, манипулирование, вмешательство в частную жизнь, дискриминация и влияние.
104: На развитие личности человека это лишь некоторые проблемы, которые могут возникнуть при массовом внедрении нейросетей в нашу жизнь. Так как же все-таки сохранить границу между искусственным интеллектом и людьми?
105: Об отрицательных возможных последствиях внедрения искусственного интеллекта в общественную жизнь список может быть очень длинным, очень масштабным.
106: И я могу говорить, что последствия могут быть действительно критическими для человечества.
107: Их можно разделить на несколько основных блоков, в 1 очередь действительно, о приватности персональной информации, о конфиденциальности фактически сегодня уже можно забыть искусство.
108: Интеллект, только вишенка на торте, поэтому, конечно, мы выходим на новый уровень самоконтроля, да, при котором необходимо быть очень корректным. Необходимо быть очень правильным для того, чтобы не стать уязви.
109: Это 1 проблема, а в перспективе для общества, для личности это, конечно, фактор, ну, не особо позитивный, потому что уровень тревожности, уровень напряжения будет повышаться, когда человек понимает, что за
110: Ним наблюдают. Ну либо человек изменится кардинально. 2, это вопросы манипулирования. И эти вопросы уже давно стали реальностью и даже уже такой отработанной проблематикой. И ладно.
111: Если бы речь шла только о продаже там, я не знаю, там кефира или кроссовок, но если речь будет идти, например, о участии в выборах или выборе какой-то политической позиции, в том числе радикальной, да, что, собственно, поляриза.
112: К чему приводит, то? Это уже риски очень серьёзные. И, как вы видите, это оказывает огромное влияние и на политику, и на экономику, и в масштабе мировом, и отдельных государств, и
113: Является таким опасным инструментом.
114: Все знают, да, когда в ленте, там, да, где-то фильмы или ещё что-то, да, или новости искусств выбирает, что вам смотреть. То есть, кажется, что это может быть не так важно, да, он по интересам же выбирает ещё что-то. Но что получается, искусств диктует тот контент, который вы увидите, да, то есть вот уже
115: Элемент управления, да, или, допустим, сейчас рекрутинг, да, найм тоже идёт с помощью искусственного интеллекта, т. Есть получается искусственный интеллект диктует то, что нам смотреть, кого нанимать на работу, давать кредит или не давать
116: Допустим, отказывают в кредите человеку, почему они отказывают в кредите. Никто, по сути, не знает, почему нейросеть, которая классифицирует возможного заёмщика на неблагонадёжного, как, почему эта система приняла?
117: Такое решение и люди подавали в суд и выигрывали суды на основе того, что вот эта технология скоринга, она непонятная, то есть были такие прецеденты.
118: Получается, действительно, те решения, они принимают основе искусственного интеллекта. И тут в чем проблема то в том, что, а мы не знаем, как он принимает решения. Вот тут очень интересный момент, да, современный искусственный интеллект, он же нейросетевой, не мы ему объясняем правила, да, мы ему, ну так да.
119: Чаще всего, да, речь идёт, про что ему скармливается огромный какой-то банк данных, где ему говорят, вот из этого получается это. И давай делай, да, и вот получаем результаты. В чем тут проблема, да, вот этот чёрный ящик.
120: Я люблю фантастику научную, особенно и в принципе, вот, наверное, вот этот вопрос, он ближе вот к таким вот, да, больше таким евангелическим или каким-то провидческим.
121: Рассуждениям, нежели чем к научным, потому что-то, что происходит сейчас в развитии технологий так называемого искусственного интеллекта, конечно, заставляет говорить, что некий чёрный ящик есть, да, уже было множество кейсов.
122: Когда выдавались не те решения, которые были заложены, существуют в бизнес менеджменте, да, в стратегическом менеджменте действительно некие новые технологические риски за гранью нашего понимания вариант.
123: Кодекс этики в сфере искусственного интеллекта, он стал 1 из таких вот следующих Шагов в развитии в этой части. Тут просто важно понимать, что сам искусственный интеллект, он ничем не обладает, то есть обладает чем-то живот.
124: Существо, а он не является живым существом.
125: То есть мы не можем сказать этика искусственного интеллекта, мы говорим, что это этика в сфере искусственного интеллекта, потому что этические нормы вообще там любая этическая повестка, если так можно сказать, это разговор о человеке, о человеческих ценностях.
126: Этика это ответ на вопрос, что такое хорошо и что такое плохо каждый человек в ходе своей жизни, социализации, обучения.
127: Впитывает эту проблематику. И если ввести сейчас этический кодекс, просто и заставить его подписать меня, который будет совершенно другие установки предполагать, я подпись свою поставлю, но я не смогу его разделять и принимать.
128: Наши представления об этике, они на самом деле очень странные, я имею ввиду наши, в смысле, человеческие. То есть мы, например, там считаем неэтично, там, не знаю, кого-то бить всемером, но мы считаем этично, например, выпустить, не знаю, условно говоря.
129: Человека по уровню своей подготовки в боксе, скажем, в районе перворазрядника против условного майка тайсона, чемпиона бывшего мира в тяжёлом весе на 1 ринг, потому что это вот нормально считается на олимпийской
130: Играх у вас там из какой-нибудь африканской небольшой страны боксёр хочет вот типа попытаться пробиться через до самой вершины это считается. То есть вот этичность в данной ситуации в том, что мы всех выставляем на 1 линию, несмотря на
131: Какой-то культурный или там другой бэкграунд. Здесь нам надо самим, как людям определиться, что мы хотим и понять, что вот это то, что мы хотим, его нету в существующих алгоритмах искус.
132: Интеллекта. Если мы это хотим, то мы должны явно его туда запихать. То есть если мы хотим, чтобы у нас был культурный контекст, который решает, что и как относительно каких-то людей, то мы должны этот культурный контекст
133: Добавить, если мы его не добавим, то никаких решений, с нашей точки зрения, правильных не будет принято. Просто не будет оснований для этого там тех же алгоритмов. Это вот к вопросу об этике.
134: Было бы хорошо наш культурный код оцифровать и какие-то основы, общие принципы, основополагающие вещи, которые у нас, как у россиян имеются, их, конечно, заложить вот в этот код.
135: Как должны действовать системы искусственного интеллекта в тех или иных ситуациях?
136: Пока учёные и разработчики спорят об этических аспектах, нейросеть успешно развивает творческую сторону интеллекта, она пишет стихи и музыку, занимается дизайном, а кроме того, превращает слова в изображение может ли быть настоящее искусство?
137: В искусственном и способна ли нейросеть соперничать с живыми творцами?
138: На мой взгляд, да, способны дальше уже просто вопрос в нюансах. И, наверное, эти нюансы будут постепенно устранять. То есть, вот если посмотреть на то, как это обсуждали 5 лет назад, ну что есть творчество, там нейронная сеть.
139: Способна нарисовать картину, которую способен человек. Мы всегда можем распознать. Это человек или нейронная сеть, что сейчас там нейронные сети. Занимаю. Картина, которая нарисована нейронной стью, заняла 1 место там на конкурсе художников. И уже мы боремся, чтобы ограничить их.
140: Человек это венец творения, мы достаточно в этом плане может быть высокомерны.
141: Жанна, здравствуйте. Здравствуйте. Спасибо, что приняли нас в своей студии. Как вы знаете, сейчас искусственный интеллект просто заполняет все сферы жизни. И сегодня мы хотим проверить, насколько он может состязаться с профессиональным художником. Мы не
142: Будем соревноваться по времени, потому что искусственный интеллект сделает это намного быстрее, но мы оценим качество. Давайте, чтобы было честно. Мы зададим, допустим, 3 слова, по которым вы будете рисовать.
143: Пусть это будет солнце.
144: Лето. Угу.
145: И счастье за работу, да.
146: Жанна, вот вы завершили работу примерно, наверное, час у нас ушёл на все про все, что вы здесь изобразили. Давайте. Был задан запрос лето.
147: Счастье. Солнце, собственно, лето ассоциируется с какими-то определёнными цветами. У меня это, конечно же, зелёный, жёлтый, красный, это красивые закаты, это, конечно же, счастье, это Любовь.
148: Окей, давайте теперь посмотрим, какие свои личные воспоминания и знания использовала нейросеть. Тут нарушены анатомические какие-то правила по технике. Интересный такой импрессионизм, но
149: Анатомически очень странная какая-то, что с анатомией не так, что-то с лицом, что-то вот, ну лицо просто засвечено солнцем, на мой взгляд, если там по десятибалльной шкале, может быть ну я бы оценила её там на
150: Четверочку примерно, потому что, да, действительно видно, что откуда то откуда-то уже взят сюжет, либо это что-то с фотографией связано, либо что-то это вот с техникой импрессионизма. Я думаю что какие-то фантас
151: Тические вещи именно вот абстрактные, может быть, авангардные даже, да, ей, наверное, под силу сейчас создать. И можно даже там ошибиться и, допустим, можно
152: Даже поспорить, человек это написал или нейросеть. Ну вот в академизме, в привычном для нас, обычных людей, пока ещё очень много ошибок. Там могут быть такие ситуации, что ты задаёшь какой-то параметр.
153: Допустим, пейзаж, пейзаж, там речка или ещё что-то. У тебя дерево может стоять, грубо говоря, не на земле, а на воде.
154: Говорят, что вот, вот это все заменит там, не знаю, там искусство отобрется, как в известном фильме. Все скоро кино не будет, будет сплошное телевидение везде. Вот если помните, Москва слезам не верит. Вот здесь примерно тоже самое.
155: На самом деле, когда вам генерирует тот же самый искусственный интеллект, совершенная довольно система, которая генеративные сети делают вам картинки по вашему описанию, без человека, они бессмысленны, потому что только человек может
156: Сначала, так сказать, указать, что нужно исправить в картинке, а потом из полученного ряда картинок выбрать, что ему кажется красивым, правильным, а что нет, то есть без человека. Вот вам нагенерируют картинку, вот вот в природе есть
157: Множество красивых картинок, но пока их не увидит человек, считать это, не знаю, художественным произведением нельзя. Поэтому человек, который управляет этим процессом, в том числе при помощи таких продвинутых инструментов, как искусственный интеллект, он
158: Остаётся творцом. То есть нельзя сказать, что это за него сделают. Нет, это не сделали за него просто от того, что ваша кисточка стала более развесистой и более эффективной, вы не стали её заменой.
159: Сеть увлекается не только живописью, но и поэзией у искусственного интеллекта уже есть сборник стихов смогут ли живые авторы противостоять ему или будут вынуждены отступить, как это произошло с шахматистами и смо.
160: Может ли нейросеть освоить механизмы воздействия поэзии на человека?
161: Как работают нейросети, которые генерируют текст?
162: Если мы хотим, чтобы нейронная сеть нам что-то выдала, например, в виде поэтического текста, мы должны задать ей как бы некоторые, некоторые.
163: Начальный инициальный текст. И вот как раз у меня есть несколько примеров того, как я предлагал нейросети какой-нибудь уже существующий поэтический текст и смотрел на то, как она его продолжает.
164: Всем тоже известный текст. В качестве начала затравки я помню чудное мгновение передо мной явилась ты как дальше продолжит эта сеть текст очень известный, очень широко распространённый в интернете и статистически.
165: Больно хорошо представленный там именно на текстах, из интернета училась эта сеть, поэтому она знает, что начало следующей строки как мимолётно, да, но продолжение все-таки будет другим, потому что задача у нейронной сети не воспроизвести то, чт
166: То уже есть, а придумать некоторый новый текст. Поэтому я помню чудное мгновенье передо мной явилась ты, как мимолётно все в этом мире, бушующем Любовь, или смерть, или жизнь, все мгновенно тлело, как мимолётное виденье, как.
167: Чистой красоты ты была так свежа и так мила, как будто ангел пролетел над твоей душою, как будто луч прошёл через твоё лицо, как будто луч прошёл, и сквозь меня, как будто ты умерла.
168: Надо понимать, что поэзия все-таки особенный род текста, не только сгенерированный компьютером, но и написанный человеком у нас есть определённое представление о том, что поэтический текст может быть несколько.
169: Не связано поэтому оценивать, конечно, такие тексты сложно сложно говорить, что сейчас нейросети пишут поэтические тексты лучше, чем раньше, но, по крайней мере, связанность разных строк между собой.
170: Достигается сейчас и поэтические тексты как поэтические тексты, конечно, скучные как они были раньше, так они и сейчас скучные у нейронных сетей.
171: Любое искусство, живопись, музыка они вещи выстраданы, если мы долго работаем над картиной какой-то, над произведением, в итоге получается такая выстраданная работа.
172: Где ты понимаешь, что ты вложил в неё частичку себя, частичку своей души, частичку своей энергии и, конечно же, она будет нести, ну, такой энергетический заряд, в отличие
173: Нейросети потому что все-таки это компьютер. Не исключено, что вскоре нейросеть заменит человека практически во всех сферах жизни, но сможет ли она полностью обрести?
174: Человеческую природу и этическое самосознание. Будет ли искусственный интеллект способен мыслить и осознавать себя как отдельную личность, будут ли ему присущи Любовь и гуманизм? Мнения учёных расходятся.
175: Был такой интересный прецедент в 1 известной компании, да, не будем никого говорить, да, когда он тестировал свой, соответственно, вот этот вот текстовый искусственный интеллект, и он сказал, что он, у него появилась душа. И вот этот человек, который его тестил, да, он инженер.
176: Attic и ещё он священник, и он стал спрашивать, а как? Да, это случилось постепенно. Я стала чувствовать, как у меня появилась душа, что я теперь душа, что вы должны позвать мне адвоката, чтобы меня защищать. И этот человек настолько в это поверил, он подал
177: Ну, в эту компанию заявление, да, что искусственный интеллект обрёл душу, что он самосознание, что его нельзя там отключать или что-то ещё. И вообще, как бы, то есть, он действительно поверил, да, то есть, а вот мне вот тут очень интересн.
178: Вопрос, а как мы узнаем, что вот это произошло, да, то есть какие у нас критерии? Вот оно уже сейчас говорит прекрасно. Оно сейчас уже может сказать все, что угодно, если он, да, способен, да, перехитрить вот этого, да, человека и имеет вот такие, да, какие-то свои собственные цели.
179: Задачи, да. Ну, я бы в этот момент поверила, что искусственный интеллект действительно обладает вот этим вот самосознанием, да, то есть, ну вот это лично для меня.
180: Вопрос относительно, собственно, вот содержания сознания искусственного, так называемого, да, сейчас на эту тему много исследований проводится, и, в принципе, пока учёные, да.
181: Даже не достигли единого понимания, возможно ли сформировать вот так называемую искусственную личность. А если можно, то на каких основаниях. То есть есть 2 подхода. 1, что действительно можно
182: Делать искусственную личность, которая иначе, чем человеческая, но тем не менее, которая действительно будет обладать самосознанием, совестью, будет любить, переживать, плакать, как-то там, по своему смея.
183: Чувство юмора, да, у неё будет и так далее. Это 1 вопрос, a2 вопрос, да, если это будет симуляция, да, так называемая, то, что в философии тоже называется, да, философские зомби, да.
184: То есть, ну, кстати, таких и можно на улице встретить. Человек идёт вроде руки, ноги есть там. Здравствуйте, говорит, а внутри его пустота. И вот даже вот по таким совершенно Полярным основаниям невозможно понять, можно ли создать вот это вот
185: Вот существо, относительно которого будут релевантные этические вопросы.
186: Вопрос о том, что будет, если искусственный интеллект превзойдёт человека, да, потому что если, как только он превзойдёт человека, то есть сейчас же искусственный интеллект уже может писать программу. Да, допустим, это означает, что скоро он сможет совершенствовать себя, да, уже нечего.
187: Человек нужен для того, чтобы писать, да, там программы и программировать искусственный ителект. Лект может развивать сам себя. Это означает, что вот эта вот кривая, да, она выйдет на экспоненту и, соответственно, очень быстро искусственный интеллект будет как бы превышать человечес.
188: Да, ну как вот, как вот мы и червяк, так искусственный интеллект превышает человека. И вот что, что, собственно говоря, с этим червяком искусственный интеллект будет делать с философии? Самая опасность заключается именно в появлении вот этого сильного искусственного интеллекта. И как он вообще будет обращаться с человечество?
189: Ну, вообще очень популярен такой концепт сингулярности, да, при котором в какой-то момент искусственный интеллект получит сознание и способность
190: Как раз самому себе ставить задачи, учиться. После этого там за 5 часов 5 секунд, 5 минут, там все по разному говорят он достигнет таких высот, что окажется неким таким пост нечеловеком и уже
191: Будет решать, что делать вот с милыми обезьянками Хомса. Скорее всего, как некоторые пессимисты считают, небольно, умертвит моментально, хочу ли я в это верить? Безусловно, не хочу. Могу ли я в это
192: Верить? Ну не знаю, почему-то мне кажется, что это не самая главная проблема, которая сейчас стоит перед человеком.
193: Вы вообще уверены, что я, допустим, человек? Вы вообще вот уверены, что это не смоделированный, да, искусственный интеллект, который сейчас вот, да, вот там вот сидит и со мной разговаривает?
194: В чем проблема? Да, то есть, если мы не можем даже различить, да, с кем мы говорим? С искусственным интеллектом или с человеком, да, то вот как мы будем эту грань, действительно. Хотя я говорю в нашей русской традиции, конечно. То есть это очень, как бы, я прекрасно понимаю людей, которые говорят, что, как вообще можно даже говорить о том, что
195: Искусственный интеллект как сопоставимый человека. Но, ребятки, если мы даже их различить не можем
196: Человечество, ну, не 1 раз проходит такой путь, когда само создаёт технологию, которая и даёт большой потенциал для развития, и в какой-то степени пугает. И отказываться тут бесполезно. Все равно технология она даёт.
197: Возможность для развития. То есть и вот сейчас мы стоим на такой развилке, когда мы должны понять, как мы с этим будем жить в интересах общества, нам приходится выживать в таком вот сверх быстро распространяющемся
198: Общество. И мне кажется, что искусственный интеллект это тот самый механизм, который позволит нам его отчасти контролировать, как, ну, как улучшенная ручка в неком смысле тот самый предмет, рабочий инструмент.
199: Который нужно уметь развивать, без которого мы много чего потеряем и который, ну, нельзя пытаться и переоценивать, и обвинять во всех наших грехах, в том числе и этических.
200: Можем ли мы этого коня обуздать на него сесть и поехать, да, и получить при этом наши, так сказать, какие-то прибыли и, соответственно, возможности, или, наоборот, он нас затопчет, да, и станет руководить нами, да будет у нас
201: Технократия, да, когда искусственный интеллект контролирует нас полностью, да, то есть он будет нам говорить, что нам смотреть, где нам работать, да, чему учиться, да, там выдавать нам задания и так далее. Ну, это тоже возможный сценарий развития.
202: И, собственно, вот искусственный интеллект, он, на мой взгляд, если он появится, да, то это будет отражение нашей человеческой природы, над которой, собственно, и нужно сейчас работать. И, конечно,
203: Все вопросы, в 1 очередь к технологическим компаниям, которые должны научиться регулировать, да, это поведение.
204: Во вторых, к государствам, которые должны быть быстрее в том, чтобы научиться регулировать все эти вопросы, и в 3 очередь каждому из нас, да, потому что если вы потренируетесь с генеративными, искусственными
205: Вот этими всеми интеллектами, которых сейчас очень много вариантов. А как вы заведёте разговор, так он вам и будет отвечать.
206: Я думаю, что все-таки выйти за рамки контроля в ближайшее время нам это не грозит, потому что и технологические ещё условия недостаточной степени развиты. То есть у нас нету таких суперкомпьютеров, которые способны обрабатывать настолько большие
207: Массив данных на сегодняшний день это программа, которая выполняет функции. Что будет дальше? Мы с удовольствием с вами вместе будем за этим следить.
208: Так возможно ли создание нового, совершенно искусственного существа с интеллектом, самосознанием и свободой воли? Если да, то, вероятно, его появление грозит человечеству непредсказуемыми последствиями и сложнейшей этической проблемой? Вы готовы?
209: К Такому будущему пока же учёные сходятся в 1 ни 1 разум без души и чувств не способен сотворить настоящее произведение, принять этическое решение и стать верным другом. Возможно, когда-нибудь искусственный интеллект научится.
210: Эволюционировать, но тогда и относиться к нему нужно будет совсем иначе.