Терминатор или сверхсущество

00:04 11/07/2020 Интернет и СМИ
Терминатор или сверхсущество
Ковида явно мало.

Искусственный интеллект окружил человека настолько плотно, что стал вопросом мирового значения. Внедрение технологий ИИ во все сферы жизни в ближайшие 20 лет, по прогнозу глобального института McKinsey, создаст новую реальность. Умная автоматизация может быть сопоставима с масштабами последней промышленной революции, что одновременно вызывает и воодушевление, и опасение за будущее человечества. Неудивительно, что исследователи по всему миру пытаются понять, как отрегулировать сферу искусственного интеллекта так, чтобы он не навредил людям. Возможно ли это? И что об этом думают в России? «Лента.ру» разобралась, какие препятствия могут встретиться на пути регулирования ИИ.

Так завещал Стивен Хокинг

Стремительное развитие искусственного интеллекта будоражит умы исследователей по всему миру. В 2019 году Совет Европы учредил комитет экспертов по искусственному интеллекту (Ad hoc Committee on Artificial Intelligence — CAHAI). Решение создать подобный орган обусловлено крайне высокими темпами развития машинного обучения, в связи с чем возникла необходимость правового регулирования этих процессов. Члены организации считают, что отсутствие правовой подоплеки может грозить людям дискриминацией, посягательством на личную жизнь и манипулированием со стороны различных онлайн-платформ.

«Искусственный интеллект произведет революцию в нашей жизни. В таких областях, как медицина, связь и транспорт, открываются все новые возможности. Но последствия его продвижения для демократии, прав человека и верховенства закона все еще неясны. Как предупреждал ныне покойный Стивен Хокинг, риски нерегулируемого искусственного интеллекта беспрецедентны», — сказал генеральный секретарь Совета Европы Ягланд Тербьерн, объясняя необходимость создания спецгруппы по ИИ оценкой его угроз и возможностей для прав человека.

Уже в начале июля 2020 года на площадке CAHAI состоялась конференция, в которой участвовали более 250 представителей из 47 государств-членов Совета Европы. Кроме того, на мероприятии присутствовали делегаты из других стран, включая Ватикан, Израиль, Мексику, США и Японию. Россию на заседании представили сразу два спикера — советник по международному сотрудничеству и координации Центра компетенций НТИ «Искусственный интеллект» МФТИ Андрей Кулешов и вице-президент «Сколтеха» Максим Федоров. В марте профессор Федоров был среди десяти человек, которых пригласили в экспертную группу ЮНЕСКО по искусственному интеллекту. Эта группа призвана выработать рекомендации этических принципов разработки и использования ИИ.

Москва — второй Сан-Франциско?

Для экспертного сообщества приглашение российских специалистов для работы над регулированием сферы ИИ сюрпризом не стало. Россия играет активную роль в формировании международно-правовых рамок регулирования искусственного интеллекта, говорит Кулешов. У наших ученых есть опыт, наработки и ресурсы для того, чтобы претендовать на лидирующие позиции в сфере разработок, основанных на искусственном интеллекте. Сейчас в стране прорастают «совершенно потрясающие идеи», каждая из которых может изменить мир, считает Кулешов.

«У нас уже удобно развивать ИИ, можно сделать еще удобнее. И в мире, конечно, вклад России в ИИ важен», — заявил он в разговоре с «Лентой.ру».

Схожей позиции придерживается и вице-президент «Сколтеха» Федоров. По его мнению, сегодня у России есть все шансы составить конкуренцию доминирующим США и Китаю на рынке интеллектуальных систем. Многие выходцы из России давно трудятся в крупнейших международных компаниях наравне с иностранными разработчиками. Ученый посетовал, что из-за стечения обстоятельств российским специалистам приходится покидать родину, однако в некоторых регионах ситуация обнадеживающая — например, в столице.

«Москва сейчас — это второй Сан-Франциско в плане количества, качества и плотности разработок в сфере ИИ. Поэтому многие специалисты не уезжают из Москвы. Есть интересная работа, интересные задачи и развитое экспертное сообщество», — оценил обстановку российский ученый.

Федоров считает, что Россия может занять достойное место в мире высоких технологий, но для этого необходимо придерживаться правильной стратегии — не стараться догнать Запад и Восток, а обогнать их, синтезируя различные подходы.

«У России есть много уникальных задач для себя: управление территорией, развитие ресурсодобывающей промышленности и производства непрерывного цикла. Если нам удастся решить эти задачи, то позже мы сможем масштабировать свои технологические решения на весь мир, и российские технологии будут покупать за большие деньги», — обрисовал ситуацию профессор.

«Обсуждают какую-то сущность, которой не существует»

На недавнем заседании комитета Совета Европы вице-президент «Сколтеха» выделил одну из основных проблем развития искусственного интеллекта — необоснованное придание ИИ статуса субъектности. Ученый имеет в виду, что технологии сами по себе «этически нейтральны», поэтому не могут причинить реальное зло, в отличие от человека, который управляет интеллектуальными системами.

По словам эксперта, при регулировании разработки и внедрения ИИ необходимо сохранять человекоцентричный подход во всех документах, а также избегать «очеловечивания». В противном случае появится асимметрия ответственности — как экономической, так и социальной. Другими словами, в любой непонятной ситуации человек сможет переложить вину на бездушный компьютер. Из-за этого создатель техники окажется невиновным и получит прибыль, а жертве придется разбираться с нанесенным ущербом самостоятельно.

Федоров считает такую ситуацию, когда риски ложатся на плечи конечных пользователей, недопустимой. Чтобы избежать подобных ситуаций, необходимо в первую очередь сосредоточиться на вопросах этики в сфере ИИ.

«Проблема этических норм — первична. Выработав эти нормы, мы можем транслировать их на поведение в киберпространстве. Так как сейчас информационные технологии повсеместно проникают благодаря интернету (и ИИ не исключение), возникла потребность глобального документа, регулирующего этику технологий ИИ», — говорит российский ученый.

Этим уже занимаются, например, в Международной организации по стандартизации. Россияне участвуют в обсуждении в рамках технического комитета ТК-164, который разрабатывает технические стандарты для искусственного интеллекта на национальном, межгосударственном и международных уровнях. А также работает над первым полноценным руководством по этическим аспектам технологий автономных и интеллектуальных систем.

«Технические стандарты находятся в разработке. Над этим работают и в ООН. Например, в прошлом году был принят Пекинский консенсус по ИИ и образованию. Думаю, что со следующего года уже начнется разработка нормативов», — прогнозирует вице-президент «Сколтеха».

«Искусственного разума не существует»

И все-таки как должен регулироваться искусственный интеллект? В этом вопросе есть два важных аспекта, говорит Андрей Кулешов. Во-первых, правовая основа должна укреплять доверие к технологии и защищать интересы человека, общества и государства, а не наоборот. А во-вторых, — регулирование не должно мешать развитию отрасли, а с этим могут быть проблемы.

«Преждевременное регулирование в инновационной отрасли станет препятствием для инноваций, может привести к регуляторному арбитражу в погоне за инновациями и к доминированию крупных корпораций», — объясняет исследователь.

Он обращает внимание на то, что объектом регулирования является не столько система ИИ, сколько люди или организации, которые запустили эту систему. По сути, Кулешов поддерживает точку зрения Федорова, который призывает не наделять искусственный интеллект человеческими чертами.

«Самого по себе ИИ не существует. Существуют системы, которые демонстрируют свойства, так или иначе подобные естественному интеллекту… То есть мы регулируем технологии, не абстрактно-философский искусственный разум, которого пока, по моим сведениям, не существует», — так объясняет Кулешов.

Он считает, что логичнее всего для регулирования ИИ использовать риск-ориентированный подход — то есть регулировать те области, использование искусственного интеллекта в которых рискованно и может обернуться убытками. К примеру, работа чат-ботов в регулировании не нуждается, однако если ИИ ошибется в сфере медицины, последствия будут куда серьезнее.

Пять китов

Доводы зарубежных ученых пересекаются с позицией российских коллег. Профессор частного права Политехнического университета Турина Александро Мартелеро считает, что системы с искусственным интеллектом должны создаваться так, чтобы служить человечеству, а при разработке и использовании таких систем обязаны соблюдаться права человека, требования по обеспечению демократии и верховенства права.

«Программы с искусственным интеллектом должны предусматривать возможность разумного человеческого контроля за их влиянием на отдельных людей и общество в целом», — заявил итальянский эксперт во время мероприятия CAHAI.

В свою очередь профессор биоэтики на кафедре здравоохранения и технологий Швейцарского федерального технологического института заявил, что при регулировании правовых актов для ИИ необходимо делать акцент на пяти этических принципах: прозрачности, справедливости, отсутствии злонамеренности, ответственности и защите частной жизни.

«Кажется, международное сообщество сходится во мнении о важности прозрачной, добросовестной, ответственной разработки и использовании этичного искусственного интеллекта, который также учитывает необходимость защиты частной жизни», — прокомментировал он свою позицию.

Кейтлин Мюллер, член группы Евросоюза высокого уровня по искусственному интеллекту, отметила, что разработка этических и правовых норм не должна восприниматься как препятствие для прогресса и инноваций. По ее словам, международно-правовые рамки регулирования ИИ нужны для того, чтобы не допустить безответственного развития технологий машинного обучения.

Алексей Глинкин

Комментирование разрешено только первые 24 часа.

Комментарии(10):

2 +0−0Michael Kerjman / Михаил Кержман18:39:28
11/07/2020
Ковида явно мало.
2 +0−0Olga Bondareva14:11:09
11/07/2020
Человечество наверняка будет развивать технологию AI. Но потенциально это очень опасная технология...
1 +0−0Akuzmenko .20:10:50
11/07/2020
1 +0−0NKSoft19:19:02
11/07/2020
Для начала все мы должны понять что никакого искусственного интеллекта на сегодняшний день не существует.. Существуют программы распознавания образов, букв, лиц, речи. ИИ тут и не пахнет. И если вы думаете что если по телефону к вам обратился робот, а потом сказал "моя твоя не понимай" - это ИИ, то вы глубоко ошибаетесь, это студент написал глючную программу распознавания речи и реакции на неё..
Посмотрите на искусственный интеллект в компьютерных 3d шутерах. В некоторых играх боты сражаются не хуже, а лучше людей во много раз. Раз ботов можно обучить играть в игру, то можно обучить и стрелять из оружия по мишеням в виде людей. Прячась и скрываясь за препятствиями. Даже телефоны легко распознают силуэты людей и их лица. То уж неужели дроны не могли бы точно так же сами летать, избегая препятствий и ведя войну с людьми. Если люди поставят такую задачу, то она легко выполнима. Поэтому ИИ это не шутки и за этим нужно следить не меньше чем за ядерными технологиями. Которые если окажутся не в тех руках, то катастрофы не избежать... Единственное что хорошо это то, что у военного дрона под управлением ИИ рано или поздно закончатся патроны и топливо. Вечно он летать и стрелять не сможет. А новых он создать и зарядить сам не сможет.
1 +0−0NKSoft19:19:02
11/07/2020
Для начала все мы должны понять что никакого искусственного интеллекта на сегодняшний день не существует.. Существуют программы распознавания образов, букв, лиц, речи. ИИ тут и не пахнет. И если вы думаете что если по телефону к вам обратился робот, а потом сказал "моя твоя не понимай" - это ИИ, то вы глубоко ошибаетесь, это студент написал глючную программу распознавания речи и реакции на неё..
0 +0−0Vladimir Kornienko04:56:23
12/07/2020
1 +0−0Akuzmenko .20:10:50
11/07/2020
Посмотрите на искусственный интеллект в компьютерных 3d шутерах. В некоторых играх боты сражаются не хуже, а лучше людей во много раз. Раз ботов можно обучить играть в игру, то можно обучить и стрелять из оружия по мишеням в виде людей. Прячась и скрываясь за препятствиями. Даже телефоны легко распознают силуэты людей и их лица. То уж неужели дроны не могли бы точно так же сами летать, избегая препятствий и ведя войну с людьми. Если люди поставят такую задачу, то она легко выполнима. Поэтому ИИ это не шутки и за этим нужно следить не меньше чем за ядерными технологиями. Которые если окажутся не в тех руках, то катастрофы не избежать... Единственное что хорошо это то, что у военного дрона под управлением ИИ рано или поздно закончатся патроны и топливо. Вечно он летать и стрелять не сможет. А новых он создать и зарядить сам не сможет.
Искусственный интеллект должен позволить машине думать и общаться как человек. А это значит обладать чувством юмора, сарказмом, иронией, творчеством и еще бог знает чем. Не одна машина даже близко не подошла к такому уровню. Стрелялки - это простые логические машины и уступают в сложности даже шахматным программам. Не бойтесь того чего нет и неизвестно когда появится. Что касается "умной" стрельбы по людям, то вы опоздали, интеллектуальные авиационные прицелы существуют лет этак сорок.
0 +0−0Станислав Евдокимов20:29:43
11/07/2020
наверно не стоит его делать,нет?
0 +0−0Анатолий Антибандера20:27:52
11/07/2020
Резюме: никто ни хрена не знает,но ковида явно мало.
0 +0−0tvoyrazum56620:00:20
11/07/2020
Есть страны, которые работают над развитием, а есть те, которые "...благодаря дипломатам, в том числе...", лезут что-то регулировать, вообще не разбираясь в этом. Где Россия, а где искусственный интеллект?! В России то и обычного небыло и нет, страна шариковых...
0 +0−0Империя Лузеров19:38:56
11/07/2020
нейросети очень интересно, лента сделай статью. за прошлый год две в паблике - менять внешность и голос. сколково конечно от этого очень далеко. artbreeder и Vera Voice
0 +0−0Павел Ланнистер11:51:30
11/07/2020
Фильм "Робот по имени Чаппи" широко раскрывает вопрос о ИИ.
Самые
^^^Наверх^^^Обратная связь