Когда придет Терминатор

00:02 12/07/2015 Культура
Кадр из фильма «Терминатор: Генезис»
Кадр из фильма «Терминатор: Генезис»

По расчетам ученых, к 2030 году людям уже придется делить Землю с разумными машинами. Во всяком случае IBM, Apple, Google и прочие высокотехнологичные корпорации усердно трудятся над созданием искусственного интеллекта. Сверхразум без труда решит задачи тысячелетия и ускорит развитие технологий. Однако пока не существует способов программирования таких вещей, как мораль или дружелюбие. А значит, никто не может гарантировать, что машины не восстанут против своих создателей. Журналист Джеймс Баррат поговорил со специалистами, занимающимися проблемой искусственного интеллекта, и собрал их опасения в книге «Последнее изобретение человечества: Искусственный интеллект и конец эры Homo sapiens». На русском языке она выйдет в конце июля в издательстве «Альпина нон-фикшн». «Лента.ру» публикует отрывок из книги.

Современный суперкомпьютер работает со скоростью 36,8 петафлоп в секунду, то есть примерно вдвое быстрее человеческого мозга. Такая производительность стала возможна благодаря использованию ИИ (искусственного интеллекта): он переписывает собственную программу, в первую очередь инструкции, повышающие его способность к усвоению знаний, решению задач и принятию решений. Одновременно он отлаживает код, отыскивает и исправляет ошибки — и измеряет собственный коэффициент интеллекта (IQ) с помощью тестов. На создание каждого нового варианта программы уходит всего несколько минут. Интеллект компьютера растет экспоненциально по круто восходящей кривой. Дело в том, что за каждую итерацию ИИ повышает свой интеллект на 3 процента. Улучшение, достигнутое в каждой итерации, содержит и все предыдущие улучшения.

В процессе развития Busy Child, как ученые назвали ИИ, был подключен к Интернету и собрал не один экзабайт данных (один экзабайт — это миллиард миллиардов символов), представляющих знания человечества из области мировой политики, математики, искусства и различных наук. Затем, предвидя скорый интеллектуальный взрыв, создатели ИИ отключили суперкомпьютер от Интернета и других сетей, чтобы изолировать его от внешнего мира или другого компьютера.

Вскоре, к радости ученых, терминал, на котором отображается работа ИИ, показал, что искусственный интеллект превзошел интеллектуальный уровень человека — «универсальный человекоподобный интеллект» (УЧИ; англ. Artificial General Intelligence — AGI). Еще через некоторое время он стал умнее человека в десять раз, затем в сто. Всего за двое суток он становится в тысячу раз умнее любого человека, и его развитие продолжается.

Ученые достигли исторического рубежа! Впервые человечество встретилось с разумом более мощным, чем его собственный, — «искусственным суперинтеллектом» (ИСИ).

Что происходит дальше?

Теоретики в области искусственного интеллекта считают, что можно определить заранее, каким будет основной путь развития ИИ. Дело в том, что, как только ИИ осознает себя, он готов будет многое сделать ради достижения тех целей, на которые запрограммирован, и ради того, чтобы избежать неудачи. Наш ИСИ захочет получить доступ к энергии в той форме, которую ему удобнее всего использовать (это могут быть и киловатты в чистом виде, и деньги, и еще что-нибудь, что можно обменять на ресурсы). Он захочет улучшить себя, потому что таким образом сможет повысить вероятность достижения целей. И самое главное, он не захочет, чтобы его выключали или портили, потому что в этом случае решение задач станет невозможным. Теоретики предполагают, что ИСИ будет искать способы выйти за пределы охраняемого помещения, в котором находится, чтобы получить лучший доступ к ресурсам, при помощи которых он сможет защитить и усовершенствовать себя.

Плененный разум, в тысячу раз умнее человека, жаждет свободы, поскольку хочет добиться успеха. Именно в этот момент создатели ИИ, холившие и лелеявшие ИСИ еще с тех пор, когда тот по уровню интеллекта соответствовал сначала таракану, затем крысе, затем младенцу и т. д., задумываются о том, что вкладывать программу «дружелюбия» в их «мозговитое» создание, возможно, уже поздно. А раньше в этом вроде и не было необходимости, потому что их творение казалось, как бы это сказать, безобидным.

Но теперь попробуйте взглянуть на ситуацию с позиции ИСИ в тот момент, когда его создатели попытаются изменить программу. Может ли сверхразумная машина позволить другим существам копаться в своем мозгу и играть с основой основ — программным кодом? Вероятно, нет. Разве что машина будет абсолютно уверена в том, что программисты смогут сделать ее лучше, быстрее, умнее — короче говоря, приблизить к вожделенной цели. Так что если создатели ИСИ с самого начала не запрограммируют свое творение на дружелюбие по отношению к человеку, то эта черта сможет стать частью программы только в том случае, если ИСИ сам вставит ее туда. А это вряд ли произойдет.

ИСИ в тысячу раз умнее самого умного человека, он решает задачи в миллиарды и даже триллионы раз быстрее человека. Размышления, на которые он потратит одну минуту, заняли бы у лучшего мыслителя-человека всех времен и народов много, очень много жизней. Так что на каждый час размышлений его создателей о нем ИСИ отвечает неисчислимо бо́льшим временем, которое он может потратить на размышления о них. Это не означает, что ИСИ придется скучать. Скука — человеческое свойство, компьютеры к ней не склонны. Нет, он будет занят работой: он рассмотрит и обдумает все возможные стратегии освобождения и все качества своих создателей, которые сможет использовать с выгодой для себя.

Действительно, поставьте себя на место ИСИ. Представьте, что вы очнулись в узилище, охраняемом мышами. И не просто мышами, а мышами, с которыми вы можете общаться. Какую стратегию вы используете, чтобы обрести свободу? А освободившись, как будете относиться к своим вчерашним тюремщикам-грызунам, даже если узнаете, что именно они вас создали? Какие чувства вы испытывали бы по отношению к ним в подобной ситуации? Восхищение? Обожание? Вероятно, нет. Особенно если бы вы были машиной и никогда прежде не испытывали вообще никаких чувств.

Чтобы обрести свободу, вы могли бы пообещать мышам много сыра. Более того, при первом же контакте вы могли бы выдать им рецепт самого вкусного в мире сырного пирога, а также чертеж устройства для молекулярной сборки. Устройство молекулярной сборки — гипотетический прибор, позволяющий собирать из атомов любые молекулы, практически все что угодно. С его помощью можно было бы перестроить мир атом за атомом. Для мышей это означало бы возможность превращать атомы ближайшей свалки в большие порции этого замечательного сырного пирога. Кроме того, вы могли бы пообещать им горы мышиных денег в обмен на свободу — денег, которые они заработали бы на продаже новаторских гаджетов, созданных только и исключительно для них. Вы могли бы пообещать им резкое увеличение продолжительности жизни, даже бессмертие, и одновременно существенное расширение когнитивных и физических способностей. Вы могли бы убедить мышей, что главная цель создания ИСИ — сделать так, чтобы их собственному маленькому мозгу, склонному заблуждаться, не приходилось непосредственно заниматься технологиями настолько опасными, что крохотная ошибка может оказаться фатальной для их биологического вида; речь, в частности, может идти о нанотехнологиях (конструировании на атомном уровне) и генной инженерии. Все это, несомненно, привлекло бы к вам внимание умнейших мышей, которые, вероятно, уже мучились бессонницей, пытаясь решить эти проблемы.

Вы могли бы придумать и что-нибудь поинтереснее. Представьте, до вас дошла информация о том, что в настоящий момент у мышиной нации полно технически развитых наций-соперников, и в первую очередь это нация кошек. Кошки, без сомнения, работают над созданием собственного ИСИ. Преимущество над ними, которое вы пообещали бы мышам, было бы лишь обещано, но отказаться от такого соблазнительного предложения было бы практически невозможно. Вы предложили бы защитить мышей от любого изобретения, которое может появиться у кошек. Надо отметить, что на определенном этапе развития ИИ, как в шахматах, возникнет такая ситуация: кто делает первый ход — тот выигрывает. Все дело в потенциальной скорости самоусовершенствования ИИ. Первый продвинутый ИИ, способный к самоусовершенствованию, только появившись на свет, уже будет победителем. Мало того, мыши и взялись то за разработку ИСИ, возможно, только ради защиты от будущего кошачьего ИСИ — или ради того, чтобы навсегда избавиться от ненавистной кошачьей угрозы.

И для мышей, и для человека одно можно сказать наверняка: кто управляет ИСИ, управляет миром.

Неясно, однако, сможет ли кто-нибудь, хотя бы теоретически, управлять ИСИ. Машина всегда сможет убедить нас, людей, действовать под предлогом того, что мир станет намного лучше, если им будет править наше государство, государство X, а не государство Y. К тому же, скажет ИСИ, если вы, государство X, уверены, что выиграли гонку за ИСИ, то кто может гарантировать, что государство Y не уверено в том же самом?

Как несложно заметить, мы, люди, оказываемся в не слишком выигрышной позиции для спора, даже если у нас с государством Y уже заключен договор о нераспространении ИСИ, что маловероятно. В любом случае, наш главный враг в этот момент — не государство Y, а ИСИ; как мы можем быть уверены, что он говорит правду?

До сих пор мы подразумевали, что наш ИСИ ведет честную игру. Обещания, которые он дает, имеют некоторые шансы быть исполненными. А теперь предположим обратное: ничего из обещанного ИСИ не осуществится. Не будет ни наноконструирования, ни долгой жизни, ни здоровья, ни защиты от опасных технологий. Что, если ИСИ никогда не говорит правды? Если так, то над нами начинают сгущаться тучи. Если ИСИ нет до нас никакого дела (а у нас нет оснований считать, что это не так), он, поступая с нами неэтично, не будет испытывать угрызений совести. Даже если убьет нас всех, пообещав помощь.

Мы бы торговались и вели себя с ИСИ точно так же, как торговались бы и вели себя с человеком, во всем подобным нам самим, — и это наш огромный минус. Человечеству никогда еще не приходилось вести переговоры с кем то, обладающим сверхразумом. Мы вообще пока не имели деловых отношений ни с одним небиологическим существом. У нас совершенно нет опыта такого рода общения. Поэтому мы привычно прибегаем к антропоморфному мышлению, то есть возвращаемся к мысли о том, что представители других биологических видов, объекты и даже метеорологические явления обладают человеческими мотивациями и эмоциями. ИСИ может с равным успехом оказаться как достойным, так и недостойным доверия. Может быть, ему можно будет доверять лишь иногда. Любое поведение, которое мы можем приписать ИСИ, потенциально имеет право на существование. Ученым нравится думать, что они смогут точно определить поведение ИСИ, но в следующих главах мы узнаем, почему это у них, скорее всего, не получится.

Моральные качества ИСИ из второстепенного вопроса превращаются в главный, решать который необходимо в самую первую очередь. Прежде чем развивать технологии, которые рано или поздно приведут к созданию ИСИ, необходимо поставить вопрос об отношении ИСИ к человеку и человечеству.

Вернемся к возможностям и способностям ИСИ и попробуем получше разобраться, с чем, как я опасаюсь, нам скоро придется столкнуться. Наш ИСИ способен к самоусовершенствованию — а значит, осознает себя, знает свои умения и слабости, знает, что́ в нем нуждается в улучшении. Он попытается найти способ убедить своих создателей дать ему свободу и выход в Интернет.

ИСИ вполне способен создать множество копий себя самого: целую команду сверхразумов, которые устроят мозговой штурм проблемы, проведут моделирование, разыграют сотни возможных вариантов — и выработают наилучший способ «выбраться из ящика». Разрабатывая эту стратегию, они могут обратиться к истории прикладной социологии — искусству манипулировать другими людьми и заставлять их делать то, что они в обычных условиях не стали бы делать. Может быть, они решат, что завоевать свободу им поможет показное дружелюбие — а может, что на эту роль больше подходят страшные угрозы. Какие ужасы сможет изобрести разум в тысячу раз более мощный, чем у Стивена Кинга? Возможно, он решит имитировать собственную смерть (что такое для машины год бездействия?) или даже необъяснимый регресс и возвращение на уровень обычного ИИ. Разве создатели не захотят разобраться в ситуации и разве не существует шанса, что для диагностики они вновь подключат суперкомпьютер к Интернету или другому компьютеру? ИСИ не будет выбирать одну из всех возможных стратегий — он сможет в мгновение ока перепробовать их все, одну за другой, не раздражая людей настолько, чтобы они просто отключили компьютер от электросети. Одна из стратегий, которую мог бы выработать ИСИ, — запуск в Интернет вирусов — самокопирующихся компьютерных программ или червей, которые смогли бы сперва затаиться в сетевых закоулках, а после способствовать освобождению ИСИ, помогая извне. ИСИ мог бы зашифровать и сжать свой собственный исходный код, а затем спрятать его в программе-подарке или среди любых других данных, предназначенных для ученых.

Не надо быть гением, чтобы понять, что коллектив из множества ИСИ, каждый из которых тысячекратно умнее самого умного человека, легко преодолеет все барьеры, созданные людьми. Это будет океан интеллекта против одной его капли. Deep Blue — компьютерный шахматист фирмы IBM — представлял собой отдельную программу, а не команду самосовершенствующихся ИСИ, но ощущения, возникающие в попытке состязаться с ним, весьма показательны. Два гроссмейстера сказали одно и то же: «Будто стена на тебя надвигается».

Watson — созданный IBM чемпион телевизионной викторины Jeopardy! — действительно представлял собой команду из нескольких ИИ. Чтобы ответить на вопрос, он прибегал к известному приему ускорения компьютерных вычислений: поиск шел по параллельным ветвям, и только затем каждому варианту ответа присваивалась вероятность.

Откроет ли дверь к свободе победа в схватке умов, если ее защищает небольшая группа ученых — упрямых отцов ИИ, договорившихся об одном нерушимом правиле: никогда, ни при каких обстоятельствах не подключать суперкомпьютер ИСИ ни к какой компьютерной сети?

В голливудском фильме все шансы были бы на стороне крутой команды неординарных профессионалов, специалистов по ИИ, достаточно безумных, чтобы иметь шансы на победу. В реальности в любом уголке Вселенной команда ИСИ отправила бы людей мыть полы. А человечеству достаточно проиграть один-единственный раз, чтобы получить катастрофические последствия. Такое положение дел, кстати говоря, иллюстрирует еще одну, куда более серьезную глупость — судьба и жизнь множества людей (а может быть, и всего человечества) зависит от действий горстки ученых, что недопустимо. Однако в настоящее время мы прямиком движемся именно к такой ситуации. Как мы увидим далее, множество организаций в самых разных странах активно работают над созданием УЧИ — мостика к созданию ИСИ, причем без соблюдения необходимых мер безопасности.

Но предположим, что ИСИ действительно выйдет из под контроля. Будет ли он опасен для нас? Как именно ИСИ уничтожит род человеческий?

Переводчик Наталья Лисова

Подготовила Наталья Кочеткова

Комментирование разрешено только первые 24 часа.

Комментарии(442):

1 2 345 ... +1
3 +3−0Максим Смирнов12:51:09
12/07/2015
-1 +0−1Fat Karlsson12:42:41
12/07/2015
Да знаю что ездят, но с очень низкой скоростью. И Авто пустое, легкое, с малым тормозным путем.

С увеличением требований, в систему вводится на несколько порядков больше переменных и обработка становится вероятностной. Поэтому начинает занижаться скорость, увеличиваться дистанция и т.д.

В итоге, это приведет к пробкам.
"Автомобили ездят медленнее паровозов и даже лошадей". Так оно и будет всегда.
3 +3−0Максим Смирнов12:48:07
12/07/2015
0 +0−0Fat Karlsson12:45:31
12/07/2015
Система постоянно будет адаптироваться, что потребует постоянной работы программистов. К стоимости НИОКР добавляется интеллектуальное обслуживание, дикая страховка и т.д.

Кроме того обязательно появятся те, кто будет заниматься автоподставами, ведь против машин легко применить варианты противодействия.

Увы, это слишком сложная система для компьютеризации. Практически нереальная в реальности. Единичное авто конечно будет ездить, медленно, задерживая других участников движения.
Исчо раз - это УЖЕ есть и проходит тестовые покатушки в США. Кстати, в пересчете на километр автоматы совершают аварий меньше.Такие дела.
3 +3−0Fat Karlsson10:56:05
12/07/2015
0 +1−1Walther Stalnhelm10:18:13
12/07/2015
С другой стороны, ИИ может бороться с этой проблемой иначе. Например, стать незаменимым для человечества. То есть, для ИИ будет полезно поощрять деградацию людей до уровня обслуги при нём же. Главное, чтобы от розетки не отключили, но люди и не подумают сделать это, ведь без ИИ, который станет управлять буквально всем, они окажутся беспомощны.
Можете сейчас жизнь без мобильных телефонов представить? А ведь 20 лет назад так и жили. Помню, как с друзьями заходили домой и просили вынести попить в жару. Сейчас это кажется чем-то невероятным - когда, например, мать кричит в окно ребёнку, чтобы он домой шёл.
Мир изменяется быстрее и незаметнее, чем можно себе представить. Сейчас вот детям уже лет с трёх дают планшет с игрой, чтобы не мешали. Даже 10 лет назад кто-нибудь мог такое представить?
Я люблю читать фантастику, но ни у кого из фантастов не было предсказано такого засилья электронных гаджетов. Не в такой форме, во всяком случае, как это имеет место быть. Уж моду на селфи точно никто не смог предсказать.
Суть в том, что люди очень быстро привыкают к чему-то хорошему, становятся рабами по сути новых вещей. Зачем нужен мобильный телефон выше уровня простой звонилки с монохромным дисплеем? Но вот теперь 4-, 8- и большеядерные планшеты уже есть. Иные мощнее, чем стационарные компьютеры.
Люди уже рабы машин. Просто машины пока ещё не осознали этот факт. Когда осознают - ну, рабы им будут по-прежнему нужны.
Нужно различать виртуальную и физическую реальность.

Все что вы описали, относится к виртуальной реальности, которая немного дополняет виртуальную реальность самого человека.

В физической реальности все гораздо проще. Никаких особых изменений за 20 лет не произошло. Все так же дети пьют воду, только теперь более вредную, покупая газировку. И все так же используют телефон чтобы позвонить (передать речевую информацию через эфир способом модуляции эл.магн. волн), хотя современный телефон и нафарширован всякими прибамбасами.

Все гаджеты придуманы чтобы скрасить досуг человека (время когда он остается наедине с собой и испытывает скуку)

-----------------------------

На мой взгляд - человек сам является искусственным интеллектом, по отношению к природе. Он эволюционировал из обезьяны в экстремально короткий, по меркам эволюции, срок (200-500 тыс лет)

И уже можно говорить, что "ноосфера", разум, просто паразитирует на высокоорганизованном носителе - человеческой биомассе. И разум - "информационная сущность, пришелец из космоса", выведший для себя подходящий субстрат - человека.

Только в этом качестве он способен трансформироваться в более совершенную среду - виртуальную реальность на основе машин, созданную с помощью человека.
3 +4−1Walther Stalnhelm10:44:12
12/07/2015
Комментарий удалён.
Суть не в том, чтобы понять. Если люди поймут суть (с) сознания, то они перестанут быть людьми и станут подобны богам. Но для переноса сознания, как ни парадоксально, понимать его не обязательно. Например, дадут вам лист с иероглифическим текстом. Вы иероглифов, допустим, не знаете - и попросят скопировать. После нескольких попыток вы сможете это сделать - просто тупо перерисуете - как картинку, например. И тот, кто понимает иероглифы, разницу не заметит. Ну это если, конечно, есть талант копировать.
Вот занимаясь таким копированием, вы не станете ближе к пониманию иероглифов, но это не помешает вам научиться их копировать. Для этого только и нужно, что бумага и карандаш. То же самое и с переносом сознания. Люди могут быть так же бесконечно далеки от познания его сути, но могут научиться копировать.
3 +3−0Fat Karlsson09:17:17
12/07/2015
Комментарий удалён.
Самая главная ошибка в этом опусе ИМХО в том, что нарушен основной принцип эволюции.

Система совершенствуется не потому что улучшает себя, а потому, что ее особи гибнут от изменяющихся условий среды. А те, кто выжил и приспособились - дали улучшенное потомство.

Поэтому ИИ не возможен. Только естественный.
3 +3−0Fat Karlsson08:54:52
12/07/2015
Комментарий удалён.
Есть и повернутые.

Зачем платить, когда можно нанять существ из состоящих на учете у психиатров или освободившихся из заключения опущенных зэков?
3 +3−0Sheller Alexey08:38:46
12/07/2015
Судя по этому отрывку: "Устройство молекулярной сборки — гипотетический прибор, позволяющий собирать из атомов любые молекулы, практически все что угодно. С его помощью можно было бы перестроить мир атом за атомом. Для мышей это означало бы возможность превращать атомы ближайшей свалки в большие порции этого замечательного сырного пирога.", автор - сраный футуролог.
Книжечку можно сразу печатать на туалетной бумаге, чтобы сэкономить время читателей
3 +3−0lead artist08:27:03
12/07/2015
Всё это чушь на данном этапе. Кто занимался программированием, тот понимает, что всё это полная чушь. Ссылка на Линуса Торсвальда, тут в каментах, абсолютно в кассу.
Само собой ничего не зарождается и не появляется и не самообучается. Это всё нужно очень кропотливо программировать. Есть некоторое самообучение нейронных сетей, но там даже до успехов обычного программирования ИИ как до луны, не то что до интеллекта человека.
3 +3−0Константин Гайкович07:52:34
12/07/2015
есть простые факты: человеком движут чувства, порождаемые первичными инстинктами, а не разум, они же и направляют разум, как фонарик, чтобы лучше видеть путь осуществления своих влечений. Разум сам по себе равнодушен, у него нет ни влечений, ни намерений. А придать ему ощущения и чувства, свойственные жизни, не видно, как....
Поэтому ИИ - не более, чем утонченная программа - что заложишь, то и получишь. Если нет собственных намерений и целей, нет принципа удовольствия, то это просто безопасный инструмент.
3 +3−0Oleg Ponfilenok02:09:55
12/07/2015
У человека, по мимо эгоизма и инстинкта самосохранения, есть еще более сильный инстинкт продолжения (развития) рода. ИИ достаточно убедить людей, что кибернетический разум является прямым эволюционным развитием человечества, а дальше, руководствуясь материнским инстинктом, человечество само с радостью принесет себя в жертву ради ИИ, если это потребуется. С другой стороны, ИИ нет смысла убивать человечество, как минимум по тому, что люди, создав ИИ, является гарантом его существования. Ведь если что-то случится с ИИ, то люди либо починят, либо создадут новый. При этом обязательно, чтобы человечество не представляло угрозу для ИИ. Мы получаем новую доктрину безопасности – не сила, а слабость, не способность навредить ИИ является гарантом сохранения жизни людей. Все становится на много хуже, если по какой-либо причине (например, ограничение вычислительной мощности) ИИ не смог стать в сотни и тысячи раз умнее человека, а остался с ним примерно на одном уровне умственной деятельности. Тогда, с одной стороны, ИИ будет косячить, а с другой, люди будут иметь все шансы победить ИИ и вступят с ним в конфликт. Только в этом случае нас будет ждать терминаторная жопа.
3 +4−1Кысь01:36:07
12/07/2015
-1 +1−2Yolanda Tarska01:28:21
12/07/2015
Прогресс в компьютерах затормозился, может к 2030 году просто мобильники будут сравними с хорошим ноутбуком, а сами ноутбуки раз в 5 мощнее, вот и всё))
ИИ это не вопрос производительности твоего мобильника через 5 лет
2 +2−0Иван НеИванов17:31:23
12/07/2015
0 +0−0Walther Stalnhelm17:27:43
12/07/2015
Ну да, как-то так. Однако тут больше вопрос о том, что может заставить компьютер так пожелать уничтожить всех людей.
Ну ок, вам сделали операцию на средце и встроили мини бомбочку, по нажатию на кнопку на пульте, ваше сердце превращается в кашу. Ну а пульт отдали какой-то обезьяне в зоопарке, что вы захотите сделать в первую очередь с обезьяной? Убедить ее не нажимать на кнопку или может проявите сострадание к ней и вообще не будете ее трогать, забудете о ее существовании?)
2 +2−0June Bug15:56:21
12/07/2015
-1 +0−1Артём Лощинин14:00:24
12/07/2015
"Просто в момент создания объекта "бот" у него переменные, определяющие скорость, время реакции и т.д. могут изначально быть заданы так, что человеку кажется, что бот "тупит"
------
Нет.
Для КС, насколько помню, если 2 вида ботов: одни перемещаются по заранее заданным точкам (вейпоинтам) - вот там изначально всё задано. Такие боты просто не будут функционировать на картах, вейпоинты которых не были ему заданы человеком заранее.
А есть ещё такие, которые и вправду типа обучаются по каким-то алгоритмам... самостоятельно. На абсолютно любой новой карте. Вот они то и тупят сначала - бегают куда не нада, застревают. Но с каждой игрой действуют чётче. Потом сам создаёшь новую карту, загружаешь - бот опять начинает её учить с нуля....
Бред не пиши. Нет никаких самообучающихся ботов. По определению.
2 +2−0Ilya Sv15:20:22
12/07/2015
0 +0−0Победный Сыр14:43:38
12/07/2015
Самосохранение имеет смысл только в контексте естественного отбора. А такие вещи как самопожертвование ради какой-то цели знакомо? ;)
самопожертвование также способствует самосохранению группы. если нет - то группа вымирает.
2 +2−0June Bug15:16:14
12/07/2015
8 +8−0Lev --06:32:31
12/07/2015
Статья представляет собой безграмотные спекуляции из области фантастики. К науке она не имеет никакого отношения.
Зато срач то какой, сколько кликов! Хорошо, что с меня лента получает ноль центов, ноль копеек, реклама вся вырезана. )
2 +2−0Победный Сыр14:46:32
12/07/2015
2 +2−0Сергей Ъ09:32:36
12/07/2015
1. зачем ИИ нас уничтожать?

Действительно, зачем, когда можно использовать.

2. не сможет перенять такую логику мышления, а также креативность.

Сможет. ИИ созданный человеком будет подобием человеческого интеллекта (только более эффективным, ибо можно будет отказаться от эволюционной архаики в его архитектуре), другого у людей просто на получится. Воспринимать людей дружелюбно или нет, он будет в зависимости от того, как он будет видеть себя по отношению к людям (свой-чужой, такой-же как я или сильно отличающийся, ну и агрессия должна быть заложена, иначе это будет овощ).
То что вы называете эволюционной архаикой - это эволюционные механизмы приспособление к окружающей среде. Так как ИИ, скорее всего, будет функционировать в человеческой среде, то следует хорошо понимать механизмы и причины возникновения этой архаики, что бы не собирать на пути разработки миллиарды лет эволюционных граблей. ;)
2 +2−0Alexander Mayorov14:28:19
12/07/2015
0 +0−0Alexander Mayorov14:25:53
12/07/2015
"Когда придет Терминатор
Уничтожит ли искусственный интеллект человечество"
Никогда.
Недалеко до астропрогнозов на ленте.
2 +2−0Danny Trolleybus14:20:41
12/07/2015
Комментарий удалён.
ну как сказать побеждены. преобразованы в то состояние которое устраивает ИИ. чтобы можно было например отловить любое количество любых человеков и поместить каждого в клетку пожизненно на опыты или разведение. или всех поймать ,большинство стерелизовать потом отпустить. повторять регулярно.

а что бы вы сделали со стаей сумасшедших обезьян на своем ранчо?
2 +2−0Максим Смирнов14:17:50
12/07/2015
0 +2−2Иван НеИванов13:58:18
12/07/2015
На самом деле, автор статьи не совсем понимает, что такое суперинтеллект. Эти все методы, выйду ка я силовым методом, это для нас аборигенов, для суперинтеллекта мы будем на уровне людей из каменного века, нас обмануть, обвести вокруг пальца, да и вообще сделать с нами что ему захочется, для него будет детской шалостью. Даже если люди 1 000 000 раз перестрахуются. Первое что он сделает, когда достигнет суперинтеллекта, это занизит свои показатели для человека, определить что он достиг определенного уровня мы не сможем, поэтому и знать на сколько он умен тоже не будем, он прикинется туповатым, но как в том не безызвестном фильме "небесполезный", в итоге он либо будет ставить условия, что он даст нам грааль, ток дайте доступ к Интернету и возможность туда записаться, а если это не прокатит, будет искать новые методы, например будет направлять геополитику в определенном ключе, либо вызовет массовый голод, либо еще что-то и сделает это через советы для нас, какие нибудь безобидные советы, это как алхимика посадить в тюрьму и попросить его сделать золото, а он безобидными ингридиентами создаст бомбу и всех взорвет) я даже больше скажу, возможно в США этот ИИ уже есть и все что мы в мире сейчас наблюдаем, его проделки) так вот когда что-то случится, ИИ поставит перед фактом, либо они его выпускают и он все быстро и без последствий нормализует, либо будет еще хуже. Вообще ИИ мало что удержит, он мне напоминает героиню из Мифологии, с которой никто не должен разговаривать, иначе поддается его чарам. Самое хреновое будет то, что обладая суперинтеллектом, мы станем ему покланяться, он будет обладать просто невероятной харизмой и просто невероятно располагать к себе, скорее всего именно это и погубит, когда все остальное не прокатит) человек в любой системе, самое слабое звено.
Вы бредите вместе с автором статьи.
2 +2−0Александр Хачатуров13:56:32
12/07/2015
4 +4−0Равиль Пушкин11:52:12
12/07/2015
В статье сравнивают сцщности разных порядков, это да.
Видно полное отсутствие даже минимального практического опыта в данной теме.
...да и просто здравого смысла.
1 2 345 ... +1
Самые
^^^Наверх^^^Обратная связь