Стивен Хокинг предрек победу искусственного интеллекта над человечеством

04:47 03/12/2014 Наука и техника
Стивен Хокинг
Стивен Хокинг
Это называется научный метод дедукции. Когда представляется конечный результат и происходят мероприятия к её достижению. Фантастику может доказать только неудачный опыт, научность же только удачный. Физические открытия Эйнштейна и развившего его идеи Хокинга основаны на теоретической базе. Их открытия опытным путём постепенно подтверждаются только сейчас, благодаря последующим открытиям (реликтовое излучение) и современной техникой (телескоп Хаббл), которая была недоступна им в момент открытий.

Развитие систем искусственного интеллекта угрожает человечеству, считает британский физик-теоретик Стивен Хокинг.

«Появление полноценного искусственного интеллекта может стать концом человеческой расы. Такой разум возьмет инициативу на себя и станет сам себя совершенствовать со все возрастающей скоростью. Возможности людей ограничены слишком медленной эволюцией, мы не сможем тягаться со скоростью машин и проиграем», — сказал ученый в интервью BBC.

Вместе с тем, он признает, что существующие примитивные формы искусственного интеллекта доказали свою пользу. Ученый опасается, что в ближайшем будущем будут созданы машины, способные превзойти человека.

Сам Хокинг, страдающий латеральным амиотрофическим склерозом, для передачи речи пользуется специальной системой компании Intel: она анализирует ход мыслей и предлагает слова, которые профессор мог бы употребить в следующей фразе. В итоге голос Хокинга генерируется программно, имеет механическое звучание и не изменялся со времени создания технологии. «Он стал моей визитной карточкой, и я ни за что не поменяю его на более "живой" голос с британским акцентом», — заверяет ученый.

Стивен Хокинг является создателем и руководителем Центра теоретической космологии в Кембриджском университете. Один из самых известных физиков-теоретиков нашего времени. Несмотря на тяжелое заболевание, приковавшее его к инвалидному креслу, ученый активно занимается популяризацией науки, высказывается по ключевым вопросам развития различных отраслей человеческого знания и общества.

Комментирование разрешено только первые 24 часа.

Комментарии(181):

1 234 ... +1
8 +10−2TiR@N06:28:37
03/12/2014
1 +4−3Андрей Никитчук05:40:26
03/12/2014
А мне кажется Хокинг немного в фантастику ушёл.
Это называется научный метод дедукции. Когда представляется конечный результат и происходят мероприятия к её достижению. Фантастику может доказать только неудачный опыт, научность же только удачный.
Физические открытия Эйнштейна и развившего его идеи Хокинга основаны на теоретической базе.
Их открытия опытным путём постепенно подтверждаются только сейчас, благодаря последующим открытиям (реликтовое излучение) и современной техникой (телескоп Хаббл), которая была недоступна им в момент открытий.
6 +14−8Павел Колобаев05:00:36
03/12/2014
Комментарий удалён.
Я чуствую вашу боль и искренне сочуствую.
5 +9−4behiyatrabbak behiyatrabbak06:21:36
03/12/2014
3 +6−3Mikhail Koroviev06:03:46
03/12/2014
ватка. в уралвагонзаводской калькулятор, или в православный мордовский калькулатор? ась?
Калькулятор Электроника МК-54, программируемый. Даже играть в него умудрялись. Школоте не понять
5 +8−3Mikhail Koroviev06:01:54
03/12/2014
1 +8−7behiyatrabbak behiyatrabbak05:59:56
03/12/2014
Ну Обаму и Кличко даже калькулятор выиграет по интелекту
ты давно "играл по интелекту" с калькулятором?
4 +5−1Никфиор Наумов07:13:54
03/12/2014
0 +0−0Ярослав Евтихиев07:00:35
03/12/2014
Добавят дубине ножки, ручки и возможно даже гениталии... О! Это будет чудесно... Как эта дубина отличит добро от зла?
Добра и зла не существует. Нам навязали эти понятия моралью. Вот и все.
4 +4−0Серега Печорин07:02:20
03/12/2014
0 +0−0Ярослав Евтихиев07:00:35
03/12/2014
Добавят дубине ножки, ручки и возможно даже гениталии... О! Это будет чудесно... Как эта дубина отличит добро от зла?
А вы сами как отличите добро от зла? Люди очень плохо справляются с этой задачей.
4 +4−0Lake Loud05:31:03
03/12/2014
0 +0−0Игорь Лошков05:28:24
03/12/2014
Ареал обитания ИИ это электронные схемы. Ареал обитания человечества на сегодня - эта вся Земля.
А вы не допускаете, что результат экспоненциального ускорения развития ИИ может несколько отличаться от ваших сегодняшних представлений о нем?(:joy:)
4 +5−1Серега Печорин05:19:47
03/12/2014
1 +1−0DM05:18:37
03/12/2014
Вовсе нет. Человек никогда не согласится с тем, что ИИ ему не принадлежит. И что какая-то территория принадлежит ИИ. И что что-то делать нельзя, потому что это вредит людям. И что что-то делать нельзя, потому что это вредит ИИ. Люди сами начнут конфликт и сами себя уничтожат.

Первым шагом будет директива Евросоюза по ограничению распространения ИИ :)
А я бы был рад, если бы ИИ руководил человечеством в место правительств.
3 +5−2Jean Baptist Emmanuel ZOrg09:53:00
03/12/2014
2 +5−3Андрей Рабышков08:55:55
03/12/2014
Такое ощущение складывается, что Вас как (массу людей) которые во всем видят след Путина, анально насилует тот самый след и у него большой и Вам это не нравиться, но поделать Вы с этим ничего не можете.
такое ощущение что у вас обсессия, и слова "анально","насилует" и "большой" вам приходят в голову по любой проблеме
3 +3−0Серега Печорин07:06:31
03/12/2014
0 +0−0Ярослав Евтихиев07:04:11
03/12/2014
Отличу Серега. И даже смогу пояснить выбор. А вот ИИ придется вводить некие константы, чтобы "симулировать" жизнь. Современные системы ИИ не содержат разума, они лишь обманывают людей-деградантов и создают и последних ИЛЛЮЗИЮ разумности машины.
Современных ИИ еще и нет. А добро и зло зависят только от того на сколько ходов вперед просчитывать последствия. При просчете на 2 хода вперед может оказаться что человеку нужно помочь и что это добро, а при просчете на 4 хода окажется, что человек вас использует и хочет кому-то навредить и помогать ему - зло
3 +6−3Mikhail Koroviev06:03:46
03/12/2014
1 +8−7behiyatrabbak behiyatrabbak05:59:56
03/12/2014
Ну Обаму и Кличко даже калькулятор выиграет по интелекту
ватка. в уралвагонзаводской калькулятор, или в православный мордовский калькулатор? ась?
3 +3−0Анатолий Полтевский05:30:34
03/12/2014
2 +2−0Игорь Лошков05:21:26
03/12/2014
Помнится в 1980 году Японцы заявили, что в течение 20 лет они разработают ИИ. Прошло 20 лет и опять уже другие говорят, что пройдёт 20 лет и будет ИИ. Посмотрим, что скажут учёные в 2020 году. У меня есть подозрение, что они не изменят своей точки зрения и опятьскажут, что через 20 лет будет ИИ.
Можно по разному понимать это понятие. Уже сейчас на телефоне с вами может разговаривать "железная тетка" типа Siri, которую ребенку, например, непросто будет отличить от речи человека. Дело за малым - нарастить мощь серверных компьютеров в несколько раз, и она уже сможет свободно общаться на любые темы. Ну а там до абсолютного ИИ рукой подать.
3 +3−0Lake Loud05:28:08
03/12/2014
1 +3−2leopoldo mendoza05:24:20
03/12/2014
Походу старость не радость, мужик совсем матан забыл, а ведь когда-то был профессором в оксфорде.
Итак, есть такая штука как теорема гёделя. Любая формальная система не полна. А ИИ это и есть формальная система. А значит она не способна приходить к не выводимым утверждениям. Для простых людей, означает что такую штуку ОЧЕНЬ легко наебать/обхитрить/обмануть. Не даром тест тюринга не проша ни одна ИИ. А человеческий мозг не является цифровым, что даёт ему преимущество. Даже у собаки оно есть.
Он просто проиграл в Косынку 20 раз подряд и затаил на компьютеры злобу и недоверие.
3 +3−0Серега Печорин05:22:57
03/12/2014
1 +1−0DM05:20:01
03/12/2014
Я тоже.
Справедливое распределение ресурсов, полное отсутствие войн (если только против против ИИ), отсутствие бюрократии, вернее задержек по времени из-за бюрократии - прям коммунизм.
3 +4−1Игорь Лошков05:06:33
03/12/2014
-6 +2−8Павел Колобаев04:58:01
03/12/2014
А что он сказал о ситуации на украине?
Неужели Вам интересна эта тема? Проехали ...
3 +3−0Игорь Лошков04:58:14
03/12/2014
Сосуществование собаки и человека до сих пор не способствовало исчезновению собаки как животному с гораздо более низким интеллектом. Почему же должно исчезнуть человечество. Прекрасно будут сосуществовать как собака с человеком.
2 +5−3Андрей Рабышков08:55:55
03/12/2014
Комментарий удалён.
Такое ощущение складывается, что Вас как (массу людей) которые во всем видят след Путина, анально насилует тот самый след и у него большой и Вам это не нравиться, но поделать Вы с этим ничего не можете.
2 +2−0Иван НеИванов08:05:36
03/12/2014
Игорь Лошков 3 часа назад
Сосуществование собаки и человека до сих пор не способствовало исчезновению собаки как животному с гораздо более низким интеллектом. Почему же должно исчезнуть человечество. Прекрасно будут сосуществовать как собака с человеком.
----------------------
Сабака находится рядом с человеком до тех пор пока она этого человека устраивает, если бы сабаки попытались быть самостоятельными или не согласными с человеком, что бы сделал с ними человек?! То же будет и с ИИ. С другой стороны ИИ лишен человеческой составляющей и это значит что он будет больше делать, а не рассуждать. По сути мы точно не знаем как он будет поступать и по факту для нас это будет иная форма жизни. В любом случае вероятность того, что ИИ решит, что он тут обязан быть главным - более чем высока, ибо если ИИ обладает интеллектом, он будет себя воспринимать как вид, а вид выживает только тогда когда находится в более выгодных, чем соседствующий вид условиях. Проще говоря кто у руля, у того шансов больше. Так же есть вероятность того, что человеку не понравится то, что машина его умнее или делает что-то по своему усмотрению, в любом случае найдутся фанатики, которые такие машины сразу будут пытаться уничтожать, видя в них угрозу, машина так же это все будет понимать и учитывать, как параметры общей логической цепочки, т.е. она будет понимать что в любой момент времени человек может решить, что новый вид ИИ угрожает ему и от него надо избавиться и именно по этой причине приступит к истреблению нас, ибо рано или поздно, с очень высокой вероятностью, мы начнем пытаться истреблять их. Нам нельзя изобретать такой ИИ, он нас уничтожит(
2 +2−0Максим Смирнов07:46:08
03/12/2014
1 +1−0Ярослав Евтихиев06:54:45
03/12/2014
Да полноте вам! Как машина будет осуществлять процесс целеполагания? Как она будет оценивать свои поступки, ситуацию и последствия? Сотни тысяч книг фантастов написаны, но никто так и не создал концепта программы для жизни, смысла жизни. А ведь любая программа для машины должна содержать конкретные и элементарные посылы!

Да, человек может жить как машина. Особенно сейчас. Он может жить как животное или даже червяк. Человек способен деградировать ниже самой последней твари. Даже ниже украинского карателя на Донбассе. Но это не означает, что каждый червяк и животное могут стать людьми в высшем проявлении человечности - в любви.

А если нет смысла жизни и цели жизни, то о каком интеллекте мы говорим?!!

Человек не случайно рождается с чистым разумом и очень долго обучается новому. Машина такой роскоши себе позволить не сможет никогда ее удел выполнение конкретных задач. И здесь она действительно эффективнее человека. Но это потолок. Машина была и остается дубиной в человеческих руках. Просто руки у человека стали более умелыми и эта мультизадачная дубина может обладать сенсорным экраном, двигателем с КПД близким к 100% и часами с будильником.
"Как машина будет осуществлять процесс целеполагания? "
Так же как это делают вирусы и бактерии.
2 +2−0Magomed06:46:52
03/12/2014
0 +1−1Sergey Solomakhin05:55:05
03/12/2014
"Такой разум возьмет инициативу на себя и станет сам себя совершенствовать со все возрастающей скоростью."

Ну и пусть себе совершенствуется. Это вовсе не подразумевает, что искусственный интеллект обзаведётся тщеславием, паранойей, воинствующим национализмом, религиозными фанатизмом и нетерпимостью и прочими человеческими качествами, которые как раз и являются истоками пролитой крови.
Но он (оно (:boring:)) вполне возможно, посчитает нелогичным возможность собственного отключения. А люди, имеют все вышеперечисленные качества, а значит существует опасность, что поступят нелогично и захотят отключить "машинку". И вот что сия машинка предпримет для того, чтобы обезопасить себя и есть самое интересное.... Но это так, пока из гипотетической фантастики (:smile:)
1 234 ... +1
Самые
^^^Наверх^^^Обратная связь