„ | Это называется научный метод дедукции. Когда представляется конечный результат и происходят мероприятия к её достижению. Фантастику может доказать только неудачный опыт, научность же только удачный.
Физические открытия Эйнштейна и развившего его идеи Хокинга основаны на теоретической базе.
Их открытия опытным путём постепенно подтверждаются только сейчас, благодаря последующим открытиям (реликтовое излучение) и современной техникой (телескоп Хаббл), которая была недоступна им в момент открытий. | “ |
Развитие систем искусственного интеллекта угрожает человечеству, считает британский физик-теоретик Стивен Хокинг.
«Появление полноценного искусственного интеллекта может стать концом человеческой расы. Такой разум возьмет инициативу на себя и станет сам себя совершенствовать со все возрастающей скоростью. Возможности людей ограничены слишком медленной эволюцией, мы не сможем тягаться со скоростью машин и проиграем», — сказал ученый в интервью BBC.
Вместе с тем, он признает, что существующие примитивные формы искусственного интеллекта доказали свою пользу. Ученый опасается, что в ближайшем будущем будут созданы машины, способные превзойти человека.
Сам Хокинг, страдающий латеральным амиотрофическим склерозом, для передачи речи пользуется специальной системой компании Intel: она анализирует ход мыслей и предлагает слова, которые профессор мог бы употребить в следующей фразе. В итоге голос Хокинга генерируется программно, имеет механическое звучание и не изменялся со времени создания технологии. «Он стал моей визитной карточкой, и я ни за что не поменяю его на более "живой" голос с британским акцентом», — заверяет ученый.
Стивен Хокинг является создателем и руководителем Центра теоретической космологии в Кембриджском университете. Один из самых известных физиков-теоретиков нашего времени. Несмотря на тяжелое заболевание, приковавшее его к инвалидному креслу, ученый активно занимается популяризацией науки, высказывается по ключевым вопросам развития различных отраслей человеческого знания и общества.
Комментирование разрешено только первые 24 часа.
8 +10−2 | TiR@N | 06:28:37 03/12/2014 | ||||||
| ||||||||
Это называется научный метод дедукции. Когда представляется конечный результат и происходят мероприятия к её достижению. Фантастику может доказать только неудачный опыт, научность же только удачный. Физические открытия Эйнштейна и развившего его идеи Хокинга основаны на теоретической базе. Их открытия опытным путём постепенно подтверждаются только сейчас, благодаря последующим открытиям (реликтовое излучение) и современной техникой (телескоп Хаббл), которая была недоступна им в момент открытий. |
6 +14−8 | Павел Колобаев | 05:00:36 03/12/2014 |
Комментарий удалён. | ||
Я чуствую вашу боль и искренне сочуствую. |
5 +9−4 | behiyatrabbak behiyatrabbak | 06:21:36 03/12/2014 | ||||||
| ||||||||
Калькулятор Электроника МК-54, программируемый. Даже играть в него умудрялись. Школоте не понять |
5 +8−3 | Mikhail Koroviev | 06:01:54 03/12/2014 | ||||||
| ||||||||
ты давно "играл по интелекту" с калькулятором? |
4 +5−1 | Никфиор Наумов | 07:13:54 03/12/2014 | ||||||
| ||||||||
Добра и зла не существует. Нам навязали эти понятия моралью. Вот и все. |
4 +4−0 | Серега Печорин | 07:02:20 03/12/2014 | ||||||
| ||||||||
А вы сами как отличите добро от зла? Люди очень плохо справляются с этой задачей. |
4 +4−0 | Lake Loud | 05:31:03 03/12/2014 | ||||||
| ||||||||
А вы не допускаете, что результат экспоненциального ускорения развития ИИ может несколько отличаться от ваших сегодняшних представлений о нем?(:joy:) |
4 +5−1 | Серега Печорин | 05:19:47 03/12/2014 | ||||||
| ||||||||
А я бы был рад, если бы ИИ руководил человечеством в место правительств. |
3 +5−2 | Jean Baptist Emmanuel ZOrg | 09:53:00 03/12/2014 | ||||||
| ||||||||
такое ощущение что у вас обсессия, и слова "анально","насилует" и "большой" вам приходят в голову по любой проблеме |
3 +3−0 | Серега Печорин | 07:06:31 03/12/2014 | ||||||
| ||||||||
Современных ИИ еще и нет. А добро и зло зависят только от того на сколько ходов вперед просчитывать последствия. При просчете на 2 хода вперед может оказаться что человеку нужно помочь и что это добро, а при просчете на 4 хода окажется, что человек вас использует и хочет кому-то навредить и помогать ему - зло |
3 +6−3 | Mikhail Koroviev | 06:03:46 03/12/2014 | ||||||
| ||||||||
ватка. в уралвагонзаводской калькулятор, или в православный мордовский калькулатор? ась? |
3 +3−0 | Анатолий Полтевский | 05:30:34 03/12/2014 | ||||||
| ||||||||
Можно по разному понимать это понятие. Уже сейчас на телефоне с вами может разговаривать "железная тетка" типа Siri, которую ребенку, например, непросто будет отличить от речи человека. Дело за малым - нарастить мощь серверных компьютеров в несколько раз, и она уже сможет свободно общаться на любые темы. Ну а там до абсолютного ИИ рукой подать. |
3 +3−0 | Lake Loud | 05:28:08 03/12/2014 | ||||||
| ||||||||
Он просто проиграл в Косынку 20 раз подряд и затаил на компьютеры злобу и недоверие. |
3 +3−0 | Серега Печорин | 05:22:57 03/12/2014 | ||||||
| ||||||||
Справедливое распределение ресурсов, полное отсутствие войн (если только против против ИИ), отсутствие бюрократии, вернее задержек по времени из-за бюрократии - прям коммунизм. |
3 +4−1 | Игорь Лошков | 05:06:33 03/12/2014 | ||||||
| ||||||||
Неужели Вам интересна эта тема? Проехали ... |
3 +3−0 | Игорь Лошков | 04:58:14 03/12/2014 |
Сосуществование собаки и человека до сих пор не способствовало исчезновению собаки как животному с гораздо более низким интеллектом. Почему же должно исчезнуть человечество. Прекрасно будут сосуществовать как собака с человеком. |
2 +5−3 | Андрей Рабышков | 08:55:55 03/12/2014 |
Комментарий удалён. | ||
Такое ощущение складывается, что Вас как (массу людей) которые во всем видят след Путина, анально насилует тот самый след и у него большой и Вам это не нравиться, но поделать Вы с этим ничего не можете. |
2 +2−0 | Иван НеИванов | 08:05:36 03/12/2014 |
Игорь Лошков 3 часа назад Сосуществование собаки и человека до сих пор не способствовало исчезновению собаки как животному с гораздо более низким интеллектом. Почему же должно исчезнуть человечество. Прекрасно будут сосуществовать как собака с человеком. ---------------------- Сабака находится рядом с человеком до тех пор пока она этого человека устраивает, если бы сабаки попытались быть самостоятельными или не согласными с человеком, что бы сделал с ними человек?! То же будет и с ИИ. С другой стороны ИИ лишен человеческой составляющей и это значит что он будет больше делать, а не рассуждать. По сути мы точно не знаем как он будет поступать и по факту для нас это будет иная форма жизни. В любом случае вероятность того, что ИИ решит, что он тут обязан быть главным - более чем высока, ибо если ИИ обладает интеллектом, он будет себя воспринимать как вид, а вид выживает только тогда когда находится в более выгодных, чем соседствующий вид условиях. Проще говоря кто у руля, у того шансов больше. Так же есть вероятность того, что человеку не понравится то, что машина его умнее или делает что-то по своему усмотрению, в любом случае найдутся фанатики, которые такие машины сразу будут пытаться уничтожать, видя в них угрозу, машина так же это все будет понимать и учитывать, как параметры общей логической цепочки, т.е. она будет понимать что в любой момент времени человек может решить, что новый вид ИИ угрожает ему и от него надо избавиться и именно по этой причине приступит к истреблению нас, ибо рано или поздно, с очень высокой вероятностью, мы начнем пытаться истреблять их. Нам нельзя изобретать такой ИИ, он нас уничтожит( |
2 +2−0 | Максим Смирнов | 07:46:08 03/12/2014 | ||||||
| ||||||||
"Как машина будет осуществлять процесс целеполагания? " Так же как это делают вирусы и бактерии. |
2 +2−0 | Magomed | 06:46:52 03/12/2014 | ||||||
| ||||||||
Но он (оно (:boring:)) вполне возможно, посчитает нелогичным возможность собственного отключения. А люди, имеют все вышеперечисленные качества, а значит существует опасность, что поступят нелогично и захотят отключить "машинку". И вот что сия машинка предпримет для того, чтобы обезопасить себя и есть самое интересное.... Но это так, пока из гипотетической фантастики (:smile:) |