Комментарии по рейтингу | Комментарии по дате |
-1 +0−1 | Andrew Mazin | 10:13:05 26/12/2014 |
Комментарий удалён. | ||
Да такого просто быть не может! Ссылка на www.rbc.ru |
1 +1−0 | Andrew Mazin | 07:45:57 21/11/2014 | ||||||
| ||||||||
Допустим пришел Стрелков и вы восстановили "исторические границы". Что дальше? Просто любопытно, как вы видите существование такой "империи"? Как будут дела обстоять с "инвестиционным климатом", участием иностранного капитала, инновационным развитием, как собираетесь удерживать профессиональные кадры, тех же самых ученых, которых стремление к личной свободе (и нежелание иметь какое-либо отношение к кровопролитным войнам под руководством Стрелкова) покажется достаточным поводом покинуть новую "империю"? |
-1 +0−1 | Andrew Mazin | 09:14:32 02/10/2014 | ||||||
| ||||||||
А вы о какой именно "песочнице" изданий говорите? И с каких пор издания ссылаются друг на друга вместо авторов публикаций? |
0 +0−0 | Andrew Mazin | 21:20:33 13/08/2014 | ||||||
| ||||||||
Ни одного комментария по теме, и теперь вы туда же, даже в подобных топиках. Агрессивные, глумящиеся, неумные. Даже мне стыдно за вас. |
0 +0−0 | Andrew Mazin | 21:17:02 13/08/2014 | ||||||
| ||||||||
До чего же вы все-таки скатились... Уйдите из этой темы, пожалуйста. Вас ждут в комментариях к другим статьям. |
0 +0−0 | Andrew Mazin | 05:16:05 11/08/2014 | ||||||
| ||||||||
Описался: priors -> conditionals |
0 +0−0 | Andrew Mazin | 05:08:02 11/08/2014 | ||||||
| ||||||||
> А точное решение нужно только в теоретической метематике. На невозможности найти точное решение определенного уравнения, например, построены все криптографические схемы. Кроме того, есть области, где важна надежность. Ну и, наконец, даже умножение матриц - имеет не такие тривиальные алгоритмы, но в большинстве приминений крайне нежелательно использование приближенных решений. Любые численные решения систем диффуров тому пример. Кстати умноженин матриц - прекрасный пример, где константый множитель часто заставляет выбирать алгоритмы с худшими асимптотическими свойствами. И последнее. Вы знаете как сейчас генерируются bitcoins? Я подскажу - начинали с CPU, потом GPU, сейчас используют FPGA. Это пример задачи с финансовой подоплекой, где использование "заточенного" железа оказалось предпочтительнее-проще разработки новых алгоритмов. Вообще говоря, очевидно, что у любой задачи если задана "желаемая точность" есть inf кол-ва примитивных операций в алгоритмической реализации. Поэтому "самая быстрая" реализация - это оптимальный в ваших условиях алгоритм + "заточенное железо". В общем, есть ощущение, что вы даже не пытаетесь посмотреть на большую картину и подумать о всем разнообразии задач и применений, а просто критикуете по принципу "по своему опыту". И все просто чтобы доказать данная разработка - "фигня", вместо того чтобы подумать "а может быть есть интересные применения?". Чувствую, что не пожилой человек, так зачем такая закостенелость мышления? |
0 +0−0 | Andrew Mazin | 04:55:58 11/08/2014 | ||||||
| ||||||||
> Между искуственными нейронными сетями и "естественными" мало чего общего. Этого, вроде, никто и не утверждал. Но есть мнение, что многие биологические системы все же можно приближенно описывать такими идеализированными моделями и получать довольно глубокие выводы. В теор. neuroscience раньше рассматривали совсем примитивные модели и все же получали интересные результаты для несложных нейронных систем. Кроме того - как я написал ниже, у них модели нейронов достаточно сложные, не просто сигмоид от линейной комбинации. Они вообще spiking. (К чему у некоторых специалистов, кстати, есть претензии.) > Утверждение "чем больше нейронная сеть тем круче" не соответсвует действительности. "Малая" нейронная система является подмножеством "большей". Так что большая как минимум не хуже. Кроме того, есть масса примеров (могу кинуть ссылки), где большое кол-во нейронов до порядков 10^6 как раз необходимо для существенного улучшения предсказательной силы сети на реальных данных. |
0 +0−0 | Andrew Mazin | 04:51:01 11/08/2014 | ||||||
| ||||||||
В комментарии (в) я писал о capacity чтобы подчеркнуть, что нейронные сети могут в принципе описывать крайне "неоднородные" данные. То есть если у вас есть динамическая система (с сильным "смешиванием"), которую вы наблюдаете на достаточно большом временном промежутке и макс. показатель Ляпунова * время наблюдения - "немалая" величина, вы все же можете натренировать сеть, способную описать, например, обратное отображение. |
0 +0−0 | Andrew Mazin | 04:47:24 11/08/2014 | ||||||
| ||||||||
а. Не считаю его необоснованным. Для того чтобы устроиться на работу в research department компаний вроде ibm, google, microsoft или иже с ними, как правило, нужно иметь PhD, хорошую историю публикаций, хорошие результаты в области (где предполагается работа), часто требуется некий вес в научном сообществе, отличные отзывы научных руководителей, ну и пройти собеседование. Чтобы писать все что придет в голову в форуме ленты нужно... уметь писать. Именно в связи с наличием таких фильтров я считаю priors P(компетентный|работает в исслед. отеделениях этих компаний) и P(компетентый|оставляет комментарии на ленте) очень разными. |
0 +0−0 | Andrew Mazin | 07:22:09 09/08/2014 | ||||||
| ||||||||
А вот за что можно уважать IBM research: Ссылка на researcher.watson.ibm.com Тот самый Мандельброт, например, тоже там работал. |
3 +3−0 | Andrew Mazin | 06:55:53 09/08/2014 | ||||||
| ||||||||
"В чём собственно новизна айбиэмовского чипа?" Чтобы ответить на этот вопрос нужно прочесть статью. Я пока это сделал по диагонали. Из показвашегося интересным - (а) миллион нейронов и 256 мил. синапсов, (б) каждое ядро - 256 аксонов и 256 нейронов. Каждый связан с каждым - 65т. параметров синапсов + достаточно сложная (с биол. элементами) модель каждого нейрона. Реализованы axonal delays и шум. Так что можно строить интересные recurrent networks. Внешняя адресация для синапсов между ядрами и чипами (легко расширяется), малое энергопотребление. В общем, после того как сделаете трудоемкое предобучение другими инструментами - получите достаточно быструю и энергоэффективную сеть. Достижение, думаю, в продуманной архитектуре, параметрах реализации и удобстве расширяемости. |
2 +2−0 | Andrew Mazin | 06:40:48 09/08/2014 | ||||||
| ||||||||
"Алгоритмы можно соверщенствовать быстрее чем переделывать процессоры. Так что в динамике - железное воплощение не практично." Далеко не все алгоритмы поддаются совершенствованию. Можно придумывать эвристики и искать приближенные решения, но travelling salesman problem, например, вряд ли когда-то будет точно решаться за O(N). |
0 +0−0 | Andrew Mazin | 06:34:48 09/08/2014 | ||||||
| ||||||||
б. Вы правы, что предсказания погоды, как правило, строятся на климатических моделях => решении системы диф. уравнений. в. "А нейронки скорее моделируют гладкие функции." Не совсем ясно что вы имели ввиду, но в системе всего с 2 скрытыми уровнями для запоминания любых N сэмплов (размерности m), вроде, достаточно порядка \sqrt{mN} скрытых нейронов. Кол-во нейронов в текущих реализациях порядка миллиона. Так что с capacity, кажется, все в порядке. г. Сферы применения самые обширные в т.ч. в финансах, медицине, sequence recognition и т.д. Computational neuroscience, думаю, тоже в какой-то степени. Во многих применениях другие подходы, и правда, могут давать лучшие результаты... Но универсальная параллельная модель и 63 милливата - это все-таки аргумент. д. Ну и, в конце концов, человечество давно использует чуть менее artificial neural networks для массы самых разных "плохо-определенных" задач. Надо увеличивать кол-во нейронов. |
0 +0−0 | Andrew Mazin | 06:05:06 09/08/2014 | ||||||
| ||||||||
а. Вы не совсем правильно проинтерпретировали мою фразу. Я лишь усомнился в вашей компетенции. Скажем так, принимая во внимание ваши высказывания и мои представления о процессе приема на работу в IBM research, я думаю, что если ввести условные случайные величины с1 = "компетенция человека с вашими коммантариями в вопросе применения neuromorphic hardware" и c2 = "компетенция среднего сотрудника IBM research в том же вопросе", то, грубо говоря, можно предположить, что E[c1] < E[c2] и E[c2]-E[c1] >> sigma(c1)+sigma(c2). |
6 +7−1 | Andrew Mazin | 23:28:08 08/08/2014 | ||||||
| ||||||||
На самом деле нейронные сети и deep learning, насколько мне известно, сейчас применяются в широком спектре задач от распознования и классификации изображений и видео, до анализа речи и различных временных рядов (в т.ч. в финансовых приложениях). Кроме того, мне показалось интересным вот это предложение "With 400-pixel-by-240-pixel video input at 30 frames per second, the chip consumes 63 milliwatts". Это кажется довольно энергоэффективным решением. И про IBM. Вот когда у вас будет предложение из IBM Research можете нам рассказать о том какие неумные люди там работают. |
3 +3−0 | Andrew Mazin | 05:31:12 15/02/2014 |
Комментарий удалён. | ||
Слушайте, может я отстал от жизни, но... "Единственный"? То есть я правильно вас понимаю, что вы тем самым утверждаете, что кроме Роскосмоса никто в мире больше спутники не запускает? Или вы что-то совсем другое имели ввиду (все-таки писали глубокой ночью)? |
5 +5−0 | Andrew Mazin | 12:40:32 14/02/2014 | ||||||
| ||||||||
Конечно плохая. Автор слишком абстрагировался от того, что эти художественные работы символизируют, это было бестактно и на мой взгляд глупо. Но если честно, вся эта поднятая буря (включая гомосексуальные трактовки Киселева) кажется мне даже глупее. Рад, что вы довольны. Кроме шуток.) И старайтесь испытывать побольше позитивных эмоций. Обиды и злость сокращают жизнь. |
1 +3−2 | Andrew Mazin | 12:22:42 14/02/2014 | ||||||
| ||||||||
CNN извинилась. И был памятник жертвам 9/11, если не ошибаюсь. Вам этого мало? Это была полу-шутливая (да, шутки бывают глупыми) публикация британского журналиста, которую CNN отозвал. Чего вам еще? Крови? |
0 +3−3 | Andrew Mazin | 12:01:45 14/02/2014 |
И конечно, у нас как всегда готов пропорциональный Киселевский ответ: />Правда ведь здорово? Гордимся! Ну и подумаешь, что у адекватных журналистов появился обоснованный повод сказать о таких репортерах "A theme may be modern, but idiocy is timeless." Зато мы отомщены! Пусть знают наших. |