Создан самый бесполезный список адресов в «темном» интернете

12:19 15/05/2017 Интернет и СМИ
Создан самый бесполезный список адресов в «темном» интернете
Исследователь Мэтт Траудт составил «самый полный и бесполезный список» ресурсов в анонимной сети Tor, включив в него все возможные комбинации символов, используемых в адресах скрытого сегмента интернета. Он использовал случайные комбинации букв и цифр, которые теоретически могли бы вести на ресурс в onion.
Уважаемая Лента, хоть бы проверяли информацию перед публикацией! Этот список никогда не создавался и его в принципе создать невозможно. Если учесть, что в среднем для хранения одного названия сайта нужно 8 байт (хотя в реальности ещё больше), то для того чтобы этот список сгенерировать и сохранить, ...читать полностью

Исследователь Мэтт Траудт (Matt Traudt) составил «самый полный и бесполезный список» ресурсов в анонимной сети Tor (The Onion Router), включив в него все возможные комбинации символов, используемых в адресах скрытого сегмента интернета. Об этом сообщает издание Fossbytes.

Энтузиаст решил опровергнуть распространенный миф о том, что оценить реальный масштаб существующих «темных» сайтов невозможно. В действительности Траудт в основном просто использовал случайные комбинации букв и цифр, которые теоретически могли бы вести на ресурс в onion-пространстве. Большинство адресов из созданного списка тем не менее не имеют реального сайта и попросту бесполезны.

В списке содержится 1 208 925 819 614 629 174 706 176 сайтов (более септиллиона). Сам исследователь называет свой проект «самой длинной и бесполезной onion-картотекой в галактике».

Траудт также отметил, что сайты в «темном» интернете крайне сложно каталогизировать, поскольку большинство из них исчезает так же быстро, как и появляется. Он считает, что его список может быть не самым полезным, но все же дает какое-то представление о возможном объеме сайтов в Tor.

Комментирование разрешено только первые 24 часа.

Комментарии(18):

5 +0−0Виталий12:33:28
15/05/2017
Уважаемая Лента, хоть бы проверяли информацию перед публикацией! Этот список никогда не создавался и его в принципе создать невозможно. Если учесть, что в среднем для хранения одного названия сайта нужно 8 байт (хотя в реальности ещё больше), то для того чтобы этот список сгенерировать и сохранить, понадобится 586 миллиардов самых ёмких жёстких дисков по 15 терабайт каждый. Сама генерация заняла бы более трёх лет при использовании самого мощного суперкомпьютера в мире с производительностью 93 петафлопс в секунду.

В общем, парень просто посчитал это число на калькуляторе, воспользовавшись простой формулой из комбинаторики, а вы теперь форсите этот бред.
1 +0−0Алексей Чертов12:59:46
15/05/2017
...когда коту делать нечего, он, все знают, что делает...
1 +0−0№-194862512:49:19
15/05/2017
Исцледование британского ученого))
1 +0−0Muon Neutrino12:33:03
15/05/2017
Так, лента, это понятно, давай теперь про полезные адреса )
1 +0−0Сергей Пупкин12:27:38
15/05/2017
0 +0−0Gabriela Smith12:24:28
15/05/2017
Мне платят 76 баксов каждый час за работу дома на моем компьютере. Я никогда не думал, что смогу это сделать, но мой хороший друг зарабатывает 16 тысяч в месяц, выполняя эту работу, и она показала мне, как это сделать.

Попробуйте его на следующем веб-сайтeе ..............>>>>>>>> WebJob7.COM
тебе платят 50 руб/отсос
0 +0−0Нонна Елисеева01:55:36
16/05/2017
Комментарий удалён.
0 +0−0Виталий16:44:38
15/05/2017
0 +0−0№-185669616:40:48
15/05/2017
Ну вот ты с моей помощью решил (но не до конца) эту задачу, молодец. Но оба решения (твоё и того парня) отстой.
Вы генерируете полное множество из 2^80 вариантов.
Поскольку в генерации домена участвует хэш-функция, перебрав все-все-все RSA-ключи, мы неизбежно встретим коллизии, когда разные ключи дадут одинаковое доменное имя.
А это означает, что какие-то комбинации из полного множества будут отсутствовать в реальном списке.
Реальный список короче, чем 1208925819614629174706176.
Так что задача, увы, не решена вообще никем.
Вот задача поиска коллизий хэш функций как раз и является наиболее востребованной, актуальной и важной.
И при этом крайне трудовыполнимой для современных хэш функций. Как доделают нормальный квантовый комп, поломают все эти хэши, и канет в лету Тор и вся криптография вместе с ним.
Спор у нас пустой, как и вся эта статья.
Я писал для того, чтобы люди понимали, что им чушью голову забивают, а ты тут смысл всё усердно ищешь. Ну ищи, ищи.
0 +0−0№-185669616:40:48
15/05/2017
0 +0−0Виталий16:08:44
15/05/2017
Ой, да какая разница. И id задавать надо начиная с числа 286511799958070431838109696 и заканчивая 38685626227668133590597631. Проблема только в том, что ulong такие числа не съест, но это легко поправимо.
А в функция всё равно будет вот такой.

string GetDarkName(ulong id)
{
string s = "abcdefghijklmnopqrstuvwxyz234567", res = "";
while (id > 0)
{
res += s[(int)(id % 32)];
id /= 32;
}
return res;
}

Как была статья фигней, так и осталась. Это задачка для школьника со знанием паскаля уровня 10-го класса.
Ну вот ты с моей помощью решил (но не до конца) эту задачу, молодец. Но оба решения (твоё и того парня) отстой.
Вы генерируете полное множество из 2^80 вариантов.
Поскольку в генерации домена участвует хэш-функция, перебрав все-все-все RSA-ключи, мы неизбежно встретим коллизии, когда разные ключи дадут одинаковое доменное имя.
А это означает, что какие-то комбинации из полного множества будут отсутствовать в реальном списке.
Реальный список короче, чем 1208925819614629174706176.
Так что задача, увы, не решена вообще никем.
0 +0−0Виталий16:14:10
15/05/2017
0 +0−0№-185669613:03:15
15/05/2017
Я всё-таки надеюсь, что парень пошел дальше такой очевидной идеи, и составил алгоритм генерации доменов по порядку. Такой алгоритм был бы эквиваленте полному списку, ведь его можно "пролистать" от начала до конца, найти домены на нужных позициях и проверить, является ли строка доменом сети tor.
Тут хэши даже считать не надо, наш умнейший хацкер программист из статьи просто перебрал все возможные варианты вывода base32. В адресе 16 символов, каждый из которых может быть одним из 32-х доступных вариантов. То есть кол-во вариантов будет просто 32 в 16-й степени, что равно 1208925819614629174706176. Ровно то же число что, в статье! Проверьте сами на калькуляторе.
Так что задачка сводится к тупому перебору буковок и циферок.
0 +0−0Виталий16:08:44
15/05/2017
Комментарий удалён.
Ой, да какая разница. И id задавать надо начиная с числа 286511799958070431838109696 и заканчивая 38685626227668133590597631. Проблема только в том, что ulong такие числа не съест, но это легко поправимо.
А в функция всё равно будет вот такой.

string GetDarkName(ulong id)
{
string s = "abcdefghijklmnopqrstuvwxyz234567", res = "";
while (id > 0)
{
res += s[(int)(id % 32)];
id /= 32;
}
return res;
}

Как была статья фигней, так и осталась. Это задачка для школьника со знанием паскаля уровня 10-го класса.
0 +0−0Виталий13:57:44
15/05/2017
-1 +0−0M L12:56:51
15/05/2017
А ты как посчитал сколько нужно дисков, и сколько времени на генерацию ?
Берешь этот секстилион сайтов, умножаешь на 8 (число байт в имени сайта, но в реале будет больше), делишь на 16492674416640 байт (это 15 ТБ - объем самого большого диска) и получаешь те самые 586 миллиардов.
Ну а время обработки я взял как один такт процессора на обработку одного байта информации (в реальности будет в несколько раз больше), и поделил на 93000000000000000 ФЛОП (операций в секунду) самого крутого суперкомпьютера
0 +0−0Виталий13:52:07
15/05/2017
0 +0−0№-185669613:03:15
15/05/2017
Я всё-таки надеюсь, что парень пошел дальше такой очевидной идеи, и составил алгоритм генерации доменов по порядку. Такой алгоритм был бы эквиваленте полному списку, ведь его можно "пролистать" от начала до конца, найти домены на нужных позициях и проверить, является ли строка доменом сети tor.
О, это гениально, конечно же.
Я вот только что за 5 минут написал на языке C#

string GetDarkName(ulong id)
{
string s = "abcdefghijklmnopqrstuvwxyz0123456789", res = "";
while (id > 0)
{
res += s[(int)(id % 36)];
id /= 36;
}
return res;
}

Почему про меня на ленте не написали? Вот функция, водишь позицию, получаешь "обожемой" сайт в ДАРКНЕТЕ!
Конечно толковый программист меня поправит, этот алгоритм позволит получить лишь первые 18 446 744 073 709 551 615 сайтов, но поправить алгоритм для большего числа не сложно, мне просто лень.
0 +0−0№-185669613:03:15
15/05/2017
5 +0−0Виталий12:33:28
15/05/2017
Уважаемая Лента, хоть бы проверяли информацию перед публикацией! Этот список никогда не создавался и его в принципе создать невозможно. Если учесть, что в среднем для хранения одного названия сайта нужно 8 байт (хотя в реальности ещё больше), то для того чтобы этот список сгенерировать и сохранить, понадобится 586 миллиардов самых ёмких жёстких дисков по 15 терабайт каждый. Сама генерация заняла бы более трёх лет при использовании самого мощного суперкомпьютера в мире с производительностью 93 петафлопс в секунду.

В общем, парень просто посчитал это число на калькуляторе, воспользовавшись простой формулой из комбинаторики, а вы теперь форсите этот бред.
Я всё-таки надеюсь, что парень пошел дальше такой очевидной идеи, и составил алгоритм генерации доменов по порядку. Такой алгоритм был бы эквиваленте полному списку, ведь его можно "пролистать" от начала до конца, найти домены на нужных позициях и проверить, является ли строка доменом сети tor.
0 +0−0Yudzhin Ozeransky12:44:19
15/05/2017
Каклы уже столько лет занимаются созданием бесполезной страны. Так что затея не оригинальна.
0 +0−0Лунный Трактор12:30:35
15/05/2017
што за торт?
0 +0−0Ярослав12:24:55
15/05/2017
Го ссылки на эти сайты? Надеюсь там торренты есть?
0 +0−0Gabriela Smith12:24:28
15/05/2017
Мне платят 76 баксов каждый час за работу дома на моем компьютере. Я никогда не думал, что смогу это сделать, но мой хороший друг зарабатывает 16 тысяч в месяц, выполняя эту работу, и она показала мне, как это сделать.

Попробуйте его на следующем веб-сайтeе ..............>>>>>>>> WebJob7.COM
-1 +0−0M L12:56:51
15/05/2017
5 +0−0Виталий12:33:28
15/05/2017
Уважаемая Лента, хоть бы проверяли информацию перед публикацией! Этот список никогда не создавался и его в принципе создать невозможно. Если учесть, что в среднем для хранения одного названия сайта нужно 8 байт (хотя в реальности ещё больше), то для того чтобы этот список сгенерировать и сохранить, понадобится 586 миллиардов самых ёмких жёстких дисков по 15 терабайт каждый. Сама генерация заняла бы более трёх лет при использовании самого мощного суперкомпьютера в мире с производительностью 93 петафлопс в секунду.

В общем, парень просто посчитал это число на калькуляторе, воспользовавшись простой формулой из комбинаторики, а вы теперь форсите этот бред.
А ты как посчитал сколько нужно дисков, и сколько времени на генерацию ?
Самые
^^^Наверх^^^Обратная связь