Добыча БАЗ. Дорки

  • На форуме работает ручное одобрение пользователей. Это значит, что, если Ваша причина регистрации не соответствует тематике форума, а также Вы используете временную почту, Ваша учётная запись будет отклонена без возможности повторной регистрации. В дальнейшем - пожизненная блокировка обоих аккаунтов за создание мультиаккаунта.
  • Мы обновили Tor зеркало до v3!
    Для входа используйте следующий url: darkv3nw2...bzad.onion/
  • Мы вновь вернули telegram чат форуму, вступайте, общайтесь, задавайте любые вопросы как администрации, так и пользователям!
    Ссылка: https://t.me/chat_dark_time

nikak

Участник

nikak

Участник
22 Авг 2016
101
102
Я вам расскажу как ломать сайты в практически автоматическом режиме, сливать с них базы данных и как на этом можно заработать. Для кого-то инфа паблик, для кого-то будет новой, я же в этой статье хочу описать свой опыт и структурировать все телодвижения, чтоб у последователей этого ремесла не возникло вопросов на данном этапе и задать вектор развития.

1. Dorks

Дорки - это поисковые запросы. В нашем случае мы будем применять поисковые операторы, я чаще всего пользуюсь OR и intext: (
Пожалуйста, Вход или Регистрация для просмотра содержимого URL-адресов!
). Нет правильных или не правильных дорков, они просто есть.


Как выглядит простой дорк - index.php?id=1, где:
index - имя файла (страница сайта)
.php - расширение файла (например: .exe - исполняемые файлы для windows)
id=1 - переменная и ее значение (может быть любыми obama.php?4mo=228)


Что бы не заниматься рутинной работой по созданию дорков, поиск уникальных имен страниц и переменных, мы все это дело автоматизируем с помощью парсера ссылок из поисковых систем и специального софта Dork Combine. Я буду рассказывать на примере парсера Selka (Selka - бесплатный парсер выдачи в Яндекс, Google, Bing и Yahoo | Ascent.pro).

Заходим на любой переводчик, я использую гугл, переводим какой-нибудь запрос на язык той страны, под которую хотите делать базу, если это микс стран, то сойдет английский (например: купить яйца снегиря -> buy eggs bullfinch).

Открываем Selka, откроется мастер создания проектов, в него нужно вписать самые популярные расширения файлов для web - .php? .asp? .jsp? .cfm? .cgi? Вставляем эти расширения в поле Ключевые слова, каждое расширение с новой строки и подставляем к ним наш запрос, должно получится примерно так:

Пожалуйста, Вход или Регистрация для просмотра содержимого URL-адресов!


Затем нажимаем далее и выбираем поиссковиики, язык и домен. Выбирать нужно все три поисковика Google, Bing, Yahoo. Топ выставляем 500 и начинаем парсить.

Пожалуйста, Вход или Регистрация для просмотра содержимого URL-адресов!


Нам не нужно ждать окончание парсинга, т.к. нам достаточно немного ссылок, чтоб сделат из них дорки. Я обычно жду когда файл extended.csv станет примерно 300-350 кб.

Пожалуйста, Вход или Регистрация для просмотра содержимого URL-адресов!


Поработал парсер, нажимаем Остановить и идем по такому пути C:\Users\username\Documents\Selka\Project_results_ autosaveоткрываем файл extended.csv, копируем столбик URL, открываем Dork Combine и вставляем ссылки в поле Links.

-Нажимаем кнопку Validate, тем самым софт отфильтрует ссылки и удалит не подходящие ссылки.
-Нажимаем кнопку Parse URLs, это выдернит из ссылок имена страниц, расширения и переменные, разбив их по отдельным колонкам.
-Нажимаем Gen dorks - софт сгенерирует дорки. Далее нажимаем Save и сохраняем дорки.


Пожалуйста, Вход или Регистрация для просмотра содержимого URL-адресов!


В Dork Combine есть поля для поисковых операторов, полк site отвечает за гео (.com, .fr, .de etc), поле intext отвечает за ключевые слова, которые вы будите прописывать в запросе (pay pal OR neteller OR skrill).

Когда сохраните доки и если вы используете поисковые операторы, то из файла лучше удалить "верхние ковычки". Файл сдорками нужно рандомизировать, для этого подойдет утилита TextUtils, устанавливаем ее, жмем ПКМ по файлу - Text Utils Pack - Рандомизировать. Это нужно, чтоб было меньше дублей при парсинге.

2. Создание базы ссылок

Есть два пути создания базы URL'ов - с вложениями и без. С вложениями это a-parser, который не всегда себя оправдывает и честно говоря, меня он сильно разочаровал, а второй вариант SQLi Dumper, его мы и рассмотрим, так же кому-то подойдет и selka, но с большим количеством дорков она справляется плохо.

Все остальные процессы, которые будут описаны, лучше проводить на дедике. Открываем дампер, вкладка URL's Queue и вставляем дорки в центральное поле, за раз не больше 30k, потоков ставим 1, это снизит вероятность бана ip и выскакивание капчи, а лучше всего юзать на дедике vpn, можно найти кучу халявных (триальный доступ). Нажимаем Stert Scanner и забываем про дедик часов на 12, я ставлю на ночь и с утра останавливаю процесс парсинга, обычно я ориентируюсь на Ask поисковик, когда он прогонитдорки на 100% я останавливаю парсинг (всегда нажимайте Cansel иначе не сохранятся результаты парсинга). К этому времени у вас должно быть 10k+ ссылок. Масштабируйте этот процесс, используйте несколько дедиков.

Пожалуйста, Вход или Регистрация для просмотра содержимого URL-адресов!


3. Проверка сайтов на наличие уязвимости

Когда парсинг закончился, у вас в папке с дампером, в папке TXT появился файл с ссылками URL List (их можно объединять, например если вы парсили на нескольких дедиках). Переходим во вторую вкладку Exploitables, выставляем не больше 30 потоков, иначе будут пропуски и жмем Start Exploiter. Начнется проверка URL'ов на наличие уязвимости. Пройдет какое-то время и процесс закончится, его нужно довести до конца, иногда бывают глюки, что чек ссылок прошел, но все ровно висит 1-2 ссылки в процессе, это можно принудительно остановить.

Пожалуйста, Вход или Регистрация для просмотра содержимого URL-адресов!


4. Взлом уязвимых сайтов

Как предыдущий процесс закончился, переходим во вкладку Injectables, выставляем не больше 30 потоков, иначе будут пропуски и жмем Start Exploiter. Начнется взлом сайтов.

Пожалуйста, Вход или Регистрация для просмотра содержимого URL-адресов!


5. Поиск по БД

Когда у нас есть база со взломаными сайтами, начинаем искать нужную нам информацию по базам данных. Во вкладкеInjectables внизу есть 4 поля, куда мы можем прописать ключевые слова для поиска. Для поиска мыла нужно прописать mail password pass pw, пароль нужно указывать в нескольких вариациях, т.к. некоторые сайты сокращают его. Галочка Current DB должна быть снята, поиск должен происходить по Columns, а не в коем случае не по Tables.
Жмем ПКМ по какому-нибудь урту и выбираем Select All и жмем кнопку Start для запуска поиска по всем БД из списка.


6. Слив базы данных сайта

Когда у вас будет список сайтов с имеющимися ключами, нужно отсортировать список от большего к меньшиму, для этого выставляем значение 1k в поле Min.Rows и жмем ОК.

Пожалуйста, Вход или Регистрация для просмотра содержимого URL-адресов!


Нужно искать строки, где будут совпадения в одной БД, например по ключу mail есть строка содержащаа 20219 записей, по ключу pass есть строка содержащая 20219 записей.

Пожалуйста, Вход или Регистрация для просмотра содержимого URL-адресов!


Таким образом находим строки, где есть mail и password. Выделяем эту строку, вверху нажимаем Go to dumper - New dumper. Откроется окно, где отображается база данных и ее таблицы. Нужно найти найти ту строку, где было совпадение, выделить ее и нажать Get Columns. Откроются колонки таблицы, выделите галочками mail pass колонки. Нужно изменить настройки: Retry Limi - 50, поставить галочку Threads и выставить 5-10 потоков. Нажать Dump Data и начнется слив базы.

Пожалуйста, Вход или Регистрация для просмотра содержимого URL-адресов!


Большие базы лучше сливать с помощью sql map, он довольно легок в использовании и в сети есть куча мануалов, не вижу смысла расписывать, как им пользоваться, все довольно просто и понятно, это консольная утилита, но у нее есть GUI оболочки. Вот подробный faq по одной из них SqlMap GUI

7. Расшифровка хешей

Есть множество способов, но я предпочитаю юзать Hash Finder Client, это клиент для сервиса Hash Finder Софт привязывается к ключу, ключ можно получить бесплатно у этого человека
Пожалуйста, Вход или Регистрация для просмотра содержимого URL-адресов!
Он есть на разных форумах со своим топиком, как минимум он есть на ввх и бхф. Софт простой, сложностей не возникнет, вставил базу и нажал старт, все!


Пожалуйста, Вход или Регистрация для просмотра содержимого URL-адресов!


8. Что еще можно найти в базе данных сайта

Помимо мыльников, можно найти кучу интересных вещей, например данные кредитных карт, если шоп хранит эти данные у себя на сервере, то их можно найти в таблицах с ордерами (order), full info(dob,ssn) это данные на какого-то человека - ФИО, dob, адргес, страна, zip, эти данные популярны у людей, которые делают самореги pay pal. Можно получить login и pass админа сайта, залить туда shell и продать доступ к shell'у.

Что можно поискать:

mail;pass;password;pw - поиск email;pass баз
cvv;ccnum;cc_num;payment;billing;order - поиск кредитных карт
ssn;dob;birth - поиск full info
admin - поиск учетной записи админа


Это не все, что можно найти, включайте фантазию...
Весь необходимый софт -
Пожалуйста, Вход или Регистрация для просмотра содержимого URL-адресов!



© интернет
 
Последнее редактирование модератором:

DragonLords

Участник

DragonLords

Участник
5 Окт 2016
24
29
Обратите внимание, пользователь заблокирован на форуме. Не рекомендуется проводить сделки.
От души)
 
  • Лайк
Reactions: Torpeda

HArraHO

Участник

HArraHO

Участник
27 Окт 2016
2
0
Обратите внимание, пользователь заблокирован на форуме. Не рекомендуется проводить сделки.
личный, пожалуйста.
 

nikak

Участник

nikak

Участник
22 Авг 2016
101
102
не надо просить, я здесь))

Скрытое содержимое для пользователей: lucko30

--- Пост обновлен ---
Скрытое содержимое для пользователей: HArraHO
 
  • Лайк
Reactions: lucko30

ааа777

Участник

ааа777

Участник
23 Окт 2016
65
21
Обратите внимание, пользователь заблокирован на форуме. Не рекомендуется проводить сделки.
Скрытый контент. Для просмотра информации необходимо 25 симпатий.
Скрытый контент. Для просмотра информации необходимо 25 симпатий.
Скрытый контент. Для просмотра информации необходимо 25 симпатий...
вот всегда так
 

nikak

Участник

nikak

Участник
22 Авг 2016
101
102
Скрытый контент. Для просмотра информации необходимо 25 симпатий.
Скрытый контент. Для просмотра информации необходимо 25 симпатий.
Скрытый контент. Для просмотра информации необходимо 25 симпатий...
вот всегда так
Скрытое содержимое для пользователей: ааа777
 
  • Лайк
Reactions: ааа777

Strix

VIP

Strix

VIP
27 Фев 2016
361
244
nikak, зачем ты вообще хайд ставил?? и по правилам они обязаны личный просить в лс, а ты по правилам не должен выпрашивать симпатии
 

Xackerok.26

Участник

Xackerok.26

Участник
25 Сен 2016
126
140
Обратите внимание, пользователь заблокирован на форуме. Не рекомендуется проводить сделки.

nikak

Участник

nikak

Участник
22 Авг 2016
101
102
nikak, зачем ты вообще хайд ставил?? и по правилам они обязаны личный просить в лс, а ты по правилам не должен выпрашивать симпатии
Прошу прощения, не знал. Хорошо, тогда сделаем по другому.

Все понял. Спасибо xakerok.26 ))
 
Последнее редактирование модератором:

nikak

Участник

nikak

Участник
22 Авг 2016
101
102
Ааа уговорили, пожалуй открою хайд в честь пятницы)) впереди выходные! ВСЕМ! © Учится, учится и учится!
 

О нас

  • Наше сообщество существует уже много лет и гордится тем, что предлагает непредвзятое, критическое обсуждение различных тем среди людей разных слоев общества. Мы работаем каждый день, чтобы убедиться, что наше сообщество является одним из лучших.

    Dark-Time 2015 - 2024

    При поддержке: XenForo.Info

Быстрая навигация

Меню пользователя