Я вам расскажу как ломать сайты в практически автоматическом режиме, сливать с них базы данных и как на этом можно заработать. Для кого-то инфа паблик, для кого-то будет новой, я же в этой статье хочу описать свой опыт и структурировать все телодвижения, чтоб у последователей этого ремесла не возникло вопросов на данном этапе и задать вектор развития.
1. Dorks
Дорки - это поисковые запросы. В нашем случае мы будем применять поисковые операторы, я чаще всего пользуюсь OR и intext: (
Как выглядит простой дорк - index.php?id=1, где:
index - имя файла (страница сайта)
.php - расширение файла (например: .exe - исполняемые файлы для windows)
id=1 - переменная и ее значение (может быть любыми obama.php?4mo=228)
Что бы не заниматься рутинной работой по созданию дорков, поиск уникальных имен страниц и переменных, мы все это дело автоматизируем с помощью парсера ссылок из поисковых систем и специального софта Dork Combine. Я буду рассказывать на примере парсера Selka (Selka - бесплатный парсер выдачи в Яндекс, Google, Bing и Yahoo | Ascent.pro).
Заходим на любой переводчик, я использую гугл, переводим какой-нибудь запрос на язык той страны, под которую хотите делать базу, если это микс стран, то сойдет английский (например: купить яйца снегиря -> buy eggs bullfinch).
Открываем Selka, откроется мастер создания проектов, в него нужно вписать самые популярные расширения файлов для web - .php? .asp? .jsp? .cfm? .cgi? Вставляем эти расширения в поле Ключевые слова, каждое расширение с новой строки и подставляем к ним наш запрос, должно получится примерно так:
Затем нажимаем далее и выбираем поиссковиики, язык и домен. Выбирать нужно все три поисковика Google, Bing, Yahoo. Топ выставляем 500 и начинаем парсить.
Нам не нужно ждать окончание парсинга, т.к. нам достаточно немного ссылок, чтоб сделат из них дорки. Я обычно жду когда файл extended.csv станет примерно 300-350 кб.
Поработал парсер, нажимаем Остановить и идем по такому пути C:\Users\username\Documents\Selka\Project_results_ autosaveоткрываем файл extended.csv, копируем столбик URL, открываем Dork Combine и вставляем ссылки в поле Links.
-Нажимаем кнопку Validate, тем самым софт отфильтрует ссылки и удалит не подходящие ссылки.
-Нажимаем кнопку Parse URLs, это выдернит из ссылок имена страниц, расширения и переменные, разбив их по отдельным колонкам.
-Нажимаем Gen dorks - софт сгенерирует дорки. Далее нажимаем Save и сохраняем дорки.
В Dork Combine есть поля для поисковых операторов, полк site отвечает за гео (.com, .fr, .de etc), поле intext отвечает за ключевые слова, которые вы будите прописывать в запросе (pay pal OR neteller OR skrill).
Когда сохраните доки и если вы используете поисковые операторы, то из файла лучше удалить "верхние ковычки". Файл сдорками нужно рандомизировать, для этого подойдет утилита TextUtils, устанавливаем ее, жмем ПКМ по файлу - Text Utils Pack - Рандомизировать. Это нужно, чтоб было меньше дублей при парсинге.
2. Создание базы ссылок
Есть два пути создания базы URL'ов - с вложениями и без. С вложениями это a-parser, который не всегда себя оправдывает и честно говоря, меня он сильно разочаровал, а второй вариант SQLi Dumper, его мы и рассмотрим, так же кому-то подойдет и selka, но с большим количеством дорков она справляется плохо.
Все остальные процессы, которые будут описаны, лучше проводить на дедике. Открываем дампер, вкладка URL's Queue и вставляем дорки в центральное поле, за раз не больше 30k, потоков ставим 1, это снизит вероятность бана ip и выскакивание капчи, а лучше всего юзать на дедике vpn, можно найти кучу халявных (триальный доступ). Нажимаем Stert Scanner и забываем про дедик часов на 12, я ставлю на ночь и с утра останавливаю процесс парсинга, обычно я ориентируюсь на Ask поисковик, когда он прогонитдорки на 100% я останавливаю парсинг (всегда нажимайте Cansel иначе не сохранятся результаты парсинга). К этому времени у вас должно быть 10k+ ссылок. Масштабируйте этот процесс, используйте несколько дедиков.
3. Проверка сайтов на наличие уязвимости
Когда парсинг закончился, у вас в папке с дампером, в папке TXT появился файл с ссылками URL List (их можно объединять, например если вы парсили на нескольких дедиках). Переходим во вторую вкладку Exploitables, выставляем не больше 30 потоков, иначе будут пропуски и жмем Start Exploiter. Начнется проверка URL'ов на наличие уязвимости. Пройдет какое-то время и процесс закончится, его нужно довести до конца, иногда бывают глюки, что чек ссылок прошел, но все ровно висит 1-2 ссылки в процессе, это можно принудительно остановить.
4. Взлом уязвимых сайтов
Как предыдущий процесс закончился, переходим во вкладку Injectables, выставляем не больше 30 потоков, иначе будут пропуски и жмем Start Exploiter. Начнется взлом сайтов.
5. Поиск по БД
Когда у нас есть база со взломаными сайтами, начинаем искать нужную нам информацию по базам данных. Во вкладкеInjectables внизу есть 4 поля, куда мы можем прописать ключевые слова для поиска. Для поиска мыла нужно прописать mail password pass pw, пароль нужно указывать в нескольких вариациях, т.к. некоторые сайты сокращают его. Галочка Current DB должна быть снята, поиск должен происходить по Columns, а не в коем случае не по Tables.
Жмем ПКМ по какому-нибудь урту и выбираем Select All и жмем кнопку Start для запуска поиска по всем БД из списка.
6. Слив базы данных сайта
Когда у вас будет список сайтов с имеющимися ключами, нужно отсортировать список от большего к меньшиму, для этого выставляем значение 1k в поле Min.Rows и жмем ОК.
Нужно искать строки, где будут совпадения в одной БД, например по ключу mail есть строка содержащаа 20219 записей, по ключу pass есть строка содержащая 20219 записей.
Таким образом находим строки, где есть mail и password. Выделяем эту строку, вверху нажимаем Go to dumper - New dumper. Откроется окно, где отображается база данных и ее таблицы. Нужно найти найти ту строку, где было совпадение, выделить ее и нажать Get Columns. Откроются колонки таблицы, выделите галочками mail pass колонки. Нужно изменить настройки: Retry Limi - 50, поставить галочку Threads и выставить 5-10 потоков. Нажать Dump Data и начнется слив базы.
Большие базы лучше сливать с помощью sql map, он довольно легок в использовании и в сети есть куча мануалов, не вижу смысла расписывать, как им пользоваться, все довольно просто и понятно, это консольная утилита, но у нее есть GUI оболочки. Вот подробный faq по одной из них SqlMap GUI
7. Расшифровка хешей
Есть множество способов, но я предпочитаю юзать Hash Finder Client, это клиент для сервиса Hash Finder Софт привязывается к ключу, ключ можно получить бесплатно у этого человека
8. Что еще можно найти в базе данных сайта
Помимо мыльников, можно найти кучу интересных вещей, например данные кредитных карт, если шоп хранит эти данные у себя на сервере, то их можно найти в таблицах с ордерами (order), full info(dob,ssn) это данные на какого-то человека - ФИО, dob, адргес, страна, zip, эти данные популярны у людей, которые делают самореги pay pal. Можно получить login и pass админа сайта, залить туда shell и продать доступ к shell'у.
Что можно поискать:
mail;pass;password;pw - поиск email;pass баз
cvv;ccnum;cc_num;payment;billing;order - поиск кредитных карт
ssn;dob;birth - поиск full info
admin - поиск учетной записи админа
Это не все, что можно найти, включайте фантазию...
Весь необходимый софт -
© интернет
1. Dorks
Дорки - это поисковые запросы. В нашем случае мы будем применять поисковые операторы, я чаще всего пользуюсь OR и intext: (
Пожалуйста,
Вход
или
Регистрация
для просмотра содержимого URL-адресов!
). Нет правильных или не правильных дорков, они просто есть.Как выглядит простой дорк - index.php?id=1, где:
index - имя файла (страница сайта)
.php - расширение файла (например: .exe - исполняемые файлы для windows)
id=1 - переменная и ее значение (может быть любыми obama.php?4mo=228)
Что бы не заниматься рутинной работой по созданию дорков, поиск уникальных имен страниц и переменных, мы все это дело автоматизируем с помощью парсера ссылок из поисковых систем и специального софта Dork Combine. Я буду рассказывать на примере парсера Selka (Selka - бесплатный парсер выдачи в Яндекс, Google, Bing и Yahoo | Ascent.pro).
Заходим на любой переводчик, я использую гугл, переводим какой-нибудь запрос на язык той страны, под которую хотите делать базу, если это микс стран, то сойдет английский (например: купить яйца снегиря -> buy eggs bullfinch).
Открываем Selka, откроется мастер создания проектов, в него нужно вписать самые популярные расширения файлов для web - .php? .asp? .jsp? .cfm? .cgi? Вставляем эти расширения в поле Ключевые слова, каждое расширение с новой строки и подставляем к ним наш запрос, должно получится примерно так:
Пожалуйста,
Вход
или
Регистрация
для просмотра содержимого URL-адресов!
Затем нажимаем далее и выбираем поиссковиики, язык и домен. Выбирать нужно все три поисковика Google, Bing, Yahoo. Топ выставляем 500 и начинаем парсить.
Пожалуйста,
Вход
или
Регистрация
для просмотра содержимого URL-адресов!
Нам не нужно ждать окончание парсинга, т.к. нам достаточно немного ссылок, чтоб сделат из них дорки. Я обычно жду когда файл extended.csv станет примерно 300-350 кб.
Пожалуйста,
Вход
или
Регистрация
для просмотра содержимого URL-адресов!
Поработал парсер, нажимаем Остановить и идем по такому пути C:\Users\username\Documents\Selka\Project_results_ autosaveоткрываем файл extended.csv, копируем столбик URL, открываем Dork Combine и вставляем ссылки в поле Links.
-Нажимаем кнопку Validate, тем самым софт отфильтрует ссылки и удалит не подходящие ссылки.
-Нажимаем кнопку Parse URLs, это выдернит из ссылок имена страниц, расширения и переменные, разбив их по отдельным колонкам.
-Нажимаем Gen dorks - софт сгенерирует дорки. Далее нажимаем Save и сохраняем дорки.
Пожалуйста,
Вход
или
Регистрация
для просмотра содержимого URL-адресов!
В Dork Combine есть поля для поисковых операторов, полк site отвечает за гео (.com, .fr, .de etc), поле intext отвечает за ключевые слова, которые вы будите прописывать в запросе (pay pal OR neteller OR skrill).
Когда сохраните доки и если вы используете поисковые операторы, то из файла лучше удалить "верхние ковычки". Файл сдорками нужно рандомизировать, для этого подойдет утилита TextUtils, устанавливаем ее, жмем ПКМ по файлу - Text Utils Pack - Рандомизировать. Это нужно, чтоб было меньше дублей при парсинге.
2. Создание базы ссылок
Есть два пути создания базы URL'ов - с вложениями и без. С вложениями это a-parser, который не всегда себя оправдывает и честно говоря, меня он сильно разочаровал, а второй вариант SQLi Dumper, его мы и рассмотрим, так же кому-то подойдет и selka, но с большим количеством дорков она справляется плохо.
Все остальные процессы, которые будут описаны, лучше проводить на дедике. Открываем дампер, вкладка URL's Queue и вставляем дорки в центральное поле, за раз не больше 30k, потоков ставим 1, это снизит вероятность бана ip и выскакивание капчи, а лучше всего юзать на дедике vpn, можно найти кучу халявных (триальный доступ). Нажимаем Stert Scanner и забываем про дедик часов на 12, я ставлю на ночь и с утра останавливаю процесс парсинга, обычно я ориентируюсь на Ask поисковик, когда он прогонитдорки на 100% я останавливаю парсинг (всегда нажимайте Cansel иначе не сохранятся результаты парсинга). К этому времени у вас должно быть 10k+ ссылок. Масштабируйте этот процесс, используйте несколько дедиков.
Пожалуйста,
Вход
или
Регистрация
для просмотра содержимого URL-адресов!
3. Проверка сайтов на наличие уязвимости
Когда парсинг закончился, у вас в папке с дампером, в папке TXT появился файл с ссылками URL List (их можно объединять, например если вы парсили на нескольких дедиках). Переходим во вторую вкладку Exploitables, выставляем не больше 30 потоков, иначе будут пропуски и жмем Start Exploiter. Начнется проверка URL'ов на наличие уязвимости. Пройдет какое-то время и процесс закончится, его нужно довести до конца, иногда бывают глюки, что чек ссылок прошел, но все ровно висит 1-2 ссылки в процессе, это можно принудительно остановить.
Пожалуйста,
Вход
или
Регистрация
для просмотра содержимого URL-адресов!
4. Взлом уязвимых сайтов
Как предыдущий процесс закончился, переходим во вкладку Injectables, выставляем не больше 30 потоков, иначе будут пропуски и жмем Start Exploiter. Начнется взлом сайтов.
Пожалуйста,
Вход
или
Регистрация
для просмотра содержимого URL-адресов!
5. Поиск по БД
Когда у нас есть база со взломаными сайтами, начинаем искать нужную нам информацию по базам данных. Во вкладкеInjectables внизу есть 4 поля, куда мы можем прописать ключевые слова для поиска. Для поиска мыла нужно прописать mail password pass pw, пароль нужно указывать в нескольких вариациях, т.к. некоторые сайты сокращают его. Галочка Current DB должна быть снята, поиск должен происходить по Columns, а не в коем случае не по Tables.
Жмем ПКМ по какому-нибудь урту и выбираем Select All и жмем кнопку Start для запуска поиска по всем БД из списка.
6. Слив базы данных сайта
Когда у вас будет список сайтов с имеющимися ключами, нужно отсортировать список от большего к меньшиму, для этого выставляем значение 1k в поле Min.Rows и жмем ОК.
Пожалуйста,
Вход
или
Регистрация
для просмотра содержимого URL-адресов!
Нужно искать строки, где будут совпадения в одной БД, например по ключу mail есть строка содержащаа 20219 записей, по ключу pass есть строка содержащая 20219 записей.
Пожалуйста,
Вход
или
Регистрация
для просмотра содержимого URL-адресов!
Таким образом находим строки, где есть mail и password. Выделяем эту строку, вверху нажимаем Go to dumper - New dumper. Откроется окно, где отображается база данных и ее таблицы. Нужно найти найти ту строку, где было совпадение, выделить ее и нажать Get Columns. Откроются колонки таблицы, выделите галочками mail pass колонки. Нужно изменить настройки: Retry Limi - 50, поставить галочку Threads и выставить 5-10 потоков. Нажать Dump Data и начнется слив базы.
Пожалуйста,
Вход
или
Регистрация
для просмотра содержимого URL-адресов!
Большие базы лучше сливать с помощью sql map, он довольно легок в использовании и в сети есть куча мануалов, не вижу смысла расписывать, как им пользоваться, все довольно просто и понятно, это консольная утилита, но у нее есть GUI оболочки. Вот подробный faq по одной из них SqlMap GUI
7. Расшифровка хешей
Есть множество способов, но я предпочитаю юзать Hash Finder Client, это клиент для сервиса Hash Finder Софт привязывается к ключу, ключ можно получить бесплатно у этого человека
Пожалуйста,
Вход
или
Регистрация
для просмотра содержимого URL-адресов!
Он есть на разных форумах со своим топиком, как минимум он есть на ввх и бхф. Софт простой, сложностей не возникнет, вставил базу и нажал старт, все!Пожалуйста,
Вход
или
Регистрация
для просмотра содержимого URL-адресов!
8. Что еще можно найти в базе данных сайта
Помимо мыльников, можно найти кучу интересных вещей, например данные кредитных карт, если шоп хранит эти данные у себя на сервере, то их можно найти в таблицах с ордерами (order), full info(dob,ssn) это данные на какого-то человека - ФИО, dob, адргес, страна, zip, эти данные популярны у людей, которые делают самореги pay pal. Можно получить login и pass админа сайта, залить туда shell и продать доступ к shell'у.
Что можно поискать:
mail;pass;password;pw - поиск email;pass баз
cvv;ccnum;cc_num;payment;billing;order - поиск кредитных карт
ssn;dob;birth - поиск full info
admin - поиск учетной записи админа
Это не все, что можно найти, включайте фантазию...
Весь необходимый софт -
Пожалуйста,
Вход
или
Регистрация
для просмотра содержимого URL-адресов!
© интернет
Последнее редактирование модератором: