Написано RedDragon на 23 Декабрь 2013 - 22:50
Написано RedDragon на 23 Декабрь 2013 - 22:45
Написано RedDragon на 15 Декабрь 2013 - 16:29
Протеин влияет на сами знаете что , так что сами решайте...
Написано RedDragon на 10 Декабрь 2013 - 20:01
Написано RedDragon на 09 Декабрь 2013 - 23:16
Xenu Link Sleuth - проверенная временем и многими SEO специалистами программа. Просто незаменима при осуществлении поиска по сайту ошибок, неправильных путей, битых ссылок, скриптов и прочее. Сама утилита имеет легкий и удобный интерфейс. Функционал программы позволяет выводить отчеты в формате реального времени. К приятным особенностям программы можно отнести умение создавать карту сайта, поддержку прокси серверов. Работает с такими популярными форматами файлов как txt и csv, а также осуществляет поиск по FTP.
Написано RedDragon на 09 Декабрь 2013 - 21:47
Программа «Netpeak Spider» — уникальный инструмент, предназначенный для сканирования и анализа сайта с помощью собственного робота.
Netpeak Spider предназначен для сканирования сайтов и выгрузки основных SEO-параметров страниц с помощью собственного робота. В программе имеется уникальная возможность расчёта внутреннего PageRank и PageRank без учёта сквозных ссылок, а также экспорта полученных результатов в Excel.
Гибкие настройки сканирования позволяют включать/отключать:
- учёт параметризованных и якорных ссылок, изображений и js-файлов;
- использование файла robots.txt при сканировании;
- добавление в таблицу страниц на поддоменах сканируемого сайта.
Список параметров страниц, анализируемых программой «Netpeak Spider»:
URL – адрес страницы.
Глубина – уровень расположения страницы относительно главной.
LinkCanonical – определяется наличие атрибута rel="canonical" и на какой адрес он указывает.
Ответ – код состояния HTTP в ответе сервера (200 OK, 301 Moved Permanently, 302 Moved Temporarily, 404 Not Found, 503 Service Unavailable и т.д.).
Title – тег "title", расположенный в контейнере "head", который определяет заголовок документа.
Description – содержание мета-тега, отвечающего за краткое описание содержимого веб-страницы.
Keywords – содержание мета-тега, отвечающего за ключевые слова, встречаемые на веб-странице.
robots.txt – определяется, разрешена (allowed) или запрещена (disallowed) индексация страницы поисковыми системами в файле robots.txt.
MetaRobots – определяется наличие мета-тега "robots", а также разрешена (index) или запрещена (noindex) индексация страницы поисковыми системами и разрешён (follow) или запрещён (nofollow) переход по ссылкам на данной странице с его помощью.
Редиректы – количество перенаправлений со страницы.
Заголовки (H1) – количество заголовков первого уровня.
Ссылки с этой страницы – количество исходящих ссылок с данной страницы в пределах всего сайта.
Ссылки на эту страницу – количество входящих ссылок на данную страницу в пределах всего сайта.
Внутренние ссылки – количество ссылок с данной страницы на сканируемый сайт.
Внешние ссылки – количество ссылок с данной страницы на другие сайты.
PR – расчёт внутреннего показателя PageRank текущей страницы.
PR (без сквозных ссылок) – расчёт внутреннего показателя PageRank без учёта сквозных ссылок, которые встречаются более чем на 50% страниц сканируемого сайта.
Дубли по Title – определяются группы страниц с дублирующимся тегом "title".
Дубли по Description – определяются группы страниц с дублирующимся мета-тегом "description".
Дубли по Keywords – определяются группы страниц с дублирующимся мета-тегом "keywords".
Написано RedDragon на 09 Декабрь 2013 - 21:27
Филин (от англ. FillIn — заполнять) — универсальный комплекс для рассылки новостей в массы. Существуют другие программы для подобных задач, однако Филин выделяется среди них благодаря следующим особенностям...
В основном программа нацелена на сайты, построенные на движках:
Важно
Если при запуске программы в авторизации отказано с ошибкой отсутствия связи с Интернетом, необходимо добавить в файл "Windows > System32 > drivers > etc > hosts" следующие строки:
5.9.136.68 fillin.org.ua
5.9.136.68 item.org.ua
5.9.136.68 1news.org.ua
5.9.136.68 dbox.org.ua
5.9.136.68 vlink.org.ua
Написано RedDragon на 09 Декабрь 2013 - 20:18
Selka – еще один бесплатный парсер поисковой выдачи Яндекса, Google, Yahoo и Bing.
Для начала работы необходимо добавить ключевые слова, по которым будем парсить выдачу. Ключевые слова можно добавить вручную или импортировать из .txt.
Далее необходимо выбрать и настроить поисковые системы. Можно одновременно парсить как одну ПС так и несколько. Можно настроить домен ПС, язык, регион, ТОП -50 (100, 200, 300, 500, 1000).
Жмем «Запустить проект сейчас» и ожидаем завершения работы программы. Ждать долго не придется, парсер работает очень быстро. О завершении парсинга Вас известит звуковой сигнал. На выходе Вы получаете данные по каждой поисковой системе: запрос, домен, url. По двойному клику по url Вы перейдете на сайт в браузере по-умолчанию. Результаты парсинга можно сохранить в .xls и .csv формат.
Некоторые возможности программы:
- поддержка антикапчи
- возможность настроить задержку между запросами для каждой поисковой системы
отдельно
- поддержка прокси
- возможность настроить метод поиска для Яндекса, Google и Bing (прямой поиск, с использованием API)
-многопоточность
- возможность разрешить или запретить дублирование доменов
Одним словом в полку качественных бесплатных парсеров прибыло.
Написано RedDragon на 09 Декабрь 2013 - 20:14
Butterfly 3.2
В версии 3.2:
Описание основных изменений
ссылка
Написано RedDragon на 09 Декабрь 2013 - 20:04
Всем привет. Вот рабочий парсер YAKA
Напишу подробную инструкцию по использованию для тех кто летает в облаках
1. Открываем сайт http://awmproxy.com/.../freeproxy.php и вводим капчу
2. Копируем первые 100 прокси
3. Идем на сайт http://hideme.ru/proxy-checker/ , вставляем наш прокси лист и жмем кнопку "Начать проверку"
4. Получившийся список копируем, идем в папку с парсером и вставляем прокси в файл "proxy.txt"
5. Открываем нашу программу. Интерфейс позволит запутаться только если вы пьяны.
6. Открываем яндекс каталог. Выбираем понравившуюся категорию.
Я выбрал "Формула 1" http://yaca.yandex.r....ing/Formula_1/
Копируем часть ссылки, которая стоит после yaca.yandex.ru/yca/cat/
В моем случае это Sports/Auto_Racing/Formula_1/
7. Вставляем в нашу программу то, что скопировали
8. Клацаем ВОТ ЭТУ кнопку
9. Ждем..........
10. Без комментариев
11. Идем в папку с нашим парсером и забираем список сайтов в файле "sites.txt"
12. Перед следующим парсингом файл удаляем.
Собственно и всё =)))
Скачать программу можно по
Написано RedDragon на 06 Декабрь 2013 - 21:36
1) база состоит из 318 трастовых сайтов.
2) Сайты не требуют обратных ссылок.
3) Все сайты проверены на отсутствие запрета индексации ссылок (noindex и nofollow).
4) Ссылки размещаются бесплатно.
5) Все сайты проверены на отсутствие запрета (robots.txt).
6) Возможность поставить на некоторых сайтах анкорную ссылку.
7) YACA: 184
8) DMOZ: 138
9) Минимальное тИЦ: 20
10) Максимальное тИЦ: 2900
11) Суммарный тИЦ: 99775
12) Все ресурсы с открытой регистрацией.
ссылка :
Зарегистрируйся моментально!