Приятная новость для тех, кто ещё не успел купить софт.
Я решил пересмотреть ценовую политику, так как последние 3 месяца приток новых клиентов был не значительным, это сильно затормаживает дальнейшую разработку.
Вместо 200$ софт теперь стоит всего 125$.
Так же существует lite версия, в которой отключены все парсеры, её стоимость - 75$.
Понижение цены не значит, что дальнейшая разработка софта завершена, в августе вас ждёт ещё один большой апдейт и возможно очередное повышение цены.

Ещё в 2009 году у Google появилось мобильное приложение goggles, оно позволяет распознавать текстовую информацию на изображениях. Кроме как на мобильных телефонах этой функцией воспользоваться нельзя, поэтому гугл очень усложнил протокол обмена между телефоном и их сервисом, чтобы не дать другим воспользоваться таким полезным функционалом . Сегодня я расскажу как можно использовать этот сервис в своих целях.
Читать далее...
Совсем недавно гугл открыл сервис поиска подходящих картинок, до появления этого сервиса многие seo специалисты делали кучу почти теоретических заявлений о том, как можно получить уникальную картинку.
Сейчас же есть отличная возможность сразу проверить свой уникализатор в бою. Мне стало интересно насколько сложно обмануть гугловский поиск, я не стал заморачиваться с выдумыванием алгоритмов, а просто решил применить стандартные фильтры из библиотеки для работы с изображениями pil.
В качестве исходной картинки я взял всеми любимого Matt Cutts .
Читать далее...
06.26Сила Xpath
Недавно мне потребовалось спарсить сайты на движке dle. Почти на всех сайтах запись лежит в div c id='news-id-число'. Регулярные выражения здесь не очень подойдут, т.к откуда контент начинается мы знаем, а вот где заканчивается нет. Внутри много вложенных тэгов, поэтом спарсить всё от <div> до </div> не подойдёт, нужно будет считать кол-во открытых и кол-во закрытых дивов внутри. Тут нам и придёт на помощь Xpath, который с легкостью позволяет осуществлять навигацию по DOM.
import lxml.html doc = lxml.html.document_fromstring(data) id = 1 content = doc.xpath('//*[@id="news-id-%s"]'%(id)) # получаем всё что внутри этого div title = doc.find(".//title").text # Тайтл # получаем title text = lxml.html.tostring(content[0],pretty_print=True)
Сам путь XPath можно получить с помощью плагинов для firefox, например с помощью Firebug.
04.18R-dorgen: ftp
Сегодня я хочу рассказать о ftp заливщике в R-dorgen, на который многие новые и текущие клиенты не обращают внимания.
Данный заливщик является самым функциональным на рынке доргенов предоставляемым из коробки.
Всего есть 3 типа работы с ftp. Рассмотрим каждый подробней.
- Обычная заливка.
Обычная заливка на самом деле не такая обычная, как может показаться
В этом режиме поддерживается многопоточный режим заливки, который позволяет одновременно загружать файлы с нескольких соединений, это в разы увеличивает скорость заливки.
Так же в этом режиме поддерживается работа с прокси, каждое соединение может работать с отдельным ip или каждый новый дорвей с нового ip, что позволяет обойти баны фрихостингов.
Допустимые виды прокси: socks4, socks5, http. - Заливка архивами.
Перед заливкой на ftp все файлы предварительно архивируются, это позволяет уменьшить размер и кол-во передаваемых команд на ftp сервер. Архивы могут быть разбиты на части, если на ftp сервере есть ограничение по размеру файла.
После заливки всех файлов на сервере исполняется php скрипт, который в свою очередь распаковывает файлы.
В этом режиме важно чтобы на сервере был php. - Генерация проекта для FileZilla.
Для пользователей привыкшим к fz или по каким то причинам не хотящим использовать 2 предыдущих способа заливки есть генератор проектов для FileZilla.
P.S.
Напоминаю, что текущая цена на R-dorgen составляет $200.
На nulled стартовала оффициальная складчина, вы можете сэкономить $50, если успейте записать на покупку 10 лицензий.
http://www.nulled.cc/showthread.php?t=168754&page=2
Потребовалось быстро получить ссылку на посты и их тайлы. Не стал искать готовых решений, а просто набросал небольшой Sql запрос.
Данный запрос актуален для ЧПУ /%year%/%postname%/.
SELECT CONCAT('[url=', CONCAT_WS( '/', 'http://klipner.ru', EXTRACT( YEAR FROM `post_date` ) , `post_name` ) ,']', `post_title`,'[/URL]') FROM `wp_posts` WHERE `post_type` = 'post' AND `post_status` = 'publish'
Этот код достаточно закинуть в раздел экспорта в phpmyadmin и указать CSV формат, на выходе получите текстовую информацию.
На выходе получаем:
[url=http://klipner.ru/2008/post]Post name[/URL]