0,0
рейтинг
10 марта 2010 в 19:20

Администрирование → Парсим RSS LostFilm'a с помощью grep и передаем на закачку через wget tutorial

RSS
Однажды мне надоело вручную просматривать LostFilm на наличие новых вышедших серий и я решил автоматизировать этот процесс. Дело в том, что многие BitTorrent клиенты имеют в своих настройках так называемые папки слежения (wach directory). Как только в этой папке появляется новый torrent файл BitTorrent клиент сразу же начинает его загрузку. Обычной практикой, к примеру, является создание такой папки и открытие к ней доступа на запись по FTP. Теперь, все что нам требуется, это автоматизировать скачивание torrent файла по выходу нового эпизода в указанную папку для их дальнейшей автоматической загрузки. Как сделать именно это я сейчас и покажу.

Для справки, папки слежения в Transmission задаются опциями (watch-dir-enabled и watch-dir), а в rTorrent для этого нужно добавить следующую строку в конфигурационный файл:
schedule = watch_directory,5,5,load_start=./watch/*.torrent

Пункт первый

Итак, прежде всего нам нужно получить RSS ленту с LostFilm'a. Для этого воспользуемся командой wget:

wget -qO - http://www.lostfilm.tv/rssdd.xml

здесь: опция "-q" указывает wget не выводить информацию о своей работе, т.е. "быть тихой";
"-O -" заставляет выводить загруженную ленту не в файл, а в поток стандартного вывода. Это сделано для того, чтобы полученные данные можно было передать по конвейеру на вход фильтра grep.

Пункт второй

Теперь нам нужно из полученной ленты выбрать все ссылки на torrent файлы. Для этого мы зададим grep искать подстроки по следующему регулярному выражению: 'http.*torrent'. Тут символ точки обозначает «любой символ» а звездочка — «повторение любое число раз». Т.е. мы найдем все записи начинающиеся с «http» и заканчивающиеся на «torrent» что и будет являться ссылками на torrent файлы. Сама команда выглядит так:

grep -ioe 'http.*torrent'

где "-i" — регистронезависимый поиск,
"-o" — выбирать только совпавшую часть подстроки (сделано для фильтрации тегов что окружают ссылку),
"-e" — поиск по регулярному выражению

Пункт третий

После того, как мы нашли все ссылки на торрент файлы нам нужно выбрать только те, что интересны нам. К примеру мне, нравятся сериалы Lost, House M.D, Lie to me и Spartacus. На их примере я и покажу как производить фильтрацию. Все ссылки на торрент файлы в RSS ленте LostFilm имеют вид:

http://lostfilm.tv/download.php/2030/The.Oscars.The.Red.Carpet.2010.rus.LostFilm.TV.torrent

Таким образом, чтобы выделить названия интересующих меня сериалов я воспользовался следующим регулярным выражением: '[0-9]{4}/(lost|house|lie|spartacus)'. Оно выполняет поиск 4х цифр подряд ("[0-9]{4}", где в фигурных скобочках задано число повторений), вслед за ними символ слеша, и после этого один из четырех вариантов по названию сериала ("(lost|house|lie|spartacus)", где символ "|" читается как ИЛИ). Но, для команды grep служебные символы нужно экранировать с помощью "\". Итого, мы имеем:

grep -ie '[0-9]\{4\}/\(lost\|house\|lie\|spartacus\)'

Пункт четвертый

Теперь у нас на выходе остались только ссылки на torrent файлы интересующих нас сериалов. Теперь нам осталось их загрузить в папку слежения нашего торрент клиента. Но, дело в том, что без авторизации LostFilm не даст скачать файлы. Чтобы можно было скачать файлы нужно вместе с GET запросом передать cookies со сведениями об авторизации. К счастью, команда wget умеет загружать cookies из указанного файла. Посмотрим на вызов wget:

wget -nc -qi - -P ~/.config/watch_dir --load-cookies=~/.config/cookies.txt

где опция "-nc" указывает команде не перезагружать файлы если они уже есть у нас на диске,
"-q" — рассмотренная выше опция, указывает команде "вести себя тихо",
"-i -" — получить список файлов для загрузки со стандартного потока ввода,
"-P ~/.config/watch_dir" — указание нашей папки слежения куда будет произведена загрузка файлов,
"--load-cookies=~/.config/cookies.txt" — использовать cookies из указанного файла.

при этом файл с cookies имеет следующий формат:

.lostfilm.tv TRUE / FALSE 2147483643 pass <ваши данные>
.lostfilm.tv TRUE / FALSE 2147483643 uid <ваши данные>


Обращаю внимание на то, что ни пароль ни uid не не передаются в открытом виде! Их значения можно увидеть открыв окошко просмотра cookies в вашем браузере или же, к примеру, воспользоваться плагином для FireFox для экспорта всех cookies в файл который и следует передать wget'у.

Пункт последний

и теперь все вместе:

wget -qO - http://www.lostfilm.tv/rssdd.xml | grep -ioe 'http.*torrent' | grep -ie '[0-9]\{4\}/\(lost\|house\|lie\|spartacus\)' | wget -nc -qi - -P ~/.config/watch_dir --load-cookies=~/.config/cookies.txt

Пункт финальный :)

Ну и теперь, для окончательной автоматизации, пропишем все это в cron:

*/15 * * * * wget -qO - http://www.lostfilm.tv/rssdd.xml | grep -ioe 'http.*torrent' | grep -ie '[0-9]\{4\}/\(lost\|house\|lie\|spartacus\)' | wget -nc -qi - -P ~/.config/watch_dir --load-cookies=~/.config/cookies.txt > /dev/null 2>&1

где "> /dev/null 2>&1" подавляет вывод команды и тем самым не заставляет cron генерировать вам email с выводом команд.

UPD. Добавил продолжение статьи где рассматривается вопрос с RSS лентами, не имеющими прямых ссылок на torrent файлы.

UPD2. В комментариях справедливо заметили что в данной реализации обращение к серверу происходит каждый раз даже если новых данных на нем и не появилось.

Так, хаброчеловек Nebulosa предложил в своем комментарии «проверку на существования файлов, чтобы wget не дергал каждый раз сервер»,

а Guria, в то же время, рекомендует «дабы не парсить и не грузить одно и тоже, да и сервер почём зря не дёргать следует записывать значение заголовка Last-Modified и передавать его в заголовке If-Modified-Since. Также сервер может поддерживать ETag.»

UPD3. Если возникают трудности с передачей cookies то можно воспользоваться еще одним способом. Для этого следует заменить вызов последней команды wget в конвейере на такой:

wget -nc -qi - -P ~/ --header "Cookie: uid=***; pass=***"
Лабинский Николай @Labinskiy
карма
124,0
рейтинг 0,0
Реклама помогает поддерживать и развивать наши сервисы

Подробнее
Реклама

Самое читаемое Администрирование

Комментарии (75)

  • +5
    спрашивайте, критикуйте… :)
    • +3
      все просто и понятно. спасибо. прикручу на свой медиасервер.
      p.s. когда же мне мой сервак пиво и тапочки уже будет подавать? =)
    • 0
      Супер, понравилось больше всего то что это простой скрипт. Не нужно побочного софта, ака флексгет, про которого я где-то месяц назад писал статейку habrahabr.ru/blogs/linux/83367/
      Только единственный минус как быть с двойными релизами??

      А кстати кто упоминал rtorrent + wtorren… Чисто для справки вы побывали через тот фид тянуть с закрытых ресурсов ??
      • –1
        >Только единственный минус как быть с двойными релизами??
        что вы имеете ввиду?
        • 0
          например две одинаковые раздачи он разве не будет тянуть ??
          • 0
            Можно задать более жесткое регулярное выражение чтобы отсеять ненужные раздачи.
            Или я не правильно понял вопрос?
    • +1
      Уровень квалификаций читателей хабра очень разный.
      Я, например, так и не понял, куда писать этот grep.
      Это для Linux?
      • 0
        Понял по тэгам.
    • +1
      критикую:
      дабы не парсить и не грузить одно и тоже, да и сервер почём зря не дёргать следует записывать значение заголовка Last-Modified и передавать его в заголовке If-Modified-Since
      Также сервер может поддерживать ETag.
      См. к примеру: fishbowl.pastiche.org/2002/10/21/http_conditional_get_for_rss_hackers/
      • 0
        проверь лостфильмовский рсс:
        1. Если новых записей не было — сервер выдаёт 304 Not Modified
        2. Иначе — полную ленту РСС.
        Некоторые ленты поддерживающие ЕТаги могут возвращать только новые записи в ленте, но это не наш случай.
        $ wget -vS www.lostfilm.tv/rssdd.xml
        --2010-03-12 01:47:02-- www.lostfilm.tv/rssdd.xml
        Преобразование адреса www.lostfilm.tv... 81.29.134.150
        Устанавливается соединение с www.lostfilm.tv|81.29.134.150|:80... соединились.
        Запрос HTTP послан, ожидание ответа...
        HTTP/1.1 200 OK
        Server: nginx
        Date: Thu, 11 Mar 2010 21:46:57 GMT
        Content-Type: text/xml
        Content-Length: 17139
        Last-Modified: Thu, 11 Mar 2010 18:16:28 GMT
        Connection: keep-alive
        Keep-Alive: timeout=15
        Accept-Ranges: bytes
        Длина: 17139 (17K) [text/xml]
        Saving to: «rssdd.xml»

        100%[=================================================>] 17 139 89,4K/s в 0,2s

        2010-03-12 01:47:02 (89,4 KB/s) - «rssdd.xml» saved [17139/17139]

        $ wget -vS --header="If-Modified-Since: Thu, 11 Mar 2010 18:16:28 GMT" www.lostfilm.tv/rssdd.xml
        --2010-03-12 01:47:11-- www.lostfilm.tv/rssdd.xml
        Преобразование адреса www.lostfilm.tv... 81.29.134.150
        Устанавливается соединение с www.lostfilm.tv|81.29.134.150|:80... соединились.
        Запрос HTTP послан, ожидание ответа...
        HTTP/1.1 304 Not Modified
        Server: nginx
        Date: Thu, 11 Mar 2010 21:47:08 GMT
        Last-Modified: Thu, 11 Mar 2010 18:16:28 GMT
        Connection: keep-alive
        Keep-Alive: timeout=15
        2010-03-12 01:47:12 ОШИБКА 304: Not Modified.
        • +1
          Спасибо за идею! Единственный момент, что где-то нужно будет хранить эту дату с которой будем сравнивать — или делать демона или лог вести…
          Отлично дополняет мой комент habrahabr.ru/blogs/p2p/87042/#comment_2609116
          • 0
            Добавил оба предложения в топик
    • 0
      А я себе для того, чтобы отслеживать и качать обновления сериалов на торрентс.ру, сделал скриптик для гризманки… userscripts.org/scripts/show/68387. Формирую список торрентов, которые периодически обновляются (сериалы обычно выкладывают методом добавления в существующую раздачу), ну и один раз в день ткнуть на ссылочку — проверить весь список на предмет обновления мне не сложно.
  • +2
    В качестве альтернативы приведу flexget ( habrahabr.ru/blogs/linux/83367/ ). Флексгет, например, ведет базу данных и не качает уже скачанные торренты, которые удаляет мой делюж после успешного добавления в список закачиваемых. Здесь как я понял торрент файл будет перекачан если он был удален с диска?

    з.ы. За статью спасибо. :)
    • +1
      >В качестве альтернативы приведу flexget
      да, пользовался, знаю. но самоцелью было разобраться с grep и сделать все самому :)

      >Здесь как я понял торрент файл будет перекачан если он был удален с диска?
      Да, именно так. Но я только что специально провел эксперимент: удалил файл из папки слежения и снова его добавил. Transmission при этом не стал заново стартовать загрузку или даже выполнять проверку хеша файлов.
    • 0
      на здоровье ;)
    • +1
      FlexGet удобная и достаточно мощная штука. Сам использую. Так как я не давно начал настраивать сервак-торренто-качалку-фтп-самба-сервер под линем и опыта немного, то стараюсь выбирать наиболее простые варианты )
  • +1
    Отлично! То, что нужно, чтобы полностью облениться ;)
  • +4
    Кстати, если интересно, могу написать статью про настройку медисервера на базе Debin. Имею ввиду LVM для удобной разметки винтов, Samba, сборка последних версий Transmission и/или rTorrent из исходников, подключение веб интерфейсов к последнему, ну и автоматизация закачек… Хотя про это только что уже написал :)
    • НЛО прилетело и опубликовало эту надпись здесь
      • +1
        Пожалуйста ;)

        А статью постараюсь написать. Хоть на хабре уже и мелькали подобные темы, но освещали они лишь ту или иную часть. Хотелось бы объединить и собрать все вместе.
  • +1
    Эх, поднял бы кто вопрос, как автоматизировать закачки из RSS лент не содержащих в себе прямых ссылок на .torrent файлы.
    • +1
      >RSS лент не содержащих в себе прямых ссылок на .torrent файлы
      Например? Думаю, этот вопрос тоже решаемый. Хотя нужно разбирать каждый конкретный случай.
      • 0
        Например почти любой другой российский трекер, название которого не Лостфильм и не Новафильм. В RSS ленте которую вы берете с этих ресурсов, уже содержится в новости ссылка на .torrent файл. В 99% случаев остальных трекеров, RSS нам отдает лишь ссылку на тему, которая уже и содержит нужный нам .torrent
        На некоторых трекерах очень хочется автоматизировать процесс скачивания, но пока не нахожу как. Пробовал создавать нужный RSS с помощью pipes.yahoo, не получилось.
        • +1
          К сожалению догадаться какой именно трекер вы имеете ввиду не могу, поэтому покажу на примере самого популярного. Для генерации RSS можно воспользоваться следующим конструктором:
          xpoft.ru/rutracker.org/generator/
          после генерации выбираете «Ссылка на ленту для интеграции в torrent-клиенты»
          и аналогичным образом закачиваете файлы с помощью wget (не забываем передать cookies) и grep. Но, после этого на выходе получаем хоть и торрент файлы, но в имени не содержащие ".torrent". После чего командой find находим наши файлы без расширения и переименовываем. После переименования торрент клиент их подхватывает из папки слежения.
          • 0
            Все хорошо, но это не более чем частный случай костыля для самого популярного трекера. Названия не говорил, чтоб за рекламу не приняли(ну к примеру мне рутрекер вовсе не интересен, т.к. не является первоисточником релизов, и пока их там выложат придется изрядно подождать, взять к примеру bigfangroup или kinozal). А хочется способа, который бы можно было применить и в других направлениях.
            • +2
              Только что зарегистрировался на кинозале и посмотрел на их RSS ленту. Действительно интересный случай. Если в общих чертах, то я вижу решение в виде шелл скрипта с таким алгоритмом:

              1) из RSS ленты grep'ом фильтруем интересующие нас ссылки. они будут иметь такой вид:
              http://kinozal.tv/details.php?id=546387

              2) после этого циклом проходим по всем отобранным ссылкам и загружаем их wget'ом тут же передая по конвейеру на grep

              3) в grep на переданной страничке выбираем ссылку на торрент флай. ссылка имеет вид
              http://kinozal.tv/download.php/546387/Badfinger-Collection.1969-2001.FLAC.CUE.Lossless.torrent

              как видно по ссылке, он содержит тот же айди что и в RSS ленте что заметно облегчает поиск

              4) закачиваем torrent файл

              5) переход к следующей отобранной строке из rss ленты
              • 0
                Я тут на досуге набросал команду для кинозала по описанному выше алгоритму, вот что получилось:

                for i in `curl -s http://kinozal.tv/rss.xml | grep -iA 2 'MP3' | grep -ioe 'http.*[0-9]'`; do curl -sb "uid=***; pass=***; countrys=ua" $i | grep -ioe 'download.*\.torrent' | head -1; done

                на выходе получается список относительных ссылок на загрузку торрент файлов с кинозала. После этого их лишь остается удобно передать на вход wget задав параметр --base=URL", где вместо URL задается любой нужный домен/префикс.

                Из особенностей хочется отметить опцию "-A 2" у grep'a. Дело в том что только по адресу ссылки из RSS ленты узнать название раздачи невозможно, поэтому поиск идет по описанию, а на выход передаются еще и следующие две строки за описанием, где и расположена сама ссылка. Ну а следующим по конвейеру grep'ом из потока отфильтровываются только нужные нам ссылки. И еще один момент, в теме что описывает раздачу на кинозале ссылка на торрент файл встречается два раза, с помощью "head -1" мы оставляем только первую из них

                Почему curl? А не знаю, наверно потому, что просто захотелось разобраться и в нем :)
    • 0
      Вопрос парсинга таких лент вылился в новый пост:
      labinskiy.habrahabr.ru/blog/87166/
  • 0
    завтра поэксперементирую, а то только подручными средствами на php умею
  • 0
    Как альтернативу можно uTorrent запустить под wine… не комильфо но все же.
    • +1
      Вся соль теряется.
  • +1
    Спасибо, вроде ничего революционного, но очень доходчиво и хорошо разъяснено. Ну и плюс самому подобное все время лень сделать, а тут готовый четкий рецепт.
  • 0
    Перенес в Peer-to-Peer
  • НЛО прилетело и опубликовало эту надпись здесь
    • 0
      Спасибо за ссылку, раньше не находил.
      А если по теме, то хотелось сделать все самому и по пути набраться опыта знаний. В результате не только сам понял и разобрался, но и рассказал другим «как» ;)
      • НЛО прилетело и опубликовало эту надпись здесь
  • +1
    Вот вам и сила командной строки в Linux. Каждая команда делает свое дело.

    Описание параметров к командам порадовало. На базе этого можно без проблем сделать другие подобные «следилки».
  • НЛО прилетело и опубликовало эту надпись здесь
    • 0
      Настройка rTorrent + wtorrent это тема отдельной статьи, там не все так прозрачно на первый взгляд. Хотя пользовался, знаю. Но, лично мне, для rTorrent'a куда больше нравится веб интерфейс rutorrent
  • +2
    Написал ровно такой же скрипт год назад или больше :)

    #!/bin/bash

    ua=«Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.9.2a1pre) Gecko/20090302 Minefield/3.2a1pre»

    cd /home/nebulosa/torrents

    #LostFilm.tv
    lfrss=«httр://lostfilm.tv/rssdd.xml»
    lfshows="(Star.Wars|Heroes|Seeker)"
    lfcookie=«Cookie: uid=***; pass=***; phpbb2mysql_data=***»
    lfurl=$(wget -t1 --connect-timeout=1 -q $lfrss -O- | tac | egrep -o «http://[^ ]+\.torrent» | egrep $lfshows)

    for k in $lfurl
    do
    if [! -e new/$(basename $k) ]
    then
    wget -q --referer="$lfrss" --user-agent="$ua" --no-cookies --header="$lfcookie" $k
    mv -t new $(basename $k)
    fi
    done

    Логика работы немножко помягче для сервера Лостфильма… Был момент когда lostfilm был перегружен, поэтому чтобы не порождать новые коннекты прописал опции у wget опции -t1 --connect-timeout=1 и проверку на существования файлов, чтобы wget не дергал каждый раз сервер.
    Когда торрентов накопится больше чем 30 штук или когда сервер будет загружен — оцените эти ухищрения :)
    • 0
      Спасибо за комментарий, идея с проверкой существования файлов хороша!

      з.ы. а символ точки вот тут lfshows="(Star.Wars|Heroes|Seeker)" воспримется именно как точка или как «любой символ»?
      • 0
        Конечно же «любой символ», но ложных срабатываний пока не было, потому экранить лень
    • 0
      что то я попробовал, а получил:
      egrep: Неверное регулярное выражение
  • 0
    а еще можно поставить rutorrent+плагин rss
    меньше велосипедов и больше функционала
  • 0
    а я что то никак не совладаю со скриптом, не пойму что не так
    wget -qO — www.lostfilm.tv/rssdd.xml | grep -ioe 'http.*torrent' | grep -ie '[0-9]\{4\}/\(house\|heroes\|star.wars\)' | wget -nc -qi — -P /home/share/torrent/torrent_auto_load --load-cookies=/home/share/torrent/cookies.txt
    в итоге получаю пустой торрент :(
    • 0
      Скорее всего у вас ошибка в cookies.txt
      • 0
        ну я тоже к этому склоняюсь, но там ошибаться вродь особо негде
        .lostfilm.tv TRUE / FALSE 2147483643 pass пароль
        .lostfilm.tv TRUE / FALSE 2147483643 uid логин
        как в инструкции
        • 0
          Логин и пароль задаются не в явном виде. Откройте в своем браузере просмотр cookies и скопируйте от туда значения ;)
          • 0
            наверное тогда это стоит как то пометить в самой статье, для таких как я :)
            • 0
              Пометил ;)
          • 0
            А если лень заморачиваться, то, к примеру, для FireFox есть специальный плагин которые экспортирует cookies в файл, который можно сразу же передать wget'у.
            • 0
              да нет, попробовал занести корректные данные из кукисов браузера, на общую картину это так и не повлияло, всё-равно пустой торрент
              • 0
                Старый файл перед этим удалили? Возможно из-за этого wget не стал его перезагружать.
                • 0
                  удалял
                  • 0
                    Только что запустил у себя:

                    wget -qO - http://www.lostfilm.tv/rssdd.xml | grep -ioe 'http.*torrent' | grep -ie '[0-9]\{4\}/\(house\|heroes\|star.wars\)' | wget -nc -qi - -P ~/ --load-cookies=cookies.txt

                    закачало торрент файл Хауса.

                    Еще раз перепроверьте команду и cookies. Возможно при копировании/вставке что-то потерялось
                    • 0
                      не, пустой файл хоть ты тресни :(
                      • 0
                        а если передавать cookies не из файла, напрямую через зголовок GET запроса:
                        wget -nc -qi - -P ~/ --header "Cookie: uid=***; pass=***"
                        ?
                        • 0
                          вот так другое дело, всё работает
                          странно, путь до файла был указан верно, права выдал максимальные, файл по шаблону… мистика :(
                        • 0
                          забыл самое главное — спасибо за помощь! :)
                          • 0
                            Да не за что ;)
                        • 0
                          у меня и так не работает… пустой файлик создаеться…
                          • 0
                            Покажите вашу команду полностью
                            • 0
                              wget -qO — www.lostfilm.tv/rssdd.xml | grep -ioe 'http.*torrent' | grep -ie '[0-9]\{4\}/\(lost\|house\)' | wget -nc -qi — -P /usr/local/www/apache22/data/bt/downloads/.torrents/ --load-cookies=/usr/local/www/parser/cookies.txt

                              # cat /usr/local/www/parser/cookies.txt
                              .lostfilm.tv TRUE / FALSE 2147483643 pass blablabla
                              .lostfilm.tv TRUE / FALSE 2147483643 uid iru

                              • 0
                                Логин и пароль не передаются в открытом виде. В качестве uid выступает набор цифр, а в качестве пароля длинная строка вида «6b2e4f7f...».

                                Переписать эти значения можно из окошка просмотра cookies в браузере или, к примеру, воспользоваться плагином к FireFox.
                                • 0
                                  # cat /usr/local/www/parser/cookies.txt
                                  .lostfilm.tv TRUE / FALSE 2147483643 pass 1326b7…
                                  .lostfilm.tv TRUE / FALSE 2147483643 uid 903094
                                  # wget -qO — www.lostfilm.tv/rssdd.xml | grep -ioe 'http.*torrent' | grep -ie '[0-9]\{4\}/\(lost\|house\)' | wget -nc -qi — -P /usr/local/www/apache22/data/bt/downloads/.torrents/ --load-cookies=/usr/local/www/parser/cookies.txt
                                  # ll | grep root
                                  -rw-r--r-- 1 root www 0 Mar 13 18:13 Lost.s06e07.rus.PROPER.LostFilm.TV.torrent
                                  всеравно пустой фаил
                                  • 0
                                    хм… Попробуйте перед запуском команды вначале удалить пустой файл. Еще можно попробовать вариант передачей cookies не из файла, а напрямую через зголовок GET запроса:
                                    wget -nc -qi - -P ~/ --header "Cookie: uid=***; pass=***"
  • +1
    А если комп был выключен и в рсс накопилось несколько новых серий разных сериалов, то будет ли этот скрипт скачивать все по очереди или скачает только первое что найдет? Если так то я бы отдавал все что он напарсит в файлик и потом качал бы торренты с ключиком -I urls.txt, ну и наверное бы удалял этот файлик после отработки скрипта, также было бы интересно иметь лог скачки, который например отправлялся бы на почту, чтобы сидя на работе сразу видеть что я сегодня вечером смогу посмотреть дома.
    • 0
      >А если комп был выключен и в рсс накопилось несколько новых серий разных сериалов, то будет ли этот скрипт скачивать все по очереди или скачает только первое что найдет?
      Будет загружено все новое.

      >также было бы интересно иметь лог скачки, который например отправлялся бы на почту
      Уже думаю над реализацией ;)
      • 0
        кстати, если интересно, можно замутить один большой скрипт, который будет определять сайт, генерить куки, оповещать о cкаченном и т.д, меня просто эта тема заинтересовала, в каком-нибудь гуглокоде замутить проект и поковырять вместе, если интересно пиши на bezgubov@gmail.com
      • 0
        Будет загружено только то новое что все еще останется в rss-ленте.
        А что-то может уже и выпасть за нее(там 5 сериалов, каждый из которых в 3 качествах, итого = 15 записей).
        Как только выложили шестой сериал, самый старый из ленты вылетает. И так можно пропустить.
        Жаль, что это не решается никак кроме запуска на отдельной машине, которая будет вечно поднята.
        И да, я видел дату :)
  • 0
    Вот более простое решение: skurudo.livejournal.com/375464.html
  • 0
    Вот сделал полностью рабочий в данный момент времени вариант:
    http://mihavxc.ru/files/script/lostflv_torrent_gets.bat

Только зарегистрированные пользователи могут оставлять комментарии. Войдите, пожалуйста.