«Wget --domains» не помогает .. что я делаю не так? [закрыто]

Я пытаюсь использовать wget для рекурсивного захвата только файлов .jpg с определенного веб-сайта с целью создания забавной заставки для себя. Не такая высокая цель на самом деле.

Проблема заключается в том, что изображения размещены в другом месте (mfrost.typepad.com), а не в основном домене веб-сайта (www.cuteoverload.com).

Я пытался использовать «-D» для указания разрешенных доменов, но, к сожалению, милые jpgs не поступили. Как я мог изменить строку ниже, чтобы заставить это работать?

wget -r -l2 -np -w1 -D www.cuteoverload.com,mfrost.typepad.com -A.jpg -R.html.php.gif www.cuteoverload.com/

Спасибо.

11 wget
10.12.2008 08:43:39
-np/ --no-parentи -D/ --domainsмне показалось, что он не работает, у меня был 1.12установлен wget , после установки 1.16та же команда wget вернула другой результат, ограничение доменов работает. Моя полная команда включила эти дополнительные опции: -m -E -k -np.
adrianTNT 28.10.2015 12:03:19
В моем случае требуется также -erobots = off. Файлы, которые я хотел скачать, были исключены для роботов.
Daneel S. Yaitskov 6.02.2016 12:42:55
Используйте httrack.com , параметры wget плохие, если вы хотите добавить контент, размещенный на других доменах и связанный только с просматриваемым сайтом.
watbywbarif 21.06.2019 14:21:08
1 ОТВЕТ
РЕШЕНИЕ

Изучение справочной страницы wget [1] говорит об этом:

Установите домены, которым нужно следовать. domain-list - список доменов, разделенных запятыми. Обратите внимание, что он не включается -H.

Этот совет о -H выглядит интересно:

Включите охват хостов при выполнении рекурсивного извлечения.

Поэтому вам нужно просто добавить флаг -H к вашему вызову.

(Сделав это, похоже, что все изображения ограничены mfrost.typepad.com/cute_overload/images/2008/12/07 и mfrost.typepad.com/cute_overload/images/2008/12/08 ).

- [1] Хотя основное справочное руководство wget представлено в информационном формате.

11
10.12.2008 09:01:25