Перепробовал все предложенные варианты варианты - заработал только один:
for i in `seq 1 100`; do wget -E "http://example.org/index?page=$i"; done
Спасибо, erera22.> Покажите ls -l /bin/bash.
root@Debian:~# ls -l /bin/bash
-rwxr-xr-x 1 root root 941252 Сен 25 23:46 /bin/bash
Месторасположение бинарника Баша проверил с самого начала - на месте.
Загрузил около 10к страниц, и понял что это не дело, ибо 1к страниц загружается около 11 минут, что очень долго, с учетом того что мне нужно слить не много не мало около миллиона страниц с сопутствующим контентом в виде картинок, стилей и скриптов.
Делать было нечего - заюзал форточный Offline Explorer, он умеет одновременно загружать до 500 страниц, правда вылетает из-за недостатка памяти, если загружать больше 200к страниц за раз, но это уже совсем другая история.
Тем не менее мне все-же любопытно из-за чего возникла данная проблема, и как её вылечить.
> И ваще, для выкачивания порнофоток есть расширения для браузеров.
Да ну! Разве это по нашему, юзать плагины для закачки порнухи, если есть консоль? Только юниксвей, только хардкор!
А если серьезно - порнофотки можно и с торрентов большими паками выкачать, в моем-же случае нужно очень оперативно слить нужную инфу с сервера, который завтра закрывается. Так сказать мини Вейбак машина для личных целей.