Hjælp til Wget
Hej alle,
Jeg skal bruge lidt hjælp til wget. Jeg har en fil hvor jeg har gemt en masse url's som jeg gerne vil downloade med wget. Jeg skriver så:
wget -c -i fil
wget begynder så at download alle url's fra start til slut, men kun 1 ad gangen. Hvis jeg nu gerne vil have wget til begynde og download f.eks. 3 url's på en gang, hvad gør jeg så? Er der nogen der har en idé til at gøre det smart?
Jeg skal bruge lidt hjælp til wget. Jeg har en fil hvor jeg har gemt en masse url's som jeg gerne vil downloade med wget. Jeg skriver så:
wget -c -i fil
wget begynder så at download alle url's fra start til slut, men kun 1 ad gangen. Hvis jeg nu gerne vil have wget til begynde og download f.eks. 3 url's på en gang, hvad gør jeg så? Er der nogen der har en idé til at gøre det smart?
Kommentarer9
Re: Hjælp til Wget
Re: Hjælp til Wget
Problemet er at wget ikke ved at der allerede er en wget process i gang med at downloade den pågældende fil.
Prøv med :
background =
background = on/off
Enable/disable going to backgroundthe same as `-b' (which enables it)
altså "-b"
Re: Hjælp til Wget
Prøv at kigge på httrack i stedet.
Re: Hjælp til Wget
Du kalder den med din url fil som parameter.
#!/bin/bash
max=3
for url in `cat $1`; do
echo "wget $url"
wget -b -c -o/dev/null $url > /dev/null
while [ `pgrep wget | wc -l` -ge $max ]; do
sleep 1;
done
done
#5
Det virker perfekt! Mange
Det virker perfekt! Mange tak det var lige det jeg var ude efter. Jeg har for øvrigt fundet et andet program, der hedder PUF = Parallel URL fetcher. Det minder meget om wget, men kan altså som standard downloade flere filer på én gang.
FTP?
Re: Hjælp til Wget
PUF, ikke wget