Files van site zuigen.... (how to)

vbimport

#1

B.t.w. wie is hier een expert met het leechen van site's? Welke programma's zuigen 't best en welke zijn 't meest agressief?

Ik heb een bijzonder interessante site gevonden boordevol met top files, maarja per download moet je vier handelingen verrichten (+pop-up's) en het zijn zo'n 20.000 files.... :wink: (ik wil ze allemaal.. heheh) Geintje natuurlijk, maar 't er wel veel...

Getright enzo vindt alleen maar HTML files, gek genoeg zijn die wel dezelfde grote als de files die ik wil downloaden. Nou dacht ik easy, gewoon ff extensie renamen.... (maar~helaas..... :frowning: )


#2

Ga naar www.download.com (die site ken je vast wel;)) en download daar het programma Teleport pro.

Je kunt hiermee sites compleet downoaden, of alleen bepaalde extensies etc etc.
Ook is het mogelijk om de directory-diepte te specificeren, net zoals de link-diepte.

Een erg mooi en vooral snel programma…!


#3

Ik ben nu met Black Widow aan 't kloten… Maar de directory struktuur is echt maf van deze site, hij bakt er echt totaal niks van… De links naar pagina’s zijn volgens mij voorzien van een script, er staat dan b.v. iets als: “main/?id=46238&query_id=2639981&page=6” Volgens mij is Teleport ongeveer gelijk aan Black widow, maar ik vind niet eens links…?!?:confused: :confused:

Maar ik zal je advies eens proberen! :stuck_out_tongue:


#4

Mmm…, ik ben er bijna uit… Ik heb nu:
http://www.blabla.com/main/download.phtml?id=500

Nu nog een manier om deze url op te nummeren van 500 to 15000, vervolgens opslaan als asci file (per 1000 url’s) en in Getright importeren…

nu mijn volgende vraag: Hoe genereer zo’n lijst? (zal wel weer excel zijn… Maar daar ben ik geen held in…)
:stuck_out_tongue:

Edit:

heheh, sorry! laat maar… is stand optie van black widow! :stuck_out_tongue:


#5

Ik leech iedere dag met offline explorer.
Persoonlijk vindt ik deze echt het beste.

Templates aan te maken.
Kan met behoorlijk wat threads downloaden en is zeer stabiel.