Suche Spider/Crawler

nickless

New member
Themenstarter
Registriert
9 Dez. 2008
Beiträge
324
Hi,

könnt ihr einen Crawler empfehlen, am Besten Freeware, mit dem es möglich ist z.B. ein kleines Wiki komplett zu saugen und offline verfügbar zu machen?

Vielen Dank
 
Moin,

ich benutz dafür immer HTTrack. Hab allerdings schon lange nimmer nach Alternativen gekuckt. Vielleicht gibts ja mittlerweile wieder was besseres. Aber probier den doch einfach mal aus.

Gruß
Jürgen
 
Für 'normale' Seite funktioniert das super, aber leider nicht für z.B. das Thinkpad-wiki.org.
Eingestellt hab ich als user-client einen Mozilla und de Robots.txt sollte auch ignoriert werden.
 
Wenn Du mit wget & co nicht weiterkommst und es eine einmalige Sache ist könntest Du mal schauen ob die Demoversion des OfflineExplorers irgendie in der Funktionalität eingeschränkt ist, der schafft eigentlich alles.
 
Ich wusste garnicht, dass es wget schon für Win gibt ;)

Der OfflineExplorer scheint super zu sein, funktioniert alles problemlos :)

Dank Euch für die Hilfe!
 
[quote='nickless',index.php?page=Thread&postID=517984#post517984]Ich wusste garnicht, dass es wget schon für Win gibt ;)[/quote]
Die c't verwendet es u.a. auch für dieses c't update-Projekt, mit dem man sich selbst Offline-Update DVDs machen kann für Windows+Office.

G.
 
  • ok1.de
  • ok2.de
  • thinkstore24.de
  • Preiswerte-IT - Gebrauchte Lenovo Notebooks kaufen

Werbung

Zurück
Oben