Wie ganze Website inkl. aller Unterseiten speichern?

Es ist discutabel illegal, Daten automatisiert herunterzuladen von einer Web, die nicht zur öffentlichen Verbreitung dort gedacht waren. Der Crawler lädt ALLES herunter. Einfach nur frei von Prädispositionen den Artikel durchlesen.
Beitrag automatisch zusammengeführt:

Übrigens - auch zu den Personenbezogenen Daten steht dort, dass es technisch gesehen legal ist, die Sachen runterzuladen (falls frei zugänglich). Nur keine gute Idee. Hier liegt aber der Fehler bei dem Websitebetreiber, da die Daten nicht ungesichert abgelegt werden dürfen.
Das Herunterladen schon. Das Speichern bei dir von personenbezogenen Daten ist illegal. Davon ist meine Rede von der ersten Minute an.
 
Wie stellst du fest, dass es nicht zum Download gedacht war, wenn es downloadbar ist?
 
Das Herunterladen schon. Das Speichern bei dir von personenbezogenen Daten ist illegal.
Aus deiner Quelle:

Nehmen wir zum Beispiel an, ein Webhoster macht „versehentlich“ seine Benutzerdaten öffentlich zugänglich. (...)

Auch wenn es technisch gesehen legal wäre, diese Daten abzugreifen, ist es wahrscheinlich nicht die beste Idee. Nur weil Daten öffentlich sind, heißt das nicht unbedingt, dass der Webhoster dem Scrapen zugestimmt hat, selbst wenn er sie durch mangelnde Vorsicht öffentlich gemacht hat.

Andere Quelle:

Kernaussage: Ist legal, solange keine Sperren überwunden werden. Und um was anderes geht es hier nicht.


Davon ist meine Rede von der ersten Minute an.
Nein. Du hast bisher ausschließlich mit Urheberrecht argumentiert:

die ohne Zweifel auch ein Urheberrecht beinhaltet, ohne Genehmigung auf seine HD zu replizieren. Nur so mal.

Bereits schon in der bloßen Anordnung der einzelnen Seiten könnte eine Urheberrechtsleistung begründet sein,

Bei "das könnten personenbezogene Daten sein" geht es definitiv nicht ums Urheberrecht. Real sollte man - wenn man über die hier genannten Methoden plötzlich personenbezogene Daten auf der HDD hat, eher hingehen & wahlweise den Websitebetreiber informieren - oder den Datenschutzbeauftragen. Dann ist der Websitebetreiber in GROßEN Schwierigkeiten. Wenn einem die Daten auffallen, sollte man sie aber - nach der Meldung an die zuständigen Behörden/den betreiber - auch vernichten.

Hier ist sogar ein Beispiel, wo bewusst auf Personenbezogene Daten zugegriffen wurde & diese heruntergeladen wurden. Dort wurde ein Verfahren wegen Hacking etc. eingestellt - weil man Daten nicht hacken kann, die öffentlich abrufbar sind:
 
Wie stellst du fest, dass es nicht zum Download gedacht war, wenn es downloadbar ist?
"Downloadbar" ist jeder Webseiten-Inhalt, nämlich in den temporären Speicher. Das war ja vor ca. 12 Jahren Inhalt von Diskussionen über die sog. Abmahnanwälte, die so versuchten, angeblich illegale Downloads z.B. von Porno-Seiten (Suche nach "abmahnung pornhub") durch streamen zu einem lukrativen Geschäft auszubauen.

Technisch kann man durch entsprechenden Code auf der Webseite im Browser z.B. den Dialog bei Rechtsklick sperren und damit ist der Wille des Seitenbetreibers erkennbar, dass dieser Inhalt nicht gezielt zum herunterladen gedacht ist. In solchen Fällen sollte man nicht versuchen, diese Sperre zu umgehen.
 
Aber ohne JavaScript funktioniert das nicht, und JS abschalten ist wohl keine Straftat, oder?
 
Das Internetarchiv, das von allen möglichen Webseiten Schnappschüsse erstellt und diese veröffentlicht, dürfte die gesamte Diskussion hier müßig erscheinen lassen. Glaubt denn ernsthaft jemand, dass sich noch keine findigen Abmahn-Abzocker gefunden haben, die Internetarchiv versucht haben stillzulegen? Doch, die hat es gegeben. Ergebnis: Die Organisation macht weiter wie bisher.
 
Aber ohne JavaScript funktioniert das nicht, und JS abschalten ist wohl keine Straftat, oder?
Da auf vielen Webseiten inzwischen zahlreiche Java-Skript Schalteraktionen implementiert sind, sind diese Links eh "tot", sobald Java-Skript deaktiviert ist. Auch bleibt zu prüfen, inwieweit die oben genannten Tools solchen Links überhaupt folgen können.

Das Internetarchiv, das von allen möglichen Webseiten Schnappschüsse erstellt und diese veröffentlicht, dürfte die gesamte Diskussion hier müßig erscheinen lassen.
Weiß ich nicht. Auch hier besteht das Problem, dass Java-Schalter-Aktionen oft bei archive.org ins leere führen oder auf die ursprüngliche Webseite, die oftmals mit 404 antwortet, weil die Seite umgestaltet oder entfernt wurde. Das habe ich schon recht häufig auf archivierten Lenovo-Seiten bei der Suche nach Dokumenten erlebt. So wird nicht jede Seite archiviert.
Abgesehen davon kann man Crawler durch eine entsprechend konfigurierte robots.txt blockieren.
 
Das Internetarchiv, das von allen möglichen Webseiten Schnappschüsse erstellt und diese veröffentlicht,
Das wird durchaus regelmäßig angegriffen, Beispiel:
 
Das Internetarchiv, das von allen möglichen Webseiten Schnappschüsse erstellt und diese veröffentlicht, dürfte die gesamte Diskussion hier müßig erscheinen lassen. Glaubt denn ernsthaft jemand, dass sich noch keine findigen Abmahn-Abzocker gefunden haben, die Internetarchiv versucht haben stillzulegen? Doch, die hat es gegeben. Ergebnis: Die Organisation macht weiter wie bisher.
Es geht um ganze Websites, nicht einzelne Webseiten.
 
Hier möchte sich jemand für den Hausgebrauch eine urherberrechtlich komplett unbedenkliche Privatkopie von einer kleinen Webpräsenz machen, vielleicht ist das auch ohne größere Textgewitter legalistischer Bedenkenträgerei machbar...
 
Du kannst auch alle Seiten selber durchnavigieren und dann im Netzwerk Tab eine HAR Datei herunterladen, glaube das müsste auch gehen.
 
  • ok1.de
  • ok2.de
  • thinkstore24.de
  • Preiswerte-IT - Gebrauchte Lenovo Notebooks kaufen

Werbung

Zurück
Oben