Thread über die Notwendigkeit von Antiviren Software und Betriebssystemen

In jüngerer Zeit wird von echten und eingebildeten Experten der Nutzen von Virenscannern gerne angezweifelt. Sicherlich ist da was dran und die Wirksamkeit hat sich verschlechtert bzw. die Malware wurde erheblich raffinierter. Nun meinen viele, die Kohlenstoffeinheit zwischen ThinkPad und Stuhllehne könne den Schutz selbst besser gewährleisten. Das hat im tatsächlichen Schadensfall, z.B. Onlinebanking, aber einen grossen Haken: deine Bank legt dir das Fehlen eines Virenscanners als grobe Fahrlässigkeit aus und weigert sich für den Schaden aufzukommen. Genauso sieht die Rechtslage in der Unternehmens-IT aus.

Und wer wirklich meint, er könne es 24x7 besser als ein Virenscanner: fahrt ihr auch ohne Sicherheitsgurt Auto, weil ihr meint, immer "alles im Griff" zu haben?

Wenn Euch der Virenscanner stört, dann seid konsequent und wechselt das System.

EDITH: sorry, hab nicht aufgepasst. Wir sind ja hier im OS X Unterforum. Meine Einlassungen bezogen sich auf Windows, bei OS X bin ich hinsichtlich iViren nicht auf dem aktuellen Stand.

@gestern: wenn man keine Ahnung hat, dann kommt einem in der Tat alles gleich vor.
 
Zuletzt bearbeitet:
@DTM:

Du willst doch nicht allen Ernstes behaupten, dass die Rechtevergabe/Nutzerverwaltung bei Windows übersichtlich ist? Den Dschungel an Richtlinien durchblickt doch der durchschnittliche Anwender - egal, ob im Heimbereich oder im Kleinbetrieb - schon lange nicht mehr. Bei Linux (und anderen unixoiden OS) gibt es drei Attribute und drei Gruppen - fertig. Der grundlegende Unterschied liegt darin, dass Unix und die darauf aufbauenden Systeme von Anbeginn an als Mehrbenutzer-Systeme konzipiert wurden - zu einer Zeit, als sich noch kein Mensch vorstellen konnte, dass diese Thematik irgendwann einmal im Privathaushalt oder Kleinunternehmen Bedeutung gewinnen könnte. Windows war von Anbeginn an als Einzelplatzsystem gedacht - alles Drumherum ist nachträglich aufgepfropft worden, und zwar halbwegs ernsthaft erst mit Windows NT. Da aber Microsoft alles gern und teils wohl auch getriebenermaßen möglichst einfach gestaltet für den EDV-Dummie, wird bei allen Standardinstallationen - wie Du richtig festgestellt hast - immer noch das primäre Benutzerkonto mit Admin-Rechten angelegt. Das ist für Schadsoftware jeglicher Art ein Einfallstor sondergleichen. Bei den unixoiden geht das nicht.

"Sehr leicht ändern" lässt sich das Gefrickel mit den verschiedenen Konten und Rechten bei Windows für den EDV-Dummie auch nicht: Dadurch, das nämlich mittlerweile mit jeder Version fast schon im Jahres-Rhythmus auch jedesmal neue grafische Konzeptionen in den Desktops Einzug halten, muss der User praktisch bei jeder neuen Version erst einmal schauen, wo er was findet. Das ging mit dem Übergang XP/Vista los. Die Anwender sind es leid, mit jeder neuen Variante einen komplett neuen Desktop vorzufinden und sich dort erst einmal mühsam einarbeiten zu müssen. Deshalb veweigern ja auch viele die ständigen Umstiege (vor allem im kommerziellen Umfeld). Und wer neu vom Discounter einen PC bekommt mit vorinstalliertem Windows, hat auch erst einmal andere Sorgen, als sich um die Anlage eines neuen Adminstrator-Kontos zu kümmern. Da fehlen dann u.U. für den alten Drucker, Scanner oder das alte MFP Treiber. Ebenfalls ein Problem, bei dem speziell Linux mittlerweile Windows haushoch überlegen ist, denn hier habe ich für die meisten Komponenten ootb Module im System vorhanden - selbst oft für solche Geräte, bei denen die Hersteller mauern mit der Herausgabe technischer Spezifikationen. Versuch doch mal, z.B. einen alten LaserJet 4 unter Windows 10 zum Laufen zu bringen - viel Spaß! Unter Linux kein Problem.

Thema Nachbesserung: Selbstverständlich wird bei freier Software schneller nachgebessert - das geht teilweise innerhalb von Stunden. Proprietäre Software bietet nun einmal von Haus aus nicht die Möglichkeit für Dritte und damit viele Augen, den Quellcode einzusehen und auf mögliche Schwachstellen hinzuweisen. Auch ist die Veränderung des Codes und damit die Ausmerzung von Schwachstellen durch freie Programmierer so nur bei freier Software gegeben. Außerdem: Den Microsoft-Bulletins wie auch Bulletins anderer Hersteller proprietärer Software misstraue ich grundsätzlich, denn dort wird doch nur gemeldet, was opportun ist. Hintertüren in Windows für die NSA oder den GCHQ wird Microsoft wohl kaum publizieren...

Thema Virenbefall: Du hast völlig Recht mit der Aussage, dass sich Schadsoftware meist über die Nachlässigkeit oder Unwissenheit der Anwender (auch vieler Admins!) auf den Systemen einschleicht. Nur: Wenn der EDV-Dummie nicht ein vorkonfiguriertes System mit Admin-Rechten für das Userkonto beim Media Markt oder Saturn bekommen hätte, dann hätte sich in vielen Fällen schon nicht mehr so viel Schadsoftware einnisten können. Im konkreten Fall bei mir war vom vorherigen Admin zwar ein gesondertes Konto vorhanden und das Userkonto eingeschränkt, jedoch fehlerhaft konfiguriert. Zudem waren die MS Essentials installiert, von denen Microsoft selbst wegen ihrer grottenschlechten Wirksameit abgeraten hatte, und die haben eben den Trojaner Cridex nicht erkannt und durchgelassen - mit verheerenden Folgen für das Bankkonto. Leider kann man Microsoft nicht für solche schlampige Wartung der eigenen Anti-Virensoftware belangen und in Haftung nehmen. Dann wären solche Firmen gezwungen, ordentlich zu arbeiten.

Thema "walled garden": Aus softwareseitigen - und nur dort! - Sicherheitsgründen sicher ein gangbarer Weg. Aber erstens wird dadurch keinerlei Manipulationen an der Hardware vorgebeugt (z.B. Firmware, BIOS u.s.w.), und zweitens wird der Anwender komplett entmündigt. Drittens bestimmt der Softwarehersteller, welche Software er im App-Store einpflegt oder nicht. Da sind wir dann ganz schnell bei einer modernen Cyber-Diktatur, bei dem eine Handvoll multinationaler Konzerne, eng verbandelt mit der Politik, macht, was sie will und den User steuert. Mal von möglichen Überwachungsmechanismen in der proprietären Software ganz abgesehen.

@linrunner:

+1! Exakt so ist es. Und nicht nur das Fehlen eines Scanners, sondern auch ein nicht ganz aktueller Scanner wird als grobe Fahrlässigkeit ausgelegt! Meine Kunden haben keinen Cent gesehen.

Und jetzt dürfen wir noch raten, wo die System-Wechsler dann landen?:thumbsup:


Gruß
enrico65
 
Zuletzt bearbeitet:
Das hat im tatsächlichen Schadensfall, z.B. Onlinebanking, aber einen grossen Haken: deine Bank legt dir das Fehlen eines Virenscanners als grobe Fahrlässigkeit aus und weigert sich für den Schaden aufzukommen. Genauso sieht die Rechtslage in der Unternehmens-IT aus.
Wie handhaben Banken das denn dann z.B. bei Leuten, die lediglich iPhone und/oder iPad besitzen, wo schlichtweg kein Virenscanner existiert? Oder gelten diese Geräte per se als "sicher", was sie schon alleine aufgrund Apples langsamer Reaktion auf Sicherheitslücken einfach nicht sind?

Um meinen Online-Banking-Zugang mache ich mir ehrlich gesagt wenig Sorgen, wenn es um die Sicherheit meiner IT geht - smsTAN ist ja als Zwei-Wege-Prinzip durchaus sicher und auf meinem Handy führe ich dementsprechend auch keine Transaktionen aus.
Wobei mittlerweile interessanterweise meine Bank selbst ihre Banking-App mit ihrer PushTAN-App integriert hat, sodass man bei einer Transaktion direkt hin- und herwechseln kann - da war mein letzter Stand noch, dass man Transaktion und TAN-Empfang nach den AGBs nicht auf dem selben Gerät durchführen darf...

Unternehmens-IT bzw. große Netzwerke in irgendwelchen Einrichtungen sind klar. Daher läuft auf meinem MBP vom Institut leider auch unter OS X Symantec Endpoint Protection, wodurch das schon etwas betagtere Gerät (Mid 2010) trotz SSD beim Zugriff auf große Mengen kleinerer Dateien extrem langsam ist und daher meist nur herumliegt. :D Dass ich dann einem Netbook mit Atom N270, wo ich die Wahl habe, nicht dieselbe Behandlung angedeihen lasse, ist ja wohl logisch... unter OS X ist das Risiko einfach signifikant geringer als unter Windows, auch wenn es mittlerweile - im Gegensatz zu vor 10 Jahren - durchaus exitiert.
 
Ich wäre davon ausgegangen, dass die Bank jegliche Verantwortung ablehnt sobald ein Virus/Problem/Fehler am PC des Nutzers vorliegt. Was hat die Bank denn mit meinem PC zu tun und warum sollte sie dafür aufkommen?
Das ein unwirksamer Schutz durchaus Sinn haben kann, wenn es um Haftung oder Verantwortlichkeiten geht, sehe ich aber ganz genauso.

Ansonsten halte ich vorgetäuschte Sicherheit für fatal und genau das passiert bei Antivirensoftware sehr leicht. Vielleicht habe ich mich da auch etwas unklar ausgedrückt. Ich benutze keinen Echtzeitschutz, das bedeutet nicht, dass ich mich solcher Tools nicht doch ab und an bediene. Eine Deinstallation der AV Software würde ich niemandem empfehlen, da muss jeder selber die Verantwortung tragen :D. Mein letzter Virus war jedenfalls Sampo und das ist schon ne Weile her.
 
Du willst doch nicht allen Ernstes behaupten, dass die Rechtevergabe/Nutzerverwaltung bei Windows übersichtlich ist? Den Dschungel an Richtlinien durchblickt doch der durchschnittliche Anwender - egal, ob im Heimbereich oder im Kleinbetrieb - schon lange nicht mehr. Bei Linux (und anderen unixoiden OS) gibt es drei Attribute und drei Gruppen - fertig.

Und du findest, dass Rechtevergabe über Oktalziffern irgendwie logisch und übersichtlich ist oder ein Normaluser mit neun rwx Ansammlungen in Reihe eher durchblickt? ;-)

Der grundlegende Unterschied liegt darin, dass Unix und die darauf aufbauenden Systeme von Anbeginn an als Mehrbenutzer-Systeme konzipiert wurden - zu einer Zeit, als sich noch kein Mensch vorstellen konnte, dass diese Thematik irgendwann einmal im Privathaushalt oder Kleinunternehmen Bedeutung gewinnen könnte. Windows war von Anbeginn an als Einzelplatzsystem gedacht - alles Drumherum ist nachträglich aufgepfropft worden, und zwar halbwegs ernsthaft erst mit Windows NT.

Stimmt, das war ja auch erst vor 20 Jahren. In so kurzer Zeit kann man das natürlich gar nicht sinnvoll implementieren. ;-)

Da aber Microsoft alles gern und teils wohl auch getriebenermaßen möglichst einfach gestaltet für den EDV-Dummie, wird bei allen Standardinstallationen - wie Du richtig festgestellt hast - immer noch das primäre Benutzerkonto mit Admin-Rechten angelegt. Das ist für Schadsoftware jeglicher Art ein Einfallstor sondergleichen. Bei den unixoiden geht das nicht.

Installiere ich ein aktuelles OS X, bin ich mit dem standardmäßig angelegten User administrativ tätig und auch bei z.B. Ubuntu ist mein User standardmäßig nach einer neuen Installation fähig, sudo zu nutzen. Was genau ist jetzt der Unterschied zu Windows?

"Sehr leicht ändern" lässt sich das Gefrickel mit den verschiedenen Konten und Rechten bei Windows für den EDV-Dummie auch nicht: Dadurch, das nämlich mittlerweile mit jeder Version fast schon im Jahres-Rhythmus auch jedesmal neue grafische Konzeptionen in den Desktops Einzug halten, muss der User praktisch bei jeder neuen Version erst einmal schauen, wo er was findet.

Quark. Grad der Desktop wurde immer nur sehr wenig angepasst und die Dialoge zur Rechtevergabe sehen standardmäßig noch so aus wie vor Jahren. Keinerlei Umgewöhnung notwendig. Und Gefrickel ist auch nicht notwendig. Man kann ganz einfach einrichten, was welcher User oder welche Gruppe darf und ob vererbt werden soll oder nicht.

Ebenfalls ein Problem, bei dem speziell Linux mittlerweile Windows haushoch überlegen ist, denn hier habe ich für die meisten Komponenten ootb Module im System vorhanden - selbst oft für solche Geräte, bei denen die Hersteller mauern mit der Herausgabe technischer Spezifikationen. Versuch doch mal, z.B. einen alten LaserJet 4 unter Windows 10 zum Laufen zu bringen - viel Spaß! Unter Linux kein Problem.

Dreht man die Sache um und nimmt aktuelle Hardware, sieht die Sache weiterhin anders aus. Und einen alten PCL-fähigen Drucker unter Windows 10 zu betreiben ist auch kein Problem. Der Unterschied ist, wenn Windows ein Gerät nicht kennt, lädt man die Treiber vom Hersteller und installiert sie per einfacher Setup-Routine. Läuft unter Linux ein Gerät nicht, steht der Normaluser vor einer Wand und schaut dumm aus der Wäsche.

Thema Nachbesserung: Selbstverständlich wird bei freier Software schneller nachgebessert - das geht teilweise innerhalb von Stunden. Proprietäre Software bietet nun einmal von Haus aus nicht die Möglichkeit für Dritte und damit viele Augen, den Quellcode einzusehen und auf mögliche Schwachstellen hinzuweisen.

Wie das in der Praxis aussieht, haben uns nicht nur die SSL oder bash Fehler in den letzten Monaten eindrucksvoll gezeigt.

Thema Virenbefall: Du hast völlig Recht mit der Aussage, dass sich Schadsoftware meist über die Nachlässigkeit oder Unwissenheit der Anwender (auch vieler Admins!) auf den Systemen einschleicht. Nur: Wenn der EDV-Dummie nicht ein vorkonfiguriertes System mit Admin-Rechten für das Userkonto beim Media Markt oder Saturn bekommen hätte, dann hätte sich in vielen Fällen schon nicht mehr so viel Schadsoftware einnisten können.

Was ja, um wieder etwas mehr zum Thema zu kommen, bei einem Mac mit OS X nicht anders gewesen wäre. Er bekommt ein System, auf dem er nahezu alles machen kann und damit kann man natürlich Unsinn anstellen.

Zudem waren die MS Essentials installiert, von denen Microsoft selbst wegen ihrer grottenschlechten Wirksameit abgeraten hatte, und die haben eben den Trojaner Cridex nicht erkannt und durchgelassen - mit verheerenden Folgen für das Bankkonto. Leider kann man Microsoft nicht für solche schlampige Wartung der eigenen Anti-Virensoftware belangen und in Haftung nehmen. Dann wären solche Firmen gezwungen, ordentlich zu arbeiten.

Weder rät Microsoft von den eigenen Sicherheitsprogrammen ab, noch sind diese im Vergleich grottenschlecht. Das Problem ist, dass bei brandneuer Malware alle Produkte auf dem Markt grottenschlecht abschneiden, was die Sache nicht besser macht. Nur ordentliche Arbeit würde die Sache nicht verbessern, das Problem ist prinzipbedingt.

Nachdem "Cridex" ausführbare Dateien per Mail verschickt, die ein User zuerst mal entpacken und starten muss, wäre das auch wieder rein gar nichts, was speziell auf Windows bezogen ist oder angebliche Windows Probleme ausnutzt. Ausgenutzt wird ausschließlich der User - und diese Ausnutzung könnte genauso passieren, wenn der User vor OS X oder Linux sitzt, solange er dort Programme ausführen kann.

Und jetzt dürfen wir noch raten, wo die System-Wechsler dann landen?:thumbsup:

Beim Mac. Und damit vom Regen in die Traufe, da die Gefährdung dort eher größer ist, da - wie im Thread hier ja schon öfter bemerkt wurde - die Leute immer noch der unsinnigen Ansicht sind, dass das System ja sicher sei und es keine Malware geben würde.
 
Daß ein Virenscanner überflüssig wäre, halte ich auch für einen vorschnellen Schluß. Man sollte sich aber darüber im Klaren sein, wie begrenzt der Handlungsspielraum eines Antivirenprogramms ist, und daß es kein Sicherheitsnetz ist ("ich hab ja einen Virenscanner, dann kann ich problemlos auf obskuren Seiten surfen und E-Mail-Anhänge öffnen"). Virenscanner können unter geeigneten Umständen gegen eine Untermenge einer gewissen Art von Schädlingen schützen. Aber mehr nicht.


@enrico65: ich erspare es uns jetzt, deine Einlassungen detailliert auseinanderzupflücken (das meiste wurde auch schon gesagt). Nur die paar Sachen hier:

enrico65 schrieb:
Der grundlegende Unterschied liegt darin, dass Unix und die darauf aufbauenden Systeme von Anbeginn an als Mehrbenutzer-Systeme konzipiert wurden - zu einer Zeit, als sich noch kein Mensch vorstellen konnte, dass diese Thematik irgendwann einmal im Privathaushalt oder Kleinunternehmen Bedeutung gewinnen könnte. Windows war von Anbeginn an als Einzelplatzsystem gedacht - alles Drumherum ist nachträglich aufgepfropft worden, und zwar halbwegs ernsthaft erst mit Windows NT.
Windows NT war von Anfang an als Mehrbenutzersystem ausgelegt. Und alle Versionen seit 2000/XP sind die Nachfahren von Windows NT und haben mit dem "alten" Windows keine technische Verwandtschaft mehr. Wie die meisten "konzeptionell überlegen"-Argumente ist auch dieses seit dem Ende der 90er hinfällig.

Es gibt schon ein paar Designprobleme in Windows, denen wir einen nennenswerten Teil der Patches zu verdanken haben. Beispielsweise hat der Systemkern einen ungesunden Anteil am Umgang mit Graphik und Schriftarten. Aber solche Probleme gibt es bei anderen Systemen genauso. (War es nicht sogar OS X, das sich durch die Anzeige einer geeigneten Zeichenfolge zum Absturz bringen ließ? Woran das wohl liegt?)


Das hier:
enrico65 schrieb:
Selbstverständlich wird bei freier Software schneller nachgebessert - das geht teilweise innerhalb von Stunden.
zeugt von einiger Realitätsferne. Natürlich kannst du eine Sicherheitslücke "mal eben schnell" beheben, wenn du die entsprechende Stelle im Code gefunden hast. Aber was, wenn du mehr als eine Zeile umbauen mußt? Wenn du die Semantik einer Funktion ändern mußt? Hast du die Test-Suite zur Hand, mit der du nachweisen kannst, daß deine Änderung in allen gängigen Systemkonfigurationen, in denen die fragliche Software eingesetzt wird, keine Probleme verursacht? Gibt es sowas überhaupt? Und wie lange dauert es, bis dein "innerhalb von Stunden"-Fix vom Maintainer angenommen, das Update vom Paket- bzw. Distributionsanbieter signiert und schließlich an alle gefährdeten Systeme ausgeliefert wird? Und installieren die Sysadmins wirklich öfter Updates als einmal im Monat? Müssen die Systeme für deine Änderung neugestartet werden (wie oft passiert das wohl bei Systemen, für die uptime extrem wichtig ist?), oder machst du dir die Mühe, einen Hotpatch zu bauen?

Im Vergleich mit den meisten anderen OS-Anbietern patcht Microsoft mit am schnellsten und am sorgfältigsten. Einige Monate lang häuften sich ja die Berichte, daß bei Windows-Updates irgendwas kaputtging und Microsoft nachbessern mußte (was mir eine mittlerweile überwundene Folge von Nadellas etwas abruptem Personalumbau zu sein schien). Setze die Zahl solcher Vorfälle mal mit der Gesamtzahl der Patches (Edit: und mit der Zahl der unterstützten Windowsversionen sowie der enormen Menge an verschiedenen Systemkonfigurationen in der freien Wildbahn) ins Verhältnis, und du siehst, wie gering die Problemrate ist. In jedem dieser Updates steckt neben der Behebung des eigentlichen Problems ein riesiger Testaufwand.


enrico65 schrieb:
Außerdem: Den Microsoft-Bulletins wie auch Bulletins anderer Hersteller proprietärer Software misstraue ich grundsätzlich, denn dort wird doch nur gemeldet, was opportun ist.
In den Bulletins steht auch drin, wer das Problem gemeldet hat. Das sind oft genug Penetration-Tester von konkurrierenden Firmen wie Google. Denkst du wirklich, daß die sich nicht äußern würden, wenn Microsoft Informationen über von ihnen aufgedeckte unliebsame Lücken unterschlüge?


enrico65 schrieb:
Thema "walled garden": Aus softwareseitigen - und nur dort! - Sicherheitsgründen sicher ein gangbarer Weg. Aber erstens wird dadurch keinerlei Manipulationen an der Hardware vorgebeugt (z.B. Firmware, BIOS u.s.w.), und zweitens wird der Anwender komplett entmündigt. Drittens bestimmt der Softwarehersteller, welche Software er im App-Store einpflegt oder nicht. Da sind wir dann ganz schnell bei einer modernen Cyber-Diktatur, bei dem eine Handvoll multinationaler Konzerne, eng verbandelt mit der Politik, macht, was sie will und den User steuert.
So ist das. Ich bin da ganz bei dir, finde diese Entwicklung fürchterlich und hoffe sehr, daß auch zukünftige Windowsversionen dem Benutzer noch die Kontrolle ermöglichen. Aber das ist eben die Richtung, in die sich die Industrie bewegt. Und wenn wir ehrlich sind, ist es für den (unmündigen) Durchschnittsbenutzer eine sehr gute Lösung, wie der Erfolg von iPhone/iPad gezeigt hat.
 
Zuletzt bearbeitet:
@der_ingo:

Thema "rwx": Die Unterscheidung rwx in jeweils drei Gruppen erscheint doch erheblich logischer und durchdachter zu sein als die Unterteilung in einen Schwarm von Richtlinien, von denen durchschnittliche Anwender häufig eben nicht wissen, was was bewirken könnte. Zweifellos ist ein Klick mit der Maus aber natürlich schneller gemacht und einfacher als eine kleine Rezeption der Rechtevergabe unter Linux. Mit Oktalziffern muss auch unter Linux bei der Rechtevergabe niemand mehr arbeiten. Wann hast Du Dich denn das letzte Mal ernsthaft mit Linux beschäftigt?

Thema "sudo": Unter Linux kann ich - wie es Ubuntu macht - administrative Aufgaben teilweise mit sudo abarbeiten. Nur muss ich dazu erstens berechtigt sein (zur Nutzung des Befehls sudo) und zweitens mein Passwort angeben. Habe ich kein sudo installiert, wie es bei manchen Distributionen der Fall ist, so geht auch das nicht. Dann muss ich als root diese Aufgaben ausführen und mich dazu mit dem Root-Passwort authentifizieren. So einfach mal schnell mit sudo ein paar Sachen machen, geht eben nicht. Unter Windows dagegen genügt ein Mausklick, und die Software wird installiert.

Thema "Desktop-Change": Ach so, und weil der Desktop sich kaum geändert hat, haben sich die User erst reihenweise beschwert beim Wechsel von XP zu W7 und dann schließlich das unsägliche Design von W8 ganz abgelehnt? Und weil alles immer Friede, Freude, Eierkuchen war, bieten professionelle Hardware-Hersteller nach wie vor ihren Kunden ein kostenloses Downgrade auf W7 an oder neuerdings W8.1, weil auch mit der Spyware W10 viele ach so zufrieden sind? Selbst der Marketing-Trick mit der Abkündigung von XP hat nicht gereicht, die Kunden auf eine neuere Version zu zwingen. In Deutschland sind zwar viele darauf hereingefallen, hier bei uns läuft allerdings fast überall noch XP, auch und vor allem bei den Banken, aber auch bei Tesco, Wilko, der Bahn und auch an den Flughäfen.

Thema "Hardware-Unterstützung" unter Linux: Auch hier liegst Du offenbar um Jahre zurück. Richtig ist, dass es für brandneue Hardware unter Linux häufig erst nach ein paar Monaten abgestimmte Module gibt, wenn diese von freien Entwicklern programmiert werden müssen. Viele Hersteller liefern jedoch bereits bei neuen Geräten auch passende Module (= Treiber) für Linux mit. Nur ein Beispiel: Ich habe mir vor einigen Wochen einen neuen Color LaserJet Pro M252dw gekauft. Das Gerät gibt es seit etwa einem halben Jahr. Treiberversorgung über das freie HPlip-Projekt problemlos vorhanden, und das bereits seit einer älteren Variante, also praktisch seit Erscheinen des Gerätes. Weiteres Beispiel: Versuch doch bitte mal, einen HP Spectre-All-in-one-PC, der etwa drei Jahre alt ist, unter W7 einsatzfähig zu machen. Geht nicht, weil es für viele Komponenten keine W7-Treiber gibt und das Gerät standardseitig mit W8 ausgestattet war. Und während ich unter Linux vor allem für ältere Geräte auch keine gesonderte CD benötige mit dem Treiber drauf oder im Netz einen solchen umständlich suchen und beziehen muss, habe ich hier mit Windows schon Probleme, wenn die CD verschludert ist oder die Unterstützung abgekündigt wurde. Damit hier nicht der Eindruck entsteht, das beträfe nur Hardware kleinerer Hersteller: Ältere IBM IntelliStations bekommt man unter W8 auch nicht mehr zum Laufen. IBM bietet da nichts mehr an. Bei W7 ist Schluss.

Thema "Microsoft Essentials": So, so, die Essentials taugen also etwas und Microsoft rät nicht davon ab? Na, dann schau doch mal hier:

http://www.welt.de/wirtschaft/webwe...z-von-Windows-8-reicht-alleine-nicht-aus.html

oder hier:

http://www.zdnet.de/88140136/schlec...ssentials-microsoft-bekrittelt-antivirentest/

oder hier:

https://blog.botfrei.de/2013/10/microsoft-raet-konkurrenz-produkten-mse-ist-lediglich-grundschutz/

Noch nicht einmal fünf Minuten Recherche im Netz, und der Sachverhalt ist geklärt. Im übrigen war der Trojaner Cridex, als das Malheur bei meiner Kundin passiert ist, bereits seit Monaten im Umlauf und entsprechend auch in den Medien bekannt. Die Schuld hier dem User anlasten zu wollen, halte ich zumindest in meinem Fall für vermessen: Die betroffene Kundin hatte fünf Vodafone-Verträge und hat ihre Rechnungen dafür stets per Mail mit PDF-Datei erhalten. Wie sollte eine 68-jährige einfache Nutzerin erkennen können, dass es sich hier um eine frisierte Mail handelt, zumal die Mail in fehlerfreiem Deutsch abgefasst war?

Gruß
enrico65
 
Thema "rwx": Die Unterscheidung rwx in jeweils drei Gruppen erscheint doch erheblich logischer und durchdachter zu sein als die Unterteilung in einen Schwarm von Richtlinien, von denen durchschnittliche Anwender häufig eben nicht wissen, was was bewirken könnte.
Ich muß sagen, daß ich den Eindruck habe, du hast deinerseits von der Rechteverwaltung unter Windows (und auch von der Richtlinienverwaltung, was etwas ganz anderes ist) keine Ahnung :)


Zu Cridex lese ich bei Symantec:
The threat is mainly distributed through emails with malicious attachments. It can also self-replicate by copying itself to mapped and removable drives.

The email usually includes a Microsoft Office attachment with malicious macros. The body of the email usually contains social engineering in an attempt to trick the user into opening the file.
Was meinst du, wie viele Warnungen muß man wohl wegklicken, um ein aktuelles Office zum Ausführen von Makros aus irgendwelchen Mail-Attachments zu bringen?


Trotzdem stimme ich natürlich zu: wenn das Ding schon länger im Umlauf ist, sollte es ein brauchbarer Virenscanner erkennen.
 
Ich arbeite schon seit ich denken kann auf allen Plattformen ohne Anti Viren Software. Nicht als Administrator arbeiten, alle Sicherheitsupdates installieren, ein aktueller Browser ohne Flash, dass ist meine erste Verteidigungslinie. Auf dem Rechner meiner Eltern, die ohnehin mit keiner Meldung einer AV Software was anfängen könnten, ist Windows mit einem strikten Whitelisting gesichert. Es kann nur freigegebene Software ausgeführt werden. Bisher auch alles ohne Probleme. Aber egal welche Sicherheitsstrategie man fährt, 100% sicher ist eh nichts.
 
@DTM:

Thema "Nutzen von Virenscannern": Grundsätzlich stimme ich Deiner Aussage zu, aber es macht schon einen Unterschied, ob ich sehr neue oder sich stetig verändernde Schadsoftware nicht erkenne oder bei uralten Klamotten keinen Alarm gebe. Und im Falle Cridex war es tatsächlich so, dass die forensisch ermittelte Variante auf der Festplatte meiner Kundin seit Monaten im Umlauf war und die Essentials es nicht erkannt haben. Insofern bleibt es dabei: Das war Schlamperei bei Microsoft. War ja kein Einzelfall, wie oben verlinkt.

Überarbeitung: Es geht um diesen Sachverhalt bei der Cridex-Attacke bei meiner Kundin:

http://www.com-magazin.de/news/sicherheit/cridex-banking-trojaner-breitet-234681.html

Die Mail war in fehlerfreiem Deutsch gehalten und somit nicht erkennbar für einen einfachen Anwender, dass hier ein Trojaner lauert. Lediglich an der vermeintlichen PDF-Datei hätte man das erkennen können. Aber das erkläre mal einer 68 Jahre alten einfachen Anwenderin. Es war übrigens kein MS-Office involviert. Die Kundin hatte gar kein MS-Office auf ihrem Rechner und musste daher auch nichts wegklicken.

Thema "Designprobleme bei Windows": Da gibt es eine ganze Reihe von "Designproblemen", die der Anwender auch bemerkt: Nimm doch einfach mal einen Video-Transcoder für einen Film, lass den unter einer neuen Windows-Version laufen und mache mal gleichzeitig was im Internet. Dann merkst Du gleich, wie miserabel das Multitasking bei Windows ist. Selbst auf Quad-Cores hakelt und ruckelt es. Mach das gleiche mal unter Linux oder - sofern Du einen Video-Transcoder dafür findest - unter der eCS oder Warp 4.5. Da läuft es flüssig. Die miserablen Dateisysteme einschl. NTFS wären ein anderes "Designproblem", das mir spontan einfällt.

Die Entwicklungsgeschichte von Windows mit seinen zwei Strängen mit W95/98 und NT3.x ist mir durchaus geläufig, auch die Frickelei mit 16 Bit-Teilen u.s.w. Dass Windows NT von Anbeginn an als vollwertiges Multiuser-System gedacht und konzipiert war, gehört aber ins Reich der Legenden. Ebenso ist festzuhalten, dass seinerzeit viele Technologien von IBM's OS/2 übernommen wurden - und auch OS/2 war keineswegs als Multiuser-System konzipiert. Das kam alles erst später.

Hier

http://www.nt.th-koeln.de/fachgebiete/inf/diplom/proc_sync/3/3.html

ein paar Zeilen dazu aus einer Diplomarbeit.

Thema "Fehlerbehebung": Es hat durchaus Patches gegeben bei freier Software, die innerhalb von Stunden bereit standen. Aber Du hast recht, wenn Du das als Ausnahmefall ansiehst. Das geht nur bei kleinen Projekten, bei denen der Entwickler überschaubaren Code hat, in der Materie drin ist, die Test-Suite vorhanden ist und der Programmierer sofort Zeit hat, der Sache auf den Grund zu gehen. Ich hatte selbst einmal einen Fall mit einem italienischen Entwickler, der mir den Patch einen halben Tag später zugeschickt hat. Große Probleme - wie der hier von der_ingo angesprochene SSL-Bug - benötigen natürlich deutlich länger. Dein Beispiel ausgerechnet mit Google ist jedoch problematisch: Hier hatte Microsoft ja nicht zeitgerecht gepatcht, und so hat Google die Zähne gezeigt. Also zumindest hat Microsoft die Sache zu verschleppen versucht. Ich meine diese Vorfälle hier:

http://www.heise.de/security/meldun...-fuer-Zero-Day-Luecke-in-Windows-2507565.html

und den hier:

http://www.heise.de/security/meldun...age-vor-dem-Patch-Microsoft-tobt-2516168.html

In jeweils drei Monaten hat es Microsoft nicht geschafft, die Sache zu bereinigen. Und was die generelle Informationspolitik anbetrifft: Ja sicher würde Google nicht still halten im von Dir beschriebenen Fall. Aber es gibt Institutionen, denen sehr daran gelegen sein dürfte, dass manche Löcher und Bugs nicht in den Bulletins, Release Notes u.ä. auftauchen. Also dass generell eine offene Informationspolitik von Micrsofot betrieben wird, gehört ins Reich der Legenden.

Hier

http://www.golem.de/news/windows-10...viert-die-geheimniskraemerei-1508-115898.html

ein aktueller Beleg. Man kann also nicht mehr nachvollziehen, was dort passiert ist. Insofern bleibe ich bei meinem Misstrauen. Du weißt ja: "Vertrauen ist gut, Kontrolle ist besser!"

@tobi_strothotte:

Nein, 100% Sicherheit gibt es wahrlich nicht. Aber man kann es eben unsicher konfigurieren oder sicherer.

Gruß
enrico65
 
Zuletzt bearbeitet:
Wenn jemand in ein bestimmtes System eindringen will, kommt er rein kommt nur auf den Weg an.
 
Thema "Designprobleme bei Windows": Da gibt es eine ganze Reihe von "Designproblemen", die der Anwender auch bemerkt: Nimm doch einfach mal einen Video-Transcoder für einen Film, lass den unter einer neuen Windows-Version laufen und mache mal gleichzeitig was im Internet. Dann merkst Du gleich, wie miserabel das Multitasking bei Windows ist. Selbst auf Quad-Cores hakelt und ruckelt es. Mach das gleiche mal unter Linux oder - sofern Du einen Video-Transcoder dafür findest - unter der eCS oder Warp 4.5. Da läuft es flüssig.
Lustig. In dem Institut, wo ich zurzeit meinen Arbeitsalltag verbringe, laufen alle Rechner mit CentOS. Wenn ich da eine rechenintensive Aufgabe starte, kann ich nicht mehr arbeiten: dann brauchen alle textverarbeitenden Programme eine Sekunde pro Tastenanschlag. Designproblem in Linux? :) Aber zum Glück habe ich meinen Windows-Laptop daneben stehen.

Vielleicht solltest du deinen Videotranscoder mit geringerer Prozeßpriorität betreiben, anstatt gleich allgemein auf Designprobleme zu schließen. Oder kannst du als Ursache konkret ein Designproblem im Thread-Scheduler von Windows benennen? Eben.


Anekdote am Rand: Vor ein paar Tagen sagte das CentOS-System, es seien Updates verfügbar. Ich habe mal geschaut: es waren 991 Stück. Nach einem Klick auf "Updates installieren" (wobei ich mich sehr gewundert habe, wieso ich das dürfen sollte, weil ich natürlich keine Adminrechte habe) hat der Package-Manager ein bißchen nachgedacht, um mir dann eine Messagebox anzuzeigen, die darauf hinwies, daß "dieses Update nicht korrekt signiert" sei, und mich fragte, ob ich trotzdem auf eigene Gefahr fortsetzen wolle. Leider stand da nicht, welches von den 991 gemeint war. Sicherheitshalber habe ich auf "Abbrechen" geklickt, was gleich den ganzen Updatevorgang abbrach. Designproblem in Linux? :)


Die miserablen Dateisysteme einschl. NTFS wären ein anderes "Designproblem", das mir spontan einfällt.
Was ist so schlimm an NTFS? Und vor allem, was ist daran sicherheitsrelevant?


Dass Windows NT von Anbeginn an als vollwertiges Multiuser-System gedacht und konzipiert war, gehört aber ins Reich der Legenden. [...] Das kam alles erst später.
Das stimmt nicht. Die Diplomarbeit, die du zitierst, ist ganz nett, bietet aber nicht mehr Informationsgehalt als die MSDN-Dokumentation und ist, insoweit sie sich auf NT 4 bezieht, nicht einmal korrekt. Es gab nämlich eine Version von NT 4 für den Terminal-Server-Betrieb (d.h. Remotedesktop und so). Tatsächlich gab es die von Microsoft für NT 3.1 und 3.5 noch nicht, das kam tatsächlich "erst später". Aber das ist etwas anderes als die grundsätzliche Mehrbenutzerunterstützung im Systemkern. Ein Programm in einem anderen Benutzerkontext auszuführen ist auch in NT 3.5 schon möglich (für frühere Versionen habe ich keine SDK-Dokumentation, aber, vermutlich ging das auch schon in NT 3.1). Es gab keine Infrastruktur à la SSH, aber technisch wäre sowas kein Problem gewesen.


Das erstaunt mich immer wieder, wie viele Vorurteile es in technisch versierten, vermeintlich objektiven Kreisen gegen Windows gibt :)
 
@DTM:

Thema "CentOS": Was Du da beschreibst, deutet auf ein grottenschlecht gepflegtes System hin. Wenn 991 Aktualisierungen verfügbar waren, sind dort monatelang keine Updates mehr eingespielt worden. Ich hatte kürzlich einen ähnlichen Fall bei einer Kundin, bei der auf einem intensiv genutzten System plötzlich über 700 Updates eingespielt werden sollten. Wir haben dann das Gesamtsystem neu aufgesetzt, weil der Aufwand im Grunde der gleiche war und das nächste Major Release draußen war. Da bei CentOS jedoch - da dieses quasi ein Red Hat Enterprise ohne Red Hat-Branding ist - sehr sorgfältig auch Aktualisierungen freigegeben werden, muss der betreffende Rechner ja fast schon seit Jahren ohne jegliche Software-Wartung im Einsatz sein. Das kann natürlich auch Sicherheitslöcher betreffen - da wäre mal mit dem zuständigen Admin zu sprechen. Oder habt Ihr Richtlinien, die das Einspielen von Updates explizit untersagen? Habe ich auch schon erlebt. Schaue doch bitte mal mit "uname -r" nach, welcher Kernel da werkelt. Könnte durchaus noch ein 2.6.xx-Kernel sein, also steinalt.

Was das zögerliche Verhalten anbelangt bei Deinem CentOS: Schaue doch mal im Terminal mit "top" oder "htop" nach, welcher Prozess blockiert. Mir ist in den letzten Monaten mit zunehmender Tendenz bei anderen Distributionen - teils aus dem RPM-Lager, aber auch bei LinuxMint und sogar bei Jessie - aufgefallen, dass bestimmte Drittanwendungen temporär massive Probleme verursachen. So sind manche Firefox-Varianten miserabel getestet, und der Browser verursacht dort plötzlich 100% Systemlast. Firefox friert dann ein und ruckelt enorm, der Rest des Systems läuft wie bisher flüssig weiter. Ich hatte Firefox 38.5.2ESR neu installiert und hatte plötzlich bei LinuxMint ein hakelndes System, bei dem Firefox blockierte. Nachvollzogen werden konnte dieser Sachverhalt auch unter Mageia 5 mit der gleichen Firefox-Version. Mit Firefox 38.6.0ESR ist alles wieder im Lot.

Aktualisierung: Die automatische Aktualisierung (mit dem Hinweisfenster) kann doch und sollte bei fremdbenutzten Systemen (!) abgeschaltet sein. Wieso will CentOS plötzlich aktualisieren? Das wäre auch eine Sache, bei der der Admin zu fragen wäre. Ich habe bei meinen Kunden überall die Aktualisierungsmeldung abgeschaltet und aktualisiere manuell über Remote Maintenance in regelmäßigen Abständen oder direkt am System. Übrigens ist beim Start der Aktualisierung nochmals ein Passwort einzugeben, i.d.R. das Root-Passwort. Es kann sein, dass Du diesen Schritt durch den Klick auf "Abbrechen" verpasst hast. Ich müsste allerdings selbst erst einmal schauen, ob das bei CentOS so gehandhabt wird. Hatte diese Distribution vor Jahren zum letzten Mal im Einsatz, bin da also nicht up to date. Falls mehrere Systeme automatisiert gemanagt werden, kann es auch sein, dass dort etwas verändert wurde und daher plötzlich das Aktualisierungs-Chaos eingetreten ist.

Zur Prozesspriorisierung und dem Task Scheduler unter Windows: Das Videotranscoding war ein Beispiel. Das hakelnde Windows habe ich auch bei Datev-Software auf Dual Quad-Core erlebt. Die Datev hat ja recht hohe Anforderungen an die Hardware vorgeschrieben und liefert in letzter Zeit auch regelmäßig fehlerhafte Updates aus, und wir haben noch eins draufgesetzt mit einer HP Z600. Auch auf der Z600 mit 2xXeon-Quad Core mit HT ruckelt es, wenn mehrere - davon größtenteils harmlose - Applikationen laufen. Und zwar ruckelt dann das gesamte System, nicht nur eine Anwendung wie bei Linux/Firefox. Das sollte der Scheduler automatisch priorisieren können. Bei solchen Applikationen fühlt sich das System an wie ein uraltes mit Single Input Queue, bei dem dann manuell das hakelnde Programm abgeschossen werden muss. Selbst OS/2 hat das schon eleganter gekonnt in seiner Spätzeit (etwa 1997/98).

Thema "Dateisystem": Ich meinte keine unmittelbar sicherheitsrelevante Schwachstelle, aber NTFS neigt - wenn auch nicht ganz so stark wie FATxx - zur Fragmentierung. Da NTFS aus HPFS hervorgegangen ist und eine Weiterentwicklung desselben darstellt, wäre es schön gewesen, wenn Microsoft das Dateisystem nicht verschlimmbessert hätte. HPFS arbeitet - wie übrigens auch ext2/ext3 und ext4 - nahezu ohne Fragmentierung. Das hätte durchaus besser designed werden können bei NTFS.

Thema "Diplomarbeit": Wenn Du dem Diplomanden Unkenntnis oder falsche Tatsachenbehauptungen vorwirfst, frage ich mich natürlich schon, wieso das dem betreuenden Dozenten an der Uni nicht aufgefallen sein soll. Zwar sind in Deutschland viele Plagiate auch bei Dissertationen offenbar den betreuenden Dozenten nicht aufgefallen, aber gerade in den MINT-Fächern wird doch eigentlich genauer hingesehen. Oder stehst Du in Diensten von Microsoft? Dann könnte natürlich auch das Sprichwort "Wes Brot ich ess', des Lied ich sing." zutreffen.

Gruß
enrico65
 
Das CentOS-System ist erst ein halbes Jahr alt, vorher war Fedora im Einsatz. Wenn's mich ernsthaft interessieren würde, warum das System so einen Unfug macht, würde ich den Admin ansprechen, aber das tue ich mir nicht an, solange ich nicht ausschließlich darauf angewiesen bin.


Zur Prozesspriorisierung und dem Task Scheduler unter Windows: Das Videotranscoding war ein Beispiel. [...]
Mag sein. Ich kenne dieses Gefühl, das du beschreibst, aber nur von früher in Windows XP und halt jetzt deutlich schlimmer in CentOS. Mein Windows 8 macht sowas jedenfalls nicht. Mutmaßung: ist die Systempartition auf einer HDD? Möglicherweise liegt das auch an der SSD, daß ich das schon lange nicht mehr erlebt habe.


Thema "Diplomarbeit": Wenn Du dem Diplomanden Unkenntnis oder falsche Tatsachenbehauptungen vorwirfst, frage ich mich natürlich schon, wieso das dem betreuenden Dozenten an der Uni nicht aufgefallen sein soll.
Weiß ich auch nicht. Aber sieh doch selbst nach:

Diplomarbeit schrieb:
3 Betriebssytem Windows NT 4.0

3.1 Grundlegende Eigenschaften

Windows NT ist seit 1993 in Deutschland erhältlich. Die Version 4.0 wurde 1996 herausgegeben. Der Nachfolger Windows 2000 ist seit Ende 1999 bzw. Anfang 2000 erhältlich.

[...] Bei Windows NT kann im Gegensatz zu z.B. LINUX nur ein Benutzer interaktiv mit dem System arbeiten und Programme ausführen.

Windows NT ist kein Multiuser-System, auf dem gleichzeitig viele Benutzer Programme ablaufen lassen können.

Und jetzt bei Wikipedia:

Wikipedia schrieb:
Windows NT 4.0 Terminal Server Edition, released in 1998, allows the users to log on remotely. The same functionality was called Terminal Services in Windows 2000 and later server releases, and also powers the Remote Desktop feature that first appeared in Windows XP.

Die Diplomarbeit muß von 2000 oder später sein, da sie sich auf Windows 2000 bezieht. Also waren sowohl Windows NT 4 TSE als auch Windows 2000 Server schon auf dem Markt, als sie geschrieben wurde.

- - - Beitrag zusammengeführt - - -

Oder stehst Du in Diensten von Microsoft? Dann könnte natürlich auch das Sprichwort "Wes Brot ich ess', des Lied ich sing." zutreffen.
Da fehlen mir echt die Worte.
 
Zuletzt bearbeitet:
@DTM:

Gleich mal vorweg: Was das "Brot" und das "Lied" angeht, so frage ich hier völlig wertfrei, ohne irgendeine auch nur implizite Diskreditierung Dir gegenüber aussprechen zu wollen. Ich habe deshalb diesen Gedanken geäußert, weil wir hier bereits mehrfach im Forum verdeckt agierende Leute hatten. Erst kürzlich hatten wir zum gleichen Thema eine Diskussion, in deren Verlauf ich dann per PN massiv bedroht werden sollte. Dann sind anschließend auch im Internet diverse Verunglimpfungen gegen mich aufgetaucht, und wir mussten in einem sozialen Netzwerk einen Account sperren lassen, nachdem ich den Verursacher identifiziert hatte. Das betroffene Mitglied hier im Forum ist dann auch gesperrt und der Thread komplett aus dem Forum genommen worden. Aus diesem Grund bin ich hier sensibilisiert. Wie jeder Beobachter aus Deinen Ausführungen ersehen kann, bist Du schon lange im Geschäft und auch sehr gut informiert, was die Windows-Schiene anbetrifft. Insofern liegt die Frage nach einer engeren Beziehung zu Microsoft auf der Hand, denn ein als MCP zertifizierter Admin kennt sich nicht so gut mit den Betriebssystem-Interna aus. Die Frage ist also nicht negativ zu verstehen.

Jetzt zur Sache:

Fedora im produktiven Umfeld? Das stimmt mich nachdenklich. Fedora ist doch ein experimentelles System, eine Spielwiese der Entwickler. Das ist an Deinem Arbeitsplatz im produktiven Einsatz gewesen? Sage ich ganz ehrlich: Wenn es darauf ankommt, also produktiv gearbeitet werden muss damit, würde ich keine experimentelle Distribution einsetzen oder empfehlen. Wenn dann CentOS womöglich nur über Fedora "drübergebügelt" worden ist, können natürlich auch Problemursachen auftreten. Es gibt dort zig Optionen, warum CentOS bei Euch so hakelig läuft. Das wäre auf jeden Fall mal eine Angelegenheit, um die sich der oder die Admins kümmern muss oder kümmern müssen. Denn solche seltsamen Verhaltensweisen zeigt üblicherweise kein Enterprise-Linux und auch keine Desktop-Distribution ohne weiteres.

Bei den von mir genannten Problemen mit Windows handelt es sich ausschließlich um Maschinen mit HDD's. Das Videotranscoding braucht enormen Massenspeicher, wenn es in HD oder gar FHD arbeitet. Die Geschwindigkeit des Massenspeichers ist dabei nicht relevant, sondern die Größe des Arbeitsspeichers und die CPU-Leistung (v.a. SSE-Unterstützung). Auch der Datev-Krempel braucht viel Speicherplatz. Beim Videotranscoding hatte ich auch noch an den Dual Channel-Betrieb des RAMs gedacht, aber selbst eine entsprechende Umkonfiguration hat nichts gebracht. Ich habe die Angelegenheit nicht weiter verfolgt, da ich nicht dauerhaft an den Testsystemen arbeiten muss. Die Datev-Software ist schon extrem schmerzfördernd, daher ist man nicht unbedingt motiviert, dort solchen Problemen auf den Grund zu gehen, zumal auch dauernd neue Updates auf CD wegen schlampiger Tests kommen und deshalb nichts in Ruhe nachzuvollziehen ist.

Thema "Diplomarbeit": So wie ich das sehe, ist das eine unsaubere Formulierung des Diplomanden. Der Diplomand hätte einfach anstatt seine Aussage für alle Versionen von NT zu treffen, dort angeben müssen, dass Windows NT 3.x eben noch keine Multiuser-Fähigkeit bot von Haus aus. Das hätte allerdings auch dem Betreuer auffallen müssen, denn so ist es sachlich tatsächlich falsch.

Gruß
enrico65
 
Thema "rwx": Die Unterscheidung rwx in jeweils drei Gruppen erscheint doch erheblich logischer und durchdachter zu sein als die Unterteilung in einen Schwarm von Richtlinien, von denen durchschnittliche Anwender häufig eben nicht wissen, was was bewirken könnte.

Hm...ich frage mich jetzt ernsthaft, wovon du da schreibst. Richtlinien? Wir reden von Rechten im Dateisystem.

Thema "sudo": Unter Linux kann ich - wie es Ubuntu macht - administrative Aufgaben teilweise mit sudo abarbeiten. Nur muss ich dazu erstens berechtigt sein (zur Nutzung des Befehls sudo) und zweitens mein Passwort angeben.

Und standardmäßig ist das für den bei der Installation angelegten User der Fall. Ob der User nun ein Passwort eingeben, eine Bestätigung anklicken oder einen Blick zum Himmel werfen muss, bevor er administrativ tätig werden darf, tut sich nicht viel. Wenn ihm vorher "du willst das hier ganz dringend ausführen!!!" klargemacht wurde, führt er eine unbekannte Datei aus.

Thema "Desktop-Change": Ach so, und weil der Desktop sich kaum geändert hat, haben sich die User erst reihenweise beschwert beim Wechsel von XP zu W7 und dann schließlich das unsägliche Design von W8 ganz abgelehnt? Und weil alles immer Friede, Freude, Eierkuchen war, bieten professionelle Hardware-Hersteller nach wie vor ihren Kunden ein kostenloses Downgrade auf W7 an oder neuerdings W8.1, weil auch mit der Spyware W10 viele ach so zufrieden sind?

Vielleicht haben wir unterschiedliche Ansichten davon, was "der Desktop" ist. Für mich ist das Startmenü das Startmenü und nicht der Desktop. In Windows 8 hat sich das Startmenü geändert, der Desktop ist weitgehend gleich geblieben.

Viele Leute sagen einfach erst einmal "neu? anders? will ich nicht!". Ist ein ganz typisches Verhalten. Anders als viele andere Firmen wagt Microsoft mal was und bringt neue Konzepte. Die Oberfläche von Windows 8 war an sich von der Idee her genial, aber mehr als einen Schritt zu weit gedacht. Da machen die User nicht mit. Nicht weil es schlecht wäre, sondern einfach weil es anders ist.

Selbst der Marketing-Trick mit der Abkündigung von XP hat nicht gereicht, die Kunden auf eine neuere Version zu zwingen. In Deutschland sind zwar viele darauf hereingefallen, hier bei uns läuft allerdings fast überall noch XP, auch und vor allem bei den Banken, aber auch bei Tesco, Wilko, der Bahn und auch an den Flughäfen.

Schön blöd. Sorry, aber wer im Jahr 2016 auf 15 Jahre alte Software setzt, die nicht mehr supportet wird, der hats einfach nicht verstanden.
Vermutlich läuft da eher POSReady, das hat noch Support bis imho 2017.

Thema "Hardware-Unterstützung" unter Linux: Auch hier liegst Du offenbar um Jahre zurück. Richtig ist, dass es für brandneue Hardware unter Linux häufig erst nach ein paar Monaten abgestimmte Module gibt, wenn diese von freien Entwicklern programmiert werden müssen. Viele Hersteller liefern jedoch bereits bei neuen Geräten auch passende Module (= Treiber) für Linux mit. Nur ein Beispiel: Ich habe mir vor einigen Wochen einen neuen Color LaserJet Pro M252dw gekauft. Das Gerät gibt es seit etwa einem halben Jahr. Treiberversorgung über das freie HPlip-Projekt problemlos vorhanden, und das bereits seit einer älteren Variante, also praktisch seit Erscheinen des Gerätes.

Vermutlich ist das Gerät einfach von den Befehlen mit älteren Modellen kompatibel. Niemand baut ständig seine Druckersprachen neu. Wenn ich an Grafikchips denke, Optimus, Switchable Graphics und ähnliches, dann war es bisher meistens so, dass das gaaanz düster aussah.

Weiteres Beispiel: Versuch doch bitte mal, einen HP Spectre-All-in-one-PC, der etwa drei Jahre alt ist, unter W7 einsatzfähig zu machen. Geht nicht, weil es für viele Komponenten keine W7-Treiber gibt und das Gerät standardseitig mit W8 ausgestattet war.

Warum sollte ich das tun? Wieso soll ich denn auf drei Jahre alter Hardware ein sieben Jahre altes Betriebssystem einsetzen wollen, wenn ein neueres mitgeliefert wurde und ein noch neueres kostenlos bezogen werden kann?

Ältere IBM IntelliStations bekommt man unter W8 auch nicht mehr zum Laufen. IBM bietet da nichts mehr an. Bei W7 ist Schluss.

Zum Glück gibts normalerweise bei den Herstellern der Komponenten bzw. über Windows Update diverse Treiber, so dass man auch ältere Systeme problemlos mit neueren Windows Versionen betreiben kann. Und netterweise laufen auch Treiber für ältere Windows Versionen normalerweise unter aktuelleren Versionen.

Thema "Microsoft Essentials": So, so, die Essentials taugen also etwas und Microsoft rät nicht davon ab? Na, dann schau doch mal hier:
[...]
Noch nicht einmal fünf Minuten Recherche im Netz, und der Sachverhalt ist geklärt.

Du scheinst allgemein mehr in der Vergangenheit unterwegs zu sein, wenn für dich Artikel aus 2013 noch irgendeine Relevanz haben. ;-) Immerhin steht in deinem zweiten Link auch relativ deutlich, dass die Tests, auf die in diesen Fällen immer gerne verwiesen wird, zumindest fragwürdig sind. Mit der Realität haben sie wenig gemeinsam. Und in aktuellen Tests sind die Microsoft AV Lösungen im guten Mittelfeld beim Schutz. Sie haben auch den Vorteil, dass sie die Sicherheit des Systems nicht noch zusätzlich gefährden, wie das viele andere Lösungen machen. In den letzten Wochen ging da ja wieder einiges durch die News, was Avast, Comodo, Trend Micro und Co. für unglaublichen Schrott produzieren, den sich als "Sicherheit" verkaufen wollen.
 
Deine Sensibilisierung und deine unerfreulichen Erfahrungen in Ehren: aber wenn du in einer fachlichen Diskussion einen Phrase wie "wes Brot ich eß, des Lied ich sing" anbringst, dann sagst du, daß jemand, der von einer bestimmten Sache eine bessere Meinung hat als du, wohl gekauft sein müsse. Eine solche Unterstellung sodann als "völlig wertfrei, ohne [...] Diskreditierung" zu bezeichnen empfinde ich als eine Frechheit.

Aus meinen Ausführungen magst du vielleicht schließen wollen, daß ich "schon lange im Geschäft und auch sehr gut informiert" bin, aber alles, was ich geäußert habe, hätte dir auch der nächstbeste historisch interessierte Windows-Softwareentwickler sagen können. Und mehr als das bin ich auch nicht. Nicht MCP, nicht MVP, nicht Angestellter von Microsoft, auch kein verdeckter Agitator.

Was das ursprüngliche Thema (irgendwas mit der Notwendigkeit von Virenscannern) angeht, wurde wohl schon alles gesagt, sonst würde das hier auch nicht so ad hominem abdriften. Eine hervorragender Anlaß also, sich produktiveren Dingen zuzuwenden als diesem unseligen Thread.
 
Wow Alter Schwede, hätte nicht gedacht, das das hier so - ich möchte es sanft ausdrücken "Heiss her geht" :huh: Aber dennoch wollte ich euch nicht unterbrechen, Ja ich denke es wurde viel erläutert und auch Hitzig Debattiert.
Dennoch Danke ich euch für eure Antworten, woraus ich sehen kann, das jeder so seine eigene Strategie verfolgt.
Ich habe aus den vielen Informationen heraus gelesen, das man unter Windows einen Schutz lieber als Sinnvoll erachten sollte.
Unter Linux ist die Gefahr am Geringsten, wenn ich das so sehe nicht gänzlich unmöglich aber die Nutzung von Linux ist wohl als sicherstes zu betrachten oder FreeBSD oder ähnlich ?!?
Ein paar BS unter anderem auch OSX liegen zwischen Linux und Windows.
Es war trotzdem sehr Interessant und auch die Informationen die in der Hitzigen Diskussion zu Tage traten, waren vielleicht auch in gewisser weise wenn auch hintergründig informativ.

Ich würden den Tread jetzt nicht als Unseeligen Tread bezeichnen, vielleicht, hätte ich gewusst, das es ein bisschen ausufert und ich so eine Lawine los trete, ihn vielleicht nicht erstellt.

Es giebt so einige Meinungen über die BS, und deren Sicherheit, nebst fundierten Informationen.
In gewisser weise streut sich das sehr weit, und ich ziehe einfach mal daraus, unter OSX braucht man nicht unbedingt ein Antiviren Schutz, schaden kanns aber auch nicht einen zu haben.

Trotz alledem überdenke ich jetzt auch meine Strategie und setze ein Antiviren Programm unter Windows ein, dass dann schön im Hintergrund mit nach dem rechten sehen kann.

Aber hier ging es noch Gesitteter zu als in der Apple Fan Gruppe, ich dachte die werfen gleich mit Hinkelsteinen durch die Wlan Antenne.... :facepalm:
Da verstehen die keinen Spass wenn man mit sowas um die Ecke kommt.

In diesem Sinne wünsche ich eine gute Nacht an alle.

Grüsse Tobi

P.s.:

Für manche mögen meine Fragen eventuell etwas unbeholfen erscheinen was Software usw angeht, meine Disziplin ist eher die Hardware im Aufbau, Umbau, PC Notebook Modifikationen, nach meinen Vorstellungen oder denen von anderen, denen ich die Geräte nach ihren Vorlieben abänder.
 
Zuletzt bearbeitet:
  • ok1.de
  • ok2.de
  • thinkstore24.de
  • Preiswerte-IT - Gebrauchte Lenovo Notebooks kaufen

Werbung

Zurück
Oben