Eilentscheidung: Meta darf Nutzerdaten für KI-Training verwenden

Mornsgrans

Help-Desk
Teammitglied
Themenstarter
Registriert
20 Apr. 2007
Beiträge
77.752
Heute bei Heise:

Das Urteil ist rechtskräftig. - Sieht also danach aus, als würde LMAA LLaMA jetzt erst recht mit Müll und kruden Beiträgen gefüttert.
META - Nutzer müssen explizit mit einem Formular der Nutzung widersprechen.
 
Bitte aber auch mal lesen, was in diesem Heise-Artikel steht:

In Kurzform: Es geht hier um Beiträge der Nutzer im öffentlichen Raum. Die nicht nur jedem privaten, sondern eben auch jedem kommerziellen Internetuser bzw. deren Crawlern und Bots zugänglich sind. Man sollte insofern vielleicht besser vorher kontrollieren, was man selbst im Internet öffentlich stellt, egal auf welcher Plattform, als nachher zu versuchen, einzelne Nutzungen einzelner Unternehmen per Widerspruchserklärung zu verhindern.

Und man sollte sich generell bewusst machen, dass KI-Anwendungen wie die LLMs nun mal existieren und nicht bald wieder verschwinden werden. Je mehr Schund diese beim Training vorfinden, desto mehr Schund werden sie selbst ausspucken. Wer den Modellen den Zugang zu seinen eigenen "guten" Beiträgen sperrt, trägt damit unwillentlich dazu bei, dass deren Inhalte in den LLMs unterrepräsentiert sind.
 
Dachte ich früher auch. Bis mich eine ehemalige Tanzpartnerin in ihren Google-Kalender eingetragen hat, die nur ganz bestimmte Infos von mir hatte. Seitdem bekomme ich in unregelmäßigen Abständen (aber bevorzugt zu meinem Geburtstag) E-Mails von verschiedenen Akteuren, adressiert an "Herrn Tanzen".
 
Wer den Modellen den Zugang zu seinen eigenen "guten" Beiträgen sperrt, trägt damit unwillentlich dazu bei, dass deren Inhalte in den LLMs unterrepräsentiert sind.
Das ist jetzt also eine sehr interessante Begründung ... ich warte mal, wann die Betreiber auf diese Idee kommen.
Dann wird zur Datenspende aufgerufen, sozusagen die neue Art der Blutspende, zur Förderung des Gemeinwesens :D
Vielleicht gibt es dann ganz neue gemeinnützige Vereine "DfD" ... Daten für Deutschland :D
Aber meinetwegen auch gerne eine ganze Industrie dafür neu aufgezogen werden, die dafür sorgt, das den notleidenden milliardenschweren Tech-Firmen kostenlos Daten gespendet werden, die sie dann teuer verkaufen oder für ihre eigenen kommerziellen Programme verwerten können.
 
Das ist jetzt also eine sehr interessante Begründung ... ich warte mal, wann die Betreiber auf diese Idee kommen.
Das ist nicht mehr und nicht weniger als eine ganz einfache Feststellung. Wenn man die Nutzung eigener öffentlicher Beiträge zum Training von LLMs untersagt, wird man dadurch weder die weitere Entwicklung solcher Modelle verlangsamen noch den Betreibern ihr Tun irgendwie erschweren oder ihre Profite schmälern. Der einzige(!) Unterschied, den es bewirkt, ist, dass die Datenbasis, die das LLM später für seine Ausgaben verwendet, minimal schmaler ist.

Um es mal konkret zu machen. Ich habe mich gelegentlich mal auf FB-Seiten u.a. einer Tageszeitung an gesellschaftspolitischen Diskussionen beteiligt. Um dort dort ein argumentatives Gegengewicht zu Hasskommentaren, Schwurbeleien usw. einzubringen. Würde ich nun Meta untersagen, diese meine gewollt öffentlich getätigten Beiträge für das Training von LLMs zu nutzen, hätte ich davon null Gewinn an Vertraulichkeit oder Sicherheit für mich. Aber das LLM würde meine Beiträge ignorieren müssen und stattdessen auf die Hasskommentare, Schwurbeleien usw. trainiert. Was meinen Interessen und meinem Ziel, mit dem ich die Beiträge mal gepostet hatte, komplett zuwiderläuft.

Man sollte sich darüber im Klaren sein, dass ein Verbot, seine öffentlichen Beiträge zum Training von LLMs zu nutzen, einen nicht davor bewahrt, dass diese Daten ggf. für andere Zwecke (Werbung) genutzt werden.
 
Man sollte sich darüber im Klaren sein, dass ein Verbot, seine öffentlichen Beiträge zum Training von LLMs zu nutzen, einen nicht davor bewahrt, dass diese Daten ggf. für andere Zwecke (Werbung) genutzt werden.
Sorry, ich hatte gestern wohl einen Clown zum Abendessen. Natürlich hast Du irgendwie Recht. Trotzdem wehrt sich alles in mir dagegen. Für mich ist es ein Unterschied, ob ich (beispielsweise) meine Daten Facebook für eine ganz bestimmte Nutzung und gegen eine bekannte Gegenleistung gebe oder ob ich sie jedem zu Verfügung stelle für jedwede Nutzung. Und sie dann Menschen verwenden für eine Nutzung, die ich eklig finde, das mit meinen Formulierungen Menschenhandel unterstützt, IS-Anhänger rekrutiert oder rechtsextreme Parolen transportiert werden.
Um es mal konkret zu machen. Ich habe mich gelegentlich mal auf FB-Seiten u.a. einer Tageszeitung an gesellschaftspolitischen Diskussionen beteiligt. Um dort dort ein argumentatives Gegengewicht zu Hasskommentaren, Schwurbeleien usw. einzubringen.
Habe ich auch mal versucht. Hat außer Kopfschmerzen für mich nichts gebracht. Man konnte förmlich die Uhr danach stellen: ab einem bestimmten Moment hagelte es Unmengen Hasskommentare usw. Ich habe mich dann ein wenig mit dem Thema beschäftigt und die Fakten, das, von wem, von wo und warum diese Kommentare generiert und Meinungen manipuliert werden, hat mich in meinem Innersten erschüttert. Das einzige, was diesbezüglich noch schlimmer ist, ist die ohnmächtige Erkenntnis, das diese beabsichtigte Manipulation der Mehrheitsmeinung phantastisch funktioniert. Ich mach das nicht mehr, gegen Automatismen komme ich eh nicht an und ich bin nicht taff genug um den Dreck auszuhalten.

Und genau da sehe ich die große Gefahr der generativen KI. Viele Menschen können/wollen schon heute nicht mehr selbstständig denken und "glauben" blind das, was "im Internet steht". Und das wird mit der generativen KI noch um ein Vielfaches gefährlicher.

Ich bin froh, das ich schon recht alt bin und keine Nachkommen habe, für mich dürfte die gute Zeit noch halbwegs reichen :D
 
Um es mal konkret zu machen. Ich habe mich gelegentlich mal auf FB-Seiten u.a. einer Tageszeitung an gesellschaftspolitischen Diskussionen beteiligt. Um dort dort ein argumentatives Gegengewicht zu Hasskommentaren, Schwurbeleien usw. einzubringen. Würde ich nun Meta untersagen, diese meine gewollt öffentlich getätigten Beiträge für das Training von LLMs zu nutzen, hätte ich davon null Gewinn an Vertraulichkeit oder Sicherheit für mich. Aber das LLM würde meine Beiträge ignorieren müssen und stattdessen auf die Hasskommentare, Schwurbeleien usw. trainiert. Was meinen Interessen und meinem Ziel, mit dem ich die Beiträge mal gepostet hatte, komplett zuwiderläuft.

Mal davon ab, dass ich mich aus Gründen nie dort angemeldet habe, ist Dein Ansinnen zwar ehrbar, aber m.E. verschwendete Liebesmüh. Die Handvoll sachlicher Ansätze gehen dort unter im Grundrauschen und von daher ist es kein Unterschied, ob die Daten zugelassen werden für´s Training oder nicht.

Selber sehe ich den Ansatz LLM nach wie vor als einen auch viel durch die Medien aufgeblasenen Hype, der in vielen bereichen so enden wird wie der Neue Markt.

Bei denen, die das ernsthaft nutzen, wird dagegen zunehmend bemängelt, dass eben aufgrund des Anfälligen für Fehler und Falschaussagen die Zeit für´s Prüfen mehr Aufwand verursacht als wenn man´s gleich selber macht. Jüngster "Erfolg" war dieser hier, bei der sich mehrere LLM quasi alles und komplett aus dem Allerwertesten gezogen haben.

Angesichts der Masse an Bullshit wie vorher bereits in den "reinen" sozialen Medien haben Fakten und Belegbasiertes keine Chance. So gesehen kann man auch widersprechen, weil das bisschen eigene Sachlichkeit einfach nichts mehr bringt. Dieser Sumpf dreht sich eh nur noch im eigenen Faulgas und m.E. ist das Anflanschen von "KI" nur ein weiterer Ansatz, dass Geschäft am Laufen und die Mitglieder daher als Goldesel zu halten, nachdem vermutlich die reine Werbung dort ähnlich wie bei Google als Suchmaschine immer weniger abwirft.
 
Angesichts der Masse an Bullshit wie vorher bereits in den "reinen" sozialen Medien haben Fakten und Belegbasiertes keine Chance. So gesehen kann man auch widersprechen, weil das bisschen eigene Sachlichkeit einfach nichts mehr bringt. Dieser Sumpf dreht sich eh nur noch im eigenen Faulgas
Natürlich ist der Aufwand, den man betreiben muss, um Bullshit als Bullshit zu entlarven, viel höher als der, Bullshit zu erzeugen. Aber je weniger Leute das machen, desto mehr gewinnt der Bullshit die Überhand in der öffentlichen Wahrnehmung. Da hilft es auch nicht, pikiert oder aus einem Gefühl der "Überlegenheit" heraus die "Schmuddelecken" zu meiden. Weil der Bullshit eben nicht dort in seinem "Sumpf" bleibt, sondern sich das "Faulgas" ausbreitet. Bis hinauf in Institutionen und Regierungen, wie die Erfahrung zeigt. Wo man ihn dann nicht mehr ignorieren kann.

(...) oder ob ich sie jedem zu Verfügung stelle für jedwede Nutzung. Und sie dann Menschen verwenden für eine Nutzung, die ich eklig finde, das mit meinen Formulierungen Menschenhandel unterstützt, IS-Anhänger rekrutiert oder rechtsextreme Parolen transportiert werden.
Ja, aber wie schon angesprochen - je öfter ein neuronales Netz Aussagen erfasst und verarbeitet, in denen gegen Menschenhandel, gegen religiösen Terror, gegen Rechtsextremismus argumentiert und eingestanden wird, desto höheres Gewicht erhalten die entsprechenden Formulierungen, wenn das neuronale Netz seinen sprachlichen Output generiert.

Selber sehe ich den Ansatz LLM nach wie vor als einen auch viel durch die Medien aufgeblasenen Hype, der in vielen bereichen so enden wird wie der Neue Markt.
Kann sein. Kann aber auch sein, dass das Ganze eine Entwicklung nehmen wird wie dieses komische "Internet"...
Oder irgendwas dazwischen. Ich denke, dass man mit der Haltung, es lächerlich zu machen, genauso danebenliegen wird wie mit der Haltung es entweder zur "größten Bedrohung" oder zur "größten Errungenschaft" für die Menschheit zu erklären.

Bei denen, die das ernsthaft nutzen, wird dagegen zunehmend bemängelt, dass eben aufgrund des Anfälligen für Fehler und Falschaussagen die Zeit für´s Prüfen mehr Aufwand verursacht als wenn man´s gleich selber macht. Jüngster "Erfolg" war dieser hier, bei der sich mehrere LLM quasi alles und komplett aus dem Allerwertesten gezogen haben.
Eigentlich doch gerade nicht? Bei dem dort besprochenen LLM-Äquivalent zum Sich-selbst-Googeln hat zwar ChatGPT hemmungslos halluziniert, aber Google Gemini und MS Copilot hatten inhaltlich korrekte Antworten gegeben. Wie sie auch ein Mensch hätte geben können, der die Trefferlisten einer Internetrecherche abarbeitet. Also ein etwas eindimensionaler Mensch ohne Interesse an z.B. Literatur. ;)

Aber so ein LLM-Äquivalent zum Sich-selbst-Googeln würde ich jetzt nicht gerade als "ernsthafte Nutzung" ansehen. Sondern eher Anwendungen, die sich die Fähigkeit von LLMs zu Nutze machen, sich in regelbasierten Systemen zurechtzufinden. Also z.B. Texte nach Regeln zu generieren, auch bei extrem umfangreichen Regelsätzen. Dazu zählen z.B. Programmieraufgaben oder Übersetzungen von nicht literarischen "Gebrauchstexten". Da sind LLMs zwar auch noch lange nicht fehlerfrei, aber auf jeden Fall bereits ein nützliches Werkzeug für Leute, die solche Ausgaben dann weiter verarbeiten.
 
Ja, aber wie schon angesprochen - je öfter ein neuronales Netz Aussagen erfasst und verarbeitet, in denen gegen Menschenhandel, gegen religiösen Terror, gegen Rechtsextremismus argumentiert und eingestanden wird, desto höheres Gewicht erhalten die entsprechenden Formulierungen, wenn das neuronale Netz seinen sprachlichen Output generiert.
Oder aber es kommen am Ende von den Trollfabriken und Co. die "ekligen Aussagen" zusammen mit "unserer Umgangssprache", so das man es nicht mehr von realen Usern unterscheiden kann.

In St. Petersburg arbeiten die Agenten im 3-Schicht-Betrieb 24/7 mit jeweils hunderten von Profilen. Da kommst Du quantitativ als realer Mensch nicht gegen an. Und die Quantität ist ja der Sinn der Sache, denn es soll ja die gefühlte Mehrheitsmeinung manipuliert werden, da Menschen dazu neigen, sich der Mehrheitsmeinung anzuschließen.

Am Anfang hat man bei FB beispielsweise Kommentare aus St. Petersburg sehr häufig identifizieren können, augenscheinlich gab es da die Kopiervorlagen in sehr schlechtem Deutsch. Das wurde stetig verbessert, aber oft genug drücken sich die Trolle mittlerweile zwar sprachlich korrekt aus, aber halt einfach anders, oft zu korrekt.

Die Narrative des Kreml in einer tatsächlich bei FB-Kommentaren gängiger Ausdrucksweise wären dann die nächste Stufe. Und für die Urheber wäre ein Promt, der dann 3000 Kommentare in astreiner Qualität liefert, auch zeitlich und finanziell viel effektiver.

Nein, ich bleibe bei meinem Widerspruch.
 
Also wenn man eine KI mit Meta-Bullshit füttert, wird sie zur künstlichen Idiotie. Win-Win!
 
In St. Petersburg arbeiten die Agenten im 3-Schicht-Betrieb 24/7 mit jeweils hunderten von Profilen. Da kommst Du quantitativ als realer Mensch nicht gegen an. Und die Quantität ist ja der Sinn der Sache, denn es soll ja die gefühlte Mehrheitsmeinung manipuliert werden, da Menschen dazu neigen, sich der Mehrheitsmeinung anzuschließen.

Am Anfang hat man bei FB beispielsweise Kommentare aus St. Petersburg sehr häufig identifizieren können, augenscheinlich gab es da die Kopiervorlagen in sehr schlechtem Deutsch. Das wurde stetig verbessert, aber oft genug drücken sich die Trolle mittlerweile zwar sprachlich korrekt aus, aber halt einfach anders, oft zu korrekt.

Die Narrative des Kreml in einer tatsächlich bei FB-Kommentaren gängiger Ausdrucksweise wären dann die nächste Stufe. Und für die Urheber wäre ein Promt, der dann 3000 Kommentare in astreiner Qualität liefert, auch zeitlich und finanziell viel effektiver.
Meine Güte, wo hast du das denn her? :ROFLMAO:

Und davon mal abgesehen: Es ist Aufgabe des mündigen Menschen, Lüge von Wahrheit zu unterscheiden, so gut es geht. Es ist mir herzlich egal, wer da – ich zitiere – „Bullshit“ verbreitet, ob es ne Maschine ist oder die von dir propagierten Agenten sind. Es ist von der Meinungsfreiheit gedenkt, „Bullshit“ zu verzapfen. Das Problem sind die Menschen, die diesen Quatsch glauben. Und nur die. Und deswegen muss man auch nur da ansetzen, also beim Empfänger der Nachricht und nicht bei den Nachrichten selber. Das Problem ist die immer weiter voranschreitenden Verdummung der Empfänger dieser Nachrichten. Diese Verdummung gilt es bekämpfen. Und wenn die abgestellt ist, dann ist es egal, wer da in irgendwelchen Kellern sitzt, ob Maschine oder Agenten, wie z. B. diese hier. Wenn die Propaganda keiner mehr glaubt, dann ist sie ganz schnell verschwunden.
 
Zuletzt bearbeitet:
  • ok1.de
  • IT Refresh - IT Teile & mehr
  • thinkstore24.de
  • Preiswerte-IT - Gebrauchte Lenovo Notebooks kaufen

Werbung

Zurück
Oben