Angesichts der Masse an Bullshit wie vorher bereits in den "reinen" sozialen Medien haben Fakten und Belegbasiertes keine Chance. So gesehen kann man auch widersprechen, weil das bisschen eigene Sachlichkeit einfach nichts mehr bringt. Dieser Sumpf dreht sich eh nur noch im eigenen Faulgas
Natürlich ist der Aufwand, den man betreiben muss, um Bullshit als Bullshit zu entlarven, viel höher als der, Bullshit zu erzeugen. Aber je weniger Leute das machen, desto mehr gewinnt der Bullshit die Überhand in der öffentlichen Wahrnehmung. Da hilft es auch nicht, pikiert oder aus einem Gefühl der "Überlegenheit" heraus die "Schmuddelecken" zu meiden. Weil der Bullshit eben nicht dort in seinem "Sumpf" bleibt, sondern sich das "Faulgas" ausbreitet. Bis hinauf in Institutionen und Regierungen, wie die Erfahrung zeigt. Wo man ihn dann nicht mehr ignorieren kann.
(...) oder ob ich sie jedem zu Verfügung stelle für jedwede Nutzung. Und sie dann Menschen verwenden für eine Nutzung, die ich eklig finde, das mit meinen Formulierungen Menschenhandel unterstützt, IS-Anhänger rekrutiert oder rechtsextreme Parolen transportiert werden.
Ja, aber wie schon angesprochen - je öfter ein neuronales Netz Aussagen erfasst und verarbeitet, in denen
gegen Menschenhandel,
gegen religiösen Terror,
gegen Rechtsextremismus argumentiert und eingestanden wird, desto höheres Gewicht erhalten die entsprechenden Formulierungen, wenn das neuronale Netz seinen sprachlichen Output generiert.
Selber sehe ich den Ansatz LLM nach wie vor als einen auch viel durch die Medien aufgeblasenen Hype, der in vielen bereichen so enden wird wie der Neue Markt.
Kann sein. Kann aber auch sein, dass das Ganze eine Entwicklung nehmen wird wie dieses komische "Internet"...
Oder irgendwas dazwischen. Ich denke, dass man mit der Haltung, es lächerlich zu machen, genauso danebenliegen wird wie mit der Haltung es entweder zur "größten Bedrohung" oder zur "größten Errungenschaft" für die Menschheit zu erklären.
Bei denen, die das ernsthaft nutzen, wird dagegen zunehmend bemängelt, dass eben aufgrund des Anfälligen für Fehler und Falschaussagen die Zeit für´s Prüfen mehr Aufwand verursacht als wenn man´s gleich selber macht. Jüngster "Erfolg" war
dieser hier, bei der sich mehrere LLM quasi alles und komplett aus dem Allerwertesten gezogen haben.
Eigentlich doch gerade nicht? Bei dem dort besprochenen LLM-Äquivalent zum Sich-selbst-Googeln hat zwar ChatGPT hemmungslos halluziniert, aber Google Gemini und MS Copilot hatten inhaltlich korrekte Antworten gegeben. Wie sie auch ein Mensch hätte geben können, der die Trefferlisten einer Internetrecherche abarbeitet. Also ein etwas eindimensionaler Mensch ohne Interesse an z.B. Literatur.
Aber so ein LLM-Äquivalent zum Sich-selbst-Googeln würde ich jetzt nicht gerade als "ernsthafte Nutzung" ansehen. Sondern eher Anwendungen, die sich die Fähigkeit von LLMs zu Nutze machen, sich in
regelbasierten Systemen zurechtzufinden. Also z.B. Texte nach Regeln zu generieren, auch bei extrem umfangreichen Regelsätzen. Dazu zählen z.B. Programmieraufgaben oder Übersetzungen von nicht literarischen "Gebrauchstexten". Da sind LLMs zwar auch noch lange nicht fehlerfrei, aber auf jeden Fall bereits ein nützliches Werkzeug für Leute, die solche Ausgaben dann weiter verarbeiten.