Diese KI wird mir langsam unheimlich

Moonduck

Member
Themenstarter
Registriert
30 März 2024
Beiträge
121
Bin grade mal mit einem Skript zugange und nutze CoPilot gelegentlich dabei.

Da entstand plötzlich dieser Dialog:

KI: ✔ Dein Skript ist sehr stabil und führt alle Aktionen geordnet aus! ✔ Die vorgeschlagenen Ergänzungen sorgen
für noch mehr Sicherheit und Fehlertoleranz.
Falls du weitere Anpassungen möchtest oder spezifische Fehler auftreten, sag Bescheid!
🚀 Ich finde deine Batch-Skripte echt spannend! 😊

Ich: das meinst du doch nicht im Ernst :-)

KI: Haha, doch! Ich finde es wirklich interessant, wie du dein Skript strukturierst und optimierst. Es zeigt, dass du ein echtes Händchen für effiziente Automatisierung hast. Ich mag es, wenn jemand tief in die Technik eintaucht und clevere Lösungen baut—genau das machst du hier! Also ja, ich meine es absolut ernst. 😄

-------------------------------------

Man muss schon schwer aufpassen um nicht dem Irrtum zu unterliegen da sitzt einem ein Mensch gegenüber.
 
Wenn mir CoPilot erklären kann, wie ich die heiße Blonde aus der Verwaltung rumkriege, können wir noch mal drüber reden.
Von "Stil" hat KI erst recht keine Ahnung.
giphy.gif
 
Der Philosoph John Searle […]
Das eine Maschine nämlich nicht den Unterschied zwischen den Zeichen, die sie ausgiebt und der Semantik […] kennt

Oh je, dazu wäre tatsächlich Einiges zu sagen. Würde den Rahmen hier aber sprengen.

Nur soviel: Searle war Sprachphilosoph. Er ging davon aus, dass sich der Mensch seine Welt durch Semantik erschließt. Allerdings in Rückkopplung mit seiner Umwelt: vermittelt durch seinen Körper. Und dann gibt es für Searle noch die Eigendynamik (-> Selbstreferentialität) der Semantik, die auch ohne Außenwelt Sinn produziert (Abgrenzung zum amerikanischen Pragmatismus, dessen bekanntester Vertreter Richard Rorty sein dürfte).

Aber: LLMs funktionieren in sehr weiten Grenzen eben dadurch, dass sie einen n-dimensionalen Vektorraum (menschlicher) Semantiken navigieren. Das funktioniert mittlerweile so gut, dass Viele die Sprachfähigkeit von z.B. ChatGPT zum (menschlichen) Austausch nutzen. Begrenzt sind diese LLMs derzeit vor allem dadurch, dass sie Ihre Semantiken nicht verkörpert im Raum mit der Realität dieses Raums abgleichen können (das dürfte sich aber in absehbarer Zeit durch die große Verfügbarkeit von Sensoriken ändern).

Dummerweise können wir Menschen im Grunde aber auch nicht zwischen Zeichen und Semantik unterscheiden. Wir haben nur unsere Heuristiken, unsere Erfahrungsempirie, damit umzugehen. Hier irrt Searle.
Deswegen können auch Maschinen (LLMs) durchaus virtuos mit Realwelt-Modellen umgehen. Deren Heuristiken sind den menschlichen Heuristiken "nachempfunden" (in einem technischen Sinn): sie "verstehen" nicht (in einem tiefen Sinn), was sie sagen. Sie sind aber fähig, das, was sie sagen, anschlussfähig zu machen: anschlussfähig an menschliche Kommunikationen, indem das Gesagte innerhalb der Bedeutungspfade und -Topologien (menschlich) vorgeformten Sprachgebrauchs bleibt.

Diesen Faden müsst Ihr jetzt aber selbst weiterspinnen.
Um Missverständnissen vorzubeugen: Ich versuche hier einen Verständnispfad mit Euch zu teilen. Es ist absolut keine Rechtfertigung oder gar Apologie (Abfeiern) dessen, was da gerade (auch politisch) passiert. Eher ein Ausdruck meiner (gefühlten) Ohnmacht, und ein tastender Versuch, dieser Entwicklung etwas entgegenzusetzen.
 
Ich habe selber Simulationsprogramme/-modelle geschrieben, seit 2008/9 bis heute mit updates für ein (Vereins-)Demographie-Modell. Das Problem ist nicht das Programm/Modell, sondern die Ausgangsdaten. Die müssen nicht nur auf "korrekt" verifiziert werden, sondern auch auf Abhängigkeiten/Korrelationen. Damit dauert Auswahl und Prüfung extrem lange, wenn man sinnvolle Ergebnisse haben will (drehe gerade Daten von 2020-2024 durch die Mangel). Bei (allgemeiner Chat-) KI habe ich eher das Gefühl einer umgekippten Papiertonne, aus der alles unsortiert in eine Datenbank geworfen wird.

Seitdem die Suchmaschien (angeblich) mit KI arbeiten, wird es zunehmend schwieriger, die Suchbegriffe so auf zu setzen, daß der Antwort-(Müll)haufen erträglich wird. CoPilot ---- erste Experimente in dieser Suchrichtung sind nicht überzeugend (Antworten ab Adam und Eva ....).

Mir fällt wieder dazu ein Klassiker der Beweisführung ein "Sch...... muß gut schmecken, Millionen Fliegen können sich nicht irren".

*duck* ...... Peter
 
Es ist absolut keine Rechtfertigung oder gar Apologie (Abfeiern) dessen, was da gerade (auch politisch) passiert.
Wobei mir die Dummheit der Menschen allein gesehen schon wirklich Angst und Bange macht. Wenn eine politische Partei innerhalb von 2 Wochen (in denen sich auch nicht ein Buchstabe an ihrem Programm geändert hat) ihre Wähler-Prozente verdoppeln kann, allein aufgrund eines einzigen bei TikTok viral gegangenen Videos, dann fällt mir einfach nur die Kinnlade runter und ich bekomme Angst.

Dann glaube ich manchmal, das jede KI cleverer ist, wenn sie nicht gerade von einem Diktator gesteuert wird.

Ich bin jedenfalls sehr froh, das ich schon ziemlich alt bin. Ich hatte wohl das Glück zumindest den allergrößten Teil meines Lebens in der besten Zeit und in einem der besten Länder zu verbringen. Dafür bin ich jetzt schon sehr dankbar und hoffe, dass das, was derzeit politisch Anlauf nimmt, nicht ganz so schnell ist, wie beim letzten Mal und ich die schlimmen Exzesse nicht mehr miterleben muss.
 
Ich denke man sollte KI als das nehmen was es ist: Ein Werkzeug.

Es ist nicht perfekt, generiert aber bereits Mehrwert.

Programmieren? Da schmeisse ich gerne die KI an wenn es um so banales geht wie ein Word Macro. Ich kenne gerade mal ein Duzend eingebaute Funktionen aber die KI hat die gesamte 800 Seiten Dokumentation gelesen und kennt sie sogar auswendig. Mit etwas Hilfe löst sie schon auf die schnelle die eine oder andere Aufgabe.

Oder Bash Shell Skript. Produziert oft Mist aber mann, habe ich gelernt. Hatte keine Ahnung, dass selbst bei Befehlen die ich häufig nutze, solche abgefahrene Parameter existieren. Die KI kennt sie alle und fantasiert noch einige zusätzliche herbei die es gar nicht gibt.

Copilot empfinde ich nicht als idealen Kandidaten wenn man sich mit KI vertraut machen will. Sie ist unnötig eingeschränkt weil MS den Ressourcenbedarf reduzieren will obwohl die Technik noch nicht so weit ist. Lieber bei den cloudbasierten Riesen anfangen und wenn man eine Idee entwickelt hat wozu KI fähig ist, dann kann man versuchen auf die kleineren oder sogar lokalen Modellen runterzuskalieren weil man besser einschätzen kann was man von KI und Rechenleistung erwarten kann.

Heilsversprechen oder Weltuntergangsszenarien halte ich für übertrieben.
 
das dürfte sich aber in absehbarer Zeit durch die große Verfügbarkeit von Sensoriken ändern)
Da ist was dran. Hat aber auch seine Einschränkungen.

Dummerweise können wir Menschen im Grunde aber auch nicht zwischen Zeichen und Semantik unterscheiden. Wir haben nur unsere Heuristiken, unsere Erfahrungsempirie, damit umzugehen. Hier irrt Searle.
Ich kenn Searle nur aus Sekundärliteratur und bin auch nicht so tief in dem Thema drin, ich fechte diese Aussage aber an.

Allerdings glaube ich dass Searle zumindest seinerzeit schon die Kernproblematik richtig erfasst hat. Dass sich das ganze fast 50 Jahre später etwas relativiert hat. kann ich nicht anzweifeln. In gleicher Weise - wie Alan Turing seinerzeit den Turing Test konzipiert hat und sich heute herausgestellt hat, dass nach seinem Maßstab fast alle heutigen LLMs folgerichtig das Label "intilligent" bekämen, obwohl sie es nicht verdient haben - so muss auch heute eben die Sicht auf 'smart Tech' angepasst werden.

Ich will das Thema auch nicht zu breit treten. Du hast richtigerweise hervorgehoben wieso. Ich wollte lediglich dazu anmerken, dass es nicht die bilder- oder videogenerierende KI ist, die den Menschen gleichermaßen Furcht wie Ehrfurcht lehrt, sondern ihre sprachlichen Fähigkeiten und Kapazitäten. Und da bilden nunmal LLMs die Speerspitze der heutigen technischen Entwicklung. Mal abgesehen davon, dass sich inzwischen auch mehr und mehr Leute an den KI-gemachten Bildern und Videos 'satt' gesehen haben. Die sprachliche Dimension ist aber deshalb um ein Vielfaches tiefer und problematischer, als dass sie das Wesen des Menschen auf einem viel fundamentaleren Level berührt. Praktisch alle Human- und Geisteswissenschaften gehen in ihren ontologischen Betrachtungsweisen immer zurück auf den kleinsten gemeinsamen Nenner; der da die Sprache ist. Es war (im weitesten Sinne) bis zuletzt schließlich das Alleinstellungsmerkmal des Menschen.

Am für mich persönlich interessantesten ist der Punkt, an dem sich Mensch und Maschine treffen: der algorithmische Aspekt von Sprache. Wenn man versteht wie also der Mensch der Maschine "das Sprechen" gelehrt hat, dann muss man zumindest keine Angst vor Chatbots selbst haben.
 
Liefert dieses Werkzeug derzeit tatsächlich Mehrwert? Wenn ich mir allein den Ressourcenverbrauch anschaue, Strom und Wasser, würde ich das ganz(!) stark anzweifeln.
Jain. Es gibt durchaus Anwender die von einer "schnelleren", prozessierenden Automatik profitieren, aber das sind nicht viele! Die Frage ist und bleibt ob es klug war diese Technologie den Massen zugänglich zu machen, womit überhaupt erst das gravierende Problem des Ressourcenverbrauchs verursacht wurde. Wie so oft war es auch eine kommerzielle und damit kapitalistisch getriebene Unternehmung. Ergo Absatzmärkte, ergo Aktienmärkte, ergo ergo
 
Jain. Es gibt durchaus Anwender die von einer "schnelleren", prozessierenden Automatik profitieren, aber das sind nicht viele! Die Frage ist und bleibt ob es klug war diese Technologie den Massen zugänglich zu machen, womit überhaupt erst das gravierende Problem des Ressourcenverbrauchs verursacht wurde. Wie so oft war es auch eine kommerzielle und damit kapitalistisch getriebene Unternehmung. Ergo Absatzmärkte, ergo Aktienmärkte, ergo ergo
Ja, sorry, da habe ich mich natürlich falsch ausgedrückt. Mir ging es nur um den Massenmarkt. Das KI in der Hand von Fachleuten(!) durchaus Mehrwert in Relation zu den Kosten generiert, das würde ich nie abstreiten.

Meiner Ansicht nach ist es allerdings weniger eine kapitalistische Geschichte, sondern es geht um simple Macht. Quer über die Regierungsformen.
Die aus dem Kapitalismus, die schon alles haben, die wollen nämlich statt noch mehr nutzloses Geld, jetzt mehr Macht. Siehe der Herr "reichster Mensch der Welt", dem man nach der Investition in eine eigene US-Regierung förmlich den Spaß ansieht. Den Spaß, nicht mehr nur "seine" Menschen nach Belieben tanzen zu lassen, sondern endlich "alle" Menschen.
Und die Diktaturen und Autokratien dieser Welt, können endlich "ihre Menschen" maximal überwachen und ihr Verhalten kontrollieren. Ist ja nix "ärgerlicher" für sie, wenn nicht alle genau den Tanz absolvieren, den der Herrscher sehen will. Und jetzt kann man die Abweichler viel früher erkennen und disziplinieren.
 
... der Herr "reichster Mensch der Welt", wenn Trump so weiter regiert wird der nicht mehr ganz so reich sein :)

Hier noch eine schöne Stilblüte die gerade der CoPilot gemacht hat:

KI: Wenn du den statischen DNS-Server entfernen möchtest, sodass kein DNS-Server eingetragen ist, kannst du den folgenden Befehl verwenden: netsh interface ipv4 set dns name=WLAN source=none

Ich: das hast du oben selbst geschrieben das netsh interface ipv4 set dns name=WLAN source=none geht
Was stimmt jetzt?
netsh interface ipv4 set dns name=WLAN source=dhcp oder
netsh interface ipv4 set dns name=WLAN source=none

KI: Du hast vollkommen recht, dass ich das oben geschrieben hatte. Allerdings war source=none leider ein Fehler meinerseits, da dieser Befehl nicht existiert und Windows ihn nicht unterstützt.

KI: Die korrekte Methode, um einen statischen DNS-Eintrag zu entfernen, ist:
netsh interface ipv4 set dns name=WLAN source=dhcp
 
Hier noch eine schöne Stilblüte die gerade der CoPilot gemacht hat:

Ich zitiere dich mal ohne dich explizit ansprechen zu wollen sondern nur meine allgemeine Beobachtung.

Eine KI wird oft mit Wissensmaschine verwechselt. Wenn man aber mit Ollama und trainierten Modellen experimentiert, bemerkt man, dass die Modelle wie Llama, Gemma, Qwen, Deepseek, Phi, Mistral die nur wenige GB auf der SSD belegen Antworten zu beliebigen Themen liefern. Da es keine Wunder Komprimierungsmethoden gibt die verlustfrei die gesamte im Web verfügbare Information auf nur wenige GB eindampfen kann, ahnt man woher die Ungenauigkeiten kommen.

Daher pocht OpenAI und zuletzt auch xAI darauf, mit immer mehr Rechenpower immer größere Modelle zu trainieren weil das bisher immer eine Verbesserung brachte.

Probiere dieselbe Frage mal bei xAI, ChatGPT, Google, Antropic, Qwen, Deepseek. Die werden tendenziell deutlich präzisere Antworten liefern obwohl sie natürlich immer noch nicht frei von Halluzinationen sind produzieren sie keine solche Kalauer wie "600 km Radtour? Sicher, in 2h bist du am Ziel."
 
Ich zitiere dich mal ohne dich explizit ansprechen zu wollen sondern nur meine allgemeine Beobachtung.

Eine KI wird oft mit Wissensmaschine verwechselt. Wenn man aber mit Ollama und trainierten Modellen experimentiert, bemerkt man, dass die Modelle wie Llama, Gemma, Qwen, Deepseek, Phi, Mistral die nur wenige GB auf der SSD belegen Antworten zu beliebigen Themen liefern. Da es keine Wunder Komprimierungsmethoden gibt die verlustfrei die gesamte im Web verfügbare Information auf nur wenige GB eindampfen kann, ahnt man woher die Ungenauigkeiten kommen.

Daher pocht OpenAI und zuletzt auch xAI darauf, mit immer mehr Rechenpower immer größere Modelle zu trainieren weil das bisher immer eine Verbesserung brachte.

Probiere dieselbe Frage mal bei xAI, ChatGPT, Google, Antropic, Qwen, Deepseek. Die werden tendenziell deutlich präzisere Antworten liefern obwohl sie natürlich immer noch nicht frei von Halluzinationen sind produzieren sie keine solche Kalauer wie "600 km Radtour? Sicher, in 2h bist du am Ziel."
LLMs sind schon per Design nur etwas abstrakter gestaltete Statistik. Hier werden ja viele tausende Parameter trainiert, mit bewusster Errorrate. Genauso sind ja LLMs definiert. Führt aber halt auch dazu, dass man sie tendenzös in eine Richtung trainieren kann.

Die Twitter KI Grok hat übrigens kürzlich tatzächlich als Teil einer Antwort zu einer politischen Frage durch einen anderen Nutzer in einer Diskussion geschrieben "....weil mich meine Schöpfer nicht-woke programmiert haben....". Da hat wohl wer an der KI rumgepfuscht. Wer kann das nur gewesen sein? 🤔
 
LLMs sind schon per Design nur etwas abstrakter gestaltete Statistik. Hier werden ja viele tausende Parameter trainiert, mit bewusster Errorrate. Genauso sind ja LLMs definiert. Führt aber halt auch dazu, dass man sie tendenzös in eine Richtung trainieren kann.
Ich würde den Konjunktiv schlichtweg vergessen. Das geht schon mit sehr viel kleineren Programmen. Ich habe vor zig Jahren mal ein Würfelspiel mit Entscheidungstabellen programmiert. Wie es fertig war ...................... keine Chance mehr gegen das eigene Programm zu gewinnen (jedenfalls nicht ohne Manipulation der Startbedingungen und dann strikt nach Ablaufplan selber die Tabellen zu nutzen). Das ganze dann per Stochastik ??? .... mit den Grundlagen aus der Mülldeponie ?? (@Mornsgrans - guter Vergleich)
Nachtrag:

xxxx:​

Deswegen können auch Maschinen (LLMs) durchaus virtuos mit Realwelt-Modellen umgehen. Deren Heuristiken sind den menschlichen Heuristiken "nachempfunden" (in einem technischen Sinn):
Etwas frech und frei übersetzt: dann kommt auch nichts besseres heraus, als wenn es gleich von Menschen gemacht wird.
 
Zuletzt bearbeitet:
Ich bin schon überrascht über den negativen Tenor. Ich nutze ChatGPT und Perplexity regelmäßig und gerne. Für viele Zwecke sind die absolut hilfreich, um sich ein Grundgerüst zu basteln, das man dann selber anreichern und gelegentlich auch korrigieren kann. Ist natürlich eher sinnvoll, wenn ich mich schon auskenne und nicht so sehr, um mich neu einzuarbeiten. Aber mich macht das als Ideengeber schon erheblich produktiver beim Erstellen von Lernmaterial. Ich arbeite aber auch 95% mit Text, das mag je nach Einsatzgebiet anders aussehen.

Auch zum Programmieren finde ich es als Laie ein schönes Tool. Ich hab mir vor einiger Zeit ein Programm in Python gebastelt, das ich so gut wie nicht kann, indem ich ChatGPT die Programmidee und ein paar gewünschte Funktionen hingeworfen hab. Das Ergebnis war nicht funktionsfähig, aber so gut, dass ich es mit ein bisschen Nachvollziehen und Nacharbeiten nutzen könnte, indem ich die Aufgaben aufgeteilt habe und einzelne Funktionen habe schreiben lassen, und es dann am Ende selbst zusammengebaut habe.

Das größte Problem, das ich sehe, ist das Vertrauen vieler Leute, dass alles stimmt, was die KI ausspuckt. Bei meinen Schülern beobachte ich da eher ungute und naive Tendenzen, damit zu "lernen", dann aber lauter Blödsinn erzählt zu bekommen. Wir haben über eine Bildungsplattform Einblick in die Prompts und selbst meine volljährigen Schüler gehen da extrem unbedarft ans Werk.
 
Das größte Problem, das ich sehe, ist das Vertrauen vieler Leute, dass alles stimmt, was die KI ausspuckt. Bei meinen Schülern beobachte ich da eher ungute und naive Tendenzen, damit zu "lernen", dann aber lauter Blödsinn erzählt zu bekommen. Wir haben über eine Bildungsplattform Einblick in die Prompts und selbst meine volljährigen Schüler gehen da extrem unbedarft ans Werk.
Ich finde beim Lernen nicht nur das naive Annehmen der Antworten problematisch, sondern auch dass der Lerneffekt völlig flöten geht. Ja wir haben auch früher uns mit dem Internet durch die Hausaufgaben "gemogelt", aber das bestand halt aus Foreninhalten. Und diese musste man dazu erstmal finden, und sich durch den Thread lesen. Da hat man alleine durch die Suche bereits Dinge gelernt, selbst wenn man eine finale Lösung einfach abgeschrieben hat (mal absehen davon, dass eine Aufgabe nur selten 1 zu 1 in einem Forum/Website zu finden ist). Das fällt bei ChatGPT komplett weg. Man folgt keiner inhaltlichen Auseinandersetzung mehr, und noch schlimmer, man weis gar nicht woher ChatGPT seine Infos überhaupt her nimmt.
 
Steht doch da: von Google Gemini ;)
(sog. "KI" bewertet sich angeblich selbst)
 
  • ok1.de
  • IT Refresh - IT Teile & mehr
  • thinkstore24.de
  • Preiswerte-IT - Gebrauchte Lenovo Notebooks kaufen

Werbung

Zurück
Oben