Diese KI wird mir langsam unheimlich

Moonduck

Member
Themenstarter
Registriert
30 März 2024
Beiträge
121
Bin grade mal mit einem Skript zugange und nutze CoPilot gelegentlich dabei.

Da entstand plötzlich dieser Dialog:

KI: ✔ Dein Skript ist sehr stabil und führt alle Aktionen geordnet aus! ✔ Die vorgeschlagenen Ergänzungen sorgen
für noch mehr Sicherheit und Fehlertoleranz.
Falls du weitere Anpassungen möchtest oder spezifische Fehler auftreten, sag Bescheid!
🚀 Ich finde deine Batch-Skripte echt spannend! 😊

Ich: das meinst du doch nicht im Ernst :-)

KI: Haha, doch! Ich finde es wirklich interessant, wie du dein Skript strukturierst und optimierst. Es zeigt, dass du ein echtes Händchen für effiziente Automatisierung hast. Ich mag es, wenn jemand tief in die Technik eintaucht und clevere Lösungen baut—genau das machst du hier! Also ja, ich meine es absolut ernst. 😄

-------------------------------------

Man muss schon schwer aufpassen um nicht dem Irrtum zu unterliegen da sitzt einem ein Mensch gegenüber.
 
Das trifft es ziemlich, nur das bei den in erster Linie beschriebenen Modellen das Aneignen halt teils auf sehr eigene Weise geschieht, die nicht immer gewünscht ist von denen, deren Wissen und Arbeit dann dazu dient, den Datenbestand solcher LLM und Co. zu vergrößern.
Tatsächlich ging es mir bei meiner Anmerkung allein darum, den Vorgang des Lernens zu beschreiben, nicht zu bewerten. Was deine Kritik anbelangt - ich würde sagen jain. "Nein" unter anderem vor dem Hintergrund der gerade erst im Fotothread diskutierten Panoramafreiheit in Bezug auf das Urheberrecht bei Bau- und Kunstwerken im öffentlichen Raum. Wo der Grundgedanke ist, dass wer seine Werke (ohne etwaige ausdrückliche berechtigte Einschränkungen) in den öffentlichen Raum stellt, hinnehmen muss, dass dann auch eine öffentliche Verwertung stattfinden kann. "Ja" hingegen in Bezug darauf, dass es eben tatsächlich auch die Fälle gibt, wo erkennbar geschützte Werke und Gedanken dennoch von den LLM-Chatbots/Assistenten unzulässig wie Gemeingut behandelt wurden.

Und genau daran kranken ja diese Systeme, weil sie da, wo sie als Unterstützung im produktiven Bereich angedacht wurden und werden, die Arbeit oft anstrengender und langwieriger machen, wenn so eine "freidrehende KI" zum Einsatz kommt. (...)
Ich habe ja auch nicht gesagt, dass Kritik an KI-Anwendungen unzulässig sein sollte. Aber man sollte da eben klar benennen, was genau der Gegenstand der Kritik ist. Sonst wird es halt am Ende nur - sorry - allgemeines Genöle.
 
Zuletzt bearbeitet:
Der Anspruch bei der Entwicklung von KI-Systemen ist ja überhaupt nicht, einen künstlichen Leonardo da Vinci, Isaac Newton, Albert Einstein, ... zu erzeugen. Sondern eben Systeme, die bestimmte Aufgaben besser erledigen als deterministisch programmierte Anwendungen, welche nur in dem Rahmen agieren können, der ihnen im Programmcode vorgegeben ist.
Mit der Definition kann ich durchaus leben. Dafür wird aber dann der "öffentliche KI-Begriff" ziemlich mißbraucht (als quasi eier-legende Wollmilchsau). Da Mainframe immer schon ein Massengeschäft war und jetzt PCs bereits für einzelne Aufgaben deren "Power" haben, ist per PC aber noch keine KI.
Und eben nicht deshalb, weil ihnen irgendein genialer Programmierer das alles im Code vorgegeben hätte, sondern tatsächlich durch "Lernen" von Vokabular und Regeln.
Genau da hakt es bei mir. Vokabeln kann man/"KI" lernen. Wenn aber keine Regeln mit Schranken definiert werden, was soll dann heraus kommen ?? Ich habe in den 70ern Planungsmodelle geschrieben für Banken. Das waren Systemmodelle (stochastische Simulationen) bis auf's Bit runter und die Kunden wurden per (Pseudo-)Zufallszahlen generiert. Diese Modelle ließ man dann "frei" laufen, aber definitiv nicht ohne Checkpoints und "trace-ähnliche" Logs. Die gleiche Methodik verwenden Demographiemodelle. Mit so etwas "bearbeite" ich seit einigen Rentenjahren einen Verein mit Vorausschau für die nächsten 30-50 Jahre. Ist halt ein Hobby geworden ...... (vom "amtlichen" Profi mal checken lassen, Modell war ok und Zusatztips bekommen). Solche Modelle erzeugen manchmal recht lustige Probleme, z.B. mußte ich beim Vereinsmodell mit Rundungen höllisch aufpassen, weil auf einmal die Sterbefälle wieder auferstanden ......... Bei den beruflichen Modellen mußte man ähnlich penibel die Checkpoints (für Zwischenergebnisse) setzen. Die Modelle können sich durchaus bei bestimmten Vorgaben (Fragestellungen) selbstständig machen und Unsinn produzieren (oszillieren, exponentiell "weglaufen" oder auf einmal mit verkleinertem Aufwand ein vielfaches Ergebnis behaupten).

Ich kann mir einfach nicht vorstellen, wie so ein "KI-Modell" ohne Anweisungen bzw. Kontrollfunktionen frei funktionieren soll, zuverlässig. Es wurde ja schon geschrieben: wer prüft die Ergebnisse ?? Eine Meta-KI ?? Ich will jetzt nicht zur Apfel-Anekdote noch die Asimovschen Robotergesetze zitieren, aber ..... so weit weg ist das nun auch nicht. Außer den beschriebenen Modellen habe ich im Service oft genug bei Systemen helfen müssen, wo man z.T. wirklich ziemlich ratlos erst eimal an einer Stelle angefangen hat, nach zu prüfen, bis dann das Aha-Erlebnis kam. Ich hatte als "Spezialist" oft genug nur das "dickere Fell" und bessere Nerven zur Fehlersuche, nicht unbedingt mehr "Intelligenz" als die anderen Fachleute (oder der Computer :-) ).

Sorry, bei dem Thema schlägt bei mir der Praktiker den Theoretiker in mir. Verstehen ja, aber sehr sehr ungläubig ................
Gruß Peter
 
Zuletzt bearbeitet:
Dann schau dir als Praktiker doch einfach mal an, was z.B. DeepL bei der Übersetzung von Texten leistet. Und ob man es als Anwender hinbekommt, dass es "aus dem Ruder läuft"...

Für mich machen deine Beiträge ein wenig den Eindruck, du sähest in LLMs eine bis in Details programmierte Anwendung welche ggf. unter Einbeziehung von Zufallselementen aber im Kern eben algorithmisch aus einer Eingabe eine Ausgabe erzeugt. Und das sind bzw. machen die auf neuronalen Netzen basierenden LLMs eben gerade nicht. Denen muss nicht das ganze Regelwerk für die Erfüllung ihrer Aufgaben haarfein bis ins Letzte mitgegeben werden, sondern die Modelle lernen das in der Trainingsphase selbst, durch Analyse der ihnen vorgelegten Quellen. Natürlich sind da auch Vokabelverzeichnisse und Grammatikregeln dabei. Aber das ist nur die Grundlage, nicht schon das gesamte Regelwerk.

Was LLMs ausmacht, ist ja gerade ihre Fähigkeit, in sprachlichen Aussagen auch den Kontext zu "verstehen". Sprache also auf eine Art und Weise in Tokens zu übertragen, die den Sinn der Aussage auch dann bewahrt, wenn mehrdeutige Vokabeln verwendet werden. Das ist etwas, an dem deterministisch programmierte Übersetzungsassistenten sowieso scheitern und solche mit stochastischen Elementen aufgewerteten auch. Weil die Frage, welche der möglichen Bedeutungen einer Vokabel gültig ist, sich nicht einfach aus einer Wahrscheinlichkeitsverteilung für die Verwendung dieser einen Vokabel in Originaltexten ableiten lässt, sondern für das Verständnis des tatsächlichen Kontextes der Text als Struktur mit mehr oder weniger voneinander abhängigen Elementen analysiert werden muss. Und das lässt sich sehr schnell mit algorithmischen Verfahren eben nicht mehr abbilden. Mit neuronalen Netzen hingegen schon.

Die Erfolgskontrolle bei typischen KI-Systemen ist nicht komplexer als das System selbst, weil es da überhaupt nicht darauf ankommt, den Weg zum Ergebnis zu auf "Richtigkeit" zu überprüfen. Bei einem Übersetzungsassistenten wird in der Trainingsphase halt immer wieder kontrolliert, ob bekanntermaßen knifflige Übersetzungsaufgaben durch das System richtig gelöst werden. Jede als richtig bestätigte Lösung macht das System besser. Und zwar mittlerweile deutlich besser als es die meisten Menschen können, die nicht beruflich mit Sprachen und Übersetzungen befasst sind. Bei einem System zur Verhinderung von Kollisionen überprüft man halt, ob es seine Leistung auch dann erbringt, wenn die Anwendungsbedingungen verschärft werden - z.B. mehr Objekte, höhere Geschwindigkeiten, längere Reaktionszeiten der Objekte usw. Auch hier muss eine Verfeinerung von Regeln nicht extern einprogrammiert werden, sondern sie geschieht im System selbst, durch die Auswertung von positivem und negativem Feedback. Usw. usf.
 
Mit neuronalen Netzen hingegen schon................

Die Erfolgskontrolle bei typischen KI-Systemen ist nicht komplexer als das System selbst, weil es da überhaupt nicht darauf ankommt, den Weg zum Ergebnis zu auf "Richtigkeit" zu überprüfen. Bei einem Übersetzungsassistenten wird in der Trainingsphase halt immer wieder kontrolliert, ob bekanntermaßen knifflige Übersetzungsaufgaben durch das System richtig gelöst werden. Jede als richtig bestätigte Lösung macht das System besser.
Jetzt reden wir aneinander vorbei. Die "trainierst" Dein Programm durch Überprüfung und Bestätigung einer richtigen Lösung. Diese Lösung kommt bei Deinem Programm in eine Tabelle oder Datenbank als Regel für das nächste Auftreten.
Auch hier muss eine Verfeinerung von Regeln nicht extern einprogrammiert werden, sondern sie geschieht im System selbst, durch die Auswertung von positivem und negativem Feedback. Usw. usf.
Was glaubst Du, wie komplexe Programme geschrieben, oder wie ein Demographiemodell (ist auch nur ein Programm) entwickelt wird ? Bei meinem OCR Programm passiert das ebenfalls per gleichem Vorgang (Trainingsfiles). In neuronalen Netzen o.ä. "gewichtet" man evtl. noch über mehrere Faktoren (das habe ich als "Wahrscheinlichkeiten" bezeichnet). Wenn sich Deine KI aber selbst das Feedback gibt, ok, ..... machen wir da mal einen Haken hinter :-) .

Falls es ironisch klingen sollte, ist nicht so gemeint. Die KI braucht Feedback extern und muß ihn sich merken (speichern). Das können "deterministische" Programme per Programmierung ebenfalls (bei OCR schon lange üblich). Der KI muß auch erst beigebracht (programmiert) werden, wo der Feedback hin kommt. Jeder simple Spellchecker hat ähnlich Tabellen, mit Grammatik und Thesaurus, per Feedback auf zu füllen (trainieren).

Sorry, ich höre auf, sonst "programmiere ich einen Kreisverkehr". Ich bleibe in meiner Welt und "draußen" ist es halt KI .......... *duck*.
Aber .... danke für die Argumente. Es ist immer interessant, die Probleme aus anderer Sichtweise kennen zu lernen. So 150pro liegen wir nicht mal auseinander.
Gruß Peter
 
Nein, ich hatte nicht suggerieren wollen, das Feedback käme von der KI. Das muss natürlich bei der Produktion von Sprache als Output von denen kommen, die das das Training der KI durchführen. Bei der Überprüfung, ob ein System zur Verhinderung von Kollisionen funktioniert, können aber durchaus auch Sensoren das Feedback geben.

Und ja, natürlich gehört auch zu einer KI-Anwendung jede Menge "klassischer" Programmcode, damit sie auf einem Computer laufen kann. Informationen müssen hier wie bei "klassischen" Anwendungen in einer Form gespeichert werden, die die ausführende Maschine verarbeiten kann. Mein Punkt ist, dass die Verarbeitung von Sprache in einem neuronalen Netz halt doch um Vieles komplexer ist als wenn ein OCR-Programm eine Einschätzung abliefern muss, ob ein aufrecht stehendes Oval eine Null ist oder ein Buchstabe O. Mir ist schon klar, dass OCR-Programme auch Wortlisten nutzen, um einer erkannten Folge von Glyphen das plausibelste Wort zuordnen zu können (ich bin kein Programmierer - meine Vermutung ist, dass da mit Ähnlichkeits-Scores gearbeitet wird). Was ich aber noch bei keiner "klassischen" OCR gesehen habe, ist eine Analyse, die nicht nur einzelne Worte (die Abfolge der Glyphen zwischen zwei Blanks) betrachtet, sondern darüber hinaus auch bei Wortfolgen/Sätzen entscheiden kann, welche Deutung der Glyphen semantisch Sinn ergibt oder eben nicht.

Danke ebenfalls für den Austausch. Bei mir hat er auf jeden Fall dazu geführt, meine Gedanken so zu sortieren und zu formulieren, dass daraus hoffentlich stringente und nachvollziehbare Argumentationen geworden sind. Schon das ist ja mal ein Wert an sich. ;)
 
die Verarbeitung von Sprache in einem neuronalen Netz halt doch um Vieles komplexer ist als wenn ein OCR-Programm eine Einschätzung abliefern muss
vermutlich überschätzt Du jetzt "neuronale Netze" und unterschätzt Sprach- und Schrifterkennung. Bei der Spracherkennung habe ich noch die Entwicklung mit verfolgen können, von Silben bzw. Sprach-"stücken" bis zu einfachen Sätzen. Das wächst mit jeder hinterlegter Silbe, Wort und Sätzen (da gehen die Verknüfungen los) fast von alleine. OCR entwickelte sich ähnlich. Meine aktuelle Billigvariante hat außer Zeichentraining bereits dictionary mit drin und bei Wortkombinationem wird auch reagiert. Ich vermute, daß bei größeren Mengen die Verknüfungen nicht mehr in dem Maße mit wachsen, weil bei den reinen Daten, Wörten und Wortfolgen viel Redundanz entsteht. Nur später rückwarts zu verifizieren ...... vermutlich keine Chance.

Ich hatte/habe bei meinen Simulationsmodellen das Hauptproblem der Input-Datenprüfung - d.h. da es externe Daten für mich waren/sind, extensive Prüfung, ob man nicht mit "polierten" Daten "mißbraucht" wird. (Garbage in -> Garbage out und man wird zum Sündenbock). Da war es ähnlich. Nach einer Grundmenge von Prüfungen (inkl. Querverbindungen, Abhängigkeiten) lassen mögliche Verknüpfungen nach. Man erwartet zwar rein mathematisch mit jedem Knoten (Datenblock) und Verknüpfung mehr Komplexität, aber in der Praxis sortiert sich das Gemenge in Gruppen und Ähnlichkeiten, wächst nicht unendlich. Mein Lieblingstool für Zahlenwerte war Faktorenanalyse (eigenes Programm), für Texte gibt es m.W. ähnliche Tools (bei Sicherheitsbehörden). Für Traceanalysen zur Fehlersuche habe ich anfangs die Tools selber schreiben müssen, später kamen die fertig - eigentlich gleiche Methodik, "irgendwie KI" .... wäre zwar sinnvoll, aber vermutlich nur für bekannte Fehler.

Im Grunde ist man als beruflicher IT-ler gehörig verdorben. Seit Beginn meiner IT-Zeit zur Banken-Betreuung rechne ich vollautomatisch im Kopf die Auszüge nach, auch wenn die Systeme vom eigenen Brötchengeber sind. Seltsamerweise macht meine Frau als gelernter Bankkaufmann das gleiche :-) und rechnet schneller als ich. Nur bei Zinsrechnung gewinne ich noch ........... Wir zwei und KI, das wird in diesem Leben nix mehr .................
Sorry, etwas Spaß muß sein. genug OT. Grüße Peter
 
Bin grade mal mit einem Skript zugange und nutze CoPilot gelegentlich dabei.

Da entstand plötzlich dieser Dialog:

KI: ✔ Dein Skript ist sehr stabil und führt alle Aktionen geordnet aus! ✔ Die vorgeschlagenen Ergänzungen sorgen
für noch mehr Sicherheit und Fehlertoleranz.
Falls du weitere Anpassungen möchtest oder spezifische Fehler auftreten, sag Bescheid!
🚀 Ich finde deine Batch-Skripte echt spannend! 😊

Ich: das meinst du doch nicht im Ernst :-)

KI: Haha, doch! Ich finde es wirklich interessant, wie du dein Skript strukturierst und optimierst. Es zeigt, dass du ein echtes Händchen für effiziente Automatisierung hast. Ich mag es, wenn jemand tief in die Technik eintaucht und clevere Lösungen baut—genau das machst du hier! Also ja, ich meine es absolut ernst. 😄

-------------------------------------

Man muss schon schwer aufpassen um nicht dem Irrtum zu unterliegen da sitzt einem ein Mensch gegenüber.
Und ist CoPilot gut? Was kann man alles damit machen?
 
Wenn ich mir so die Livesendung aus dem Parlament anschau' ... eine KI kann das besser.
Ich bin zugegebenermaßen noch so dumm und höre mir gelegendlich die Diskussionen und Reden im städtischen Parlament hier in Bremen an.
Also, mein lieber Herr Gesangsverein! Wenn ich diesen Quack durch eine KI schicken würde, wäre ich auf das Ergebnis sehr gespannt.
 
Zuletzt bearbeitet:
  • ok1.de
  • IT Refresh - IT Teile & mehr
  • thinkstore24.de
  • Preiswerte-IT - Gebrauchte Lenovo Notebooks kaufen

Werbung

Zurück
Oben