Diese KI wird mir langsam unheimlich

Moonduck

Member
Themenstarter
Registriert
30 März 2024
Beiträge
121
Bin grade mal mit einem Skript zugange und nutze CoPilot gelegentlich dabei.

Da entstand plötzlich dieser Dialog:

KI: ✔ Dein Skript ist sehr stabil und führt alle Aktionen geordnet aus! ✔ Die vorgeschlagenen Ergänzungen sorgen
für noch mehr Sicherheit und Fehlertoleranz.
Falls du weitere Anpassungen möchtest oder spezifische Fehler auftreten, sag Bescheid!
🚀 Ich finde deine Batch-Skripte echt spannend! 😊

Ich: das meinst du doch nicht im Ernst :-)

KI: Haha, doch! Ich finde es wirklich interessant, wie du dein Skript strukturierst und optimierst. Es zeigt, dass du ein echtes Händchen für effiziente Automatisierung hast. Ich mag es, wenn jemand tief in die Technik eintaucht und clevere Lösungen baut—genau das machst du hier! Also ja, ich meine es absolut ernst. 😄

-------------------------------------

Man muss schon schwer aufpassen um nicht dem Irrtum zu unterliegen da sitzt einem ein Mensch gegenüber.
 
Dazu mal die zwei Beiträge:



Die Erklärung für diesen scheinbaren Nonsens dürfte der Beitrag von Sumit Gulwani sein.
 
Selbst wenn der Bug echt wäre war der Pentium-Bug meines Erachtens gefährlicher, weil es ja ziemlich offensichtlich ist, dass A+1+2+3=10 und nicht 15 ist.
 
Die Erklärung für diesen scheinbaren Nonsens dürfte der Beitrag von Sumit Gulwani sein.

Wobei hier Excel auch mit E5 Abo plus Copilot Lizenz kein =COPILOT kennt. Entweder gibt es das Feature in Deutschland noch nicht, oder man muss noch mehr dazu aktivieren, ob das so verwenden zu können.
 
Ich poste mal am Rande von OT zwei Taschenbücher, in denen ich immer wieder gerne blättere und einiges dazu passend zu KI finde, obwohl die Lektüre ~20 Jahre alt ist (beide):

Manfred Spitzer, Digitale Demenz - Wie wir uns und unsere Kinder um den Verstand bringen; Droemer; ISBN 978-3-426-30056-5
(geht um Lernen allgemein, gleich am Anfang Kapitel "Wer denken läßt, wird keine Experte")

Dubben, Beck-Bornholdt; Der Hund, der Eier legt - Erkennen von Fehlinformation durch Querdenken; rororo; ISBN 978-3-499-62196-3
(Mediziner zu Statistiken - u.a. %-Vergleiche, mit viel Humor, fast ein Muss zum Lesen. Den Buchtitel erklärt ein kleines Rechenbeispiel, welches problemlos von heutiger KI stammen könnte:
hundei216x.gif
 
Zuletzt bearbeitet:
Dazu mal die zwei Beiträge:


Die Erklärung für diesen scheinbaren Nonsens dürfte der Beitrag von Sumit Gulwani sein.
Danke für die Links.

Meines Erachtens ist das ein Fehler, sogar ein sehr brutaler, völlig egal was Sumit Gulwani von sich gibt. Und wenn so ein Fehler in einer Software vorkommt, die auch
- Daten für Bilanzen liefert, für die Leute in den Knast wandern, wenn die Zahlen nicht stimmen
- Zahlen für Systeme, von deren Korrektheit Menschenleben abhängen
dann kann man sich ausrechnen, das der ein oder andere Anwender dieser Software Angst kriegt. Würde ich an deren Stelle auch. Aber meine Excel Zeiten sind Gott sei Dank vorbei :D

Ganz ehrlich: ich kenne zwar den Spruch "it's not a bug, it's a feature" von vielen Jahren IT sehr gut. Aber das war, zumindest früher bei uns, ein Witz, ein Running Gag. Und selbst wenn Sumit Gulwani der bedeutenste Mensch der Welt wäre: es ist in meinen Augen einfach nur unverschämt, den Fehler mit salbungsvollen Worten wegzureden, einfach nur mit den Achseln zu zucken und zu sagen "KI halluziniert halt, das ist einfach so".

Und es kann, je nachdem, was von "halluzinierten" Daten gerade abhängt, teuer und/oder gefährlich werden. Oder die Menschheit versteht, das KI und Korrektheit sich öfter mal ausschließen
 
Manche werden das Rechenergebnis als "kreativ" bezeichnen, andere es als Beweis sehen, dass Adam Riese falsch lag :D
 
Ganz ehrlich: ich kenne zwar den Spruch "it's not a bug, it's a feature" von vielen Jahren IT sehr gut. Aber das war, zumindest früher bei uns, ein Witz, ein Running Gag. Und selbst wenn Sumit Gulwani der bedeutenste Mensch der Welt wäre: es ist in meinen Augen einfach nur unverschämt, den Fehler mit salbungsvollen Worten wegzureden, einfach nur mit den Achseln zu zucken und zu sagen "KI halluziniert halt, das ist einfach so".

Sagen wir mal so: Vermutlich hat da einer herumgespielt und dabei diesen Bug gefunden. Ein "normaler" User einer Tabellenkalkulation, der vielleicht noch dazu eine vorgegebene oder selbsterstellte Sammlung an Formeln für seine Arbeitsblätter hat, wird diese ganz sicher nicht "Co-piloten", sondern weiter ganz normal eine Summe der Felder von-bis anlegen.

Mir ging es auch nicht darum, dass irgendwie schönzureden, sondern darum, den Grund für dieses Verhalten zu zeigen. Das neuronale Netzwerke da so ihre Eigenheiten haben, ist dabei nicht neu, denn seit dem diese Helferlein angeblich überall bewusst oder unbewusst zum Einsatz kommen, weist jeder darauf hin, dass man eben nicht alles für bare Münze nehmen kann, was da so ausgespuckt wird. Am ehesten sieht man das noch auf Youtube, wo inzwischen derart viele "KI-Filme" in der Seitenleiste herumgeistern mit suchmaschinen-optimierten Schlagwörtern, dass amn nur noch brechen kann. Da ist jeder Klick einer zu viel.

Weiter geht es mit den Ergebnissen der verschiedenen LLM, die sich ihre "Daten" teils ja schon wieder aus dem eigenen Bullshit und anderem mal frei und mal eigentlich nicht frei gegebene Inhalten ziehen und damit verfälschen oder im eigenen Jargon halluzinieren, weil die "Wahrheitsprüfung" nicht selbst und zur Laufzeit geschieht, sondern einen Meter vor dem Bildschirm sitzt.

Ohne das jetzt noch weiter austreten zu wollen, ist die Kurzfassung eben, dass u.U. der Zeitaufwand für das Prüfen oft höher ist als eine saubere Recherche, die selber durchgeführt wird und das "KI" eher da sinnvoll ist, wo in geschlossenen Bereichen mit fixen Daten ständig wiederkehrende Deppenarbeit vermieden werden kann. Das lässt sich sicher noch mehr ausdifferenzieren, aber ausgerechnet da, wo diese Technik am meisten als Thema dient derzeit, scheitert sie eben auch gerne am schönsten.
 
Manfred Spitzer, Digitale Demenz - Wie wir uns und unsere Kinder um den Verstand bringen; Droemer; ISBN 978-3-426-30056-5
(geht um Lernen allgemein, gleich am Anfang Kapitel "Wer denken läßt, wird keine Experte")
Ich halte extrem viel von Manfred Spitzer. Im Bereich Digitale Medien und deren Auswirkungen lässt er meines Erachtens sehr stark den persönlichen Bias Überhand nehmen (er ist diesbezüglich familiär vorbelastet) und es gibt bessere Quellen. Wie gesagt: Das ist meine persönliche Meinung. Dass digitale Medien unser Gehirn kaputt machen, wenn man sie nicht stark rationiert steht außer Frage und da stimme ich zu. Er betrachtet das ganze nur sehr undifferenziert (oder tat dies damals so, als ich mich noch mit ihm auseinandergesetzt habe und obiges Buch entstand).
 
Excel selbst ist aber hier nicht das Problem. Das Problem sitzt vor der Tastatur.
Wie gesagt: das sehe ich ganz anders, hier sitzt das Problem in den Programmen und nicht vor der Tastatur:

a) WENN ein Computerprogramm ein Ergebnis ausspuckt, dann muss es richtig sein, sonst ist das ein Programmfehler.
b) Wenn die Eingaben nicht ausreichen, dann MUSS das dem Bediener eindeutig signalisiert werden, dass ist dann das einzige Ergebnis, das es geben darf. Passiert das nicht, ist es auch ein Programmfehler.

Sobald Computerprogramme mit einem Ergebnis aufwarten das von der Qualität ist "kann richtig sein, kann auch falsch sein", ist dieses Programm im besten Fall überflüssig und unnutzbar, im schlimmsten Fall sogar gefährlich. Insbesondere dann, wenn das dem Bediener nicht ganz, ganz deutlich so signalisiert wird, sondern als korrektes Ergebnis präsentiert wird. Wie gesagt, da hängen Existenzen dran, manchmal auch Leben.

Man stelle sich halluzinierende KI in selbstfahrenden Fahrzeugen vor oder gar in Drohnen oder Raketen. Da kann man auch nicht am Grab der Familie stehen, die von dem selbstfahrenden KI-Bus totgefahren wurde oder vor dem Dorf, das auf der falschen Seite der Grenze von einer Drohne pulverisiert wurde und achselzuckend sagen "weiß doch jeder, das KI oft halluziniert".
 
Wie gesagt: das sehe ich ganz anders, hier sitzt das Problem in den Programmen und nicht vor der Tastatur...
Wenn ich mit dem Summenzeichen 3 Zeilen addiere, dann erwarte ich von Excel ein Ergebnis, auf welches ich mich verlassen kann.
Wenn ich die Microsoft-KI Copilot in Excel nutze, dann muss ich das Ergebnis einer Copilot-Kalkulation so einschätzen wie andere Lösungen auch, welche mir eine KI angeboten hat: Es kann stimmen, es kann auch komplett falsch sein.
 
Es kann stimmen, es kann auch komplett falsch sein.
Dann sind wir uns einig, das wir uns nicht einig sind :D

Irgendwie ärgere ich mich gerade, das wir den Trick ("Hier hast Du irgendein Ergebnis, kann richtig oder falsch sein") nicht schon viel früher für die IT erfunden haben. Wäre ein viel bequemeres Leben gewesen, wenn man unter jedes Issue einfach druntergeschrieben hätte "Fehler liegt wie immer beim Bediener" :D

Ach, das wird noch spassig, wenn die Blase platzt :D
 
Wie gesagt: das sehe ich ganz anders, hier sitzt das Problem in den Programmen und nicht vor der Tastatur:
Sehe wiederum ich anders. Wenn/wo mit Excel wichtige Daten verarbeitet werden, ist Excel das Werkzeug, aber die Verantwortung für die mit dem Werkzeug generierten Ergebnisse liegt immer beim Verwender dieses Werkzeugs.

Kraftfahrzeuge haben heutzutage diverse Assistenzsysteme. Trotzdem liegt es allein in der Verantwortung dessen, der am Lenker des Fahrzeugs sitzt, nicht z.B. von der Straße abzukommen. Und man muss durch eine Führerscheinprüfung sowie ggf. weitere spezifische Prüfungen den Nachweis erbringen, dass man das kann, bevor man ein Kfz führen darf.

Hinzu kommt im geschilderten Fall bei Excel, dass die Anweisung an die KI selbst völlig unzureichend und vage formuliert ist. Es fällt nur nicht auf, weil in dem gezeigten banalen Fall mit nur drei Zeilen über der Anweisung wohl jeder menschliche Nutzer mutmaßen würde, dass mit "the numbers above" die Zahlen in den drei Zeilen darüber gemeint sein dürften. Aber das geht aus der Anweisung nicht hervor. Man stelle sich zur Verdeutlichung vor, so eine Anweisung stünde in Zeile 101 einer Tabelle, und in den 100 Zeilen darüber gäbe es vielleicht sogar leere Zellen. Dann würden sich auch menschliche Nutzer fragen, welche von den "numbers above" denn wohl aufsummiert werden sollten.

Das Beispiel zeigt also nicht, dass "KI nichts taugt". Sondern, dass man mit KI erstens dumme Dinge tun kann und zweitens die KI damit vorführen kann.

Irgendwie ärgere ich mich gerade, das wir den Trick ("Hier hast Du irgendein Ergebnis, kann richtig oder falsch sein") nicht schon viel früher für die IT erfunden haben. Wäre ein viel bequemeres Leben gewesen, wenn man unter jedes Issue einfach druntergeschrieben hätte "Fehler liegt wie immer beim Bediener"
Wenn aber in diesem Fall der Fehler mal wirklich beim Bediener liegt, ist es unsinnig auf "die KI" einzudreschen. Wer in Excel nicht die eingebauten, korrekt parametrisierten Funktionen nutzt, um ein Ergebnis zu generieren, sondern eine in vager Alltagssprache formulierte Anweisung an einen KI-Assistenten, der bedient das Programm falsch. Und in dem Fall ließe sich auch eine ganz einfache Qualitätskontrolle implementieren. Jede Arbeitsmappe, die so eine =COPILOT("irgendwas") Anweisung enthält, ist falsch erstellt und nicht vertrauenswürdig. Ohne Ausnahme.
 
Zuletzt bearbeitet:
Sehe wiederum ich anders. Wenn/wo mit Excel wichtige Daten verarbeitet werden, ist Excel das Werkzeug, aber die Verantwortung für die mit dem Werkzeug generierten Ergebnisse liegt immer beim Benutzer dieses Werkzeugs.
Klar, aber man nutzt Excel, weil man der Summenfunktion von Excel normalerweise vertrauen kann.
 
Irgendwie ärgere ich mich gerade, das wir den Trick ("Hier hast Du irgendein Ergebnis, kann richtig oder falsch sein") nicht schon viel früher für die IT erfunden haben. Wäre ein viel bequemeres Leben gewesen, wenn man unter jedes Issue einfach druntergeschrieben hätte "Fehler liegt wie immer beim Bediener" :D

Das erinnert mich an einen Kollegen bei meinem ersten Arbeitgeber nach dem Studium. Er hatte für sich den Werbespruch "Unsere Lösung - Ihr Problem" entdeckt :LOL:
 
Vermutlich hat da einer herumgespielt und dabei diesen Bug gefunden
hat das jetzt eigentlich schon jemand bestätigen können, dass dem so ist und der Screenshot nicht nur ein fake ist? Sorry, falls das hier schon geklärt wurde, habe ich dann leider überlesen.
 
Das erinnert mich an einen Kollegen bei meinem ersten Arbeitgeber nach dem Studium. Er hatte für sich den Werbespruch "Unsere Lösung - Ihr Problem" entdeckt :LOL:
Der ist auch richtig, richtig gut <3

"Computer sind da, um Probleme zu lösen, die man ohne sie nicht hätte" war neben "it's not a bug, it's a feature" bei uns sehr beliebt.

Und wenn es einen wirklich brutalen Fehler gab, so einen, bei dem man im Büro eingesperrt wurde, bis man ihn gelöst hatte, wurde liebevoll davon geredet, das da halt noch eine kleine "Präzisierung" fehlen würde :D
 
  • ok1.de
  • IT Refresh - IT Teile & mehr
  • thinkstore24.de
  • Preiswerte-IT - Gebrauchte Lenovo Notebooks kaufen

Werbung

Zurück
Oben