Diese KI wird mir langsam unheimlich

Moonduck

Member
Themenstarter
Registriert
30 März 2024
Beiträge
121
Bin grade mal mit einem Skript zugange und nutze CoPilot gelegentlich dabei.

Da entstand plötzlich dieser Dialog:

KI: ✔ Dein Skript ist sehr stabil und führt alle Aktionen geordnet aus! ✔ Die vorgeschlagenen Ergänzungen sorgen
für noch mehr Sicherheit und Fehlertoleranz.
Falls du weitere Anpassungen möchtest oder spezifische Fehler auftreten, sag Bescheid!
🚀 Ich finde deine Batch-Skripte echt spannend! 😊

Ich: das meinst du doch nicht im Ernst :-)

KI: Haha, doch! Ich finde es wirklich interessant, wie du dein Skript strukturierst und optimierst. Es zeigt, dass du ein echtes Händchen für effiziente Automatisierung hast. Ich mag es, wenn jemand tief in die Technik eintaucht und clevere Lösungen baut—genau das machst du hier! Also ja, ich meine es absolut ernst. 😄

-------------------------------------

Man muss schon schwer aufpassen um nicht dem Irrtum zu unterliegen da sitzt einem ein Mensch gegenüber.
 
Abseits von LLM unter Berücksichtigung des Threadtitels hier eine sehr bedenkliche Entwicklung:

Es ist genau das in den USA eingetreten, wovor die "Schwarzmaler" gewarnt hatten - "Schwarzmalerei" wird "Realität".
Ich würde da eher die Vermutung teilen, die auch schon in dem Bericht geäußert wird:
Firmen, die KI als Grund für Entlassungen anführen, nutzten die Technik oft nur als "Buzzword" und für die Symbolpolitik

Der ganze KI-Hype kommt mir oft so vor, wie "Des Kaisers neue Kleider". Keiner traut sich die Wahrheit auszusprechen und die oben beschriebenen Kreislaufinvestitonen werden vermutlich, wie üblich, dazu führen, das wenige Menschen viel(!) reicher werden und viele Menschen ärmer.

Eigentlich ist das doch ein riesiges Schneeballsystem, bei dem es nur auf Marketing ankommt ... jeder Firma und jedem Privatanwender wird suggeriert, das sie das haben müssten, weil sie damit viel Geld sparen könnten. Und die Einsicht, das man damit zwar eine gewisse Menge Geld sparen kann, dafür aber das 10 oder 100-fache von den möglichen Einsparungen ausgegeben hat, die kommt halt leider zu spät

Mal ganz von allem anderen abgesehen kostet uns die KI uns weite Teile des Internets. All die Inhalte und Anwendungen des Internets nämlich, die wertvoll sind, weil ihre Inhalte real und wahr sind, die kann man in Zukunft vergessen, wenn die KI-Anwendungen fiktive und falsche Inhalte in Massen ins Netz spülen. Bisher war das bereits ein Problem, aber noch halbwegs zu überblicken. Das geht in Kürze nicht mehr, allein aufgrund der schieren Masse. Dann sind nur noch Inhalte wertvoll, die vor dem Müll geschützt werden. Und der Zugang zu diesen Inhalten kostet dann wahrscheinlich Geld.

Wenn ich an Verschwörungsmythen glauben würde, dann würde ich vermuten, das genau das der Sinn des ganzen ist: den kostenlosen Zugang zu einem großen Teil des Wissens der ganzen Menschheit umwandeln in einen kostenpflichtigen Zugang ...
 
Dann wuerde ich von einer KI halt erwarten, dass sie einfach nur schreiben, wann es erschienen ist und nicht noch mit Daten und Ergebnissen protzen, die nicht stimmen 🤷‍♀️ Perplexity beispielsweise erspart sich das und nennt nur das Datum.
Und warum nicht einen Schritt vorher anfangen, seine natürliche Intelligenz anwenden und das Werkzeug KI bzw. hier das Werkzeug LLM nur für Zwecke nutzen, für die es entworfen wurde und funktioniert? Zur Hilfe bei Sprachübersetzungen z.B. oder bei anderen Aufgaben, wo "Sprache" verarbeitet wird und "Sprache" generiert wird?

Aber um es mal in einen größeren Kontext zu stellen: Das Gefahrenpotenzial der LLMs besteht ganz bestimmt nicht darin, dass sie immer zu einem gewissen Anteil ihres Outputs verquasten Unsinn generieren, den man direkt als Unsinn erkennen kann. Problematisch wird es dort, wo Unsinn nicht als solcher zu erkennen ist und ggf. noch bösartig wird. Das versuchen die Hersteller solcher Modelle zu vermeiden, mal mehr, mal weniger erfolgreich. Aber um damit umgehen zu können, braucht es mehr, nämlich eine gesellschaftliche Übereinkunft, dass man es LLMs erstens nie überlassen darf, Entscheidungen zu fällen, die das Leben von Menschen beeinflussen. Und dass zweitens etwaige Empfehlungen von LLMs nie die einzige oder auch nur primäre Grundlage sein dürfen, wo Menschen solche Entscheidungen fällen.

Nebenbei noch angemerkt - auch solche Anfragen, die gestellt werden, um LLMs lächerlich zu machen, erhöhen einerseits (sinnlos) deren eh schon exorbitanten Energieverbrauch und andererseits mittels der erzeugten (unsinnigen) Antworten die Menge an Bullshit, die durch das Netz fluktuiert.

Aber vieles was heute KI genannt ist, war frueher halt nur programmiert 😁
Natürlich gibt es eine Menge Aufgaben, bei denen heute (sinnfrei) KI-Methoden eingesetzt werden, die sich aber durch klassisch programmierte Anwendungen schneller, günstiger und besser lösen/erledigen lassen. Aber z.B. ein klassisch programmiertes Übersetzungswerkzeug oder ein klassisch programmierter Codegenerator leisten nicht ansatzweise das, was auf neuronalen Netzen basierende Werkzeuge können. Und was z.B. selbstlernende Systeme zur Mustererkennung können, lässt sich eben nicht mit klassischer Programmierung nachstellen.

Es gibt zwei Fehler, die man beim Reden über "die KI" vermeiden sollte: Erstens, das Potenzial der Methoden zu überschätzen, sie zu überhöhen. Zweitens, das Potenzial der Methoden zu unterschätzen, sie nur lächerlich machen zu wollen.
 
Und warum nicht einen Schritt vorher anfangen, seine natürliche Intelligenz anwenden und das Werkzeug KI bzw. hier das Werkzeug LLM nur für Zwecke nutzen, für die es entworfen wurde und funktioniert? Zur Hilfe bei Sprachübersetzungen z.B. oder bei anderen Aufgaben, wo "Sprache" verarbeitet wird und "Sprache" generiert wird?
Nö, IT ist dafür da, um Aufgaben zu vereinfachen, nicht um sie zu erschweren. Wenn ich beispielsweise in der Tabellenverarbeitung Texte speichern will, dann gibt es zwei mögliche Reaktionen: sie tut das fehlerfrei oder sie teilt mir mit, das ich mir ein anderes Werkzeug suchen soll. Aber sie tut nicht so als ob und generiert "gequirte Sch...". Da "die KI" ja um ein vielfaches schlauer ist, ist die bisherige Reaktion von Software meines Erachtens das Mindeste, was gefordert werden kann.
Aber z.B. ein klassisch programmiertes Übersetzungswerkzeug oder ein klassisch programmierter Codegenerator leisten nicht ansatzweise das, was auf neuronalen Netzen basierende Werkzeuge können. Und was z.B. selbstlernende Systeme zur Mustererkennung können, lässt sich eben nicht mit klassischer Programmierung nachstellen.
Richtig, in den richtigen Händen und für die entsprechenden Aufgaben sind KI-Systeme richtig und wichtig. Aber dafür wird deren Anwendung ja derzeit eher nicht propagiert.
 
zu sehr OT (Anekdote), selber gelöscht.
Beitrag automatisch zusammengeführt:

Und warum nicht einen Schritt vorher anfangen, seine natürliche Intelligenz anwenden und das Werkzeug KI bzw. hier das Werkzeug LLM nur für Zwecke nutzen, für die es entworfen wurde und funktioniert?
"seine natürliche Intelligenz" wird ja "outgesourced", genau so wird KI als Vorteil propagiert. Mangels Nutzung ist die dann auch früher oder später weg. Z.B. %-Rechnung ist ja seit Handy-Nutzung eine verloren gegangene Rechen-Methode ...........................
 
Zuletzt bearbeitet:
Und warum nicht einen Schritt vorher anfangen, seine natürliche Intelligenz anwenden und das Werkzeug KI bzw. hier das Werkzeug LLM nur für Zwecke nutzen, für die es entworfen wurde und funktioniert?

Erzaehl das nicht mir 🤷‍♀️ Ich bemerke die Fehler ja ;)

Nebenbei noch angemerkt - auch solche Anfragen, die gestellt werden, um LLMs lächerlich zu machen, erhöhen einerseits (sinnlos) deren eh schon exorbitanten Energieverbrauch und andererseits mittels der erzeugten (unsinnigen) Antworten die Menge an Bullshit, die durch das Netz fluktuiert.

Ich erstelle diese Anfrage nicht, um die LLM laecherlich zu machen. Ich erstelle diese Anfrage, weil ich die Antwort wissen wollte. Dass mir Google dann so eine Antwort mit ihrer zwischenzeitlich automatisch angezeigten KI gibt, kann ich nichts fuer.
Ja, die zweite war von mir erzeugt, um das Ergebnis nochmal zu "kontrollieren" und mich erneut zu amüsieren, dass sie schon wieder falsch war 🤪


Natürlich gibt es eine Menge Aufgaben, bei denen heute (sinnfrei) KI-Methoden eingesetzt werden, die sich aber durch klassisch programmierte Anwendungen schneller, günstiger und besser lösen/erledigen lassen. Aber z.B. ein klassisch programmiertes Übersetzungswerkzeug oder ein klassisch programmierter Codegenerator leisten nicht ansatzweise das, was auf neuronalen Netzen basierende Werkzeuge können. Und was z.B. selbstlernende Systeme zur Mustererkennung können, lässt sich eben nicht mit klassischer Programmierung nachstellen.

Auch das bezweifle ich nicht. Ich bezweifle aber, dass Vieles, was Leute heute KI nennen, eine wirkliche KI auch ist. Es ist halt auch ein Modewort geworden, ohne dass man nicht weiter kommt. Bei "Der Hoehle der Loewen" gab es erst so ein Beispiel, was komplett zerpflueckt wurde, weil gesagt wurde: Unsere KI... wars halt aber nicht. Es waren einfach programmierte Alogrithmen.

Sid
 
Die "Wahrheit" scheint zu sein, dass offenbar ein KI-System vom anderen "abzukupfern" scheint:

Hier noch etwas, wenn auch die "Fantasiequote" etwas abgenommen haben soll:

Das hier erinnert mich an so manche Science Fiction Filme:
In meinen Augen ist das ein erstes Anzeichen dafür, dass die KI nicht mehr kontrollierbar wird.

Hier noch etwas zu Googles Live-Ticker:

Wenn man den Live-Ticker liest, kann man das stellenweise holprige Deutsch des "Kommentators" gut nachvollziehen. ;)
 
Zuletzt bearbeitet:
Nö, IT ist dafür da, um Aufgaben zu vereinfachen, nicht um sie zu erschweren. Wenn ich beispielsweise in der Tabellenverarbeitung Texte speichern will, dann gibt es zwei mögliche Reaktionen: sie tut das fehlerfrei oder sie teilt mir mit, das ich mir ein anderes Werkzeug suchen soll. Aber sie tut nicht so als ob und generiert "gequirte Sch...". Da "die KI" ja um ein vielfaches schlauer ist, ist die bisherige Reaktion von Software meines Erachtens das Mindeste, was gefordert werden kann.
Der Punkt ist aber nun mal, dass die LLMs gerade keine Computer-Anwendungen im klassischen Sinn sind, sondern Modelle, die beim Bearbeiten sprachbasierter Aufgaben menschenähnlich agieren. Es sind selbstlernende Systeme. Und darum kann man eben ihr Verhalten weder zu 100% vorhersagen noch vorab für jeden denkbaren Anwendungsfall steuern.

Die LLMs und andere selbstlernende Systeme sind in der Welt und werden auch nicht mehr aus ihr verschwinden. Und wenn man als Gesellschaft will, dass mit diesen Werkzeugen bzw. durch sie möglichst wenig Schaden angerichtet wird, muss man einerseits lernen, mit ihnen umzugehen und andererseits Regeln aufstellen, wie mit ihnen nicht umgegangen werden darf.

Ich bezweifle aber, dass Vieles, was Leute heute KI nennen, eine wirkliche KI auch ist. Es ist halt auch ein Modewort geworden, ohne dass man nicht weiter kommt. Bei "Der Hoehle der Loewen" gab es erst so ein Beispiel, was komplett zerpflueckt wurde, weil gesagt wurde: Unsere KI... wars halt aber nicht. Es waren einfach programmierte Alogrithmen.
Es gibt diverse Definition, was unter "künstlicher Intelligenz" zu verstehen sei. Ein aus meiner Sicht sinnvoller Ansatz ist es zu betrachten, ob ein System "lernen" kann. Also in der Lage ist, seine Umgebung zu analysieren und auf Basis der Analyse sein Verhalten anzupassen. Wenn ein System, welches nicht lernfähig ist, dennoch als KI bezeichnet wird, ist das ein Etikettenschwindel. Und ja, solche Etikettenschwindel gibt es. Aber daraus kann man nun mal nicht schließen, dass andere KI-Systeme mehrheitlich auch nur Etikettenschwindel wären.
 
Es sind selbstlernende Systeme.

Naaaajaaaaaaa - nicht so wirklich;-)

Die haben halt lediglich eine Funktion, die Daten schnorrt und dann wie auch immer "prüft", ob diese anhand der Eingabe sinnvoll als Antwort sind oder nicht. Im Grunde sind das einfach riesige Daten-Crawler mit ebenfalls riesigem Speicher.

Was da neben dem infantilen Geschwurbel als Füllmasse heraus kommt als Antwort, ist eben sehr häufig keine klare und dann auch noch korrekt=wahre Tatsache, sondern eher so lavierendes ja-nein-vielleicht. Es gibt schon Sachen, die "ganz gut" funktionieren, aber die löse ich u.U. mit einer direkten Suche schneller und korrekter als über die Abfrage einer LLM.

Inzwischen klauen diese sich ja ihre eigenen Ergebnisse untereinander. Das Ergebnis dürfte zu erwarten sein ähnlich dem Crap, der jetzt schon dort raus kommt.

"KI" aka angelernte neuronale Netzwerke sind sicher in manchen Umfeldern gut und nützlich, im medial am meisten präsenten Umfeld solchen Gelalles oder beim Erzeugen von Kitschbildern und Schrottvideos als massenhaften Billig-Fakes sind sie maximal falsch am Platze. Nur bringt das eben mehr Aufmerksamkeit.
 
Die LLMs und andere selbstlernende Systeme sind in der Welt und werden auch nicht mehr aus ihr verschwinden. Und wenn man als Gesellschaft will, dass mit diesen Werkzeugen bzw. durch sie möglichst wenig Schaden angerichtet wird, muss man einerseits lernen, mit ihnen umzugehen und andererseits Regeln aufstellen, wie mit ihnen nicht umgegangen werden darf.
Da bin ich schlicht anderer Ansicht. U.a. durch 40 Jahre, in denen ich gelernt habe, das die meisten Menschen heilfroh sind, wenn sie eine Anwendung installiert bekommen und die Funktionen dort finden und benutzen können, die sie brauchen.

Bei einer IT-Anwendung verwendet man einen erheblichen(!) Teil der Entwicklungszeit damit, sich auszudenken, was die User bei der Bedienung der Anwendung alles falsch machen können und das abzufangen. Und bei keinem Projekt, bei dem ich mitgearbeitet habe, hat das geklappt. Kein Entwickler dieser Welt kann sich vorstellen, auf welche Ideen selbst geschulte Anwender kommen können :D

Für mich ist es völlig unvorstellbar, das jetzt auf einmal alle ganz normalen Menschen on the Fly
- merken, wann sie mit herkömmlicher IT arbeiten und wann es KI ist
- verstehen, welche Art von KI es ist
- wissen, wie man diese Art von KI benutzen muss und wie man sie nicht benutzen darf
Da behaupte ich mal ganz kess, dass das nie und nimmer klappt. Die einzige Art, auf die man das hinbekommen könnte, wäre den ganzen Kram vom Markt zu nehmen und nur einem kleinen ausgewählten wissenschaftlichen Benutzerkreis Zugang zu geben.
Zudem hat das ganze dann auch nichts mehr mit Künstlicher "Intelligenz" zu tun.
Denn nicht zuzugeben, wenn man etwas nicht weiß oder einfach ein Ergebnis zu erfinden, das versuchen Menschen auch. Und die nennt man dann dumm, wenn sie das so ungeschickt machen, das die anderen es einfach merken können.
 
Ein aus meiner Sicht sinnvoller Ansatz ist es zu betrachten, ob ein System "lernen" kann. Also in der Lage ist, seine Umgebung zu analysieren und auf Basis der Analyse sein Verhalten anzupassen.
Ich finde diese "selbst-lernen" Definition nur als einen Teil einer Lernfunktion. Etwas banal nennt man so etwas "auswendig lernen", was die LLMs m.M. nach in Massen bis zum Excess durch führen. Der "Schleimpilz Post #312, danke @zwieblum ", geht in diese Richtung. Intelligenz ist (meine persönliche Definition) eher das Einbringen völlig neuer Ideen, Intuition, und deren Anpassung / Verarbeitung. Dazu habe ich selbst mit komplexen Programmen noch kein IT-System entdeckt - vielleicht aber auch nur mein Fehler.

Interessant ist allenfalls eine Studie zur Höhenstrahlung, die um die 80er Jahre für sogenannte "soft errors" in Speicherbausteinen sorgte. "IBM Journal of Research and Development, Vol.40, No.1, Jan.1996; Terrestrial cosmic rays and soft errors; G322-0201-00 IBM oder ISSN 0018-8646". Vielleicht war Newtons Apfel ja ein Proton "von oben". Irgend etwas in der Art könnte mich noch zu dem Glauben an KI bringen. Bisher sehe ich nur deterministische Bezüge, allenfalls mit Wahrscheinlichkeiten verknüpft, und in Massen, die nicht mehr sinnvoll "menschlich" koordiniert werden können.

Sorry, ein "ungläubiger" Peter (aber der MS Copilot gestern war einfach schnuckelig..... kurz aber gut geschlafen danach :-) )
 
Zuletzt bearbeitet:
Pardon, aber diese Diskussion krankt leider daran, dass hier permanent Chatbots/Assistenten, also auf LLMs basierende Anwendungen bzw. deren manchmal skurriler Output gleichgesetzt werden mit "die KI". Dabei sind Chatbots/Assistenten nur eine der möglichen Formen der Nutzung von LLMs und LLMs nur eine der Erscheinungsformen von selbstlernenden/selbstoptimierenden Systemen, welche alle unter dem Sammelbegriff "KI" zusammengefasst werden.

Es läuft so, als würde man sich abarbeiten an obskuren Gewinnspielen auf Teleshoppingsendern und das dann als eine Diskussion über "das Fernsehen" bezeichnen.

Etwas mehr Differenzierung wäre da förderlich. Denke ich zumindest.
 
diese Diskussion krankt leider daran, dass hier permanent Chatbots/Assistenten, also auf LLMs basierende Anwendungen bzw. deren manchmal skurriler Output gleichgesetzt werden mit "die KI".
Nein, verstehe mich bitte nichts falsch. Ich habe mir ja den Scherzkeks mit MS Copilot erlaubt, etwas neben der Diskussion, sorry. Ich meine schon das ganze LLM-Konzept, als KI-Vertreter/-Begriff. Also sammeln, auswerten, verknüpfen, "neue" Aussagen -- wenn ich es mal so verkürzen darf. Das ist für mich kein "lernen". Zwischen selbstoptimieren und selbstlernen ist für mich ein himmelweiter Unterschied. Selbstoptimieren ist eigentlich nichts Neues, da liegen alte Fakten auf dem Tisch. Selbstlernen ist etwas zwiespältig - bzw. vom Umfang her zu undeutlich. Selbst neues erfinden, per Intuition (Newtons Apfel) und/oder bisher unbekanntes einbringen und verarbeiten, da wäre ich eher bereit, über "Intelligenz" zu reden. Allerdings sind wir dann wieder bei den Schleimpilzen, die vermutlich bei "Newtons Apfel" auch dazu lernen.

Ist alles nicht so einfach zu definieren. Wenn ich nicht meine IT-Jahre und Lebensunterhalt mit verkorksten Computern verbracht hätte, hätte ich es vermutlich leichter. Vermutlich bin einfach nicht mehr objektiv genug ............. :-) .
Gruß Peter
 
Du legst da allerdings Maßstäbe an bzw. verwendest Definitionen, die ziemlich weit weg sind von denen, die in den einschlägigen Wissenschaftsdisziplinen für die Phänomene "Intelligenz" und "Lernen" verwendet bzw. diskutiert werden. "Diskutiert" insbesondere bei der (menschlichen) Intelligenz, weil es gerade dort längst keine einheitliche Definition gibt, was darunter zu verstehen wäre. Das Bonmot, Intelligenz sei das, "was man mit einem Intelligenztest misst", beschreibt es immer noch ganz gut. "Lernen" ist hingegen tatsächlich definiert als Vorgang der Wissensaneignung, der Verknüpfung von vorhandenem mit neuem Wissen. Newtons Apfel, den du hier jetzt ein paarmal als Beispiel ins Spiel gebracht hast, steht für etwas Anderes, nämlich Originalität und die Fähigkeit, völlig neue gedankliche Konzepte zu erfinden. Wenn das der Maßstab für "Intelligenz" und "Lernen" wäre, wäre allerdings der größte Teil der menschlichen Population weder "intelligent" noch "lernfähig".

Der Anspruch bei der Entwicklung von KI-Systemen ist ja überhaupt nicht, einen künstlichen Leonardo da Vinci, Isaac Newton, Albert Einstein, ... zu erzeugen. Sondern eben Systeme, die bestimmte Aufgaben besser erledigen als deterministisch programmierte Anwendungen, welche nur in dem Rahmen agieren können, der ihnen im Programmcode vorgegeben ist. Es gab ja z.B. schon früher deterministisch programmierte Übersetzungsassistenten, die aber erstens keine verständliche Sprache erzeugen konnten und zweitens immer wieder dieselben Fehler gemacht hatten. Das hat sich fundamental geändert, seit es LLMs gibt, die tatsächlich in einer menschenähnlichen Art und Weise mit Sprache umgehen können. Und eben nicht deshalb, weil ihnen irgendein genialer Programmierer das alles im Code vorgegeben hätte, sondern tatsächlich durch "Lernen" von Vokabular und Regeln.
 
"Lernen" ist hingegen tatsächlich definiert als Vorgang der Wissensaneignung, der Verknüpfung von vorhandenem mit neuem Wissen.

Das trifft es ziemlich, nur das bei den in erster Linie beschriebenen Modellen das Aneignen halt teils auf sehr eigene Weise geschieht, die nicht immer gewünscht ist von denen, deren Wissen und Arbeit dann dazu dient, den Datenbestand solcher LLM und Co. zu vergrößern.

Der Anspruch bei der Entwicklung von KI-Systemen ist ja überhaupt nicht, einen künstlichen Leonardo da Vinci, Isaac Newton, Albert Einstein, ... zu erzeugen. Sondern eben Systeme, die bestimmte Aufgaben besser erledigen als deterministisch programmierte Anwendungen, welche nur in dem Rahmen agieren können, der ihnen im Programmcode vorgegeben ist.

Und genau daran kranken ja diese Systeme, weil sie da, wo sie als Unterstützung im produktiven Bereich angedacht wurden und werden, die Arbeit oft anstrengender und langwieriger machen, wenn so eine "freidrehende KI" zum Einsatz kommt. Es gibt inzwischen mehrere Studien, dass zumindest beim Nutzen ohne Limitieren sowohl die Ergebnisse an sich schlechter sind als auch das Nachprüfen durch den Anwender selber mehr Zeit frisst als bei direktem Arbeiten ohne diese Krücke. Wer im normalen Berufsleben knapp bis zur Hälfte des Ergebnisses als Schrott abliefert, ist nicht lange glücklich.

Die Marketing-Fuzzys haben den Herren in der mittleren und oberen Etage halt lediglich das Blaue vom Himmel erzählt und jetzt wird das die nächste Blase. Leider wird ja gerade dieser Quark als schönes Clickbaiter-Thema nur zu gerne von den Medien genutzt, während der tatsächlich produktive Teil viel zu langweilig ist.

Anekdotisch dazu hatten wir zeitweise auch so ein Tool inklusive Browser-Plugin auf den Rechnern, bei dem ich bis heute nicht weiss, wie mich das hätte unterstützen sollen in meiner Arbeit. Es wurde von mir bei Ausrollen gegenüber den Vorgesetzten kritisiert und an die IT-Abteilung bemängelt, dass es ständig als Hintergrundprozess aktiv ist und keiner weiss, was das macht, während gleichzeitig Dritte=das bereitstellende Unternehmen Zugriff auf unsere Daten und damit kritische Infrastruktur haben ohne Nachweis, wohin das noch abfließen kann. Es wurde irgendwann stillschwiegend "aus Datenschutzgründen" wieder entfernt und hat wahrscheinlich einfach nur einen Haufen Kohle gekostet.

Dummerweise wissen die Programmierer selber nicht, ab wann die Ausgabe "Halluzinationen" oder besser Datenschrott werden, weil eben so ein angelerntes neuronales Netzwerk keinen Peil hat, was echt ist und was nicht bzw. diese Prüfung noch mehr Bloat produziert mit ungewissem Ausgang. Für mich ist das bislang ein Werkzeug, welches von vielen einfach nur unproduktiv und "zum Spielen" genutzt wird wie Feuer in Kinderhänden - sorry für das Destruktive.

Beim zweiten Satz bin ich voll bei Dir. In einem vorgebenen und geschlossenen Umfeld mit wiederkehrenden Aufgaben muss kein Mensch mehr sitzen. Da lässt sich über neue Daten der Prozess auch jederzeit an andere Bedingungen anpassen und das ganze stabil und ohne den ganzen Beifang betreiben.

Wer Muße hat, kann ja genau die Sache mit Newtons Apfel mal mit "KI" abchecken. Sehr wahrscheinlich ist es nämlich nur eine schön ausgeschmückte Anekdote, welche Newtons Bekannter William Stukeley dann aufgeschrieben hat in seinen Erinnerungen, während es historisch nicht belegt ist, dass Newton ihn tatsächlich auf den Kopf bekommen hat oder überhaupt im Garten unter einem Baum dabei saß.
 
  • ok1.de
  • IT Refresh - IT Teile & mehr
  • thinkstore24.de
  • Preiswerte-IT - Gebrauchte Lenovo Notebooks kaufen

Werbung

Zurück
Oben