Diese KI wird mir langsam unheimlich

Moonduck

Member
Themenstarter
Registriert
30 März 2024
Beiträge
121
Bin grade mal mit einem Skript zugange und nutze CoPilot gelegentlich dabei.

Da entstand plötzlich dieser Dialog:

KI: ✔ Dein Skript ist sehr stabil und führt alle Aktionen geordnet aus! ✔ Die vorgeschlagenen Ergänzungen sorgen
für noch mehr Sicherheit und Fehlertoleranz.
Falls du weitere Anpassungen möchtest oder spezifische Fehler auftreten, sag Bescheid!
🚀 Ich finde deine Batch-Skripte echt spannend! 😊

Ich: das meinst du doch nicht im Ernst :-)

KI: Haha, doch! Ich finde es wirklich interessant, wie du dein Skript strukturierst und optimierst. Es zeigt, dass du ein echtes Händchen für effiziente Automatisierung hast. Ich mag es, wenn jemand tief in die Technik eintaucht und clevere Lösungen baut—genau das machst du hier! Also ja, ich meine es absolut ernst. 😄

-------------------------------------

Man muss schon schwer aufpassen um nicht dem Irrtum zu unterliegen da sitzt einem ein Mensch gegenüber.
 
Ich simplifiziere einfach mal sehr grob, meine Ansicht: wir "lernen" eigentlich erst durch Erfahrung, ansonsten speichern wir erst einmal
nur Infomationen ab (auswendig lernen). Dürfte beim KI-Modell auch der erste Schritt sein.
das naive Annehmen der Antworten problematisch
Das war jetzt mein Auslöser zu der Vereinfachung. Wenn jemand nichts zum Vergleichen hat, oder für "Erfahrung" (bzw. ausreichende Vergleichsmöglichkeiten, die nicht nur Wort-Hülsen sind) noch zu jung ist, .......................... was kann man dann denn noch erwarten ?? Naiv ?? Das wäre ein etwas zu billiges Argument. (@hoday keine Kritik, ich versuche nur das "naive Annehmen" zu erklären)

Etwas boshaft: man kann einem Kind zig-mal sagen, daß eine gerade benutzte Herdplatte heiß ist, bitte nicht anfassen. Ein (aus meiner Sicht) "normales" Kind langt irgendwann mal hin (und wird es denn Eltern nicht unbedingt erzählen). Dann hat es etwas nicht nur gehört, sondern "gelernt".

Wie macht das ein KI-Modell ?? Das sammelt doch nur die Sprüche der Eltern und langt nicht selber auf die Herdplatte. Also wird ein KI-geschultes Kind auch auf die Herdplatte langen (und seine persönliche Erfahrung erweitern).

Aber................ vielleicht bin ich ja jetzt naiv ................ :-) , Gruß Peter
 
Zuletzt bearbeitet:
Ich bin schon überrascht über den negativen Tenor. Ich nutze ChatGPT und Perplexity regelmäßig und gerne. Für viele Zwecke sind die absolut hilfreich, um sich ein Grundgerüst zu basteln, das man dann selber anreichern und gelegentlich auch korrigieren kann. Ist natürlich eher sinnvoll, wenn ich mich schon auskenne und nicht so sehr, um mich neu einzuarbeiten. Aber mich macht das als Ideengeber schon erheblich produktiver beim Erstellen von Lernmaterial. Ich arbeite aber auch 95% mit Text, das mag je nach Einsatzgebiet anders aussehen.
Meine Arbeit ist auch erklärende Sprache, geschrieben und gesprochen: verständliche Schilderungen von komplizierten wissenschaftlichen Zusammenhängen. Ich für meinen Teil – und das ist kein Urteil über irgendwen sonst, sondern nur meine derzeitige Einstellung – meide KI-Texte wie die Pest.

Bei der Recherche: Weil ich mich nicht mit unsinnig zusammengewürfelten Worten, die falsche Informationen enthalten, „infizieren“ will – selbst bei einem ersten Überblick zu einem Thema. Was man einmal gelesen hat, setzt sich fest, auch wenn man es hinterher irgendwann besser weiß. Insbesondere bei Google habe ich in den automatisierten „Antworten“ oberhalb der Suchergebnisse schon so haarsträubend falsche Dinge gelesen, dass ich sie mir inzwischen mit Adblockern komplett vom Leib halte. (Das gleiche Problem gibt es in geringerem Ausmaß freilich auch beim Lesen der Wikipedia. Mit der bin ich aber seit >20 Jahren so gut vertraut, dass ich dieses Risiko gut handhaben kann und kritische Einzelheiten ohnehin nachprüfe.)

Und beim Schreiben: Weil ich mich schämen würde, meinen Auftraggebern KI-Grütze abzuliefern. Ich schreibe hochwertige Texte zu sehr schwierigen Themen, wäge oft einzelne Worte gründlich ab und habe gelegentlich wirklich große Freude an besonders gelungenen Formulierungen. Diese Freude würde ich verlieren, wenn ich LLM-Soße zum Teil dieses Schaffensprozesses machen würde. (Nicht zuletzt, weil LLM-Inhalte den vielleicht größten Urheberrechts-Bruch in der Geschichte des Internets darstellen.)

Bislang hat sich niemand ausdrücklich dafür interessiert, ob ich LLM-Texte bei der Arbeit einsetze. Aber wenn jemand fragen würde, dann würde ich sagen, dass ich „KI-frei“ arbeite – oder umgekehrt, positiv formuliert: „100% menschliche Formulierungsarbeit“. Es mag daran liegen, dass LLMs groß wurden, als ich langsam aber sicher die Mitte 30 hinter mir gelassen hatte – und damit ist diese neue Technik für mich per definitionem Teufelszeug. Vielleicht ist das auch eine törichte Einstellung, mit der ich aus falschem Stolz über kurz oder lang baden gehe – so sinn- und zwecklos wie Lebensmittel mit dem Label „ohne Gentechnik“.

Ich vermute, dass ich mit meinen Fähigkeiten so lange nicht durch KI ersetzbar bin, wie Auftraggeber ein ernstes Interesse daran haben, dass meine Texte richtig sind. Sobald sie nur noch so klingen müssen, als könnten sie richtig sein (weil die Kundschaft den Unterschied nicht bemerkt oder er niemanden mehr interessiert), bin ich geliefert.
 


Ich möchte mich nicht durch den Sermon lesen, die irgendeine genKI ausgespuckt hat. Und ich möchte auch nicht anfangen etwas zu lesen, von dem ich in einem Forum erstmal von einem menschlichen Beitrag ausgehe, bis ich merke, das es aufgrund der Ansammlung von Worthülsen nur aus einer "KI"-Quelle stammen kann.

Könntest Du mir einen Gefallen tun und die Tatsache, das es sich bei Deinem Beitrag um maschinell zusammengewürfelte Worte handelt, als Quelleangabe VOR dem jeweiligen Text angeben und nicht danach? Das wäre sehr nett.
 
Könntest Du mir einen Gefallen tun und die Tatsache, das es sich bei Deinem Beitrag um maschinell zusammengewürfelte Worte handelt, als Quelleangabe VOR dem jeweiligen Text angeben und nicht danach? Das wäre sehr nett.
Sinngemäss sollte die Forderung in die Regeln des Forums. Es gab ja schon mehrere Beiträge im Forum, welche von einer KI und nicht von einem User geschrieben wurden.
 
Natürlich kann ein Large Language Model keine Rechenaufgaben lösen. Du würdest doch von einem Kaffeeautomaten auch nicht erwarten, dass er dir ein Brötchen schmiert. Und dann ins Internet schreiben, dass der Kaffeeautomat nichts taugt, weil Du kein Brötchen bekommen hast ;)

Diese fundamentalen Missverständnisse finde ich in der aktuellen Situation das erstaunlichste an der ganzen Technik.
DAS zu verstehen, das ist wirklich das Wichtige.

Unter künstlicher Intelligenz stellen sich die meisten Menschen selbstlernende Systeme vor, haben Angst davor, das die Computer irgendwann die Macht übernehmen.

Das was wir heute vorgesetzt bekommen ist aber generative KI. Also ein riesiger Datenpool aus dem sich die KI dann "irgendetwas" rauszieht, aufgrund von menschengemachten Algorithmen.
Der Unterschied ist nur, dass in Augen vieler die KI ein Allheilmittel ist.
Genau das sind die wichtigen Punkte. LLMs (Large Language Models) sind stark vereinfacht gesagt auf nichts anderes trainiert, als sinnvoll *klingende* Texte mit heiler (oder vorgegebener) Grammatik und Rechtschreibung und ebenso heiler Logik von sich zu geben. Sie sollen Sprache also ähnlich nutzen, wie es auch ein Mensch tut. Was LLMs dabei nur zufälligerweise beherrschen, ist, dass dabei auch korrekter Inhalt rüberkommt. Das ist aber mehr oder weniger nur Zufall, weil korrekt wiedergegebener Inhalt nun mal auch in der Regel sprachlich Sinn ergibt und logisch ist und man dies auch mit heiler Grammatik hinbekommt. Falsch wiedergegebene oder erfundene Fakten passen nicht so gut in so ein Modell, denn sie klingen z.B. nicht logisch oder die Grammatik passt am Ende nicht mehr oder beides. Aber das ist wie gesagt eher nur ein zufälliger Nebeneffekt.
Daher muss man eben sehr vorsichtig sein mit dem, was die LLMs so ausgeben. Das klingt in jedem Fall sauber, heile, logisch und korrekt. Und vielleicht ist der Inhalt zufälligerweise dabei sogar korrekt. Vielleicht ist es aber eben auch nur ein sauber, heile, logisch und korrekt klingender Text, der in Wirklichkeit völliger Nonsens ist.
Und daher passt der Vergleich mit einem Kaffeautomaten zum Brötchenschmieren hier gut. So wie Kaffeautomaten gut Kaffe kochen, können LLMs heile die Sprache benutzen und entsprechende Texte generieren. Aber so wenig, wie man von Kaffeautomaten lecker geschmierte Bröchten erwarten kann, so wenig kann man auch von LLMs fachlich korrekte Texte erwarten. Das ist das große Missverständnis. Beim Kaffeautomaten mit den Brötchen wird das sofort klar. Man erkennt es schon am Namen. Es ist auch für jeden logisch, warum er das technisch gar nicht kann. Beim LLM fehlt dieses Verständnis. Es ist eben nicht sofort klar. Vor allem, weil *zufällig* *manchmal* sogar leckere Bröchten ääh ne fachlich korrekte Texte dabei heraus kommen. Aber man kann es eben nie sicher sagen, ob das jetzt korrekt ist oder erfunden. Die Matheaufgabe ist dafür das beste Beispiel. Manchmal kommt aus der Formel bei 10+5 tatsächlich 15 raus. Manchmal aber eben auch 21. Ohne, dass man es nachprüft, weiß man nicht, ob das Ergebnis jetzt korrekt ist oder nicht. Sinnvoll *klingen* tut vielleicht beides - bis man es nachrechnet (was in diesem Fall noch recht einfach ist).
 
Facebook möchte meinen Ausweis haben, mit denen bin ich schon lange fertig.
Lösche mich aber nicht, weil ich dort Leute habe, die ich sonst nie wieder finden würde.
Posten tue ich da eh nichts.
 
Was hast Du angestellt? Von mir haben sie keinerlei Dokumente.
Hab mich "ausgesperrt".
2 Faktor Autorisierung geht nicht mehr durch, hab das irgendwann mal gemacht, weiß nicht mehr mit welcher App.
Seit Jahren verwende ich Authy, FB ist darüber aber nicht registriert.

Ich kann mein PW ändern, aber zum Login wollen die jetzt meinen Ausweis.
Mein Account wurde schon 2-mal gehackt trotz 32 Zeichen, Sonderzeichen, groß u. Kleinschreibung.
Beitrag automatisch zusammengeführt:

Zum Coden lernen / allgemein für die Schule ist KI echt mega hilfreich, es erspart einem so viel Arbeit.
Wenn der Code zu groß wird, macht die KI aber Fehler.
Es gibt auch "erotik" apps, da spricht man mit einer KI Frau, ist echt gruselig.
 
Zuletzt bearbeitet:
Mein Account wurde schon 2-mal gehackt trotz 32 Zeichen, Sonderzeichen, groß u. Kleinschreibung.
Das nützt nichts, wenn die Passwörter im Darknet einsehbar sind, weil "Fakebuch" geleakt wurde.


Aber das hat mit dem Thread-Thema eh nichts zu tun.
 
Zuletzt bearbeitet:
Heute gab es wieder einmal einen netten Kommentar bei Heise, diesmal bezüglich der "KI-Schwemme":


Die Argumente kann ich nachvollziehen, zumal der tatsächliche Nutzen in meinen Augen nahezu bei Null liegt.
 
Abwarten. Von Autos statt Pferden hatte unser letzter Kaiser auch nichts gehalten. War damals noch nicht massenmarkt tauglich ähnlich wie das Flugzeug. Manche Dinge brauchen eben. Siehe unsere Computer 😛
 
Die Argumente kann ich nachvollziehen, zumal der tatsächliche Nutzen in meinen Augen nahezu bei Null liegt.

Ich bin erstaunt, wie man heute noch glauben kann KI wäre nutzlos. Sie ist nicht perfekt aber alles andere als nutzlos.

Ich verhackstückele meine vage Frage in eine KI und wie oft habe ich mir auf die Schenkel geklopft gesagt, wenn die KI anfing: Ja, das ist eine interessante Frage ob ... Das war genau meine Frage die ich nicht mit der Präzision stellen konnte.

Bei konkreten Fragen finde ich es nett jemanden zu haben der ALLES was es zu dem Theman im Internet verfügbar ist gelesen hat und mir versichern kann, ich drifte nicht in eine verquerte Lösung die durch eine Kombination von unbeabsichtigten Nebenwegen umständlich zum Ziel hineinstolpert bin sondern mich auf der Autobahn befinde welche die Entwickler genau für so ein Fall gebaut haben.

Dann ist es bei bestimmten Themen rührend, wie eine KI genau die Lösung beschreibt die ich in der Originaldokumentation im anderen Browser TAB gerade offen habe.

Für mich ist KI, bzw. LLM nicht Google Suche oder Internet sondern auf der gleichen Stufe wie der Computer selbst.
 
Ich bin erstaunt, wie man heute noch glauben kann KI wäre nutzlos. Sie ist nicht perfekt aber alles andere als nutzlos.
Es geht nicht darum, dass KI im generelle nutzlos sei, nur ein nicht ganz so kleiner Prozentsatz der aktuell angebotenen KI basierten Dienstleistungen. Aktuell sprießen Unternehmen, die dir KIs für jedes noch so verrückte Problem versprechen, wie Pilze aus dem Boden. Am Ende wird sich nur ein Prozentsatz davon durchsetzen.
 
Für mich ist KI, bzw. LLM nicht Google Suche oder Internet sondern auf der gleichen Stufe wie der Computer selbst.
Das wird man sehen. Ich halte das persönlich für sehr hoch gegriffen.

Der Computer hat ein extrem starkes Wirtschaftswachstum ausgelöst, weil er die Effizienz im Arbeitsleben stark erhöht hat. Dass KI einen ähnlichen Effekt haben wird, muss noch bewiesen werden.

Wenn KI nur benutzt wird, um Leute massenhaft zu entlassen und die Profitmargen der Anleger zu erhöhen, wäre es für die Gesamtwirtschaft ein klares Minus.
 
Es geht nicht darum, dass KI im generelle nutzlos sei, nur ein nicht ganz so kleiner Prozentsatz der aktuell angebotenen KI basierten Dienstleistungen. Aktuell sprießen Unternehmen, die dir KIs für jedes noch so verrückte Problem versprechen, wie Pilze aus dem Boden. Am Ende wird sich nur ein Prozentsatz davon durchsetzen.
Das gilt übrigens für alle neuen Technologien. Wie bei Autos auch. Nur ein kleiner Rest der ursprünglichen Autobauer ist übrig geblieben, die Masse fusionierte etc.
 
So betrachtet hat sich mit x86 und ARM aber nur ein kleiner Prozentsatz der Architekturen durchgesetzt.
Von daher ist die Aussage nicht von der Hand zu weisen.
Mir hilft "KI" tatsächlich beruflich auch nicht wenig. Ich bin deutlich schneller darin mir 1000 LOC (z.b. eine SQL-Abfrage) per KI generieren zu lassen und dann die Fehler auszubügeln als ich die 1000 Zeilen selbst eingebe.
Man muss dann halt eine Idee davon haben was man tut. Und manchmal lernt man noch Funktionen, die man nicht oder nicht in der Verwendung kannte.
 
Ich bin erstaunt, wie man heute noch glauben kann KI wäre nutzlos. Sie ist nicht perfekt aber alles andere als nutzlos.
Lies meine Zeilen im Zusammenhang mit dem Kommentar. Jeder D...p meint, er müsse bei allem eine KI-Abrufe einbauen, die nur Energie vergeudet, die Ergebnisse sind z.B. bei Google oftmals recht zweifelhaft bis offensichtlich sachlich falsch. - Wurde schon weiter vorne im Thread ausgeführt.

KI/LLM sollte man einsetzen, wo es sinnvoll ist und nicht mit dem Salzstreuer verteilen, nur, um zu zeigen, dass man es einbinden kann.
 
  • ok1.de
  • IT Refresh - IT Teile & mehr
  • thinkstore24.de
  • Preiswerte-IT - Gebrauchte Lenovo Notebooks kaufen

Werbung

Zurück
Oben