Experiment was weiss KI über ok1.de / ok2.de?

andy

Administrator, Chef von's Ganze
Teammitglied
Themenstarter
Registriert
5 Feb. 2004
Beiträge
3.416
Ich bräuchte bitte mal Eure Unterstützung.

Habe heute „die KI“ befragt was sie so von unseren Shops ok1.de oder ok2.de hält.

Die Ergebnisse waren gemischt und teilweise wirklich erschreckend!

Das ging soweit, dass ausdrücklich vor uns gewarnt wurde weil es keine Belege dafür gibt, dass wir offizieller Partner von Lenovo sind oder das wir auch wirklich „echte“ ThinkPads verkaufen!

Es wurde irgendwo was gefunden wonach man vermuten kann, dass wir vor Jahren mal ein ThinkPad T470 verkauft haben aber daraus kann man natürlich nicht ableiten das wir das immer noch machen etc.

Nach diversen Fragen seit wann es ok1.de oder ok2.de gibt kam dann irgendwann die Einschätzung dass es sich tatsächlich um Shops handelt bei denen man davon ausgehen kann, dass die Betreiber was von ThinkPads verstehen ;-)

Auch ein Bezug zum ThinkPad-Forum oder ThinkWiki wurde erst nach mehreren Nachfragen irgendwo erkannt. (Dabei steht auf allen Seiten das gleich Imperssum???)

Jetzt gehe ich mal davon aus, dass nicht jeder der ChatGBP oder andre KI-Assistenten befragt die gleichen Antworten bekommen. Deshalb würde ich Euch mal bitten selber ein paar Versuche mit Fragen zu unseren Shops anzustellen und die Ergebnisse hier zu posten.

Bin mal gespannt!
 
Also: KI ist nicht lernfähig - genau das, was man der aber immer zugeschrieben hat
Moment, so stimmt die Aussage aber nicht. Wenn du damit meinst, dass KI zur Laufzeit dazulernen kann? Dann nein, eigentlich nicht. Wenn du meinst, ob man KI neue Dinge oder überhaupt Dinge beibringen kann? Dann klar. Siehe dazu auch diesen Artikel: https://www.cloudflare.com/de-de/learning/ai/inference-vs-training/
Hier mal eine Analogie: Erst trainiert man ein Modell. Dabei gibt man Daten vor/ein und das Modell lernt. Die KI geht zur Schule.
Man legt dann einen Maßstab fest, anhand dessen man beurteilen kann, wie gut das Modell schon trainiert ist, wie gut es also gelernt hat. Man lässt es quasi eine Abiklausur schreiben und vergibt eine Schulnote, außerdem legt man eine Schulnote als Grenze fest. Ist es besser als die Grenze, wird es aus der Schule entlassen. Das Training endet, das Lernen ist für die KI vorbei. Ist es noch unter der Grenze, wird weiter trainiert und nach einer Weile erneut die Klausur geschrieben.
Wenn das Modell nun also die Schule verlassen hat (fertig ist mit Training), ist das Lernen zu ende und es folgt die Inferenz. Hier gibt man dem Modell neue (oder auch alte) Daten und schaut, dass es sein gelerntes Wissen anwenden kann. Nun muss es zeigen, was es kann. Das ist die Phase, in der "wir" das Modell erleben. Wir können nun mit der KI rumspielen. Aber dazulernen tut sie hier nichts mehr. Dafür muss sie zurück in die Schule. Oder eine neue KI in der Schule trainiert werden.
 
Das hat aber eigentlich nichts damit zu tun, was unter "KI" vor 20 Jahren und mehr "definiert" wurde. Damals war man bestrebt, selbst lernende Systeme zu schaffen. Letztlich ist es heute als nur eine "Nachplapper- und Klaumaschine", die überbewertet ("KI-Blase") und energiefressend nur ein kurzzeitiger Modetrend sein wird. hat also mit "Intelligenz" nichts zu tun. - Trifft somit genau das, was ich befürchtet hatte.
 
Es scheint in der Tat so zu sein, dass das Lernen beim Trainieren des Modells passiert was einige Monate dauert.

Ich bin mir nicht sicher, ob und wie weit sich eine KI an Kontext zwischen zwei Sitzungen merkt. Das könnte aber der Schlüssel sein der einen glauben machen könnte die KI hätte etwas gelernt seit dem letzten Gespräch. Das scheint aber sehr rechenintensiv zu sein.

Ansonten ist RAG eine weitere Möglichkeit warum die Antwort anders ausfallen könnte. Die KI schaut nach was eine Suchmachine gerade ausspuckt und das könnte etwas anderes sein als vor einem Monat.

Letztendlich habe ich aber auch das Gefühl, dass die Entwickler eine fertig trainierte KI nachträglich händisch tunen kann damit man nicht warten muss bis die Training der nächsten Version abgeschlossen ist wenn die aktuelle Version unerwartete Eingeschaften an den Tag legt.
 
Ich bin mir nicht sicher, ob und wie weit sich eine KI an Kontext zwischen zwei Sitzungen merkt. Das könnte aber der Schlüssel sein der einen glauben machen könnte die KI hätte etwas gelernt seit dem letzten Gespräch. Das scheint aber sehr rechenintensiv zu

Ich habe mir vor langer Zeit einen gebrauchten Budget Gamingrechner zusammengebaut. Mit Hilfe von Perplexity habe ich dann nach einer passenden Grafikkarte für meinen Ryzen 5 5800x gefragt.
Monate später habe ich per Perplexity nach dem schnellsten Prozessor für einen AMD4 Sockel sowie einen Preis Leistungsprozessor im oberen Bereich gefragt.
Ein Absatz der Antwort war genau auf meinen Gamingrechner bezogen und hat einen anderen Prozessorvorschlag geliefert, wie die grundsätzliche Antwort, welcher Prozessor der schnellste AM4 Prozessor ist.
Also ja! Frühere Anfragen werden bei neuen Anfragen mit einbezogen!
 
Das hat aber eigentlich nichts damit zu tun, was unter "KI" vor 20 Jahren und mehr "definiert" wurde. Damals war man bestrebt, selbst lernende Systeme zu schaffen.
Ich glaube, das siehst du falsch. Denn eigentlich ist das, was wir jetzt gerade erleben exakt das, was man zunächst theoretisch als künstliche neuronale Netze so in der Literatur beschrieben hat. Lange Zeit hat halt die Rechenleistung gefehlt, damit auch wirklich in der Praxis was ausprobieren zu können, aber ansonsten ist es genau so gekommen wie es definiert wurde. Und ja, man wollte selbst lernende Systeme schaffen. Das hat man ja auch. Diese Systeme lernen komplett selbst. Man muss quasi nur wählen, ob jetzt gerade Training/Lernen dran ist oder Anwenden/Nutzen (Inferenz).

letztlich ist es heute als nur eine "Nachplapper- und Klaumaschine"
Ne.

die überbewertet ("KI-Blase")
Das schon eher.

und energiefressend
Das auf jeden Fall. Das waren aber viele neue Methoden zunächst. Was haben denn die ersten PCs so verbraucht? :D

nur ein kurzzeitiger Modetrend
Ne, das glaube ich auch nicht. Derzeit geht der Blick ja nur auf die LLMs. Es gibt so viel mehr künstliche neuronale Netze. Mit so vielen Anwendungsbereichen. Und diese Möglichkeiten sind nicht nur sinnvoll(er) und nicht nur theoretisch möglich, sondern da geht auch in der Praxis so einiges. Da sind Dinge schon seit Jahren im Einsatz. Nur durch die LLMs bekommt man es gerade populärer mit.

hat also mit "Intelligenz" nichts zu tun. - Trifft somit genau das, was ich befürchtet hatte.
Da wird's dann schon fast philosophisch. Was ist Intelligenz? Ab wann ist es intelligent? Betrachtet man allgemeine Dinge (wie beim IQ-Test getestet) oder Spezialwissen in bestimmten Bereichen (nicht wenige künstliche neuronale Netze können den Menschen in Spezialgebieten jetzt schon und auch schon seit einigen Jahren haushoch übertrumpfen - ist ja gar nicht so neu)? Da braucht man gar nicht so ablehnend/abwertend ran gehen. Vermutlich setzt du selbst manchmal - und vielleicht schon seit Jahren - künstliche neuronale Netze ein und merkst es nicht mal.

Es scheint in der Tat so zu sein, dass das Lernen beim Trainieren des Modells passiert was einige Monate dauert.
Genau, das Lernen passiert beim Training. Aber in der Regel läuft so etwas nicht Monate lang. Eher Stunden/Tage, maximal vielleicht mal ein paar Wochen.

Ich bin mir nicht sicher, ob und wie weit sich eine KI an Kontext zwischen zwei Sitzungen merkt. Das könnte aber der Schlüssel sein der einen glauben machen könnte die KI hätte etwas gelernt seit dem letzten Gespräch. Das scheint aber sehr rechenintensiv zu sein.
Normalerweise: gar nicht. Aber man kann ja dafür sorgen, dass die Sitzungen nur virtuell "neu" sind, während man in Wirklichkeit noch in einer Verlängerung der alten ist. Dann wirkt es wirklich so, als hätte es gelernt.
Oder der Anbieter speichert die Prompts und gibt sie beim nächsten Mal als Kontext mit dazu.
Funktioniert beides aber natürlich nur dann brauchbar, wenn man in seinem Account eingeloggt ist, damit er das zuordnen kann. Er kann nicht alle Prompts aller User als Kontext bei der nächsten Sitzung reinwerfen.

Letztendlich habe ich aber auch das Gefühl, dass die Entwickler eine fertig trainierte KI nachträglich händisch tunen kann damit man nicht warten muss bis die Training der nächsten Version abgeschlossen ist wenn die aktuelle Version unerwartete Eingeschaften an den Tag legt.
Ja, das Training kann man sehr wohl händisch beeinflussen. Das kann man sehr früh, damit es in die richtige Richtung läuft. Das kann man auch am Ende, um nochmal Dinge anzupassen.
 
  • ok1.de
  • IT Refresh - IT Teile & mehr
  • thinkstore24.de
  • Preiswerte-IT - Gebrauchte Lenovo Notebooks kaufen

Werbung

Zurück
Oben