Besser könnte man das wohl kaum zusammenfassen.
Bei der Sache mit dem Gegenwettern von der KI gegen eine andere KI, habe ich aber eine Theorie für mich entwickelt.
Nämlich folgendes:
Wir hätten ja alle irgendwie, um es mal voll zu Übertreiben, der ChatGPT KI erzählen müssen, die letzten Monate mindestens, das Gemini nix Taugt, Schwurbelt, wie in dem Beispiel auch angeführt und so weiter, damit die Datensätze sozusagen davon "verdorben" worden wären, mit welchen die neue ChatGPT KI zum Training gefüttert werden hätte müssen.
Dafür wären extrem viele Negative Bewertungen nötig gewesen, damit man hier die Datensätze aus der Vergangenheit auch nur Leicht verändern kann. Denn diese alten Datensätze, sind schon sehr Gut gewesen. Sozusagen hätte das Wissen der Menschheit in den letzten Monaten vielleicht auch Jahren, komplett anders gewertet werden müssen. Das stelle ich mir viel zu viel vor an Daten, die für so gravierende Veränderungen nötig wären aus meiner Vermutung natürlich nur gezogen.
Ich glaube nicht, das wir Menschen sooo viel Zeit und Mühe mit solchen Bewertungen verbringen, sondern habe eine viel einfachere Erklährung, die auch aus meinen eigenen KI Arbeiten mit den Programmen resultiert.
Nämlich den "Hauptpromt" zu verändern.
Dieser Hauptprompt, so nenne ich das hier der Einfachheit halber mal, sagt einer KI, was sie eigentlich ist und was sie machen soll. Der kommt mitgeliefert bei zum Beispiel einer Lokalen KI von HuggingFace. Da kann man sich das im Detail sehr Gut ansehen.
Solche Hauptpromts, sind richtig harter Tobak zu machen, weil sie gute und richtige Parameter brauchen.
Da steht dann auch drin, das die KI einem nicht helfen soll, einen Mord zu planen, wenn wir das mal Schlimm sichtbar machen wollen. Das steht da natürlich so nicht drin, aber die Richtung versteht man sicher.
Dieser Hauptpromt, kann von uns in den öffentlichen KIs nicht eingesehen werden, zumindest ist mir keine glaubhafte Weise davon bekannt. Das wäre interessant wenn da einer mehr wüsste.
Da einfach reinzuschreiben, bei dem Aufkommen der eindeutig wiederum messbaren mehrbeliebtheit von Gemini in den letzten Monaten (ich habe auch hier unabhängig darüber geschrieben sogar, das Gemini jetzt besser ist) könnte dazu geführt haben, das die Macher von ChatGPT ganz im Sinne des enormen Drucks der auf diesem neuem Markt herrscht, einfach ein bisschen "Gegenspielen", aus der Befürchtung heraus, das man seine Felle hier davonschwimmen sieht.
Es ist also eine Frage der Kontrolle der KI selbst, also des Angebotes, nach meiner Ansicht, warum das so Abstrakt und Eindeutig messbar auffällt, das sie wirklich jedes Mal, wenn ich von Gemini erzählt habe wie ein kleines Kind reagiert hat. :-)
Könntest Du dir Vorstellen nach meiner Erklährung (Frage ruhig wenn Du etwas nicht verstanden hast) dass dies eher der Fall ist?
Zu deinen Sprachartikeln
Genau hier treffen wir uns dann aber auch wieder in der Mitte, ich mit dem Bau des im weiten Sinne "Lügendetektors" und Du mit deiner sehr wohl guten Analyse über die Zusammenhänge der Sprachproblematiken und Mechanismen.
Ich werde mir deine Artikel auf jeden Fall in einer Zeit nochmal genau anschauen und wenn ich darf! auch als Arbeitsgrundlage mit für das neuen XACTDET verwenden, damit ich hier mehr aus dem Wissen ziehen kann und eventuell noch weitere "Fehler" in meinem Programm aufdecke.
Vielen Dank für diese ausführliche und sehr reflektierte Antwort. Ich halte deine Überlegung für ausgesprochen plausibel und ehrlich gesagt für deutlich realistischer als die Annahme, dass kollektive Nutzerbewertungen in so kurzer Zeit Trainingsdaten in relevantem Ausmaß "verderben" könnten.
Die Idee des von dir beschriebenen "Hauptprompts" trifft aus meiner Sicht einen zentralen Punkt:
Nicht das Wissen einer KI verändert sich hier primär, sondern ihr Selbstverständnis, ihr Rahmen, ihr erlaubter Denk- und Antwortkorridor. Und genau dieser Rahmen ist etwas, das wir als Nutzer weder einsehen noch direkt beeinflussen können - obwohl er maßgeblich bestimmt, wie eine KI reagiert, bewertet oder sich positioniert.
Gerade deshalb finde ich deine Beobachtung so interessant, dass das Verhalten von ChatGPT in bestimmten Kontexten fast "kindlich defensiv" wirkt. Das spricht weniger für Datenkorruption als für eine strategische Neuausrichtung auf Systemebene, vermutlich unter Markt-, Konkurrenz- und Erwartungsdruck. Nicht im Sinne einer bewussten Täuschung, sondern als Ausdruck von Kontrolle über das Angebot, wie du es nennst.
Und genau hier berühren sich unsere Perspektiven sehr deutlich.
Während du dich dem Thema eher von der technischen Seite näherst – Stichwort XACTDET, Mustererkennung, Lügendetektion - versuche ich, die sprachlichen und wahrnehmungsbezogenen Mechanismen sichtbar zu machen, die vor jeder technischen Bewertung wirken. Sprache ist nie neutral. Sie strukturiert Realität, setzt Schwerpunkte, verschiebt Bedeutungen, oft subtiler, als es uns bewusst ist.
In diesem Sinne sehe ich unsere Ansätze nicht als unterschiedlich, sondern als komplementär:
Du arbeitest an der Detektion von Inkonsistenzen im System,
ich versuche, die Verschiebungen im Bedeutungsraum zu beschreiben, in dem diese Systeme agieren.
Dass du meine Texte als mögliche Arbeitsgrundlage für dein Projekt nutzen möchtest, ehrt mich sehr und ja, das ist für mich absolut in Ordnung. Im Gegenteil: Ich finde den Gedanken spannend, dass philosophische, sprachliche Reflexion und technische Analyse sich gegenseitig schärfen können. Vielleicht liegt genau hier ein Schlüssel, um blinde Flecken auf beiden Seiten zu reduzieren.
Ich freue mich auf den weiteren Austausch und darauf, diese Schnittstelle zwischen Technik, Sprache und Bewusstsein gemeinsam weiter auszuloten.