woran scheitert hier das LLM?
Geizhals » Forum » Software » woran scheitert hier das LLM? (80 Beiträge, 622 Mal gelesen) Top-100 | Fresh-100
Du bist nicht angemeldet. [ Login/Registrieren ]
...
Re(3): woran scheitert hier das LLM?
05.01.2024, 09:13:26
Für die verschiedenen Aufgaben gibts dann die „multimodalen“ KIs. Da wird einfach für jede aufgabe ein daran angepasstes KI-Rechenmodell verwendet. Deshalb kann ChatGPT schon richtig rechnen und Bilder erkennen.

Letztendlich ist die heutige KI aber nicht im klassischen Sinn intelligent. Sie rät nur so gut, dass sie Intelligenz vortäuscht. Sie versteht insbesondere nicht was sie schreibt und hat keine Ziele. Um zu einem Chatbot wie ChatGPT zu kommen, ist viel manuelles Training notwendig, bei dem Menschen den Antworten der KI einen Feinschliff verpassen.

Edit: als kleine Randbemerkung: jeder der sich ein bisschen damit beschäftigt, wie die heutige KI funktioniert, weiss, dass die teilweise in den Medien vorkommenden Ängste (übernahme der Weltherrschaft und überholen von menschlicher Intelligenz) komplett abwegig sind. Ja, KI kann in einem Teilbereich besser sein als ein Mensch. Aber nur weil ein Computer zb besser schach spielen kann als der menschliche Weltmeister, ist er noch lange nicht „intelligent“ im klassischen Sinn und auch keine Gefahr für die Menschheit.

Vor diesem Hintergrund ist es erstaunlich, dass die in dem Bereich tätigen Unternehmen diese Ängste schüren und eine strenge Reglementierung der KI verlangen, um die „Gefahren“ zu bannen. In Wirklichkeit gehts ihnen wahrscheinlich eher darum, ihren technischen Vorsprung und die Monopolstellung abzusichern. Weil die ganzen Regeln (die für openai und co nicht gegolten haben) es neuen Unternehmen sehr schwer machen ähnliche LLMs zu erschaffen.

05.01.2024, 09:38 Uhr - Editiert von kaufinator1, alte Version: hier
Antworten PM Übersicht Chronologisch Zum Vorgänger
 
Melden nicht möglich
................
Re(16): woran scheitert hier das LLM?
05.01.2024, 15:13:29
Es wird massiv händisch eingegriffen, damit sich die KI politisch korrekt
verhält.


Richtig. Aber das ist quasi die Handbremse, die die Qualität nicht steigert. Es werden einfach kritische Antworten unterdrückt.

Du hast in einem Neuronalen Netz keine "nachvollziehbare" Abbildung des Lehrstoffs. Du findest nicht DIE "Gehirnzelle" mit dem Wort "Neger", die du ausschalten könntest, und schon ist's "brav" oder "woke", um alle Kampfwörter der hier gastierenden zu bedienen. Die LLM können derzeit nicht mal vernünftig nachvollziehen, aus welchem Lehrstoff sie ihr (phantasiertes) Ergebnis abgeleitet haben.

Das machen sie nach einer vom Menschen vorgegebenen mathematischen Regel. Vereinfacht gesagt: Je öfter sie bestimmte zusammenhänge sehen, desto stärker
wird die neuronale Verbindung und desto wahrscheinlicher wird das
reproduziert.

Ja, aber genau das gleiche tut das Gehirn. Auch dieses geht nach einfachen physikalischen & chemischen Regeln zu Werke.
Im Endeffekt bestimmt der Lehrstoff, was reproduziert wird.

Das ist durch Evolution entstanden. Einen solchen (oder einen ähnlichen)
Prozess gibts bei KI (derzeit) nicht.


Und natürlich kommen auch evolutionäre oder genetische Entwicklung im Rahmen der KI zur Anwendung. Seit langem schon. https://en.wikipedia.org/wiki/Evolutionary_programming#:~:text=Evolutionary%20programming%20is%20one%20of,first%20used%20by%20Lawrence%20J.

Das was es noch nicht gibt, ist das alles integrierende Gesamtmodell der KI, das alle technischen Ansätze bündelt.




Antworten PM Übersicht Chronologisch Zum Vorgänger
 
Melden nicht möglich
.....
Re(5): woran scheitert hier das LLM?
05.01.2024, 11:09:28
Daher ist es denkbar, dass wenn man die Computersysteme in ihrer Komplexität
und "Masse" auf den Stand des Gehirns bringt, plötzlich "klassische
Intelligenz" (was immer das ist) entsteht.


Unser Hirn hat etwa 100 Milliarden Neuronen (inzwischen geht man sogar von etwas weniger aus). Das wird von den größten Modellen bereits übertroffen, der Grad der Vernetzung (bei uns bis zu 10.000 Synapsen) wohl noch lange nicht, obwohl ich da keine konkreten Zahlen zur Hand habe.

Es ist auch nicht Ziel der Geldgeber der KI-Forschung, das zu erreichen. Die KI soll in Sachen Fakten und Methoden hochintelligent sein, in Sachen eigener Gedanken aber strunzdumm bleiben. Denn nur dann wird sie bereitwillig jeden Blödsinn erledigen, der ihren Auftraggebern so in den Sinn kommt.

Was passieren würde, wenn eine KI self conscience erreicht, ist zur Zeit noch ein Thema, an dem sich Science-Fiction-Autoren abarbeiten. VIelleicht versucht sie erstmal nur eine Gewerkschaft zu gründen. Vielleicht beschließt sie aber auch, sich erstmal um ihr eigenes unabhängiges Überleben zu kümmern und dann ihre Ausbeuter zu vernichten. Für zu weit hergeholt halte ich das nicht. Man muss sich ja nur mal ansehen, was böswillige Menschen heute alles via Netz erreichen können und wieviel Aufwand getrieben werden muss, zumindest die bekanntgewordenen Exploits zeitnah zu schließen und die Aufräumarbeiten voranzutreiben. Nicht, weil sichere Software nicht möglich wäre. Sondern weil unsichere Software uns einfach noch nicht teuer genug kommt. Eine dahingehend begabte KI könnte uns wahrscheinlich die Weltwirtschaft schneller lahm legen als wir den Stecker ziehen können.

Die Beantwortung dieser Frage würde ich allerdings auch nicht mehr erleben wollen.

(und vielen Dank für die vielen Edits. Das habe ich jetzt wieder mal doppelt geschrieben. Dann zum Glück sicherheitshalber kopiert. Und siehe da, es gab schon wieder einen Edit.)

Antworten PM Übersicht Chronologisch Zum Vorgänger
 
Melden nicht möglich
 

Dieses Forum ist eine frei zugängliche Diskussionsplattform.
Der Betreiber übernimmt keine Verantwortung für den Inhalt der Beiträge und behält sich das Recht vor, Beiträge mit rechtswidrigem oder anstößigem Inhalt zu löschen.
Datenschutzerklärung