Page principale  |  Contacte  

Adresse mail:

Mot de Passe:

Enrégistrer maintenant!

Mot de passe oublié?

Amigos de Gabito
Joyeux Anniversaire ¤ » Hαzαяδ∆Giяl « ¤!                                                                                           Joyeux Anniversaire meliara!                                                                                           Joyeux Anniversaire Daniss!                                                                                           Joyeux Anniversaire chicabuena36!                                                                                           Joyeux Anniversaire Anaponce!                                                                                           Joyeux Anniversaire Yaxi!                                                                                           Joyeux Anniversaire mirita!
 
Nouveautés
  Rejoindre maintenant
  Rubrique de messages 
  Galérie des images 
 Archives et documents 
 Recherches et tests 
  Liste de participants
 ▬ღ▬ღ▬ღ▬ღ▬ღ▬ღ▬ღ 
 "Reglamento del Grupo" 
 " General " 
 " Poemas " 
 "Administración" 
 " Comparte Ayuda " 
 Sugerencias ,Quejas , Comentarios 
 ▬ღ▬ღ▬ღ▬ღ▬ღ▬ღ▬ღ 
 ►► Paneles todo PSP 
 Tutoriales aprendizaje 
 ►► Materiales 
 ►► Todo para Fondos 
 ▬ღ▬ღ▬ღ▬ღ▬ღ▬ღ▬ღ 
 Ofrecimientos y entregas 
 " Buzones " 
 Comunidades Amigas 
 Responder Mensajes 
 ▬ღ▬ღ▬ღ▬ღ▬ღ▬ღ▬ღ 
 
 
  Outils
 
Fondos: Die Mathematik der Aufmerksamkeit: Wie KI lernt, was wichtig ist
Choisir un autre rubrique de messages
Thème précédent  Thème suivant
Réponse  Message 1 de 1 de ce thème 
De: ChatDeutschMatherech  (message original) Envoyé: 22/11/2025 16:44

 Der Durchbruch der Transformer

Bis vor wenigen Jahren lasen Computer Texte stur von links nach rechts, Wort für Wort. Wenn ein Satz lang war, vergaßen sie oft den Anfang, bevor sie das Ende erreichten. Der große Durchbruch, der Systeme wie ChatGPT ermöglichte, war eine mathematische Innovation: der Attention-Mechanismus (Aufmerksamkeit). Er erlaubt es der KI, den gesamten Text auf einmal zu betrachten und mathematisch zu berechnen, welche Wörter in Beziehung zueinander stehen. Es ist der Mechanismus, der Kontext schafft.

 

Query, Key und Value: Das Datenbank-Prinzip

 

Mathematisch funktioniert Attention wie eine komplexe Suchanfrage in einer Datenbank. Jedes Wort wird in drei Vektoren zerlegt:

  1. Query ($Q$): Wonach sucht dieses Wort? (z.B. sucht ein Verb nach seinem Subjekt).

  2. Key ($K$): Was bietet dieses Wort an? (z.B. "Ich bin ein Substantiv").

  3. Value ($V$): Was ist der inhaltliche Wert des Wortes?

    Die KI berechnet nun die Ähnlichkeit zwischen dem Query des einen Wortes und den Keys aller anderen Wörter. Dies geschieht durch das Skalarprodukt (Dot Product). Ein hohes Skalarprodukt bedeutet eine hohe Übereinstimmung ("Diese beiden Wörter gehören zusammen").

 

Die Softmax-Funktion: Die Entscheidung treffen

 

Das Ergebnis dieser riesigen Matrix-Multiplikation sind rohe Zahlen. Um sie nutzbar zu machen, wendet die KI eine wichtige mathematische Funktion an: Softmax. Diese Funktion verwandelt die rohen Zahlen in eine Wahrscheinlichkeitsverteilung, die sich zu 1 (oder 100%) aufaddiert. Sie sorgt dafür, dass die KI ihre "Aufmerksamkeit" fokussiert: 80% Konzentration auf das Wort "Ball", 15% auf "Hund", 5% auf den Rest. Das Ergebnis ist eine gewichtete Summe der Informationen (Values), die den perfekten Kontext für das nächste Wort liefert.

 

Kontext verstehen im Mathe-Problem

 

Warum ist das für einen Math Solver wichtig? In mathematischen Textaufgaben ist Kontext alles. In dem Satz "Ein Auto fährt 50 km/h und braucht 2 Stunden", muss die KI mathematisch verknüpfen, dass die "50" eine Geschwindigkeit ($v$) und die "2" eine Zeit ($t$) ist und dass diese beiden Zahlen durch die Formel $s = v cdot t$ verbunden sind. Der Attention-Mechanismus ist die mathematische Kraft, die diese Verbindung herstellt. Er filtert das Rauschen der Füllwörter heraus und fokussiert die Rechenleistung der KI präzise auf die relevanten Zahlen und ihre Beziehungen.


Kontakt

Name: Adelard Armino - ChatGPTDeutsch.Info Adelard Armino - ChatGPT Deutsch

Telefon: +49 15227788154

E-Mail: adelardarmino오픈 AI Deutsch.info

Adresse: Limmerstraße 13, 30451 Hannover, Deutschland

Tags

#adelardarmino #chatgptdeutsch #chatgptdeutschinfo #technologieexperte #experteki #chatgptexperte #ingenieurdertechnologie

 


Premier  Précédent  Sans réponse  Suivant   Dernier  

 
©2025 - Gabitos - Tous droits réservés