Der Anpassungsprozess - Konvergenz, Toleranz und Abhängigkeiten

Der nichtlineare Anpassungsprozess ist iterativ. Der Prozess ist abgeschlossen, wenn der Unterschied zwischen reduzierten Chi-Quadratwerten von zwei aufeinanderfolgenden Iterationen kleiner ist als ein bestimmter Toleranzwert. Wenn der Prozess abgeschlossen ist, wird gesagt, dass die Anpassung konvergiert ist. Zur Darstellung wird ein Modell mit einem Parameter verwendet:

Image:The Fitting Process Convergence,Tolerance and Dependencies-1.jpg

Die Kurve zeigt eine Änderung des reduzierten x^2\,\! während eines Anpassungsvorgangs an. Von einem Startwert \theta _0\,\! ausgehend, wird der Parameterwert so angepasst, dass der x^2\,\!-Wert reduziert wird. Der Fit hat konvergiert, wenn ? x^2\,\! ? Toleranz

Das Ziel der nichtlinearen Kurvenanpassung ist es, das absolute Minimum des reduzierten x^2\,\! zu finden. Manchmal erreicht der Minimierungsvorgang jedoch nicht dieses absolute Minimum (die Anpassung konvergiert nicht). Wenn das Konvergieren fehlschlägt, ist das häufig auf einen der folgenden Gründe zurückzuführen:

Inhalt

 

Schlechte Parameterinitialisierungswerte

Initialisierungswerte sind für einen Anpassungsvorgang sehr wichtig. Sie können empirische Werte aus vorangehenden Arbeiten sein oder geschätzte Werte, die durch Umformen der Formel in eine annähernde Form abgeleitet wurden. Gute Initialisierungswerte verkürzen die Zeit zum Ausführen der Anpassung.

Relative vs. absolute Minima

Es ist nicht ungewöhnlich, dass mit dem iterativen Verfahren eher ein relatives als ein absolutes Minimum gefunden wird. In diesem Fall konvergiert der Vorgang so, dass eine weitere Verminderung des reduzierten x^2\,\! unmöglich erscheint.

Image:The Fitting Process Convergence Tolerance and Dependencies-2.jpg

Das größte Problem besteht darin, dass man nicht einmal weiß, ob die Routine ein absolutes oder ein relatives Minimum erreicht hat. Die einzige Möglichkeit sicherzugehen, dass der iterative Vorgang ein absolutes Minimum erreicht, ist die Anpassung von mehreren verschiedenen Initialisierungsparameterwerten und die Beobachtung dieser Ergebnisse. Wenn Sie wiederholt das gleiche Endergebnis erhalten, ist es unwahrscheinlich, dass ein lokales Minimum gefunden wurde.

Nicht eindeutige Parameterwerte

Das häufigste Problem bei der nichtlinearen Anpassung ist, dass egal, wie Sie die Parameterinitialisierungswerte wählen, die Iterationen nicht zu konvergieren scheinen. Einige oder alle Parameterwerte ändern sich mit den Iterationen ständig und divergieren schließlich oder produzieren arithmetischen Über-/Unterlauf. Dies sollte ein Zeichen für Sie sein, bezüglich der Anpassungsfunktion und/oder den von Ihnen verwendeten Daten etwas zu unternehmen. Es gibt einfach keinen einzelnen Satz von Parameterwerten, der Ihren Daten am besten angepasst ist.

Überparameterisierte Funktionen

Haben die Funktionsparameter im Bezug auf die unabhängigen Variablen das gleiche Differential, lässt dies vermuten, dass die Funktion überparametrisiert ist. In solchen Fällen konvergiert der Anpassungsvorgang nicht. Im folgenden Modell zum Beispiel:

y=Ae^{x-x_0}

A ist die Amplitude und x0 die horizontale Verschiebung. Sie können die Funktion auch wie folgt neu schreiben:

y=Ae^{x-x_0}=A\frac 1{e^{x_0}}e^x=Be^x

Mit anderen Worten, wenn sich während der Anpassung die Werte für A und x_0\,\! ändern, so dass die Kombination B erhalten bleibt, wird sich der reduzierte x^2\,\!-Wert nicht ändern. Jeder weitere Versuch, die Anpassung zu verbessern, ist wahrscheinlich nicht erfolgreich.

Image:The Fitting Process Convergence Tolerance and Dependencies-3.jpg

Tritt eines der beiden folgenden Szenarien auf, deutet dies darauf hin, dass etwas nicht stimmt:

  • Der Parameterfehler ist sehr groß im Verhältnis zum Parameterwert. Beträgt die Breite der Gauß-Verteilung z.B. 0,5, während der Fehler 10 ist, so ist das Ergebnis für die Breite bedeutungslos, da der Fit nicht konvergiert hat.
  • Die Parameterabhängigkeit (für einen oder mehrere Parameter) liegt nahe bei eins. Sie sollten wahrscheinlich den Wert der Parameter entfernen oder festlegen, deren Abhängigkeit nah bei eins liegt, da die Anpassung nicht von dem Parameter abzuhängen scheint.

Beachten Sie jedoch, dass die Überparametrisierung nicht unbedingt bedeutet, dass die Parameter in dem Modell keinen physikalische Bedeutung haben. Es ist möglicherweise ein Hinweis darauf, dass es unbegrenzte Lösungen gibt und Sie Bedingungen für den Anpassungsprozess bestimmen sollten.

Schlechte Daten

Selbst wenn die Funktion theoretisch nicht überparametrisiert ist, kann sich der Iterationsvorgang so verhalten, als wenn sie es wäre, da die Daten nicht genug Informationen zur Bestimmung einiger oder aller Parameter beinhalten. Dies passiert normalerweise, wenn die Daten nur in begrenzten Intervallen der unabhängigen Variable(n) vorhanden sind. Wenn Sie zum Beispiel eine nicht monotonische Funktion wie Gaußsche an monotonische Daten anpassen, hat der nichtlineare Fitter Schwierigkeiten, die Immpulsmitte und -breite zu bestimmen, da die Daten nur eine Seite des Gaußschen Impulses beschreiben können.