Regressionsanalyse
Dieser Artikel scheint thematisch einem anderen Artikel zu gleichen, bzw. es könnte sich um einen getrennten Artikel zu einem synonymen Begriff handeln. Scheuen Sie sich nicht, die Artikel inhaltlich an der aus Ihrer Sicht geeignetsten Stelle zusammenzubringen oder ggf. besser voneinander zu trennen. Verlinken Sie die Artikel ggf. sinnvoll miteinander. Kommentieren Sie schließlich bitte auf der Seite Artikel zum gleichen Thema den Doppeleintrag als erledigt!Der Doppeleintrag befindet sich unter: Lineare Regression Methode der kleinsten Quadrate OLS Lineare Regressionsanalyse -- 20:45, 19. Jul 2004 (CEST)
Regressionsanalysen sind Techniken, mit denen für eine Gleichung y = f(x) die Parameter so angeglichen werden, dass minimale Abweichungen zwischen experimentellen und kalkulierten Werten entstehen. Für diesen Fall wird die gewichtete Summe der Fehlerquadrate (SSQ oder chi-Quadrat genannt) minimiert. Zur Wichtung dient die Varianz (sigma) des Datenpunktes; je größer diese ausfällt, desto weniger trägt der betreffende Punkt zur Analyse bei. Mit dem Aufkommen leistungsfähiger Rechner gewinnt insbesondere die nichtlineare Regression an Bedeutung, die im Mittelpunkt dieses Artikels steht.
Die Regressionsanalyse ist eine sehr leistungsfähige Methode zur Datenanalyse. Am Beispiel der Enzymkinetik, setzt sie allerdings voraus, dass nur y (Reaktionsgeschwindigkeit) und nicht x (Substratkonzentration) einem Fehler unterliegt. Die Regressionsanalyse stellt generell hohe Anforderungen an die zugrundeliegende Datenbasis. Dazu zählen u.a.:
- Voneinander unabhängige Zufallseinflüsse (Unkorreliertheit)
- Gleichförmige Streuung (Homoskedastizität)
- Keine Strukturbrüche
- Für Zeitreihenanalysen muß außerdem eine eindeutige Zuordnung von Sachverhalten zu Zeitpunkten gegeben sein
Table of contents |
2 Nichtlineare Regression 3 Siehe auch 4 Weblinks |
Lineare Regression
Lineare Regression lässt sich nur auf lineare oder linearisierbare Funktionen anwenden. Um bei der Enzymkinetik zu bleiben: die vertraute Lineweaver-Burk-Beziehung ist zwar eine algebraisch korrekte Umformung der Michaelis-Menten-Gleichung v = Vmax x [S] / (Km + [S]), ihre Anwendung liefert aber nur korrekte Ergebnisse, wenn die Messwerte fehlerfrei sind. Dies ergibt sich aus der Tatsache, dass sich die Realität nur mit einer erweiterten Michaelis-Menten-Beziehung
Das Verfahren geht ursprünglich auf Gauß zurück. Aktuelle Programme arbeiten häufig mit dem Algorithmus nach Marquart, der sich bei größerer Abweichung der Schätzwerte als toleranter erweist.
Standardanalysen setzen normalerweise voraus, dass Fehler einer Normalverteilung folgen. Ausreißer lassen sich allerdings aufgrund eines Algorithmus nach Mosteller und Tukey (1977) unterdrücken. Dies wird durch Anwendung eines weiteren Wichtungsfaktors (1 für Punkte geringer Abweichung, 0 für extreme Ausreißer) erreicht und als "bisquare weighting" bezeichnet.
Nichtlineare Regression
Nichtlineare Regression ermöglicht die Anpassung von Daten an jede Gleichung der Form y = f(x). Da diese Gleichungen Kurven definieren, werden die Begriffe nichtlineare Regression und "curve fitting" zumeist synonym gebraucht. Bei nichtlinearen Gesetzmäßigkeiten ergibt sich eine Komplikation dadurch, dass die zu optimierenden Parameter nicht direkt ermittelt werden können: alle Kalkulationen gehen zwangsläufig von Schätzwerten aus, so dass jede nichtlineare Regressionsanalyse ein iteratives Verfahren darstellt. Ob diese Schätzwerte vernünftig waren, zeigt sich im nachhinein dadurch, dass verschiedene Anfangsschätzungen zum gleichen Endergebnis führen. Siehe auch
Konfidenzintervall, Bestimmtheitsmaß, Korrelationskoeffizient, Signifikanztest