Tensor
Tensoren bilden in der Mathematik eine sehr allgemeine Klasse von geometrischen Objekten, die unter anderem Skalare, Vektoren, lineare Abbildungen und Bilinearformen als Spezialfälle enthält.Oft verwendet man das Wort Tensor auch abkürzend als Bezeichnung für ein Tensorfeld, also eine Abbildung, die jedem Punkt einer Mannigfaltigkeit einen Tensor zuordnet.
Dieser Artikel erklärt außerdem die Begriffe Tensorraum und Tensorprodukt: jeder Tensor ist Element eines Tensorraums; ein Tensorraum ist das Tensorprodukt von Vektorräumen. Mehr dazu unten.
Das Teilgebiet der Algebra, das von Tensoren handelt, wird ohne klare Bedeutungsunterschiede als Tensorrechnung, Tensoralgebra oder multilineare Algebra bezeichnet. Die Tensoranalysis hingegen handelt auch von Differentialoperationen auf Tensorfeldern über Mannigfaltigkeiten.
Tensoren und Tensorfelder werden in verschiedenen Teilgebieten der Mathematik und Physik angewandt. Diese Anwendungen sind von sehr unterschiedlicher Komplexität:
Wichtige Anwendungsgebiete umfassen:
Für manche Anwendungen, zum Beispiel in der Elastizitätstheorie, ist es vollkommen ausreichend, sich Tensoren als eine Verallgemeinerung von Skalar, Vektor, Matrix vorzustellen. Dabei unterscheidet man Tensoren verschiedener Stufe (auch Rang genannt):
Der Begriff Tensor fasst einerseits verschiedene Konzepte der Linearen Algebra, wie Skalar, Vektor und Matrix in sich zusammen. Andererseits aber erzwingt die Tensoralgebra neue Unterscheidungen: sie klassifiziert geometrische Objekte danach, wie sich deren Koordinatendarstellungen unter einem Wechsel der Vektorraumbasis verhalten, und deckt dabei auf,
Für ein tieferes Verständnis von Tensoren ist es unerlässlich, zu rekapitulieren, was eigentlich ein Vektor ist: nämlich
Im weiteren Verlauf dieses Artikels verwenden wir die von Einstein eingeführte Summationskonvention: über jeden Index, der auf einer Seite einer Gleichung zweimal vorkommt, wird automatisch summiert. Statt
Bei einem Basiswechsel im Vektorraum V tritt an die Stelle der bisherigen Basis {e1, ..., en} eine neue Basis {e`1, ..., e`n}. Alte und neue Basis gehen durch eine bijektive lineare Abbildung A auseinander hervor. Diese Abbildung kann durch eine invertierbare Matrix ai j dargestellt werden:
Für einen Vektor
In diesem Artikel machen wir, wie in einigen Anwendungen der Tensorrechnung üblich, diese Unterscheidung explizit sichtbar, indem wir kontravariante Indizes hochstellen, kovariante Indizes tiefstellen.
Sprachlich unterscheidet man nicht immer zwischen einem Tensor und seiner Koordinatendarstellung; einen Tensor, dessen Koordinaten kontravariant transformieren, nennt man deshalb auch einen kontravarianten Tensor. Vektoren sind demnach kontravariante Tensoren erster Stufe.
Eine Linearform ist eine lineare Abbildung aus einem Vektorraum in den zugrundeliegenden Skalarkörper. Der Vektorraum aller Linearformen über einem Vektorraum V ist dessen Dualraum V*.
Wenn eine bestimmte Basis {e1, ..., en} von V gegeben ist, dann kann man in kanonischer Weise eine Basis {e1, ..., en} von V* wählen, so dass gilt:
Eine Linearform, die diese Transformationseigenschaften aufweist, heißt 1-Form oder kovarianter Tensor erster Stufe oder einfach kovarianter Vektor.
In der Linearen Algebra führen verschiedene Überlegungen auf das Skalarprodukt: mit Hilfe des Skalarprodukts kann man
In der Hesseschen Normalform dagegen liegt es nahe, den Normalenvektor n als eine 1-Form zu lesen:
Der Gradient eines skalaren Vektorfeldes f(x) ermöglicht die lineare Approximation
Davon abstrahiert, kann man auch den Gradienten-Operator
Die Transformationsmatrix ai j ist selbst kein Tensor, denn sie ist kein koordinatenunabhängiges geometrisches Objekt, sondern beschreibt im Gegenteil just einen Wechsel des Koordinatensystems.
Formal kann man die Transformationsmatrix als Jacobi-Matrix schreiben, indem man den Gradienten bezüglich der alten Koordinaten auf den Ortsvektor in neuen Koordinaten anwendet und ausnutzt, dass der Gradient kovariant transformiert:
Die Wirkung einer lineare Abbildung h : V → V auf die Koordinaten eines Vektors v kann durch eine quadratische Matrix hi j dargestellt werden:
Eine lineare Abbildung h ist somit ein Tensor zweiter Stufe; für eine gegebene Basis von V (und damit auch von V*) kann man h als Linearkombination einfach kovarianter, einfach kontravarianter Basisvektoren schreiben:
Man definiert einen Tensor vom Grad (r,s) als multilineare Abbildung mit s Argumenten und r Argumenten Die Argumente sind Elemente eines Vektorraumes und Argumente des zum Vektorrraum gehörenden Dualraumes .
Der Tensor hat dann die Form
Je nachdem ob, die Argumente aus einem Vektorraum sind oder aus dessen Dualraum
wird der Tensor als kovariant oder kontravariant bezeichnet. Im obigen Fall liegt ein s-fach kovarianter, r-fach kontravarianter Tensor vor.
Der durch den nachfolgenden Link referenzierte Artikel vergleicht die in der Physik verwendeten Tensoren mit der rein mathematischen Definition.
siehe einstweilen: Pseudovektor
Das Wort Tensor (lat: tendo ich spanne) wurde in den 1840er Jahren von Hamilton in die Mathematik eingeführt; er bezeichnete damit den Absolutbetrag seiner Quaternionen [1], also noch keinen Tensor im modernen Sinn.
Maxwell scheint den Spannungstensor, den er aus der Elastizitätstheorie in die Elektrodynamik übertrug, selbst noch nicht so genannt zu haben.
Unter dem Titel absolute Differentialgeometrie entwickelten Gregorio Ricci-Curbastro und dessen Schüler Tullio Levi-Civita um 1890 die Tensorrechnung auf Riemannschen Mannigfaltigkeiten; einem größeren Fachpublikum machten sie ihre Ergebnisse 1900 mit dem Buch calcolo differenziale assoluto zugänglich, das bald in andere Sprachen übersetzt wurde und aus dem sich Einstein unter großer Mühe die mathematischen Grundlagen aneignete, die er zur Formulierung der Allgemeinen Relativitätstheorie benötigte. Einstein selbst prägte 1916 den Begriff Tensoranalysis und trug mit seiner Theorie maßgeblich dazu bei, den Tensorkalkül bekannt zu machen; er erfand überdies die Summationskonvention.
Anwendungen
Man muss deshalb damit rechnen, dass Tensoren in verschiedenen Anwendungsgebieten verschieden definiert, verschieden notiert und verschieden gehandhabt werden.Naive Definition: Tensoren als Verallgemeinerung von Skalar, Vektor, Matrix
Lineare Algebra in Tensorsprache
In den folgenden Abschnitten stellen wir einige grundlegene Objekte der linearen Algebra in der Sichtweise der Tensoralgebra dar: dabei erarbeiten wir die genannten Unterscheidungen und führen zugleich zu einem tieferen Verständnis des Begriffs Tensor hin.Vektoren als kontravariante Tensoren erster Stufe
Wir betrachten einen Vektor v aus einem n-dimensionalen Vektorraum V. Bezüglich einer gegebenen Basis {e1, ..., en} ist v durch seine Koordinaten v1, ..., vn gegeben:
Das Hochstellen der Koordinatenindizes ist in einigen, aber nicht allen Anwendungen der Tensorrechnung üblich; es steht im Zusammenhang mit der Unterscheidung von ko- und kontravarianten Größen; mehr dazu unten.Summationskonvention
schreiben wir also ab sofort
Diese Schreibweise ziehen wir auch der koordinatenfreien Notation von Tensorgleichungen vor, da sie auf den ersten Blick die Stufen aller in der Gleichung vorkommenden Tensoren erkennen lässt; die Materialgleichung aus der Elektrodynamik
schreiben wir also
(mit impliziter Summation über j).Koordinatentransformationen, Ko- und Kontravarianz
(mit Summation über j).
liest man ab, dass die Koordinatentransformation von vi nach v`j der Vorschrift
genügt. Man beachte, dass hier, anders als sonst, über den ersten der beiden Indizes der Matrix a summiert wird. In koordinatenfreier Notation könnte man das mit Hilfe der transponierten Matrix schreiben: ai j = (aT)j i. Die Rücktransformation erfolgt mit Hilfe der inversen Matrix:
Man erkennt, dass sich Basis und Vektorkoordinaten gegenläufig transformieren:
Diese Unterscheidung durchzieht die gesamte Tensoralgebra: man kann sämtliche Tensoren danach klassifizieren, ob sie sich
transformieren; bei Tensoren höherer als erster Stufe sind auch Mischformen möglich (kovariant in einigen, kontravariant in anderen Indizes).Linearformen (1-Formen) als kovariante Tensoren erster Stufe
wobei das Kronecker-Symbol δi j für i=j den Wert 1, sonst den Wert 0 hat. Eine Linearform
auf einen Vektor v angewandt,
liefert dann
Damit die Beziehungen ei(ej) = δi j und f(v) = fi vi unabhängig von der Wahl bestimmter Basen gelten, ist zu fordern: bei einem Basiswechsel im Vektorraum V transformieren
wie wir es in der Notation durch Hoch- beziehungsweise Tiefstellen der Indizes schon vorweggenommen haben.Skalarprodukt versteckt eine Metrik oder eine 1-Form
Bei der Berechnung von Längen oder Winkeln steht das Skalarprodukt für eine Abbildung aus V×V in den zugrundeliegenden Skalarkörper. In Tensorsprache ist diese Abbildung eine durch den metrischen Tensor gij gegebene Bilinearform: mehr dazu unten.
Man setzt also das Skalarprodukt ei · ej mit der Linearform ei(ej) gleich. In dieser Weise kann man jeden kovarianten Vektor als eine 1-Form auffassen.Gradient als 1-Form
Der Gradient df muss kovariant sein, damit das Skalarprodukt df(x0) · (x - x0) basisunabhängig ist; nach dem oben gesagten fasst man den Gradienten eines Skalarfeldes deshalb auch als eine 1-Form auf.
als 1-Form auffassen (was wohlgemerkt nicht seine Wirkung auf ein Skalarfeld f, sondern die gemeinsame Tensorstufe von d und df beschreibt).Koordinatentransformation mittels Jacobi-Matrix
Lineare Abbildungen als Tensoren der Stufe 1+1
Aus dem Transformationsverhalten unter einem Basiswechsel,
folgt, dass sich die Matrixkomponenten gemäß
also im einen Index kovariant, im anderen kontravariant transformieren.Formale Definition: Tensoren der Stufe r+s, Tensorprodukt, Tensorraum
Die Summe r + s heißt Stufe oder Rang des Tensors.Pseudovektoren
Wort- und Begriffsgeschichte
In seiner modernen Bedeutung, als Verallgemeinerung von Skalar, Vektor, Matrix, wird das Wort Tensor erstmals von Woldemar Voigt in seinem Buch Die fundamentalen physikalischen Eigenschaften der Krystalle in elementarer Darstellung (Leipzig, 1898) eingeführt.