Lineare Unabhängigkeit. Lineare Abhängigkeit von Zeilen und Spalten Sind die Zeilen einer Matrix linear unabhängig zu erklären

Lineare Unabhängigkeit Matrixzeilen

Gegeben eine Größenmatrix

Wir bezeichnen die Zeilen der Matrix wie folgt:

Die beiden Linien werden aufgerufen gleich wenn ihre entsprechenden Elemente gleich sind. .

Wir führen die Operationen der Multiplikation einer Zeichenfolge mit einer Zahl und der Addition von Zeichenfolgen als Operationen ein, die Element für Element ausgeführt werden:

Definition. Eine Zeile heißt Linearkombination von Matrixzeilen, wenn sie gleich der Summe der Produkte dieser Zeilen durch beliebige reelle Zahlen (beliebige Zahlen) ist:

Definition. Die Zeilen der Matrix werden aufgerufen linear abhängig , wenn es solche Zahlen gibt, die nicht gleichzeitig Null sind, so dass die Linearkombination der Matrixzeilen gleich der Nullzeile ist:

Wo . (1.1)

Die lineare Abhängigkeit der Zeilen der Matrix bedeutet, dass mindestens 1 Zeile der Matrix eine Linearkombination des Rests ist.

Definition. Wenn die lineare Kombination von Zeilen (1.1) genau dann gleich Null ist, wenn alle Koeffizienten sind, dann werden die Zeilen aufgerufen linear unabhängig .

Matrix-Rangsatz. Der Rang einer Matrix ist gleich der maximalen Anzahl ihrer linear unabhängigen Zeilen oder Spalten, durch die alle anderen Zeilen (Spalten) linear ausgedrückt werden.

Der Satz spielt eine grundlegende Rolle in der Matrizenanalyse, insbesondere bei der Untersuchung linearer Gleichungssysteme.

6, 13, 14, 15, 16. Vektoren. Operationen auf Vektoren (Addition, Subtraktion, Multiplikation mit einer Zahl),N -dimensionaler Vektor. Das Konzept des Vektorraums und seine Grundlage.

Ein Vektor ist eine gerichtete Strecke mit einem Startpunkt A und Endpunkt IN(die parallel zu sich selbst verschoben werden kann).

Vektoren können entweder durch 2 Großbuchstaben oder durch einen Kleinbuchstaben mit einem Bindestrich oder einem Pfeil gekennzeichnet werden.

Länge (oder Modul) Vektor ist eine Zahl gleich der Länge des Segments AB, das den Vektor darstellt.

Vektoren, die auf derselben Linie oder auf parallelen Linien liegen, werden aufgerufen kollinear .

Wenn Anfang und Ende des Vektors zusammenfallen (), wird ein solcher Vektor aufgerufen null und mit = bezeichnet. Die Länge des Nullvektors ist Null:

1) Das Produkt eines Vektors mit einer Zahl:

Es wird einen Vektor mit einer Länge geben, dessen Richtung die gleiche ist wie die Richtung des Vektors if und entgegengesetzt dazu if .

2) Gegenteiliger Vektor heißt Produkt eines Vektors -pro Nummer(-1), d.h. -=.

3) Die Summe zweier Vektoren und wird ein Vektor genannt, dessen Anfang mit dem Anfang des Vektors und dessen Ende mit dem Ende des Vektors zusammenfällt, vorausgesetzt, dass der Anfang mit dem Ende zusammenfällt. (Dreiecksregel). Die Summe mehrerer Vektoren ist ähnlich definiert.



4) Die Differenz zweier Vektoren und heißt die Summe des Vektors und des Vektors -, das Gegenteil.

Skalarprodukt

Definition: Das Skalarprodukt zweier Vektoren ist die Zahl gleich dem Produkt der Längen dieser Vektoren und dem Kosinus des Winkels zwischen ihnen:

n-dimensionaler Vektor und Vektorraum

Definition. Ein n-dimensionaler Vektor ist eine geordnete Sammlung N reelle Zahlen geschrieben als x \u003d (x 1, x 2, ..., x n), Wo x ich ich -te Komponente des Vektors X.

Das Konzept eines n-dimensionalen Vektors ist in der Ökonomie weit verbreitet, beispielsweise kann eine bestimmte Menge von Gütern durch den Vektor charakterisiert werden x \u003d (x 1, x 2, ..., x n), und die entsprechenden Preise y = (y 1 ,y 2 ,…,y n).

- Zwei n-dimensionale Vektoren sind gleich genau dann, wenn ihre jeweiligen Komponenten gleich sind, d.h. x=y wenn x ich= j ich, ich = 1,2,…,N.

- Die Summe zweier Vektoren die gleiche Abmessung N Vektor genannt z = x + y, deren Komponenten gleich der Summe der entsprechenden Komponenten der Terme der Vektoren sind, d.h. z ich= x ich+j ich, ich = 1,2,…, N.

- Das Produkt eines Vektors x mit einer reellen Zahl heißt ein Vektor, dessen Komponenten gleich dem Produkt der entsprechenden Komponenten des Vektors sind, d.h. , ich= 1,2,…,N.

Lineare Operationen an beliebigen Vektoren erfüllen die folgenden Eigenschaften:



1) - kommutatives (Verschiebungs-) Eigentum der Summe;

2) - assoziatives (assoziatives) Eigentum der Summe;

3) - Eigenschaft assoziativ in Bezug auf den numerischen Faktor;

4) - distributives (distributives) Eigentum in Bezug auf die Summe der Vektoren;

5) - distributiv in Bezug auf die Summe der numerischen Faktoren Eigenschaft;

6) Es gibt einen Nullvektor, so dass für jeden Vektor (die besondere Rolle des Nullvektors);

7) Für jeden Vektor gibt es einen entgegengesetzten Vektor, so dass ;

8) für beliebige Vektoren (besondere Rolle des Zahlenfaktors 1).

Definition. Der Satz von Vektoren mit reellen Komponenten, der die Operationen zum Addieren von Vektoren und Multiplizieren eines Vektors mit einer Zahl definiert, die die obigen acht Eigenschaften (als Axiome betrachtet) erfüllt, wird aufgerufen Vektorzustand .

Dimension und Basis eines Vektorraums

Definition. Linearer Raum genannt n-dimensional wenn es enthält N linear unabhängige Vektoren, und jeder der Vektoren ist bereits abhängig. Mit anderen Worten, räumliche Dimension ist die maximale Anzahl der darin enthaltenen linear unabhängigen Vektoren. Die Zahl n heißt Dimension des Raumes und wird mit bezeichnet.

Eine Menge von n linear unabhängigen Vektoren in einem n-dimensionalen Raum heißt Basis .

7. Eigenvektoren und Matrixeigenwerte. Charakteristische Gleichung der Matrix.

Definition. Der Vektor wird aufgerufen eigenen Vektor linearer Operator wenn es eine solche Zahl gibt:

Die Nummer heißt eigene Bedienerwert (Matrizen A) entsprechend dem Vektor .

Es kann in Matrixform geschrieben werden:

Wo ist eine Spaltenmatrix aus den Koordinaten des Vektors , oder erweitert:

Schreiben wir das System so um, dass es an den richtigen Stellen Nullen gibt:

oder in Matrixform: . Das resultierende homogene System hat immer eine Nulllösung. Damit eine Lösung ungleich Null existiert, ist es notwendig und ausreichend, dass die Determinante des Systems: .

Die Determinante ist ein Polynom N Grad relativ zu . Dieses Polynom heißt charakteristisches Polynom des Operators oder Matrix A, und die resultierende Gleichung ist charakteristische Gleichung des Operators oder Matrizen A.

Beispiel:

Finden Sie die Eigenwerte und Eigenvektoren des linearen Operators, der durch die Matrix gegeben ist.

Lösung: Stellen Sie die charakteristische Gleichung auf oder , woher der Eigenwert des linearen Operators .

Finden Sie den Eigenvektor, der dem Eigenwert entspricht. Dazu lösen wir die Matrixgleichung:

Oder , oder , woher wir finden: , oder

Oder .

Angenommen, wir erhalten diese Vektoren, denn alle sind Eigenvektoren eines linearen Operators mit Eigenwert.

Ebenso Vektor .

8. System P lineare Gleichungen mit P Variablen ( generelle Form). Die Matrixform eines solchen Systems. Systemlösung (Definition). Konsistente und inkonsistente, bestimmte und unbestimmte Systeme linearer Gleichungen.

Lösen eines linearen Gleichungssystems mit Unbekannten

Lineare Gleichungssysteme sind in der Wirtschaftswissenschaft weit verbreitet.

Das lineare Gleichungssystem mit Variablen hat die Form:

,

wobei () willkürliche Zahlen genannt werden Koeffizienten für Variablen Und freie Terme von Gleichungen , bzw.

Kurzer Eintrag: ().

Definition. Die Lösung des Systems ist eine solche Menge von Werten, bei deren Ersetzung jede Gleichung des Systems zu einer echten Gleichheit wird.

1) Das Gleichungssystem wird aufgerufen gemeinsam wenn es mindestens eine Lösung hat, und unvereinbar wenn es keine Lösungen hat.

2) Das gemeinsame Gleichungssystem wird aufgerufen bestimmt wenn es eine eindeutige Lösung hat, und unsicher wenn es mehr als eine Lösung gibt.

3) Zwei Gleichungssysteme werden aufgerufen gleichwertig (gleichwertig) , wenn sie denselben Lösungssatz haben (z. B. eine Lösung).

Wir schreiben das System in Matrixform:

Bezeichnen: , Wo

A ist die Koeffizientenmatrix für Variablen oder die Matrix des Systems, X – Matrix-Spalte von Variablen, IN ist eine Spaltenmatrix von freien Elementen.

Weil Die Anzahl der Matrixspalten ist gleich der Anzahl der Matrixzeilen, dann ihr Produkt:

Es gibt eine Matrix-Spalte. Die Elemente der resultierenden Matrix sind die linken Teile des Ausgangssystems. Basierend auf der Definition der Matrixgleichheit kann das Ausgangssystem geschrieben werden als: .

Satz von Cramer. Sei die Determinante der Matrix des Systems und die Determinante der Matrix, die aus der Matrix erhalten wird, indem die i-te Spalte durch eine Spalte mit freien Elementen ersetzt wird. Dann, wenn , dann hat das System eine eindeutige Lösung, bestimmt durch die Formeln:

Cramer-Formel.

Beispiel. Lösen Sie ein Gleichungssystem mit Cramers Formeln

Lösung. Systemmatrixdeterminante . Daher hat das System eine einzigartige Lösung. Berechnen Sie, wenn Sie die erste, zweite bzw. dritte Spalte durch eine Spalte mit freien Mitgliedern ersetzen:

Nach Cramers Formeln:

9. Gauss-Verfahren zur Lösung des SystemsN lineare Gleichungen mit P Variablen. Das Konzept der Jordan-Gauß-Methode.

Gauss-Methode - Methode des sukzessiven Ausschlusses von Variablen.

Das Gauß-Verfahren besteht darin, dass mit Hilfe elementarer Transformationen von Zeilen und Permutationen von Spalten das Gleichungssystem auf ein äquivalentes System in Stufen- (oder Dreiecks-) Form reduziert wird, von dem ausgehend alle anderen Variablen nacheinander gefunden werden von den letzten (nach Nummer) Variablen.

Es ist zweckmäßig, Gaußsche Transformationen nicht mit den Gleichungen selbst durchzuführen, sondern mit der erweiterten Matrix ihrer Koeffizienten , die man erhält, indem man der Matrix eine Spalte mit freien Termen zuweist :

.

Es sollte beachtet werden, dass das Gauß-Verfahren verwendet werden kann, um jedes Gleichungssystem der Form zu lösen .

Beispiel. Verwenden der Gauß-Methode zum Lösen des Systems:

Lassen Sie uns die erweiterte Matrix des Systems schreiben.

Schritt 1 . Vertausche die erste und die zweite Zeile, sodass sie gleich 1 wird.

Schritt 2 Multipliziere die Elemente der ersten Reihe mit (-2) und (-1) und addiere sie zu den Elementen der zweiten und dritten Reihe, sodass unter dem Element in der ersten Spalte Nullen entstehen. .

Für konsistente lineare Gleichungssysteme gelten die folgenden Sätze:

Satz 1. Wenn der Rang der Matrix des gemeinsamen Systems gleich der Anzahl der Variablen ist, d.h. , dann hat das System eine eindeutige Lösung.

Satz 2. Wenn der Rang der Matrix des gemeinsamen Systems kleiner ist als die Anzahl der Variablen, d.h. , dann ist das System unsicher und hat unendlich viele Lösungen.

Definition. Der Basis-Minor einer Matrix ist ein beliebiger Minor ungleich Null, dessen Ordnung gleich dem Rang der Matrix ist.

Definition. Die Unbekannten, deren Koeffizienten in der Aufzeichnung des Basis-Minors enthalten sind, werden als Basis (oder Basis) bezeichnet, die restlichen Unbekannten werden als Frei (oder Nicht-Basis) bezeichnet.

Ein Gleichungssystem in dem Fall zu lösen bedeutet auszudrücken, dass und (weil die aus ihren Koeffizienten zusammengesetzte Determinante ungleich Null ist), dann und freie Unbekannte sind.

Wir drücken die Grundvariablen durch die freien Variablen aus.

Aus der zweiten Zeile der resultierenden Matrix drücken wir die Variable aus:

Ab der ersten Zeile drücken wir aus:

Die allgemeine Lösung des Gleichungssystems: , .

Beachten Sie, dass die Zeilen und Spalten der Matrix als arithmetische Größenvektoren betrachtet werden können M Und N, bzw. Somit kann die Größenmatrix als Menge interpretiert werden M N-dimensional bzw N M-dimensionale arithmetische Vektoren. In Analogie zu geometrischen Vektoren führen wir die Konzepte der linearen Abhängigkeit und der linearen Unabhängigkeit von Zeilen und Spalten einer Matrix ein.

4.8.1. Definition. Linie
genannt lineare Kombination von Linien mit Koeffizienten
, wenn für alle Elemente dieser Zeile Gleichheit gilt:

,
.

4.8.2. Definition.

Saiten
genannt linear abhängig, wenn es eine nicht-triviale Linearkombination von ihnen gibt, die gleich der Nullzeichenkette ist, d.h. Es gibt Zahlen, die nicht alle gleich Null sind


,
.

4.8.3. Definition.

Saiten
genannt linear unabhängig, wenn nur ihre triviale Linearkombination gleich der Nullreihe ist, d.h.

,

4.8.4. Satz. (Kriterium der linearen Abhängigkeit von Matrixzeilen)

Damit Strings linear abhängig sind, ist es notwendig und ausreichend, dass mindestens einer von ihnen eine Linearkombination der anderen ist.

Nachweisen:

Notwendigkeit. Lassen Sie die Linien
linear abhängig sind, dann gibt es eine nicht-triviale Linearkombination gleich der Nulllinie:

.

Ohne Beschränkung der Allgemeinheit nehmen wir an, dass der erste der Koeffizienten der Linearkombination nicht Null ist (andernfalls können wir die Zeilen neu nummerieren). Teilen Sie dieses Verhältnis durch , wir bekommen


,

das heißt, die erste Zeile ist eine lineare Kombination der anderen.

Angemessenheit. Lassen Sie eine der Zeilen zum Beispiel , ist dann eine Linearkombination der anderen

d.h. es gibt eine nicht-triviale Linearkombination von Zeichenketten
, gleich dem Null-String:

was die Linien bedeutet
linear abhängig sind, was zu beweisen war.

Kommentar.

Ähnliche Definitionen und Aussagen lassen sich für die Spalten einer Matrix formulieren.

§4.9. Matrix-Rang.

4.9.1. Definition. Unerheblich Befehl Matrizen Größe
wird Ordnungsdeterminante genannt mit Elementen, die sich an der Kreuzung einiger davon befinden Linien u Säulen.

4.9.2. Definition. Minor ungleich Null Matrizen Größe
genannt Basic unerheblich, falls alle Minoren der Ordnungsmatrix
gleich Null sind.

Kommentar. Eine Matrix kann mehrere Basisminoren haben. Offensichtlich werden sie alle in der gleichen Reihenfolge sein. Es ist auch möglich, dass die Matrix Größe
Minor bestellen von Null verschieden ist, und Minderjährigen der Ordnung
existiert nicht, das heißt
.

4.9.3. Definition. Die Zeilen (Spalten), die die Basis Minor bilden, werden aufgerufen Basic Zeilen (Spalten).

4.9.4. Definition. Rang Matrix ist die Ordnung ihrer Basis Minor. Matrix-Rang bezeichnet
oder
.

Kommentar.

Beachten Sie, dass sich aufgrund der Gleichheit der Zeilen und Spalten der Determinante der Rang der Matrix nicht ändert, wenn sie transponiert wird.

4.9.5. Satz. (Matrixranginvarianz unter elementaren Transformationen)

Der Rang einer Matrix ändert sich unter ihren elementaren Transformationen nicht.

Ohne Beweis.

4.9.6. Satz. (Auf dem grundlegenden Moll).

Grundzeilen (Spalten) sind linear unabhängig. Jede Zeile (Spalte) einer Matrix kann als Linearkombination ihrer grundlegenden Zeilen (Spalten) dargestellt werden.

Nachweisen:

Führen wir den Beweis für Strings durch. Der Beweis der Behauptung für die Spalten kann analog geführt werden.

Lassen Sie den Rang der Matrix Größen
gleich , A
− grundlegendes Nebenfach. Ohne Beschränkung der Allgemeinheit nehmen wir an, dass sich die Basis Moll in der linken oberen Ecke befindet (andernfalls können wir die Matrix durch elementare Transformationen auf diese Form reduzieren):

.

Beweisen wir zunächst die lineare Unabhängigkeit der Basiszeilen. Wir werden durch Widerspruch beweisen. Nehmen wir an, dass die Grundreihen linear abhängig sind. Dann kann nach Satz 4.8.4 eine der Zeilen als Linearkombination der übrigen Basiszeilen dargestellt werden. Wenn wir also die angegebene Linearkombination von dieser Linie subtrahieren, erhalten wir eine Nulllinie, was bedeutet, dass der Moll
gleich Null ist, was der Definition des Basisminors widerspricht. Damit haben wir einen Widerspruch erhalten, also ist die lineare Unabhängigkeit der Grundreihen bewiesen.

Lassen Sie uns nun beweisen, dass jede Zeile einer Matrix als Linearkombination von Grundzeilen dargestellt werden kann. Wenn die betreffende Zeilennummer von 1 bis R, dann kann es offensichtlich als lineare Kombination mit einem Koeffizienten gleich 1 für die Zeile dargestellt werden und Null-Koeffizienten für die verbleibenden Zeilen. Lassen Sie uns nun zeigen, ob die Zeilennummer aus
Vor
, kann es als lineare Kombination von Grundreihen dargestellt werden. Betrachten Sie die Nebenmatrix
, abgeleitet von der Basis Moll
durch Hinzufügen einer Zeile und eine beliebige Spalte
:

Lassen Sie uns zeigen, dass dieser Moll
aus
Vor
und für jede Spaltennummer von 1 bis .

In der Tat, wenn die Spaltennummer von 1 bis R, dann haben wir eine Determinante mit zwei identischen Spalten, die offensichtlich gleich Null ist. Wenn die Spaltennummer aus R+1 zu , und die Zeilennummer aus
Vor
, Das
ist der Moll der ursprünglichen Matrix Auftrag von oben als der Basis-Minor, was bedeutet, dass es von der Definition des Basis-Minors Null ist. Somit ist bewiesen, dass der Minderjährige
ist für jede Zeilennummer Null aus
Vor
und für jede Spaltennummer von 1 bis . Wenn wir es um die letzte Spalte erweitern, erhalten wir:

Hier
− entsprechende algebraische Additionen. beachte das
, da also
ist ein einfaches Nebenfach. Daher die Elemente der Linie k kann als Linearkombination der entsprechenden Elemente der Grundzeilen mit von der Spaltenzahl unabhängigen Koeffizienten dargestellt werden :

Damit haben wir bewiesen, dass eine beliebige Zeile einer Matrix als Linearkombination ihrer Grundzeilen dargestellt werden kann. Der Satz ist bewiesen.

Vortrag 13

4.9.7. Satz. (Auf dem Rang einer nicht entarteten quadratischen Matrix)

Damit eine quadratische Matrix nicht entartet ist, ist es notwendig und ausreichend, dass der Rang der Matrix gleich der Größe dieser Matrix ist.

Nachweisen:

Notwendigkeit. Lassen Sie die quadratische Matrix Größe N ist also nicht entartet
, daher ist die Matrixdeterminante ein grundlegender Minor, d.h.

Angemessenheit. Lassen
dann ist die Ordnung der Basis-Minor gleich der Größe der Matrix, daher ist die Basis-Minor die Determinante der Matrix , d.h.
per Definition der Basis Minor.

Folge.

Damit eine quadratische Matrix nicht entartet ist, ist es notwendig und ausreichend, dass ihre Zeilen linear unabhängig sind.

Nachweisen:

Notwendigkeit. Da eine quadratische Matrix nicht entartet ist, ist ihr Rang gleich der Größe der Matrix
das heißt, die Determinante der Matrix ist die Basis Minor. Daher sind nach Satz 4.9.6 auf der Basis Minor die Zeilen der Matrix linear unabhängig.

Angemessenheit. Da alle Zeilen der Matrix linear unabhängig sind, ist ihr Rang nicht kleiner als die Größe der Matrix, was bedeutet, dass
daher nach dem vorigen Satz 4.9.7 die Matrix ist nicht entartet.

4.9.8. Randminormethode zum Ermitteln des Rangs einer Matrix.

Beachten Sie, dass ein Teil dieser Methode bereits implizit im Beweis des grundlegenden kleinen Satzes beschrieben wurde.

4.9.8.1. Definition. Unerheblich
genannt Fransen in Bezug auf Minderjährige
, wenn es von einem Minderjährigen abgeleitet ist
Hinzufügen eines Neue Zeile und eine neue Spalte der ursprünglichen Matrix.

4.9.8.2. Das Verfahren zum Ermitteln des Rangs einer Matrix durch die Methode des Eingrenzens von Minderjährigen.

    Finden Sie einen beliebigen aktuellen Matrix-Minor außer Null.

    Wir berechnen alle angrenzenden Minderjährigen.

    Wenn sie alle gleich Null sind, ist der aktuelle Minor der Basiswert, und der Rang der Matrix ist gleich der Reihenfolge des aktuellen Minors.

    Wenn es unter den angrenzenden Minderjährigen mindestens eines gibt, das von Null verschieden ist, wird davon ausgegangen, dass es aktuell ist, und das Verfahren wird fortgesetzt.

Unter Verwendung der Methode des Eingrenzens von Minderjährigen finden wir den Rang der Matrix

.

Es ist einfach, den aktuellen Moll zweiter Ordnung anders als Null anzugeben, zum Beispiel

.

Wir berechnen die angrenzenden Minderjährigen:




Da also alle angrenzenden Minoren dritter Ordnung gleich Null sind, dann die Minor
ist grundlegend, das heißt

Kommentar. Aus dem betrachteten Beispiel ist ersichtlich, dass das Verfahren recht aufwendig ist. In der Praxis wird daher viel häufiger die Methode der elementaren Transformationen verwendet, auf die weiter unten eingegangen wird.

4.9.9. Bestimmung des Rangs einer Matrix mit der Methode der elementaren Transformationen.

Basierend auf Satz 4.9.5 können wir sagen, dass sich der Rang einer Matrix unter elementaren Transformationen nicht ändert (d. h. die Ränge äquivalenter Matrizen sind gleich). Daher ist der Rang der Matrix gleich dem Rang der Stufenmatrix, die durch elementare Transformationen aus der ursprünglichen Matrix erhalten wird. Der Rang einer Stufenmatrix ist offensichtlich gleich der Anzahl ihrer Nicht-Null-Zeilen.

Bestimme den Rang der Matrix

Methode der elementaren Transformationen.

Wir stellen die Matrix vor schrittweise:

Die Anzahl der Nicht-Null-Zeilen der resultierenden Schrittmatrix ist drei, daher

4.9.10. Der Rang eines Vektorsystems in einem linearen Raum.

Betrachten Sie das Vektorsystem
etwas linearer Raum . Wenn es linear abhängig ist, dann ist es möglich, ein linear unabhängiges Teilsystem darin herauszufiltern.

4.9.10.1. Definition. Der Rang des Vektorsystems
linearer Raum ist die maximale Anzahl linear unabhängiger Vektoren dieses Systems. Rang des Vektorsystems
bezeichnet als
.

Kommentar. Wenn ein Vektorsystem linear unabhängig ist, dann ist sein Rang gleich der Anzahl der Vektoren im System.

Lassen Sie uns einen Satz formulieren, der die Beziehung zwischen den Konzepten des Rangs eines Vektorsystems in einem linearen Raum und dem Rang einer Matrix zeigt.

4.9.10.2. Satz. (Auf dem Rang eines Vektorsystems in einem linearen Raum)

Der Rang eines Vektorsystems in einem linearen Raum ist gleich dem Rang einer Matrix, deren Spalten oder Zeilen die Koordinaten von Vektoren in einer bestimmten Basis des linearen Raums sind.

Ohne Beweis.

Folge.

Damit ein System von Vektoren in einem linearen Raum linear unabhängig ist, ist es notwendig und ausreichend, dass der Rang einer Matrix, deren Spalten oder Zeilen die Koordinaten von Vektoren auf einer bestimmten Basis sind, gleich der Anzahl von Vektoren im System ist.

Der Beweis ist offensichtlich.

4.9.10.3. Theorem (Über die Dimension einer linearen Spanne).

Dimension der linearen Spannweite von Vektoren
linearer Raum ist gleich dem Rang dieses Vektorsystems:

Ohne Beweis.

Betrachten Sie eine beliebige, nicht notwendigerweise quadratische Matrix A der Größe mxn.

Matrix-Rang.

Das Konzept des Rangs einer Matrix hängt mit dem Konzept der linearen Abhängigkeit (Unabhängigkeit) von Zeilen (Spalten) einer Matrix zusammen. Betrachten Sie dieses Konzept für Zeichenfolgen. Für Spalten ist es dasselbe.

Bezeichne die Senken der Matrix A:

e 1 \u003d (ein 11, ein 12, ..., ein 1n); e 2 \u003d (a 21, a 22, ..., a 2n); ..., e m \u003d (a m1, a m2, ..., a mn)

e k =e s wenn a kj =a sj , j=1,2,…,n

Arithmetische Operationen auf Matrixzeilen (Addition, Multiplikation mit einer Zahl) werden als elementweise durchgeführte Operationen eingeführt: λе k =(λа k1 ,λа k2 ,…,λа kn);

e k + e s =[(à k1 +a s1),(a k2 +a s2),…,(à kn +a sn)].

Leitung e wird gerufen lineare Kombination Zeilen e 1 , e 2 ,…,e k , wenn es gleich der Summe der Produkte dieser Zeilen durch beliebige reelle Zahlen ist:

e=λ 1 e 1 +λ 2 e 2 +…+λ k e k

Die Zeilen e 1 , e 2 ,…,e m werden aufgerufen linear abhängig, wenn es reelle Zahlen λ 1 ,λ 2 ,…,λ m gibt, die nicht alle gleich Null sind, dass die Linearkombination dieser Zeilen gleich der Nullzeile ist: λ 1 e 1 +λ 2 e 2 +…+λ m e m = 0 ,Wo 0 =(0,0,…,0) (1)

Wenn die Linearkombination genau dann gleich Null ist, wenn alle Koeffizienten λ i gleich Null sind (λ 1 = λ 2 = ... = λ m = 0), dann werden die Zeilen e 1 , e 2 , ..., e m aufgerufen linear unabhängig.

Satz 1. Damit die Zeichenketten e 1 , e 2 , …, e m linear abhängig sind, ist es notwendig und ausreichend, dass eine dieser Zeichenketten eine Linearkombination der anderen Zeichenketten ist.

Nachweisen. Notwendigkeit. Die Zeichenketten e 1 , e 2 ,…,e m seien linear abhängig. Lassen Sie, für die Bestimmtheit, (1) λm ≠0, dann

Das. die Zeichenfolge e m ist eine lineare Kombination der restlichen Zeichenfolgen. Ch.t.d.

Angemessenheit. Eine der Zeilen, zum Beispiel e m , sei eine Linearkombination der anderen Zeilen. Dann gibt es Zahlen, bei denen die Gleichheit gilt, was umgeschrieben werden kann als ,

wobei mindestens einer der Koeffizienten (-1) nicht Null ist. Diese. Zeilen sind linear abhängig. Ch.t.d.

Definition. Kleinere k-te Ordnung Matrix A der Größe mxn heißt Determinante k-ter Ordnung mit Elementen, die am Schnittpunkt beliebiger k Zeilen und beliebiger k Spalten der Matrix A liegen (k≤min(m,n)). .

Beispiel., Minderjährige 1. Ordnung: =, =;

Minderjährige 2. Ordnung: , 3. Ordnung

Eine Matrix 3. Ordnung hat 9 Minoren 1. Ordnung, 9 Minoren 2. Ordnung und 1 Minor 3. Ordnung (die Determinante dieser Matrix).

Definition. Matrixrang A ist die höchste Ordnung von Nicht-Null-Minoren dieser Matrix. Bezeichnung - rgA oder r(A).

Rangeigenschaften der Matrix.

1) der Rang der Matrix A nxm überschreitet nicht die kleinste ihrer Dimensionen, d.h.

r(A)≤min(m,n).

2) r(A)=0 wenn alle Matrixelemente gleich 0 sind, d.h. A=0.

3) Für eine quadratische Matrix A n-ter Ordnung gilt r(A)=n, wenn A nicht entartet ist.



(Der Rang einer Diagonalmatrix ist gleich der Anzahl ihrer Diagonalelemente ungleich Null).

4) Wenn der Rang einer Matrix r ist, dann hat die Matrix mindestens einen Minor der Ordnung r, der nicht gleich Null ist, und alle Minors höherer Ordnungen sind gleich Null.

Für die Ränge der Matrix gelten folgende Beziehungen:

2) r(A+B) ≤ r(A)+r(B); 3) r(AB) ≤ min(r(A),r(B));

3) r(A+B)≥│r(A)-r(B)│; 4) r(ATA)=r(A);

5) r(AB)=r(A), wenn B eine quadratische nichtsinguläre Matrix ist.

6) r(AB)≥r(A)+r(B)-n, wobei n die Anzahl der Spalten der Matrix A oder der Zeilen der Matrix B ist.

Definition. Ein Minor ungleich Null der Ordnung r(A) wird aufgerufen grundlegendes Moll. (Matrix A kann mehrere Basisminoren haben). Zeilen und Spalten, an deren Schnittpunkten sich ein Basisminor befindet, werden entsprechend bezeichnet Grundlinien Und Basissäulen.

Satz 2 (über das grundlegende Moll). Grundzeilen (Spalten) sind linear unabhängig. Jede Zeile (jede Spalte) der Matrix A ist eine lineare Kombination von Grundzeilen (Spalten).

Nachweisen. (Für Saiten). Wenn die Grundzeilen linear abhängig wären, dann wäre nach Theorem (1) eine dieser Zeilen eine Linearkombination anderer Grundzeilen, dann können Sie, ohne den Wert des Grundminor zu ändern, die angegebene Linearkombination von dieser Zeile subtrahieren und erhalten Sie eine Nullzeile, und dies widerspricht sich, weil der Basisminor von Null verschieden ist. Das. die Basisreihen sind linear unabhängig.

Lassen Sie uns beweisen, dass jede Zeile der Matrix A eine Linearkombination von Grundzeilen ist. Weil bei willkürlichen Änderungen in Zeilen (Spalten) behält die Determinante die Eigenschaft, gleich Null zu sein, dann können wir ohne Beschränkung der Allgemeinheit annehmen, dass die Basis Minor in der linken oberen Ecke der Matrix liegt

A=, diese. befinden sich in den ersten r Zeilen und den ersten r Spalten. Sei 1£j£n, 1£i£m. Zeigen wir, dass die Determinante der (r+1)-ten Ordnung

Wenn j£r oder i£r, dann ist diese Determinante gleich Null, weil es wird zwei identische Spalten oder zwei identische Zeilen haben.

Wenn j > r und i > r, dann ist diese Determinante ein Minor der (r + 1)-ten Ordnung der Matrix A. Da Der Rang der Matrix ist r, also ist jeder Minor höherer Ordnung gleich 0.

Wenn wir es um die Elemente der letzten (hinzugefügten) Spalte erweitern, erhalten wir

a 1j A 1j +a 2j A 2j +…+a rj A rj +a ij A ij =0, wobei die letzte algebraische Addition A ij fällt mit dem Basismoll M r zusammen und daher ist A ij = M r ≠0.

Teilen wir die letzte Gleichheit durch A ij , können wir das Element a ij als Linearkombination ausdrücken: , wobei .

Wir fixieren den Wert i (i>r) und erhalten das für beliebige j (j=1,2,…,n) der Elemente i-te Zeile e i werden linear in Form von Zeilenelementen e 1 , e 2 ,…,e r ausgedrückt, d.h. i-te Zeile ist eine lineare Kombination von Grundzeilen: . Ch.t.d.

Satz 3. (Notwendige und hinreichende Bedingung, dass die Determinante gleich Null ist). Damit die Determinante D n-ter Ordnung gleich Null ist, ist es notwendig und ausreichend, dass ihre Zeilen (Spalten) linear abhängig sind.

Beweis (S.40). Notwendigkeit. Wenn die Determinante n-ter Ordnung D gleich Null ist, dann ist der Basis-Minor ihrer Matrix von der Ordnung r

Somit ist eine Zeile eine Linearkombination der anderen. Dann sind nach Satz 1 die Zeilen der Determinante linear abhängig.

Angemessenheit. Wenn die Zeilen D linear abhängig sind, dann ist nach Satz 1 eine Zeile A i eine Linearkombination der anderen Zeilen. Durch Subtrahieren der angezeigten linearen Kombination von der Linie A i, ohne den Wert von D zu ändern, erhalten wir eine Nulllinie. Daher ist aufgrund der Eigenschaften der Determinanten D = 0. h.t.d.

Satz 4. Unter elementaren Transformationen ändert sich der Rang der Matrix nicht.

Nachweisen. Wie bei der Betrachtung der Eigenschaften von Determinanten gezeigt wurde, ändern sich bei der Transformation quadratischer Matrizen ihre Determinanten entweder nicht oder werden mit einer Zahl ungleich Null multipliziert oder ändern das Vorzeichen. In diesem Fall bleibt die höchste Ordnung von Nicht-Null-Minoren der ursprünglichen Matrix erhalten, d.h. der Rang der Matrix ändert sich nicht. Ch.t.d.

Wenn r(A)=r(B), dann sind A und B Äquivalent: A~B.

Satz 5. Mit elementaren Transformationen kann man die Matrix auf reduzieren gestufte Ansicht. Die Matrix wird aufgerufen steppt, wenn es die Form hat:

À=, wobei a ii ≠0, i=1,2,…,r; r≤k.

Bedingungen r≤k können immer durch Umsetzung erreicht werden.

Satz 6. Der Rang einer Stufenmatrix ist gleich der Anzahl ihrer Nicht-Null-Zeilen .

Diese. Der Rang der Stufenmatrix ist r, weil es gibt einen von null verschiedenen Minor der Ordnung r:

  • Inverse Matrix, Algorithmus zur Berechnung der inversen Matrix.
  • System linearer algebraischer Gleichungen, grundlegende Eigenschaften von Slough, Homogenität und Inhomogenität, Kompatibilität und Inkonsistenz, Eindeutigkeit von Slough, Matrixschreibweise von Slough und seine Lösungen
  • Quadratische Systeme, Cramer-Methode
  • Slough elementare Transformationen. Gauss-Methode zur Untersuchung von Slough.
  • Slough-Kompatibilitätskriterium, Satz von Kronecker-Capelli, geometrische Interpretation am Beispiel von 2 Gleichungen mit 2 Unbekannten.
  • Homogene Sloughs. Lösungseigenschaft, fsr, Satz über die allgemeine Lösung eines homogenen Systems. Kriterium für die Existenz einer nichttrivialen Lösung.
  • Heterogene Sloughs. Ein Satz über die Struktur der Lösung eines inhomogenen Sumpfes. Algorithmus zum Lösen eines inhomogenen Sloughs.
  • Definition eines linearen (Vektor-)Raums. Lp-Beispiele.
  • Linear abhängige und linear unabhängige Systeme von Vektoren. Kriterium der linearen Abhängigkeit.
  • Hinreichende Bedingungen für lineare Abhängigkeit und lineare Unabhängigkeit von Vektorsystemen lp. Beispiele für linear unabhängige Systeme in den Räumen von Zeilen, Polynomen, Matrizen.
  • lp Isomorphismus. Ein Isomorphiekriterium für lp.
  • Unterraum lp und lineare Bereiche von Vektorsystemen. Dimension der linearen Schale.
  • Basis-Vervollständigungssatz
  • Schnittpunkt und Summe von Unterräumen, direkte Summe von Unterräumen. Satz über die Dimension der Summe von Unterräumen.
  • Unterraum von Lösungen einer homogenen Kruste, ihre Dimension und Basis. Ausdruck der allgemeinen Lösung des homogenen Sloughs in Bezug auf fsr.
  • Matrix des Übergangs von einer Basis lp zu einer anderen und ihre Eigenschaften. Transformation von Vektorkoordinaten beim Übergang auf eine andere Basis.
  • Definition und Beispiele von linearen Operatoren, linearen Abbildungen und linearen Transformationen
  • Lineare Operatormatrix, die die Koordinaten des Bildes eines Vektors ermittelt
  • Aktionen mit linearen Operatoren. Linearer Raum lo
  • Satz über die Isomorphie der Menge der linearen Transformationen zur Menge der quadratischen Matrizen
  • Die Matrix des Produkts linearer Transformationen. Beispiele zum Finden von Matrizen von Operatoren.
  • Definition und Eigenschaften des inversen Operators, seiner Matrix.
  • Ein Kriterium für die Invertierbarkeit eines linearen Operators. Beispiele für reversible und irreversible Operatoren.
  • Transformation der Matrix eines linearen Operators beim Übergang zu einer anderen Basis.
  • Determinante und charakteristisches Polynom eines linearen Operators, ihre Invarianz gegenüber Basistransformationen.
  • Kernel und Bild eines linearen Operators. Satz über die Summe der Dimensionen des Kerns und des Bildes. Den Kern und das Bild eines linearen Operators in einer festen Basis finden. Rang und Defekt eines linearen Operators.
  • Der Invarianzsatz des Kerns und des Bildes von lo a bezüglich der Permutation mit ihm lo
  • Algebraische und geometrische Vielheit von Eigenwerten und ihre Beziehung.
  • Kriterien für die Diagonalisierbarkeit der Matrix eines linearen Operators, hinreichende Bedingungen für die Diagonalisierbarkeit eines linearen Operators.
  • Satz von Hamilton-Cayley
  • Lineare Algebra

    Slough-Theorie

    1. Matrizen, Operationen mit Matrizen, inverse Matrix. Matrixgleichungen und ihre Lösungen.

    Matrix- eine rechteckige Tabelle mit beliebigen Zahlen, die in einer bestimmten Reihenfolge angeordnet sind, Größe m * n (Zeilen pro Spalte). Matrixelemente werden bezeichnet, wobei i die Zeilennummer und j die Spaltennummer ist.

    Zusatz (Subtraktion) Matrizen sind nur für eindimensionale Matrizen definiert. Die Summe (Differenz) von Matrizen ist eine Matrix, deren Elemente jeweils die Summe (Differenz) der Elemente der ursprünglichen Matrizen sind.

    Multiplikation (Division)pro Zahl– Multiplikation (Division) jedes Elements der Matrix mit dieser Zahl.

    Die Matrixmultiplikation ist nur für Matrizen definiert, bei denen die Anzahl der Spalten der ersten gleich der Anzahl der Zeilen der zweiten ist.

    Matrix-Multiplikation ist eine Matrix, deren Elemente durch die Formeln gegeben sind:

    Matrixtransposition ist eine Matrix B, deren Zeilen (Spalten) Spalten (Zeilen) in der ursprünglichen Matrix A sind. Bezeichnet

    inverse Matrix

    Matrixgleichungen– Gleichungen der Form A*X=B sind ein Produkt von Matrizen, die Antwort auf diese Gleichung ist die Matrix X, die mit den Regeln gefunden wird:

    1. Lineare Abhängigkeit und Unabhängigkeit der Spalten (Zeilen) der Matrix. Kriterium der linearen Abhängigkeit, hinreichende Bedingungen für die lineare Abhängigkeit von Spalten (Zeilen) der Matrix.

    Das System der Zeilen (Spalten) wird aufgerufen linear unabhängig, wenn die Linearkombination trivial ist (die Gleichheit gilt nur, wenn a1…n=0), wobei A1…n die Spalten (Zeilen) und a1…n die Entwicklungskoeffizienten sind.

    Kriterium: Damit ein System von Vektoren linear abhängig ist, ist es notwendig und ausreichend, dass mindestens einer der Vektoren des Systems durch die anderen Vektoren des Systems linear ausgedrückt wird.

    Ausreichender Zustand:

    1. Matrixdeterminanten und ihre Eigenschaften

    Matrixdeterminante (Determinante) ist eine Zahl, die für eine quadratische Matrix A aus den Elementen der Matrix nach der Formel berechnet werden kann:

    , wobei das komplementäre Moll des Elements ist

    Eigenschaften:

    1. Inverse Matrix, Algorithmus zur Berechnung der inversen Matrix.

    inverse Matrix ist eine quadratische Matrix X, die zusammen mit einer quadratischen Matrix A derselben Ordnung die Bedingung erfüllt: wobei E die Identitätsmatrix von derselben Ordnung wie A ist. Jede quadratische Matrix mit einer Determinante ungleich Null hat 1 inverse Matrix. Es wird mit der Methode der elementaren Transformationen und mit der Formel gefunden:

      Das Konzept des Rangs einer Matrix. Basis kleiner Satz. Kriterium dafür, dass die Matrixdeterminante gleich Null ist. Elementare Transformationen von Matrizen. Berechnungen des Ranges nach der Methode der elementaren Transformationen. Berechnung der inversen Matrix nach der Methode der elementaren Transformationen.

    Matrixrang - Basis Nebenordnung (rg A)

    Grundlegendes Nebenfach - ein Untergeordneter der Ordnung r ungleich Null, so dass alle Untergeordneten der Ordnung r+1 und höher gleich Null sind oder nicht existieren.

    Basis kleiner Satz - In einer beliebigen Matrix A ist jede Spalte (Zeile) eine Linearkombination von Spalten (Zeilen), in denen sich der Basisminor befindet.

    Nachweisen: Der Basis-Minor befinde sich in den ersten r Zeilen und den ersten r Spalten einer Matrix A der Dimensionen m*n. Betrachten Sie die Determinante, die Sie erhalten, indem Sie die entsprechenden Elemente der s-ten Zeile und der k-ten Spalte dem Basisminor der Matrix A zuweisen.

    Beachten Sie, dass für alle und diese Determinante gleich Null ist. Wenn oder, dann enthält die Determinante D zwei identische Zeilen oder zwei identische Spalten. Wenn u, dann ist die Determinante D gleich Null, da sie ein Minor der Ordnung (r + λ)-ro ist. Wenn wir die Determinante entlang der letzten Zeile erweitern, erhalten wir:, wobei die algebraischen Komplemente der Elemente der letzten Zeile sind. Beachten Sie, dass dies ein grundlegendes Nebenfach ist. Daher wo Schreiben wir die letzte Gleichheit für, erhalten wir , d.h. Die k-te Spalte (für beliebig) ist eine Linearkombination der Spalten des Basis-Molls, was zu beweisen war.

    Kriterium detA=0– Die Determinante ist genau dann gleich Null, wenn ihre Zeilen (Spalten) linear abhängig sind.

    Elementare Transformationen:

    1) Multiplizieren einer Zeichenfolge mit einer Zahl ungleich Null;

    2) Hinzufügen von Elementen einer anderen Zeile zu den Elementen einer Zeile;

    3) Permutation von Zeilen;

    4) Löschen einer der identischen Zeilen (Spalten);

    5) Umsetzung;

    Rangberechnung - Aus dem grundlegenden kleinen Satz folgt, dass der Rang der Matrix A gleich der maximalen Anzahl linear unabhängiger Zeilen (Spalten in der Matrix) ist, daher besteht die Aufgabe elementarer Transformationen darin, alle linear unabhängigen Zeilen (Spalten) zu finden.

    Inverse Matrixberechnung- Transformationen können implementiert werden, indem mit Matrix A eine Matrix T multipliziert wird, die das Produkt der entsprechenden Elementarmatrizen ist: TA = E.

    Diese Gleichung bedeutet, dass die Transformationsmatrix T die Inverse der Matrix ist. Dann und deshalb



    Wird geladen...
    Spitze