• No results found

SYLLABUS LINEAIRE ALGEBRA 2

N/A
N/A
Protected

Academic year: 2021

Share "SYLLABUS LINEAIRE ALGEBRA 2"

Copied!
75
0
0

Bezig met laden.... (Bekijk nu de volledige tekst)

Hele tekst

(1)

SYLLABUS

LINEAIRE ALGEBRA 2

********

R.J.Kooman

Universiteit Leiden

najaar 2007

(2)

INHOUDSOPGAVE

I. Algemene begrippen.

Vectorruimten 1

Lineaire deelruimte, lineaire onafhankelijkheid, basis 2

Lineaire afbeeldingen 4

Lineaire afbeeldingen en matrices 7

Basistransformaties 8

Directe som en projectie 9

Quoti¨entverzamelingen en quoti¨entruimte 11

Restrictieafbeelding en quoti¨entafbeelding 12

Het tensorproduct van vectorruimten 13

II. Determinant en spoor.

De determinant van een matrix 15

Permutaties 15

Eigenschappen van determinanten 16

De Wronskiaan 17

De determinant van Vandermonde 18

Ontwikkeling van de determinant naar een kolom 19

Het spoor van een matrix 20

Het volume van een k-blok in Rn 20

De afstand van een punt tot een k-blok in Rn 21

III. Spectraaltheorie van endomorfismen in eindig-dimensionale complexe vectorruimten.

Eigenwaarden en eigenvectoren 23

Diagonaliseerbare en nilpotente afbeeldingen 24

Gegeneraliseerde eigenvectoren. Een meetkundige interpretatie van

de algebra¨ısche multipliciteit. 25

De Jordan-normaalvorm. 27

Gelijkvormige matrices. 30

Minimumpolynoom. De stelling van Cayley-Hamilton 31

Gemeenschappelijke eigenvectoren van commuterende endomorfismen 32

De cirkels van Gershgorin 32

Appendix 33

(3)

IV. Inwendige producten op vectorruimten.

Inproducten op re¨ele vectorruimten 35

Inproducten op complexe vectorruimten 36

Norm en afstand. De ongelijkheid van Schwarz 37

De methode van Gram-Schmidt en QR-decompositie van een matrix 38

Representatie t.o.v. een orthonormale basis 39

De geadjungeerde van een lineaire afbeelding 40

Orthogonaal complement en orthogonale projectie 41

De matrix van een orthogonale projectie 43

Toepassing: de methode van kleinste kwadraten 44

Unitaire en orthogonale afbeeldingen. 44

V. De duale van een vectorruimte. 49

De getransponeerde afbeelding 50

De annihilator van een lineaire deelruimte 50

Duale vectorruimte en tensorproduct 50

VI. Genormeerde vectorruimten.

De norm van een lineaire afbeelding. 51

Banach- en Hilbertruimten. Convergente rijen van lineaire afbeeldingen. 53

De e-macht van een matrix. 54

Vector- en matrixwaardige functies 55

Toepassing: stelsels van lineaire differentiaalvergelijkingen 56 VII. Spectraaltheorie van normale afbeeldingen.

Normale afbeeldingen 58

Symmetrische matrices 60

Kwadratische vormen op Rn 61

Rayleighquoti¨ent en minimaxprincipe 62

VIII. Positief-definiete matrices. 64

De polaire decompositie 66

De singuliere-waardendecompositie van een matrix. 66

Index. 69

(4)

I. ALGEMENE BEGRIPPEN.

Vectorruimten.

Definitie: Een vectorruimte over K (met K = R of C) is een niet-lege verzameling V met twee be- werkingen, een optelling en een scalaire vermenigvuldiging, zodanig dat de volgende eigenschappen gelden (in het onderstaande zijn u, v, w ∈ V en λ, µ ∈ K).

1. v + w = w + v (commutativiteit van de optelling).

2. (v + w) + u = v + (w + u) (associativiteit van de optelling).

3. er is een nulelement 0 (ook wel genoteerd als 0V) zodanig dat 0 + v = v + 0 = v voor alle v ∈ V . 4. Elke v ∈ V heeft een inverse −v, zodanig dat v + (−v) = 0.

5. λ(v + w) = λv + λw (distributieve eigenschap 1).

6. (λ + µ)v = λv + µv (distributieve eigenschap 2).

7. (λµ)v = λ(µv) (associativiteit van de scalaire vermenigvuldiging).

8. 1 · v = v

K heet het lichaam van de scalairen. Als K = R dan noemen we V een re¨ele vectorruimte, als K = C, dan heet V een complexe vectorruimte. (Ook andere lichamen K kunnen optreden als lichaam van scalairen. We beperken ons in dit college tot K = R resp. C en gaan niet verder op het begrip lichaam in.)

Voorbeelden van vectorruimten: 1. V = Rn bestaande uit geordende rijtjes (x1, x2, . . . , xn), vectoren genoemd, met xi ∈ R, en de componentsgewijze optelling en scalaire vermenigvuldiging, is een vectorruimte over R. In plaats van rijtjes schrijven we vectoren in Rn in de regel als

kolomvectoren, dus



x1 x2

... xn



. Voor deze kolomvector schrijven we ook wel (x1, x2, . . . , xn)T, waarbij

T staat voor transponeren, d.w.z. rijen en kolommen in een matrix omwisselen.

2. Geheel analoog is V = Cn een vectorruimte over C.

3. De vectorruimte van m × n-matrices met elementen in K = R of C met de componentsgewijze optelling en scalaire vermenigvuldiging is een vectorruimte over K. We noteren deze als

M(m × n, K).

4. De verzameling van de complexe getallen a + bi (met a, b ∈ R) vormt een re¨ele vectorruimte.

5. De vectorruimte P (K) van polynomen a0+ a1X + . . . anXn met co¨effici¨enten ai ∈ K met de termsgewijze optelling en scalaire vermenigvuldiging is een vectorruimte over K (d.w.z. (a0+ a1X + . . . + anXn) + (b0+ b1X + . . . + bnXn) = (a0+ b0) + (a1+ b1)X + . . . + (an+ bn)Xn en λ(a0+ a1X + . . . + anXn) = (λa0+ λa1X + . . . + λanXn)).

6. De vectorruimte van re¨eel- resp. complexwaardige functies van een niet-lege verzameling X naar R resp. C (bijvoorbeeld X = [a, b] ∈ R met a < b). De optelling en scalaire vermenigvuldiging zijn gedefinieerd als (f + g)(x) = f (x) + g(x) en (λf )(x) = λf (x) voor λ ∈ K.

(5)

We zullen het woord vector ook in een algemene zin voor een element van een vectorruimte ge- bruiken. Verder geven we scalairen meestal aan met Griekse letters λ, µ, ν, . . ., maar ook wel als x1, x2. . . , (bijvoorbeeld wanneer het de componenten van een vector x zijn).

De eigenschappen 1-8 defini¨eren een vectorruimte. Andere eigenschappen moeten we uit deze acht afleiden. Een voorbeeld is de eigenschap dat 0 · v = 0V voor alle v ∈ V . Dit volgt uit:

0 · v = (0 + 0) · v = 0 · v + 0 · v,

vanwege eigenschap 6. De inverse links en rechts optellen geeft (eigenschap 4) 0V = −0 · v + 0 · v = −0 · v + 0 · v + 0 · v = 0 · v.

Opmerking: Net zo is aan te tonen: 1. Voor elke v ∈ V geldt dat (−1) · v = −v. 2. Zowel het nulelement als de inverse van een vector v zijn uniek bepaald.

Lineaire deelruimte, lineaire onafhankelijkheid, basis.

Zij V een vectorruimte over K. Een niet-lege deelverzameling W ⊂ V is een lineaire deelruimte van V als voor elke v, w ∈ W en λ ∈ K geldt dat v + w ∈ W en λv ∈ W . Een lineaire deel- ruimte van een vectorruimte V is zelf dus weer een vectorruimte t.a.v. de optelling en scalaire vermenigvuldiging in V . In het bijzonder is elke vectorruimte een lineaire deelruimte van zichzelf.

Elke lineaire deelruimte is het opspansel span{a1, a2, . . .} van een verzameling vectoren (bestaande uit alle eindige (!) lineaire combinaties van deze vectoren). Een stelsel vectoren {b1, b2, . . .} in een vectorruimte V heet lineair onafhankelijk als er geen niet-triviale eindige lineaire afhankelijkheids- relaties zijn, m.a.w. uit λ1b1+ . . . + λkbk = 0 volgt dat λ1 = . . . = λk = 0 voor elke eindige k.

Als een opspannend stelsel vectoren van een lineaire deelruimte tevens lineair onafhankelijk is dan heet het stelsel een basis van de lineaire deelruimte. Iedere vector in de lineaire deelruimte is dan op een unieke manier te schrijven als een eindige lineaire combinatie van de opspannende vectoren.

Voorbeelden. 1. Als V een vectorruimte is met nulelement 0V, dan zijn zowel {0V} als V zelf lineaire deelruimten.

2. V = Kn(K = R of C). Laat e1=



 1 0... 0



 , . . . , en=



 0 0... 1



. Iedere vector x =



x1 x2 ... xn



 ∈ Knis op een unieke manier te schrijven als een lineaire combinatie x = x1e1+ . . . + xnen. {e1, . . . , en} heet

de standaardbasis van Kn en x =



x1

x2

... xn



 noemen we de standaardrepresentatie van de vector x.

Laat f1, . . . , fk lineair onafhankelijke vectoren zijn. Dan bestaat het opspansel spanK{f1, . . . , fk} uit alle lineaire combinaties van de vectoren f1, . . . , fk met co¨effici¨enten in K. Dit opspansel is een lineaire deelruimte van Kn met basis f1, . . . , fk.

(6)

3. Rn is geen lineaire deelruimte van Cn.

4. V = M(n × n, K). Een matrix A heet symmetrisch, resp. antisymmetrisch als AT = A resp.

AT = −A. De symmetrische n × n-matrices vormen een lineaire deelruimte Symn(K). Evenzo vormen de antisymmetrische n × n-matrices een lineaire deelruimte Antn(K). Andere voorbeelden van lineaire deelruimten zijn de verzameling diagonaalmatrices, de verzameling bovendriehoeksma- trices (of onderdriehoeksmatrices). De verzameling van inverteerbare matrices is daarentegen geen lineaire deelruimte van V .

5. Laat V = P (K), de vectorruimte van polynomen met co¨effici¨enten in K (K is uiteraard weer R of C). P (K) is het opspansel van 1, X, X2, . . .. Een lineaire deelruimte wordt gevormd door de verzameling polynomen Pn(K) van graad hoogstens n. Dit is span{1, X, . . . , Xn}. Een ander voorbeeld van een lineaire deelruimte wordt gevormd door de verzameling polynomen in P (K) zodat P (2) = 0. Deze laatste lineaire deelruimte heeft als basis {X − 2, (X − 2)2, (X − 2)3, . . .}.

De polynomen van graad precies n vormen geen lineaire deelruimte.

6. V is de vectorruimte van K-waardige functies van [a, b] naar K. Een lineaire deelruimte wordt gevormd door de continue functies van [a, b] naar K, notatie C([a, b], K). De (K-waardige) differentieerbare functies op [a, b] vormen een lineaire deelruimte van de laatste en dus ook van V . Bases van deze lineaire deelruimte zijn niet echter aan te geven.

Merk op dat in een vectorruimte alleen eindige lineaire combinaties gedefinieerd zijn, ook als er oneindig veel elementen in een basis zitten. Beschouw als voorbeeld de vectorruimte P (K) van polynomen over K, die als basis 1, X, X2, X3. . . heeft. Oneindige lineaire combinaties, van 1, X, X2, . . ., de formele machtreeksen, liggen niet in P (K).

In een vectorruimte V zijn er oneindig veel mogelijkheden om een basis te kiezen (behalve voor V = {0}, dat geen basis heeft). Elk lineair onafhankelijk stelsel dat de vectorruimte opspant voldoet. Wat wel onafhankelijk van de keuze van de basis is, is het aantal vectoren waaruit een basis bestaat. Dit zullen we nu aantonen.

Propositie 1.1: Een lineair onafhankelijk stelsel in V heeft nooit meer vectoren dan een basis van V .

Bewijs: We geven het bewijs voor het geval dat V een basis heeft bestaande uit eindig veel vectoren.

Laat {v1, . . . , vn} een basis van V zijn en {w1, . . . , wm} een lineair onafhankelijk stelsel. We laten zien dat elke vector wi uit het lineaire onafhankelijke stelsel kan worden verwisseld met een basisvector vj zo, dat het stelsel lineair onafhankelijk blijft. Stel nl. dat dit voor (zeg) w1

niet het geval is. Dan is het stelsel {vj, w2, . . . , wm} lineair afhankelijk voor elke basisvector vj. Omdat w2, . . . , wm volgens de aanname lineair onafhankelijk zijn, is elke vj een lineaire combinatie van w2, . . . , wm. Daar de vj’s een basis vormen is w1 een lineaire combinatie van de vj’s en dus van w2, . . . , wm. Maar dan zijn w1, w2, . . . , wmlineair afhankelijk, in tegenspraak met de aanname.

Conclusie: er is een vj, noem deze vj1, zodat {vj1, w2, . . . , wm} lineair onafhankelijk is. Op dezelfde wijze kunnen we w2uitwisselen tegen, zeg vj2, zodat {vj1, vj2, w3, . . . , wm} lineair onafhankelijk is.

(7)

Zo verdergaand vinden we tenslotte m lineair onafhankelijke vectoren vj1, . . . , vjm. In het bijzonder zijn deze verschillend, dus m ≤ n. ¦

Gevolgen 1.2: a. Als een vectorruimte V hoogstens eindig veel lineair onafhankeijke vectoren bevat dan heeft elke basis van V evenveel vectoren. Dit aantal noemen we de dimensie van V (notatie: dim(V )). Als er oneindig veel lineair onafhankelijke vectoren zijn, dan is de dimensie van V oneindig. (Ook in dit geval kunnen we verschillende soorten van oneindig onderscheiden. Als er een oneindige rij {f1, f2, . . .} lineair onafhankelijke vectoren bestaat die V opspannen dan zeggen we dat de dimensie van V aftelbaar oneindig is.)

b. Zij V een vectorruimte van eindige dimensie n. Een lineair onafhankelijk stelsel in V dat n vectoren bevat is een basis. M.a.w., een basis is een maximaal lineair onafhankelijk stelsel.

Bewijs: Stel nl. dat {a1, . . . , an} een lineair onafhankelijk stelsel is dat V niet opspant. Dan is er een vector an+1 ∈ V die lineair onafhankelijk is van a1, . . . , an. Het lineair onafhankelijke stelsel {a1, . . . , an+1} bevat dan meer vectoren dan een basis. Dit is in tegenspraak met Propositie 1.1. ¦ c. Zij V een vectorruimte van eindige dimensie n. Een opspannend stelsel dat uit precies n vectoren bestaat is een basis.

d. Zij V een vectorruimte en W een lineaire deelruimte. Dan is dim(W ) ≤ dim(V ). Als dim(W ) = dim(V ) en V heeft eindige dimensie, dan is W = V .

e. De dimensie van de re¨ele, resp. complexe vectorruimten Rn, resp. Cn is n. De vectorruimte van polynomen P (K) heeft dimensie ∞.

f. Cn =spanC{e1, e2, . . . , en} is op te vatten als een re¨ele vectorruimte van dimensie 2n, nl. als spanR{e1, ie1, . . . , en, ien}.

Opgave: Laat V een vectorruimte zijn van eindige dimensie n en laat {a1, . . . , ak} een lineair onafhankelijk stelsel zijn. Laat zien dat er vectoren ak+1, . . . , an ∈ V zijn zodanig dat {a1, . . . , an} een basis is van V , m.a.w. elk lineair onafhankelijk stelsel is aan te vullen tot een basis.

Opgave: Toon aan dat de kleinste lineaire deelruimte van de vectorruimte Cn die Rn = spanR{e1, e2, . . . , en} bevat, Cn zelf is.

Lineaire afbeeldingen.

We beschouwen nu afbeeldingen tussen vectorruimten. Een centrale rol wordt gespeeld door af- beeldingen die de vectorruimtestructuur behouden:

Definitie: Laat V, W vectorruimten zijn over K (K = R of C). De afbeelding T : V → W heet lineair als voor elke v, v0∈ V en λ ∈ K geldt dat: 1. T (v +v0) = T (v)+T (v0) en 2. T (λv) = λT (v).

Voorbeelden:

1. T : Kn → Km gegeven door T (x) = Ax met A een m × n-matrix is een lineaire afbeelding.

Omgekeerd zullen we zien dat elke lineaire afbeelding van Kn naar Km van de vorm T (x) = Ax is met A een m × n-matrix.

(8)

2. Zij C = C([a, b], K) de vectorruimte van K-waardige continue functies op het interval [a, b] ⊂ R.

De afbeelding T : C → K gegeven door T (f ) = f (c) (met c ∈ [a, b]) is een lineaire afbeelding.

3. Laat C als in (2) gedefinieerd zijn. De afbeelding T : C → C gegeven door T (f ) = f g voor een vaste g ∈ C is lineair.

4. M = M (m × n, K) de vectorruimte van m × n-matrices met elementen in K. T : M → K gegeven door T (A) = Aij is lineair (Aij is het element in de i-e rij en j-e kolom van A. We schrijven ook wel A = (Aij)).

5. T : M → M gegeven door T (A) = AT (transponeren) is lineair.

6. Laat V een vectorruimte zijn. De identieke afbeelding idV : V → V , gedefinieerd als de afbeelding die ieder element op zichzelf afbeeldt, m.a.w. idV(v) = v voor alle v ∈ V , is lineair.

Laat V en W vectorruimten over hetzelfde lichaam K zijn. Op de verzameling lineaire afbeeldingen van V naar W kunnen we de structuur van een vectorruimte leggen: als T, U : V → W lineaire afbeeldingen zijn, dan defini¨eren we de som T + U en het scalair product λT d.m.v. (T + U )(v) = T (v) + U (v) en (λT )(v) = λT (v) waarbij v ∈ V . Het is duidelijk dat T + U en λT ook lineaire afbeeldingen van V naar W zijn. De vectorruimte van lineaire afbeeldingen van V naar W geven we aan als L(V, W ).

Opgave: Toon aan: als V en W eindige dimensie hebben dan is dim(L(V, W )) = dim(V ) dim(W ).

Geef ook een basis van L(V, W ) aan.

Definitie: Een lineaire afbeelding T : V → V van een vectorruimte in zichzelf noemen we ook een (lineair) endomorfisme. De vectorruimte L(V, V ) van endomorfismen van een vectorruimte V noteren we korter als als L(V ). L(V ) heeft een rijkere algebra¨ısche structuur dan een vectorruimte, doordat er naast de optelling en scalaire vermenigvuldiging ook nog d.m.v. de compositie van twee endomorfismen een vermenigvuldiging is gedefinieerd. Laat immers T, U ∈ L(V ), en zij T U : V → V gedefinieerd d.m.v. T U (v) = T (U (v)) voor v ∈ V . Het is eenvoudig om na te gaan dat T U weer lineair is (doe dit!). Voor de vermenigvuldiging gelden de extra eigenschappen:

i. S(T + U ) = ST + SU, (T + U )S = T S + U S (distributiviteit).

ii. S(T U ) = (ST )U (associativiteit).

iii. λT U = (λT )U = T (λU ) voor λ ∈ K.

Een vectorruimte met een vermenigvuldiging zodanig dat eigenschappen (i-iii) gelden, noemen we een algebra. Merk op dat de vermenigvuldiging niet commutatief hoeft te zijn. De algebra L(V ) heeft ook een eenheidselement I = idV, zodat IT = T I = T voor alle t ∈ V . Niet elke algebra heeft een eenheidselement. Een ander voorbeeld van een algebra is de vectorruimte M(n × n, K) van n × n-matrices met elementen in K, met de gewone matrixoptelling en -vermenigvuldiging.

Deelalgebra’s hiervan zijn de algebra’s bestaande uit de n × n-bovendriehoeksmatrices en de n × n- stricte bovendriehoeksmatrices (met nullen op de hoofddiagonaal). De laatste algebra heeft geen eenheidselement.

We voeren nu een aantal begrippen in die van belang zijn bij de bestudering van afbeeldingen.

(9)

Definities:

i. Zij T : V → W een lineaire afbeelding: Als U ⊂ V dan heet

T (U ) = {v ∈ W : v = T (u) voor zekere u ∈ U } het beeld van U ; T (U ) is dus de verzameling van beelden van elementen uit U onder T . Als U een lineaire deelruimte van V is, dan is T (U ) een lineaire deelruimte van W . Als U = V , dan schrijven we i.p.v. T (V ) ook wel im(T ). im(T ) heet het bereik van T . De dimensie van im(T ) heet de rang van T ; als V, W eindige dimensie hebben, dan is de rang van T gelijk aan de rang van een matrix van T . T heet surjectief (of: op) als T (V ) = W .

ii. Als Z ⊂ W dan heet de verzameling T−1(Z) = {v ∈ V : T (v) ∈ Z} van T het inverse beeld van Z.

T−1(Z) is de verzameling originelen van elementen van Z onder T . Als Z een lineaire deelruimte is van W , dan is het inverse beeld een lineaire deelruimte van V . Voor het inverse beeld van {0W} (de kern of nulruimte van T ) schrijven we ook wel ker(T ) of T−1(0). T heet injectief (of 1-1) als elke w ∈ W hoogstens ´e´en origineel heeft. Een lineaire afbeelding T : V → W is injectief dan en slechts dan als de nulruimte alleen uit het nulelement van V bestaat.

iii. Als T injectief en surjectief is, dan heet T bijectief of inverteerbaar. In dit geval kunnen we een inverse afbeelding T−1 : W → V defini¨eren zodanig dat T ◦ T−1 = idW en T−1 ◦ T = idV, m.a.w. T−1(w) = v dan en slechts dan als T (v) = w. Een inverteerbare lineaire afbeelding T : V → W noemen we ook wel een vectorruimte-isomorfisme. V en W heten in dat geval isomorfe vectorruimten.

Voorbeeld: De afbeelding T : R3→ R2wordt gegeven door T (x) =

µ1 2 3 0 1 3

x. T heeft rang 2 en is dus surjectief: T (R3) = R2.

De afbeelding U : R2→ R3 wordt gegeven door U (x) =

1 0 2 1 3 3

 x. Ker(U) bestaat alleen uit de nulvector 0. U is dus injectief.

Voor inverteerbare lineaire afbeeldingen geldt:

Propositie 1.3: De inverse van een inverteerbare lineaire afbeelding is lineair.

Bewijs: Laat T : V → W een lineaire afbeelding zijn tussen vectorruimten V en W . Laat w1, w2 W . Daar T inverteerbaar is, zijn er v1, v2∈ V zodanig dat T (v1) = w1 en T (v2) = w2. Dan is

T−1(w1+ w2) = T−1(T (v1) + T (v2)) = T−1(T (v1+ v2)) = v1+ v2= T−1(w1) + T−1(w2).

Verder is

T−1(λw1) = T−1(λT (v1)) = T−1(T (λv1)) = λv1= λT−1(w1). ¦

Opgave: Toon aan: als S : V → W en T : W → Z inverteerbare lineaire afbeeldingen zijn, dan is T S : V → Z inverteerbaar en (T S)−1= S−1T−1.

(10)

Voorbeeld: De vectorruimte Pn(K) van polynomen van graad hoogstens n is isomorf met de vectorruimte Kn+1. Een vectorruimte-isomorfisme is de afbeelding T : Pn(K) → Kn+1gedefinieerd door

T (x0+ x1X + . . . + xnXn) = (x0, x1, . . . , xn)T.

Het voorafgaande voorbeeld kunnen we direct generaliseren naar het geval van twee vectorruimten van dezelfde dimensie: laat V, W vectorruimten over K van dezelfde dimensie n zijn. Dan zijn V en W isomorf. Immers laat A = {a1, . . . , an} een basis van V en B = {b1, . . . , bn} een basis van W zijn. Laat de lineaire afbeelding T : V → W gegeven zijn door T (aj) = bj (zoals we weten is T geheel bepaald door de beelden van de basisvectoren). Het is nu duidelijk dat T een vectorruimte-isomorfisme is.

Gevolg 1.4: Twee vectorruimten met hetzelfde lichaam K van scalairen en dezelfde eindige di- mensie zijn isomorf.

Een speciaal geval van het bovenstaande krijgen we door W = Kn en B de standaardbasis te nemen. Zij v = v1a1+ . . . + vnan; dan wordt het vectorruimte-isomorfisme T : V → Kn gegeven door T (v) = (v1, . . . , vn)T. T heet de co¨ordinaatafbeelding (m.b.t. de basis A). We noteren hiervoor T = BA. Voor de co¨ordinaatvector BA(v) noteren we ook vA.

Voor een lineaire afbeelding bestaat het volgende verband tussen zijn rang en de dimensie van de kern:

Propositie 1.5 (dimensiestelling): Zij T : V → W lineair. Dan geldt:

dim ker(T ) + rang(T ) = dim(V ). (1.1)

Bewijs: zij {b1, . . . , bm} een basis van ker(T ) en vul deze aan tot een basis {b1, . . . , bn} van V . Dan wordt im(T ) opgespannen door T (b1), . . . , T (bn) en dus door T (bm+1), . . . , T (bn) omdat T (b1) = . . . = T (bm) = 0. We tonen nu aan dat het stelsel {T (bm+1, . . . , T (bn)} lineair onafhankelijk en dus een basis van im(T ) is. Neem aan dat λm+1T (bm+1) + . . . + λnT (bn) = 0. Dan is T (λm+1bm+1+ . . . + λnbn) = 0 dus de vector λm+1bm+1+ . . . + λnbn ligt in ker(T ). Maar omdat bm+1, . . . , bn lineair onafhankelijk van de vectoren b1, . . . , bmgekozen zijn, is λm+1 = . . . = λn= 0. Conclusie: dim im(T ) = n − m = dim(V ) − dim ker(T ). ¦

Lineaire afbeeldingen en matrices.

Een lineaire afbeelding T : V → W wordt geheel bepaald door de beelden van de basisvectoren.

Immers als {b1, . . . , bn} een basis is van V (n kan eventueel oneindig zijn), dan is elke v ∈ V een eindige lineaire combinatie λ1b1+ . . . λkbk en dus is T (v) = λ1T (b1) + . . . + λkT (bk). Als V, W eindig-dimensionaal zijn, dan kan T d.m.v. een matrix worden gerepresenteerd. Dit gaat op de volgende manier: laat B = {b1, . . . , bn} een basis van V zijn en C = {c1, . . . , cm} een basis van W . Dan zijn er getallen Aij ∈ K zodanig dat T (bj) =Pm

i=1Aijci. Laat A de matrix (Aij) zijn, m.a.w. Aij is het element in de i-e rij en j-e kolom van A. Dan bevat de j-e kolomvector

(11)

de co¨effici¨enten van T (bj) t.o.v. de basis C. Laat nu v = v1b1+ . . . vkbk zijn. De kolomvector T (v)C van co¨effici¨enten van T (v) t.o.v. de basis C is nu het matrixproduct van de matrix A met de kolomvector vB =

v1

... vn

. De matrix A noemen we de matrix van T t.o.v. de bases B en C. We noteren deze matrix ook wel als TCB. We kunnen dit resultaat kort schrijven als

T (v)C = TCB(vB).

Als V eindig-dimensionaal is met dimensie n, dan is voor elke basis B van V de matrix (idV)BB de eenheidsmatrix In.

In het geval dat V = Kn en W = Km, kunnen we voor B en C de standaardbases van V en W kiezen. In dit geval is vB, resp vC de standaardrepresentatie van v in V resp. W en we schrijven dan v voor vB resp. vC. Dan is T (v) = Av met A = TCB. Een lineaire afbeelding van Kn naar Km is dus (in de standaardrepresentatie) van de vorm v → Av voor een m × n-matrix A. A heet de standaardmatrix van de afbeelding T .

Opmerking: Als V en W eindig-dimensionaal zijn, en A = TCB is de matrix van T ∈ L(V, W ) t.o.v. zekere bases B = {b1, . . . , bn} en C van V resp. W , dan is n = dim(V ) het aantal kolommen van A; verder is v = λ1b1+ . . . + λnbn ∈ ker(T ) dan en slechts dan als A

λ1

... λn

 = 0 dus is dim(ker(T )) = dim(ker(A)). Dan geldt, m.b.v. Propositie 1.3,

rang(A) := n − dim(ker(A)) = dim(V ) − dim(ker(T )) = rang(T ).

Hierbij is de rang van de matrix A gelijk aan het aantal lineair onafhankelijke kolomvectoren van de matrix A.

Basistransformaties.

Laat V een eindig-dimensionale vectorruimte zijn en T : V → V een lineaire afbeelding. We onderzoeken hoe de matrix van de afbeelding T verandert als we overgaan op een andere basis van V . Laat A := {a1, . . . , an} en C := {c1, . . . , cn} twee bases zijn van V . Voor v ∈ V zijn de co¨ordinaatafbeeldingen BA, BC : V → Kn gedefinieerd door BA(v) = vA, BC(v) = vC met vA= (v1, v2, . . . , vn)T waarbij v1, . . . , vn de co¨ordinaten van v t.o.v. de basis A zijn. De afbeelding BCA : Kn → Kn gegeven door BCA(vA) = vC is lineair en inverteerbaar, nl. BCA = (BAC)−1. De matrix van deze afbeelding noemen we ook BCA. Merk op dat de kolomvectoren van BCAgelijk zijn aan (a1)C, . . . , (an)C. Laat nu T : V → V een lineaire afbeelding zijn. De matrix TAA van T t.o.v.

de basis A is gedefinieerd als TAA(vA) = (T (v))A (en analoog voor TCC). Nu geldt:

TCC = BCATAABAC = BCATAA(BCA)−1. (1.2)

(12)

In het bijzonder zien we dat twee matrices van dezelfde lineaire afbeelding t.o.v. verschillende basis gelijkvormig zijn. (Matrices A, B heten gelijkvormig als B = U−1AU voor zekere inverteerbare matrix U .)

Voorbeeld. Laat V = P1(R) = span{1, X}, de vectorruimte van re¨ele polynomen van graad hoogstens 1. Laat A = {1, X} en C = {1 + X, X} twee bases van V zijn. Dan zijn de basistrans- formatiematrices

BAC

(1 + X)A, XA¢

=

µ1 0 1 1

en BCA= (BAC)−1=

µ 1 0

−1 1

.

Het polynoom p(X) = 2X + 3 heeft co¨effici¨enten pA= µ3

2

¶ en

pC = BCApA=

µ 1 0

−1 1

¶ µ3 2

= µ 3

−1

. Inderdaad is p(X) = 3(1 + X) − X.

Laat verder T : V → V de lineaire afbeelding zijn die wordt gegeven door T (p) = −2p(x) + xp0(x).

De matrix van T t.o.v. de basis A = {1, X} is TAA=

µ−2 0 0 −1

. De matrix van T t.o.v. de basis C is nu

TCC = BCATAABAC =

µ 1 0

−1 1

¶ µ−2 0 0 −1

¶ µ1 0 1 1

=

µ−2 0 1 −1

.

Inderdaad zien we dat T (1 + X) = −2 − X = −2(1 + X) + X en T (X) = −X = 0(1 + X) − X.

Directe som en projectie.

Laat V een vectoruimte en U, W lineaire deelruimten van V zijn. De som U + W van U en W bestaat uit alle lineare combinaties u + w met u ∈ U en w ∈ W . Het is de kleinste lineaire deelruimte van V die U en W omvat. Als U ∩ W 6= {0V} dan is de schrijfwijze niet uniek (vergelijk het geval dat V = R3en U, W twee snijdende vlakken door de oorsprong zijn). Als U ∩ W = {0V} dan is elke v ∈ U + W op precies ´e´en manier te schrijven als som u + w met u ∈ U en w ∈ W . Immers neem aan dat u+w = u0+w0voor u, u0 ∈ U en w, w0∈ W . Dan is u−u0= w0−w ∈ U ∩W , dus u = u0 en w = w0. De som heet dan de directe som: U ⊕ W .

Analoog is een vectorruimte V de directe som V = U1⊕. . .⊕Ukvan lineaire deelruimten U1, . . . , Uk als iedere v ∈ V op een unieke manier als een lineaire combinatie v = u1+ . . . + uk met uj ∈ Uj is te schrijven. Merk op dat U ⊕ V ⊕ W = (U ⊕ V ) ⊕ W = U ⊕ (V ⊕ W ).

Definitie: Zij V = U ⊕ W voor zekere lineaire deelruimten U en W . De afbeeldingen πU : V → V en πW : V → V zijn als volgt gedefinieerd: voor v ∈ V zijn er unieke u ∈ U en w ∈ W zodanig dat v = u + w. Dan is

πU(v) = u, πW(v) = w.

πU heet de projectie op U langs W ; πW heet de projectie op W langs U .

(13)

De projecties πU en πW zijn lineaire afbeeldingen en verder geldt π2U = πU, πW = π2W terwijl

πUπW = πWπU = 0, πU+ πW = idV.

Analoog zijn voor V = U1⊕ . . . ⊕ Uk de projecties πU1, . . . , πUk gedefinieerd, waarbij πUj(v) = uj waarbij v = u1+ . . . + uk en uj ∈ Uj (j = 1, . . . , k). Ook hier geldt:

πU1+ . . . + πUk = idV, πUi = πU2i, πUiπUj = 0 (i 6= j).

In het algemeen noemen we een afbeelding P : V → V een projectie als P lineair is en P2= P . In dit geval is V = ker(P ) ⊕ im(P ) en P = πim(P ). Immers voor elke v ∈ V geldt dan v = P (v)+(v−P (v)) en P (v) ∈ im(P ), v − P (v) ∈ ker(P ). Dus V is de som van ker(P ) en im(P ). Om te laten zien dat de som een directe som is, nemen we v ∈ im(P ) ∩ ker(P ). Omdat v ∈ im(P ), is v = P (w) voor zekere w ∈ W . Dan is P (v) = P2(w) = P (w) = v. Anderzijds is P (v) = 0 omdat v ∈ ker(P ), en dus is v = 0. Uit het bovenstaande volgt ook dat im(P ) bestaat uit de vectoren v ∈ V zodat P (v) = v. (In termen van eigenvectoren kunnen we zeggen dat een projectie P eigenwaarden 0 en 1 heeft en im(P ) is de eigenruimte bij eigenwaarde 1).

Opmerking: Als P : V → V een projectie is, dan is idV − P : V → V eveneens een projectie en im(idV − P ) = ker(P ), ker(idV − P ) = im(P ).

Voorbeelden: 1. Zij V = R2, U = span{

µ1 1

} en W = span{

µ 1

−1

}. πU : V → V noemen we de projectie op U langs W . Er geldt dus

πU µ1

1

= µ1

1

, πU

µ 1

−1

= µ0

0

.

We bepalen de matrix P van πU t.o.v. de standaardbasis {e1, e2}. Laat B de basis { µ1

1

,

µ 1

−1

} zijn. De matrix van πU t.o.v. de basis B is dus (πU)BB =

µ1 0 0 0

, en de matrix P is dan

P = (πU)EE = BEBU)BBBBE =

µ1 1 1 −1

¶ µ1 0 0 0

¶ µ1 1 1 −1

−1

= 1 2

µ1 1 1 1

.

2. Zij V = Pn(C), de vectorruimte van complexe polynomen van graad hoogstens n. Laat U = span(1, X) en W = span(X2, . . . , Xn). Dan is V = U ⊕W en voor p ∈ Pnis πU(p) = p(0)+p0(0)X.

3. Laat V = M(n × n, K) de vectorruimte van n × n-matrices zijn met co¨effici¨enten in het lichaam K. U is de lineaire deelruimte van symmetrische matrices, W is de lineaire deelruimte

(14)

van antisymmetrische matrices. Dan is V = U ⊕ W en voor A ∈ V is πU(A) = (A + AT)/2, πW(A) = (A − AT)/2.

Quoti¨ entverzamelingen en quoti¨ entruimten.

Een equivalentierelatie ∼ op een verzameling U is een relatie waarvoor de volgende drie eigenschap- pen gelden:

1. v ∼ v voor alle v ∈ V (reflexiviteit) 2. Als v ∼ w dan w ∼ v (symmetrie)

3. Als u ∼ v en v ∼ w dan is u ∼ w (transitiviteit) Voorbeelden van een equivalentierelaties zijn:

1. Laat V een niet-lege verzameling zijn. Voor a, b ∈ V laat a ∼ b dan en slechts dan als a = b.

Dit is een equivalentierelatie.

2. Laat U = Z en N een positief geheel getal. a ∼ b voor a, b ∈ U als a − b deelbaar is door N . We schrijven dit als a ≡ b modN .

3. U = M(n × n, K), de verzameling van n × n-matrices. A ∼ B (voor A, B ∈ U ) als A en B gelijkvormige matrices zijn, d.w.z. B = C−1AC voor een zekere matrix C ∈ U .

4. Laat V een vectorruimte zijn. Voor a, b ∈ V laat a ∼ b als a, b lineair afhankelijk zijn en a, b 6= 0V en verder 0V ∼ 0V. ∼ is een equivalentierelatie.

Als U een verzameling is met een equivalentierelatie ∼ dan kunnen we U verdelen in equivalen- tieklassen, zodanig dat in een equivalentieklasse alle elementen van U zitten die equivalent aan elkaar zijn. Zo’n equivalentieklasse noteren we als ¯a: in de klasse ¯a zitten alle elementen van U die equivalent zijn met a. Als a ∼ b dan is dus ¯a = ¯b. Het element a heet een representant van de equivalentieklasse ¯a.

In het geval van voorbeeld 2 zijn er N equivalentieklassen ¯0, ¯1, . . . , N − 1. De equivalentieklasse ¯k bestaat uit alle getallen die gelijk zijn aan k mod N , d.w.z. de getallen van de vorm k + mN voor m ∈ Z.

In het geval van voorbeeld 4 zijn de equivalentieklassen de lijnen door 0V m.u.v. 0V zelf en verder is er de klasse die alleen uit 0V bestaat.

De verzameling van equivalentieklassen heet een quoti¨entverzameling. We noteren deze als U/ ∼.

We bekijken nu het geval dat U een vectorruimte is. Er bestaat dan een equivalentierelatie ∼ zodanig dat de quoti¨entverzameling zelf weer een vectorruimte is.

Laat V een vectorruimte over K zijn en W een lineaire deelruimte van V ; de relatie ”v ∼ v0 dan en slechts dan als v − v0∈ W ” is een equivalentierelatie op V . De quoti¨entverzameling noteren we in dit geval als V /W . Merk op dat W gelijk is aan de klasse ¯0. We tonen aan dat op V /W de structuur van een vectorruimte gelegd kan worden. De optelling en scalaire vermenigvuldiging van twee klassen zijn als volgt gedefinieerd: voor v, w ∈ V en λ ∈ K laat

¯

v + ¯w = v + w, λ¯v = λv.

(15)

Er moet nog worden nagegaan dat deze optelling en scalaire vermenigvuldiging goed zijn gedefinieerd:

laat v0 en w0 twee willekeurige representanten van de klassen ¯v, resp. ¯w. We moeten nu aantonen dat v0+ w0= v + w en dat λv0= λv. Maar als v ∼ v0 en w ∼ w0, dan is v0− v ∈ W en w0− w ∈ W en dus is (v0+ w0) − (v + w) ∈ W en ook λv0− λv ∈ W . De bewerkingen zijn dus inderdaad goed gedefinieerd. Met deze optelling en scalaire vermenigvuldiging vormt V /W een vectorruimte, de quoti¨entvectorruimte van V en W .

Propositie 1.6. Als V en W eindig-dimensionale vectorruimten zijn, dan geldt voor de dimensie van V /W de volgende identiteit:

dim(V /W ) = dim(V ) − dim(W ). (1.3)

Bewijs: Beschouw de kanonieke afbeelding T : V → V /W gedefinieerd door T (v) = ¯v voor V . T is een lineaire afbeelding (ga dit na); verder is T surjectief en ker(T ) = W . Volgens de dimensiestelling is dus

dim(V ) = dim(ker(T )) + rang(T ) = dim(W ) + dim(V /W ). ¦

We kunnen quoti¨entruimten gebruiken om andere gelijkheden tussen dimensies van verschillende vectorruimten af te leiden. Een voorbeeld is het volgende: laat V, W lineaire deelruimten zijn van een vectorruimte U . Dan is de som V + W en ook de doorsnede V ∩ W een lineaire deelruimte.

De volgende relatie geldt tussen de dimensies:

Propositie 1.7.

dim(V + W ) + dim(V ∩ W ) = dim(V ) + dim(W ). (1.4) In het bijzonder volgt in het geval dat V + W een directe som is (d.w.z. als V ∩ W = {0})

dim(V ⊕ W ) = dim(V ) + dim(W ). (1.5)

Bewijs: De afbeelding T : V → V +W/W die v op (v mod W ) afbeeldt, is goed gedefinieerd, lineair en surjectief. De kern van T bestaat uit alle elementen uit V die in W liggen dus ker(T ) = V ∩ W . Uit de dimensieformules (1.2) en (1.3) volgt dus

dim(V ) = dim(V + W/W ) + dim(V ∩ W ) = dim(V + W ) − dim(W ) + dim(V ∩ W ).¦

Restrictieafbeelding en quoti¨entafbeelding.

Laat V een vectorruimte zijn en W een lineaire deelruimte van V . Zij verder T : V → V een lineair endomorfisme van V dat W in zichzelf afbeeldt, d.w.z. T (W ) ⊂ W . We kunnen de afbeelding T dan opvatten als een afbeelding in L(W ). We noemen deze afbeelding de restrictie T |W van T op W . Er geldt dus T |W(w) = T (w) voor w ∈ W (voor v 6∈ W is T |W niet gedefinieerd).

Verder kunnen we de quoti¨entafbeelding ¯T : V /W → V /W defini¨eren d.m.v. ¯T (¯v) = T (v). Ga zelf na dat ¯T goed gedefinieerd en lineair is. Neem nu aan dat V eindige dimensie n heeft. Laat

(16)

W = {w1, . . . , wm} een basis van W zijn. Vul deze aan tot een basis V = {w1, . . . , wn} van V . Het stelsel vectoren W0 = {wm+1, . . . , wn} is nu lineair onafhankelijk in V /W en dus een basis (waarom?). We zeggen ook dat het stelsel {wm+1, . . . , wn} lineair onafhankelijk modulo W is.

Merk op dat een stelsel vectoren {y1, . . . , yk} lineair onafhankelijk modulo de lineaire deelruimte W is als uit λ1y1+ . . . + λkyk∈ W volgt dat alle λi nul zijn.

Opgave: Ga na dat de matrix TVV van de afbeelding T t.o.v. de basis V van de vorm

µA B O C

is, waarbij A de matrix van T |W is t.o.v. de basis W van W en C de matrix van ¯T t.o.v. de basis W0 van V /W . In het bijzonder geldt de volgende uitdrukking voor de determinanten:

det(T ) = det(T |W) det( ¯T ). (1.6) (Determinanten vormen het onderwerp van hoofdstuk II.)

Het tensorproduct van vectorruimten.

We beginnen met een voorbeeld. Beschouw de vectorruimte V = Pn(K) van polynomen in X van graad hoogstens n en co¨effici¨enten in K. Een element van V kunnen we dus schrijven als a0+ a1X + . . . + anXn. Laat W = Pm(K) de vectorruimte zijn van polynomen in Y van graad hoogstens m. W bestaat dus uit polynomen van de vorm b0+ b1Y + . . . + bmYm met bj ∈ K.

Een polynoom in de twee variabelen X en Y van graad hoogstens n in X en graad hoogstens m in Y is een lineaire combinatie van de vorm

Xn i=0

Xm j=0

cijXiYj. Zo’n polynoom is een element van de vectorruimte opgespannen door de (n + 1)(m + 1) basiselementen XiYj. Deze vectorruimte noemen we het tensorproduct van de vectorruimten V en W , notatie V ⊗ W .

In het algemeen laat V een vectorruimte zijn met basis {e1, . . . , en} en W een vectorruimte (over hetzelfde lichaam van scalairen K) met basis {f1, . . . , fm} (n en m mogen ∞ zijn). Het tensorprod- uct V ⊗ W (of V ⊗K W ) is de vectorruimte van dimensie mn opgespannen door de basisvectoren ei⊗ fj en met co¨effici¨enten in K. Het tensorproduct V ⊗ W is onafhankelijk van de keuze van de bases van V en W . In hoofdstuk IV zullen we een definitie van het tensorproduct geven die onafhankelijk is van een basis in V en W . Merk nog op dat V ⊗ W en W ⊗ V verschillende (maar wel isomorfe) vectorruimten zijn.

Als v = Pn

i=1viei ∈ V en w = Pm

j=1wjfj ∈ W dan is het tensorproduct v ⊗ w gedefinieerd als Pn

i=1

Pm

j=1viwjei⊗ fj. v ⊗ w is dus een element van V ⊗ W . In de fysische literatuur wordt vaak vw i.p.v. v ⊗ w geschreven.

Voor het tensorproduct van twee vectoren geldt (ga na):

λ(v ⊗ w) = (λv) ⊗ w = v ⊗ (λw) (λ ∈ K). (1.7)

(v1+ v2) ⊗ w = v1⊗ w + v2⊗ w; v ⊗ (w1+ w2) = v ⊗ w1+ v ⊗ w2. (1.8)

(17)

Opmerking: Een willekeurige vector in V ⊗ W is altijd een eindige lineaire combinatie van tensorproducten vi⊗ wi met vi ∈ V en wi ∈ W . Niet elke vector in V ⊗ W is echter zelf zo’n tensorproduct. Zie opgave I.34.

We kunnen herhaald tensorproducten van vectorruimten nemen. In zo’n geval geldt de associatieve eigenschap U ⊗ (V ⊗ W ) = (U ⊗ V ) ⊗ W . De uitdrukking V1⊗ V2⊗ . . . ⊗ Vn is dus goed gedefinieerd als de Vi alle vectorruimten over K zijn. Ga na dat de dimensie van deze tensorproductruimte is gelijk aan het product van de dimensies van de afzonderlijke factoren. Tenslotte nog een opmerking over de notatie: i.p.v. het herhaald n-voudig tensorproduct V ⊗ . . . ⊗ V schrijven we ook wel V⊗n. Voorbeeld: Laat V de vectorruimte zijn van re¨eel-of complexwaardige functies op een verzameling X. Dan is V ⊗KKn(met K = R resp. C) de vectorruimte van functies op een verzameling X met waarden in Kn. Een element van deze vectorruimte is dus te schrijven als een rijtje f = (f1, . . . , fn) met fj ∈ V . Er geldt:

(f1, . . . , fn) + (g1, . . . , gn) = (f1+ g1, . . . , fn+ gn), λ(f1, . . . , fn) = (λf1, . . . , λfn).

(18)

II. DETERMINANT EN SPOOR.

De determinant van een matrix.

Definitie: Een (n-de orde) determinant is een n-lineaire alternerende vorm op Kn (waarbij K = R of C) die de waarde 1 aanneemt op de standaardbasis, d.w.z.

1. det(a1, a2, . . . , an) ∈ K voor a1, a2, . . . , an∈ Kn.

2. det(λa1+ µb1, a2, . . . , an) = λ det(a1, a2, . . . , an) + µ det(b1, a2, . . . , an) voor a1, b1, . . . , an Kn en λ, µ ∈ K (lineariteit in de eerste component).

3. det(a1, . . . , ai, . . . , aj, . . . , an) = − det(a1, . . . , aj, . . . , ai, . . . , an) (de determinant is een al- ternerende vorm.) In het bijzonder is de determinant nul als twee van de aj’s gelijk zijn.

4. det(e1, e2, . . . , en) = 1 (de determinant is 1 op de standaardbasis van Kn).

Lineariteit in de andere n − 1 componenten volgt uit lineariteit in de eerste component samen met de alternerendheid. De determinant det(A) van een n×n-matrix A met kolomvectoren a1, . . . , anis gedefinieerd als det(a1, . . . , an). Uit eigenschap 3 volgt meteen dat det(a1, . . . , an) = 0 als minstens twee van de aj’s gelijk zijn.

Uit de definitie volgt een unieke vorm voor de determinant: voor i = 1, . . . , n is ai =Pn

ij=1aijieij; vul deze uitdrukkingen in voor a1, . . . , anin de determinant. Wegens de multilineariteit (lineariteit in elke component) kunnen we de n sommen samen met de co¨effici¨enten aijj buiten de determinant halen en dan vinden we

det(a1, a2, . . . , an) = Xn i1=1

Xn i2=1

. . . Xn in=1

²i1i2...inai11ai22. . . ainn. (2.1)

Hierbij is het Levi-Civitasymbool ²i1i2...in gedefinieerd als det(ei1, ei2, . . . , ein). Als twee van de indices ij gelijk zijn, dan is ²i1i2...in = 0. In het geval dat de indices alle verschillend zijn, passen we de alternerendheidseigenschap toe om de waarde van ²i1i2...in te bepalen: door herhaald omwisselen van twee eij’s in de determinant kunnen we bereiken dat de eij’s in de juiste volgorde staan. Dus det(ei1, ei2, . . . , ein) = (−1)N det(e1, e2, . . . , en) waarbij N het aantal benodigde verwisselingen is.

Dus als alle indices verschillend zijn, is ²i1i2...in = 1 of −1 als het aantal van deze paarverwisselingen even resp. oneven is. Dat dit goed gedefinieerd is, m.a.w. het even of oneven zijn van het aantal paarverwisselingen hangt niet af van de wijze waarop we verwisselen, volgt uit de theorie van de permutaties.

Voorbeeld. ²2413= (−1)3= −1: (2413) → (1423) → (1243) → (1234) (3 paarverwisselingen).

Permutaties. Een permutatie op n objecten, zeg de getallen 1, 2, . . . , n, is een bijectie van de verzameling {1, . . . , n} op zichzelf. Elke permutatie is een compositie van paarverwisselingen; dit zijn permutaties p zodat p(i) = j, p(j) = i voor twee verschillende getallen i, j ∈ {1, . . . , n} en zodat p(k) = k als k 6= i of j. Een permutatie is op meer manieren als een compositie van paarverwisselingen te schrijven, maar altijd is het aantal paarverwisselingen hetzij oneven, hetzij

Referenties

GERELATEERDE DOCUMENTEN

Je hoeft voor elke mogelijke Jordannormaalvorm alleen aan te geven uit welke Jordanblokken die bestaat en hoe vaak elk blok voorkomt; de volgorde van de blokken maakt niet uit..

Als je de antwoorden niet op de logische volgorde opschrijft, vermeld dan duidelijk waar welk antwoord staat.. Opgave 1

Bereken de determinant van de matrix.. Bepaal de rang en de signatuur

Een student merkte bij de bespreking op dat het triviaal zou zijn dat deze verzameling equipotent is met R.. De docent was het hier niet helemaal mee eens (wel dat ze

[r]

Geen rekenmachines, telefoons, dictaat of aantekeningen. Beargumenteer ook dat dit inderdaad een

Als je de antwoorden niet op de logische volgorde opschrijft, vermeld dan duidelijk waar welk antwoord staat.. Opgave 0

De driehoeksongelijkheid zegt dat in een driehoek een zijde altijd korter is dan de som van de twee