Docsity
Docsity

Prepara tus exámenes
Prepara tus exámenes

Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity


Consigue puntos base para descargar
Consigue puntos base para descargar

Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium


Orientación Universidad
Orientación Universidad

Espaços Vetoriais: Propriedades, Subespaços, Transformações e Formas Bilineares, Monografías, Ensayos de Matemáticas

Este documento aborda conceitos básicos de espaços vectoriais, incluindo propriedades escalares, subespaços gerados, transformações lineares e formas bilineares. Além disso, são discutidas as bases, projeções e a decomposição de Cartan em algumas algabras de Lie simples.

Tipo: Monografías, Ensayos

2019/2020

Subido el 27/01/2020

gemunu-akil
gemunu-akil 🇦🇷

2 documentos

1 / 29

Toggle sidebar

Esta página no es visible en la vista previa

¡No te pierdas las partes importantes!

bg1
ÁLGEBRA LINEAR
Daniele Corradetti
26 Fevereiro 2016
pf3
pf4
pf5
pf8
pf9
pfa
pfd
pfe
pff
pf12
pf13
pf14
pf15
pf16
pf17
pf18
pf19
pf1a
pf1b
pf1c
pf1d

Vista previa parcial del texto

¡Descarga Espaços Vetoriais: Propriedades, Subespaços, Transformações e Formas Bilineares y más Monografías, Ensayos en PDF de Matemáticas solo en Docsity!

ÁLGEBRA LINEAR

Daniele Corradetti

26 Fevereiro 2016

Conteúdo

  • 1 Espaços vectoriais
    • 1.1 Introdução
      • 1.1.1 Espaço vectorial
      • 1.1.2 Dependência linear
      • 1.1.3 Bases de um espaço vectorial
      • 1.1.4 Fórmula de Grassmann e soma directa
    • 1.2 Transformações lineares
      • 1.2.1 Definições fundamentais
      • 1.2.2 Isomorfismos entre espaços vectoriais
    • 1.3 Dualidade
  • 2 Endomorfismos e formas canónicas
    • 2.1 Elementos fundamentais
      • 2.1.1 Mudança de base
      • 2.1.2 Subespaços invariantes, valores e vectores próprios.
      • 2.1.3 Polinómio característico
    • 2.2 Forma normal de Jordan
      • 2.2.1 Forma de Jordan no caso de V um espaço indecomponível
      • 2.2.2 Forma de Jordan no caso geral
    • 2.3 Forma normal simétrica
  • 3 Formas bilineares e quadráticas
    • 3.1 Formas bilineares
    • 3.2 Formas sesquilineares
    • 3.3 Formas quadráticas
    • 3.4 Espaços unitários e euclidianos
      • 3.4.1 Bases ortogonais e projectores
      • 3.4.2 Ortogonalização de Gram-Schmidt
    • 3.5 Uma aplicação
  • A Notações e Símbolos

Capítulo 1

Espaços vectoriais

Neste capítulo apresentaremos as noções fundamentais dos espaços vectoriais. Na sec- ção de introdução trataremos das definições e dos enunciados dos teoremas funda- mentais que iremos utilizar nas secções dos capítulos subsequentes. O objectivo da se- gunda secção consiste na introdução da noção de transformação linear o que é essencial no teorema de isomorfismo dos espaços vectoriais de dimensão finitas. Enfim a última parte do capítulo é destinada à apresentação do espaço dual e da base canónica dual. A exposição foi desenvolvida sobre um corpo K que será R ou C e os espaços vectoriais estudados serão sempre de dimensão finita, sendo o caso de dimensão infinita tratado nos outros apontamentos.

1.1 Introdução

1.1.1 Espaço vectorial

Definição 1. (ESPAÇO VECTORIAL) Diz-se espaço vectorial ou espaço linear sobre o corpo K um conjunto não vazio V com duas operações binárias: uma adição de elementos de V e uma multiplicação de elementos do corpo K por elementos de V chamada multiplicação escalar com as seguintes propriedades:

  1. V é um grupo abeliano para a adição, i.e. a soma de qualquer par de elementos de V pertence a V e ∀ u , v , wV e possuem as seguintes características:

Existência de zero: v + 0 = v ; (1.1) Associatividade da adição: u + ( v + w ) = ( u + v ) + w ; (1.2) Existência de simétricos : v + (− v ) = 0 ; (1.3) Commutatividade da adição: v + w = w + v. (1.4)

  1. e a multiplicação escalar com as seguintes propriedades: ∀ v , wV e ∀ λ , μK

Distributividade: λ ( v + w ) = λ v + λ w ; ( μ + λ ) v = μ v + λ v ; (1.5) Associatividade: λ ( μ v ) = ( λμ ) v ; (1.6) Existência da identidade: 1 v = v ; (1.7) Elemento absorvente: 0 v = 0. (1.8)

Os elementos de K são chamados escalares e vectores os elementos de V.

CAPÍTULO 1. ESPAÇOS VECTORIAIS 4

1.1.2 Dependência linear

Definição 2. (SUBESPAÇO) Seja V um espaço vectorial sobre K. Diz-se que W é um subespaço vectorial de V se W é um subconjunto de V que é ele próprio um espaço vec- torial sobre K com as mesmas operações de adição e multiplicação escalar do espaço V.

Definição 3. (SUBESPAÇO GERADO) Sejam v 1 , .., v k vectores de V. Definimos como su- bespaço gerado de v 1 , .., v k indicado por span( v 1 , .., v k), o subespaço vectorial de V for- mado por todas as combinações lineares dos vectores v 1 , .., v k , i.e.

span( v 1 , .., v k) =

wV | λ^1 v 1 + .. + λ n v n = w , ∀ λ i^ ∈ K

Definição 4. (DEPENDÊNCIA E INDEPENDÊNCIA LINEAR) Diz-se que um subconjunto S de elementos de um espaço vectorial é linearmente independente se as únicas combina- ções lineares finitas de elementos de S que são iguais ao vector nulo são as combina- ções lineares com coeficientes escalares nulos, i.e., quaisquer que sejam os elementos v 1 , .., v n ∈ S, a equação

λ^1 v 1 + .. + λ n v n = 0 , (1.10)

implica λ i^ = 0 para i = 1, ..., n. Um subconjunto de V que não é linearmente indepen- dente diz-se linearmente dependente.

1.1.3 Bases de um espaço vectorial

Definição 5. (BASE E DIMENSÃO DE UM ESPAÇO) Seja V um espaço vectorial. Então qualquer subconjunto linearmente independente E = { e i}i∈I de V , que gera o espaço V é chamado base do espaço vectorial. Se um espaço vectorial V tem uma base que é um conjunto finito então o espaço V diz-se de dimensão finita ou dimensão nula se V = { 0 } e a cardinalidade da base é chamada dimensão de V sobre K , indicada por dim K ( V ) ou dim( V ). Caso contrario diz-se que V possui dimensão infinita.

Sendo que por hipótese os vectores da base E geram todo o espaço vectorial V , então dado un vector vV e uma base E é possível escrever univocamente v como combinação linear dos elementos da base. Os coeficientes escalares que permitem de escrever essa combinação linear são chamados de coordenadas ou componentes do vector na base.

Definição 6. (COORDENADAS) Sejam vV e E uma base de V. Chamamos de coor- denadas de v na base E , i.e. [ v ]E = ( ξ^1 , .., ξ n) , os coeficientes escalares ξ^1 , .., ξ n^ ∈ K da combinação linear

v =

n ∑ i= 1

ξ i e i. (1.11)

Por conseguinte se considerarmos um vector v no espaço vectorial V e duas bases do espaço E e F , então o mesmo vector v possui duas representações distintas [ v ]E e [ v ]F nas bases E e F respectivamente. Seja a matriz de mudança de base CE F a matriz cujos elementos cij são os escalares

que em cada coluna contêm as coordenadas dos vectores da base E na base F i.e.:

e j =

n ∑ i= 1

cij f i. (1.12)

CAPÍTULO 1. ESPAÇOS VECTORIAIS 6

Uma vez escolhidas duas bases para os espaços vectoriais V e W , fica definida uma correspondência biunívoca entre transformações lineares A entre V e W e as matrizes m × n, onde m e n são as dimensões de V e W respectivamente. O conjunto de todas as transformações lineares A entre V e W forma um espaço vectorial sobre o corpo K. Indicamos esse espaço vectorial como Hom( V , W ).

Definição 11. (NÚCLEO E CONTRADOMÍNIO) Seja A uma transformação linear entre V e W. Então chama-se núcleo da transformação linear ker (^) (A) o subconjunto de V

ker (A) = { vV | A( v ) = 0 } , (1.18)

por enquanto indica-se com Im (A) ou A ( V ) o contradomínio ou imagem do transfor- mação linear, i.e o subconjunto de W

Im (A) = { wW | w =A( v )}. (1.19)

Ademais ker (^) (A) é um subespaço vectorial de V cuja dimensão chamamos nulidade de A e indicamos nul(A). Analogamente Im (A) é um subespaço vectorial de W cuja dimensão chamamos de característica de A e indicamos com rank(A).

Teorema 12. (TEOREMA DO RANK-NUL) Seja A uma transformação linear então dim( V ) = rank(A) + nul(A).

1.2.2 Isomorfismos entre espaços vectoriais

Definição 13. (ISOMORFISMO) Uma transformação linear A ∈ Hom( V , W ) diz-se in- jectiva se o núcleo é o vector nulo, i.e. ker(A) = { 0 }, e diz-se sobrejectiva se o con- tradomínio da aplicação coincide com o codomínio da aplicação, i.e. Im (A) = W. Uma transformação linear que seja injectiva e sobrejectiva, i.e. bijectiva, denomina-se isomorfismo.

Definição 14. (INVERSA) Sejam V e W dois espaços vectoriais e seja A uma transfor- mação linear entre V e W. Então A diz-se invertível se existe uma função B entre W e V tal que B ◦ A = id V e A ◦ B = id W. Ademais B chama-se inversa de A e indica-se como A−^1.

Observação 15. Uma aplicação possui uma inversa a esquerda, i.e. B ◦ A = id V se e somente se é injectiva por enquanto possui uma inversa à direita, i.e. A ◦ B = id W se e somente se é sobrejectiva. Portanto uma transformação linear A possui uma inversa se e somente se é um isomorfismo com a imagem.

Teorema 16. Sejam V e W dois espaços vectoriais de dimensão finita sobre o mesmo corpo K. Então os espaços são isomorfos se e só se dim( V ) = dim( W ).

Demonstração. Provamos que se os espaços são isomorfos então a dimensão dos es- paços é a mesma. Se V e W são isomorfos então existe uma transformação linear A entre V e W que seja injectiva e sobrejectiva. Sendo dà sobrejectividade de A que Im (A) ⊃ W então a dimensão da imagem é a dimensão de W , i.e. rank(A) = dim( W ) e sendo que A é injectiva o núcleo é o vector nulo e portanto nul (^) (A) = 0. Então pelo teorema do Rank-Nul as dimensões de V e W são as mesmas, i.e.:

dim( V ) = rank(A) + nul(A) = dim( W ). (1.20)

CAPÍTULO 1. ESPAÇOS VECTORIAIS 7

Reciprocamente se as duas dimensões de V e W são as mesmas podemos encontrar uma base E = { e i} 1 ≤i≤n de V e uma base F = { f i} 1 ≤i≤nde W. Sobre essas bases definimos uma transformação linear sobrejectiva e injectiva A que associa para cada elemento v em V de coordenadas [ v ]E = ( ξ^1 , .., ξ n), o elemento w em W com as mes- mas coordenadas [ w ]F = ( ξ^1 , .., ξ n). Claramente a transformação é linear e possui uma inversa A−^1 que é a aplicação que para cada [ w ]F = ( ξ^1 , .., ξ n) em W associa o vector com as mesmas coordenadas em V , i.e. [ v ]E = ( ξ^1 , .., ξ n). Tivendo uma inversa e sendo a aplicação sobrejectiva, A é portanto um isomorfismo entre V e W.

1.3 Dualidade

Nesta secção introduziremos a noção de dualidade para definirmos o espaço dual e de um espaço vectorial. Paralelamente iremos definir a base canónica dual e achare- mos como corolário o teorema de isomorfismo entre espaços de dimensão finitas e os espaços duais.

Definição 17. Seja V um espaço vectorial sobre um corpo K. Chamamos de espaço dual V ∗^ o espaço Hom( V , K ) ou seja o espaço das transformações lineares entre o espaço vectorial V e o corpo escalar K. Tais transformações lineares com valores no corpo escalar são também chamadas de formas lineares como de funcionais lineares.

Teorema 18. Dado um espaço vectorial V sobre um corpo K , de dimensão finita e com uma base E = { e i} 1 ≤i≤n podemos definir uma base no espaço dual V ∗^ de funcionais lineares E ∗^ = { e i

1 ≤i≤n tais que: e i( e j) = δ ij. (1.21)

Demonstração. Pela linearidade dos funcionais lineares, dada uma base E = { e i} 1 ≤i≤n do espaço vectorial V , para definirmos completamente o funcional só é preciso especi- ficar os valores que ele possui sobre a base. Portanto definimos e i^ os funcionais lineares que assumem os valores:

e i^ : V −→ K e e i( e j) =

1 se i = j 0 se i 6 = j

Precisamos provar que os funcionais

e i

1 ≤i≤n constituem uma base para^ V

∗. Se con-

siderarmos um funcional linear f ∈ V ∗, pela linearidade de f , podemos escrever para cada [ v ]E = ( ξ^1 , .., ξ n) em V que

f ( v ) =

n ∑ i= 1

ξ i^ f ( e i), (1.23)

portanto chamando os coeficientes escalares

η i = f ( e i), (1.24)

podemos escrever o funcional f na base canónica

e i

1 ≤i≤n como

f =

n ∑ i= 1

η i e i. (1.25)

Capítulo 2

Endomorfismos e formas canónicas

Neste capítulo apresentaremos os endomorfismos, i.e. transformações lineares de um espaço vectorial V em si próprio. Portanto na primeira secção trataremos as noções fundamentais dos endomorfismos tais como representação matricial, a mudança de base no caso dos endomorfismos, assim como a noção de subespaços invariantes, de polinómio característico e, enfim, de valores próprios e vectores próprios de um endo- morfismo. Nas últimas duas secções apresentaremos duas formas canónicas para os endomorfismos sobre o corpo dos números complexos C , i.e. a forma normal de Jordan e a forma normal simétrica.

2.1 Elementos fundamentais

Definição 21. (ENDOMORFISMO) Um endomorfismo L : VV é uma transformação linear entre um espaço vectorial V e si próprio. O espaço vectorial dos endomorfismos ou Hom K ( V , V ) é designado por End( V ).

Uma transformação linear pode ser representada em forma matricial uma vez es- colhidas duas bases, i.e. uma base do domínio e uma base do codomínio. Um endo- morfismo é em particular uma transformação linear e sendo V o espaço do domínio e do codomínio, pode ser representado em forma matricial uma vez escolhida uma base pelo espaço vectorial V. No específico se E = { e i} 1 ≤i≤n for uma base do espaço V , o endomorfismo L é representado na base E dà matriz A ∈ Mnn( K ) que possui nas colunas as coordenadas das imagens dos vectores da base E. Consequentemente dado um vector vV com coordenadas na base [ v ]E = ( ξ^1 , .., ξ n) podemos representar a acção do endomorfismo L sobre o vector v por:

E [L]E [ v ]E =^ A[ v ]E =

a^11 a^12... a^1 n a^21 a^22... a^2 n .. .

an 1 an 2... ann

ξ^1 ξ^2 .. . ξ n

2.1.1 Mudança de base

Consideramos F = { f i} 1 ≤i≤n uma nova base do espaço V , e CE F a matriz de mudança de base com nas colunas as coordenadas dos vectores da base E na base F , i.e.:

e j =

n

i= 1

cij f i. (2.2)

CAPÍTULO 2. ENDOMORFISMOS E FORMAS CANÓNICAS 10

Paralelamente consideramos a matriz que designamos por CF E = C− E F^1 com coeficien-

tes dij e que permite exprimir os vectores da baseF em vectores da base E , i.e.:

f j =

n ∑ i= 1

dij e i. (2.3)

Se quisermos representar o endomorfismo L, já representado dà matriz A na base E , numa nova base F , este endomorfismo será representado por uma nova matriz B relacionada à precedente por

F [L]F =^ B^ =^ C − 1 E F ACE F^.^ (2.4) Sendo um mesmo endomorfismo representado diferentemente dàs matrizes A e B em acordo com duas diferentes escolhas da base do mesmo espaço V , definimos a seguinte noção:

Definição 22. (ENDOMORFISMOS SIMILARES) Dois endomorfismos lineares representa- dos por matrizes A ∈ Mnn( K ) e B ∈ Mnn( K ) dizem-se similares se existe uma matriz M ∈ Mnn( K ) não singular tal que

A = M−^1 BM. (2.5)

2.1.2 Subespaços invariantes, valores e vectores próprios.

Definição 23. (SUBESPAÇO INVARIANTE) Um subespaço SV diz-se invariante pelo endomorfismo L ou simplesmente subespaço invariante, quando a transformação já for univocamente especificada, se as imagens por L dos vectores em S permanecem em S , i.e. L ( S ) ⊂ S.

Definição 24. (VALOR E VECTOR PRÓPRIO) Dado L ∈ End( V ) diz-se que um escalar λ é um valor próprio de L se existe um vector diferente de zero vV tal que L v = λ v. O vector v diz-se que é um vector próprio associado ao valor próprio.

2.1.3 Polinómio característico

A investigação sobre os vectores próprios definidos como L v = λ v leva à consideração do sistema de equações obtido considerando uma representação matricial A ∈ Mnn( K ) do endomorfismo, i.e. (A − λ 1 ) v = 0. (2.6)

Para que o sistema possa ser resolvido um vector v não nulo, precisamos que o deter- minante da matriz (A − λ 1 ) seja nulo, i.e.

det(A − λ 1 ) = 0. (2.7)

Chamamos a aplicação RL ( λ ) = (L − λ · id) de aplicação resolvente.

Definição 25. Seja uma matriz A ∈ Mnn( K ). O polinómio de grau n na variável λ com coeficientes no corpo K definido por pA( λ ) = det(A − λ 1 ) é chamado polinómio característico da matriz A.

Para falarmos de polinómio característico de um endomorfismo, é preciso de demonstrar que tal polinómio não seja subjecto a mudanças por mudanças de bases do espaço vectorial. Resulta portanto necessário o seguinte teorema:

CAPÍTULO 2. ENDOMORFISMOS E FORMAS CANÓNICAS 12

Observação 28. Se V é decomponível em V = V 1 ⊕ V 2 e B 1 e B 2 são bases de V 1 , V 2 então a base B = B 1 ∪ B 2 é uma base de V e nessa base um endomorfismo A toma a seguinte forma matricial [A]B:

[A]B =

A 11 A 12

A 21 A 22

onde A 12 = 0 se e só se V 2 é invariante por A e A 21 = 0 se e somente se V 1 é um subespaço invariante pelo endomorfismo A.

Corolário 29. Na base de B = ∪ 1 ≤i≤k

Bi o endomorfismo A tem uma representação matricial:

[A]B =

J 1 0... 0

0 J 2 0

0 0 · · · Jk

onde os Ji são chamados blocos de Jordan:

Ji =

λ 1 0 · · · 0 0 λ 1 0

0 0 λ

0 0 0 · · · λ

Para demonstrarmos o Teorema em primeiro lugar encontraremos a base da forma de Jordan no caso de V indecomponível em subespaços invariantes pelo endomor- fismo A e sucessivamente analisaremos o caso geral.

2.2.1 Forma de Jordan no caso de V um espaço indecomponível

Teorema 30. Seja V um espaço indecomponível em subespaços invariantes pelo endomorfismo A, então existe uma base de Jordan em V. Antes de proceder à prova do Teorema é preciso demonstrar alguns Lemas e Defini- ções. Consideramos um espaço vectorial V que não seja decomponível em subespaços invariantes pelo endomorfismo A. Seja λ um valor próprio de A e seja R λ a aplicação resolvente (A − λ · id). Se considerarmos os núcleos N s( λ ) = ker

(R λ )s

, temos uma cadeia ascendente de subespaços N 1 ( λ ) ⊂ ... ⊂ N m( λ ) ⊂ ... N q( λ ) , (2.18)

dado que a dimensão de V é finita, a cadeia alcançará um elemento maximal N q( λ ), i.e. para cada λ existe um q tal que N q( λ ) = N m( λ ) para cada m > q.

Definição 31. (VECTOR PRÓPRIO GENERALIZADO) Um vector chama-se de vector pró- prio generalizado de ordem q se

v 6 = 0, (A − λ · id) v 6 = 0, .. . (A − λ · id)q−^1 v 6 = 0, (A − λ · id)q^ v = 0.

CAPÍTULO 2. ENDOMORFISMOS E FORMAS CANÓNICAS 13

Lema 32. Nas hipóteses precedentes existe portanto um específico q ∈ N tal que o espaço vec- torial V decompõe-se em soma directa do núcleo e da imagem de (R λ )q^ , i.e. V = ker

(R λ )q

Im

(R λ )q

Demonstração. Em primeiro lugar precisamos demonstrar que a intersecção do núcleo e da imagem por q é o vector nulo, i.e.

ker

(R λ )q

∩ Im

(R λ )q

e depois o teorema segue pelo Teorema do Rank-Nul e pelos Teoremas 8 e 15. Supondo que v ∈ ker

(R λ )q

∩ Im

(R λ )q

, demonstraremos que é o vector nulo. Dado que v ∈ ker

(R λ )q

temos que (^) ( (R λ )q

v = 0 , (2.21)

mas também dado que v ∈ Im

(R λ )q

e portanto existe um wV tal que

v = Rq λ w. (2.22)

Isto que dizer que

R q λ

R

q λ w

= (R λ )^2 q^ w = 0, (2.23)

o que demonstra que w ∈ ker

(R λ )^2 q

. Mas dà construção precedente sabemos que

ker

(R λ )q

= ker

(R λ )^2 q

e portanto w pertence ao núcleo de (R λ )q^ também, i.e.

w ∈ ker(R q λ ), e portanto^ v^ =^ R

q λ w^ =^^0. Tendo demonstrado o precedente lema, agora sabemos que existe um q por maio do qual o espaço V pode ser decomposto na forma V = ker

(R λ )q

⊕ Im

(R λ )q

Agora é preciso demonstrar que estes subespaços vectoriais, são também subespaços invariantes pelo endomorfismo A.

Lema 33. Os núcleos e as imagens das (R λ )q, i.e. ker

(R λ )q

e Im

(R λ )q

, são subespaços invariantes de V pelo endomorfismo A.

Demonstração. De facto se considerarmos A · (R λ )q^ podemos notar que as duas aplica- ções comutam i.e. A (A − λ · id)q^ = (A − λ · id)q^ A. (2.24)

Portanto se o vector v pertence ao núcleo de (R λ )q, i.e. (R λ )q^ ( v ) = 0 , então também A ( v ) está no mesmo núcleo de (R λ )q^ dado que

(R λ )q^ (A ( v )) = A

(R λ )q^ ( v )

e portanto ker

(R λ )q

⊃ A

ker

(R λ )q

Similarmente se um vector v pertence à imagem de (^) (R λ )q, i.e. v = (R λ )q^ ( w ), então, dado que A

(R λ )q^ ( w )

= (R λ )q^ (A( w )) , (2.27)

o vector A ( v ) também pertence à imagem de (R λ )q^ e portanto

Im

(R λ )q

⊃ A

Im

(R λ )q

Agora podemos proceder em demonstrar o teorema.

CAPÍTULO 2. ENDOMORFISMOS E FORMAS CANÓNICAS 15

subespaços A-invariantes: V = V 1 ⊕ ... ⊕ V k, (2.31)

onde para cada V i, i = 1, ..., k , sendo ni = dim( V i), existe uma base Si =

e j

1 ≤j≤ni^ tal que na base B = ∪ 1 ≤i≤k

Si o endomorfismo A tem uma representação matricial:

[A]B =

S 1 0... 0

0 S 2 0

0 0 · · · Sk

onde os Si são blocos da forma

λ i 1 +

ı 2

onde ı é a unidade imaginária e λ i o valor próprio do endomorfismo associado ao bloco Si.

Demonstração. Considerando o teorema de decomposição em subespaços indecom- poníveis que utilizamos para provar a existência da forma de Jordan podemos nos restringir ao caso de V λ i espaço indecomponível em suma direita de subespaços in- variantes pelo endomorfismo{ A. Nesse caso utilizamos a base Bi = { b 1 , ..., b n} =

v , (A − λ i · id) v , ..., (A − λ i · id)q−^1 v

a base que encontramos pela forma de Jordan

e onde o endomorfismo assume a forma

[A]Bi =

λ i 1 0 · · · 0 0 λ i 1 0

0 0 λ i

0 0 0 · · · λ i

Agora consideramos a matriz de permutação

V =

e definimos as matrizes de mudança de coordenadas

T = (^1) n − ıV e T−^1 =

( (^1) n + ıV). (2.36)

CAPÍTULO 2. ENDOMORFISMOS E FORMAS CANÓNICAS 16

Definimos portanto a nova base Si = { s 1 , ..., s n} obtida a partir destas transformações, i.e.

s j =

n ∑ i= 1

tij b i, (2.37)

onde os coeficientes tij representam os coeficientes das matrizes de mudança de base T,

i.e. T =

tij

Na nova base, considerando que a matriz J pode ser decomposta numa parte dia- gonal λ i (^1) n e numa parte sobrediagonal H, i.e. J = λ i (^1) n + H a representação matricial do endomorfismo A na base Si assume a seguinte forma:

[A]Si = T−^1 JT = = T−^1 ( λ i (^1) n + H) T = T−^1 T λ (^1) n + T−^1 HT =

= λ i (^1) n +

( (^1) n + ıV) H ( 1 − ıV) =

= λ i (^1) n +

(H + V HV) −

ı 2

(HV − V H) , (2.38)

que é a forma que queríamos demonstrar.

CAPÍTULO 3. FORMAS BILINEARES E QUADRÁTICAS 18

Na nova base a forma bilinear assume uma representação matricial dada por

[A(·, ·)]F = (bij), (3.4)

onde para cada i e cada j os coeficientes são determinados da os valores da forma sobre a nova base, i.e. bij = A( f i, f j). (3.5)

Se quisermos encontrar a relação com os coeficientes da forma na base E , i.e. [A(·, ·)]E = (aij) então podemos utilizar as propriedades da linearidade e escrever

A( f i, f j) = A(

n ∑ p= 1

dip e p,

n ∑ q= 1

dqj e q) =

n ∑ p, q= 1

dpi dqj apq, (3.6)

que em outra forma exprime a relação de mudança de base

[A(·, ·)]F = C F ET [A( v , w )]E CF E. (3.7)

Definição 36. (FORMA BILINEAR SIMÉTRICA) Seja A(·, ·) uma forma bilinear sobre o corpo K. Essa diz-se de simétrica se A( v , w ) = A( w , v ) para cada v , wV.

Uma consequência da definição é que uma forma bilinear diz-se simétrica se e só se a representação da forma bilinear numa qualquer base é uma matriz A ∈ Mnn( K ) tal que A = AT, (3.8)

o que implica que os coeficientes das matrizes são idênticos se permutarmos os indices, i.e. para cada i, j ∈ {1...n}

aij = aji. (3.9)

Definição 37. (FORMA BILINEAR ANTISIMÉTRICA) Seja A(·, ·) uma forma bilinear sobre o corpo K. Essa diz-se de antisimétrica se A( v , w ) = −A( w , v ) para cada v , w ∈ V.

Nesse caso uma representação da forma bilinear numa qualquer base é uma matriz A ∈ Mnn( K ) tal que: A = −AT, (3.10)

o que implica que os coeficientes das matrizes são idênticos se permutarmos os indices, i.e. para cada i, j ∈ {1...n}

aij = −aji. (3.11)

3.2 Formas sesquilineares

Nessa secção iremos generalizar as formas bilineares definindo as formas sesquiline- ares por espaços sobre os números complexos. Portanto nesta secção consideremos o corpo K como o corpo dos números complexos C e a involução neste corpo que leva o escalar complexo λ no complexo conjugado λC.

Definição 38. Seja V um espaço vectorial sobre C e A(·, ·) uma forma bilinear. Então a forma denomina-se forma sesquilinear se é linear numa variável e anti-linear na outra, i.e. se para cada v , wV e para cada λC as seguintes relações estão validas

A( λ ( v 1 + v 2 ), w ) = λ A( v 1 , w ) + λ A( v 2 , w ) ANTI-LINEARIDADE, (3.12) A( v , λ ( w 1 + w 2 )) = λ A( v , w 1 ) + λ A( v , w 2 ) LINEARIDADE. (3.13)

CAPÍTULO 3. FORMAS BILINEARES E QUADRÁTICAS 19

Definição 39. (APLICAÇÃO ADJUNTA) A involução dada da conjugação complexa de- fine uma aplicação entre o espaço das transformações sesquilineares e si mesmo que chama-se aplicação adjunta e é designada por o símbolo ∗^ definida como

A( v , w ) −→ A∗( v , w ) = A( w , v ). (3.14)

Definição 40. (HERMITIANA) seja V um espaço vectorial sobre C e A(·, ·) uma forma sesquilinear, então A(·, ·) diz-se Hermitiana se

A(·, ·) = A∗(·, ·) , (3.15)

i.e. que para cada v e w em V os valores da forma possuem a simetria hermitiana, i.e.

A( v , w ) = A( w , v ). (3.16) Com poucas variações podemos repetir o discurso desenvolvido pela mudança de base nas formas bilineares. De facto se considerarmos F = { f i} 1 ≤i≤n uma nova base do espaço V , e CF E a matriz de mudança de base tal que

f j =

n ∑ i= 1

dij e i , (3.17)

na nova base a forma sesquilinear assume uma representação matricial dada por

[A(·, ·)]F = C

T F E [A( v ,^ w )]E^ CF E^ ≡^ C

∗ F E [A( v ,^ w )]E^ CF E^.^ (3.18)

3.3 Formas quadráticas

Dada A( v , w ) uma forma bilinear ou sesquilinear resulta natural definir uma aplicação chamada de forma quadrática associada à forma obtida considerando o valor que a forma assume sobre o mesmo vector v , i.e. A( v , v ).

Definição 41. (FORMA QUADRÁTICA) Seja A(·, ·) uma forma bilinear ou sesquilinear hermitiana então definimos uma aplicação A entre V e o corpo escalar C chamada forma quadrática associada à forma definida para cada v em V

A( v ) = A( v , v ). (3.19)

No caso em que A( v , w ) seja uma forma bilinear naturalmente a aplicação definida não é linear, mas é homogénea do segundo grau, i.e.

A( λ v ) = λ^2 A( v ). (3.20)

Ademais é verdade que no caso geral

A( v + w ) = A( v ) + A( w ) + A( v , w ) + A( w , v ). (3.21)

Analogamente no caso em que A( v , w ) seja uma forma sesquilinear então

A( λ v ) = λλ A( v ), (3.22)

e também A( v + w ) = A( v ) + A( w ) + A( v , w ) + A( w , v ). (3.23) A analise das formas quadráticas associadas às formas bilineares ou sesquilineares pode nos permitir de encontrar algumas fórmulas para deduzir as formas originais. Essas fórmulas são chamadas fórmulas de polarização. De facto o estudo de A( λ v + μ w ) leva-nos à enunciar as seguintes fórmulas: