Matrizes quadradas

Jacques Wainer

18/3/20

Matrizes

Capítulo 3 do livro texto

videos https://www.youtube.com/watch?v=kYB8IZa5AuE e https://www.youtube.com/watch?v=XkY2DOUCWMU

Matriz como transformação

Transformação linear

T é a transformação linear de um espaço vetorial a outro espaço ou ao mesmo espaço tal que

portanto

onde \vec{0}' é o vetor 0 no novo espaço.

Outras transformações lineares

Matriz quadrada como endomorfismo

Uma transformação linear de um espaço nele mesmo

f: V \rightarrow V

Se V é um espaço R^n então transformações lineares nesse espaço podem ser representadas por matrizes quadradas.

Multiplicação matriz vezes vetor

\left[ \begin{array}{rrr} 1 & 2 & 3\\ -3 &0 &9 \\ 10 & 20 & -30 \end{array} \right] \left[ \begin{array}{r} a \\ b \\ c \end{array} \right] = \left[ \begin{array}{r} 1a+2b+3c\\ -3a + 0b + 9 c\\ 10a + 20b -30 c \end{array} \right]

o produto escalar de cada linha da matriz pelo vetor.

Para onde vao as bases?

[1,0,0] é a 1a base

\left[ \begin{array}{rrr} 1 & 2 & 3\\ -3 &0 &9 \\ 10 & 20 & -30 \end{array} \right] \left[ \begin{array}{r} 1 \\ 0 \\ 0 \end{array} \right] = \left[ \begin{array}{r} 1\\ -3\\ 10 \end{array} \right]

[0,1,0] é a segunda base

\left[ \begin{array}{rrr} 1 & 2 & 3\\ -3 &0 &9 \\ 10 & 20 & -30 \end{array} \right] \left[ \begin{array}{r} 0 \\ 1 \\ 0 \end{array} \right] = \left[ \begin{array}{r} 2\\ 0\\ 20 \end{array} \right]

As colunas da matriz são os novos vetores correspondente as bases.

Multiplicação matriz vezes vetor (outra versão)

\left[ \begin{array}{rrr} 1 & 2 & 3\\ -3 &0 &9 \\ 10 & 20 & -30 \end{array} \right] \left[ \begin{array}{r} a \\ b \\ c \end{array} \right] = a\left[ \begin{array}{r} 1\\ -3\\ 10 \end{array} \right] + b\left[ \begin{array}{r} 2\\ 0\\ 20 \end{array} \right] + c\left[ \begin{array}{r} 3\\ -9\\ -30 \end{array} \right] = \left[ \begin{array}{r} 1a+2b+3c\\ -3a + 0b + 9 c\\ 10a + 20b -30 c \end{array} \right]

Voce só precisa saber para onde as bases vão (que são as colunas da matriz). Isso determina

Note que uma transformação linear gera um ponto NOVO. Não é o ponto velho numa base nova (veremos mudança de base mais tarde). O ponto é um novo ponto que tem os mesmo coeficientes do ponto velho mas multiplicando os vetores que correspondem as bases na transformação. Note que o ainda estamos falando da base velha.

Algumas transformações

identidade

\left[ \begin{array}{rrr} 1 & 0 & 0\\ 0 & 1 &0 \\ 0 & 0 & 1 \end{array} \right] = I = I_3

Projeção no plano x,y

o x e y ficam como estão e o z vai para 0

\left[ \begin{array}{rrr} 1 & 0 & 0\\ 0 & 1 &0 \\ 0 & 0 & 0 \end{array} \right]

Alongar o x e o y

Alongar o x por 2 e o y por 3.5

\left[ \begin{array}{rr} 2 & 0 \\ 0 & 3.5 \end{array} \right]

Rotação de 90 em 2D

o x vai para y e o y vai para -x

\left[ \begin{array}{rr} 0 & -1 \\ 1 & 0 \end{array} \right]

Rotação de \theta em 2D

o x vai para [\cos \theta, \sin \theta]^T e o y vai para [- \sin \theta, \cos \theta]^T

\left[ \begin{array}{rr} \cos \theta & -\sin \theta\\ \sin \theta & \cos \theta \end{array} \right]

Rotação em 3D

em volta do eixo y, por exemplo. O x vai para z, o y fica igual, e o z vai para -x

\left[ \begin{array}{rrr} 0 & 0 & -1\\ 0 & 1 &0 \\ 1 & 0 & 0 \end{array} \right]

espelho em 2D em relação ao x

x fica igual e o y vai para -y

\left[ \begin{array}{rr} 1 & 0 \\ 0 & -1 \end{array} \right]

Null space

Algumas transformações lineares podem gerar 0 mesmo que aplicadas a vetores diferentes de 0

A v = \vec{0}

O null space de uma matriz é o conjunto de vetores que a matriz leva para o 0.

O null space é um subespaço do espaço de origem (verifique)

De vez em quando o null space é trivial, apenas o vetor \vec{0} (para a rotação por exemplo)

Ou pode ser um subespaço “maior”. Para a matriz que projeta para o plano x,y o subespaço gerado pelo \vec{z} é o null space.

De vez em quando o null space é chamado de kernel.

rank de uma matriz

o rank de uma matriz é a dimensão do espaço original, menos a dimensão do null space.

o rank é a dimensão do espaço gerado (span) pelas colunas da matriz.

Uma matriz é full rank, se o rank dela é a dimensão do espaço original (ou seja a matriz não leva nenhum vetor não nulo para o 0)

Transposta

Troca linhas por colunas numa matriz

\left[ \begin{array}{rrr} 1 & 2 & 3\\ -3 &0 &9 \\ 10 & 20 & -30 \end{array} \right]^T = \left[ \begin{array}{rrr} 1 & -3 & 10\\ 2 &0 & 20 \\ 3 & 9 & -30 \end{array} \right]

Vetores

Transposta funciona para vetores.

\left[ \begin{array}{r} 0 \\ 1 \\ 10 \end{array} \right]^T = [0\quad 1\quad 10]

E o dual

[0\quad 1\quad 10]^T = \left[ \begin{array}{r} 0 \\ 1 \\ 10 \end{array} \right]

Notação para o produto interno (produto escalar)

produto escalar tradicional:

<x,y> = x^T y

<\left[ \begin{array}{r} 0 \\ 1 \end{array} \right] \left[ \begin{array}{r} 4 \\ 5 \end{array} \right]> = [0 \quad 1] \left[ \begin{array}{r} 4 \\ 5 \end{array} \right] = 0*4+1*5 = 5

Alguns tipos de matrizes

Produto de matrizes

A (B \vec{x}) = (A B) \vec{x}

Combinação de transformações.

\left[ \begin{array}{rrr} 1 & 2 & 3\\ -3 &0 &9 \\ 10 & 20 & -30 \end{array} \right] \left[ \begin{array}{rrr} a & b & c\\ e &f & g \\ h & i & j \end{array}\right] = \\ \left[ \begin{array}{ccc} <[1,2,3] ,[a,e,h] > & <[1,2,3] ,[b,f,i] > & <[1,2,3] ,[c,g,j] > \\ <[-1,0,9] ,[a,e,h] > &<[-1,0,9] ,[b,f,i] >&<[-1,0,9] ,[c,g,j] > \\ <[10,20,-30] ,[a,e,h] > & <[10,20,-30] ,[b,f,i] > & <[10,20,-30] ,[c,g,j] > \end{array}\right]

Produto não é comutativo

normalmente A B \not= B A

há casos onde o produto é comutativo, em particular A I = I A = A

Inversa de uma matriz

Uma matriz full rank (sem null space) pode ser invertida de tal forma que

A^{-1} A = A A^{-1}= I_n

ou se y = A x então x = A^{-1} y

Matrizes que não são full rank não tem inversa pois todo o null space é mapeado para um só vetor (o 0) e portando não da para inverte o 0.

Transposta e inversa de um produto

(A B)^T = B^T A^T

(A B)^{-1} = B^{-1} A^{-1} se eles existem

Onde matrizes quadradas aparecem

Relação par a par entre n entidades

Grafos

Matriz de covariância

x e y são dois conjuntos de n dados - pareados x_1 corresponde ao y_1 etc

Cov(x,y) = E[(x_i-\bar{x})(y_i - \bar{y})]= \bar{xy}-\bar{x}\bar{y}= \frac{1}{n^2} \sum_i \sum_{j>i} (x_i - x_j)(y_i - y_j)

Cov(x,x) = E[(x_i-bar{x})^2] = \bar{x^2}-\bar{x}^2 = Var(x)

onde \bar{x} é a media dos x, e E[x] também é a media dos x.

Matriz de covariância de 3 variáveis (dimensões) x, y e z

\left[ \begin{array}{rrr} Cov(x,x) & Cov(x,y) & Cov(x,z)\\ Cov(y,x) & Cov(y,y) & Cov(y,z) \\ Cov(z,x) & Cov(z,y) & Cov(z,z) \end{array} \right]

é uma matriz simétrica.

Matriz de covariância é a extensão da variância (de uma variável só) para múltiplas variáveis.

Variância \sigma^2 aparece na distribuição normal

N(x|\mu,\sigma) = \frac{1}{\sigma \sqrt{2\pi}} e^{\frac{1}{2} \frac{x^2-\mu^2}{\sigma^2}}

Numa distribuição normal de múltiplas variáveis, a matriz de covariância “entra no lugar” do \sigma^2 (a ser visto na próxima aula)