Section 6 Base de um Espaço Vetorial
Muitas vezes representamos vetores de \(\mathbb{R}^3\) como \(\vec{x} = x \vec{i} + y \vec{j} + z \vec{k}\text{.}\) Os vetores \(\{ \vec{i}, \vec{j}, \vec{k} \}\) formam o que chamamos de uma base para \(\mathbb{R}^3\text{.}\) Nessa seção definimos bases para espaços vetoriais quaisquer. Para isso precisamos de um conjunto de vetores com os quais possamos escrever quaisquer vetores do espaço através de uma soma (para isso estudamos spans na primeira subseção) e queremos que não haja redundância no conjunto de vetores escolhidos (para isso estudamos independância linear na segunda subseção).
Subsection 6.1 Spans (Coberturas)
Definition 6.1.
Sejam \(V\) um espaço vetorial e \(\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n \in V\text{.}\) Uma soma da forma
é dita uma combinação linear de \(\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n\text{.}\) O conjunto de todas as combinações lineares de \(\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n\) é chamado de Span de \(\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n\) (as nomenclaturas cobertura de ou espaço vetorial gerado por também são utilizadas na literatura):
Example 6.2.
Example 6.3.
Theorem 6.4.
Se \(\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n \in V\text{,}\) então \(Span(\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n)\) é um subespaço vetorial de V.
Proof.
\(\vec{0} = 0\vec{v}_1 + 0\vec{v}_2 + \ldots + 0\vec{v}_n \Longrightarrow \vec{0} \in Span(\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n) \) e \(Span(\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n) \neq \emptyset.\)
\(\vec{v} + \vec{w} = (\alpha_1+\beta_1)\vec{v}_1 + (\alpha_2+\beta_2)\vec{v}_2 + \ldots + (\alpha_n+\beta_n)\vec{v}_n\) \(\Longrightarrow \vec{v} + \vec{w} \in Span(\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n), \)
\(\displaystyle \alpha\vec{v} = (\alpha\alpha_1)\vec{v}_1 + (\alpha\alpha_2)\vec{v}_2 + \ldots + (\alpha\alpha_n)\vec{v}_n \Longrightarrow \alpha\vec{v} \in Span(\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n). \)
Checkpoint 6.5.
Definition 6.6.
Sejam \((V, E, \oplus, \odot)\) um espaço vetorial e \(\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_n \in V.\) O conjunto \(\{\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_n\}\) é um conjunto de geradores (ou gera) \(V\) se, e somente se, qualquer vetor de \(\vec{v} \in V\) pode ser escrito como uma combinação linear de \(\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_n\text{,}\) ou seja,
Para determinar se um conjunto \(\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_k \in \mathbb{R}^n\) gera \(\mathbb{R}^n\text{,}\) devemos, para qualquer vetor \(\vec{x} = (x_1, x_2, \ldots, x_n)^T \in \mathbb{R}^n\text{,}\) mostrar que existem escalares \(\alpha_1, \alpha_2, \ldots, \alpha_k \) tais que \(\vec{x} = \alpha_1\vec{v}_1 + \alpha_2\vec{v}_2 + \ldots + \alpha_k\vec{v}_k\text{.}\) Se escrevemos as coordenadas para cada um dos vetores do conjunto, \(\vec{v}_i = ({v}_{1i},\ldots,{v}_{ni})^T\text{,}\) obtemos o sistema linear (nas variáveis \(\alpha_1, \alpha_2, \ldots, \alpha_k \)):
onde a última das equivalências está na forma \(A\vec{\alpha}=\vec{x}\text{.}\) Assim perguntar se um conjunto de vetores gera \(\mathbb{R}^n\text{,}\) é determinar se o sistema acima tem solução para qualquer \(\vec{x} \in \mathbb{R}^n\text{.}\)
Checkpoint 6.7.
\(\displaystyle \{ \vec{e}_1, \vec{e}_2, \vec{e}_3, (1,2,3)^T\}\)
\(\displaystyle \{ (1,1,1)^T, (1,1,0)^T, (1,0,0)^T\}\)
\(\displaystyle \{ (1,0,1)^T, (0,1,0)^T\}\)
\(\displaystyle \{ (1,2,4)^T, (3,-1,1)^T, (2,-3,-3)^T\}\)
Subsection 6.2 Dependência Linear
No item 1. do Checkpoint 6.7 cada \(\vec{x} \in \mathbb{R}^3\) pode ser escrito de infinitas maneiras. Isso não é coincidência e ocorre devido ao fato que \((1,2,3)^T = 1\vec{e}_1 + 2\vec{e}_2 +3\vec{e}_3\text{,}\) como esclarece o lema a seguir.
Lemma 6.8.
Sejam \(V\) um espaço vetorial e \(\vec{x} \in V\) um vetor. Suponha que \(\vec{x}\) possa ser escrito como uma combinação linear de \(\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_k\text{.}\) Existem infinitas formas de escrever \(\vec{x}\) como combinação linear de \(\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_k\) exatamente quando um desses vetores pode ser escrito como combinação linear dos demais.
Proof.
\((\Longrightarrow)\) Se for possível escrever um vetor \(\vec{x} \in V\) como combinação linear de \(\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_k\) de duas maneiras distintas, então existem escalares \(\alpha_1, \alpha_2, \ldots, \alpha_k\) e \(\beta_1, \beta_2, \ldots, \beta_k\text{,}\) nem todos iguais (\(\alpha_i \neq \beta_i\) para pelo menos algum \(i \in 1, 2, \ldots, k\)), tais que
de modo que \(\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_k\) é L.D. (\(\alpha_i - \beta_i \neq 0\) para algum \(i\)).
\((\Longleftarrow)\) Sem perda de generalidade 1 , se for possível escrever o vetor \(\vec{v}_{k}\) como combinação linear de \(\vec{v}_1, \ldots, \vec{v}_{k-1}\text{,}\) então existem escalares \(\alpha_1, \alpha_2, \ldots, \alpha_{k-1}\text{,}\) tais que
para qualquer escalar \(\gamma\text{,}\) de modo que
para qualquer escalar \(\gamma\text{.}\)
O Lema acima diz que teremos infinitas formas de escrever um vetor como combinação linear de \(\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_k \in V\text{.}\) exatamete quando existirem soluções não nulas de \(\alpha_1 \vec{v}_1 + \alpha_2 \vec{v}_2 + \cdots + \alpha_k\vec{v}_k = \vec{0}\text{.}\) Assim essa condição é bastante relevante para bases de um espaço vetorial e precisamos referir-nos a ela precisamente, como a seguir.
Definition 6.9.
Seja \((V, E, \oplus, \odot)\) um espaço vetorial. Os vetores \(\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_k \in V\) são ditos linearmente independentes (L.I.) se a única solução 2 de
é \(\alpha_1 = \alpha_2 = \ldots = \alpha_k = 0\text{.}\) Caso exista alguma solução não nula dessa equação, o conjunto \(\{\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_k\}\) é dito linearmente dependente (L.D.).
Example 6.10.
-
Para verificarmos se \(\{ \vec{e}_1, \vec{e}_2, \vec{e}_3, (1,2,3)^T\}\) é L.I., precisamos verificar se existe alguma solução não trivial para o sistema
\begin{gather*} \alpha_1 \begin{pmatrix} 1\\ 0 \\ 0 \end{pmatrix} + \alpha_2 \begin{pmatrix} 0\\ 1 \\ 0 \end{pmatrix} + \alpha_3 \begin{pmatrix} 0\\ 0 \\ 1 \end{pmatrix} + \alpha_4 \begin{pmatrix} 1\\ 2 \\ 3 \end{pmatrix} = \begin{pmatrix} 0\\ 0 \\ 0 \end{pmatrix} \\ \Leftrightarrow \begin{array}{c} \alpha_1 + \alpha_4 = 0\\ \alpha_2 + 2\alpha_4 = 0 \\ \alpha_3 + 3 \alpha_4 = 0 \end{array} \Leftrightarrow \begin{array}{c} \alpha_1 = - \alpha_4\\ \alpha_2 = - 2\alpha_4 \\ \alpha_3 - 3 \alpha_4 \end{array} \end{gather*}é solução para qualquer \(\alpha_4 \in \mathbb{R}\) e o sistema é L.D.
-
\(\{ (1,1,1)^T, (1,1,0)^T, (1,0,0)^T\}\) é L.I. pois
\begin{equation*} \alpha_1 \begin{pmatrix} 1\\ 1 \\ 1 \end{pmatrix} + \alpha_2 \begin{pmatrix} 1\\ 1 \\ 0 \end{pmatrix} + \alpha_3 \begin{pmatrix} 1\\ 0 \\ 0 \end{pmatrix} = \begin{pmatrix} 0\\ 0 \\ 0 \end{pmatrix} \Leftrightarrow \begin{array}{c} \alpha_1 + \alpha_2 + \alpha_3 = 0\\ \alpha_1 + \alpha_2 = 0 \\ \alpha_1 = 0 \end{array} \Leftrightarrow \begin{array}{c} \alpha_1 = 0 \\ \alpha_2 = 0 \\ \alpha_3 = 0 \end{array} \end{equation*} \(\{ (1,0,1)^T, (0,1,0)^T\}\) é L.I.
\(\{ (1,2,4)^T, (3,-1,1)^T, (2,-3,-3)^T\}\) é L.D.
Remark 6.11.
Para verificar se os vetores \(\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_k \mathbb{R}^n\) são L.I. verificamos se o sistema
tem solução única. Isso pode ser feito de diversas maneiras! Denotando
\(\vec{v}_i = \begin{pmatrix} v_{1i}\\ v_{2i}\\ \vdots \\v_{ni} \end{pmatrix}\,\,\) e \(\,\,A = \begin{pmatrix} | \amp | \amp \cdots \amp | \\ \vec{v}_1 \amp \vec{v}_2 \amp \cdots \amp \vec{v}_k \\ | \amp | \amp \cdots \amp | \end{pmatrix} = \begin{pmatrix} v_{11} \amp v_{12} \amp \cdots \amp v_{1k} \\ \vdots \amp \vdots \amp \cdots \amp \vdots \\ v_{n1} \amp v_{n2} \amp \cdots \amp v_{nk} \end{pmatrix},\)o sistema pode ser consderado nas seguintes formas, que são equivalentes à equação acima:
Analisando o sistema acima para entender se a solução é única, percebemos:
Se \(k \gt n\text{,}\) então \(\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_k\) são L.D. pois o sistema associado tem mais incógnitas do que equações.
Se \(k \lt n\text{,}\) então podemos colocar o sistema associado \((A|\vec{0})\) na forma escalonada e verificar se temos \(k\) linhas não nulas. Em caso afirmativo a solução do sistema é única e o sistema é L.I. Caso tenhamos menos do que \(k\) linhas não nulas, o sistema é L.D.
Se \(k = n\text{,}\) então a matriz \(A\) é quadrada e o sistema \(A \vec{\alpha} = \vec{0}\) tem solução única se, e somente se, a matriz \(A\) é inversível, de modo que basta verificar que \(\det(A) \neq 0\text{.}\)
O código a seguir pode ser utilizado para encontrar um subconjunto L.I. dentro de um conjunto de vetores.
Checkpoint 6.12.
\(\displaystyle \{ (1,-1,1)^T, (1,2,3)^T\}\)
\(\displaystyle \{ (1,-2,1)^T, (1,1,1)^T, (1,0,-1)^T\}\)
\(\displaystyle \{ (3,1,4)^T, (7,1,2)^T, (1,0,1)^T, (1,2,3)^T\}\)
\(\displaystyle \{ (1,2,-2)^T, (1,-1,3)^T, (5,1,5)^T\}\)
Lemma 6.13.
Um conjunto de vetores é L.D. se, e somente se, um dos vetores pode ser escrito como combinação linear dos demais.Proof.
Subsection 6.3 Bases
Definition 6.14.
Sejam \((V, E, \oplus, \odot)\) um espaço vetorial e \(\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_n \in V\) vetores. O conjunto \(\{\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_n\}\) é uma base para \(V\) se, e somente se,
\(\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_n\) são linearmente independentes,
\(\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_n\) cobrem \(V\text{.}\)
Alternativamente, dizemos que \(\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_n\) formam uma base para \(V\text{.}\)
Example 6.15.
-
esses vetores são L.I. Para isso precisamos mostrar que a única solução de
\begin{equation*} \alpha_1\vec{i} + \alpha_2 \vec{j} + \alpha_3 \vec{k} = \vec{0} \end{equation*}é \(\alpha_1 = \alpha_2 = \alpha_3 =0,\) o que ocorre de fato pois
\begin{equation*} \alpha_1\vec{i} + \alpha_2 \vec{j} + \alpha_3 \vec{k} = \begin{pmatrix} \alpha_1\\ \alpha_2 \\ \alpha_3 \end{pmatrix} = \begin{pmatrix} 0\\ 0 \\ 0 \end{pmatrix} \,\, \Leftrightarrow\,\, \begin{array}{c} \alpha_1 =0, \\ \alpha_2 = 0, \\ \alpha_3 = 0. \end{array} \end{equation*} -
esses vetores geram \(\mathbb{R}^3\text{.}\) Para isso precisamos mostrar que qualquer vetor \(\vec{x} = (x, y, z)^T \in \mathbb{R}^3\) pode ser escrito como uma combinação linear de \(\vec{i}, \vec{j}, \vec{k}\text{,}\) o que ocorre de fato pois
\begin{equation*} \alpha_1\vec{i} + \alpha_2 \vec{j} + \alpha_3 \vec{k} = \begin{pmatrix} \alpha_1\\ \alpha_2 \\ \alpha_3 \end{pmatrix} = \begin{pmatrix} x\\ y \\ z \end{pmatrix} \,\, \Leftrightarrow\,\, \begin{array}{c} \alpha_1 =x \\ \alpha_2 = y \\ \alpha_3 = z \end{array} \end{equation*}
Se \(\vec{u}_1, \vec{u}_2\) formam uma base para um espaço vetorial, podemos escrever cada vetor desse espaço como combinação linear dos vetores da base de uma única forma. O código a seguir plota uma base {u1, u2}, um vetor v, faz um print das coordenadas de v nessa base e ilustra o produto das coordenadas com os respectivos vetores da base (cuja soma resulta em v).
Example 6.16.
-
esses vetores são L.I. Para isso precisamos mostrar que a única solução de
\begin{equation*} \alpha_1\vec{v}_1 + \alpha_2 \vec{v}_2 + \alpha_3 \vec{v}_3 = \alpha_1 \begin{pmatrix} 1\\ -1 \\ 1 \end{pmatrix} + \alpha_2 \begin{pmatrix} 1\\ 2 \\ 1 \end{pmatrix} + \alpha_3 \begin{pmatrix} -1\\ 0 \\ 1 \end{pmatrix} = \vec{0} \end{equation*}é \(\alpha_1 = \alpha_2 = \alpha_3 =0,\) para verificarmos isso, escrevemos o sistema acima na forma matricial
\begin{equation*} \left(\begin{array}{ccc} 1 \amp 1 \amp -1 \\ -1 \amp 2 \amp 0 \\ 1 \amp 1 \amp 1 \end{array}\right)\begin{pmatrix} \alpha_1 \\ \alpha_2 \\ \alpha_3 \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix} \end{equation*}e verificamos que esse sistema admite solução única pois a matriz
\begin{equation*} A = \left(\begin{array}{ccc} 1 \amp 1 \amp -1 \\ -1 \amp 2 \amp 0 \\ 1 \amp 1 \amp 1 \end{array}\right) \end{equation*}tem determinante \(\det(A) = 6 \neq 0\) e é, portanto inversível.
-
esses vetores geram \(\mathbb{R}^3\text{.}\) Para isso precisamos mostrar que qualquer vetor \(\vec{x} = (x, y, z)^T \in \mathbb{R}^3\) pode ser escrito como uma combinação linear de \(\vec{v}_1, \vec{v}_2, \vec{v}_3\text{,}\) o que ocorre de fato pois, escrevendo o sistema acima na forma matricial
\begin{equation*} \left(\begin{array}{ccc} 1 \amp 1 \amp -1 \\ -1 \amp 2 \amp 0 \\ 1 \amp 1 \amp 1 \end{array}\right)\begin{pmatrix} \alpha_1 \\ \alpha_2 \\ \alpha_3 \end{pmatrix} = \begin{pmatrix} x\\ y \\ z \end{pmatrix}, \end{equation*}verificamos que esse sistema admite solução (\(\vec{\alpha} = A^{-1} \vec{x}\)) para qualquer \(\vec{x} \in \mathbb{R}^3\text{,}\) pois a matriz
\begin{equation*} A = \left(\begin{array}{ccc} 1 \amp 1 \amp -1 \\ -1 \amp 2 \amp 0 \\ 1 \amp 1 \amp 1 \end{array}\right) \end{equation*}é tem determinante \(\det(A) = 6 \neq 0\) e é, portanto inversível.
Example 6.17.
Checkpoint 6.18.
Checkpoint 6.19.
Temos então que é possível encontrar muitas (na verdade infinitas) bases para um espaço vetorial \(V\text{.}\) Os dois teoremas a seguir garantem que duas bases para um espaço vetorial têm sempre o mesmo número de vetores.
Theorem 6.20.
Se \(\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n\) geram um espaço vetorial \(V\text{,}\) então qualquer coleção de \(m \gt n\) vetores de \(V\)é L.D.
Proof.
Theorem 6.21.
Se \(\{\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n\}\) é uma base para um espaço vetorial \(V\text{,}\) então qualquer coleção de \(k \lt n\) vetores de \(V\) não gera \(V\text{.}\)
Proof.
Os teoremas acima garantem que se uma base para um espaço vetorial \(V\) tem \(n\) vetores, então qualquer outra base para \(V\) também tem \(n\) vetores. Assim, existe um número "certo" de vetores para cada base, o que nos motiva a definir a dimensão de um espaço vetorial.
Definition 6.22.
Seja \((V, E, \oplus, \odot)\) um espaço vetorial. Se \(V\) tem uma base de \(n\) vetores, dizemos que \(V\) tem dimensão \(n\text{.}\) O (sub)espaço \(\{\vec{0}\}\) é dito ter dimensão nula ou \(0\text{.}\) Em ambos os casos dizemos que \(V\) tem dimensão finita. Caso não exista um conjunto de vetores que cobre \(V\) com um número finito de elementos, dizemos que \(V\) tem dimensão infinita.
Checkpoint 6.23.
O conjunto das matrizes reais \(3 \times 3\) triangulares inferiores.
O conjunto dos polinômios de grau 4 (ou seja, polinômios da forma \(p(x) = ax^4 + bx^3 + cx^2 + dx + e\)).
O espaço nulo da matriz
\begin{equation*} A = \left(\begin{array}{ccc} 5 \amp 1 \amp 2\\ 1 \amp 5 \amp -2\\ 2 \amp -2 \amp 2 \end{array} \right). \end{equation*}
Checkpoint 6.24.
Se sabemos que um espaço vetorial tem dimensão \(n\) e quisermos verificar se um conjunto de \(n\) vetores é uma base, basta verificarmos uma das condições (que eles são L.I. ou que geram \(V\)), como garante o teorema a seguir.
Theorem 6.25.
Se \(V\) é um espaço vetorial de dimensão \(n \gt 0\text{,}\) então:
qualquer conjunto \(\{\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n\}\)de \(n\) vetores linearmente independentes gera \(V\text{,}\)
quaisquer \(n\) vetores que cobrem \(V\) são linearmente independentes
Proof.
-
Se \(V\) tem dimensão \(n\text{,}\) então \(V\) admite uma base com \(n\) vetores (não necessariamente \(\{\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n\}\)). Então o Theorem 6.20 diz que, para qualquer vetor \(\vec{v} \neq \vec{0} \in V\text{,}\) o conjunto \(\{\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n, \vec{v}\}\) é L.D. Portanto a equação
\begin{equation*} \alpha_1\vec{v}_1 + \alpha_2\vec{v}_2 + \cdots + \alpha_n \vec{v}_n + \alpha_{n+1} \vec{v} = \vec{0} \end{equation*}admite solução não nula. Nessa solução \(\alpha_{n+1} \neq 0\text{,}\) pois, caso contrário, o conjunto \(\{\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n\}\) seria L.D. Portanto
\begin{equation*} \vec{v} = -\alpha_1/\alpha_{i+1}\vec{v}_1 - \alpha_2/\alpha_{i+1}\vec{v}_2 - \cdots - \alpha_n/\alpha_{i+1} \vec{v}_n \end{equation*}e \(\{\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n\}\) gera \(V\text{.}\)
-
Seja \(\{\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n, \vec{v}\}\) um conjunto de vetores que gera \(V\text{.}\) Se este conjunto é L.D., então um dos vetores pode ser escrito como combinação dos demais. Sem perda de generalidade, digamos que seja \(\vec{v}_n\text{:}\)
\begin{equation*} \vec{v}_n = \alpha_1\vec{v}_1 + \alpha_2\vec{v}_2 + \cdots + \alpha_{n-1} \vec{v}_{n-1}, \end{equation*}então \(\{\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_{n-1}\}\) também gera \(V\text{,}\) pois qualquer vetor \(\vec{v} \in V\) pode ser escrito como
\begin{align*} \vec{v} =\amp v_1\vec{v}_1 + v_2\vec{v}_2 + \cdots + v_{n-1} \vec{v}_{n-1} + v_{n} \vec{v}_{n} \\ =(\amp v_1+v_n\alpha_1)\vec{v}_1 + (v_2+v_n\alpha_2)\vec{v}_2 + \cdots + (v_{n-1}+v_n\alpha_{n-1}) \vec{v}_{n-1}. \end{align*}Assim \(\{\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_{n-1}\}\) é um conjunto de geradores para \(V\) e o Theorem 6.20 implica que qualquer conjunto com \(n\) vetores é L.D. e \(V\) não tem base com \(n\) vetores, o que contradiz \(V\) ter dimensão \(n\text{.}\)
Subsection 6.4 Mudança de base
Temos a situação que existem muitas (infinitas) bases para cada espaço vetorial. Precisamos então ter uma maneira de passar vetores de uma base para outra.
Definition 6.26.
Seja \((V,E,\oplus, \odot)\) um espaço vetorial e \(\mathcal{U} = \{\vec{u}_1, \vec{u}_2, \ldots, \vec{u}_n\}\) uma base para \(V\text{.}\) A \(n\)-upla de escalares \((v_1^\mathcal{U}, v_2^\mathcal{U}, \ldots, v_n^\mathcal{U})\) tal que
é chamada de (conjunto de) coordenadas de \(\vec{v}\) na base \(\mathcal{U}\) e escrevemos
Normalmente omitimos a referência à base sobrescrita quando nos referimos à base canônica.
Remark 6.27.
As coordenadas de um vetor em uma base são únicas, pois, caso existissem mais de um conjunto de coordenadas correspondente a um único vetor, obteríamos uma contradição com a independencia linear dos vetores da base. Deixamos a verificação disso ao leitor.Example 6.28.
Example 6.29.
O exemplo a seguir complementa os anteriores.
Example 6.30.
Definition 6.31.
Sejam \((V,E,\oplus, \odot)\) um espaço vetorial e \(\mathcal{U}= \{\vec{u}_1, \vec{u}_2, \ldots, \vec{u}_n\}\) e \(\mathcal{V}= \{\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n\}\) bases para \(V\text{.}\) Cada vetor da base \(\mathcal{U}\) tem coordenadas na base \(\mathcal{V}\text{,}\) \(\vec{u}_i^\mathcal{V} = (a_{1i}, a_{2i}, \ldots, a_{ni})^T\text{.}\) A matriz de mudança de base da base \(\mathcal{U}\) para a base \(\mathcal{V}\) é a matriz
Checkpoint 6.32.
Remark 6.33.
Sejam \(\mathcal{U}= \{\vec{u}_1, \vec{u}_2, \ldots, \vec{u}_n\}\) e \(\mathcal{V}= \{\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n\}\) bases para \(\mathbb{R}^n\text{.}\) Se um vetor \(\vec{v}\) tem coordenadas \(\vec{v}^U\) e \(\vec{v}^V\) nas bases \(U\) e \(V\) nas respectivas bases e \(U\) e \(V\) são as matrizes de mudança de base das bases \(\mathcal{U}\) e \(\mathcal{V}\) para a base canônica, temos queRemark 6.34.
A matriz de mudança de base sempre é inversível, pois, caso não fosse, o sistema \(A\vec{x}=\vec{0}\) admitiria soluções não nulas, de modo queRemark 6.35.
Sejam \((V,E,\oplus, \odot)\) um espaço vetorial e \(\mathcal{U}= \{\vec{u}_1, \vec{u}_2, \ldots, \vec{u}_n\}\)\(\mathcal{V}= \{\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n\}\) bases para \(V\) e A = \((a_{ij})\) a matriz de mudança de base da base \(\mathcal{U}\) para a base \(\mathcal{V}\text{,}\) de modo que \(\vec{u}_i^{\mathcal{V}} = a_{1i}\vec{v}_1 + a_{2i} \vec{v}_2 + \cdots + a_{ni} \vec{v}_n\)Checkpoint 6.36.
\(\mathcal{U} = \{(1,-1)^T, (3,-2)^T\}\text{,}\) \(\mathcal{V} =\{(5,2)^T, (-1,3)^T \}\)
\(\mathcal{U} = \{(1,-1,1)^T, (1,-2,1)^T, (2,-1,-1)^T \}\text{,}\) \(\mathcal{V} = \mathcal{E} =\{\vec{i},\vec{j},\vec{k} \}\)
\(\mathcal{U} = \mathcal{E} =\{\vec{i},\vec{j},\vec{k} \}\text{,}\) \(\mathcal{V} = \{(1,-1,1)^T, (1,-2,1)^T, (2,-1,-1)^T \}\)
\(\mathcal{U} = \{(1,-1,1, -1)^T, (1,1,-1, -1)^T, (0,1,1, 0)^T, (1,0,0, 1)^T \}\text{,}\) \(\mathcal{V} = \{(-1,1,1, 1)^T, (1,1,1, -1)^T, (0,1,-1, 0)^T, (1,0,0, 1)^T \}\)
utilize o código a seguir para verificar as respostas obtidas no exercício anterior.
Subsection 6.5 Espaço Linha e Espaço Coluna
Definition 6.37.
Seja \(A\) uma matriz \(m \times n\text{.}\) O subespaço de \(\mathbb{R}^{1 \times n}\) coberto pelos vetores linha de \(A\) é chamado de de espaço linha de \(A\text{.}\) O subespaço de \(\mathbb{R}^m\) coberto pelos vetores coluna de \(A\) é chamado de espaço coluna de \(A\text{.}\)
Example 6.38.
Example 6.39.
Theorem 6.40.
Duas matrizes equivalentes por linhas têm o mesmo espaço linha.Proof.
Definition 6.41.
O posto (rank em inglês) de uma matriz \(A\text{,}\) denotado \(\mbox{posto}(A)\) ou \(\mbox{rank}(A)\text{,}\) é a dimensão do espaço linha 4 de \(A\text{.}\)
Remark 6.42.
O posto de uma matriz \(A\) é igual ao número de linhas não nulas na sua forma escalonada e as linhas não nulas da forma escalonada formam uma base para o espaço linha de \(A\text{.}\)Theorem 6.43.
A dimensão do espaço linha de uma matriz \(A^{m \times n}\) é igual à dimensão do seu espaço coluna.Proof.
Remark 6.44.
As colunas da matriz \(A\) na forma escalonada não formam uma base para o espaço coluna de\(A\text{,}\) apesar de terem a mesma dimensão. Todavia os pivôs da matriz escalonada indicam as colunas que formam uma base para o espaço coluna de \(A\text{.}\)Remark 6.45.
O espaço linha de \(A\) é igual ao espaço coluna de \(A^T\) (se transpormos os vetores).Checkpoint 6.46.
Checkpoint 6.47.
O código abaixo permite colocar uma matriz na forma escalonada.
Remark 6.48.
Um sistema linear \(A\vec{x} = \vec{b}\) tem solução se, e somente se, \(\vec{b}\) está no espaço coluna de \(A\text{.}\)Definition 6.49.
A nulidade de uma matriz \(A\text{,}\) denotado \(\mbox{nul}(A)\text{,}\) é a dimensão do seu espaço nulo.