Skip to main content

Section 6 Base de um Espaço Vetorial

Muitas vezes representamos vetores de \(\mathbb{R}^3\) como \(\vec{x} = x \vec{i} + y \vec{j} + z \vec{k}\text{.}\) Os vetores \(\{ \vec{i}, \vec{j}, \vec{k} \}\) formam o que chamamos de uma base para \(\mathbb{R}^3\text{.}\) Nessa seção definimos bases para espaços vetoriais quaisquer. Para isso precisamos de um conjunto de vetores com os quais possamos escrever quaisquer vetores do espaço através de uma soma (para isso estudamos spans na primeira subseção) e queremos que não haja redundância no conjunto de vetores escolhidos (para isso estudamos independância linear na segunda subseção).

Subsection 6.1 Spans (Coberturas)

Definition 6.1.

Sejam \(V\) um espaço vetorial e \(\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n \in V\text{.}\) Uma soma da forma

\begin{equation*} \alpha_1\vec{v}_1 + \alpha_2 \vec{v}_2 + \ldots + \alpha_n \vec{v}_n \end{equation*}

é dita uma combinação linear de \(\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n\text{.}\) O conjunto de todas as combinações lineares de \(\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n\) é chamado de Span de \(\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n\) (as nomenclaturas cobertura de ou espaço vetorial gerado por também são utilizadas na literatura):

\begin{equation*} Span(\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n) = \{\vec{x} \in V | \vec{x} = \alpha_1\vec{v}_1 + \alpha_2\vec{v}_2+ \ldots + \alpha_n \vec{v}_n\}. \end{equation*}
No Example 5.8, o espaço nulo da matriz
\begin{equation*} A = \left(\begin{array}{cccc} 1 \amp 1 \amp 1 \amp 0 \\ 2 \amp 1 \amp 0 \amp 1 \end{array} \right) \end{equation*}
é igual ao \(Span((1, -2, 1, 0)^T, (-1, 1, 0, 1)^T)\text{:}\)
\begin{align*} N(A) = \amp \{\vec{x} \in \mathbb{R}^4 | \alpha(1, -2, 1, 0)^T + \beta(-1, 1, 0, 1)^T, \,\, \alpha, \beta\in \mathbb{R}\} \\ =\amp Span((1, -2, 1, 0)^T, (-1, 1, 0, 1)^T). \end{align*}
Denotamos por \(\vec{e}_i \in \mathbb{R}^n\) o vetor cuja \(i\)-ésima entrada é igual a 1 e todas as demais são nulas
\begin{equation*} \vec{e}_i = (0, \ldots, 0, 1, 0, \ldots, 0) \end{equation*}
para \(\vec{e}_1,\vec{e}_2,\vec{e}_3 \in \mathbb{R}^3\text{,}\) \(Span(\vec{e}_1,\vec{e}_2,\vec{e}_3)\) é formado por todos os vetores da forma
\begin{equation*} \alpha\left(\begin{array}{c} 1 \\ 0 \\ 0 \end{array} \right) + \beta\left(\begin{array}{c} 0 \\ 1 \\ 0 \end{array} \right) + \gamma\left(\begin{array}{c} 0 \\ 0 \\ 1 \end{array} \right) = \left(\begin{array}{c} \alpha \\ \beta \\ \gamma \end{array} \right), \end{equation*}
de modo que \(Span(\vec{e}_1,\vec{e}_2,\vec{e}_3) = \mathbb{R}^3\text{.}\)
Se \(\vec{v} = \alpha_1\vec{v}_1 + \alpha_2\vec{v}_2 + \ldots + \alpha_n\vec{v}_n\) e \(\vec{w} = \beta_1\vec{v}_1 + \beta_2\vec{v}_2 + \ldots + \beta_n\vec{v}_n\) e \(\alpha\) é um escalar, então
  1. \(\vec{0} = 0\vec{v}_1 + 0\vec{v}_2 + \ldots + 0\vec{v}_n \Longrightarrow \vec{0} \in Span(\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n) \) e \(Span(\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n) \neq \emptyset.\)

  2. \(\vec{v} + \vec{w} = (\alpha_1+\beta_1)\vec{v}_1 + (\alpha_2+\beta_2)\vec{v}_2 + \ldots + (\alpha_n+\beta_n)\vec{v}_n\) \(\Longrightarrow \vec{v} + \vec{w} \in Span(\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n), \)

  3. \(\displaystyle \alpha\vec{v} = (\alpha\alpha_1)\vec{v}_1 + (\alpha\alpha_2)\vec{v}_2 + \ldots + (\alpha\alpha_n)\vec{v}_n \Longrightarrow \alpha\vec{v} \in Span(\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n). \)

Dados vetores \(\vec{v}_1, \vec{v}_2 \in \mathbb{R}^3\) não colineares, o \(Span(\vec{v}_1, \vec{v}_2)\) é um plano que passa pela origem e qualquer desses é um subespaço de \(\mathbb{R}^3\text{.}\) Os planos que não passam pela origem são subespaços de \(\mathbb{R}^3\text{?}\) Qual a justificativa?
Definition 6.6.

Sejam \((V, E, \oplus, \odot)\) um espaço vetorial e \(\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_n \in V.\) O conjunto \(\{\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_n\}\) é um conjunto de geradores (ou gera) \(V\) se, e somente se, qualquer vetor de \(\vec{v} \in V\) pode ser escrito como uma combinação linear de \(\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_n\text{,}\) ou seja,

\begin{equation*} \vec{v} \in V \Longrightarrow \exists \alpha_1, \alpha_2, \ldots, \alpha_n \in E \,\, \| \,\, \vec{v} = \alpha_1\vec{v}_1 + \alpha_2\vec{v}_2 + \ldots + \alpha_n\vec{v}_n. \end{equation*}

Para determinar se um conjunto \(\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_k \in \mathbb{R}^n\) gera \(\mathbb{R}^n\text{,}\) devemos, para qualquer vetor \(\vec{x} = (x_1, x_2, \ldots, x_n)^T \in \mathbb{R}^n\text{,}\) mostrar que existem escalares \(\alpha_1, \alpha_2, \ldots, \alpha_k \) tais que \(\vec{x} = \alpha_1\vec{v}_1 + \alpha_2\vec{v}_2 + \ldots + \alpha_k\vec{v}_k\text{.}\) Se escrevemos as coordenadas para cada um dos vetores do conjunto, \(\vec{v}_i = ({v}_{1i},\ldots,{v}_{ni})^T\text{,}\) obtemos o sistema linear (nas variáveis \(\alpha_1, \alpha_2, \ldots, \alpha_k \)):

\begin{align*} \alpha_1\vec{v}_1 + \ldots + \alpha_k\vec{v}_k = \vec{x} \Leftrightarrow \left\{\begin{array}{c} \alpha_1{v}_{11} + \ldots + \alpha_k {v}_{1k} \amp = x_1\\ \alpha_1{v}_{21} + \ldots + \alpha_k {v}_{2k} \amp = x_2\\ \vdots \amp = \vdots\\ \alpha_1{v}_{n1} + \ldots + \alpha_k {v}_{nk} \amp = x_n \end{array}\right.\\ \Leftrightarrow \left(\begin{array}{c} {v}_{11} \amp \ldots \amp {v}_{1k} \\ v_{21} \amp \ldots \amp {v}_{2k}\\ \vdots \amp \vdots \amp \vdots\\ {v}_{n1} \amp \ldots \amp {v}_{nk} \end{array}\right) \left(\begin{array}{c} \alpha_1\\ \alpha_2\\ \vdots\\ \alpha_k \end{array}\right) = \left(\begin{array}{c} x_1\\ x_2\\ \vdots\\ x_n \end{array}\right) \end{align*}

onde a última das equivalências está na forma \(A\vec{\alpha}=\vec{x}\text{.}\) Assim perguntar se um conjunto de vetores gera \(\mathbb{R}^n\text{,}\) é determinar se o sistema acima tem solução para qualquer \(\vec{x} \in \mathbb{R}^n\text{.}\)

Quais dos seguintes conjuntos são coberturas de \(\mathbb{R}^3\) e justifique sua resposta analisando se o sistema associado tem solução única, infinitas soluções ou não tem solução?
  1. \(\displaystyle \{ \vec{e}_1, \vec{e}_2, \vec{e}_3, (1,2,3)^T\}\)

  2. \(\displaystyle \{ (1,1,1)^T, (1,1,0)^T, (1,0,0)^T\}\)

  3. \(\displaystyle \{ (1,0,1)^T, (0,1,0)^T\}\)

  4. \(\displaystyle \{ (1,2,4)^T, (3,-1,1)^T, (2,-3,-3)^T\}\)

Subsection 6.2 Dependência Linear

No item 1. do Checkpoint 6.7 cada \(\vec{x} \in \mathbb{R}^3\) pode ser escrito de infinitas maneiras. Isso não é coincidência e ocorre devido ao fato que \((1,2,3)^T = 1\vec{e}_1 + 2\vec{e}_2 +3\vec{e}_3\text{,}\) como esclarece o lema a seguir.

\((\Longrightarrow)\) Se for possível escrever um vetor \(\vec{x} \in V\) como combinação linear de \(\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_k\) de duas maneiras distintas, então existem escalares \(\alpha_1, \alpha_2, \ldots, \alpha_k\) e \(\beta_1, \beta_2, \ldots, \beta_k\text{,}\) nem todos iguais (\(\alpha_i \neq \beta_i\) para pelo menos algum \(i \in 1, 2, \ldots, k\)), tais que

\begin{align*} \vec{x} =\amp \alpha_1\vec{v}_1 + \alpha_2\vec{v}_2 + \cdots + \alpha_k\vec{v}_k\\ \vec{x} =\amp \beta_1\vec{v}_1 + \beta_2\vec{v}_2 + \cdots + \beta_k\vec{v}_k\\ (\Longrightarrow) \vec{0} =\amp (\alpha_1-\beta_1)\vec{v}_1 + (\alpha_2-\beta_2)\vec{v}_2 + \cdots + (\alpha_k-\beta_k)\vec{v}_k \end{align*}

de modo que \(\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_k\) é L.D. (\(\alpha_i - \beta_i \neq 0\) para algum \(i\)).

\((\Longleftarrow)\) Sem perda de generalidade 1 , se for possível escrever o vetor \(\vec{v}_{k}\) como combinação linear de \(\vec{v}_1, \ldots, \vec{v}_{k-1}\text{,}\) então existem escalares \(\alpha_1, \alpha_2, \ldots, \alpha_{k-1}\text{,}\) tais que

se o vetor que pode ser escrico como combinação linear dos demais não for o último da lista, podemos fazer uma reordenação dos vetores e colocá-lo por último
\begin{align*} \vec{v}_k = \amp \alpha_1\vec{v}_1 + \alpha_2\vec{v}_2 + \cdots + \alpha_{k-1}\vec{v}_{k-1}\\ \Longrightarrow \vec{0} = \amp \alpha_1\vec{v}_1 + \alpha_2\vec{v}_2 + \cdots + \alpha_{k-1}\vec{v}_{k-1} - \vec{v}_k\\ \Longrightarrow \vec{0} = \amp \gamma\alpha_1\vec{v}_1 + \gamma\alpha_2\vec{v}_2 + \cdots + \gamma\alpha_{k-1}\vec{v}_{k-1} - \gamma\vec{v}_k, \end{align*}

para qualquer escalar \(\gamma\text{,}\) de modo que

\begin{align*} \vec{x} = \amp \beta_1\vec{v}_1 + \beta_2\vec{v}_2 + \cdots + \beta_{k-1}\vec{v}_{k-1} + \beta_{k}\vec{v}_{k}\\ \Longrightarrow \vec{x} = \amp (\beta_1 + \gamma\alpha_1)\vec{v}_1 + (\beta_2 + \gamma\alpha_2)\vec{v}_2 + \cdots + (\beta_{k-1} + \gamma\alpha_{k-1})\vec{v}_{k-1} + (\beta_{k} - \gamma)\vec{v}_{k} \end{align*}

para qualquer escalar \(\gamma\text{.}\)

O Lema acima diz que teremos infinitas formas de escrever um vetor como combinação linear de \(\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_k \in V\text{.}\) exatamete quando existirem soluções não nulas de \(\alpha_1 \vec{v}_1 + \alpha_2 \vec{v}_2 + \cdots + \alpha_k\vec{v}_k = \vec{0}\text{.}\) Assim essa condição é bastante relevante para bases de um espaço vetorial e precisamos referir-nos a ela precisamente, como a seguir.

Definition 6.9.

Seja \((V, E, \oplus, \odot)\) um espaço vetorial. Os vetores \(\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_k \in V\) são ditos linearmente independentes (L.I.) se a única solução 2  de

\begin{equation*} \alpha_1\vec{v}_1 + \alpha_2\vec{v}_2 + \cdots + \alpha_{k}\vec{v}_{k} = \vec{0} \end{equation*}

é \(\alpha_1 = \alpha_2 = \ldots = \alpha_k = 0\text{.}\) Caso exista alguma solução não nula dessa equação, o conjunto \(\{\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_k\}\) é dito linearmente dependente (L.D.).

Note que \(\alpha_1 = \alpha_2 = \ldots = \alpha_k = 0\) sempre é uma solução da equação.
Quais dos seguintes conjuntos de vetores são L.I.? Justifique sua resposta analisando se o sistema associado tem solução única, infinitas soluções ou não tem solução?
  1. Para verificarmos se \(\{ \vec{e}_1, \vec{e}_2, \vec{e}_3, (1,2,3)^T\}\) é L.I., precisamos verificar se existe alguma solução não trivial para o sistema

    \begin{gather*} \alpha_1 \begin{pmatrix} 1\\ 0 \\ 0 \end{pmatrix} + \alpha_2 \begin{pmatrix} 0\\ 1 \\ 0 \end{pmatrix} + \alpha_3 \begin{pmatrix} 0\\ 0 \\ 1 \end{pmatrix} + \alpha_4 \begin{pmatrix} 1\\ 2 \\ 3 \end{pmatrix} = \begin{pmatrix} 0\\ 0 \\ 0 \end{pmatrix} \\ \Leftrightarrow \begin{array}{c} \alpha_1 + \alpha_4 = 0\\ \alpha_2 + 2\alpha_4 = 0 \\ \alpha_3 + 3 \alpha_4 = 0 \end{array} \Leftrightarrow \begin{array}{c} \alpha_1 = - \alpha_4\\ \alpha_2 = - 2\alpha_4 \\ \alpha_3 - 3 \alpha_4 \end{array} \end{gather*}

    é solução para qualquer \(\alpha_4 \in \mathbb{R}\) e o sistema é L.D.

  2. \(\{ (1,1,1)^T, (1,1,0)^T, (1,0,0)^T\}\) é L.I. pois

    \begin{equation*} \alpha_1 \begin{pmatrix} 1\\ 1 \\ 1 \end{pmatrix} + \alpha_2 \begin{pmatrix} 1\\ 1 \\ 0 \end{pmatrix} + \alpha_3 \begin{pmatrix} 1\\ 0 \\ 0 \end{pmatrix} = \begin{pmatrix} 0\\ 0 \\ 0 \end{pmatrix} \Leftrightarrow \begin{array}{c} \alpha_1 + \alpha_2 + \alpha_3 = 0\\ \alpha_1 + \alpha_2 = 0 \\ \alpha_1 = 0 \end{array} \Leftrightarrow \begin{array}{c} \alpha_1 = 0 \\ \alpha_2 = 0 \\ \alpha_3 = 0 \end{array} \end{equation*}
  3. \(\{ (1,0,1)^T, (0,1,0)^T\}\) é L.I.

  4. \(\{ (1,2,4)^T, (3,-1,1)^T, (2,-3,-3)^T\}\) é L.D.

Remark 6.11.

Para verificar se os vetores \(\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_k \mathbb{R}^n\) são L.I. verificamos se o sistema

\begin{equation*} \alpha_1\vec{v}_1 + \alpha_2\vec{v}_2 + \cdots + \alpha_{k}\vec{v}_{k} = \vec{0}, \end{equation*}

tem solução única. Isso pode ser feito de diversas maneiras! Denotando

\(\vec{v}_i = \begin{pmatrix} v_{1i}\\ v_{2i}\\ \vdots \\v_{ni} \end{pmatrix}\,\,\) e \(\,\,A = \begin{pmatrix} | \amp | \amp \cdots \amp | \\ \vec{v}_1 \amp \vec{v}_2 \amp \cdots \amp \vec{v}_k \\ | \amp | \amp \cdots \amp | \end{pmatrix} = \begin{pmatrix} v_{11} \amp v_{12} \amp \cdots \amp v_{1k} \\ \vdots \amp \vdots \amp \cdots \amp \vdots \\ v_{n1} \amp v_{n2} \amp \cdots \amp v_{nk} \end{pmatrix},\)

o sistema pode ser consderado nas seguintes formas, que são equivalentes à equação acima:

\begin{equation*} \begin{array}{cc} v_{11} \alpha_1 + v_{12} \alpha_2 + \cdots + v_{1k}\alpha_k =\amp 0 \\ \vdots \amp \vdots \\ v_{n1} \alpha_1 + v_{n2} \alpha_2 + \cdots + v_{nk}\alpha_k =\amp 0 \end{array} \Leftrightarrow A \vec{\alpha} = \vec{0}. \end{equation*}

Analisando o sistema acima para entender se a solução é única, percebemos:

  1. Se \(k \gt n\text{,}\) então \(\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_k\) são L.D. pois o sistema associado tem mais incógnitas do que equações.

  2. Se \(k \lt n\text{,}\) então podemos colocar o sistema associado \((A|\vec{0})\) na forma escalonada e verificar se temos \(k\) linhas não nulas. Em caso afirmativo a solução do sistema é única e o sistema é L.I. Caso tenhamos menos do que \(k\) linhas não nulas, o sistema é L.D.

  3. Se \(k = n\text{,}\) então a matriz \(A\) é quadrada e o sistema \(A \vec{\alpha} = \vec{0}\) tem solução única se, e somente se, a matriz \(A\) é inversível, de modo que basta verificar que \(\det(A) \neq 0\text{.}\)

O código a seguir pode ser utilizado para encontrar um subconjunto L.I. dentro de um conjunto de vetores.

Quais dos seguintes conjuntos de vetores são L.I.? Justifique sua resposta analisando se o sistema associado tem solução única, infinitas soluções ou não tem solução?
  1. \(\displaystyle \{ (1,-1,1)^T, (1,2,3)^T\}\)

  2. \(\displaystyle \{ (1,-2,1)^T, (1,1,1)^T, (1,0,-1)^T\}\)

  3. \(\displaystyle \{ (3,1,4)^T, (7,1,2)^T, (1,0,1)^T, (1,2,3)^T\}\)

  4. \(\displaystyle \{ (1,2,-2)^T, (1,-1,3)^T, (5,1,5)^T\}\)

A completar.

Subsection 6.3 Bases

Definition 6.14.

Sejam \((V, E, \oplus, \odot)\) um espaço vetorial e \(\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_n \in V\) vetores. O conjunto \(\{\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_n\}\) é uma base para \(V\) se, e somente se,

  1. \(\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_n\) são linearmente independentes,

  2. \(\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_n\) cobrem \(V\text{.}\)

Alternativamente, dizemos que \(\vec{v}_1,\vec{v}_2,\ldots,\vec{v}_n\) formam uma base para \(V\text{.}\)

Para verificarmos que \(\vec{i}, \vec{j}, \vec{k}\) formam uma base para \(\mathbb{R}^3\text{,}\) precisamos verificar que:
  1. esses vetores são L.I. Para isso precisamos mostrar que a única solução de

    \begin{equation*} \alpha_1\vec{i} + \alpha_2 \vec{j} + \alpha_3 \vec{k} = \vec{0} \end{equation*}

    é \(\alpha_1 = \alpha_2 = \alpha_3 =0,\) o que ocorre de fato pois

    \begin{equation*} \alpha_1\vec{i} + \alpha_2 \vec{j} + \alpha_3 \vec{k} = \begin{pmatrix} \alpha_1\\ \alpha_2 \\ \alpha_3 \end{pmatrix} = \begin{pmatrix} 0\\ 0 \\ 0 \end{pmatrix} \,\, \Leftrightarrow\,\, \begin{array}{c} \alpha_1 =0, \\ \alpha_2 = 0, \\ \alpha_3 = 0. \end{array} \end{equation*}
  2. esses vetores geram \(\mathbb{R}^3\text{.}\) Para isso precisamos mostrar que qualquer vetor \(\vec{x} = (x, y, z)^T \in \mathbb{R}^3\) pode ser escrito como uma combinação linear de \(\vec{i}, \vec{j}, \vec{k}\text{,}\) o que ocorre de fato pois

    \begin{equation*} \alpha_1\vec{i} + \alpha_2 \vec{j} + \alpha_3 \vec{k} = \begin{pmatrix} \alpha_1\\ \alpha_2 \\ \alpha_3 \end{pmatrix} = \begin{pmatrix} x\\ y \\ z \end{pmatrix} \,\, \Leftrightarrow\,\, \begin{array}{c} \alpha_1 =x \\ \alpha_2 = y \\ \alpha_3 = z \end{array} \end{equation*}
De modo que \(\{\vec{i},\vec{j},\vec{k}\}\) é uma base para \(\mathbb{R}^3\text{.}\)

Se \(\vec{u}_1, \vec{u}_2\) formam uma base para um espaço vetorial, podemos escrever cada vetor desse espaço como combinação linear dos vetores da base de uma única forma. O código a seguir plota uma base {u1, u2}, um vetor v, faz um print das coordenadas de v nessa base e ilustra o produto das coordenadas com os respectivos vetores da base (cuja soma resulta em v).

Para verificarmos que \(\vec{v}_1 = (1,-1,1)^T, \vec{v}_2 = (1,2,1)^T, \vec{v}_3 = (-1,0,1)^T\) formam uma base para \(\mathbb{R}^3\text{,}\) precisamos verificar que:
  1. esses vetores são L.I. Para isso precisamos mostrar que a única solução de

    \begin{equation*} \alpha_1\vec{v}_1 + \alpha_2 \vec{v}_2 + \alpha_3 \vec{v}_3 = \alpha_1 \begin{pmatrix} 1\\ -1 \\ 1 \end{pmatrix} + \alpha_2 \begin{pmatrix} 1\\ 2 \\ 1 \end{pmatrix} + \alpha_3 \begin{pmatrix} -1\\ 0 \\ 1 \end{pmatrix} = \vec{0} \end{equation*}

    é \(\alpha_1 = \alpha_2 = \alpha_3 =0,\) para verificarmos isso, escrevemos o sistema acima na forma matricial

    \begin{equation*} \left(\begin{array}{ccc} 1 \amp 1 \amp -1 \\ -1 \amp 2 \amp 0 \\ 1 \amp 1 \amp 1 \end{array}\right)\begin{pmatrix} \alpha_1 \\ \alpha_2 \\ \alpha_3 \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix} \end{equation*}

    e verificamos que esse sistema admite solução única pois a matriz

    \begin{equation*} A = \left(\begin{array}{ccc} 1 \amp 1 \amp -1 \\ -1 \amp 2 \amp 0 \\ 1 \amp 1 \amp 1 \end{array}\right) \end{equation*}

    tem determinante \(\det(A) = 6 \neq 0\) e é, portanto inversível.

  2. esses vetores geram \(\mathbb{R}^3\text{.}\) Para isso precisamos mostrar que qualquer vetor \(\vec{x} = (x, y, z)^T \in \mathbb{R}^3\) pode ser escrito como uma combinação linear de \(\vec{v}_1, \vec{v}_2, \vec{v}_3\text{,}\) o que ocorre de fato pois, escrevendo o sistema acima na forma matricial

    \begin{equation*} \left(\begin{array}{ccc} 1 \amp 1 \amp -1 \\ -1 \amp 2 \amp 0 \\ 1 \amp 1 \amp 1 \end{array}\right)\begin{pmatrix} \alpha_1 \\ \alpha_2 \\ \alpha_3 \end{pmatrix} = \begin{pmatrix} x\\ y \\ z \end{pmatrix}, \end{equation*}

    verificamos que esse sistema admite solução (\(\vec{\alpha} = A^{-1} \vec{x}\)) para qualquer \(\vec{x} \in \mathbb{R}^3\text{,}\) pois a matriz

    \begin{equation*} A = \left(\begin{array}{ccc} 1 \amp 1 \amp -1 \\ -1 \amp 2 \amp 0 \\ 1 \amp 1 \amp 1 \end{array}\right) \end{equation*}

    é tem determinante \(\det(A) = 6 \neq 0\) e é, portanto inversível.

De modo que \(\{\vec{v}_1,\vec{v}_2,\vec{v}_3\}\) é uma base para \(\mathbb{R}^3\text{.}\)
Para verificarmos que \(\vec{v}_1 = (\sqrt{2}/2,-\sqrt{2}/2,0)^T, \vec{v}_2 = (\sqrt{3}/3,\sqrt{3}/3,\sqrt{3}/3)^T, \vec{v}_3 = (\sqrt{6}/6,\sqrt{6}/6,-2\sqrt{6}/6)\) formam uma base para \(\mathbb{R}^3\text{,}\) observamos que a matriz
\begin{equation*} A = \left(\begin{array}{ccc} | \amp | \amp | \\ \vec{v}_1 \amp \vec{v}_2 \amp \vec{v}_3 \\ | \amp | \amp | \end{array}\right) = \left(\begin{array}{ccc} \sqrt{2}/2 \amp \sqrt{3}/3 \amp \sqrt{6}/6 \\ -\sqrt{2}/2 \amp \sqrt{3}/3 \amp \sqrt{6}/6 \\ 0 \amp \sqrt{3}/3 \amp -2\sqrt{6}/6 \end{array}\right) \end{equation*}
tem determinante \(\det(A) = 1\) e portanto é inversível, de modo que o sistema \(A\vec{\alpha} = \vec{x}\) tem solução \(\alpha = A^{-1} \vec{x}\) para qualquer \(\vec{x} \in \mathbb{R}^3\) e \(\{\vec{v}_1,\vec{v}_2,\vec{v}_3\}\) geram \(\mathbb{R}^3\text{,}\) além disso, a solução é única para qualquer \(\vec{x} \in \mathbb{R}^3\text{,}\) em particular para \(\vec{x} = \vec{0}\text{,}\) de modo que os vetores são L.I. Dessa forma, \(\{\vec{v}_1,\vec{v}_2,\vec{v}_3\}\) formam uma base para \(\mathbb{R}^3\text{.}\)
Verifique que a base do sistema anterior é formada por vetores unitários e ortogonais entre si.
Utilize o código acima para explorar o que ocorre quando os vetores \(\vec{u}_1, \vec{u}_2\) formam um ângulo pequeno entre si.

Temos então que é possível encontrar muitas (na verdade infinitas) bases para um espaço vetorial \(V\text{.}\) Os dois teoremas a seguir garantem que duas bases para um espaço vetorial têm sempre o mesmo número de vetores.

Sejam \(\vec{u}_1, \vec{u}_2, \ldots, \vec{u}_m \in V\) vetores. Cada um desses vetores pode ser escrito como combinação linear de \(\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n\text{,}\) pois estes geram \(V\text{.}\) Assim, para cada \(i =1, \ldots, m\text{,}\) existem escalares \(a_{i1}, a_{i2}, \ldots, a_{in}\) tais que
\begin{equation*} \vec{u}_i = a_{1i}\vec{v}_1+ a_{2i}\vec{v}_2+ \ldots + a_{ni} \vec{v}_n. \end{equation*}
Assim, encontrar constantes \(\alpha_1, \ldots, \alpha_m\) tais que \(\alpha_1\vec{u}_1 + \alpha_2\vec{u}_2 + \cdots \alpha_m\vec{u}_m\) é o mesmo que resolver o sistema
\begin{align*} \vec{0} =\amp\alpha_1( a_{11}\vec{v}_1+ a_{21}\vec{v}_2+ \ldots + a_{n1} \vec{v}_n) + \alpha_2(a_{12}\vec{v}_1+ a_{22}\vec{v}_2+ \ldots + a_{n2} \vec{v}_n) + \cdots \\ \amp + \alpha_m(a_{1m}\vec{v}_1+ a_{2m}\vec{v}_2+ \ldots + a_{nm} \vec{v}_n) \\ =\amp (\alpha_1 a_{11} + \alpha_2 a_{12} + \cdots + \alpha_m a_{1m})\vec{v}_1+ (\alpha_1 a_{21} + \alpha_2 a_{22} + \cdots + \alpha_m a_{2m})\vec{v}_2+ \ldots \\ \amp + (\alpha_1 a_{n1} + \alpha_2 a_{n2} + \cdots + \alpha_m a_{nm}) \vec{v}_n \end{align*}
e uma solução dessa equação é tomar cada coeficiente dos vetores \(\vec{v}_i\) iguais a zero, de modo que para mostrarmos que \(\vec{u}_1, \vec{u}_2, \ldots, \vec{u}_m\) é L.D., basta mostrar que o sistema
\begin{align*} \alpha_1 a_{11} + \alpha_2 a_{12} + \cdots + \alpha_m a_{1m} = \amp 0 \\ \alpha_1 a_{21} + \alpha_2 a_{22} + \cdots + \alpha_m a_{2m} = \amp 0 \\ \vdots \,\,\,\,\,\,\, =\amp \,\,\vdots \\ \alpha_1 a_{n1} + \alpha_2 a_{n2} + \cdots + \alpha_m a_{nm} = \amp 0 \end{align*}
admite múltiplas soluções, o que ocorre pois o sistema é homogêneo (portanto sempre tem solução) e tem mais variáveis do que equações (portanto admite infinitas soluções).
A completar.

Os teoremas acima garantem que se uma base para um espaço vetorial \(V\) tem \(n\) vetores, então qualquer outra base para \(V\) também tem \(n\) vetores. Assim, existe um número "certo" de vetores para cada base, o que nos motiva a definir a dimensão de um espaço vetorial.

Definition 6.22.

Seja \((V, E, \oplus, \odot)\) um espaço vetorial. Se \(V\) tem uma base de \(n\) vetores, dizemos que \(V\) tem dimensão \(n\text{.}\) O (sub)espaço \(\{\vec{0}\}\) é dito ter dimensão nula ou \(0\text{.}\) Em ambos os casos dizemos que \(V\) tem dimensão finita. Caso não exista um conjunto de vetores que cobre \(V\) com um número finito de elementos, dizemos que \(V\) tem dimensão infinita.

Determine uma base para os seguintes conjuntos e determine suas dimensões
  1. O conjunto das matrizes reais \(3 \times 3\) triangulares inferiores.

  2. O conjunto dos polinômios de grau 4 (ou seja, polinômios da forma \(p(x) = ax^4 + bx^3 + cx^2 + dx + e\)).

  3. O espaço nulo da matriz

    \begin{equation*} A = \left(\begin{array}{ccc} 5 \amp 1 \amp 2\\ 1 \amp 5 \amp -2\\ 2 \amp -2 \amp 2 \end{array} \right). \end{equation*}

Encontre outras 3  bases para os espaços do exercício anterior.

Se sabemos que um espaço vetorial tem dimensão \(n\) e quisermos verificar se um conjunto de \(n\) vetores é uma base, basta verificarmos uma das condições (que eles são L.I. ou que geram \(V\)), como garante o teorema a seguir.

  1. Se \(V\) tem dimensão \(n\text{,}\) então \(V\) admite uma base com \(n\) vetores (não necessariamente \(\{\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n\}\)). Então o Theorem 6.20 diz que, para qualquer vetor \(\vec{v} \neq \vec{0} \in V\text{,}\) o conjunto \(\{\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n, \vec{v}\}\) é L.D. Portanto a equação

    \begin{equation*} \alpha_1\vec{v}_1 + \alpha_2\vec{v}_2 + \cdots + \alpha_n \vec{v}_n + \alpha_{n+1} \vec{v} = \vec{0} \end{equation*}

    admite solução não nula. Nessa solução \(\alpha_{n+1} \neq 0\text{,}\) pois, caso contrário, o conjunto \(\{\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n\}\) seria L.D. Portanto

    \begin{equation*} \vec{v} = -\alpha_1/\alpha_{i+1}\vec{v}_1 - \alpha_2/\alpha_{i+1}\vec{v}_2 - \cdots - \alpha_n/\alpha_{i+1} \vec{v}_n \end{equation*}

    e \(\{\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n\}\) gera \(V\text{.}\)

  2. Seja \(\{\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n, \vec{v}\}\) um conjunto de vetores que gera \(V\text{.}\) Se este conjunto é L.D., então um dos vetores pode ser escrito como combinação dos demais. Sem perda de generalidade, digamos que seja \(\vec{v}_n\text{:}\)

    \begin{equation*} \vec{v}_n = \alpha_1\vec{v}_1 + \alpha_2\vec{v}_2 + \cdots + \alpha_{n-1} \vec{v}_{n-1}, \end{equation*}

    então \(\{\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_{n-1}\}\) também gera \(V\text{,}\) pois qualquer vetor \(\vec{v} \in V\) pode ser escrito como

    \begin{align*} \vec{v} =\amp v_1\vec{v}_1 + v_2\vec{v}_2 + \cdots + v_{n-1} \vec{v}_{n-1} + v_{n} \vec{v}_{n} \\ =(\amp v_1+v_n\alpha_1)\vec{v}_1 + (v_2+v_n\alpha_2)\vec{v}_2 + \cdots + (v_{n-1}+v_n\alpha_{n-1}) \vec{v}_{n-1}. \end{align*}

    Assim \(\{\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_{n-1}\}\) é um conjunto de geradores para \(V\) e o Theorem 6.20 implica que qualquer conjunto com \(n\) vetores é L.D. e \(V\) não tem base com \(n\) vetores, o que contradiz \(V\) ter dimensão \(n\text{.}\)

Subsection 6.4 Mudança de base

Temos a situação que existem muitas (infinitas) bases para cada espaço vetorial. Precisamos então ter uma maneira de passar vetores de uma base para outra.

Definition 6.26.

Seja \((V,E,\oplus, \odot)\) um espaço vetorial e \(\mathcal{U} = \{\vec{u}_1, \vec{u}_2, \ldots, \vec{u}_n\}\) uma base para \(V\text{.}\) A \(n\)-upla de escalares \((v_1^\mathcal{U}, v_2^\mathcal{U}, \ldots, v_n^\mathcal{U})\) tal que

\begin{equation*} \vec{v} = v_1^\mathcal{U}\vec{u}_1 + v_2^\mathcal{U}\vec{u}_2 + \ldots + v_n^\mathcal{U} \vec{u}_n \end{equation*}

é chamada de (conjunto de) coordenadas de \(\vec{v}\) na base \(\mathcal{U}\) e escrevemos

\begin{equation*} \vec{v}^\mathcal{U} = (v_1^\mathcal{U}, v_2^\mathcal{U}, \ldots, v_n^\mathcal{U})^T. \end{equation*}

Normalmente omitimos a referência à base sobrescrita quando nos referimos à base canônica.

Remark 6.27.
As coordenadas de um vetor em uma base são únicas, pois, caso existissem mais de um conjunto de coordenadas correspondente a um único vetor, obteríamos uma contradição com a independencia linear dos vetores da base. Deixamos a verificação disso ao leitor.
Considere a base \(\mathcal{U} = \{ \vec{u}_1, \vec{u}_2, \vec{u}_3 \} = \{(1,-1,1)^T, (0,1,1)^T, (2,1,-1)^T \}\) para \(\mathbb{R}^3\) (note que as coordenadas mostradas para os vetores da base \(U\) são as representações dos vetores na base canônica). O vetor \(\vec{v}^\mathcal{U} = (3, 4, -7)^T\) é, na base canônica,
\begin{equation*} \vec{v} = 3\begin{pmatrix} 1 \\ -1 \\ 1 \end{pmatrix} + 4\begin{pmatrix} 0 \\ 1 \\ 1 \end{pmatrix} -7 \begin{pmatrix} 2 \\ 1 \\ -1 \end{pmatrix} = \begin{pmatrix} -11 \\ -6 \\ 14 \end{pmatrix} \end{equation*}
note que o cálculo realizado acima pode ser escrito como um produto matricial \(U \vec{v}^\mathcal{U}\)
\begin{equation*} \vec{v} = \begin{pmatrix} 1 \amp 0 \amp 2 \\ -1 \amp 1 \amp 1 \\ 1 \amp 1 \amp -1 \end{pmatrix} \begin{pmatrix} 3 \\ 4 \\ -7 \end{pmatrix} = \begin{pmatrix} | \amp | \amp | \\ \vec{u}_1 \amp \vec{u}_2 \amp \vec{u}_3 \\ | \amp | \amp | \end{pmatrix} \vec{v}^\mathcal{U}. \end{equation*}
A matrix
\begin{equation*} U = \begin{pmatrix} 1 \amp 0 \amp 2 \\ -1 \amp 1 \amp 1 \\ 1 \amp 1 \amp -1 \end{pmatrix} \end{equation*}
é a matriz de mudança de base da base \(U\) para a base canônica.
Considere a base \(U = \{ \vec{u}_1, \vec{u}_2, \vec{u}_3 \} = \{(1,-1,1)^T, (0,1,1)^T, (2,1,-1)^T \}\) para \(\mathbb{R}^3\) e o vetor \(\vec{v} = (1, -1, 3)^T\) (na base canônica). As coordenadas de \(\vec{v}\) na base \(U\) são encontradas resolvendo o sistema
\begin{equation*} \begin{pmatrix} 1 \\ -1 \\ 3 \end{pmatrix} = v^\mathcal{U}_1\begin{pmatrix} 1 \\ -1 \\ 1 \end{pmatrix} + v^\mathcal{U}_2\begin{pmatrix} 0 \\ 1 \\ 1 \end{pmatrix} + v^\mathcal{U}_3 \begin{pmatrix} 2\\ 1 \\ -1 \end{pmatrix}= \begin{pmatrix} 1 \amp 0 \amp 2 \\ -1 \amp 1 \amp 1 \\ 1 \amp 1 \amp -1 \end{pmatrix} \begin{pmatrix} v^\mathcal{U}_1 \\ v^\mathcal{U}_2 \\ v^\mathcal{U}_3 \end{pmatrix}. \end{equation*}
Dessa forma
\begin{align*} \vec{v}^\mathcal{U} =\amp \begin{pmatrix} | \amp | \amp | \\ \vec{u}_1 \amp \vec{u}_2 \amp \vec{u}_3 \\ | \amp | \amp | \end{pmatrix}^{-1} \vec{v} = \begin{pmatrix} 1 \amp 0 \amp 2 \\ -1 \amp 1 \amp 1 \\ 1 \amp 1 \amp -1 \end{pmatrix}^{-1} \begin{pmatrix} 1 \\ -1 \\ 3 \end{pmatrix}\\ =\amp \begin{pmatrix} 1/3 \amp -1/3 \amp 1/3 \\ 0 \amp 1/2 \amp 1/2 \\ 1/3 \amp 1/6 \amp -1/6 \end{pmatrix} \begin{pmatrix} 1 \\ -1 \\ 3 \end{pmatrix} = \begin{pmatrix} 5/3 \\ 1 \\ -1/3 \end{pmatrix}. \end{align*}
A matrix
\begin{equation*} U^{-1} = \begin{pmatrix} | \amp | \amp | \\ \vec{u}_1 \amp \vec{u}_2 \amp \vec{u}_3 \\ | \amp | \amp | \end{pmatrix}^{-1} = \begin{pmatrix} 1/3 \amp -1/3 \amp 1/3 \\ 0 \amp 1/2 \amp 1/2 \\ 1/3 \amp 1/6 \amp -1/6 \end{pmatrix} \end{equation*}
é a matriz de mudança de base da base canônica para a base \(\mathcal{U}\text{.}\)

O exemplo a seguir complementa os anteriores.

Considere a base \(\mathcal{U} = \{ \vec{u}_1, \vec{u}_2, \vec{u}_3 \} = \{(1,-1,1)^T, (0,1,1)^T, (2,1,-1)^T \}\) para \(\mathbb{R}^3\) e os vetores \(\vec{e}_1, \vec{e}_2, \vec{e}_3\) da base canônica. As coordenadas de \(\vec{e}_1, \vec{e}_2, \vec{e}_3\) são
\begin{align*} \vec{e}_1^\mathcal{U} =\amp \begin{pmatrix} | \amp | \amp | \\ \vec{u}_1 \amp \vec{u}_2 \amp \vec{u}_3 \\ | \amp | \amp | \end{pmatrix}^{-1} \vec{e}_1 = \begin{pmatrix} 1/3 \amp -1/3 \amp 1/3 \\ 0 \amp 1/2 \amp 1/2 \\ 1/3 \amp 1/6 \amp -1/6 \end{pmatrix} \begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix} = \begin{pmatrix} 1/3 \\ 0 \\ 1/3 \end{pmatrix},\\ \vec{e}_2^\mathcal{U} =\amp \begin{pmatrix} | \amp | \amp | \\ \vec{u}_1 \amp \vec{u}_2 \amp \vec{u}_3 \\ | \amp | \amp | \end{pmatrix}^{-1} \vec{e}_2 = \begin{pmatrix} 1/3 \amp -1/3 \amp 1/3 \\ 0 \amp 1/2 \amp 1/2 \\ 1/3 \amp 1/6 \amp -1/6 \end{pmatrix} \begin{pmatrix} 0 \\ 1 \\ 0 \end{pmatrix} = \begin{pmatrix} -1/3 \\ 1/2 \\ 1/6 \end{pmatrix},\\ \vec{e}_3^\mathcal{U} =\amp \begin{pmatrix} | \amp | \amp | \\ \vec{u}_1 \amp \vec{u}_2 \amp \vec{u}_3 \\ | \amp | \amp | \end{pmatrix}^{-1} \vec{e}_3 = \begin{pmatrix} 1/3 \amp -1/3 \amp 1/3 \\ 0 \amp 1/2 \amp 1/2 \\ 1/3 \amp 1/6 \amp -1/6 \end{pmatrix} \begin{pmatrix} 0 \\ 0 \\ 1 \end{pmatrix} = \begin{pmatrix} 1/3 \\ 1/2 \\ -1/6 \end{pmatrix}. \end{align*}
Note que as colunas da matriz \(U^{-1}\) são as coordenadas dos vetores \(\vec{e}_1, \vec{e}_2, \vec{e}_3\) na base \(\mathcal{U}\text{.}\)
Definition 6.31.

Sejam \((V,E,\oplus, \odot)\) um espaço vetorial e \(\mathcal{U}= \{\vec{u}_1, \vec{u}_2, \ldots, \vec{u}_n\}\) e \(\mathcal{V}= \{\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n\}\) bases para \(V\text{.}\) Cada vetor da base \(\mathcal{U}\) tem coordenadas na base \(\mathcal{V}\text{,}\) \(\vec{u}_i^\mathcal{V} = (a_{1i}, a_{2i}, \ldots, a_{ni})^T\text{.}\) A matriz de mudança de base da base \(\mathcal{U}\) para a base \(\mathcal{V}\) é a matriz

\begin{equation*} A = \begin{pmatrix} | \amp | \amp \amp | \\ \vec{u}_1^\mathcal{V} \amp \vec{u}_2^\mathcal{V} \amp \cdots \amp \vec{u}_n^\mathcal{V} \\ | \amp | \amp \amp | \end{pmatrix} = \begin{pmatrix} a_{11} \amp a_{12} \amp \cdots \amp a_{1n} \\ a_{21} \amp a_{22} \amp \cdots \amp a_{2n} \\ \vdots \amp \vdots \amp \ddots \amp \vdots \\ a_{n1} \amp a_{n2} \amp \cdots \amp a_{nn} \end{pmatrix}. \end{equation*}
Sejam \((V,E,\oplus, \odot)\) um espaço vetorial e \(\mathcal{U}= \{\vec{u}_1, \vec{u}_2, \ldots, \vec{u}_n\}\) uma base para \(V\text{.}\) Quais as coordenadas de \(\vec{u}_i\) na base \(\mathcal{U}\text{.}\)
Remark 6.33.
Sejam \(\mathcal{U}= \{\vec{u}_1, \vec{u}_2, \ldots, \vec{u}_n\}\) e \(\mathcal{V}= \{\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n\}\) bases para \(\mathbb{R}^n\text{.}\) Se um vetor \(\vec{v}\) tem coordenadas \(\vec{v}^U\) e \(\vec{v}^V\) nas bases \(U\) e \(V\) nas respectivas bases e \(U\) e \(V\) são as matrizes de mudança de base das bases \(\mathcal{U}\) e \(\mathcal{V}\) para a base canônica, temos que
\begin{equation*} U\vec{v}^U = \vec{v} = V\vec{v}^V, \end{equation*}
de modo que
\begin{equation*} \vec{v}^V = V^{-1}U\vec{v}^U, \end{equation*}
ou seja, a matriz de mudança de base da base \(\mathcal{U}\) para a base \(\mathcal{V}\) é \(V^{-1}U\text{.}\)
Remark 6.34.
A matriz de mudança de base sempre é inversível, pois, caso não fosse, o sistema \(A\vec{x}=\vec{0}\) admitiria soluções não nulas, de modo que
\begin{equation*} \vec{0} = A\vec{x} = x_1 \vec{u}_1^\mathcal{V} + x_2 \vec{u}_2^\mathcal{V} + \cdots + x_n \vec{u}_n^\mathcal{V}, \end{equation*}
(a completar).
Remark 6.35.
Sejam \((V,E,\oplus, \odot)\) um espaço vetorial e \(\mathcal{U}= \{\vec{u}_1, \vec{u}_2, \ldots, \vec{u}_n\}\)\(\mathcal{V}= \{\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n\}\) bases para \(V\) e A = \((a_{ij})\) a matriz de mudança de base da base \(\mathcal{U}\) para a base \(\mathcal{V}\text{,}\) de modo que \(\vec{u}_i^{\mathcal{V}} = a_{1i}\vec{v}_1 + a_{2i} \vec{v}_2 + \cdots + a_{ni} \vec{v}_n\)
Encontre as matrizes de mudança de base da base \(\mathcal{U}\) para a base \(\mathcal{V}\) para as de \(\mathbb{R}^n\)bases a seguir:
  1. \(\mathcal{U} = \{(1,-1)^T, (3,-2)^T\}\text{,}\) \(\mathcal{V} =\{(5,2)^T, (-1,3)^T \}\)

  2. \(\mathcal{U} = \{(1,-1,1)^T, (1,-2,1)^T, (2,-1,-1)^T \}\text{,}\) \(\mathcal{V} = \mathcal{E} =\{\vec{i},\vec{j},\vec{k} \}\)

  3. \(\mathcal{U} = \mathcal{E} =\{\vec{i},\vec{j},\vec{k} \}\text{,}\) \(\mathcal{V} = \{(1,-1,1)^T, (1,-2,1)^T, (2,-1,-1)^T \}\)

  4. \(\mathcal{U} = \{(1,-1,1, -1)^T, (1,1,-1, -1)^T, (0,1,1, 0)^T, (1,0,0, 1)^T \}\text{,}\) \(\mathcal{V} = \{(-1,1,1, 1)^T, (1,1,1, -1)^T, (0,1,-1, 0)^T, (1,0,0, 1)^T \}\)

utilize o código a seguir para verificar as respostas obtidas no exercício anterior.

Subsection 6.5 Espaço Linha e Espaço Coluna

Definition 6.37.

Seja \(A\) uma matriz \(m \times n\text{.}\) O subespaço de \(\mathbb{R}^{1 \times n}\) coberto pelos vetores linha de \(A\) é chamado de de espaço linha de \(A\text{.}\) O subespaço de \(\mathbb{R}^m\) coberto pelos vetores coluna de \(A\) é chamado de espaço coluna de \(A\text{.}\)

Para a matriz
\begin{equation*} A = \begin{pmatrix} 1 \amp 0 \amp 0 \\ 0 \amp 1 \amp 0\end{pmatrix}\text{,} \end{equation*}
o espaço linha é formado pelas triplas da forma:
\begin{equation*} \alpha_1 (1, 0, 0) + \alpha_2 (0, 1, 0) = (\alpha_1, \alpha_2, 0)\text{,} \end{equation*}
ou seja, é igual ao \(Span((1, 0, 0),(0, 1, 0))\text{.}\) O espaço coluna é formado pelos vetores da forma:
\begin{equation*} \alpha_1 \begin{pmatrix} 1 \\ 0 \end{pmatrix} + \alpha_2 \begin{pmatrix} 0 \\ 1 \end{pmatrix} = \begin{pmatrix} \alpha_1 \\ \alpha_2 \end{pmatrix}\text{,} \end{equation*}
ou seja, é igual ao \(Span\left(\begin{pmatrix} 1 \\ 0 \end{pmatrix}, \begin{pmatrix} 0 \\ 1 \end{pmatrix} \right)\text{.}\)
Para a matriz
\begin{equation*} A = \begin{pmatrix} 1 \amp 1 \amp 1 \amp 0\\ 1 \amp 0 \amp -1 \amp 1\\ 1 \amp 1 \amp 1 \amp 0\\ 1 \amp 0 \amp -1 \amp 1\end{pmatrix}\text{,} \end{equation*}
temos que há duas linhas que são iguais as outras duas e o espaço linha é formado pelas quadruplas da forma:
\begin{equation*} \alpha_1 (1, 1, 1, 0) + \alpha_2 (1, 0, -1, 1) = (\alpha_1 + \alpha_2, \alpha_1, \alpha_1 - \alpha_2, \alpha_@)\text{,} \end{equation*}
ou seja, é igual ao \(Span((1, 1, 1, 0),(1, 0, -1, 1))\text{.}\) Denotando \(\vec{a}_1,\vec{a}_2,\vec{a}_3,\vec{a}_4\) para as colunas de \(A\text{,}\) observamos que \(\vec{a}_3 = -\vec{a}_1 + 2 \vec{a}_2\) e \(\vec{a}_4 = \vec{a}_1 - \vec{a}_2\) e o espaço coluna é formado pelos vetores da forma:
\begin{equation*} \alpha_1 \begin{pmatrix} 1 \\ 1 \\ 1 \\ 1 \end{pmatrix} + \alpha_2 \begin{pmatrix} 1 \\ 0 \\ 1 \\ 0 \end{pmatrix} = \begin{pmatrix} \alpha_1 + \alpha_2 \\ \alpha_1 \\ \alpha_1 + \alpha_2 \\ \alpha_1 \end{pmatrix}\text{,} \end{equation*}
ou seja, é igual ao \(Span\left(\begin{pmatrix} 1 \\ 1 \\ 1 \\ 1 \end{pmatrix}, \begin{pmatrix} 1 \\ 0 \\ 1 \\ 0 \end{pmatrix} \right)\text{.}\)
A completar.
Definition 6.41.

O posto (rank em inglês) de uma matriz \(A\text{,}\) denotado \(\mbox{posto}(A)\) ou \(\mbox{rank}(A)\text{,}\) é a dimensão do espaço linha 4  de \(A\text{.}\)

ou do espaço coluna, pois, ambas são iguais
Remark 6.42.
O posto de uma matriz \(A\) é igual ao número de linhas não nulas na sua forma escalonada e as linhas não nulas da forma escalonada formam uma base para o espaço linha de \(A\text{.}\)
A completar.
Remark 6.44.
As colunas da matriz \(A\) na forma escalonada não formam uma base para o espaço coluna de\(A\text{,}\) apesar de terem a mesma dimensão. Todavia os pivôs da matriz escalonada indicam as colunas que formam uma base para o espaço coluna de \(A\text{.}\)
Remark 6.45.
O espaço linha de \(A\) é igual ao espaço coluna de \(A^T\) (se transpormos os vetores).
Determine o posto da matriz
\begin{equation*} A = \begin{pmatrix} 1 \amp 1 \amp 1 \amp 0 \amp 1\\ 1 \amp 1 \amp -1 \amp 1 \amp 2\\ 1 \amp 1 \amp 1 \amp 0 \amp -2\\ 1 \amp 1 \amp -1 \amp 1 \amp 2\end{pmatrix} \end{equation*}
e bases para seu espaço linha e espaço coluna.
Determine o posto da matriz
\begin{equation*} A = \begin{pmatrix} 1 \amp 1 \amp 1 \amp 0 \amp 1\\ 1 \amp -1 \amp -1 \amp 1 \amp 2\\ 1 \amp 1 \amp 1 \amp 2 \amp -2\\ 1 \amp -1 \amp -1 \amp 1 \amp 2\end{pmatrix} \end{equation*}
e bases para seu espaço linha e espaço coluna.

O código abaixo permite colocar uma matriz na forma escalonada.

Remark 6.48.
Um sistema linear \(A\vec{x} = \vec{b}\) tem solução se, e somente se, \(\vec{b}\) está no espaço coluna de \(A\text{.}\)
Definition 6.49.

A nulidade de uma matriz \(A\text{,}\) denotado \(\mbox{nul}(A)\text{,}\) é a dimensão do seu espaço nulo.

A completar.