Ao tomarmos uma base para um espaço vetorial, buscamos, com frequência, uma base formada por vetores ortogonais (perpendiculares) entre si ou temos apenas alguns vetores e desejamos adicionar outros vetores para "completar" a base. Nessa seção construíremos os conceitos e teoremas necessários para fazer isso em \(\mathbb{R}^n\text{.}\)
Subsection 7.1 Produto Interno (ou escalar) em \(\mathbb{R}^n\)
Definition 7.1.
Dados \(\vec{x}, \vec{y} \in \mathbb{R}^n\text{,}\) \(\vec{x}=(x_1, x_2, \ldots, x_n)\text{,}\) \(\vec{y}=(y_1, y_2, \ldots, y_n)\text{,}\) definimos o produto interno (ou produto escalar) de \(\vec{x}\) e \(\vec{y}\) como
\begin{equation*}
\langle \vec{x}, \vec{y}\rangle = x_1y_1+x_2y_2 + \cdots +x_ny_n.
\end{equation*}
O produto interno também é denotado por \(\vec{x} \cdot \vec{y}\) ou \(\vec{x}^T \vec{y}\text{.}\)
Example 7.2.
Dados \(\vec{x} = (2, -1, 4)^T \) e \(\vec{y} = (3, 2, -1)^T \text{,}\)
\begin{equation*}
\langle \vec{x}, \vec{y}\rangle = 6 -2 -4 = 0\text{.}
\end{equation*}
Example 7.3.
Dados \(\vec{x} = (3, -1, 2)^T \) e \(\vec{y} = (1, 2, 6)^T \text{,}\)
\begin{equation*}
\vec{x} \cdot \vec{y} = 3 -2 +12 = 13\text{.}
\end{equation*}
Example 7.4.
Dados \(\vec{x} = (1, -1, 2)^T \) e \(\vec{y} = (-1, 3, 3)^T \text{,}\)
\begin{equation*}
\vec{x}^T\vec{y} = (1, -1, 2)\begin{pmatrix} -1\\ 3\\ 3\end{pmatrix} = -1-3+6 = 2\text{.}
\end{equation*}
Theorem 7.5. Propriedades do produto interno.
Se \(\vec{x}, \vec{y}, \vec{z} \in \mathbb{R}^n\) e \(\alpha\) é um escalar, então
\(\displaystyle \vec{x} \cdot \vec{y} = \vec{y} \cdot \vec{x}\)
\(\alpha(\vec{x} \cdot \vec{y}) = (\alpha\vec{x}) \cdot \vec{y} = \vec{x} \cdot (\alpha\vec{y})\text{.}\)
\(\displaystyle \vec{x} \cdot (\vec{y}+\vec{z}) = \vec{x} \cdot \vec{y} + \vec{x} \cdot \vec{z}\)
Proof.
Definition 7.6.
O comprimento (euclidiano) (ou norma) de um vetor \(\vec{x}\in \mathbb{R}^n\) é
\begin{equation*}
\| \vec{x}\| = \sqrt{\vec{x} \cdot \vec{x}} = \sqrt{x_1^2+x_2^2 + \cdots +x_n^2}.
\end{equation*}
Em particular a distância entre os pontos finais de dois vetores \(\vec{x} \mbox{ e } \vec{y} \in \mathbb{R}^n\) é igual a \(\|\vec{x} - \vec{y}\| = \|\vec{y} - \vec{x}\|\text{.}\)
Example 7.7.
Dados \(\vec{x} = (3, 4)^T \) e \(\vec{y} = (-1, 7)^T \text{,}\)
\begin{equation*}
\|\vec{x} - \vec{y}\| = \sqrt{4^2+3^2} = \sqrt{25} = 5 \text{.}
\end{equation*}
Theorem 7.8.
Se \(\vec{x}, \vec{y} \in \mathbb{R}^n\text{,}\) \(n =2\,\, \mbox{ ou }\,\, 3\) são vetores não nulos e \(\theta\) é o ângulo entre eles, então
\begin{equation*}
\vec{x}\cdot \vec{y} = \|\vec{x}\| \|\vec{y}\| \cos \theta.
\end{equation*}
Proof.
Pela Lei dos cossenos
\begin{equation*}
\|\vec{x} - \vec{y}\|^2 = \|\vec{x}\|^2 + \|\vec{y}\|^2 - 2\|\vec{x}\| \|\vec{y}\| \cos \theta.
\end{equation*}
Por outro lado,
\begin{align*}
\|\vec{x} - \vec{y}\|^2 =\amp \langle \vec{x} - \vec{y}, \vec{x} - \vec{y}\rangle\\
=\amp \langle \vec{x}, \vec{x} \rangle + \langle \vec{y}, \vec{y}\rangle -\langle \vec{x}, \vec{y}\rangle -\langle \vec{y}, \vec{x}\rangle \\
=\amp \|\vec{x}\|^2 + \|\vec{y}\|^2 -2 \langle \vec{x}, \vec{y}\rangle.
\end{align*}
Como as expressões são iguais à \(\|\vec{x} - \vec{y}\|^2\text{,}\) elas são iguais entre si e
\begin{align*}
\|\vec{x}\|^2 + \|\vec{y}\|^2 -\amp 2\|\vec{x}\| \|\vec{y}\| \cos \theta = \|\vec{x}\|^2 + \|\vec{y}\|^2 -2 \langle \vec{x}, \vec{y}\rangle\\
\amp \Leftrightarrow \|\vec{x}\| \|\vec{y}\| \cos \theta = \langle \vec{x}, \vec{y}\rangle
\end{align*}
Podemos utilizar o teorema acima como um método para definir o ângulo entre dois vetores para \(\mathbb{R}^n\text{,}\) \(n\) qualquer.
Example 7.10.
O ângulo entre os vetores
\begin{equation*}
\vec{x} = \begin{pmatrix} -1\\ 3\\ 3\end{pmatrix}, \,\,\, \vec{y} = \begin{pmatrix} 2\\ -1\\ 2\end{pmatrix}
\end{equation*}
e seus vetores unitários é...
Subsection 7.2 Projeções escalares e vetoriais
A projeção vetorial de um vetor \(\vec{x} \neq \vec{0}\) na direção do vetor \(\vec{y} \neq \vec{0}\) é um vetor \(\vec{p}\text{,}\) múltiplo de \(\vec{y}\) tal que \((\vec{x}-\vec{p}) \perp \vec{y}.\text{.}\)
Dados vetores \(\vec{x}, \vec{y} \in \mathbb{R}^n\text{,}\) queremos escrever
\begin{equation*}
\vec{x} = \alpha \vec{u} +\vec{z}, \,\,\, \vec{u} = \frac{1}{\|\vec{y}\|}\vec{y}, \,\,\, \vec{p} = \alpha \vec{u},
\end{equation*}
com \(\vec{z} \perp \vec{y}\text{.}\) Ou seja, vamos decompor \(\vec{x}\) na soma de um vetor na direção de \(\vec{y}\) com um vetor perpendicular a \(\vec{y}\text{.}\)
Note que \(\alpha = \| \vec{p} \| = \|\vec{x}\|\cos \theta \text{,}\) mas \(\cos \theta = \vec{x}^T\vec{y}/(\|\vec{x}\|\|\vec{y}\|)\)
\begin{align*}
\Longrightarrow \amp \alpha = \|\vec{x}\|\frac{\vec{x}^T\vec{y}}{\|\vec{x}\|\|\vec{y}\|} =\frac{\vec{x}^T\vec{y}}{\|\vec{y}\|}\\
\Longrightarrow \amp p = \alpha \vec{u} = \alpha \frac{\vec{y}}{\|\vec{y}\|} = \frac{\vec{x}^T\vec{y}}{\|\vec{y}\|^2}\vec{y}.
\end{align*}
\(\alpha\) é a projeção escalar de \(\vec{x}\) sobre \(\vec{y}\text{.}\)
\(\mbox{proj}_{\vec{y}}\vec{x} = \vec{p}\) é a projeção vetorial de \(\vec{x}\) sobre \(\vec{y}\text{.}\)
Checkpoint 7.11.
Encontre as projeções escalares e vetoriais dos vetores \(\vec{x}\) e \(\vec{y}\) na direção do vetor \(\vec{z}\) para
\begin{equation*}
\vec{x} = \begin{pmatrix} 1 \\ -1 \\ 2\end{pmatrix}, \,\,\, \vec{y} = \begin{pmatrix} 2 \\ 1 \\ 0\end{pmatrix}, \,\,\, \vec{z} = \begin{pmatrix} 3 \\ -1 \\-2\end{pmatrix}.
\end{equation*}
Subsection 7.3 Conjuntos ortogonais e ortogonalização de Gram-Schmidt
Definition 7.12.
Sejam \(\{\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n\}\) um conjunto de vetores em um espaço vetorial \(V\) munido com produto interno. Se \(\langle \vec{v}_i, \vec{v}_j \rangle = 0\) sempre que \(i \neq j\text{,}\) então o conjunto é dito ortogonal. Além disso, se \(\langle \vec{v}_i, \vec{v}_i \rangle = 1\) para todo \(i = 1, \ldots, n\text{,}\) o conjunto é dito ortonormal.
Example 7.13.
O conjunto formado pelos pelos vetores
\begin{equation*}
\vec{v}_1 = \begin{pmatrix} 1 \\ 1 \\1 \end{pmatrix}, \,\,\vec{v}_2 = \begin{pmatrix} -1 \\ 0 \\1 \end{pmatrix}, \,\,\vec{v}_3 = \begin{pmatrix} 1 \\ -2 \\1 \end{pmatrix},
\end{equation*}
é ortogonal pois \(\langle \vec{v}_1, \vec{v}_2\rangle =-1+1 = 0 \text{,}\) \(\langle \vec{v}_1, \vec{v}_3\rangle = 1-2+1=0\) e \(\langle \vec{v}_2, \vec{v}_3\rangle = -1 +1 = 0\text{.}\) Todavia, o conjunto não é ortonormal pois \(\langle \vec{v}_1, \vec{v}_1\rangle =1+1+1 = 3 \text{.}\) Podemos obter um conjunto ortonormal a partir de um conjunto ortogonal, se dividirmos cada um dos vetores por sua norma. Assim, é ortonormal o conjunto formado pelos vetores:
\begin{equation*}
\vec{u}_1 = \begin{pmatrix} 1/\sqrt{3} \\ 1/\sqrt{3} \\1/\sqrt{3} \end{pmatrix}, \,\,\vec{u}_2 = \begin{pmatrix} -1/\sqrt{2} \\ 0 \\ 1/\sqrt{2} \end{pmatrix}, \,\,\vec{u}_3 = \begin{pmatrix} 1/\sqrt{6} \\ -2/\sqrt{6} \\1/\sqrt{6} \end{pmatrix}.
\end{equation*}
Theorem 7.14.
Se \(\{\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n\}\) é um conjunto ortogonal de vetores não nulos em um espaço vetorial \(V\) com produto interno, então \(\{\vec{v}_1, \vec{v}_2, \ldots, \vec{v}_n\}\) é Linearmente Independente.Proof.
\begin{align*}
\amp \alpha_1\vec{v}_1 + \alpha_2 \vec{v}_2 + \cdots + \alpha_n\vec{v}_n = \vec{0}\\
\Longrightarrow \amp \langle \alpha_1\vec{v}_1 + \alpha_2 \vec{v}_2 + \cdots + \alpha_n\vec{v}_n, \vec{v}_i\rangle = \langle \vec{0}, \vec{v}_i\rangle =0\\
\Longrightarrow \amp 0 = \langle \alpha_1\vec{v}_1 , \vec{v}_i\rangle + \langle\alpha_2 \vec{v}_2, \vec{v}_i\rangle + \cdots + \langle\alpha_n\vec{v}_n, \vec{v}_i\rangle = \alpha_i \| \vec{v}_i\|^2\\
\Longrightarrow \amp \alpha_i =0.
\end{align*}
Isso vale para qualquer \(i = 1, \ldots, n\text{,}\) de modo que a única solução de \(\alpha_1\vec{v}_1 + \alpha_2 \vec{v}_2 + \cdots + \alpha_n\vec{v}_n = \vec{0}\) é \(\alpha_1=\alpha_2= \cdots = \alpha_n = 0\text{.}\)
Theorem 7.15.
Seja \(\{\vec{u}_1, \vec{u}_2, \ldots, \vec{u}_n\}\) é uma base ortonormal para um espaço vetorial \(V\) com produto interno. Se \(\vec{v} = \sum v_i \vec{u}_i\text{,}\) então \(v_i = \langle \vec{v}, \vec{u}_i \rangle\text{.}\)Proof.
\begin{equation*}
\langle \vec{v}, \vec{u}_i\rangle = \sum v_i\rangle \vec{u}_i, \vec{u}_i \rangle = v_i.
\end{equation*}
O Theorem 7.15 pode ser utilizado como um método para calcular as coordenadas de um vetor em uma base ortonormal de um espaço vetorial com produto interno.
Checkpoint 7.16.
Calcule as coordenadas do vetor \(\vec{v} = (2, 3, -4)^T\) na base formada pelos vetores
\begin{equation*}
\vec{u}_1 = \begin{pmatrix} 1/\sqrt{3} \\ 1/\sqrt{3} \\1/\sqrt{3} \end{pmatrix}, \,\,\vec{u}_2 = \begin{pmatrix} -1/\sqrt{2} \\ 0 \\ 1/\sqrt{2} \end{pmatrix}, \,\,\vec{u}_3 = \begin{pmatrix} 1/\sqrt{6} \\ -2/\sqrt{6} \\1/\sqrt{6} \end{pmatrix}.
\end{equation*}
Suponha que temos dois vetores \(\vec{x}_1, \vec{x}_2 \in \mathbb{R}^2\) L.I. e buscamos uma base ortonormal \(\vec{u}_1, \vec{u}_2\) que contenha um vetor na direção de \(\vec{x}_1\text{.}\) Podemos fazer isso do através dos seguintes vetores:
\(\vec{u}_1 = \vec{x}_1/(\|\vec{x}_1\|)\text{,}\)
\(\vec{p}_1 = \mbox{proj}_{\vec{u}_1}\vec{x}_2 = \langle \vec{x}_2, \vec{u}_1 \rangle \vec{u}_1 \text{,}\)
\(\vec{u}_2 = (\vec{x}_2 - \vec{p}_1)/(\|\vec{x}_2 - \vec{p}_1\|)\text{.}\)
Note que a base obtida pelo processo acima é, de fato, ortonormal, pois \(\|\vec{u}_1\| = \|\vec{u}_2\| = 1\) e
\begin{align*}
\langle \vec{u}_1, \vec{u}_2 \rangle =\amp \left\lt \vec{u}_1, \frac{\vec{x}_2 - \vec{p}_1}{\|\vec{x}_2 - \vec{p}_1\|} \right\gt = \frac{1}{\|\vec{x}_2 - \vec{p}_1\|} (\langle \vec{u}_1, \vec{x}_2 \rangle - \langle \vec{u}_1, \vec{p}_1\rangle) \\
=\amp \frac{1}{\|\vec{x}_2 - \vec{p}_1\|} (\langle \vec{u}_1, \vec{x}_2 \rangle - \langle \vec{u}_1, \langle \vec{x}_2, \vec{u}_1 \rangle \vec{u}_1\rangle) = 0.
\end{align*}
Suponha, agora, que temos três vetores \(\vec{x}_1, \vec{x}_2, \vec{x}_3 \in \mathbb{R}^3\) L.I. e buscamos uma base ortonormal \(\vec{u}_1, \vec{u}_2, \vec{u}_3\) que contenha um vetor na direção de \(\vec{x}_1\text{.}\) Podemos fazer isso do através dos seguintes vetores:
\(\vec{u}_1 = \vec{x}_1/(\|\vec{x}_1\|)\text{,}\)
\(\vec{p}_1 = \mbox{proj}_{\vec{u}_1}\vec{x}_2 = \langle \vec{x}_2, \vec{u}_1 \rangle \vec{u}_1 \text{,}\)
\(\vec{u}_2 = (\vec{x}_2 - \vec{p}_1)/(\|\vec{x}_2 - \vec{p}_1\|)\text{,}\)
\(\vec{p}_2 = \mbox{proj}_{\vec{u}_1}\vec{x}_3 + \mbox{proj}_{\vec{u}_2}\vec{x}_3 = \langle \vec{x}_3, \vec{u}_1 \rangle \vec{u}_1 + \langle \vec{x}_3, \vec{u}_2 \rangle \vec{u}_2 \text{,}\)
\(\vec{u}_3 = (\vec{x}_3 - \vec{p}_2)/(\|\vec{x}_3 - \vec{p}_2\|)\text{.}\)
Checkpoint 7.17.
Utilize o processo descrito acima para encontrar uma base para \(\mathbb{R}^3\) a partir de \(\vec{x}_1 = (1, -2, 3)^T\text{,}\) \(\vec{x}_2 = (1, -2, -1)^T\text{,}\) \(\vec{x}_3 = (-1, -2, 1)^T\text{.}\)
Processo de ortogonalização de Gram-Schmidt.
Definimos agora o processo de ortogonalização de Gram-Schmidt em geral.
Seja \(\{\vec{x}_1, \vec{x}_2, \ldots, \vec{x}_n\}\) uma base para um espaço com produto interno \(V\text{.}\) Obtemos uma base ortonormal para \(V\) definindo:
\begin{equation*}
\vec{u}_1 = \frac{\vec{x}_1}{\|\vec{x}_1\|}
\end{equation*}
e definindo \(\vec{u}_2, \ldots, \vec{u}_n\) recursivamente por
\begin{equation*}
\vec{p}_{k} = \langle \vec{x}_{k+1}, \vec{u}_{1} \rangle \vec{u}_{1} + \langle \vec{x}_{k+1}, \vec{u}_{2} \rangle \vec{u}_{2} + \cdots + \langle \vec{x}_{k+1}, \vec{u}_{k} \rangle \vec{u}_{k},
\end{equation*}
\begin{equation*}
\vec{u}_{k+1}= \frac{\vec{x}_{k+1} - \vec{p}_{k}}{\| \vec{x}_{k+1} - \vec{p}_{k} \|}
\end{equation*}
Checkpoint 7.18.
Encontre uma base ortonormal para o espaço coluna de
\begin{equation*}
A = \begin{pmatrix}
1 \amp 1 \amp 5 \amp 1 \\
-1 \amp -2 \amp -8 \amp 0 \\
0 \amp 0 \amp 0 \amp 1 \\
0 \amp 1 \amp 3 \amp 1
\end{pmatrix}
\end{equation*}