con el uso de matlab autores omar saldarriaga...

233
´ ALGEBRA LINEAL CON EL USO DE MATLAB AUTORES Omar Saldarriaga Ph.D., State University of New York at Binghamton Profesor Asociado Instituto de Matem´ aticas Universidad de Antioquia Hern´ an Giraldo Ph.D., Universidad de S˜ao Paulo Profesor Asociado Instituto de Matem´ aticas Universidad de Antioquia

Upload: lykhanh

Post on 06-Feb-2018

212 views

Category:

Documents


0 download

TRANSCRIPT

ALGEBRA LINEAL

CON EL USO DE MATLAB

AUTORES

Omar SaldarriagaPh.D., State University of New York at Binghamton

Profesor AsociadoInstituto de MatematicasUniversidad de Antioquia

Hernan GiraldoPh.D., Universidad de Sao Paulo

Profesor AsociadoInstituto de MatematicasUniversidad de Antioquia

ii

c© Copyright by Omar Saldarriaga, 2010.All rights reserved.

Indice general

1. Algebra de matrices 3

1.1. Sistemas de Ecuaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

1.2. Operaciones con Matrices y Vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

1.3. Inversa de una Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

1.4. Matrices Elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

1.5. Inversas Laterales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

2. Espacios Vectoriales 45

2.1. Definicion y Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

2.2. Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

2.3. Independencia Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

2.4. Conjuntos generadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62

2.5. Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

2.6. Subespacio generado por un conjunto de vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . 69

2.7. Subespacios fundamentales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71

2.8. Subespacio generado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78

2.9. El Teorema de la base incompleta en Rm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81

3. Transformaciones Lineales 85

3.1. Definicion y Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85

3.2. Transformaciones Lineales Inyectivas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90

3.3. Transformaciones Lineales Sobreyectivas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93

3.4. Isomorfismos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96

3.5. Espacios Vectoriales Arbitrarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101

3.5.1. Transformaciones lineales entre espacios vectoriales arbitrarios. . . . . . . . . . . . . . . . 103

3.6. Propiedades de los Espacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110

3.7. Suma Directa de Espacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114

iii

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 1

4. Ortogonalidad en Rn 119

4.1. Producto interno en Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119

4.2. Proyeccion Ortogonal sobre un Vector . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127

4.2.1. La matriz proyeccion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128

4.3. Proyeccion Ortogonal sobre un Subespacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130

4.4. Mınimos Cuadrados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137

4.5. El Proceso Gramm-Schmidt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142

4.6. La Factorizacion QR de una Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152

5. Determinantes 157

5.1. Definicion y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157

5.2. Determinantes y operaciones elementales de fila . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164

5.3. Propiedades del determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172

5.4. Matriz Adjunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174

5.5. La Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177

5.6. Interpretacion Geometrica del Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179

6. Valores y Vectores Propios 187

6.1. Polinomio Caracterıstico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187

6.2. Matrices Similares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198

6.3. Cambio de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201

6.3.1. La matriz de una transformacion con respecto a dos bases . . . . . . . . . . . . . . . . . . 207

6.4. Diagonalizacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213

6.5. Matrices Simetricas y Diagonalizacion Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . 217

6.6. Formas Cuadraticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219

6.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222

7. Aplicaciones 225

7.1. Potencia de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225

7.1.1. Relaciones de recurrencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226

7.1.2. Cadenas de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227

7.2. Exponencial de una matriz diagonalizable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228

7.2.1. Sistemas Lineales de Ecuaciones diferenciales . . . . . . . . . . . . . . . . . . . . . . . . . 229

2

Capıtulo 1

Algebra de matrices

En este capıtulo veremos ... Las letras m,n, i, j y k denotaran numeros enteros positivos y denotaremos por

R el conjunto de los numeros reales ... mın{m,n} es el menor numero entre m y n... el conjunto de matrices de

tamano m× n sera denotado por Mmn(R) y por Mn(R) cuando m = n. El conjunto vacıo ??

1.1. Sistemas de Ecuaciones Lineales

Comenzamos esta seccion ilustrando un ejemplo del tema central del capıtulo, el cual es la solucion de

sistemas de ecuaciones lineales, y usaremos este ejemplo para introducir el metodo de solucion conocido como

reduccion Gauss-Jordan en matrices.

Consideremos el siguiente sistema de dos ecuaciones en dos incognitas:

x+ 3y = 4 (1.1)

4x+ 6y = 10 (1.2)

Existen varios metodos para resolver este sistema, por la similitud con el metodo que expondremos en esta

seccion destacamos el de eliminacion.

Este metodo usa dos operaciones basicas para llevar a la solucion de un sistema lineal las cuales son:

1. Sumar un multiplo de una ecuacion a otra ecuacion con el objetivo de eliminar una de las variables, por

ejemplo la operacion

-4 Ecuacion(1.1) + Ecuacion(1.2)

elimina la variable x y produce la ecuacion −6y = −6.

2. Multiplicar una ecuacion por una constante no cero con el objetivo de simplicarla, por ejemplo si multi-

plicamos la nueva ecuacion −6y = −6 por − 16 obtenemos y = 1.

3

4

3. Si multiplicamos esta ultima ecuacion (y = 1) por -3 y se la sumamos a la Ecuacion (1.1), obtenemos

x = 1. Finalmente la solucion al sistema esta dada por los valores: x = 1 y y = 1.

Los metodos que veremos en este libro son:

1. El metodo de reduccion Gauss-Jordan, el cual veremos en esta seccion.

2. El metodo de multiplicacion por la matriz inversa, este metodo solo funciona en algunos casos, ver Teorema

1.12 en la Seccion 1.3.

3. El metodo de multiplicacion por la inversa a la izquierda de la matriz, este metodo solo funciona en algunos

casos, ver Seccion 1.5

4. La regla de Cramer, ver Seccion 5.5.

Retomando las soluciones para un sistema, vale la pena notar que si tenemos un sistema de dos ecuaciones

lineales en dos incognitas, hay tres posibles respuestas y estas son:

1. El sistema tiene solucion unica (como en el ejemplo ilustrado anteriormente).

2. El sistema no tiene solucion (o solucion vacıa), caso en el cual, decimos que es inconsistente.

3. El sistema tiene infinitas soluciones, caso en el cual decimos que el sistema es redundante.

Cuando se tiene una ecuacion lineal en dos variables, esta representa una lınea recta en el plano, las tres

posibles soluciones descritas corresponden a las diferentes posibilidades geometricas las cuales son: las rectas se

intersectan (solucion unica), las rectas son paralelas (solucion vacıa) o las rectas coinciden (infinitas soluciones).

Estas se ilustran en la Figura 1.1.

Cuando tratamos de resolver un sistema 3×3, de tres ecuaciones en tres incognitas, tambien podemos obtener,

al igual que en el caso anterior (caso 2×2), tres posibles respuestas: solucion unica, solucion vacıa o infinitas

soluciones. En este caso, una ecuacion en tres variables representa un plano en el espacio, las posibilidades

geometricas se muestran en las Figuras 1.1 y 1.1. Sin embargo, a diferencia del caso 2×2, la solucion vacıa no

se obtiene exclusivamente en el caso de que los planos sean paralelos como se observa en la Figura 1.1. Tambien

se puede ver en la Figura 1.1 que hay diferentes casos que conducen a infinitas soluciones y no solo cuando los

planos coinciden.

Uno de los objetivos de la seccion es mostrar que aun en dimensiones mayores se presentan exactamente las

mismas tres posibilidades. El caso general lo resolveremos usando matrices, asociaremos a cada sistema lineal

una de estas y aplicaremos operaciones elementales de fila para resolver el sistema. Las operaciones elementales

de fila sobre matrices son simplemente operaciones equivalentes a las mencionadas en el metodo de eliminacion

al principio de la seccion.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 5

Definicion 1.1. Una matriz real es un arreglo rectangular de numeros reales en m filas y n columnas

a11 · · · a1n...

. . ....

am1 · · · amn

;

donde aij es un numero real para i = 1, . . . ,m y j = 1, . . . , n. A esta matriz se le llama una matriz de tamano

m× n.

En esta seccion se esta interesado en operaciondes de fila de una matriz, ası en esta seccion se donotara la

i-esima fila de una matriz A por Fi. Ademas, de ahora en adelante el conjunto de matrices de tamano m × n

sera denotado por Mmn(R) y por Mn(R) cuando m = n.

Ejemplo 1.1. (MatLab) A =

1 −12 0

es una matriz de tamano 2×2. Esta matriz la definimos en MatLab

de la siguiente forma:

>> A = [1,−1; 2, 0]y MatLab guardarıa la matriz como el arreglo rectangular

A =

1 −12 0

En general, para definir matrices en MatLab se escriben las entradas entre corchetes, escribiendo las entradas

de las filas separadas con coma y separando las filas con punto y coma.

A un sistema lineal de m ecuaciones con n incognitas,

a11x1 + · · ·+ a1nxn = b1...

am1x1 + · · ·+ amnxn = bm,

se le asocia la matriz de tamano m× (n+ 1)

a11 · · · a1n b1...

. . ....

...

amn · · · a1n bm

llamada la matriz de coeficientes o matriz asociada. Cada fila de esta matriz tiene los coeficientes de cada

una de las ecuaciones incluyendo el termino constante al final de la misma y cada columna esta asociada a una

incognita excepto la ultima columna que contiene los terminos independientes.

Ejemplo 1.2. Al sistema linealx+ 2y = 3

4x+ 5y = 6le corresponde la matriz de coeficientes

1 2 3

4 5 6

.

Las operaciones descritas al principio de la seccion que se realizan sobre las ecuaciones de un sistema lineal en

el metodo de eliminacon se traducen en operaciones de fila sobre matrices, llamadas operaciones elementales de

fila, las cuales describimos a continuacion.

6

Definicion 1.2. Sea A una matriz de tamano m × n, una operacion elemental de fila sobre A es una de

las siguientes operaciones:

1. Multiplicar una fila por una constante no cero. Se usara la notacion cFi → Fi para indicar que se multiplica

la fila i por la constante c.

2. Sumar un multiplo de una fila a otra fila. Se usara la notacion cFi +Fj → Fj para indicar que se le suma

c veces la fila i a la fila j.

En estos dos pasos, la fila que aparece despues de la flecha es la fila que se debe modificar o simplemente,

a la que se le debe aplicar la operacion.

3. Intercambiar dos filas. Se usara la notacion Fi ↔ Fj para indicar que se debe intecambiar la fila i con la

fila j.

Ejemplo 1.3. Al principio de la seccion resolvimos el sistema de ecuacionesx+ 3y = 4

4x+ 6y = 10aplicando las opera-

ciones

1. -4 Ecuacion 1.1 mas Ecuacion 1.2, de la cual obtenemos la ecuacion −6y = −6,2. multiplicamos esta ultima ecuacion por − 1

6 , obteniendo y = 1,

3. finalmente de, -3 ecuacion (y = 1) mas Ecuacion 1.1, obtenemos x = 1.

Como en la matriz asociada a un sistema lineal las ecuaciones se representan en filas, estas operaciones se

traducen en operaciones de fila, de hecho, la primera operacion se traduce en la operacion de fila −4F1 +F2, la

segunda en −16 F2 y la tercera en −3F2 + F1. Al aplicar estas operaciones obtenemos

1 3 4

4 6 10

−4F1+F2→F2

1 3 4

0 −6 −6

−16 F2→F2

1 3 4

0 1 1

−3F2+F1→F1

1 0 1

0 1 1

De esta ultima matriz obtenemos las ecuaciones x = 1 y y = 1 las cuales nos dan la solucion al sistema.

Este ultimo ejemplo ilustra el metodo de solucion de un sistema lineal con operaciones de fila sobre matrices, el

cual es el objetivo de la seccion. Para ilustrar el caso general debemos mostrar como aplicar operaciones de fila

sobre una matriz de una manera eficiente que garantice una solucion, una manera efectiva es llevar la matriz a

una “matriz en forma escalonada reducida”, la cual definimos a continuacion.

Definicion 1.3. Sea A una matriz de tamano m× n, decimos que A esta en forma escalonada reducida si

A satisface las siguientes condiciones:

1. Todas las filas nulas (filas donde todas las entradas, en esa fila, son ceros) estan en la parte inferior de

la matriz.

2. La primera entrada no cero de una fila no nula es un uno. A esta entrada se le llama pivote.

3. Si dos filas consecutivas son no nulas, entonces el pivote de la fila de arriba esta mas a la izquierda del

pivote de la fila de abajo.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 7

4. Todas las entradas de una columna donde haya un pivote son cero, excepto la entrada donde esta el pivote.

Ejemplo 1.4. Las siguientes matrices estan en forma escalonada reducida:

A =

1 0 0

0 1 0

0 0 1

, B =

1 0 ∗0 1 ∗0 0 0

, C =

1 ∗ 0

0 0 1

0 0 0

, D =

0 1 0

0 0 1

0 0 0

,

E =

1 ∗ ∗0 0 0

0 0 0

, F =

0 1 ∗0 0 0

0 0 0

y G =

0 0 1

0 0 0

0 0 0

,

donde las entradas * representan un numero real arbitrario. De hecho estas son todas las posibles formas esca-

lonadas reducidas que se obtienen de matrices 3× 3 no nulas.

Ejemplo 1.5. (MatLab) La forma escalonada reducida de una matriz se calcula en MatLab con el comando

“rref” como se muestra a continuacion. Sea A =

−1 2 3 −10 3 −2 −12 −1 −8 1

,

>> format rat, A = [−1, 2, 3,−1; 0, 3,−2,−1; 2,−1,−8, 1];R = rref(A)

R =

1 0 − 133

13

0 1 − 23 − 1

3

0 0 0 0

El comando “format rat” se usa para que MatLab entregue la respuesta con numeros racionales en cada entrada

de la matriz.

El proceso de aplicar operaciones elementales de fila sobre una matriz hasta llevarla a su forma escalonada

reducida se le conoce como reduccion Gauss-Jordan. Este proceso nos lleva tambien a determinar si el

sistema tiene solucion y a encontrarla en el caso de que exista (ver Teorema 1.2). Primero debemos garantizar

que es posible llevar cualquier matriz a una matriz en forma escalonada reducida por medio de operaciones

elementales.

Teorema 1.1. Aplicando reduccion Gauss-Jordan, toda matriz se puede llevar a una forma escalonada reducida.

Mas que dar una idea de la prueba, lo que presentamos a seguir, es una descripcion de un algoritmo para

calcular la forma escalonada reducida de una matriz.

Bosquejo de la demostracion. La demostracion se hace por induccion sobre el numero de columnas de A.

Si A tiene una columna y A = 0 entonces A ya esta en forma escalonada reducida. Si A 6= 0 tomamos

ai1 la primera entrada no nula de A para algun i, entonces intercambiamos la primera fila con la i-esima fila

8

obteniendo la matriz

ai10...0

ai+1,1

...am1

. (1.3)

Para reducir esta matriz, multiplicamos la primera fila por 1ai1

obteniendo una matriz con un uno en la primera

posicion y a continuacion se usa esta entrada para anular el resto de las entradas como se muestra a continuacion

ai10...0

ai+1,1

...am1

1ai1

F1→F1

10...0

ai+1,1

...am1

−ai+1,1F1+Fi+1→Fi+1

...−am1F1+Fm→Fm

10...00...0

como esta ultima esta en forma escalonada reducida obtenemos el resultado para matrices con una columna.

Ahora supongamos que el resultado es cierto para matrices con n − 1 columnas y sea A una matriz con n

columnas, usando la induccion obtenemos que podemos reducir las primeras n− 1 columnas hasta obtener una

matriz en la forma

1 ... 0 ... 0 a1n0 ... 1 ... 0 a2n

.... . .

.... . .

......

0 ... 0 ... 1 akn

0 ... 0 ... 0 ak+1,n

.... . .

.... . .

......

0 ... 0 ... 0 amn

.

Si las entradas ak+1,n, . . . , amn son todas iguales a cero, entonces esta ultima matriz ya esta en forma escalonada

reducida, en caso contrario, suponemos sin perdida de generalidad que ak+1,n 6= 0, ya que si esta es cero haciendo

un intercambio de fila podemos llevar una entrada diferente de cero que este por debajo de esta, como se hizo

en (1.3), despues multiplicamos la fila k + 1 por 1ak+1,n

obteniendo

1 ... 0 ... 0 a1n0 ... 1 ... 0 a2n

.... . .

.... . .

......

0 ... 0 ... 1 akn

0 ... 0 ... 0 ak+1,n

.... . .

.... . .

......

0 ... 0 ... 0 amn

1ak+1,n

Fk+1→Fk+1

1 ... 0 ... 0 a1n0 ... 1 ... 0 a2n

.... . .

.... . .

......

0 ... 0 ... 1 akn

0 ... 0 ... 0 1.... . .

.... . .

......

0 ... 0 ... 0 amn

Finalmente, usando este 1, empleamos operaciones elementales para anular las demas entradas de esta columna

como se muestra a continuacion

1 ... 0 ... 0 a1n0 ... 1 ... 0 a2n

.... . .

.... . .

......

0 ... 0 ... 1 akn

0 ... 0 ... 0 1.... . .

.... . .

......

0 ... 0 ... 0 amn

− 1a1n

Fk+1+F1→F1

− 1a2n

Fk+1+F2→F2

...− 1

aknFk+1+Fk→Fk

− 1ak+2n

Fk+1+Fk+2→Fk+2

...− 1

amnFk+1+Fm→Fm

1 ... 0 ... 0 00 ... 1 ... 0 0.... . .

.... . .

......

0 ... 0 ... 1 00 ... 0 ... 0 1.... . .

.... . .

......

0 ... 0 ... 0 0

,

como esta ultima matriz esta en forma escalonada reducida obtenemos por induccion que cualquier matriz se

puede reducir a una matriz en forma escalonada reducida.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 9

Ejemplo 1.6. Calcular la forma escalonada de reducida de la matriz A =

0 0 1 1

2 2 1 4

3 3 2 6

.

Aunque sabemos que podemos usar MatLab para calcular esta reduccion, es importante tambien entender

el algoritmo propuesto en el teorema anterior, el cual basicamente nos dice que la reduccion la podemos hacer

columna por columna.

Como la primera columna no es nula pero su primera entrada es cero, entonces intercambiamos la fila

cuya primera entrada sea no nula, en este caso la segunda fila, como esto se debe hacer usando operaciones

elementales, entonces intercambiamos la primera y la segunda fila

0 0 1 1

2 2 1 4

3 3 2 6

F1 ↔ F2

2 2 1 4

0 0 1 1

3 3 2 6

Luego multiplicamos la primera fila por 12 para obtener el pivote en la primera columna y despues usamos

este pivote para anular las demas entradas de esta columna, como se muestra a continuacion

2 2 1 4

0 0 1 1

3 3 2 6

12F1 → F1

1 1 12 2

0 0 1 1

3 3 2 6

−3F1 + F3 → F3

1 1 12 2

0 0 1 1

0 0 12 0

.

El pivote en la segunda columna, si existiera, deberıa estar en una fila debajo de la primera y como la segunda

y tercera entrada son ceros, entonces no hay pivote en esta columna, por tanto la tercera entrada en la segunda

fila es el siguiente pivote, usamos esta entrada para anular las demas entradas en la tercera columna, ası

1 1 12 2

0 0 1 1

0 0 12 0

− 12F2 + F1 → F1

− 12F2 + F3 → F3

1 1 0 32

0 0 1 1

0 0 0 − 12

.

Finalmente, la cuarta entrada en la tercera fila debe ser el siguiente pivote, para convertirlo en un uno,

multiplicamos la tercera fila por -2 y despues usamos el pivote para anular las demas entradas en la cuarta

columna, esto lo hacemos de la siguiente forma

1 1 0 32

0 0 1 1

0 0 0 − 12

−2F3 → F3

1 1 0 32

0 0 1 1

0 0 0 1

− 32F3 + F1 → F1

−F3 + F2 → F2

1 1 0 0

0 0 1 0

0 0 0 1

. (1.4)

Por tanto la matriz

1 1 0 0

0 0 1 0

0 0 0 1

es la forma escalonada reducida de A.

El algoritmo anterior es el que se deduce del bosquejo de la demostracion del teorema anterior, en donde

se calculan los pivotes columna por columna, otra forma de aplicar reduccion Gauss-Jordan es calculando los

pivotes fila por fila en donde se debe aplicar la definicion paso a paso.

10

Por ejemplo, si queremos calcular la forma escalonada reducida de la matriz A de esta forma, notese que el

pivote en cada fila debe ser la primera entrada no nula de la fila, por tanto la tercera entrada de esta fila debe

ser el primer pivote, luego usamos esa entrada para anular las demas entradas en su respectiva columna como

se indica a continuacion

0 0 1 1

2 2 1 4

3 3 2 6

−F1 + F2 → F2

−2F1 + F3 → F3

0 0 1 1

2 2 0 3

3 3 0 4

.

Con estos pasos estamos garantizando el cumplimiento de la condiciones 2. y 4. de la Definicion 1.3.

El siguiente paso es encontrar el pivote en la segunda fila convertirlo en un uno y usarlo para anular las

restantes entradas en su respectiva columna. Para la segunda fila se tiene que el pivote corresponde a la primera

entrada en esta fila, para convertirlo en un 1 se multiplica la segunda fila por 12

0 0 1 1

2 2 0 3

3 3 0 4

12F2 → F2

0 0 1 1

1 1 0 32

3 3 0 4

.

despues se usa el pivote para anular las demas entradas en su columna, en este caso, la primera columna.

0 0 1 1

1 1 0 32

3 3 0 4

−3F2 + F3 → F3

0 0 1 1

1 1 0 32

0 0 0 − 12

.

Antes de continuar con el siguiente pivote notemos que los pivotes en esta ultima matriz no satisfacen la

condicion 3. de la Definicion 1.3, ya que el pivote de la segunda fila esta a la derecha del primer pivote y no a

la izquierda, para organizarlos, intercambiamos las dos primeras filas:

0 0 1 1

1 1 0 32

0 0 0 − 12

F1 ↔ F2

1 1 0 32

0 0 1 1

0 0 0 − 12

.

Finalmente observamos que la primera entrada no nula de la tercera fila es la ultima entrada en esta fila, para

convertirla en un uno y anular la otras entradas de la ultima columna repetimos los pasos que hicimos en (1.4)

y obtenemos nuevamente que la matriz

1 1 0 0

0 0 1 0

0 0 0 1

es la forma escalonada reducida de A.

Ejemplo 1.7. Calcule la forma escalonada reducida de la matriz A =

2 4 −22 4 2

1 2 1

.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 11

Las operaciones para reducir esta matriz son las siguientes:

2 4 −22 4 2

1 2 1

12F1 → F1

1 2 −12 4 2

1 2 1

−2F1 + F2 → F2

−F1 + F3 → F3

1 2 −10 0 4

0 0 2

14F2 → F2

1 2 −10 0 1

0 0 2

F2 + F1 → F1

−2F1 + F3 → F3

1 2 0

0 0 1

0 0 0

.

Ahora que sabemos que toda matriz se puede llevar, por medio de operaciones elementales, a una matriz en

forma escalonada reducida, debemos tambien saber para que nos sirve este resultado en terminos de soluciones

de sistemas de ecuaciones lineales. El siguiente teorema nos muestra la utilidad de poder reducir matrices a su

forma escalonada reducida ya que de esta ultima podemos determinar si un sistema tiene soluciones y en el caso

afirmativo tambien nos permite saber si la solucion es unica o existen infinitas.

Teorema 1.2. Considere el sistema de ecuaciones

a11x1 + · · ·+ a1nxn = b1...

am1x1 + · · ·+ amnxn = bm

, sea A =

a11 · · · a1n b1...

. . ....

...

am1 · · · amn bm

la matriz de coeficientes asociada al sistema y sea A′ la forma escalonada reducida de A. Tenemos los siguientes

casos:

1. Si A′ tiene pivote en todas las columnas excepto la ultima entonces el sistema tiene solucion unica.

2. Si A′ tiene pivote en la ultima columna entonces el sistema tiene solucion vacıa.

3. Si A′ no tiene pivote en la ultima columna y hay al menos otra columna sin pivote entonces el sistema

tiene infinitas soluciones.

Demostracion. 1. En este caso tenemos que A′ =

1 · · · 0 c1...

. . ....

...

0 · · · 1 cn

y posiblemente algunas filas de ceros

al final, las cuales omitimos al no aportar ninguna informacion adicional.

De esta matriz se obtienen las ecuaciones x1 = c1, . . . , xn = cn la cuales corresponden a la unica solucion

al sistema.

2. Como A′ tiene un pivote en la ultima columna y un pivote es la primera entrada no nula de una fila

entonces tenemos que la matriz A′ tiene una fila de la forma[

0 · · · 0 1]

y de esta fila se obtiene la

ecuacion 0 = 1, lo cual implica que el sistema es inconsistente.

3. Supongamos sin perdida de generalidad que las dos ultimas columnas de A′ no tienen pivote y que las

12

demas si, entonces A′ tiene la forma

A′ =

1 · · · 0 c1 d1...

. . ....

......

0 · · · 1 cn−1 dn−1

y posiblemente algunas filas cero de las cuales precindimos. Ası obtenemos las ecuaciones x1 + c1xn =

d1, . . . , xn−1 + cn−1xn = dn−1 o equivalentemente

x1 = d1 − c1xn, . . . , xn−1 = dn−1 − cn−1xn.

Las cuales corresponden a las soluciones del sistema y por cada valor asignado a la variable xn obtenemos

una solucion, por tanto el sistema tiene infinitas soluciones.

Un razonamiento similar demuestra esta afirmacion cuando la columna sin pivote esta en una columna

diferente y tambien en el caso en donde hay varias columnas sin pivotes.

A las variables correspondientes a columnas sin pivote se les llamara variables libres y a las demas se les

llamara variables basicas o no libres. La siguiente obervacion nos servira mas adelante.

Observacion 1.1. Los recıprocos de las tres afirmaciones del teorema anterior tambien son ciertos, en la

Seccion 1.4 veremos que las operaciones elementales de fila son reversibles lo cual permite aplicar operaciones

elementales de fila a A′ hasta recuperar la matriz A lo que nos lleva de las soluciones al sistema original.

Corolario 1.3. Un sistema lineal con mas variables que ecuaciones (n > m) nunca tiene solucion unica.

Ejemplo 1.8. En este ejemplo se muestra las posibles soluciones para sistemas 2 × 2 segun sus matricces

escalonadas reducidas.

1. En el Ejemplo 1.3 se obtuvo que al sistema linealx+ 2y = 3

4x+ 5y = 6le corresponde la matriz de coeficientes

1 2 3

4 5 6

y que la matriz escalonada reducida era

1 0 1

0 1 1

. Por el Teorema 1.2 el sistema tiene so-

lucion unica y esta dada por x = 1 y y = 1, la cual se muestra en la Figura 1.1.

2. Al sistema lineal13x+ y = 4

3

13x+ y = 1

3

le corresponde la matriz de coeficientes

13 1 4

3

13 1 1

3

y su matriz escalonada

reducida es

1 3 0

0 0 1

. Por el Teorema 1.2 el sistema tiene solucion vacıa, lo cual se muestra en la Figura

1.1.

3. Al sistema linealx+ 3y = 3

2x+ 6y = 6le corresponde la matriz de coeficientes

1 3 3

2 6 6

y su matriz escalonada

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 13

reducida es

1 3 3

0 0 0

. Por el Teorema 1.2 el sistema tiene infinitas soluciones, lo cual se muestra en la

Figura 1.1.

Ejemplo 1.9. Determine si el sistemax1 + x2 + x3 + x4 = 4

x3 − x4 = 3tiene soluciones y en el caso afirmativo escribalas

de forma parametrica.

Solucion. La matriz de coeficientes es

1 1 1 1 4

0 0 1 −1 3

y su forma escalonada reducida esta dada por A′ =

1 1 0 2 1

0 0 1 −1 3

. Por el Teorema 1.2 el sistema tiene infinitas soluciones las cuales se pueden dar en forma

parametrica leyendo el sistema de ecuaciones de la matriz A′, las cuales son x1 + x2 + 2x4 = 1 y x3 − x4 = 3,

y escribiendo las variables basicas en terminos de las variables libres obtenemos

x1 = 1− x2 − 2x4

x3 = 3 + x4.

De acuerdo a estas ecuaciones las variables x2 y x4 toman valores arbitrarios y por cada par de valores que se le

asignen a estas variables, se tiene una solucion particular, si a estas variables les asignamos valores parametricos

x2 = t y x4 = u obtenemos todas las soluciones parametricas al sistema:

x1 = 1− t− 2u

x2 = t

x3 = 3 + u

x4 = u.

Ejemplo 1.10. Considere el sistema

−x+ 2y + 3z = −13y − 2z = −1

2x− y − 8z = 1

. La matriz asociada al sistema esta dada por A =

−1 2 3 −10 3 −2 −12 −1 −8 1

cuya forma escalonada reducida R fue calculada en en el Ejemplo 1.5

R =

1 0 − 133

13

0 1 − 23 − 1

3

0 0 0 0

.

De aquı tenemos que el sistema tiene infinitas soluciones las cuales estan dadas por

x = 13 + 13

3 z

y = − 13 + 2

3z,

14

asignando el valor parametrico z = t a la variable libre z, obtenemos las soluciones parametricas al sistema:

x = 13 + 13

3 t

y = − 13 + 2

3 t

z = t

Ejemplo 1.11. (MatLab) El sistema

−x+ 2y + 3z = −12x− 4y − 6z = −12x− y − 8z = 1

tiene matriz asociada al sistema dada por

A =

−1 2 3 −12 −4 −6 −12 −1 −8 1

.

Usando MatLab para calcular la forma escalonada reducida de A,

(>>format rat, A = [−1, 2, 3,−1; 2,−4,−6,−1; 2,−1,−8, 1]; R = rref(A)), obtenemos la matriz

R =

1 0 − 133 0

0 1 − 23 0

0 0 0 1

.

Como esta ultima matriz tiene un pivote en la ultima columna, entonces por el Teorema 1.2 el sistema no tiene

solucion.

Del Teorema 1.2 tambien se desprende el siguiente corolario, para el cual necesitamos la siguiente definicion.

Definicion 1.4. Un sistema lineal homogeneo es un sistema lineal de la forma

a11x1 + · · ·+ a1nxn = 0...

am1x1 + · · ·+ amnxn = 0

,

es decir, un sistema donde todos los terminos independientes son cero.

Corolario 1.4. Un sistema lineal homogeneo siempre tiene solucion.

Terminamos la seccion con la definicion de rango de una matriz.

Definicion 1.5. Sea A una matriz y A′ su forma escalonada reducida. Definimos el rango de A, denotado por

rango(A), como el numero de pivotes de A′.

Ejemplo 1.12. Para las matrices del Ejemplo 1.4 se tiene que

rango(A) = 3, rango(B) = rango(C) = rango(D) = 2 y

rango(E) = rango(F ) = rango(G) = 1.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 15

Problemas

1.1.1. Use el metodo Gauss-Jordan para resolver los siguientes sistemas.

a.

x− 2y + 3z = 7

2x+ y − z = 7

2x− y − z = 7

b.

2x+ 4y − 4z = 6

2x− 5y + 4z = 6

−x+ 16y − 14z = −3

c.

x+ y − z = 7

x− y + z = 4

2x+ y + z = 3

d.

x+ 2y + 3z = 1

4x+ 5y + 6z = 2

7x+ 8y + 9z = 4

e.

x+ 2y + 3z + w = 7

4x+ 5y + 6z + 2w = 7

7x+ 8y + 9z + 4w = 7

f.

x+ 2y + 3z + 4w = 1

x+ 2y + 3z + 3w = 2

x+ 2y + 2z + 2w = 3

x+ y + z + w = 1

1.1.2. Encuentre las soluciones parametricas al sistema y uselas para calcular dos soluciones particulares:

x− 2y + 3z + w = 3

y = 2

w = 1

1.1.3. Demuestre que el sistema

2x− y + 3z = α

3x+ y − 5z = β

−5x− 5y + 21z = λ

es consistente si y solo si λ = 2α− 3β.

1.1.4. Para los sistemas cuyas matrices aumentadas estan dadas en los numerales desde a. hasta c. determine

los valores α y β para los cuales el sistema tiene:

I. Ninguna solucion.

II. Solucion unica.

III. Infinitas soluciones y en este caso dar dos soluciones particulares.

a.

1 0 α 0

0 1 β 1

0 0 α+ β α− β − 2

b.

1 0 α 0

0 1 β 1

0 0 2α+ β α+ β − 1

c.

1 0 α 0

0 1 β 1

0 0 α− β α− β − 2

1.1.5. Muestre que el sistemaax+ by = 0

cx+ dy = 0tiene solucion si y solo si ad− bc = 0.

1.1.6. Haga una lista de todas las matrices 3×4 que esten en forma escalonada reducida.

1.1.7. Demuestre el Corolario 1.3 y el Corolario 1.4.

1.1.8. Muestre que si el numero de ecuaciones en un sistema lineal homogeneo es menor que el numero de sus

incognitas, entonces el sistema tiene una solucion no trivial.

16

1.1.9. Muestre que efectuar operaciones elementales en un sistema de ecuaciones produce un sistema ecuaciones

equivalente. Dos sistemas de ecuaciones son equivalentes si tienen las mismas soluciones.

1.1.10. Usando el Problema 1.1.9, muestre que un sistema de ecuaciones es equivalente al sistema de ecuaciones

que se obtiene de la correspondiente matriz escalonada reducida.

1.1.11. Si A es una matriz de tamano m× n, demuestre que el rango(A) ≤ mın{m,n}.

1.1.12. Demuestre que el sistema homogeneoax+ by = 0

cx+ dy = 0tiene infinitas soluciones si y solo si ad− bc = 0

1.2. Operaciones con Matrices y Vectores

En esta seccion se expondran las operaciones basicas entre matrices y vectores y se mostraran las propiedades

que estas operaciones satisfacen.

Definicion 1.6. Definimos vector columna (fila) como una matriz con una sola columna (fila).

Ejemplo 1.13. v =

1

2

−1

es un vector columna y w =[

0 1]

es un vector fila.

Definicion 1.7. (Operaciones con matrices y vectores)

1. (Suma de matrices) Sean A =

a11 · · · a1n...

. . ....

am1 · · · amn

y B =

b11 · · · b1n...

. . ....

bm1 · · · bmn

matrices del mismo tamano,

definimos la matriz A+B como la matriz dada por:

A+B =

a11 + b11 · · · a1n + b1n...

. . ....

am1 + bm1 · · · amn + bmn

.

Similarmente, definimos la suma de los vectores x =

x1

...

xn

y y =

y1...

yn

como el vector x+ y =

x1 + y1...

xn + yn

.

Identificando vectores v =

[a1

...an

]

con el vector en Rn iniciando en el origen y terminando en el punto

(a1, . . . , an), obtenemos que la suma de vectores se rige por la “Ley del paralolegramo”, ver Figura 1.7. En la

siguiente figura vemos la representacion geometrica de los vectores v =

a1

a2

en R2 y w =

a1

a2

a3

en R3.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 17

2. (Producto de una matriz por un escalar) Sea A =

a11 · · · a1n...

. . ....

am1 · · · amn

una matriz de tamano m × n y α un

escalar (constante real arbitraria), definimos la matriz α ·A como la matriz dada por

αA =

αa11 · · · αa1n...

. . ....

αam1 · · · αamn

.

Similarmente, definimos el producto de un vector x =

x1

...

xn

por un escalar α ∈ R como el vector αx =

αx1

...

αxn

.

Ejemplo 1.14. (MatLab) Sean A =

1 2

−1 −30 1

y B =

−2 −23 1

1 1

. Podemos calcular las matrices A + B y

2A en MatLab como sigue

>> A = [1, 2;−1,−3; 0, 1]; B = [−2,−2; 3, 1; 1, 1]; A+B, 2 ∗AObteniedo las matrices:

A+B =

−1 0

2 −21 2

y 2 ∗A =

2 4

−2 −60 2

.

Notacion 1. Denotaremos por Omn a la matriz de ceros de tamano m × n, o simplemente por O si no hay

lugar a confusion y al vector cero lo denotaremos por θn o simplemente θ si no hay lugar a confusion.

Si A es una matriz, denotamos por Ai el vector fila formado por la i-esima fila de A y por Ai el vector

columna formado por la i-esima columna de A.

El siguiente teorema establece las propiedades que satisfacen estas operaciones en matrices y vectores.

Teorema 1.5. Sean A, B y C matrices de tamanos m× n, α y β escalares, entonces tenemos

1. (A+B) + C = A+ (B + C)

3. A+ (−1A) = −1A+A = O5. α(A+B) = αA+ αB

7. (αβ)A = α(βA)

2. A+Omn = Omn +A = A

4. A+B = B +A

6. (α+ β)A = αA+ βA

8. 1A = A

18

De la Propiedad 3. de este teorema se observa que −1A es el inverso aditivo de A y este sera denotado por

−A (el inverso aditivo de una matriz es unico, ver Problema 1.2.4 ). En este sentido la diferencia de dos matrices

A y B, A−B, se define como: A+ (−B).

El siguiente teorema establece las propiedades analogas que se cumplen para vectores.

Teorema 1.6. Sean x, y y z vectores con n componentes, α y β escalares, entonces tenemos

1. (x+ y) + z = x+ (y + z)

3. x+ (−1x) = −1x+ x = θn

5. α(x+ y) = αx+ αy

7. (αβ)x = α(βx)

2. x+ θn = θn + x = x

4. x+ y = y + x

6. (α+ β)x = αx+ βx

8. 1x = x

A continuacion se da la definicion de producto interno de vectores y transpuesta de una matriz, lo cual

permitira definir el producto de matrices.

Definicion 1.8. Sean x =

x1

...

xn

y y =

y1...

yn

vectores columna de n componentes, definimos el producto

interno o producto escalar de los vectores x y y, denotado por x · y, por la formula

x · y = x1y1 + · · ·+ xnyn =

n∑

i=1

xiyi.

Definicion 1.9. Sea A =

a11 · · · a1n...

. . ....

am1 · · · amn

una matriz de tamano m× n, definimos la matriz transpuesta

de A, denotada por At, como la matriz cuyas columnas son las filas de A, esto es:

At =

a11 · · · am1

.... . .

...

a1n · · · amn

.

Si una matriz A satisface que At = A, decimos que A es simetrica.

Si una matriz A satisface que At = −A, decimos que A es antisimetrica.

Ejemplo 1.15. Si A =

2 3 −11 2 1

entonces At =

2 1

3 2

−1 1

.

Si B =

2 −1 1

−1 2 −11 −1 2

entonces Bt = B y B es una matriz simetrica.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 19

Ejemplo 1.16. (MatLab) El comando en MatLab para calcular la transpuesta de una matriz es “transpose”.

Sea A =

32 −10 78

3 56 −8945 0 9

, ası para calcular su transpuesta se hace:

>> A = [32,−10, 78; 3, 56,−89; 45, 0, 9]; T = transpose(A)

Obteniedo la matriz T = At =

32 3 45

−10 56 0

78 −89 9

.

Ahora pasemos a definir el producto de matrices.

Definicion 1.10. (Producto de matrices) Sea A =

a11 · · · a1n...

. . ....

am1 · · · amn

una matriz de tamano m × n y B =

b11 · · · b1q...

. . ....

bn1 · · · bnq

de tamano n× q. Definimos el producto A ·B, usualmente denotado por AB, como la matriz

de tamano m × q dada por AB =

c11 · · · c1q...

. . ....

cm1 · · · cmq

donde cij =∑n

k=1 aikbkj = ai1b1j + ai2b2j + · · · + ainbnj,

para i = 1, . . . ,m y j = 1, . . . , q.

Notese que la ij-esima entrada de la matriz AB es la suma de los productos de cada entrada en la fila i de A

por la respectiva entrada de la columna j de B, esto es:

a11 · · · a1n...

. . ....

ai1 · · · ain...

. . ....

am1 · · · amn

b11 · · · b1j · · · b1q...

. . ....

. . ....

bn1 · · · bnj · · · bnq

.

Este producto coincide con el producto escalar(Ai)t · Bj, donde Ai es la i-esima fila de A y Bj es la j-esima

columna de B.

Ejemplo 1.17. Calcular el producto AB donde A =

1 −1 0

2 2 −3

y B =

2 0

−2 1

1 0

.

20

Solucion. Vamos a calcular cada una de las entradas cij de la matriz AB:

c11 =(A1)t ·B1 =

[

1 −1 0]t

·

2

−21

=

1

−10

·

2

−21

= 2 + 2 + 0 = 4,

c12 =(A1)t ·B2 =

[

1 −1 0]t

·

0

1

0

=

1

−10

·

0

1

0

= 0− 1 + 0 = −1,

c21 =(A2)t ·B1 =

[

2 2 −3]t

·

2

−21

=

2

2

−3

·

2

−21

= 4− 4− 3 = −3,

c22 =(A2)t ·B2 =

[

2 2 −3]t

·

0

1

0

=

2

2

−3

·

0

1

0

= 0 + 2 + 0 = 2.

De estos resultados tenemos

AB =

c11 c12

c21 c22

=

4 −1−3 2

.

Ejemplo 1.18. (MatLab) Sean A =

1 −1 0

2 2 −3

y B =

2 0

−2 1

1 0

las matrices del ejemplo anterior,

podemos calcular el producto de matrices en MatLab usando el comando “*”, como se muestra a continuacion:

>> A = [1,−1, 0; 2, 2,−3]; B = [2, 0;−2, 1; 1, 0]; C = A ∗B, D = B ∗AObtienendo las matrices:

C =

4 −1−3 2

y D =

2 −2 0

0 4 −31 −1 0

.

El ejemplo anterior nos muestra que el producto de matrices no es en general conmutativo pero si satisface la

asociatividad.

Teorema 1.7. Sean A, B y C matrices de tamanos m× n, n× p y p× q, respectivamente. Entonces se tiene

que

A(BC) = (AB)C.

Demostracion. Sean aij , bij y cij las entradas de las matrices A, B y C respectivamente, y sean dij y eij las

entradas de las matrices AB y BC respectivamente. Por definicion del producto de matrices tenemos que

dij =

n∑

k=1

aikbkj y eij =

p∑

h=1

bihchj .

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 21

Ahora, sean fij y gij las entradas de las matrices A(BC) y (AB)C respectivamente. Entonces

fij =

n∑

k=1

aikekj =

n∑

k=1

aik

p∑

h=1

bkhchj =

n∑

k=1

p∑

h=1

aikbkhchj y (1.5)

gij =

p∑

h=1

dihchj =

p∑

h=1

n∑

k=1

aikbkhchj =

n∑

k=1

p∑

h=1

aikbkhchj . (1.6)

De las ecuaciones (1.5) y (1.6) tenemos que (AB)C = A(BC).

Una matriz con igual numero de filas y columnas, es de decir de tamano n×n, se llama matriz cuadrada.

El producto de matrices cuadradas satisface otras propiedades importantes, entre ellas la existencia de una

matriz neutra bajo el producto, a la cual se le llama la matriz identidad y se denota por In. Esta matriz se

define por In =

1 · · · 0...

. . ....

0 · · · 1

, es decir, la matriz identidad es la matriz cuyas entradas en la diagonal principal

son uno y ceros por fuera esta. Listamos a continuacion mas propiedades de las operaciones con matrices.

Teorema 1.8. Sean A y C matrices de tamanos m× n y n× q respectivamente, entonces se tiene lo siguiente:

1. ImA = A y AIn = A. En particular si A es una matriz cuadrada de tamano n×n entonces AIn = InA = A.

2. OkmA = Okn y AOnk = Omk para cualquier k = 1, 2, 3, · · · . En particular si A es una matriz cuadrada de

tamano n× n entonces AOnn = OnnA = Onn.

3. (A+B)C = AC +BC, donde B es una matriz de tamano m× n.

4. A(B + C) = AB +AC, donde B es una matriz de tamano n× q.

A continuacion listamos tres propiedades, que aunque parecen no tener mucha importancia, seran muy utiles

en muchas demostraciones en el resto del libro.

Lema 1.9. Sean A =

A1

...

Am

una matriz de tamano m × n donde A1, . . . , Am son las filas de A, B =

[

B1 · · · Bq

]

de tamano n × q donde B1, . . . , Bq son las columnas de B y x =

x1

...

xq

un vector columna,

entonces

1. Las columnas del producto AB son los vectores columna AB1, . . . , ABq, es decir

AB =[

AB1 · · · ABq

]

.

2. Las filas del producto AB son los vectores fila A1B, . . . , AmB, esto es, AB =

A1B...

AmB

.

22

3. El producto Bx es el vector x1B1 + · · · + xqBq. Es decir, el vector Bx es una combinacion lineal de las

columnas de B con coeficientes tomados de x.

En el siguiente ejemplo se muestra como puede ser usado el lema anterior para realizar el producto de matrices.

Ejemplo 1.19. Sean A =

1 −34 −1

, B =

1 0 3

2 −1 1

y x =

2

−31

. El producto AB se puede ver de las

siguientes formas

AB =

[

1 −3]

B[

4 −1]

B

y

AB =

A

1

2

A

0

−1

A

3

1

=

1

1

4

+ 2

−3−1

0

1

4

− 1

−3−1

3

1

4

+ 1

−3−1

=

−5 3 0

2 1 11

.

El producto Bx es una combinacion de las columnas de B:

Bx = 2

1

2

− 3

0

−1

+ 1

3

1

=

5

8

.

El producto de matrices sirve para establecer otra conexion entre matrices y sistemas de ecuaciones lineales. Sea

a11x1 + · · ·+ a1nxn = b1...

am1x1 + · · ·+ amnxn = bm

un sistema de ecuaciones lineales, entonces por definicion del producto de matrices

tenemos que este sistema es equivalente a la ecuacion matricial Ax = b donde A =

a11 · · · a1n...

. . ....

am1 · · · amn

, x =

x1

...

xn

y b =

b1...

bm

. En lo que sigue del libro usaremos la ecuacion matricial Ax = b en lugar del sistema de ecuaciones.

Terminamos la seccion definiendo matrices triangulares y matriz diagonal, que aparecen muy a menudo en

varias partes del libro.

Definicion 1.11. Sea A =

a11 · · · a1n...

. . ....

an1 · · · ann

una matriz de tamano n× n, decimos que

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 23

1. A es triangular superior si aij = 0 para i > j.

2. A es triangular inferior si aij = 0 para i < j.

3. A es diagonal si aij = 0 para i 6= j.

Ejemplo 1.20. Las matrices A =

1 2 3

0 3 1

0 0 2

, B =

1 0 0

2 3 0

1 2 2

y C =

1 0 0

0 3 0

0 0 2

son, respectivamente,

triangular superior, triangular inferior y diagonal.

Problemas

1.2.1. Ejecutar las operaciones indicadas con los vectores v =

1

−13

, w =

3

1

2

y z =

−25

0

.

a. v + w b. 3v c. − 3w d. 3v + 2d− 3w.

1.2.2. Ejecutar las operaciones indicadas con las matrices A =

1 2

−1 −30 1

y B =

−2 −23 1

1 1

.

a. A+B b. A−B c. − 3A d. − 3A+ 2B.

1.2.3. Es muy posible que los estudiantes que esten tomando algebra lineal por primera vez esten acostumbrados

a que al multiplicar dos cosas distintas de cero su resultado sea distinto de cero. En la multiplicacion de matrices

esto puede no ocurrir. Al resolver este problema encontraran ejemplos de esta situacion y de otras situaciones

a las que posiblemente no esten acostumbrados.

Sean A =

0 1

0 0

, B =

3 3

52 52

, C =

1 0

−1 0

, D =

1 0

0 0

, E =

0 0

0 1

y F =

0 1 0

0 0 1

0 0 0

. Calcule

los siguientes productos:

(a) AA, FFF y BC. ¿Puede concluir algo mas general del producto BC?

(b) DD y EE.

1.2.4. Demuestre que el inverso aditivo de una matriz es unico.

1.2.5. Sean A y B matrices de tamanos m× n. Muestre que

(a) (A+B)t = At +Bt.

(b) (ABt)t = BAt.

24

1.2.6. Sean A y B matrices de tamanos m× n y n× p, demuestre que (AB)t = BtAt.

1.2.7. Demuestre los Teoremas 1.5, 1.6 y 1.8.

1.2.8. Una matriz cuadrada se llama una matriz de probabilidad si cada componente es no-negativa y la suma

de los elementos de cada fila es 1. Demuestre que si A y B son dos matrices de probabilidad tamanos m× n y

n× q, entonces AB es una matriz de probabilidad.

1.2.9. Si A y B son matrices simetricas demuestre lo siguiente

1. A+B es simetrica.

2. (AB)t = BA.

1.2.10. Si A es una matriz de tamano m× n, demuestre que AAt y AtA son matrices simetricas.

1.2.11. Sea A ∈Mn(R), muestre que A+At es simetrica y A−At es antisimetrica y A = 12 (A+At)+ 1

2 (A−At).

Es decir, toda matriz cuadrada se puede expresar como la suma de una matriz simetrica y una antisimetrica.

1.2.12. Sean A,B ∈Mn(R), demuestre lo siguiente

1. Si A y B son triangulares superiores, entonces AB es triangular superior.

2. Si A y B son triangulares inferiores, entonces AB es triangular inferior.

3. Si A y B son matrices diagonales, entonces AB es diagonal.

4. En todos los anteriores casos, si las entradas en las diagonales principales de A y de B son, respectivamen-

te, a11, . . . , ann y b11, . . . , ann, entonces las entradas en la diagonal principal de AB son a11b11, . . . , annbnn.

1.2.13. Sean A,B ∈Mn(R) con B =

[λ1 ··· 0

......

...0 ··· λn

]

diagonal, demuestre lo siguiente:

1. Si las columnas de A son C1, . . . , Cn entonces las columnas de AB son λ1C1, . . . , λnCn. Es decir, si

A = [ C1 · · · Cn ] entonces AB = [ λ1C1 · · · λnCn ].

2. Si las filas de A son F1, . . . , Fn entonces las columnas de BA son λ1F1, . . . , λnFn. Es decir, si A =

[F1

...Fn

]

entonces BA =

[λ1F1

...λnFn

]

.

1.2.14. Si A ∈ Mmn(R), demuestre que rangoA = 1 si y solo si existen vectores v ∈ Rm y w ∈ R

n tal que

A = vwt.

1.2.15. Sean v1, v2 y v3 vectores en Rn y α un escalar. Demuestre lo siguiente:

v1 · θ = 0, v1 · v2 = v2 · v1, v1 · (v2 + v3) = v1 · v2 + v1 · v3, (αv1) · v2 = v1 · (αv2) = α(v1 · v2) y v1 · v2 ≥ 0.

1.2.16. Si A y B son matrices cuadradas que conmutan y son nilpotentes entonces A+B es nilpotente.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 25

1.3. Inversa de una Matriz

Las matrices invertibles juegan un papel fundamental en el algebra lineal, en particular la posibibilidad de

tener la inversa de una matriz nos permitira resolver algunos sistemas de ecuaciones lineales de manera muy

simple. Se comienza esta seccion con la definicion de este concepto.

Definicion 1.12. Sea A una matriz cuadrada de tamano n × n, decimos que A es invertible si existe una

matriz B de tamano n× n tal que AB = BA = In.

Ejemplo 1.21. La matriz A =

2 1

1 1

es invertible ya que el producto

A

1 −1−1 2

=

2 1

1 1

1 −1−1 2

=

1 0

0 1

= I2.

Ejemplo 1.22. No toda matriz tiene inversa, por ejemplo, si la matriz A =

1 1

0 0

tuviera una inversa,

entonces existirıa una matriz B =

a c

b d

tal que AB = BA = I2. Sin embargo AB =

a+ b c+ d

0 0

y

tendrıamos que

a+ b c+ d

0 0

= I2 =

1 0

0 1

, por tanto 0=1 lo cual es una contradiccion y A no puede ser

invertible.

En general si A es una matriz con una fila de ceros entonces A no es invertible. Esta afirmacion se deja como

ejercicio, Problema 1.3.5.

Las matrices invertibles satisfacen las siguientes propiedades.

Lema 1.10. Sea A una matriz n× n una matriz invertible, entonces la inversa es unica.

Demostracion. Sean B y C matrices inversas de A, es decir

AB = BA = In y AC = CA = In.

Entonces utilizando una de las propiedades de la matriz identidad del Teorema 1.8 tenemos que:

B = BIn = B(AC) = (BA︸︷︷︸

In

)C = InC = C.

Notacion 2. Como la inversa de una matriz invertible es unica, entonces de ahora en adelante la denotaremos

por A−1.

Teorema 1.11. Sean A y B matrices de tamanos n× n, entonces:

26

1. Si A y B son invertibles entonces AB es invertible y (AB)−1 = B−1A−1.

2. A es invertible si y solo si At es invertible y en este caso se tiene que (At)−1

=(A−1

)t.

Demostracion. 1. Utilizando la propiedad asociativa del producto de matrices (Teorema 1.7) se tiene que

(AB)(B−1A−1) = ABB−1︸ ︷︷ ︸

=I

A−1 = AIA−1 = AA−1 = I

y de igual forma (B−1A−1)(AB) = I, entonces la matriz B−1A−1 es la inversa de AB. Como la inversa

es unica tenemos que (AB)−1 = B−1A−1.

2. Supongamos que A es invertible, por el Problema 1.2.6 tenemos que At(A−1)t = (A−1A)t = It = I y

ademas (A−1)tAt = (AA−1)t = It = I, entonces la matriz (A−1)t es la invera de At, como la inversa es

unica obtenemos que (At)−1 = (A−1)t.

La demostracion del recıproco es analoga.

Ejemplo 1.23 (MatLab). Sean A =

1 −1 3

1 −2 2

2 0 2

y B =

1 −1 2

0 0 1

1 −2 2

, de acuerdo al teorema anterior hay

dos maneras de calcular (AB)−1, las cuales son multiplicar A y B y despues calcular su inversa, o calcular B−1

y A−1 y multiplicarlas. El comando para calcular la inversa de una matriz es “inv”, a continuacion exhibimos

estos calculos en MatLab.

>> format rat, A = [1,−1, 3; 1,−2, 2; 2, 0, 2]; B = [1,−1, 2; 0, 0, 1; 1,−2, 2]; C = inv(A∗B), D = inv(B)∗inv(A)

Obteniendo las matrices C =

− 83

73

76

− 43

23

56

13 − 2

316

y D =

− 83

73

76

− 43

23

56

13 − 2

316

, las cuales son iguales.

El teorema tambien nos dice que hay dos maneras de calcular la inversa de At, una de forma directa y la

otra se obtiene al transponer A−1.

>> format rat, A = [1,−1, 3; 1,−2, 2; 2, 0, 2]; E = transpose(inv(A))

Obteniendo E =

− 23

13

23

13 − 2

3 − 13

23

16 − 1

6

y si se calcula de la siguiente forma,

>> format rat, A = [1,−1, 3; 1,−2, 2; 2, 0, 2]; F = inv(transpose(A))

se obtiene lo mismo.

Si Ax = b es un sistema de ecuaciones con A invertible, entonces el sistema tiene solucion unica y esta es facıl

de calcular como se muestra a continuacion.

Teorema 1.12. Sea Ax = b un sistema de ecuaciones lineales de n ecuaciones con n incognitas. Si A es

invertible entonces el sistema tiene solucion unica y esta esta dada por x = A−1b.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 27

Demostracion. Se deja como ejercicio.

Ejemplo 1.24. (MatLab) Resuelva el sistema lineal

x− y + 3z = 2

x− 2y + 2z = 1

2x + 2z = 0

.

Solucion. El sistema es equivalente a la ecuacion Ax = b con A =

1 −1 3

1 −2 2

2 0 2

y b =

2

1

0

y de acuerdo al

teorema anterior la solucion esta dada por x = A−1b la cual calculamos con MatLab

>> A = [1,−1, 3; 1,−2, 2; 2, 0, 2]; b = [2; 1; 0]; x = inv(A) ∗ b

Obteniendose el vector x =

−10

1

. Entonces la solucion al sistema esta dada por x = −1, y = 0 y z = 1.

Problemas

1.3.1. Demuestre que una matriz A =

a b

c d

es su propia inversa si y solo si A = ±I o a = −d y bc = 1−a2.

1.3.2. Encuentre cuatro matrices 2×2 que sean sus propias inversas.

1.3.3. Sea A una matriz m × n y sea B una matriz n × m con n < m, demuestre que AB no es invertible.

(Ayuda: Demuestre que existe x 6= 0 tal que ABx = 0.)

Sean A,B y C matrices de tamano n× n.

1.3.4. Demuestre que si A = BC con A y B invertibles entonces C es invertible.

1.3.5. Demuestre que si una matriz A tiene una fila o una columna de ceros, entonces A no es invertible (Use

el Lema 1.9.)

1.3.6. Demuestre el Teorema 1.12.

1.3.7. Demuestre que A−1 es invertible y que (A−1)−1 = A.

1.3.8. Si A es 4 × 3 y B es 3 × 4 muestre que AB 6= I. (Ayuda: Muestre que la ecuacion Bx = 0 tiene una

solucion no trivial.)

1.3.9. Generalizando el problema anterior, si A es m× n y B es n×m y m > n entonces AB 6= I.

28

1.4. Matrices Elementales

En esta seccion introduciremos las matrices elementales las cuales estan asociadas a las operaciones elemen-

tales definidas en la Seccion 1.

Definicion 1.13. Sea E una matriz de tamano n×n, decimos que E es una matriz elemental si E se obtiene

de la identidad al aplicar una operacion elemental de fila.

Ejemplo 1.25. Las siguientes matrices son matrices elementales:

A =

0 1 0

1 0 0

0 0 1

, B =

1 2 0

0 1 0

0 0 1

y C =

1 0 0

0 −3 0

0 0 1

.

Cada una de estas matrices se obtiene al aplicar una operacion sobre la matriz identidad, como se muestra a

conitunacion:

1 0 0

0 1 0

0 0 1

F1 ↔ F2

0 1 0

1 0 0

0 0 1

= A,

1 0 0

0 1 0

0 0 1

2F2 + F1 → F1

1 2 0

0 1 0

0 0 1

= B,

y

1 0 0

0 1 0

0 0 1

−3F2 → F2

1 0 0

0 −3 0

0 0 1

= C.

Notacion 3. Como hay tres tipos diferentes de operaciones elementales, hay un numero igual de tipos de

matrices elementales, entonces usaremos la siguiente notacion.

Eij denotara la matriz elemental que se obtiene al intercambiar las filas i y j de la matriz identidad.

Eij(c) denotara la matriz que se obtiene al sumar c veces la fila i a la fila j de la matriz identidad.

Ei(c) la matriz que se obtiene al multiplicar por la constante c la fila i de la matriz identidad.

Ejemplo 1.26. En el ejemplo anterior tenemos que A = E12, B = E21(2) y C = E2(−3).

La importancia de las matrices elementales reside en el hecho de que estas matrices reemplazan las opera-

ciones elementales ya que aplicar una operacion elemental a una matriz A es equivalente a multiplicar la matriz

elemental correspondiente a la operacion por A. Esto lo expresamos en el siguiente teorema.

Teorema 1.13. Sea A una matriz de tamano m × n y E una matriz elemental de tamano m ×m asociada a

una operacion elemental de fila, el producto EA es la matriz que se obtiene al aplicar la operacion elemental de

fila a la matriz A.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 29

La demostracion de este teorema se hace verificando que al aplicar una operacion elemental se obtiene la

misma matriz que al multiplicar la matriz asociada a la operacion elemental, se debe considerar un caso por cada

operacion elemental. La verificacion es sencilla y preferimos mostrar un ejemplo que compruebe la afirmacion.

Ejemplo 1.27. Sea A =

2 2 4

0 1 −14 5 1

. Al aplicar la operacion que multiplica la primera fila por 1

2 obtenemos

la matriz

1 1 2

0 1 −14 5 1

.

Notese que la matriz elemental asociada a esta operacion es la matriz E1(12 ) =

12 0 0

0 1 0

0 0 1

y es facil

verificar que E1(12 )A =

1 1 2

0 1 −14 5 1

.

Si en la matriz A sumamos -2 veces la fila 1 a la fila 3 obtenemos la matriz

2 2 4

0 1 −10 1 −7

.

Notese que la matriz elemental asociada a esta operacion esta dada por E13(−2) =

1 0 0

0 1 0

−2 0 1

y es facil

verificar que E13(−2)A =

2 2 4

0 1 −10 1 −7

.

Finalmente, si en la matriz A intercambiamos las filas 2 y 3 obtenemos la matriz

2 2 4

4 5 1

0 1 −1

. La matriz

elemental asociada a esta operacion de fila es E23 =

1 0 0

0 0 1

0 1 0

y facil ver que E23A =

2 2 4

4 5 1

0 1 −1

.

Las operaciones elementales de fila son reversibles, es decir, al aplicar una operacion elemental de fila, siempre

se puede aplicar otra operacion elemental que deshaga la operacion aplicada. Esto se muestra en el siguiente

ejemplo.

Ejemplo 1.28. Para ilustrar la reversibilidad de las operaciones elementales consideremos la matriz A =

30

0 1 3

2 0 2

−3 1 0

, si intercambiamos las filas 1 y 2 de esta matriz y aplicaramos nuevamente la misma operacion,

obtenemos la matriz orginal como se muestra a continuacion

0 1 3

2 0 2

−3 1 0

F1 ↔ F2

2 0 2

0 1 3

−3 1 0

F1 ↔ F2

0 1 3

2 0 2

−3 1 0

.

En general, si se intercambian dos filas de una matriz, la operacion se puede revertir al volver a intercambiarlas

una vez mas. Esto a la vez nos dice que la matriz elemental Eij, asociada a esta operacion de intercambio de

dos filas, es invertible y es igual a su propia inversa, esto es E−1ij = Eij .

Volviendo a la matriz A, si multiplicamos la fila 2 por 12 y despues multiplicamos la misma fila por 2 obtenemos

la matriz original como se muestra a continuacion

0 1 3

2 0 2

−3 1 0

12F2 → F2

0 1 3

1 0 1

−3 1 0

2F2 → F2

0 1 3

2 0 2

−3 1 0

.

En general, si se multiplica una fila de una matriz por una constante c 6= 0, la operacion se puede revertir al

volver a multiplicar la misma fila de la nueva matriz por la constante 1c . Esto a la vez nos dice que la matriz

elemental Ei(c), asociada a esta operacion de multiplicar la fila i por una constante c 6= 0, es invertible y su

inversa esta dada por Ei(c)−1 = Ei

(1c

).

Una vez mas regresamos a la matriz A, si le sumaramos 12 de la fila 2 a la fila 1 y despues le sumaramos −1

2 de

la fila 2 a la fila 1 obtenemos la matriz original como se muestra a continuacion

0 1 3

2 0 2

−3 1 0

12F2 + F1 → F1

1 1 4

2 0 2

−3 1 0

−−12 F2 + F1 → F1

0 1 3

2 0 2

−3 1 0

.

Comunmente, si se le suma c veces la fila i de una matriz a la fila j, la operacion se puede revertir al volver

a sumar −c veces la fila i a la fila j. Esto una vez mas nos dice que la matriz elemental Eij(c), asociada a

esta operacion de sumar c veces la fila i a la fila j, tambien es invertible y su inversa esta dada por Eij(c)−1 =

Eij (−c) .

De acuerdo a lo observado en el ejemplo anterior tenemos el siguiente resultado.

Teorema 1.14. Toda matriz elemental es invertible y las inversas estan dadas por

E−1ij = Eij , Eij(c)

−1 = Eij(−c) y Ei(c)−1 = Ei

(1

c

)

.

Al aplicar reduccion Gauss-Jordan a una matriz, por cada operacion elemental de fila, hay una matriz

elemental, la matriz que se obtiene al aplicar la operacion de fila a la matriz identidad. Como toda matriz se

puede reducir a una forma escalonada reducida, entonces se tiene el siguiente teorema.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 31

Teorema 1.15. Toda matriz se puede expresar como el producto de un numero finito de matrices elementales

por una matriz en forma escalonada reducida. Mas concretamente, si A es una matriz de tamano m×n, existen

matrices elementales E1, . . . , Ek todas de tamano m×m y una matriz escalonada reducida A′ tal que

A = E1 · · ·EkA′.

Demostracion. El resultado se sigue de los Teoremas 1.1 y 1.13 teniendo en cuenta que a cada operacion

elemental tiene asociada una matriz elemental.

Ejemplo 1.29. Expresar la matriz A =

1 1 0

1 1 2

2 2 2

como un producto de matrices elementales por una matriz

en forma escalonada reducida.

Solucion. Necesitamos aplicar reduccion Gauss-Jordan a la matriz A indicando las matrices elementales aso-

ciadas a cada operacion aplicada

1 1 0

1 1 2

2 2 2

−F1+F2→F2

︸ ︷︷ ︸

E12(−1)

1 1 0

0 0 2

2 2 2

−2F1+F3→F3

︸ ︷︷ ︸

E13(−2)

1 1 0

0 0 2

0 0 2

12F2→F2

︸ ︷︷ ︸

E2( 12 )

1 1 0

0 0 1

0 0 2

−2F2+F3→F3

︸ ︷︷ ︸

E23(−2)

1 1 0

0 0 1

0 0 0

.

Por el Teorema 1.13 tenemos que E23(−2)E2

(12

)E13(−2)E12(−1)A = A′ con A′ =

1 1 0

0 0 1

0 0 0

. Entonces se

tiene que

A = E12(−1)−1E13(−2)−1E2

(1

2

)−1

E23(−2)−1A′

= E12(1)E13(2)E2(2)E23(2)A′.

Escribiendo las matrices de manera explicita tenemos:

A =

1 0 0

1 1 0

0 0 1

1 0 0

0 1 0

2 0 1

1 0 0

0 2 0

0 0 1

1 0 0

0 1 0

0 2 1

1 1 0

0 0 1

0 0 0

.

A continuacion verificamos el resultado con MatLab

>> E1=[1 0 0;1 1 0;0 0 1]; E2=[1 0 0;0 1 0;2 0 1]; E3=[1 0 0;0 2 0;0 0 1]; E4=[1 0 0;0 1 0;0 2 1]; A′=[1 1

0;0 0 1;0 0 0]; A = E1 ∗ E2 ∗ E3 ∗ E4 ∗A′

Obteniendo la matriz A =

1 1 0

1 1 2

2 2 2

.

32

Ahora usaremos matrices elementales para dar un criterio de invertibilidad de una matriz. Primero debemos

observar lo siguiente.

Lema 1.16. Sea A una matriz de tamano n × n en forma escalonada reducida, entonces A es invertible si y

solo si A = I.

Demostracion. “⇒”Supongamos que A es una matriz escalonada reducida invertible y razonemos por el

absurdo, supongamos que A 6= I, entonces A tiene al menos una columna sin pivote y al ser de tamano n× n,

A debe tener al menos una fila de ceros, entonces por el Problema 1.3.5 A no puede ser invertible, lo cual es un

absurdo. Concluimos que A = I.

“⇐”Si A = I entonces A es claramente invertible.

De esto se desprende el siguiente resultado.

Teorema 1.17. Sea A una matriz de tamano n × n, entonces A es invertible si y solo si A se puede escribir

como un producto de matrices elementales.

Demostracion. “⇒”Supongamos que A es invertible. Por el Teorema 1.15 sabemos que A = E1 · · ·EkA′

con E1, . . . , Ek matrices elementales y A′ en forma escalonada reducida, como A es invertible y las matrices

elementales tambien son invertibles tenemos que A′ es invertible, entonces por el Lema 1.16 tenemos que A′ = I

y por tanto A = E1 · · ·Ek es un producto de matrices elementales.

“⇐”Si A = E1 · · ·Ek es un producto de matrices elementales, como las matrices elementales son invertibles

entonces A es el producto de matrices invertibles y por el Teorema 1.11 tenemos que A es invertible.

Ejemplo 1.30. Expresar la matriz A =

0 1 2

1 0 1

−1 −2 −2

y su inversa como un producto de matrices elementales.

Solucion. Abajo se muestra la reduccion Gauss-Jordan de esta matriz indicando la matriz elemental asociada

a cada operacion aplicada de acuerdo a la Notacion 3.

0 1 2

1 0 1

−1 −1 −2

F1↔F2

︸ ︷︷ ︸

E12

1 0 1

0 1 2

−1 −1 −2

F1+F3→F3

︸ ︷︷ ︸

E13(1)

1 0 1

0 1 2

0 −1 −1

F2+F3→F3

︸ ︷︷ ︸

E23(1)

1 0 1

0 1 2

0 0 1

−F3+F1→F1

︸ ︷︷ ︸

E31(−1)

1 0 0

0 1 2

0 0 1

−2F3+F2→F2

︸ ︷︷ ︸

E32(−2)

1 0 0

0 1 0

0 0 1

De aquı tenemos que E32(−2)E31(−1)E23(1)E13(1)E12A = I, por tanto

A−1 = E32(−2)E31(−1)E23(1)E13(1)E12 y

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 33

A = E−112 E13(1)

−1E23(1)−1E31(−1)−1E32(−2)−1

= E12E13(−1)E23(−1)E31(1)E32(2).

Las matrices elementales tambien nos ayudan a demostrar un algoritmo para calcular la inversa de una matriz,

el cual enunciamos a continuacion.

Notacion 4. Sea A y B matrices con el mismo numero de filas, a la matriz obtenida de juntar ambas matrices

se llamara matriz aumentada y se denotara por[

A B]

.

Teorema 1.18. (Algoritmo para calcular la inversa de una matriz) Sea A una matriz invertible de tamano n×n,al aplicar reduccion Gauss-Jordan a la matriz aunmentada

[

A I]

obtenemos la matriz[

I A−1]

. Mas

aun, si B es una matriz de tamano n× q, al aplicar reduccion Gauss-Jordan a la matriz aumentada[

A B]

obtenemos la matriz[

I A−1B]

.

Demostracion. Sean E1, . . . , Ek las matrices elementales asociadas a las operaciones elementales necesarias

para reducir la matriz A a su forma escalonada reducida A′. Como A es invertible entonces A′ = I y tenemos

que Ek · · ·E1A = I. Al aplicar las operaciones E1, . . . , Ek a la matriz[

A | I]

obtenemos

[A | I] E1−−→ [E1A | E1I = E1]E2−−→ [E2E1A | E2E1]→ . . .

Ek−−→

Ek · · ·E1A︸ ︷︷ ︸

=I

| Ek · · ·E1

. (1.7)

Como Ek · · ·E1A = I y como la inversa de una matriz cuadrada es unica, entonces Ek · · ·E1 = A−1, ası la

ultima matriz en la Ecuacion (1.7) es igual a[

I | A−1]

.

El mismo analisis muestra la segunda parte.

Ejemplo 1.31. (MatLab) Sea A =

0 1 2

1 1 1

−1 −2 −2

calcular A−1.

Solucion. Usando MatLab para calcular la forma escalonada reducida de la matriz[

A I]

obtenemos

>> AI = [0, 1, 2, 1, 0, 0; 1, 1, 1, 0, 1, 0;−1,−2,−2, 0, 0,1]; rref(AI)

Obteniendo la matriz aumentada[

I A]

=

1 0 0 0 2 1

0 1 0 −1 −2 −20 0 1 1 1 1

, de lo cual se sigue que la matriz

inversa A−1 =

0 2 1

−1 −2 −21 1 1

.

Ejemplo 1.32. (MatLab) Sean A =

0 1 2

1 1 1

−1 −2 −2

y B =

1 2

2 3

0 1

, calcular A−1B.

34

Solucion. De acuerdo al teorema anterior debemos encontrar la forma escalonada reducida de la matriz au-

mentada C =[

A B]

=

0 1 2 1 2

1 1 1 2 3

−1 −2 −2 0 1

, la cual calculamos usando MatLab

>> C = [0, 1, 2, 1, 2; 1, 1, 1, 2, 3;−1,−2,−2, 0, 1]; rref(C)

y se obtiene

1 0 0 4 7

0 1 0 −5 −100 0 1 3 6

. De acuerdo al teorema anterior A−1B =

4 7

−5 −103 6

.

Observacion 1.2. Del Teorema 1.18 se sigue que al aplicar reduccion Gauss-Jordan a una matriz invertible A

se obtiene I, si se aplican las mismas operaciones elementales que se aplicaron a A para reducirla a I entonces

se obtiene el producto de las correspondientes matrices elementales, producto que a su vez es igual a A−1. Es

decir, si E1, . . . , Ek son las matrices elementales asociadas a las operaciones elementales que se usaron para

reducir la matriz A, entonces al aplicar las mismas operaciones elementales y en el mismo orden sobre la matriz

I, el resultado final es A−1.

Esto es cierto ya que aplicar una operacion elemental a una matriz es equivalente a multiplicar por la matriz

elemental asociada a la operacion a la izquierda, al comenzar con I obtenemos

IE1−−→ E1I = E1

E2−−→ · · · Ek−−→ Ek · · ·E1 = A−1.

Observacion 1.3. Si en el Teorema 1.18 las columnas de la matriz B son los vectores B1, . . . , Bq, entonces al

aplicar reduccion Gauss-Jordan a la matriz aumentada[

A B]

=[

A B1 · · · Bq

]

obtenemos la matriz

A−1B =[

A−1B1 · · · A−1Bq

]

, obteniendo soluciones simultaneas a los sistemas Ax = B1, . . . , Ax = Bq.

Ejemplo 1.33. Usar la observacion anterior para resolver los sistemas

x2 + 2x3 = 1

x1 + x2 + x3 = 2

−x1 − 2x2 − 2x3 = 0

y

x2 + 2x3 = 2

x1 + x2 + x3 = 3

−x1 − 2x2 − 2x3 = 1.

Solucion. Estos sistemas son equivalentes a las ecuaciones matriciales

Ax = b1 y Ax′ = b2 donde, A =

0 1 2

1 1 1

−1 −2 −2

, b1 =

1

2

0

y b1 =

2

3

1

.

Estos se pueden resolver simultaneamente calculando la forma escalonada reducida de la matriz aumentada

[

A b1 b2

]

=

0 1 2 1 2

1 1 1 2 3

−1 −2 −2 0 1

, la cual esta dada por

1 0 0 4 7

0 1 0 −5 −100 0 1 3 6

(ver ejemplo ante-

rior) y por tanto las respectivas soluciones a los sistemas estan dadas por

x =

4

−53

y x′ =

7

−106

.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 35

Terminamos la seccion con el siguiente teorema que sera util en el proximo capıtulo, en este teorema se

explota el hecho de que las operaciones elementales son reversibles.

Teorema 1.19. Sea A una matriz de tamano m × n y A′ su forma escalonada reducida. Entonces Ax = 0 si

y solo si A′x = 0, es decir, x es una solucion al sistema homogeneo Ax = 0 si y solo si x es una solucion al

sistema A′x = 0.

Demostracion. Si A =

a11 · · · a1n...

. . ....

am1 · · · amn

, entonces el sistema es equivalente a

a11x1 + · · ·+ a1nxn = 0...

am1x1 + · · ·+ amnxn = 0,

el cual se puede resolver aplicando las operaciones elementales de fila a la matriz aumentada[

A 0]

. Si aplicamos

operaciones hasta llegar a la forma escalonada reducida obtenemos la matriz[

A′ 0]

, la cual nos da las soluciones

al sistema A′x = 0. Ahora como las operaciones elementales son reversibles, comenzando con el sistema A′x = 0,

podemos llegar al sistema Ax = 0. Por tanto Ax = 0 si y solo si A′x = 0.

Problemas

1.4.1. Determine si las siguientes matrices son invertibles y en caso afirmativo calcule su inversa.

A =

1 1 1

1 2 2

4 4 1

, B =

2 0 4

0 2 2

3 1 1

y C =

2 0 4

0 2 −103 1 1

.

1.4.2. Escriba las siguientes matrices y sus inversas como producto de matrices elementales.

A =

1 1 1

1 2 2

4 4 1

y B =

2 0 4

0 2 2

3 1 1

.

1.4.3. Escriba la matriz A como un producto de matrices elementales por una matriz en forma escalonada

reducida. A =

1 1 1 1 1 1

1 1 1 1 1 2

1 1 1 1 2 3

1 1 1 2 3 4

.

1.4.4. si A y B tienen la misma forma escalonada reducida entonces existen matrices elementales E1, . . . , Es

tal que A = E1 · · ·EsB.

1.4.5. Sean A y B matrices de tamanos m×n y n× q respectivamente. Demuestre que rango(AB) ≤ rango(A)

(Ayuda: Use el Lema 1.9 y el Teorema 1.15)

36

1.5. Inversas Laterales

En esta seccion se definira el concepto de inversa lateral, que generaliza el concepto de invertibilidad de

una matriz. Veremos que hay matrices que no son invertibles que tienen inversa a la izquierda o a la derecha y

mostraremos criterios claros que nos permitiran decidir cuando una matriz posee inversas laterales y algoritmos

para calcularlas. Terminaremos el capıtulo con un teorema que reune todas las propiedades equivalentes a que

una matriz sea invertible.

Definicion 1.14. Sea A una matriz de tamano m× n.

1. Decimos que A tiene inversa a la izquierda si existe una matriz L de tamano n×m tal que LA = In.

2. Decimos que A tiene inversa a la derecha si existe una matriz R de tamano n×m tal que AR = Im.

Ejemplo 1.34. Sean A =

1 1 0

0 1 1

y B =

1 0

0 0

0 1

, un facil calculo nos muestra que AB = I2 y por tanto B

es una inversa a la derecha de A y a la vez, A es una inversa a la izquierda de B. Notese ademas que ni A ni

B son invertibles pues no son matrices cuadradas.

Tenemos el siguiente criterio para caracterizar las matrices que tienen inversa a la derecha. En lo que sigue,

para i = 1, . . . , n denotaremos por ei al vector columna en Rn cuya entrada es uno en la posicion i y cero en

las demas entradas, es decir,

e1 =

100...00

, e2 =

010...00

, . . . en =

000...01

.

Teorema 1.20. Sea A una matriz de tamano m× n, entonces las siguientes afirmaciones son equivalentes:

1. A tiene inversa a la derecha.

2. El sistema Ax = b tiene solucion para cada b ∈ Rm.

3. rango(A) = m = numero de filas de A.

4. La funcion TA : Rn −→ Rm definida por TA(x) = Ax es sobreyectiva.

Demostracion. Vamos a demostrar que 1⇔ 2, 2⇔ 3 y 2⇔ 4.

“1 ⇒ 2”Si A tiene inversa a la derecha, existe R =[

R1 · · · Rm

]

de tamano n × m tal que AR = I. Sea

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 37

b = b1e1 + · · ·+ bmem ∈ Rm entonces el vector c = b1R1 + · · ·+ bmRm es una solucion al sistema Ax = b ya que

Ac = A(b1R1 + · · ·+ bmRm) = b1AR1 + · · ·+ bmARm

=[

AR1 · · · ARm

]

b1...

bm

= A[

R1 · · · Rm

]

︸ ︷︷ ︸

=R

b

= AR︸︷︷︸

=I

b

= b.

“2 ⇒ 1”Supongamos que la ecuacion Ax = b tiene solucion para cada b, entonces para cada i = 1, . . . ,m, la

ecuacion Ax = ei tiene solucion. Sean r1, . . . , rm las soluciones respectivas dichas ecuaciones. Es decir,

Ar1 = e1, . . . , Arm = em.

Sea R =[

r1 · · · rm

]

, entonces se tiene que

AR = A[

r1 · · · rm

]

=

[

Ar1︸︷︷︸

=e1

· · · Arm︸︷︷︸

=em

]

=[

e1 · · · em

]

= Im.

Por tanto R es la inversa a la derecha de A.

“2⇒ 3”Supongamos que Ax = b tiene solucion para cada b y sabemos que rango(A) ≤ m = numero de filas de

A. Si rango(A) < m, entonces las forma escalonada A′ de A tiene al menos una fila de ceros. Sean E1, . . . , Ek

matrices elementales tal que A′ = E1 · · ·EkA y sea b = E−1k · · ·E−1

1 em entonces al aplicar reduccion Gauss-

Jordan a la matriz[

A b]

usando las operaciones elementales de fila asociadas a las matrices E1, . . . , Ek

obtenemos la matriz

[

E1 · · ·EkA︸ ︷︷ ︸

=A′

E1 · · ·Ekb︸ ︷︷ ︸

em

]

=[

A′ em

]

. Como la ultima fila de A′ es de ceros, entonces

el sistema es inconsistente, es decir, para b = E−1k · · ·E−1

1 em, la ecuacion Ax = b no tiene solucion, lo que

contradice la hipotesis. Por tanto rango(A) = m.

“3 ⇒ 2”Si rango(A) = m = # de filas, entonces A′ tiene un pivote en cada fila, por tanto para todo b ∈ Rm

se tiene que la matriz[

A b]

no tiene pivote en la ultima columna y ası el sistema Ax = b siempre tiene al

menos una solucion.

“2 ⇒ 4”Si la ecuacion Ax = b tiene solucion para todo b, entonces para todo b ∈ Rm, existe c ∈ R

n tal que

b = Ac = TA(c). Por tanto TA es sobre.

“4⇒ 2”Si TA es sobre, para todo b ∈ Rm, existe c ∈ R

n tal que b = TA(c) = Ac, es decir, x = c es una solucion

al sistema Ax = b.

La parte 3. de este teorema nos dice que una matriz tiene inversa a la derecha si y solo si su forma escalonada

reducida tiene un pivote en cada fila. El teorema tambien nos ofrece un metodo calcular la inversa a la derecha, el

38

cual esta casi explıcito en la demostracion de 1⇒ 2, ya que en ese numeral se prueba que las columnas R1, . . . , Rm

de la inversa a la derecha R son las respectivas soluciones a las ecuaciones Ax = e1, Ax = e2, . . . , Ax = en como

se ilustra en el siguiente ejemplo.

Procedimiento 1.1. Sea A una matriz de tamano m× n y A′ la forma escalonada reducida de A, si A′ tiene

un pivote en cada fila entonces A tiene una inversa a la derecha, para calcularla hacemos lo siguiente:

1. Para i = 1, · · · ,m, calculamos una solucion ri al sistema Ax = ei, es decir, un vector ri tal que Ari = ei.

Sabemos que estos vectores existen por el Teorema 1.2.

2. Se hace R =[

r1 · · · rm

]

la matriz cuyas columnas son los vectores r1, · · · , rm calculados en el paso

anterior.

De acuerdo al Teorema 1.20, la matriz R es una inversa a la derecha de A.

Ejemplo 1.35. Determine si la matriz A =

1 2 2

−1 0 4

tiene inversa a la derecha y en caso afirmativo

calcular una inversa a la derecha de A.

Solucion. Como la forma escalonada de reducida de A es la matriz A′ =

1 0 −40 1 3

se tiene que rango(A) =

2 = numero de filas, por tanto A tiene inversa a la derecha por el Teorema 1.20.

Para encontrar la inversa a la derecha de A debemos encontrar soluciones a las ecuaciones Ax = e1 y Ax =

e2. Se puede verificar que soluciones particulares a estas ecuaciones estan dadas por r1 =

0

12

0

y r2 =

0

− 14

14

y

por tanto una inversa a la derecha de A esta dada por

R =[

r1 r2

]

=

0 0

12 − 1

4

0 14

.

El siguiente teorema carateriza las matrices con inversa a la izquierda, las propiedades son analogas a las del

teorema anterior para la inversa a derecha.

Teorema 1.21. Sea A una matriz de tamano m× n, entonces las siguientes afirmaciones son equivalentes:

1. A tiene inversa a la izquierda.

2. El sistema Ax = b tiene a lo sumo una solucion para cada b ∈ Rm.

3. La funcion TA : Rn −→ Rm definida por TA(x) = Ax es inyectiva.

4. El sistema Ax = θm tiene solucion unica.

5. rango(A) = n = numero de columnas de A.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 39

Demostracion. Para este teorema demostraremos las equivalencias en el orden 1⇒ 2, 2⇒ 3, 3⇒ 4, 4⇒ 5 y

5⇒ 1.

“1⇒ 2”Supongamos que A tiene inversa a la izquierda L , y sean v y w soluciones al sistema Ax = b. Entonces

v = Iv = L Av︸︷︷︸

=b

= L b︸︷︷︸

=Aw

= LA︸︷︷︸

=I

w = Iw = w.

Como v = w el sistema tiene a lo sumo una solucion.

“2 ⇒ 3”Supongamos que Ax = b tiene a lo sumo una solucion para todo b y que TA(v) = TA(w), entonces

Av = Aw. Sea b = Av, entonces la ecuacion Ax = b tiene dos soluciones v y w, entonces v = w.

“3⇒ 4”Supongamos que TA es inyectiva. Entonces si v es tal que Av = θ se tiene que θ = Av = TA(v) y como

TA(θ) = Aθ = θ entonces TA(v) = TA(θ) y como TA es inyectiva, v = θ.

“4 ⇒ 5” Supongamos que el sistema Ax = θ tiene solucion unica, entonces por el Teorema 1.2 la forma

escalonada reducida de la matriz[

A θ]

=[

A′ θ]

, donde A′ es la forma escalonada reducida de A tiene

un pivote en todas la columnas excepto la ultima, es decir, A′ tiene un pivote en cada columna y por tanto

rango(A) = n = numero de columnas de A.

“5⇒ 1”Supongamos que rango(A) = n, entonces la forma escalonada A′ de A tiene un pivote en cada columna,

por tanto

A′ =

1 0 ··· 00 1 ··· 0....... . .

...0 0 ··· 10 0 ··· 0....... . .

...0 0 ··· 0

.

Sean E1, . . . , Ek matrices elementales tal que A = E1 · · ·Ek ·A′ y sea

B = E−1k · · ·E−1

1 , entonces A′ = BA. Sean B1, . . . , Bm las filas de B, es decir B =

B1

...

Bm

. Como A′ = BA

tenemos lo siguiente

A′ = BA =

B1

...

Bm

A =

B1A...

BmA

.

Ahora tomemos C =

B1

...

Bn

la matriz formada con las primeras n filas de B, veamos que C es la matriz inversa

a la izquierda de A.

CA =

B1

...

Bn

A =

B1A...

BnA

= primeras n filas de A′ =

1 0 · · · 0

0 1 · · · 0...

.... . .

...

0 0 · · · 1

= I.

40

Este teorema tambien nos da una forma de determinar si una matriz tiene inversa a la izquierda (se calcula el

rango y la matriz tiene inversa a la izquierda si y solo si el rango es igual al numero de columnas). El teorema

tambien provee un algorimo para calcular dicha matriz, el cual se describe a continuacion.

Procedimiento 1.2. Sea A una matriz de tamano m × n y sea A′ la forma escalonada de de A, si A′ tiene

un pivote en cada columna entonces A tiene una inversa a la izquierda. Si A tiene inversa a la izquierda esta

se puede calcular haciendo lo siguiente:

1. Se aplica reduccion Gauss-Jordan a la matriz.

2. Se calcula el producto de las matrices elementales Ek · · ·E1 asociadas a las operaciones elementales usadas

en el paso anterior. Este producto se puede calcular directamente aplicando sucesivamente las operaciones

elementales que se aplicaron en el paso anterior para reducir la matriz A comenzando con la matriz

identidad Im, con m = numero de filas de A.

3. La matriz L formada por las primeras n filas de la matriz Ek · · ·E1 es la inversa a la izquierda.

Ejemplo 1.36. (MatLab) Para cada una de las matrices abajo, determine si tienen inversa a la izquierda y

encuentrela en caso afirmativo.

a. A =

2 −1−4 2

−2 1

b. B =

1 −1 0

2 −1 1

c. C =

1 −10 1

2 1

.

Solucion.

1. Usando MatLab para calcular el rango de la matriz A obtenemos

>> A = [2,−1;−4, 2;−2, 1]; r = rank(A)

que r = 1, ası como rango(A) = 1 < numero de columnas, entonces por el Teorema 1.21 la matriz no

tiene inversa a la izquierda.

2. La matriz B tiene 2 filas, de donde rango(B) ≤ 2 < 3 =numero de columnas. Por tanto B no tiene

inversa a la izquierda.

3. El rango de esta matriz C es dos, entonces C tiene inversa a la izquierda. Para calcular una inversa a la

izquierda debemos aplicar el procedimiento descrito arriba,

1. Apliquemos reduccion Gauss-Jordan a la matriz C

1 −10 1

2 1

−2F1+F3→F3

︸ ︷︷ ︸

E1

1 −10 1

0 3

F2+F1→F1

︸ ︷︷ ︸

E2

1 0

0 1

0 3

−3F2+F3→F3

︸ ︷︷ ︸

E3

1 0

0 1

0 0

.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 41

Donde E1, E2 y E3 son las matrices elementales asociadas a cada una de las operaciones ejecutadas.

2. Aplicamos las operaciones efectuadas en la reduccion a la matriz identidad 3× 3. Esto es equivalente a

multiplicar las matrices elementales asociadas a las operaciones.

1 0 0

0 1 0

0 0 1

−2F1+F3→F3

1 0 0

0 1 0

−2 0 1

︸ ︷︷ ︸

E1

F2+F1→F1

1 1 0

0 1 0

−2 0 1

︸ ︷︷ ︸

E2E1

−3F2+F3→F3

1 1 0

0 1 0

−2 −3 1

= E3E2E1.

3. La matriz L =

1 1 0

0 1 0

, obtenida al suprimir la ultima fila a la matriz E3E2E1, es una inversa a la

izquierda de C.

Hay otra forma de calcular la inversa a la izquierda de una matriz. Es facil ver que si R es una inversa a la

derecha de At entonces L = Rt es una inversa a la izquierda de A. Esto se ilustra en el siguiente ejemplo.

Ejemplo 1.37. (MatLab) Calcular una inversa a la izquierda de la matriz C =

1 −10 1

2 1

.

Solucion. Para calcular la inversa a la derecha de Ct, necesitamos resolver las ecuaciones Ctx = e1 y Ctx = e2.

Estas soluciones las calculamos con MatLab

>> Ct = [1, 0, 2;−1, 1, 1]; e1 = [1; 0]; e2 = [0; 1]; r1 = A\e1, r2 = A\e2

r1 =

13

0

13

y r2 =

− 23

0

13

.

Entonces una inversa a la derecha de Ct es la matriz R =

13 − 2

3

0 0

13

13

, por tanto una inversa a la izquierda de

C es la matriz L = Rt =

13 0 1

3

− 23 0 1

3

.

De estos resultados obtenemos la siguiente caracterizacion para matrices invertibles.

Corolario 1.22. (Caracterizacion de una matriz invertible) Sea A una matriz cuadrada de tamano n × n,

entonces las siguientes afirmaciones son equivalentes:

1. A es invertible.

2. A tiene inversa a la izquierda.

42

3. El sistema Ax = b tiene a lo sumo una solucion para cada b ∈ Rn.

4. La funcion TA : Rn −→ Rn definida por TA(x) = Ax es inyectiva.

5. El sistema Ax = θn tiene solucion unica.

6. rango(A) = n = numero de columnas de A = numero de filas deA.

7. A tiene inversa a la derecha.

8. El sistema Ax = b tiene solucion para cada b ∈ Rm.

9. La funcion TA : Rn −→ Rn definida por TA(x) = Ax es sobreyectiva.

10. La funcion TA : Rn −→ Rn definida por TA(x) = Ax es biyectiva.

11. At es invertible.

12. A es un producto de matrices elementales.

Demostracion. Las condiciones 1. y 12. son equivalentes por el Teorema 1.17, las condiciones 1. y 11. son

equivalentes por el Teorema 1.11, las condiciones 2. a 6. son equivalentes por el Teorema 1.21 y las condiciones

6. a 10. son equivalentes por el Teorema 1.20. Es suficiente demostrar que 1⇔ 2.

“1⇒ 2”Si A es invertible, entonces A−1A = I y por tanto A−1 es inversa a la izquierda de A.

“2⇒ 1”Si A tiene inversa a la izquierda, entonces existe B tal que BA = I y por el Teorema 1.21, rango(A) = n =

numero de columnas. Como A es cuadrada entonces el numero de filas es igual al numero de columnas e igual

al rango(A), entonces por el Teorema 1.20, A tiene una inversa a la derecha C, de donde AC = I, entonces se

tiene que

B = BI = B(AC) = (BA)C = IC = C.

Entonces BA = AB = I y por tanto A es invertible y B = A−1.

Problemas

1.5.1. Determine cual de las matrices tiene inversa a la izquierda o a la derecha y compute una para las que la

tengan:

a.

1 1 1

2 2 2

. b.

2 −1 5

3 4 1

. c.

1 2

4 8

2 4

. d.

1 1

1 2

1 4

.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 43

1.5.2. Encuentre soluciones a las ecuaciones Ax = e1 y Ax = e2 con A =

1 3 1

4 1 2

y uselas para calcular

una inversa a la derecha de la matriz A.

1.5.3. Calcule una inversa a la izquierda de la matriz A =

1 1 1

1 1 2

1 2 3

1 2 4

.

1.5.4. Calcule una inversa a la derecha de la matriz B =

1 1 1 1 1 1

1 1 1 1 1 2

1 1 1 1 2 3

1 1 1 2 3 4

de dos formas: primero usando

el Procedimiento 1.1 y despues usando el Procedimiento 1.2 para calcular una inversa a la izquierda de Bt.

1.5.5. Demuestre que si una matriz A de tamano m × n tiene inversa a la izquierda L e inversa a la derecha

R, entonces L = R y m = n.

1.5.6. Demuestre que L es una inversa a la izquierda de A si y solo si Lt es in inversa a la derecha de At.

Concluya que si rango(A) = numero de columnas de A, entonces rango(At) = rango(A).

1.5.7. Si A es 4 × 3 y B es 3 × 4 muestre que AB no es invertibe. (Ayuda: Muestre que la ecuacion Bx = 0

tiene una solucion no trivial.)

1.5.8. Gerenalizando el problema anterior, si A es n × m y B es m × n con m < n muestre que AB no es

invertible.

1.5.9. Muestre que una matriz no cuadrada no puede tener inversa a la izquierda y a la derecha.

1.5.10. Muestre que una matriz no cuadrada no puede ser la inversa a la izquierda y a la derecha de otra

matriz.

1.5.11. Muestre que Ax = b tiene solucion para todo b si y solo si Aty = 0 tiene solucion unica.

1.5.12. Muestre que las matrices inversas a izquierda o derecha de una matriz no cuadrada no son unicas, de

hecho, pueden existir infinitas.

El siguiente ejercicio tiene el proposito de mostrar que en la definicion de matrices cuadradas invertibles es

suficiente exigir que existe B tal que AB = I.

1.5.13. Sea A ∈Mn(R) una matriz y suponga que existe B tal que AB = I. Demuestre lo siguiente:

1. rangoA = n.

2. existe C tal que CA = I.

44

3. C = B

4. A es invertible.

Capıtulo 2

Espacios Vectoriales

2.1. Definicion y Ejemplos

En el capıtulo anterior se dieron ejemplos, sin mencionarlo, de espacios vectoriales. Mas concretamente en los

Teorema 1.5 y 1.6 se mostro que el conjunto de matrices de tamano m × n y el conjunto de vectores columna

Rn son espacios vectoriales. Solo nos falta enunciar la definicion y ver que estos conjuntos la satisfacen. En

este capıtulo solo trabajaremos sobre Rn y los teoremas seran acerca de este conjunto, en el Capıtulo 3 se

demostraran los teoremas generales.

Definicion 2.1. Sea V un conjunto no vacio con dos operaciones + : V × V → V y · : R × V → V , decimos

que V es un espacio vectorial sobre R si para todo x, y y z ∈ V y para todo α y β ∈ R se cumple lo siguiente:

1. (x+ y) + z = x+ (y + z),

2. existe θ ∈ V tal que θ + x = x+ θ = x, (A θ se le llama el neutro de V )

3. existe w tal que x+ w = w + x = θ, (A w se le llama el inverso aditivo de x)

4. x+ y = y + x,

5. α · (x+ y) = α · x+ α · y,6. (α+ β) · x = αx+ β · x,7. α · (β · x) = (αβ) · x,8. 1 · x = x.

Ejemplo 2.1. 1. El conjunto de vectores en Rm es un espacio vectorial, por el Teorema 1.6.

2. El conjunto de matrices m× n es un espacio vectorial, esto por el Teorema 1.5. A este conjunto lo deno-

taremos por Mmn(R) cuando las entradas sean reales y por Mmn(C) cuando las entradas sean complejas.

En el caso en que m = n, usaremos la notacion Mn(R) o Mn(C).

3. Sea Pn = {a0 + a1t+ · · ·+ antn | a0, . . . , an ∈ R} el conjunto de polinomios de grado a lo sumo n en la

indeterminada t, este conjunto es un espacio vectorial sobre R bajo las operaciones:

45

46

a0 + a1t+ · · ·+ antn + b0 + b1t+ · · ·+ bnt

n = (a0 + b0) + (a1 + b1)t+ · · ·+ (an + bn)tn y

α · (a0 + a1t+ · · ·+ antn) = α · a0 + α · a1t+ · · ·+ α · antn.

Veamos que estas operaciones satisfacen todas las propiedades de la

definicion de espacio vectorial.

Sean p1 = a0 + a1t+ · · ·+ antn, p2 = b1t+ · · ·+ bnt

n y p3 = c0 + c1t+ · · ·+ cntn ∈ Pn, α, β ∈ R,

1.

(p1 + p2) + p3 =(a0 + a1t+ · · ·+ antn + b0 + b1t+ · · ·+ bnt

n)

+ c0 + c1t+ · · ·+ cntn

=(a0 + b0) + (a1 + b1)t+ · · ·+ (an + bn)tn

+ c0 + c1t+ · · ·+ cntn

(definicion de suma en Pn)

=((a0 + b0) + c0) + ((a1 + b1) + c1)t+ . . .

· · ·+ ((an + bn) + cn)tn

(definicion de suma en Pn)

=(a0 + (b0 + c0)) + (a1 + (b1 + c1))t+ . . .

· · ·+ (an + (bn + cn))tn

(asociatividad en R)

=a0 + a1t+ · · ·+ antn + (b0 + c0) + (b1 + c1)t+ . . .

· · ·+ (bn + cn)tn

(definicion de suma en Pn)

=a0 + a1t+ · · ·+ antn

+ (b0 + b1t+ · · ·+ bntn + c0 + c1t+ · · ·+ cnt

n)

(definicion de suma en Pn)

=p1 + (p2 + p3)

2. Sea θ = 0 el polinomio constante = 0, entonces

p1 + θ = a0 + a1t+ · · ·+ antn + 0 = a0 + a1t+ · · ·+ ant

n = p1

3. Sea w = −a0 − a1t+ · · · − antn entonces

w + p1 = −a0 − a1t+ · · · − antn + a0 + a1t+ · · ·+ ant

n+

= (−a0 + a0) + (−a1 + a1)t+ · · ·+ (−an + an)tn

= 0 = θ.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 47

4.

p1 + p2 = a0 + a1t+ · · ·+ antn + b0 + b1t+ · · ·+ bnt

n

= (a0 + b0) + (a1 + b1)t+ · · ·+ (an + bn)tn

(Definicion de suma en Pn)

= (b0 + a0) + (b1 + a1)t+ · · ·+ (bn + an)tn

(Conmuatitividad en R)

= b0 + b1t+ · · ·+ bntn + a0 + a1t+ · · ·+ ant

n

(Definicion de suma en Pn)

= p2 + p1

5.

α · (p1 + p2) = α · (a0 + a1t+ · · ·+ antn + b0 + b1t+ · · ·+ bnt

n)

= α · ((a0 + b0) + (a1 + b1)t+ · · ·+ (an + bn)tn)

definicion de suma en Pn

= α(a0 + b0) + α(a1 + b1)t+ · · ·+ α(an + bn)tn

definicion de producto por escalar en Pn

= (αa0 + αb0) + (αa1 + αb1)t+ · · ·+ (αan + αbn)tn

distributividad en R

= αa0 + αa1t+ · · ·+ αantn + αb0 + αb1t+ · · ·+ αbnt

n

definicion de suma en Pn

= α · (a0 + a1t+ · · ·+ antn) + α · (b0 + b1t+ · · ·+ bnt

n)

definicion de producto por escalar en Pn

= α · p1 + α · p2

48

6.

(α+ β) · p1 = (α+ β) · (a0 + a1t+ · · ·+ antn)

= (α+ β)a0 + (α+ β)a1t+ · · ·+ (α+ β)antn

definicion de producto por escalar en Pn

= (αa0 + βa0) + (αa1 + βa1)t+ · · ·+ (αan + βan)tn

ditributividad en R

= αa0 + αa1t+ · · ·+ αantn + βa0 + βa1t+ · · ·+ βant

n

definicion de suma en Pn

= α · (a0 + a1t+ · · ·+ antn) + β · (a0 + a1t+ · · ·+ ant

n)

definicion de producto por escalar en Pn

= α · p1 + β · p1

7.

(αβ) · p1 = (αβ) · (a0 + a1t+ · · ·+ antn)

= (αβ)a0 + (αβ)a1t+ · · ·+ (αβ)antn

definicion de producto por escalar en Pn

= α(βa0) + α(βa1)t+ · · ·+ α(βan)tn

asociatividad en R

= α · (βa0 + βa1t+ · · ·+ βantn)

definicion de producto por escalar en Pn

= α · (β · (a0 + a1t+ · · ·+ antn))

definicion de producto por escalar en Pn

= α · (β · p1)

8.

1 · p1 = 1 · (a0 + a1t+ · · ·+ antn) = 1 · a0 + 1 · a1t+ · · ·+ 1 · antn

= a0 + a1t+ · · ·+ antn

= p1.

4. El conjunto de polinomios con entradas en R,

R[t] = {a0 + a1t+ · · ·+ antn | a0, . . . , an ∈ R, n ∈ N ∪ {0}} ,

es un espacio vectorial.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 49

5. Si X es un conjunto, el conjunto de funciones de X en R,

F(X,R) = {f : X −→ R | f es una funcion },

es un espacio vectorial sobre R con las operaciones de suma y producto por escalar definidos por:

(f + g)(x) = f(x) + g(x) y (αf)(x) = αf(x).

Los detalles se dejan como ejeercicio al lector.

Los espacios vectoriales satisfacen las siguientes propiedades que se desprenden de la definicion.

Teorema 2.1. Sea V un espacio vectorial, x ∈ V y α ∈ R entonces

1. El neutro es unico, es decir, si θ y θ′ son neutros entonces θ = θ′,

2. el inverso aditivo de x es unico, es decir, si w y w′ son inversos aditivos de x entonces w = w′, (dada la

unicidad del inverso aditivo de x, este sera denotado por −x)

3. α · θ = θ, 4. 0 · x = θ,

5. −1 · x = −x, 6. Si α · x = θ entonces α = 0 o x = θ.

Demostracion. 1. θ = θ + θ′ = θ′ + θ = θ′.

2. w = w + θ = w + (x+ w′) = (w + x) + w′ = θ + w′ = w′.

3. αθ + αθ = α(θ + θ) = αθ, sumando el inverso aditivo de αθ a ambos lados tenemos: αθ = θ.

4. 0x = (0 + 0)x = 0x+ 0x, sumando el inverso aditivo de 0x a ambos lados tenemos que θ = 0x.

5. −1x+x = −1x+1x = (−1+1)x = 0x = θ. como el inverso aditivo de x es unico, tenemos que −1x = −x.

6. Supongamos que αx = θ y que α 6= 0. Si multiplicamos a ambos lados por1

αtenemos que

1

α(αx)

︸ ︷︷ ︸

=

1

αα

︸︷︷︸=1

x

=1

αθ

︸︷︷︸

⇒ 1x︸︷︷︸

=x

= θ ⇒ x = θ

Problemas

2.1.1. Demuestre que R+ = {x ∈ R | x > 0} es un espacio vectorial bajo las operaciones

x⊕ y = xy y α • x = xα,

para todo x, y ∈ R+ y todo α ∈ R.

50

2.1.2. Generalizando el problema anterior, demuestre que el conjunto

(R+)n= {(x1, . . . , xn) | x1, . . . , xn ∈ R

+} es un espacio vectorial bajo las operaciones

(x1, . . . , xn)⊕ (y1, . . . , yn) = (x1y1, . . . , xnyn) y α • (x1, . . . , xn) = (xα1 , . . . , x

αn).

2.1.3. Determine cuales de los siguientes conjuntos son espacios vectoriales con las operaciones indicadas. Si

no lo son, enuncie las propiedades que no cumplen.

1. El conjunto de matrices simetricas, {A ∈Mn(R) | At = A}, bajo la suma y el producto por escalar usual de

matrices. (La suma y producto usual de matrices se dieron en la Definicion ??.)

2. El conjunto de matrices anti-simetricas, {A ∈ Mn(R) | At = −A}, bajo la suma y el producto por escalar

usual de matrices.

3. El conjunto R+×R =

x

y

∣∣∣∣x, y ∈ R, x > 0

bajo la suma y el producto por escalar usual de R

2. (La suma

y producto usual de vectores en Rn se dieron en la Definicion ??.)

4. El conjunto (R \ R+)× (R \ R+) =

x

y

∣∣∣∣x, y ∈ R, x, y < 0

bajo la suma y el producto por escalar usual

de R2.

5. El conjunto

R+ × R

+ ∪(R \ R+

)×(R \ R+

)={(x, y) ∈ R

2 | x, y ≥ 0 o x, y ≤ 0}

bajo la suma y producto por escalar usuales de R2.

6. El conjunto

x

y

x− y

∣∣∣∣x, y ∈ R, x > 0

bajo la suma y el producto por escalar usual de R3.

7. El conjunto {a + at2 + · · · + at2n | a ∈ R} bajo las operaciones de suma y producto por escalar usual de

polinomios. (Ver Ejemplo 2.1 ıtem 3.)

8. El conjunto

a 1

a a

∣∣∣∣a ∈ R

bajo las operaciones usuales para matrices.

9. El conjunto {a0 + a1t + · · · + antn | a0 = 1} bajo las operaciones de suma y producto por escalar usual de

polinomios.

2.1.4. Demuestre que R×R \ {0} es un espacio vectorial con las operaciones (a1, a2)+ (b1, b2) = (a1+ b1, a2b2)

y α(a, b) = (αa, bα).

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 51

2.1.5. Demuestre que el conjunto V =

1 a

0 1

∣∣∣∣a ∈ R

es un espacio vectorial bajo la suma definida por

A⊕B = AB donde AB denota el producto usual de matrices y el producto por escalar definido por

α ·

1 a

0 1

=

1 αa

0 1

.

2.1.6. Demuestre que un plano que pasa por el origen,

S ={(x, y, z) ∈ R

3 | αx+ βy + γz = 0, α, β, γ ∈ R},

es un espacio vectorial bajo la suma y producto por escalar usuales de R3.

2.1.7. Generalizando el problema anterior, demuestre que un hiperplano que pasa por el origen,

S = {(x1, . . . , xn) ∈ Rn | α1x1 + · · ·+ αnxn = 0, α1, . . . , αn ∈ R} ,

es un espacio vectorial bajo la suma y producto por escalar usuales de Rn.

2.1.8. Generalizando aun mas el Problema 2.1.6, demuestre que el conjunto de soluciones a un sistema ho-

mogeneo,

S =

(x1, . . . , xn) ∈ Rn

∣∣∣∣

α11x1 + · · ·+ α1nxn = 0...

αn1x1 + · · ·+ αnnxn = 0

, αij ∈ R, para i, j = 1, . . . , n.

,

es un espacio vectorial bajo la suma y producto por escalar usuales de Rn.

Ayuda: Recuerde que las soluciones al sistema de ecuaciones son las soluciones a la ecuacion matricial

Ax = 0 con A =

α11 · · · α1n

.... . .

...

αn1 · · · αnn

y x =

x1

...

xn

.

2.1.9. Demuestre que los conjuntos dados en los numerales 4. y 5. del Ejemplo 2.1 son espacios vectoriales con

las operaciones indicadas.

2.1.10. Sea V un espacio vectorial y sean x, y ∈ V , para cada una de las siguientes ecuaciones, demuestre que

existe un unico z ∈ V que la satisface

1. x+ z = y. 2. x− z = y. 3. αz = x. 4. x+ αz = y.

2.2. Subespacios

En esta seccion se dara un criterio para determinar si un subconjunto de un espacio vectorial es un subespacio

y como construir nuevos subespacios de otros.

52

Definicion 2.2. Sea V un espacio vectorial y φ 6= W ⊆ V , decimos que W es un subespacio de V si W es

tambien un espacio vectorial bajo las mismas operaciones de suma y producto por escalar de V .

Ejemplo 2.2. 1. En el Ejemplo 2.1 vimos que Pn es un espacio vectorial para todo n, como Pn−1 ⊆ Pn y

ambos son espacios vectoriales, tenemos que Pn−1 es un subespacio de Pn.

2. Tambien tenemos que Pn es un subespacio de R[t] para todo n, al ser un espacio vectorial y subconjunto

de R[t].

3. El conjunto de numeros reales R es un espacio vectorial, el conjunto de numeros complejos C tambien es

un espacio vectorial, como R ⊆ C tenemos que R es un subespacio de C.

En teorıa para demostrar que un subconjunto no vacio de un espacio vectorial V es un subespacio es necesario

determinar si cumple las ocho condiciones de la definicion, sin embargo, el siguiente teorema nos da un criterio

en el que solo es necesario mostrar que este es cerrado bajo la suma y el producto por escalar.

Teorema 2.2. Sea V un espacio vectorial y φ 6= W ⊆ V , entonces W es un subespacio de V si para todo

w,w′ ∈W y para todo α ∈ R se satisface que

1. w + w′ ∈W, 2. αw ∈W.

Demostracion. Debemos demostrar W cumple las ocho condiciones de espacio vectorial.

1. La asociatividad se cumple para todo v, v′ y v′′ ∈ V , entoncs en particular si estos estan en W .

2. Como W 6= φ, existe w ∈ W , entonces por hipotesis tenemos que −w = (−1)w ∈ W , en consecuencia

0 = −w + w ∈W .

3. Si w ∈W entonces por la hipotesis 2. tenemos que −w = (−1)w ∈W .

4-8. Estas propiedades se cumplen para todo w,w′ ∈ V , en particular si w,w′ ∈W .

Por tanto W es un espacio vectorial y como W ⊆ V , tenemos que W es un subespacio de V .

Ejemplo 2.3. Sea H =

x1

...

xn

∣∣∣∣xn = 0

⊆ Rm, demuestre que H es un subespacio de R

m.

Solucion. Primero notese que H 6= φ ya que θn ∈ H, veamos que H satisface las condiciones 1. y 2. del

Teorema 2.2. Sean

x1

...

xn

,

y1...

yn

∈ H y α ∈ R, entonces xn = 0 = yn por tanto

x1

...

xn

+

y1...

yn

=

x1 + y1...

xn + yn

=

x1 + y1...

0

∈ H y α

x1

...

xn

= α

x1

...

0

=

αx1

...

0

∈ H.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 53

El Teorema 2.2 no solo facilita la verificacion de si un subconjunto es un subespacio, tambien facilita las

demostraciones de los siguientes teoremas.

Teorema 2.3. Sea V un espacio vectorial y sean W1 y W2 subespacios de V entonces W1∩W2 es un subespacio

de V .

Demostracion. Como W1 y W2 son subespacios, entonces 0 ∈ W1 y 0 ∈ W2, se sigue que 0 ∈ W1 ∩W2 y por

tanto W1 ∩W2 6= φ. Ahora mostremos que el conjunto W1 ∩W2 satisface las condiciones 1. y 2. del Teorema

2.2.

Sean w,w′ ∈ W1 ∩W2, entonces w,w′ ∈ W1 y w,w′ ∈ W2, luego w + w′ ∈ W1 y w + w′ ∈ W2, por tanto

w + w′ ∈W1 ∩W2.

Sea α ∈ R, como W1 y W2 son subespacios tenemos que αw ∈W1 y αw ∈W2, por tanto αw ∈W1 ∩W2.

Concluimos que W1 ∩W2 es un subespacio de V .

Teorema 2.4. Sea V un espacio vectorial y sean W1 y W2 subespacios de V y definamos

W1 +W2 = {w1 + w2 | w1 ∈W1 y w2 ∈W2 }

entonces W1 +W2 es un subespacio de V .

Demostracion. Esta se deja como ejercicio.

Problemas

2.2.1. Sea V = M2(R), demuestre que H1 =

a b

0 c

∣∣∣∣a, b, c ∈ R

y H2 =

a b

b −a

∣∣∣∣a, b ∈ R

son subes-

pacios de V y describa el conjunto H1 ∩H2.

2.2.2. Demuestre el Teorema 2.4

2.2.3. Demuestre que un hiperplano H de Rn, H =

x1

...

xn

∣∣∣∣α1x1 + · · ·+ αnxn = 0, α1, . . . , αn ∈ R

es un

subespacio de Rn.

2.2.4. Sea A una matriz m × n, demuestre que el conjunto H = {x ∈ Rn | Ax = 0} es un subespacio de R

n.

(Este ejercicio es una generalizacion del ejercicio anterior, notese que en el ejercicio anterior la matriz A es la

matriz A = [α1 · · · αn]. )

2.2.5. La traza de una matriz A = (aij) ∈ Mn(R) se define como tr(A) = a11 + · · · + ann. Demuestre que

el conjunto de matrices de traza cero es un subespacio de Mn(R), a este subespacio se le denota por sln(R) o

sl(n,R).

54

2.2.6. Sean A, B ∈Mn(R) y α, β ∈ R, demuestre que

1. tr(αA+ βB) = αtr(A) + βtr(B),

2. tr(AB) = tr(BA)

3. tr(At) = tr(A).

2.2.7. De ejemplos de subconjuntos de R2 que cumplan lo siguiente:

1. que sea cerrado bajo el producto por escalar pero no que sea cerrado bajo la suma,

2. que sea cerrado bajo la suma pero que no sea cerrado bajo el producto por escalar.

2.2.8. Demuestre que el conjunto solucion de el sistema homogeneo

a11x1 + · · ·+ a1nxn = 0

...

am1x1 + · · ·+ amnxn = 0

es un subespacio de Rn.

Ayuda: Sea A =

a11 · · · a1n...

. . ....

am1 · · · amn

la matriz del sistema, demuestre que x =

x1

...

xn

es una solucion al

sistema si y solo si Ax = 0 y use el Ejercicio 2.2.4.

2.2.9. 1. Construya un contraejemplo que muestre que la union de subespacios no es un

subespacio.

2. Sea V un espacio vectorial y W1 y W2 subespacios de V , demuestre que W1 ∪W2 es un subespacio si y

solo si W1 ⊆W2 o W2 ⊆W1.

2.2.10. Sea V un espacio vectorial y sean W1 y W2 subespacios de V , demuestre que W1 +W2 es el subespacio

mas pequeno que contiene a W1 y a W2.

2.2.11. Demuestre que el conjunto de matrices simetricas,

Sn = {A ∈Mn(R) | A es simetrica },

es un subespacio de Mn(R).

2.2.12. Demuestre que el conjunto de matrices antisimetricas,

An = {A ∈Mn(R) | A es antisimetrica },

es un subespacio de Mn(R).

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 55

2.2.13. Una funcion se llama par si f(−x) = f(x), para todo x. Demuestre que el conjunto de funciones pares

es un subespacio vectorial de F(R,R).Demuestre tambien que el subconjuto formado por las funciones impares, funciones tal que f(−x) = −f(x),

para todo x, tambien es un subespacio de F(R,R).

2.2.14. Sea F = F([0, 1],R), el conjunto de funciones del intervalo [0, 1] en R, demuestre que los siguientes

subconjuntos son subespacios de F :

1. el conjunto C([0, 1],R) de funciones continuas del intervalo [0, 1] en R,

2. el conjunto

{

f ∈ F∣∣∣∣

∫ 1

0

f(x)dx = 0

}

.

2.2.15. Sea V un espacio vectorial y sean H1 y H2 subespacios, demuestre que H1 ∩H2 es el subespacio mas

grande contenido en H1 y H2.

2.2.16. Sea V = {f : R −→ R | f es una funcion } el espacio de funciones de R en R. Determine si los

siguientes conjuntos son subespacios de V .

1. H1 =

{

f ∈ V

∣∣∣∣lım

x→0−f(x) = +∞

}

. 2. H2 =

{

f ∈ V

∣∣∣∣

lımx→−∞

f(x) = 0

}

.

2.2.17. Sean H, K y L subespacios de un espacio vectorial V . Haga lo siguiente

1. Muestre que (H ∩K) + (H ∩ L) ⊆ H ∩ (K + L).

2. Exhiba un contraejemplo que muestre que la igualdad H ∩ (K + L) = (H ∩K) + (H ∩ L) no es cierta.

3. Muestre que si K ⊆ H entonces H ∩ (K + L) = K + (H ∩ L).

4. Muestre que H + (K ∩ L) ⊆ (H +K) ∩ (H + L).

5. Exhiba un contraejemplo que muestre que la igualdad H + (K ∩ L) = (H +K) ∩ (H + L) no es cierta.

2.2.18. Si A ⊆ V es un subconjunto de un espacio vectorial V , definimos L(A) como el conjunto L(A)=interseccion

de subespacios que contienen a A, muestre lo siguiente:

1. L({x}) = {ax : a ∈ R}

2. H es un subespacio de V si y solo si L(W ) = W .

3. Si A ⊆ B entonces L(A) ⊆ L(B).

4. Si H1 y H2 son subespacios entonces L(H1 ∪H2) = H1 +H2.

5. L(A) es el subespacio mas pequeno que contiene a A.

2.2.19. Muestre que {p ∈ R4[t] |∫ 1

0p(x)dx = 0} es un subespacio .

56

2.3. Independencia Lineal

En esta seccion se estudiara el concepto de independencia lineal el cual nos permitira determinar cuando

un vector en un conjunto dado de vectores se puede expresar en terminos de los demas. Tambien se dara un

criterio que nos permitira determinar computacionalmente cuando un conjunto de vectores en Rm es linealmente

independiente. Se usara muy a menudo la frase combinacion lineal, la cual definimos a continuacion.

Definicion 2.3. Sea V un espacio vectorial y sean v1, . . . , vk ∈ V , una combinacion lineal de estos vectores es

una expresion de la forma

α1v1 + · · ·+ αkvk,

donde α1, . . . , αk son reales.

Definicion 2.4. Sea V un espacio vectorial y sean v1, . . . , vk ∈ V , decimos que el conjunto {v1, . . . , vk} es

linealmente independiente si la unica combinacion lineal de los vectores v1, . . . , vk que produce el vector nulo es

la trivial, es decir, si se tiene que α1v1+ · · ·+αkvk = 0 entonces α1 = α2 = · · · = αk = 0. En este caso tambien

diremos que los vectores v1, . . . , vk son linealmente independientes o simplemente LI para simplificar.

Si el conjunto {v1, . . . , vk} no es linealmente independiente, decimos que es linealmente dependiente o simple-

mente LD para simplificar.

Observacion 2.1. De la definicion anterior se deprende que si el conjunto {v1, . . . , vk} es LD si existe una

combinacion lineal de los vectores v1, . . . , vk que se anula, es decir, {v1, . . . , vk} es LD si y solo si existen

constantes α1, . . . , αk, no todas cero, talque

α1v1 + · · ·+ αkvk = 0. (2.1)

Lo que es equivalente a decir que alguno de los vi se puede escribir como una combinacion lineal de los demas,

esto ya que al menos uno de los αi 6= 0, por tanto despejando por vi en (2.1) tenemos

vi =−α1

αiv1 − · · · −

αi−1

αivi−1 −

αi+1

αivi+1 − · · · −

αk

αivk.

Es decir, un conjunto es LD si y solo si uno de los vectores es una combinacion lineal de los demas.

Ejemplo 2.4. Los vectores v1 =

1

0

y v2 =

0

1

son LI ya que si suponemos que α1v1 +α2v2 =

0

0

tenemos

que

α1

α2

= α1v1 + α2v2 =

0

0

lo que implica que α1 = α2 = 0.

Los vectores v1 =

1

1

y v2 =

2

2

son LD ya que v2 = 2v1 lo que es equivalente a escribir −2v1 + v2 = 0 y

por la definicion se sigue que v1 y v2 son LD.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 57

De la ultima observacion obtenemos una interpretacion geometrica que podemos usar para conjuntos pequenos

de vectores la cual exhibimos a continuacion.

El conjunto de vectores {v, w} es LD si y solo si w = αv, es decir, el conjunto {v, w} es LD si y solo si w

es un multiplo de v. La siguiente figura nos muestra las posibilidades y aunque se usa una grafica en R2, vale

la pena aclarar que la mismos casos se cumplen para un par de vectores en dimensiones mayores.

Vectores LD Vectores LI

w

vv

w

Un conjunto formado por tres vectores {v, w, z} es LD si y solo si uno de ellos es combinacion lineal de los

otros. Esta ultima propiedad nos lleva a dos casos:

Caso 1: Dos vectores, digamos w y z, son ambos multiplos de v. En este caso los tres vectores estan contenidos

en una lınea.

Caso 2: Un vector, digamos z, es combinacion lineal de v y w, pero v no es multiplo de w. En este caso

tenemos que z es de la forma z = αv+ βw y como la suma de dos vectores se rige por la ley del paralelogramo,

esta ultima ecuacion implica que z esta contenido en el mismo plano que contiene a v y w.

Concluimos que tres vectores son LD si y solo si estos estan contenidos en una lınea o en un plano.

En consecuencia tenemos que tres o mas vectores en R2 son necesariamente LD. La siguiente figura nos

muestra los posibles casos geometricos de tres vectores

Vectores LD Vectores LD Vectores LI

b b b

vw

z

zw

v

z

Del Teorema 2.5 se deduce facilmente que cuatro o mas vectores en R3 son LD, por tanto, para exhibir

geometricamente cuatro vectores LI se necesitan al menos 4 dimensiones y por este motivo no podemos exhibir

mas figuras en las que se consideren cuatro o mas vectores LI.

Ejemplo 2.5. 1. El conjunto

v1 =

1

−12

, v2 =

2

3

0

, v3 =

−1−96

es LD ya que v3 = 3v1 − 2v2 de donde

3v1 − 2v2 − v3 = 0.

58

2. El conjunto de vectores

v1 =

1

1

0

, v2 =

0

1

1

, v3 =

1

0

1

es LI ya que si existieran constantes α1, α2, α3

tal que α1v1 + α2v2 + α3v3 = 0 entonces tendrıamos que

0

0

0

= α1v1 + α2v2 + α3v3 = α1

1

1

0

+ α2

0

1

1

+ α3

1

0

1

=

α1

α1

0

+

0

α2

α2

+

α3

0

α3

=

α1 + α3

α1 + α2

α2 + α3

De donde

α1 + α3 = 0

α1 + α2 = 0

α2 + α3 = 0

, el cual es equivalente a la ecuacion matricial

1 0 1

1 1 0

0 1 1

α1

α2

α3

=

0

0

0

. (2.2)

Al aplicar reduccion Gauss-Jordan a la matriz

1 0 1

1 1 0

0 1 1

obtenemos la matriz identidad, luego la unica solucion

al sistema (2.2) es la trivial, α1 = 0, α2 = 0 y α3 = 0. Por tanto el conjunto {v1, v2, v3} es LI.

En Rm es facil establecer un criterio para determinar si un conjunto de vectores es LI o no. De la definicion se

sigue que un conjunto de vectores {v1, . . . , vk} ⊆ Rm es LD si existen constantes α1, . . . , αk, no todas cero tal

que α1v1 + · · ·+ αkvk = 0 pero esta ecuacion la podemos escribir matricialmente de la siguiente forma

0 = α1v1 + · · ·+ αkvk =[

v1 · · · vk

]

α1

...

αk

.

De esto se sigue que los vectores son LD si la ecuacion α1v1 + · · · + αkvk =[

v1 · · · vk

]

α1

...

αk

=

0...

0

tiene

soluciones no triviales lo cual, por el Teorema 1.21, es equivalente a que el rango de A es igual al numero de

sus columnas. Este criterio lo enunciamos a continuacion en le siguiente teorema.

Teorema 2.5. Sea {v1, . . . , vk} ⊆ Rm y sea A =

[

v1 · · · vk

]

la matriz cuyas columnas son los vectores

v1, . . . , vk, entonces el conjunto {v1, . . . , vk} es LI si y solo si rangoA = k = # de columnas de A.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 59

Demostracion. El conjunto {v1, . . . , vk} es LI si y solo si las unicas constantes α1, . . . , αk tal que α1v1+ · · ·+

αkvk = 0 son α1 = · · · = αk = 0 si y solo si la unica solucion al sistema[

v1 · · · vk

]

︸ ︷︷ ︸

=A

α1

...

αk

=

0...

0

es el vector

α1

...

αk

=

0...

0

y por el Teorema 1.21 esto es equivalente a que rangoA = k = # de columnas de A.

En este capıtulo nos concentraremos en estudiar criterios que aplican solo para vectores en Rm, pero estos

seran generalizados a espacios vectoriales arbitrarios de dimension finita en la Capıtulo 3 usando los teoremas

de isomorfismo.

Del teorema se deduce el siguiente procedimiento computacional para determinar si un conjunto de vectores

es LI y si no lo son, tambien nos permite encontrar la dependencia lineal entre los vectores, el procedimiento se

enuncia a continuacion.

Procedimiento 2.1. (Procedimiento para determinar si un conjunto de vectores de Rm es lineal-

mente independiente.) Sea {v1, . . . , vk} un conjunto de vectores en Rm, para determinar si este conjunto es

LI hacemos lo siguiente:

1. Aplicamos reduccion Gauss-Jordan a la matriz A =[

v1 · · · vk

]

.

2. Si la forma escalonada reducida A′ de A tiene un pivote en cada fila entonces los vectores son LI, si no

entonces los vectores son LD.

3. Si los vectores son LD, entonces el sistema Ax = 0 o equivalentemente A′x = 0 tiene solucion. Si x =

α1

...

αk

es una solucion a este sistema, las constantes α1, . . . , αk satisfacen

α1v1 + · · ·+ αkvk = 0

la cual nos da una dependencia lineal entre los vectores.

Ejemplo 2.6. Determine si el conjunto de vectores es LI, si no lo es, encontrar una dependencia lineal entre

ellos.

1.

v1 =

1

1

0

, v2 =

2

1

−1

, v3 =

−11

2

, v4 =

0

1

1

2.

v1 =

1

1

0

, v2 =

0

1

1

, v3 =

1

0

1

60

Solucion. 1. Necesitamos aplicar reduccion Gauss-Jordan a la matriz

[

v1 v2 v3 v4

]

=

1 2 −1 0

1 1 1 1

0 −1 2 1

, cuya forma escalonada reducida esta dada por

A′ =

1 0 3 2

0 1 −2 −10 0 0 0

.

Como rango(A) = 2 < # de columnas de A entonces los vectores son LD. Para encontrar una dependencia

lineal entre estos vectores resolvemos el sistema A′x = 0, el cual nos da las ecuaciones x1 + 3x3 + 2x4 = 0 y

x2 − 2x3 − x4 = 0 o equivalentemente

x1 = −3x3 − 2x4 x2 = 2x3 + x4,

con x3 y x4 son variables libres, entonces si hacemos x3 = x4 = 1 obtenemos la solucion particular x1 = −5,x2 = 3 y x3 = x4 = 1, por tanto una dependencia lineal entre los vectores esta dada por

−5v1 + 3v2 + v3 + v4 = 0.

2. En este caso necesitamos escalonar la matriz[

v1 v2 v3

]

=

1 0 1

1 1 0

0 1 1

, cuya forma escalonada reducida

es A′ = I y por tanto rango(A) = # de columnas de A y los vectores v1, v2 y v3 son LI.

Ejemplo 2.7. Determine si el conjunto de vectores dado es linealmente independiente:

1.

{

v1 =

[11111

]

, v2 =

[11112

]

, v3 =

[11123

]

v4 =

[11234

]

,

}

2.

{

w1 =

[1111

]

, w2 =

[1112

]

, w3 =

[1123

]

, w4 =

[1234

]

, w5 =

[2345

]}

Solucion.

1. Al aplicar reduccion a la matriz A = [v1 v2 v3 v4] obtenemos la matriz A′ =

[1 0 0 00 1 0 00 0 1 00 0 0 10 0 0 0

]

, lo que implica que

rangoA = 4 y por tanto los vectores v1, v2, v3 y v4 son LI.

2. Al aplicar reduccion a la matriz A = [w1 w2 w3 w4 w5] obtenemos la matriz A′ =

[1 0 0 0 10 1 0 0 00 0 1 0 00 0 0 1 1

]

, se sigue que

rangoA = 4 < # de columnas de A y por tanto los vectores w1, w2, w3, w4 y w5 son LD.

Para calcular una dependencia lineal entre estos vectores debemos obtener una solucion a la ecuacion

Ax = 0 o equivalentemente a la ecuacion A′x = 0. Usando la matriz en forma escalonada reducida se

obtiene que una solucion x = (x1, x2, x3, x4, x5) a la ecuacion Ax = 0 satisface las ecuaciones

x1 + x5 = 0 x2 = 0 x3 = 0 y x4 + x5 = 0

con x5 libre. Asignando el valor x5 = 1 obtenemos que x1 = −1, x2 = 0 = x3 y x4 = −1, por tanto los

vectores w1, w2, w3, w4 y w5 satisfacen la relacion:

−w1 − w4 + w5 = 0.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 61

Terminamos la seccion con un corolario que nos sera util mas adelante.

Corolario 2.6. Un conjunto de vectores linealmente independientes de Rm tiene a lo sumo m vectores.

Demostracion. Sean v1, . . . , vk ∈ Rm vectores linealmente independientes y sea A =

[

v1 · · · vk

]

, dado que

las columnas de A son vectores en Rm, tenemos que la matriz tiene tamano m× k y es obvio que rango(A) ≤

mın{m, k} y por el Teorema 2.5 tenemos que rango(A) = k = # de columnas, por tanto se tiene que

k = rango(A) ≤ mın{m, k} ≤ m.

Problemas

2.3.1. Determine cuales de los siguientes conjuntos son LI, si no lo son, encuentre una dependencia lineal entre

los vectores:

a.

1

2

3

,

1

1

1

b.

1

2

3

,

1

1

1

,

1

−1−3

c.

1

2

3

,

1

1

1

,

1

1

−3

d.

1

2

3

4

,

1

1

1

1

,

1

1

−31

2.3.2. Encuentre el valor de a para los que los vectores son LI

2

2

2

,

1

2

3

,

1

−1a

.

2.3.3. Determine la relacion entre α y β para que los vecores v1 = (1, 0, 0), v2 = (0, 1, 0) y v3 = (α, β, α + β)

sean LD y exhiba una dependencia lineal entre los vectores.

2.3.4. Encuentre vectores v1, v2 y v3 de tal forma que v1, v2 sean LI y v2, v3 sean tambien LI pero que v1, v2, v3

sean LD.

2.3.5. Sea V un espacio vectorial y sean v, w ∈ V , demuestre que {v, w} es LD si y solo si w = cv con c ∈ R,

es decir, si w es un multiplo de v.

2.3.6. Sean v, w ∈ R3 con v 6= 0, demuestre que

1. si v, w son LD entonces {v, w} es una lınea que pasa por el origen,

2. si v, w son LI entonces {v, w} es un plano que pasa por el origen.

2.3.7. Sea V un espacio vectorial, sean v1, v2, v3 ∈ V y sean w1 = v1 − v2, w2 = v2 − v3 y w3 = v3. Demuestre

que {v1, v2, v3} es LI si y solo si {w1, w2, w3} es LI.

62

2.3.8. Sea V un espacio vectorial, sean v1, v2, v3 ∈ V vectores LI, demuestre que los vectores v1 + v2, v2 + v3 y

v3 + v1 son LI y los vectores v1 − v2, v2 − v3 y v3 − v1 son LD.

2.3.9. Demuestre que si el conjunto {v1, . . . , vn} es LI y k < n entonces el conjunto {v1, . . . , vk} tambien es LI.

2.3.10. Demuestre que si el conjunto {v1, . . . , vn} es LD y vn+1 es otro vector entonces el conjunto {v1, . . . , vn, vn+1}tambien es LD.

2.3.11. Sean v, w ∈ R3 vectores LI, demuestre que gen{v} + gen{w} es el plano que contiene a los vectores v

y w.

2.3.12. Sean v, w ∈ R3 vectores LD, demuestre que gen{v}+ gen{w} es la lınea que contiene al vector v.

2.3.13. Demuestre que los polinomios 1, t, t2, . . . , tn son LI.

2.3.14. Demuestre que las matrices

1 0

0 0

,

0 1

0 0

,

0 0

1 0

y

0 0

0 1

son LI.

2.3.15. Demuestre que el conjunto {sen(x), sen(2x), cos(x), cos(2x)} es LI.

2.3.16. Muestre que el conjunto los subconjuntos de M2(R) son LI.

1. {E11, E22, E12 + E21}.

2. {E12, E21, E11 − E22}.

En general denotamos por Eij a la matriz cuya ij-esima entrada es 1 y ceros en las demas posiciones.

2.4. Conjuntos generadores

El concepto mas importante en algebra lineal es el concepto de base para un espacio vectorial, el cual se define

a partir de la independencia lineal y de conjunto generador. El Corolario 2.6 mostro que un conjunto linealmente

independiente en Rm tiene a lo sumo m vectores y en esta seccion veremos como un conjunto generador en R

m

tiene al menos m vectores, mostrando como los dos conceptos se balancean.

Definicion 2.5. Sea V un espacio vectorial, decimos que los vectores v1, v2, . . . , vk generan a V , si para todo

v ∈ V existen escalares α1, α2, . . . , αk tal que

v = α1v1 + · · ·+ αkvk.

Tambien diremos que V es generado por el conjunto de vectores {v1, . . . , vk}, lo cual denotaremos por V =

gen{v1, . . . , vk}. Al conjunto {v1, . . . , vk} se le llama conjunto generador de V .

La definicion misma nos permite dar una interpretacion geometrica, para dimensiones 1, 2 y 3, de conjuntos

generadores. Veremos que en general el conjunto generado por unos vectores depende de si estos son LI o LD

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 63

Conjunto generado por un vector {v}: de la definicion, el conjunto generado por un vector, es el conjunto

{αv | α ∈ R}, es decir, el conjunto de multiplos escalares de v. Sabemos de las propiedades de producto de un

escalar por un vector, que este es el conjunto de multiplos de v y por tanto si v 6= 0 este coincide con la lınea

que contiene a v. Si v = 0 entonces gen{v} = {0} el subespacio trivial. De esto se sigue que un vector no nulo

en R genera a R, pero un vector no nulo en Rm, con m ≥ 2, no es suficiente para generar este espacio.

Lınea generada por v

v

Conjunto generado por dos vectores v1 y v2 no nulos. Distinguimos dos casos

Caso 1: los vectores v1 y v2 son LD, o equivalentemente, uno de los vectores es un multiplo del otro, digamos

v2 = αv1. En este caso el conjunto generado por estos vectores, que por definicion es el conjunto {βv1 + λv2 |β, λ ∈ R}, es en realidad una combinacion lineal de v1 ya que dadas la relacion entre v1 y v2 obtenemos que

una combinacion lineal de estos es de la forma

βv1 + λ v2︸︷︷︸

αv1

= βv1 + λαv1 = (β + λα) v1

y obtenemos que gen{v1, v2} = gen{v1} es la lınea que contiene a v1.

Caso 2: los vecores son LI, o equivalentemente, ningun vector es multiplo del otro. En este caso tenemos que

el conjunto generado por los vectores v1, v2, el cual por definicion es el conjunto {βv1 + λv2 | β, λ ∈ R} es, porla ley del paralelogramo, el plano que contiene a los dos vectores. Se sigue de esto que R

2 es generado por dos

vectores no colineales pero dos vectores no pueden generar Rm con m ≥ 3.

Dos vectores LD generan una lınea Dos vectores LI generan un plano

b b

v1v2

v2

v1

Conjunto generado por tres vectores {v1, v2, v3}. Distinguimos dos casos

Caso 1: los vectores son LD, es decir, un vector es combibacion lineal de los demas, digamos v3 = α1v1+α2v2,

en este caso el conjunto generado por los vectores v1, v2, v3 que consta de los vectores de la forma β1v1+β2v2+

β3v3 es en realidad generado por los vectores v1 y v2 ya que

β1v1 + β2v2 + β3 v3︸︷︷︸

α1v1+α2v2

= β1v1 + β2v2 + β3(α1v1 + α2v2) = (β1 + β3α1)v1 + (β2 + β3α2)v2 ∈ gen{v1, v2}

64

y por el caso anterior, sabemos que el generado por dos vectores es una lınea o un plano.

Caso 2: los vectores v1, v2, v3 son LI. En este caso los vectores generan un espacio 3-dimensional. De esto

se sigue que tres vectores LI en R3 generan el espacio 3-dimensional, pero tres vectores no son suficientes para

generar Rm con m ≥ 4.

Tres vectores LD generanuna lınea o un plano

Tres vectores LI generanun espacio 3-dimensional

b b

v1v2

v2

v1v3

v3

b

v1

v2

v3

La siguiente es una caracterizacion que sirve para determinar cuando un conjunto de vectores es un conjunto

generador de Rm.

Teorema 2.7. Sean v1, v2, . . . , vk vectores en Rm y sea A =

[

v1 · · · vk

]

la matriz cuyas columnas son los

vectores v1, v2, . . . , vk. Entonces el conjunto {v1, v2, . . . , vk} es un conjunto generador si y solo si rango(A) =

m = # de filas de A.

Demostracion. Por definicion el conjunto {v1, v2, . . . , vk} es un conjunto generador si y solo si para todo

b ∈ Rm, existen escalares α1, . . . , αk tal que b = α1v1 + · · · + αkvk =

[

v1 · · · vk

]

︸ ︷︷ ︸

A

α1

...

αk

= Ax donde

x =

α1

...

αk

, si y solo si la ecuacion Ax = b tiene solucion para todo b ∈ R

m y esto, por el Teorema 1.20, es

equivalente a que rango(A) = m = # de filas de A.

De este teorema se desprende un procedimiento para determinar si un conjunto de vectores es un conjunto

generador de Rm, el cual describimos a continuacion.

Procedimiento 2.2. (Procedimiento para determinar si un conjunto de vectores de Rm es un

conjunto generador) Sean v1, v2, . . . , vk vectores en Rm, entonces

1. Forme la matriz A =[

v1 · · · vk

]

.

2. Aplique reduccion Gauss-Jordan a A para calcular la forma escalonada reducida A′ de A.

3. Si A′ tiene un pivote en cada fila, entonces los vectores v1, v2, . . . , vk generan a Rm, de otra forma no

generan.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 65

Ejemplo 2.8. Determine si el conjunto de vectores genera a R3,

1.

v1 =

1

2

5

, v2 =

−2−4−10

, v3 =

0

1

1

, v4 =

−10

−3

2.

v1 =

1

2

5

, v2 =

−2−4−9

, v3 =

0

1

1

Solucion.

1. Siguiendo los pasos indicados en el procedimiento, primero formamos la matriz A =[

v1 v2 v3 v4

]

=

1 −2 0 −12 −4 1 0

5 −10 1 −3

. Ahora calculamos la matriz escalonada reducida de A, usando MatLab obtenemos

>> A = [1 − 2 0 − 1; 2 − 4 1 0; 5 − 10 1 − 3]; rref(A)

ans =

1 −2 0 −10 0 1 2

0 0 0 0

Como rango(A) = 2 < 3 = # de filas, entonces los vectores no generan a R3.

2. En este caso formamos la matriz A =[

v1 v2 v3

]

=

1 −2 0

2 −4 1

5 −9 1

. Ahora calculamos la matriz escalonada

reducida de A, usando MatLab obtenemos

>> A = [1 − 2 0; 2 − 4 1; 5 − 10 1]; rref(A)

ans =

1 0 0

0 1 0

0 0 1

Como rango(A) = 3 = # de filas, entonces estos vectores generan a R3, es decir, gen{v1, v2, v3} = R

3.

Corolario 2.8. Sean v1, v2, . . . , vk vectores en Rm, si k < n entonces los vectores v1, v2, . . . , vk no generan a

Rm.

Demostracion. Sea A =[

v1 · · · vk

]

, entonces rango(A) ≤ k < m = # de filas de A, entonces por el

Teorema 2.7, el conjunto no genera a Rm.

El siguiente corolario es la version del Corolario 2.6 para conjuntos generadores.

Corolario 2.9. Un conjunto generador de Rm tiene al menos m vectores.

66

Teorema 2.10. Si los vectores v1, . . . , vm ∈ Rm son linealmente independientes, entonces generan a R

m, es

decir, gen{v1, . . . , vm} = Rm.

Demostracion. Sea A =[

v1 · · · vm

]

, como los vectores v1, . . . , vm son linealmente independientes entonces,

por el Teorema 2.5, se tiene que rango(A) = m = # de columnas, pero la matriz A es de tamano m ×m, por

tanto # de filas=# de columnas. Luego rango(A) = m = # de filas de A. Por tanto por el Teorema 2.7 los

vectores v1, . . . , vm generan a Rm.

Ejemplo 2.9. En el Ejemplo 2.6 se encontro que los vectores v1 =

1

1

0

, v2 =

0

1

1

y v3 =

1

0

1

son linealmente

independientes, entonces por el teorema anterior se tiene que estos vectores generan R3.

Problemas

2.4.1. Determine si el conjunto de vectores genera a R3.

a.

1

1

2

,

−11

2

,

3

1

2

b.

1

1

2

,

−11

2

,

3

1

2

,

1

2

2

2.4.2. Determine si el conjunto de vectores genera a R4

a.

1

−13

1

,

1

1

1

2

,

2

2

2

2

,

1

0

1

0

b.

1

−13

1

,

1

1

1

2

,

2

2

2

2

,

1

7

−53

2.4.3. Sea V un espacio vectorial, sean v1, v2, v3 ∈ V y sean w1 = v1 − v2, w2 = v2 − v3 y w3 = v3. Demuestre

que el conjunto {v1, v2, v3} genera a V si y solo si el conjunto {w1, w2, w3} genera a V .

2.4.4. Sea V un espacio vectorial y sean v1, . . . , vk ∈ V , el conjunto generado por los vectores v1, . . . , vk se

define como

gen{v1, . . . , vk} = {α1v1 + · · ·+ αkvk | α1, . . . , αk ∈ R }.

Demuestre que gen{v1, . . . , vk} es un subespacio de V .

2.4.5. Sea V un espacio vectorial y sean v1, . . . , vk, w1, . . . , wl ∈ V , demuestre que

gen{v1, . . . , vk}+ gen{w1, . . . , wl} = gen{v1, . . . , vk, w1, . . . , wl}.

2.4.6. Demuestre que los polinomios 1, t, t2, . . . , tn generan a Pn.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 67

2.4.7. Demuestre que las matrices

1 0

0 0

,

0 1

0 0

,

0 0

1 0

y

0 0

0 1

generan a M2(R).

2.4.8. Demuestre que S2(R) = gen{E11, E22, E12 + E21} y A2(R) = gen{E12 − E21}.

2.4.9. sl2(R) = gen{E12, E21, E11 − E22}.

2.5. Bases

Al unir los conceptos de independencia lineal y conjunto generador se consigue uno de los conceptos mas

importantes del algebra lineal: el concepto de base de un espacio vectorial el cual definimos a continuacion.

Definicion 2.6. Sea V un espacio vectorial y sean v1, . . . , vn ∈ V , decimos que el conjunto {v1, . . . , vn} es unabase para V si

1. los vectores v1, . . . , vn son linealmente independientes,

2. los vectores {v1, . . . , vn} generan a V .

De los Corolarios 2.6 y 2.9 de las secciones anteriores tenemos lo siguiente.

Teorema 2.11. 1. Toda base de Rm tiene exactamente m vectores.

2. Un conjunto de m vectores linealmente independientes de Rm es una base.

Demostracion. 1. Se sigue de los corolarios 2.6 y 2.9.

2. Se sigue de el Teorema 2.10.

Ejemplo 2.10. En el ejemplo anterior se comprobo que los vectores v1 =

1

2

5

, v2 =

−2−4−9

y v3 =

0

1

1

son

linealmente independientes, por tanto generan y forman una base para R3.

El ultimo teorema garantiza que todas las bases de Rm tienen m vectores, en general para todos los espacios

vectoriales con un numero finito de generadores (tambien llamados finito dimensionales) se cumple que todas las

bases tienen exactamente el mismo numero de elementos. Abajo en el Teorema 2.15 se demostrara este hecho

para subespacios de Rm, el caso general se demostrara en la Seccion 3.4. Por ahora daremos un argumento

computacional que nos permitira determinar si un conjunto de vectores es una base para Rm.

Teorema 2.12. Sean v1, . . . , vm ∈ Rm y A =

[

v1 · · · vm

]

entonces el conjunto {v1, . . . , vm} es una base

para Rm si y solo si rango(A) = m.

La demostracion de este teorema es una aplicacion inmediata de los Teoremas ?? Tenemos ademas el si-

guiente corolario.

68

Corolario 2.13. an v1, . . . , vm ∈ Rm y A =

[

v1 · · · vm

]

entonces el conjunto {v1, . . . , vm} es una base para

Rm si y solo si A es invertible.

Demostracion. La demostracion se sigue del teorema anterior y el Corolario 1.22.

Nuevamente este teorema da un procedimiento para determinar si un conjunto de vectores es una base, el cual

consiste en formar una matriz con los vectores dados y determinar si el rango de esta matriz es el # de filas e

igual al # de columnas. Como lo mostramos en el siguiente ejemplo.

Ejemplo 2.11. Determine en cada caso si el conjunto de vectores dados forma una base para R3.

1.

v1 =

1

−13

, v2 =

−22

−6

, v3 =

1

1

4

2.

v1 =

1

−13

, v2 =

1

2

3

, v3 =

1

1

4

Solucion.

1. Al aplicar reduccion Gauss-Jordan a la matriz A =

1 −2 1

−1 2 −13 −6 3

formada por los vectores v1, v2 y v3,

obtenemos la matriz

1 −2 0

0 0 1

0 0 0

. Esta matriz tiene rango 2 y por tanto los vectores v1, v2 y v3 no forman

una base para R3, ya que no son LI.

2. El aplicar reduccion Gauss-Jordan a la matriz A =

1 1 1

−1 2 1

3 3 4

, formada por los vectores v1, v2 y v3,

obtenemos la matriz

1 0 0

0 1 0

0 0 1

. Como esta matriz tiene rango 3, entonces los vectores v1, v2 y v3 forman

una base para R3, ya que son LI y tres vectores LI generan a R

3.

Problemas

2.5.1. Encuentre una base de R4 que contenga los vectores (1, 2,−2, 1) y (1, 0,−2, 2).

2.5.2. Calcule una base del subespacio {p ∈ R4[t] |∫ 1

0p(x)dx = 0} de R4[t].

2.5.3. Muestre que el conjunto {E12, E21, E11 + E22} es una base de S2(R).

2.5.4. Muestre que el conjunto {E12, E21, E11 − E22} es una base de sl2(R).

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 69

2.5.5. Demuestre que {Eij + Eji | 1 ≤ i < j ≤ n} ∪ {Eii | 1 ≤ i ≤ n} es una base de Sn(R).

2.5.6. Demuestre que {Eij − Eji | 1 ≤ i < j ≤ n} es una base de An(R).

2.5.7. Demuestre que {Eij | 1 ≤ i ≤ n} ∪ {Ejj − Ej+1,j+1 | 1 ≤ j < n} es una base para sln(R).

2.5.8. Sea V un espacio vectorial y X ⊆ Y ⊆ V tal que X es LI y V = genY entonces existe una base Z tal

que X ⊆ Z ⊆ Y . En particular si Y es una base muestre que existe S ⊆ Y tal que XUS es una base de V .

2.6. Subespacio generado por un conjunto de vectores

Cuando se tiene un conjunto de vectores en Rm, el conjunto de combinaciones lineales de estos es un

subespacio, el cual podrıa ser todo Rm en el caso de que estos generen o un subespacio propio, si estos no generan

a Rm. Al conjunto de combinaciones lineales de un conjunto de vectores se le llama el conjunto generado por

los vectores y lo definimos a continuacion.

Definicion 2.7. Sea V un espacio vectorial y sean v1, . . . , vk ∈ V , definimos el conjunto generado por estos

vectores, denotado por gen{v1 . . . , vk}, como el conjunto de combinaciones lineales de los vectores v1, . . . , vk.

Esto es,

gen{v1 . . . , vk} = {α1v1 + · · ·+ αkvk | α1, . . . , αk ∈ R } .

Es facil mostrar que el conjunto generado por los vectores v1, . . . , vk ∈ V es un subespacio de V , ver Problema

2.4.4, por esta razon al conjunto gen{v1 . . . , vk} lo llamaremos el subespacio generado por los vectores v1, . . . , vk.

A continuacion demostramos que todo subespacio de Rm tiene una base finita y en consecuencia todo subes-

pacio H de Rm es el subespacio generado por un conjunto finito de vectores, es decir, existen vectores v1,

. . . , vk ∈ Rm tal que H = gen{v1, . . . , vk}.

Teorema 2.14. Sea H 6= {0} un subespacio de Rm, entonces existen vectores v1, . . . , vk ∈ R

m tal que

{v1, . . . , vk} es una base de H.

Demostracion. Sea 0 6= v ∈ H, si H = gen{v} terminamos, si no, existe v2 ∈ H \ gen{v}.Si H = {v, v2} terminamos la demostracion, si no, tomamos v3 ∈ H \ gen{v, v2}. Continuando de manera

inductiva obtenemos vectores v1, . . . , vk tal que H = gen{v, v2, . . . , vk}Debemos demostrar que los vectores son linealmente independientes. Por induccion notese que {v} es LI, ya

que si αv = 0, como v 6= 0 entonces tenemos que α = 0.

Ahora, supongamos que el conjunto {v, v2, . . . , vk−1} es LI y veamos que {v, v2, . . . , vk−1, vk} es LI. Para

esto supongamos que

αv + α2v2 + · · ·+ αkvk = 0. (2.3)

Veamos por el absurdo que αk = 0 ya que si αk 6= 0 tenemos que αkvk = −α1v1 − · · · − αk−1vk−1 y por

tanto

vk = −α1

αv1 − · · · −

αk−1

αvk−1 ∈ gen{v1, . . . , vk−1}

70

lo que contradice la escogencia del vector vk.

Se sigue que αk = 0 y la Ecuacion 2.3 se reduce a αv + α2v2 + · · ·+ αk−1vk−1 = 0 y como {v, v2, . . . , vk−1}es LI tenemos que α2 = · · · = αk−1 = 0 y por tanto {v, v2, . . . , vk−1, vk} es LI.

El hecho de que los vectores v1, . . . , vk son LI para todo k garantiza que el proceso termina en un numero

finito de pasos, de hecho se pueden tomar a lo sumo m vectores de esta forma, esto es debido a que los vectores

v1, . . . , vk ∈ Rm entonces el Corolario 2.6 garantiza que k ≤ m.

Concluimos que el conjunto {v, v2, . . . , vk} es una base de H y k ≤ m.

La demostracion de este teorema se puede adaptar para demostrar que todo subespacio de un espacio vectorial

con una base finita tiene una base finita. Existe tambien una demostracion de que todo espacio vectorial tiene

una base usando el Axioma de eleccion.

De este teorema deducimos ademas que todo subespacio de Rm tiene una base con a lo sumo m vectores,

veamos que el numero de vectores en una base es un invariante, al cual llamaremos la dimension del subespacio.

Teorema 2.15. Sea V un subespacio de Rm y sean {v1, . . . , vk} y {w1, . . . , wl} bases para V , entonces k = l.

Es decir, todas las bases de V tienen exactamente el mismo numero de vectores.

Demostracion. Primero supongamos que l > k, como los vectores v1, . . . , vk forman una base para V , entonces

por definicion de base tenemos que V = gen{v1, . . . , vk} y por tanto para i = 1, . . . , l existen constantes

α1i, . . . , αki tal que

wi = α1iv1 + · · ·+ αkivk =[

v1 · · · vk

]

α1i

...

αki

.

Uniendo estas ecuaciones obtenemos:

[

w1 · · · wl

]

=[

v1 · · · vk

]

α11 · · · α1l

.... . .

...

αk1 · · · αkl

=[

v1 · · · vk

]

A, (2.4)

donde A =

α11 · · · α1l

.... . .

...

αk1 · · · αkl

. Como l > k, entonces el sistema Ax = 0 tiene mas variables que ecuaciones y por

tanto este sistema tiene al menos una solucion no trivial, es decir, exiten constantes no todas nulas β1, . . . , βl

tal que

A

β1

...

βl

=

0...

0

. (2.5)

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 71

Luego, multiplicando la Ecuacion (2.4) a la derecha por

β1

...

βl

, obtenemos

[

w1 · · · wl

]

β1

...

βl

=[

v1 · · · vk

]

A

β1

...

βl

︸ ︷︷ ︸

=0 por Ec. (2.5)

=[

v1 · · · vk

]

0...

0

=

0...

0

.

Es decir[

w1 · · · wl

]

β1

...

βl

=

0...

0

, este ultimo sistema es equivalentemente, por el Lema 1.9, a la ecuacion

β1w1 + · · · + βlwl = 0, y se sigue que los vectores w1, . . . , wl son linealmente dependientes lo que contradice el

hecho de que forman una base para V , por tanto k ≤ l.

De igual forma se demuestra que l ≤ k y por tanto k = l.

Este lema motiva la siguiente definicion.

Definicion 2.8. Definimos la dimension de un subespacio de H de Rm, la cual denotaremos por dimH, como

el numero de elementos en una base de H.

Problemas

2.6.1. Sea V un espacio vectorial, sean v1, v2, v3 ∈ V y sean u1 = v1 − v2, u2 = v2 − v3 y u3 = v3. Demuestre

que el conjunto {v1, v2, v3} genera a V si y solo si el conjunto {u1, u2, u3} genera a V .

2.6.2. Sean H y K subespacios de Rn con dimH = dimK y H ⊆ K. Demuestre que H = K.

2.6.3. Sean v1, . . . , vk ∈ Rn y V = gen{v1, . . . , vk} entonces dimH ≤ k.

2.7. Subespacios fundamentales

Dada una matriz A se pueden definir cuatro subespacios determinados por esta, los cuales definimos a

continuacion.

Definicion 2.9. Sea A una matriz de tamano m× n definimos los siguientes subespacios:

1. El espacion nulo de A, denotado Nul(A), se define como

Nul(A) = {x ∈ Rn | Ax = 0.}

72

2. El espacio columna, denotado Col(A), se define como

Col(A) = gen{c1, . . . , cn},

donde c1, . . . , cn son las columnas de A.

3. El espacio fila de A, denotado por Fil(A), se define como

Fil(A) = gen{f t1, . . . , f

tm},

donde f1, . . . , fm son las filas de A.

4. El espacio nulo a izquierda de A, denotado por Nuliz(A), se define como

Nuliz(A) = {x ∈ Rm | Atx = 0.}

De acuerdo al Problema 2.4.4, el espacio columna, Col(A), y el espacio fila, Fil(A), de una matriz A son

subespacios de Rm y R

n, respectivamente, y por el Problema 2.2.8 los conjuntos Nul(A) y Nuliz(A) tambien

son subespacios de Rn y R

m, respectivamente.

El proposito ahora es dar un procedimiento que nos permita hallar una base para los subespacios fundamentales.

Calcular el espacio nulo de una matriz A es mas sencillo, ya que los vectores x en este espacio son solucion a la

ecuacion Ax = 0, o equivalentemente, la ecuacion A′x = 0 con A′ la esaclonada reducida de A. El procedimiento

para calcular una base para el espacio columna se sigue del siguiente teorema.

Teorema 2.16. Sea A una matriz de tamano m× n y sea A′ la forma escalonada reducida de A. Entonces los

vectores para los cuales la columna de A′ tiene un pivote, forman una base para Col(A) y por tanto dimCol(A) =

rango(A). Ademas se tiene que dimNul(A) = n− rango(A).

Demostracion. Sea k = rango(A), sin perdida de generalidad, supongamos que las primeras k columnas de

A′ tienen pivote, es decir

A′ =

1 ··· 0 b1,k+1 ··· b1n

.... . .

......

. . ....

0 ··· 1 bk,k+1 ··· bkn

0 ··· 0 0 ··· 0.... . .

......

. . ....

0 ··· 0 0 ··· 0

(2.6)

Sean c1, . . . , cn las columnas de A, vamos a demostrar que los vectores c1, . . . , ck forman una base para Col(A).

Primero notese que los vectores c1, . . . , ck son linealmente independientes ya que estos forman las primeras

columnas de A y por tanto la forma escalonada reducida de la submatriz[

c1 · · · ck

]

esta dada por las

primeras k filas de A′ y de la Ecuacion (2.6), se obtiene que esta tiene un pivote en cada columna, luego por el

Teorema 2.5, los vectores c1, . . . , ck son linealmente independientes.

Antes de demostrar que estos vectores generan el espacio columna, calculemos una base para el espacio nulo.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 73

Para esto tomemos x =

x1

...

xn

, de la Ecuacion (2.6) tenemos lo siguiente

x1

...

xn

∈ Nul(A) si y solo si Ax = 0 si y solo si A′x = 0 si y solo si

x1+b1,k+1xk+1+···+b1nxn=0

...xk+bk,k+1xk+1+···+bknxn=0

si y solo si

x1=−b1,k+1xk+1−···−b1nxn

...xk=−bk,k+1xk+1−···−bknxn

si y solo si

x1

...xk

xk+1

...xn

=

−b1,k+1xk+1−···−b1nxn

...−bk,k+1xk+1−···−bknxn

xk+1

...xn

= xk+1

−b1,k+1

...−bk,k+1

1...0

+ · · ·+ xn

−b1n...

−bkn

0...1

. (2.7)

Entonces Nul(A) = gen

−b1,k+1

...−bk,k+1

1...0

, . . . ,

−b1n...

−bkn

0...1

. Notese ademas que los vectores

−b1,k+1

...−bk,k+1

1...0

, . . . ,

−b1n...

−bkn

0...1

son claramente LI y por tanto forman una base para Nul(A). De esto se sigue que los vectores c1, · · · , cnsatisfacen las ecuaciones

0...

0

= A

−b1,k+1

...−bk,k+1

1...0

=[

c1 · · · cn

]

−b1,k+1

...−bk,k+1

1...0

...

0...

0

= A

−b1n...

−bkn

0...1

=[

c1 · · · cn

]

−b1n...

−bkn

0...1

Por el Lema 1.9 tenemos que estas ecuaciones matriciales son equivalentes a las ecuaciones

−b1,k+1c1 − · · · − bk,k+1ck + ck+1 = 0 o equivalentemente ck+1 = b1,k+1c1 + · · ·+ bk,k+1ck

...

−b1nc1 − · · · − bknck + cn = 0 o equivalentemente cn = b1nc1 + · · ·+ bknck

Obtenemos que cada uno de los vectores ck+1, . . . , cn es una combinacion lineal de los vectores c1, . . . , ck. Por

74

tanto si x ∈ Col(A), obtenemos que

x =α1c1 + · · ·+ αkck + αk+1ck+1 + · · ·+ αncn

=α1c1 + · · ·+ αkck + αk+1(b1,k+1c1 + · · ·+ bk,k+1ck) + · · ·+ αn(b1nc1 + · · ·+ bknck)

=(α1 + αk+1b1,k+1 + · · ·+ αnb1n)c1 + · · ·+ (αk + αk+1bk,k+1 + · · ·+ αnbkn)ck ∈ gen{c1 · · · , ck}

Concluimos que ColA = gen{c1, . . . , ck}, entonces los vectores c1, . . . , ck generan a Col(A) y como son lineal-

mente independientes entonces forman una base para Col(A).

Finalmente, observese que dimCol(A) = k = rango(A) y por la Ecuacion (2.7) tenemos que dimNul(A) =

n− k = n− rango(A).

De este resultado se desprende el siguiente corolario el cual sera clave para la demostracion del Teorema

3.20, el cual es uno de los teoremas mas importantes del algebra lineal.

Corolario 2.17. Sea A una matriz de tamano m× n, entonces

dimCol(A) + dimNul(A) = n = # de columnas de A.

Ejemplo 2.12. Calcule los cuatro subespacios fundamentales de la matriz A =

1 −1 0 1

2 −2 1 4

3 −3 1 5

. Solucion:

Calculando la forma escalonada reducida de A obtenemos

1 −1 0 1

2 −2 1 4

3 −3 1 5

−2F1+F2→F2

−2F1+F3→F3

1 −1 0 1

0 0 1 2

0 0 1 2

−F2+F3→F3

1 −1 0 1

0 0 1 2

0 0 0 0

entonces por el teorema anterior la primera y tercera columna de A forman una base para el espacio columna

de A, es decir

Col(A) = gen

1

2

3

,

0

1

1

.

Ahora para el espacio nulo resolvemos el sistema Ax = 0 o equivalentemente A′x = 0 y obtenemos lo siguiente

A′

x1

x2

x3

x4

=

0

0

0

x1 − x2 + x4 = 0

x3 + 2x4 = 0⇔

x1 = x2 − x4

x3 = −2x4

x1

x2

x3

x4

=

x2 − x4

x2

−2x4

x4

= x2

1

1

0

0

+ x4

−11

−21

.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 75

Por tanto Nul(A) = gen

1

1

0

0

,

−11

−21

.

Para calcular el espacio fila y el nulo a izquierda, calculamos la escalonada reducida de At

1 2 3

−1 −2 −30 1 1

1 4 5

F1+F2→F2

−F1+F4→F4

1 2 3

0 0 0

0 1 1

0 2 2

F2↔F3

1 2 3

0 1 1

0 0 0

0 2 2

−2F2+F1→F1

−2F2+F4→F4

1 0 1

0 1 1

0 0 0

0 0 0

Se sigue que Fil(A) = gen

1

−10

1

,

2

−21

4

, ademas un vector x =

x1

x2

x3

satisface la ecuacion Atx = 0 si y

solo si

At

x1

x2

x3

=

0

0

0

0

⇔x1 + x3 = 0

x2 + x3 = 0⇔

x1 = −x3

x2 = −x3

x1

x2

x3

=

−x3

−x3

x3

=

−1−11

.

Por tanto Nuliz(A) = gen

−1−11

.

El siguiente teorema nos permite calcular bases alternativas para el espacio columna y el espacio fila de una

matriz.

Teorema 2.18. Sea A una matriz, entonces tenemos que FilA = FilA′ donde A′ es la forma escalonada

reducida de A, ademas se tiene que dimFilA = rango(A). Es decir, el espacio fila de una matriz coincide con

el espacio de su forma escalonada reducida.

Demostracion. Sean f1, . . . , fm las filas de A y sean f ′1, . . . , f

′k las filas no nulas de A′, entonces k = rango(A).

Como A′ se obtiene de A aplicando operaciones elementales de fila, las cuales envuelven combinaciones lineales

de filas de A, entonces tenemos que f ′i ∈ gen{f1, . . . , fm}, para i = 1, . . . , k. De esto se deduce que FilA′ ⊆ FilA.

Ahora, como las operaciones elementales son reversibles y podemos recuperar la matriz A de A′ por medio

de operaciones elementales, entonces tenemos que fi ∈ gen{f ′1, . . . , f

′k}, para i = 1, . . . ,m. Deducimos que

FilA ⊆ FilA′ y por tanto FilA′ = FilA.

Es facil ver que los vectores f ′1t, . . . , f ′

kt son LI ya que la matriz A′ esta en forma escalonada reducida y los

pivotes estan en diferentes columnas, por tanto estos forman una base de A, concluimos que dimFilA = k =

rango(A).

76

Corolario 2.19. Sea A una matriz de tamano m× n, entonces rango(A) = rango(At).

Demostracion. De la definicion de espacio fila y espacio columna tenemos que Fil(A) = Col(At) y por el

teorema anterior dimFil(A) = rango(A) y por el Teorema 2.16 tenemos que dimCol(At) = rango(At), por

tanto

rango(A) = dimFil(A) = dimCol(At) = rango(At).

Ejemplo 2.13. Sea A =

1 −1 0 1

2 −2 1 4

3 −3 1 5

la matriz del Ejemplo 2.12. En ese ejemplo se calculo que las matrices

escalonadas reducidas de A y At respectivamente son A′ =

1 −1 0 1

0 0 1 2

0 0 0 0

y (At)′ =

1 0 1

0 1 1

0 0 0

0 0 0

y como

Col(A) = Fil(At) = Fil(At)′ se tiene que Col(A) = gen

v1 =

1

0

1

, v2 =

0

1

1

. Se deja como ejercicio al

lector verificar que v1 = c1 − 2c3 y v2 = c3, donde c1 y c3 son la primera y tercera columna de la matriz A, lo

que verifica que en realidad el espacio generado por v1 y v2 es igual al espacio columna de A.

Ademas Fil(A) = Fil(A′), entonces Fil(A) = gen

w1 =

1

−10

1

, w2 =

0

0

1

2

. Se deja como ejercicio al

lector verificar que w1 = f1 y w2 = −2f1 + f2 donde f1 y f2 son la primera y segunda fila de A. Lo que verifica

que el espacio generado por w1 y w2 es igual al espacio fila de A.

AGREGAR EJEMPLO MATLAB

Problemas

2.7.1. Encuentre los cuatro subespacios fundamentales de la matriz

a. A =

1 −2−2 4

1 2

b. B =

1 1 −2−2 −2 4

1 9 2

c. C =

1 2 3 4

5 6 7 8

9 10 11 12

Encuentre una base para el subespacio solucion del sistema lineal

a.2x1 − x2 + 3x3 = 0

−4x1 + 2x2 − 6x3 = 0b.

2x1 − x2 + 3x3 = 0

x1 + x2 − x3 = 0

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 77

Ayuda: Escriba el sistema en la forma Ax = 0, por el Ejercicio 2.2.4 tenemos que x es solucion al sistema si y

solo si x ∈ Nul(A).

2.7.2. Sean A y B matrices tal que AB = 0, demuestre que Col(B) ⊆ Nul(A) y Fil(B) ⊆ Nuliz(A).

2.7.3. Determine las dimensiones de los cuatro subespacios fundamentales de una matriz que satisface:

a. A es 8× 7 con rango 5. b. A es 7× 5 con rango 5.

2.7.4. Determine el tamano de A para que dimNulA = dimNulizA+ 1.

2.7.5. muestre que b ∈ ColA si y solo si Ax = b tiene solucion. (El espacio columna es el espacio solucion a la

ecuacion Ax = b).

2.7.6. Demuestre o de un contraejemplo de las siguientes afirmaciones

1. Si las columnas de A son LD tambien lo son las filas de A.

2. Si las columnas de A son LI tambien lo son las filas de A.

3. Si X es una base de Rn y W ⊆ R

n es un subespacio entonces un subconjunto de X es una base de W .

2.7.7. Si A = [I2 I2] determine ColA y NulA.

2.7.8. Si A es 3×4 con NulA = gen{(1, 1,−1, 0)} determine lo siguiente

1. rangoA,

2. la forma escalonada A′ de A,

3. FilA

2.7.9. Si A′ =

1 1 1 0

0 0 0 1

0 0 0 0

, cuales de los subespacios NulA, NulizA, ColA y FilA se pueden determinar y

que se puede decir de los demas.

2.7.10. Determine el espacio columna en los siguientes casos

1. si A es 3× 6 y Ax = b tiene solucion para todo b,

2. si A es 4×4 y Ax = 0 tiene solucion unica,

3. A es 2× 3 y A tiene una inversa a derecha.

2.7.11. Sea A una matriz 4× 3, si NulA = gen{(1, 1,−1), (1, 0, 0)} determine la forma escalonada reducida A′

de A y una base para FilA.

2.7.12. Sea A ∈Mn(R), Nk = Nul(Ak) y Ck = Col(Ak), demuestre que para todo k ≥ 1 se tiene que

78

1. Nk ⊆ Nk+1

2. Ck+1 ⊆ Ck

2.7.13. Si A ∈Mmn(R) es una matriz, muestre que

Col(A) = {Ax | x ∈ Rn} = ({b | existe x tal que b = Ax})

Este ejercicio muestra que el espacio columna es el conjunto solucion de la ecuacion Ax = b.

2.7.14. Sea A ∈Mmn(R) y B ∈Mnq(R), muestre que lo siguiente

1. Col(AB) ⊆ Col(A) y deduzca que rango(AB) ≤ rango(A)

2. Si B tiene inversa a la derecha, en particular si B es invertible, entonces Col(AB) = Col(A). Concluya

que en este caso se tiene que rango(AB) = rango(B).

2.7.15. Sea A ∈Mmn(R) y B ∈Mnq(R), muestre que lo siguiente

1. rango(AB) ≤ rango(B). (Ayuda: Use el hecho que rango(At) = rango(Bt).)

2. rango(AB) ≤ mın{rango(A), rango(B)}

3. Si B es invertible entonces rango(BA) = rango(A).

2.7.16. Sean A,B ∈Mn(R) con B invertible, demuestre que rango(A) = rango(B−1AB).

2.7.17. Si A es m× p y B es p× q con m < p < q y AB = 0, muestre que rangoA+ rangoB ≤ m.

2.7.18. De un ejemplo de dos matrices A y B tal que Col(AB) 6= Col(A).

2.7.19. Si A es 8× 10 con rango 6 determine las dimensiones de NulA y NulizA. Repetir si A es (m+1)×m

con rango m− 1.

2.8. Subespacio generado

En esta seccion abordaremos dos preguntas acerca de un subespacio H generado por vectores v1 . . . , vn en

Rm, las primera de las cuales es:

1. Si los vectores v1, . . . , vn no son linealmente independientes, como encontrar una base para H.

Si hacemos A =[

v1 · · · vn

]

entonces Col(A) = gen{v1, . . . , vn} = H y aplicando el Teorema 2.16 obtenemos

una base para Col(A) = H.

Ejemplo 2.14. Calcular una base para H = gen{v1, v2, v3} donde v1 =

1

2

5

, v2 =

−2−4−10

y v3 =

0

1

1

.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 79

Solucion. Aplicando reduccion Gauss-Jordan a la matriz A =

1 −2 0

2 −5 1

5 −5 1

obtenemos A′ =

1 −2 0

0 0 1

0 0 0

.

Entonces los vectores v1 y v3 forman una base para H.

La segunda pregunta es conocida como el Test de membresıa y dice lo siguiente.

2. Si H es un subespacio de Rm con base {v1, . . . , vk} y b es un vector en R

m, como determinar si b ∈ H.

Haciendo A =[

v1 · · · vk

]

tenemos que b ∈ H si y solo si existen constantes α1, . . . , αk tal que b =

α1v1 + · · ·+αkvk =[

v1 · · · vk

]

α1

...

αk

= Ax con x =

α1

...

αk

. En otras palabras, b ∈ H si y solo si la ecuacion

Ax = b tiene solucion y si x =

α1

...

αk

es una solucion a esta ecuacion, entonces b = α1v1 + · · ·+ αkvk.

Ejemplo 2.15. Sea H = gen

v1 =

1

2

5

, v2 =

0

1

1

y sea b =

1

−21

, determinar si b ∈ H, en caso afirmativo

expresar a b como combinacion lineal de v1 y v2.

Solucion. Aplicando reduccion Gauss-Jordan a la matriz

1 0 1

2 1 −25 1 1

obtenemos

1 0 1

2 1 −25 1 1

−2F1+F2→F2

−5F1+F3→F3

1 0 1

0 1 −40 1 −4

−F2+F3→F3

1 0 1

0 1 −40 0 0

se sigue que la ecuacion Ax = b tiene solucion α1 = 1 y α2 = −4, por tanto b = v1 − 4v2.

En el siguiente ejemplo se muestra que algunas veces los subespacios de Rn aparecen como el espacio nulo de

una matriz.

Ejemplo 2.16. Calcular una base para cada uno de los siguientes subespacios.

1. H =

x

y

∣∣∣∣y = mx, m ∈ R

2. H =

x

y

z

∣∣∣∣x = at, y = bt y z = ct, a, b, c ∈ R

.

80

3. H =

x

y

z

∣∣∣∣ax+ by + cz = 0, a, b, c ∈ R, c 6= 0

4. H =

x

y

z

∣∣∣∣x+ y + z = 0, 2x− y − z = 0

.

1.

x

y

∈ H si y solo si y = mx si y solo si

x

y

=

x

mx

= x

1

m

si y solo si

x

y

es un multiplo de

1

1

.

Por tanto H = gen

1

1

.

2.

x

y

z

∈ H si y solo si x = at, y = bt y z = bt si y solo si

x

y

z

=

at

bt

ct

= t

a

b

c

si y solo si

x

y

z

es un multiplo

de

a

b

c

. Por tanto H = gen

a

b

c

.

3.

x

y

z

∈ H si y solo si ax+ by+ cz = 0 si y solo si z = −a

cx− bcy si y solo si

x

y

z

=

x

y

−acx− b

cy

= x

1

0

−ac

+

y

0

1

− bc

si y solo si

x

y

z

es una combinacion lineal de

1

0

−ac

y

0

1

− bc

. Por tanto H = gen

1

0

−ac

,

0

1

− bc

.

4.

x

y

z

∈ H si y solo si x + y + z = 0 y 2x − y − z = 0 si y solo si

1 1 1

2 −1 −1

x

y

z

=

0

0

si y solo si

x

y

z

∈ Nul(A) con A =

1 1 1

2 −1 −1

. Para calcular el espacio nulo de A aplicamos reduccion Gauss-Jordan

1 1 1

2 −1 −1

−2F1+F2→F2

1 1 1

0 −3 −3

−13 F2→F2

1 1 1

0 1 1

−F2+F1→F1

1 0 0

0 1 1

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 81

Entonces

x

y

z

∈ Nul(A) si y solo si x = 0 y y + z = 0 si y solo si x = 0 y y = −z si y solo si

x

y

z

=

0

−zz

=

z

0

−11

. Por tanto H = gen

0

−11

.

Terminamos el capıtulo con con un teorema que sera muy util en el proximo capıtulo.

Teorema 2.20. Sea A una matriz de tamano m× n, entonces

1. Nul(A) = 0 si y solo si rango(A) = n = # de columnas de A.

2. Col(A) = Rn si y solo si rango(A) = m = # de filas de A.

Demostracion. 1. Nul(A) = 0 si y solo si la unica solucion a la ecuacion Ax = 0 es x = 0 si y solo si

rango(A) = n = # de columnas de A (Teorema 1.21.)

2. Col(A) = Rn si y solo si b ∈ Col(A) para todo b ∈ R

n si y solo si para todo b ∈ Rn, Ax = b si y solo si la

ecuacion Ax = b tiene solucion para todo b ∈ Rn si y solo si rango(A) = m = # de filas de A (Teorema

1.20.)

Problemas

2.8.1. Encuentre una base para cada uno de los siguientes subespacios:

a. H =

x

y

z

∣∣∣∣3x− y = 0

b. H =

x

y

z

∣∣∣∣x = −t, y = 2t, z = −3t

c. H =

x

y

z

w

∣∣∣∣x+ y + z + w = 0

d. H =

x1

...

xn

∣∣∣∣a1x1 + · · ·+ anxn = 0, an 6= 0

2.9. El Teorema de la base incompleta en Rm

En el Corolario 2.6 se demostro que si v1, . . . , vk son vectores linealmente independientes en Rm entonces

k ≤ m. El Teorema de la base incompleta dice que si k < m se pueden escoger vectores wk+1, . . . , wm talque

v1, . . . , vk, wk+1, . . . , wm forman una base para Rm.

82

Teorema 2.21. (Teorema de la base incompleta) Sean v1, . . . , vk vectores linealmente independientes en Rm.

Si k < m se pueden escoger vectores wk+1, . . . , wm talque v1, . . . , vk, wk+1, . . . , wm forman una base para Rm.

Demostracion. Sea A =[

v1 · · · vk

]

la matriz cuyas columnas son los vectores v1, . . . , vk, como estos son

linealmente independientes, entonces por el Teorema 2.5 tenemos que rango(A) = k y por tanto la forma

escalonada reducida A′ de A tiene un pivote en cada fila, luego A′ tiene la forma

A′ =

1 · · · 0...

. . ....

0 · · · 1

0 · · · 0...

. . ....

0 · · · 0

=[

e1 · · · ek

]

donde ei es el vector con un uno en la i-esima componente y ceros en las demas componentes. Sean E1, . . . , Es

matrices elementales talque

A′ = Es · · ·E1A (2.8)

y sea B = E−11 · · ·E−1

s entonces tenemos lo siguiente

Afirmacion 1. Las primeras k columnas de B son los vectores v1, . . . , vk

Demostracion de la afirmacion: de la ecuacion (2.8) se sigue que

A = E−11 · · ·E−1

s︸ ︷︷ ︸

=B

A′ = BA′ = B[

e1 · · · ek

]

=[

Be1 · · · Bek

]

como las columnas de A son los vectores v1, · · · , vk entonces tenemos que Be1 = v1, . . . , Bek = vk, luego

B = BI = B[

e1 · · · ek ek+1 · · · em

]

=

[

Be1︸︷︷︸

v1

· · · Bek︸︷︷︸

vk

Bek+1 · · · Bem

]

=[

v1 · · · vk Bek+1 · · · Bem

]

Afirmacion 2. Las columnas de B son linealmente independientes.

Demostracion de la afirmacion: Como B es un producto de matrices invertibles, entonces B es invertible,

luego por el Corolario 1.22 tenemos que rango(A) = m entonces por el Teorema ?? los vectores son linealmente

independientes.

Ahora, como B tiene m columnas linealmente independientes, entonces estas forman una base para Rm, es

decir, los vectores v1, . . . , vk, wk+1, . . . , wm forman una base, donde wk+1, . . . , wm son las ultimas columnas de

B.

Este teorema exhibe un metodo computacional para completar una base, el cual escribimos a continuacion:

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 83

Procedimiento 2.3. (Procedimiento para completar una base en Rm) Sean v1, . . . , vk vectores linealmen-

te independientes en Rm con k < m, para calcular vectores wk+1, . . . , wm talque los vectores v1, . . . , vk, wk+1, . . . , wm

forman una base, hacemos lo siguiente

1. Sea A =[

v1 · · · vk

]

la matriz formada con los vectores v1, . . . , vk

2. Sea C el producto de las matrices elementales talque A = CA′, esta matriz se calcula hallando la forma

escalonada reducida de la matriz[

A I]

ya que esta esta dada por[

A′ C]

3. Hacemos B = C−1

Si las columnas de B son linealmente independientes y por tanto forman una base para Rm y por el teorema

anterior, las primeras columnas de B son los vectores v1, . . . , vk.

Ejemplo 2.17. (MatLab) Sean v1 =

0

−11

y v2 =

1

1

2

, calcular un vector v3 talque los vectores v1, v2, v3

forman una base para R3.

Solucion. Sea A =[

v1 v2

]

=

0 1

−1 1

1 2

, entonces hacemos lo siguiente

1. calculamos la forma escalonada reducida de la matriz[

A I]

usando MatLab

>> A = [01;−11; 12]; R=rref([A, eye(3)])

R=

1 0 0 −2/3 1/3

0 1 0 1/3 1/3

0 0 1 −1/3 −1/3El producto de las matrices elementales es la matriz compuesta por las 3 ultimas columnas de R, la cual

podemos definir usando MatLab como sigue

>> C = [R(:, 3), R(:, 4), R(:, 5)]

C =

0 −2/3 1/3

0 1/3 1/3

1 −1/3 −1/32. Ahora calculamos B = C−1 como sigue

B = inv(C)

B=

0 1 1

−1 1 0

1 2 0

84

Notese que efectivamente las dos primeras columnas de esta matriz son los vectores v1 y v2 y por tanto los

vectores v1, v2 y v3 =

1

0

0

forman una base para R3.

Capıtulo 3

Transformaciones Lineales

Carreta

3.1. Definicion y Ejemplos

En este capıtulo se estudiaran funciones entre espacios vectoriales que preservan la estructura, estas funcio-

nes se llaman tranformaciones lineales, comenzamos con la definicion.

Definicion 3.1. Sean V y W espacios vectoriales y T : V −→ W una funcion, decimos que T es una trans-

formacion lineal si satisface:

1. T (v + v′) = T (v) + T (v′), para todo v, v′ ∈ V .

2. T (αv) = αT (v), para todo v ∈ V y para todo α ∈ R.

Observacion 3.1. Como consecuencia de la definicion tenemos que si T : V −→ W es una transformacion

lineal, v1, . . . , vn ∈ V y α1, . . . , αn ∈ R entonces

1. T (α1v1 + α2v2) = α1T (v1) + α2T (v2), y en general

2. T (α1v1 + · · ·+ αnvn) = α1T (v1) + · · ·+ αnT (vn).

Ejemplo 3.1. 1. Sean V y W espacios vectoriales sobre R. La funcion nula f : VW definida por f(v) = 0,

para todo v ∈ V y la funcion identidad Id : V −→ V definida por Id(v) = v son transformaciones lineales.

2. Si a ∈ R, entonces Ta : R → R dada por Ta(x) = ax para todo x ∈ R, es una transformacion lineal. El

grafico de Ta es una recta pasando por el origen (0, 0) ∈ R2 con pendiente a.

3. Sean a1, · · · , an ∈ R. La funcion T : Rn → R definida por T (α1, · · · , αn) =∑n

i=1 aiαi, es una transfor-

macion lineal tal que T (ei) = ai, donde los ei denotan los elementos de la base canonica de Rn.

85

86

4. La funcion T : R2 −→ R definida por T (x, y) = x+ y es una transformacion lineal ya que

T ((x, y) + (x′, y′)) = T (x+ x′, y + y′) = x+ x′ + y + y′ = (x+ y) + (x′ + y′) = T (x, y) + T (x′y′) .

T (α(x, y)) = T (αx, αy) = αx+ αy = α(x+ y) = αT (x′y′) .

5. Si A es una matriz m×n, la funcion T : Rn −→ Rm definida por T (v) = Av es una transformacion lineal

ya que satisface los axiomas 1 y 2 de la definicion, mas especıficamente tenemos que

T (v + w) = A(v + w) = Av +Aw = T (v) + T (w) y

T (αv) = A(αv) = αAv = αT (v).

Destacamos las siguientes propiedades que cumple cualquier transformacion lineal.

Teorema 3.1. Sean V y W espacios vectoriales y T : V −→W una transformacion lineal, entonces

1. T (0) = 0.

2. T (−v) = −T (v).

Demostracion. 1. T (0) = T (0 + 0) = T (0) + T (0) por tanto T (0) = 0.

2. T (−v) = T ((−1)v) = −1T (v) = −T (v).

Por ahora nos concentraremos por ahora solo en transformaciones lineales de Rn en R

m, ya que estas,

como se muestra en el siguiente teorema, son de la forma dada en el ıtem 5 del Ejemplo 3.1, es decir, para

toda transformacion lineal se puede encontrar una matriz A de tamano m × n tal que T (x) = Ax. Pasamos a

enunciar el teorema.

Teorema 3.2. Sea T : Rn −→ R

m una transformacion lineal, sea {e1, . . . , en} la base estandar de Rn y

A = [T (e1) · · · T (en)], la matriz cuyas columnas son los vectores T (e1), . . . , T (en), entonces T (x) = Ax,

para todo x ∈ Rn. Mas a’un, esta matriz es la unica con la propiedad que T (x) = Ax.

Demostracion. Sea x =

α1

...

αn

∈ R

n, entonces x = α1e1 + · · ·+ α1en y tenemos lo siguiente

T (x) = T (α1e1 + · · ·+ α1en) = α1T (e1) + · · ·+ α1T (en)

= [T (e1) · · · T (en)]︸ ︷︷ ︸

=A

α1

...

αn

= Ax.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 87

Ahora si B es una matriz tal que T (x) = Bx para todo x, entonces en particular los vectores de la base estandar

tenemos que

T (ei) = Bei = i-esima columna de B, para i = 1, . . . , n.

Pero T (ei) es tambien la i-esima columna de A, se sigue que B = A.

La matriz A en el teorema anterior depende de los vectores en la base estandar, la siguiente definicion es

para hacer claridad respecto a esto.

Definicion 3.2. Si T : Rn −→ Rm es una transformacion lineal y E = {e1, . . . , en} es la base estandar de

Rn, a la matriz A = [T (e1) · · · T (en)] se le llama la matriz de la transformacion y sera denotada por

A = ETE.

Ejemplo 3.2. Calcular la matriz de la transformacion T : R2 −→ R definida por T

x

y

= x+ y.

Solucion. De acuerdo al teorema anterior debemos calcular T (e1) y T (e2):

T (e1) = T

1

0

= 1 + 0 = 1 y T (e2) = T

0

1

= 0 + 1 = 1.

Luego la matriz de la transformacion es ETE = [1 1].

Ejemplo 3.3. Calcular la matriz, ESE, de la transformacion S : R3 −→ R2 definida por S

x

y

z

=

x+ 2y

y − 3z

.

Solucion. En este caso debemos calcular S(e1), S(e2) y S(e3).

S(e1) = S

1

0

0

=

1 + 2 · 00− 3 · 0

=

1

0

, S(e2) = S

0

1

0

=

0 + 2 · 11− 3 · 0

=

2

1

y S(e3) = S

0

0

1

=

0 + 2 · 00− 3 · 1

=

0

−3

.

Por tanto la matriz de la transformacion es ESE =

1 2 0

0 1 −3

.

En el siguiente teorema demostraremos que la composicion de transformaciones lineales es una transforma-

cion lineal ademas veremos que la matriz de la transformacion compuesta es el producto de las matrices de las

respectivas transformaciones.

Teorema 3.3. Sean V, W y Z espacios vectoriales y sean T : V −→ W y S : W −→ Z transformaciones

lineales, entonces S ◦ T es una transformacion lineal. Mas aun, si V = Rn, W = R

m y Z = Rq entonces la

matriz de la transformacion S ◦ T esta dada por ESE ·E TE, es decir, E(S ◦ T )E =E SE ·E TE .

88

Demostracion. Primero demostremos que S ◦ T es una transformacion lineal, sean v, v′ ∈ V y α ∈ R,

S ◦ T (v + v′) = S(T (v + v′)) = S(T (v) + T (v′)) = S(T (v)) + S(T (v′))

= S ◦ T (v) + S ◦ T (v′) y

S ◦ T (αv) = S(T (αv) = S(αT (v)) = αS(T (v)) = αS ◦ T (v)

Ahora demostremos la segunda parte, sean A =E TE y B =E SE , entonces T (v) = Av para todo v ∈ Rn y

S(w) = Bw para todo w ∈ Rm. Veamos que BA es la matriz de S ◦ T , es decir, S ◦ T (v) = BAv para todo

v ∈ Rn.

S ◦ T (v) = S(T (v)) = S(Av) = BAv.

De la propiedad de unicidad que satisface la matriz de S ◦ T concluimos que BA es la matriz de S ◦ T .

Ejemplo 3.4. Sean T y S las transformaciones lineales definidas en los Ejemplos 3.2 y 3.3 entonces la matriz

de la transformacion T ◦ S, E(T ◦ S)E , esta dada por

E(T ◦ S)E =E TE ·E SE =[

1 1]

1 2 0

0 1 −3

=[

1 3 −3]

.

Por tanto T ◦ S

α1

α2

α3

=[

1 3 −3]

α1

α2

α3

= α1 + 3α2 − 3α3.

Ejemplo 3.5. (MatLab) Sean T : R3 −→ R4 y S : R4 −→ R

3 las transformaciones lineales definidas por

T (x) = Ax y S(x) = Bx con

A =

[3 2 11 1 12 0 −10 1 −2

]

y B =[

1 2 1 3−1 2 1 02 0 −1 1

]

Es facil ver que si T (x) = Ax para todo x entonces A = ETE es la matriz de la transformacion. Por tanto

obtenemos que las matrices de las compuestas T ◦ S y S ◦ T son las matrices AB y BA, respectivamente. Por

tanto T ◦ S(x) = ABx para todo x ∈ R4 y S ◦ T (y) = BAy para todo y ∈ R

3. Usando Matlab obtenemos que

AB =

[3 10 4 102 4 1 40 4 3 5

−5 2 3 −2

]

y BA =[7 7 −41 0 04 5 1

]

.

Del Teorema 3.2 obtenemos que el conjunto de transformaciones lineales L(Rn,Rm) de Rn en R

m esta en

correspondencia uno a uno con el conjunto de matrices Mm,n(R)

L(Rn,Rm) −→ Mm,n(R)

T 7→ A = ETE

T (x) = Ax ← A

la correspondencia es tal que la composicion de transformaciones se traduce en producto de matrices, tambien

veremos que la inversa de una transformacion invertible se corresponde con la inversa de su matriz, la imagen

de la transformacion con el espacio columna de la matriz y el kernel de la transformacion (este se define en la

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 89

proxima seccion) con el espacio nulo de la matriz. En general tendremos que la matriz de una transformacion

se puede usar para conseguir informacion util acerca de la transformacion, por ejemplo, esta se puede usar para

determinar si una transformacion lineal es inyectiva, si es sobre, si es biyectiva. Esto lo veremos en las secciones

3.2-3.4

Problemas

3.1.1. Determine si la funcion dada es una transformacion lineal y en los casos afirmativos, calcule la matriz

de la transformacion lineal correspondiente.

1. T : R2 −→ R2 definida por T

x

y

=

x− y

x

.

2. T : R2 −→ R3 definida por T

x

y

=

x− y

x+ 1

y2

.

3. T : R4 −→ R2 definida por T

x

y

z

w

=

x− y

zw

.

4. T : R3 −→ R3 definida por T

x

y

z

=

x− z

y − z

x− z

.

5. T : R3 −→ R2 definida por T

x

y

z

=

x− z

y − z

.

6. T : Rn −→ Rn−1 definida por T

x1

· · ·xn

=

x1 − xn

x1 + x2 − xn

...

x1 + · · ·+ xn−1 − xn

.

3.1.2. Sea T : R2 −→ R3 tal que T

1

0

=

1

2

2

y T

0

1

=

2

1

2

. Calcule la matriz de T y T

−11

.

3.1.3. Calcule la matriz de la transformacion que rota el plano 90◦ y luego proyecta sobre el eje y.

3.1.4. Sea V = F([a, b],R el conjunto de las funciones continuas del intervalo [a,b] en R. Demuestre que la

funcion T : V → R definida por T (f) =∫ b

af(x)dx es una transformacion lineal.

90

3.1.5. Muestre que una funcion T : Rn → R es una transformacion lineal si y solamente si existen a1, · · · , an ∈R tales que T (x1, · · · , xn) =

∑ni=1 aixi.

3.1.6. Considere la funcion D : P3 −→ P2 definida por D(a + bt+ ct2 + dt3) = b+ 2ct+ 3dt2. Demuestre que

D es una transformacion lineal.

En forma mas general demuestre que la funcion D : Pn+1 −→ Pn definida por D(p(t)) = p′(t) es una

transformacion lineal.

3.1.7. Considere la funcion I : P2 −→ P3 definida por I(a + bt+ ct2) = at + 12bt

2 + 13ct

3. Demuestre que I es

una transformacion lineal.

En forma mas general demuestre que la funcion I : Pn −→ Pn+1 definida por D(p(t)) =∫ t

0p(x)dx es una

transformacion lineal.

3.2. Transformaciones Lineales Inyectivas

En esta seccion veremos que la inyectividad de una transformacion lineal esta ligada a con la nulidad de la

matriz de la transformacion, y esto a su vez, depende de si kernel de la transformacion es trivial. Comenzamos

con la definicion de kernel de una transformacion.

Definicion 3.3. Sean V y W espacios vectoriales y sea T : V −→ W una transformacion lineal, definimos el

nucleo o kernel de T como el conjunto

ker(T ) = {x ∈ V | T (x) = 0}.

Para transformaciones lineales de Rn en R

m, la matriz de la transformacion se puede usar para calcular el

kernel. Este es el resultado del siguiente teorema.

Lema 3.4. Sea T : Rn −→ Rm una transformacion lineal y sea A = ETE la matriz de la transformacion,

entonces ker(T ) = Nul(A).

Demostracion. x ∈ ker(T ) si y solo si 0 = T (x) = Ax si y solo si x ∈ Nul(A).

Concluimos que ker(T ) = Nul(A).

Ejemplo 3.6. Calculemos el kernel de la transformacion lineal S definida en el Ejemplo 3.3.

Solucion. La matriz de la transformacion es A =

1 2 0

0 1 −3

, necesitamos calcular Nul(A), para lo cual

necesitamos la escalonada reducida de A:

1 2 0

0 1 −3

F1 − 2F2 → F1

1 0 6

0 1 −3

.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 91

Luego tenemos que un vector v =

x

y

z

∈ Nul(A) = Nul(A′) si y solo si se satisfacen las ecuaciones

x = −6zy = 3z

.

Entonces tenemos que v =

x

y

z

∈ Nul(A) si y solo si

x

y

z

=

−6z3z

z

= z

−63

1

.

Por tanto tenemos que ker(T ) = Nul(A) = gen

−63

1

.

El siguiente resultado muestra la relacion entre la inyectividad de una transformacion lineal y la trivialidad

del kernel.

Teorema 3.5. Sea T : V −→W una transformacion lineal, entonces T es inyectiva si y solo si ker(T ) = {0}.

Demostracion. “⇒”Supongamos que T es inyectiva, entonces si T (v) = T (w), tenemos que v = w.

Ahora, supongamos que v ∈ ker(T ), entonces T (v) = 0 = T (0), luego v = 0 y por tanto ker(T ) ⊆ {0}. Laotra inclusion se da ya que ker(T ) es un subespacio de V y por tanto 0 ∈ ker(T ). Concluimos que ker(T ) = {0}.

“⇐”Supongamos que ker(T ) = {0} y demostremos que si T (v) = T (w), entonces v = w, para todo v, w ∈ V .

Supongamos entonces que T (v) = T (w). Luego T (v − w) = T (v) + T (−w) = T (v) − T (w) = 0, se sigue que

v − w ∈ ker(T ) = {0} por tanto v − w = 0 o equivalentemente v = w. Concluimos que T es inyectiva.

En el caso particular de transformaciones lineales que van de Rn en R

m, el Teorema 3.5 y el Lema 3.4 nos

dan un algoritmo para calcular el kernel, este se hace evidente con el siguiente resultado.

Teorema 3.6. Sea T : Rn −→ Rm una transformacion lineal y sea A = ETE la matriz de la transformacion.

Entonces T es inyectiva si y solo si rango(A) = n = numero de columnas de A.

Demostracion. T es inyectiva si y solo si ker(T ) = {0} (Teorema 3.5) si y solo si Nul(A) = {0} (Lema 3.4) si

y solo si rango(A) = n (Teorema 2.16).

Este teorema nos da una manera de determinar si una transformacion lineal es inyectiva y en caso negativo,

usamos el Lema 3.4 para calcularlo. A continuacion damos los siguientes ejemplos.

Ejemplo 3.7. Determine si la transformacion lineal T : R3 −→ R2 definida por T

x

y

z

=

x+ 2y

y − 3z

es

inyectiva.

Solucion. En el Ejemplo 3.6 vimos que la matriz de la transformacion es A =

1 2 0

0 1 −3

y la forma

escalonada reducida de A es A′ =

1 0 6

0 1 −3

. De esto deducimos que rango(A) = 2 < numero de columnas

de A, por tanto A no es inyectiva.

92

Ejemplo 3.8. (MatLab) Sea A =

1 −2 3 4

2 3 −4 5

3 4 5 6

4 5 6 7

y sea T : R4 −→ R4 la transformacion lineal definida

por T (v) = Av. Determine si T es inyectiva y calcular su kernel.

Solucion. Como la matriz de la transformacion es la unica para la cual T (v) = Av, tenemos que A = ETE es

la matriz de la tranformacion, para determinar si T es o no inyectiva, necesitamos calcular el rango de A, lo

cual calculamos como sigue en MatLab:

>> A = [1,−2, 3, 4; 2, 3,−4, 5; 3, 4, 5, 6; 4, 5, 6, 7]; rank(A)

y ası se obtiene que rango(A) = 4 = numero de columnas de A y se sigue que T es inyectiva y ker(T ) = {0}.

Ejemplo 3.9. (MatLab) Sea A =

−1 −2 1 1 1

1 0 1 −3 1

0 1 −1 1 1

0 1 −1 1 1

1 0 1 −3 1

y sea T : R5 −→ R5 definida por T (x) = Ax,

determine si T es inyectiva y calcular ker(T ).

Solucion. Primero calculamos el rango de A para determinar si la transformacion es inyectiva,

>> A = [−1,−2, 1, 1, 1; 1, 0, 1,−3, 1; 0, 1,−1, 1, 1; 0, 1,−1, 1, 1; 1, 0, 1,−3, 1]; rank(A)y obtenemos que rango(A) = 3 y por tanto T no inyectiva. Para calcular el kernel, computamos el subespacio

nulo de A.

>> null(A,′ r′)

Obtenemos que ker(T ) = Nul(A) = gen

−11

1

0

0

,

3

−10

1

0

.

Problemas

3.2.1. Calcular el kernel de las transformaciones lineales del Problema 3.1.1.

3.2.2. Determine cuatro transformaciones lineales de R3 en R

3 cuyos nucleos tengan dimensiones 0, 1, 2 y 3

respectivamente.

3.2.3. Sea T : Rn −→ Rm una transformacion lineal. Demuestre que si T es inyectiva entonces n ≤ m.

3.2.4. Sea T : Rn −→ Rm una transformacion lineal y A = ETE la matriz de T . Demuestre que T es inyectiva

si y solo si A tiene inversa a la izquierda.

3.2.5. Demuestre que si T : U −→ V y S : V −→ W son inyectivas entonces S ◦ T es inyectiva, es decir, la

composicion de transformaciones inyectivas es inyectiva.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 93

3.2.6. Sean A y B matrices de tamanos m×n y n× p, respectivamente. Demuestre que si A y B tienen ambas

inversa a la izquierda entonces AB tiene inversa a la izquierda. (Ayuda: Use los dos ultimos problemas.)

3.2.7. Demuestre que si T : Rn −→ Rm es inyectiva entonces existe una transformacion lineal S : Rm −→ R

n

tal que S ◦ T = id. (Ayuda: Use el Problema 3.2.4.)

3.3. Transformaciones Lineales Sobreyectivas

Comenzamos recordando las definiciones de imagen de una funcion y de funcion sobreyectiva.

Definicion 3.4. Sean V y W espacios vectoriales y T : V −→W una transformacion lineal,

1. Definimos la imagen de T , denotada por Im(T ), como el conjunto

Im(T ) = {T (v) | v ∈ V } = {w ∈W | existe v ∈ V tal que w = T (v)}.

2. Decimos que T es sobreyectiva si Im(T ) = W .

Cuando la transformacion esta definida de Rn en R

m podemos calcular la imagen usando la matriz de la

transformacion. Este hecho se demuestra en el siguiente teorema.

Teorema 3.7. Sean T : Rn −→ Rm una transformacion lineal y A = ETE la matriz de T , entonces

Im(T ) = Col(A).

Demostracion. Sean A1, . . . , An las columnas de A entonces tenemos lo siguiente:

w ∈ Im(T ) si y solo si existe v ∈ Rn tal que w = T (v) = Av si y solo si existe v = (α1

...

αn) ∈ Rn tal que w = Av = [A1, . . . , An]

α1

...

αn

= α1A

1+ · · ·+αnAn si y solo si w ∈ gen{A1, . . . , An} = Col(A).

Por tanto Im(T ) = Col(A).

Ejemplo 3.10. Sea A =

1 0

1 −23 0

y T : R2 −→ R3 la transformacion lineal definida por T (x) = Ax, calcular

la imagen de T .

Solucion. De acuerdo al teorema anterior necesitamos calcular Col(A).

Si calculamos la forma escalonada de A obtenemos A′ =

1 0

0 1

0 0

y por tanto por el Teorema 2.16

Im(T ) = Col(A) = gen

1

1

3

,

0

−20

.

94

El teorema anterior nos muestra como la matriz de la transformacion se puede usar para calcular la imagen de

una transformacion, esta tambien sirve para determinar si la transformacion es sobreyectiva, esto lo mostramos

a continuacion.

Teorema 3.8. Sea T : Rn −→ Rm una transformacion lineal y A la matriz de T , entonces T es sobreyectiva si

y solo si rango(A) = m = numero de filas de A.

Demostracion. T es sobre si y solo si Rm = Im(T ) = Col(A) (Teorema 3.7) y Col(A) = Rm si y solo si

rango(A) = m = numero de filas de A (Teorema 2.16).

El Teorema 3.7 nos dice que encontrar la imagen de una transformacion es equivalente a encontrar el

espacio columna de la matriz de la transformacion y el teorema anterior reduce el problema de determinar si la

transformacion es sobre a encontrar el rango de esta matriz. Esto lo ilustramos en los siguientes ejemplos.

Ejemplo 3.11. Determine si la transformacion del ejemplo anterior es sobreyectiva.

Solucion. La forma escalonada de la matriz de T es A′ =

1 0

0 1

0 0

y por tanto rango(A) = 2 < 3 = numero de

filas de A, concluimos que T no es sobreyectiva.

Ejemplo 3.12. (MatLab) Sea T la transformacion del Ejemplo 3.9, determine si T es sobre y calcular Im(T ).

Solucion. En el Ejemplo 3.9 se obtuvo que el rango de la matriz A =E TE es 3 y por tanto T no es sobre.

Para calcular Im(T ) necesitamos calcular el espacio columna de A, el cual podemos calcular con la escalonada

reducida de A.

>> A = [−1,−2, 1, 1, 1; 1, 0, 1,−3, 1; 0, 1,−1, 1, 1; 0, 1,−1, 1, 1; 1, 0, 1,−3, 1];A′ = rref(A)

se obtiene que A′

1 0 1 −3 0

0 1 −1 1 0

0 0 0 0 1

0 0 0 0 0

0 0 0 0 0

y por tanto Im(T ) =

−11

0

0

1

,

−20

1

1

0

,

1

1

1

1

1

, es decir, ImT es gene-

rada por la primera, segunda y quinta columna de A.

Otra forma de calcular la imagen es usando el comando colspace(sym(A)), el cual produce una base de

Col(A) = Im(T ).

>> A = [−1,−2, 1, 1, 1; 1, 0, 1,−3, 1; 0, 1,−1, 1, 1; 0, 1,−1, 1, 1; 1, 0, 1,−3, 1]; colspace(sym(A))

y de esta manera obtenemos que el conjunto

1

0

0

0

0

,

0

1

0

0

1

,

0

0

1

1

0

es una base para Im(T ).

Problemas

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 95

3.3.1. Sea T : R2 −→ R2 definida por T (x, y) = (y, 0), muestre que kerT = ImT .

3.3.2. Calcular la imagen de las transformaciones lineales del Problema 3.1.1.

3.3.3. Sean V y W los subespacios de R4 determinados por V = gen {(1, 0, 1, 1), (0,−1,−1,−1)} y W =

{(x, y, z, t) ∈ R

4 : x+ y = 0 y t+ z = 0}. Determine una transformacion lineal T : R4 → R

4 tal que ker(T ) =

V y Im(T ) = W .

3.3.4. Encuentre una transformacion lineal T : R4 → R

4 tal que: ker(T ) = gen {(1, 0, 1, 0), (−1, 0, 0, 1)} y

Im(T ) = {(1,−1, 0, 2), (0, 1,−1, 0)}.

3.3.5. Sea V un espacio vectorial y T : V → V una transformacion lineal. Demuestre que las siguientes

condiciones son equivalentes:

1. ker(T ) ∩ Im(T ) = {0}.

2. Si (T ◦ T )(v) = 0 para v ∈ V , entonces T (v) = 0.

3.3.6. Sean A ∈ Mn(R) y T : Rn −→ Rn definida por T (v) = Av, sea T k = T ◦ · · · ◦ T

︸ ︷︷ ︸

k−veces

y Ck = Col(Ak),

demuestre que para todo k ≥ 1 se tiene que

1. Ck = Col(Ak).

2. T (Ck) = Ck+1, donde T (Ck) = {T (v) | v ∈ Ck}.

3.3.7. Sean T : U −→ V y S : V −→ W transformaciones lineales sobreyectivas. Demuestre que S◦ es

sobreyectiva.

3.3.8. Sea T : Rn −→ Rm una transformacion lineal y A = ETE la matriz de T . Demuestre que T es sobreyectiva

si y solo si A tiene inversa a la derecha.

3.3.9. Demuestre que si T : Rn −→ Rm es sobreyectiva entonces existe una transformacion lineal S : Rm −→ R

n

tal que T ◦ S = id y muestre que S es inyectiva.

3.3.10. Sean A y B matrices de tamanos m×n y n×p, respectivamente. Demuestre que si A y B tienen ambas

inversa a la derecha entonces AB tiene inversa a la derecha. (Ayuda: Use los dos ultimos problemas.)

3.3.11. Demuestre que si T : Rn −→ Rm es sobreyectiva entonces n ≥ m.

3.3.12. Si T : V −→ V es una transformacion lineal y H ⊆ V es un subespacio, decimos que H es T -invariante

si T (H) ⊆ H. Muestre que ImT y kerT son T -invariantes.

3.3.13. Si T : V −→ V es una transformacion lineal y W ⊆ V es un subespacio T -invariante muestre que

T/W : W −→W es una transformacion lineal, donde T/W es la restriccion de T a W .

96

3.3.14. Sea T : V −→W una transformacion lineal y H ⊆W un subespacio. La imagen inversa de H se define

como el conjunto

T−1(H) = {v ∈ V | T (v) ∈ H}.

Muestre que T−1(H) es un subespacio.

3.3.15. Si T : V −→ W y S : W −→ Z son transformaciones lineales con S sobreyectiva entonces Im(T ) =

Im(ToS). (Ayuda:Use el Problema 2.7.14.)

3.3.16. Sean T, S : V −→ V transformaciones lineales, demuestre que Im(T + S) ⊆ ImT + ImS, donde

T+S : V −→ V es la transformacion lineal definida por (T+S)(v) = T (v)+S(v), y concluya que rango(A+B) ≤rangoA+ rangoB.

3.4. Isomorfismos

Las transformaciones lineales biyectivas (inyectivas y sobreyectivas) se llaman isomorfismos, la palabra iso-

morfismo significa igual forma, en este sentido se usa el termino isomorfismo para las transformaciones que

preservan la estructura de espacio vectorial. En esta seccion veremos como los isomorfismos preservan la es-

tructura de los espacios vectoriales. Comenzamos con la definicion de isomorfismo.

Definicion 3.5. Sean V y W espacios vectoriales y T : V −→ W una transformacion lineal, decimos que

T es un isomorfismo si es una funcion biyectiva. Tambien diremos que V es isomorfo a W si existe un

isomorfismo entre ellos, lo cual denotaremos V ∼= W .

Los Teoremas 3.6 y 3.8 implican lo siguiente.

Teorema 3.9. Sea T : Rn −→ Rm una transformacion lineal y A =ETE la matriz de T , entonces T es un

isomorfismo si y solo si rango(A) = m = n.

Corolario 3.10. Rn ∼= R

m si y solo si m = n.

Ejemplo 3.13. Sea T : R2 −→ R2 la tranformacion lineal cuya matriz es A =

1 1

1 −1

, determinar si T es

un isomorfismo.

Solucion. La forma escalonada reducida de A es la matriz A′ = I, por tanto T es un isomorfismo.

Teorema 3.11. Sea T : Rn −→ Rn una transformacion lineal y A = ETE la matriz de T , entonces su funcion

inversa T−1 es una transformacion lineal y su matriz de transformacion es A−1.

Demostracion. Primero veamos que T−1 es lineal. Sean y1, y2 ∈ Rn, como T es sobre, existen x1, x2 ∈ R

n tal

que y1 = T (x1) y y2 = T (x2), entonces

T−1(y1 + y2) = T−1(T (x1) + T (x2)) = T−1(T (x1 + x2)) = x1 + x2

= T−1(y1) + T−1(y2).

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 97

Ahora, sea α ∈ R, entonces tenemos

T−1(αy1) = T−1(αT (x1)) = T−1(T (αx1)) = αx1 = αT−1(y1).

Por tanto T−1 es lineal. Ahora veamos que A−1 es la matriz de transformacion de T . Notese que si y ∈ Rn

entonces y = AA−1y = T (A−1y), aplicando T−1 a ambos lados obtenemos

T−1(y) = A−1y.

Conluimos que A−1 es la matriz de T−1.

Observacion 3.2. En general si T : V −→ W es un isomorfismo, entonces T−1 : W −→ V tambien es una

transformacion lineal.

Ejemplo 3.14. En el ejemplo anterior vimos que la transformacion lineal T : R2 −→ R

2 cuya matriz es

A =

1 1

1 −1

es invertible, entonces T−1 es un isomorfismo y su matriz es A−1 =

1/2 1/2

1/2 −1/2

. Es decir, la

transformacion esta dada por T

x

y

=

12 (x+ y)

12 (x− y)

.

Hasta ahora la mayorıa de los teoremas que hemos visto en el capıtulo y en el anterior aplican solamente al

espacio vectorial Rn y a transformaciones lineales de Rn en R

m. Vamos a usar la teorıa de isomorfismos para

generalizar los teoremas vistos, comenzamos con un resultado que nos va a servir de puente para extender estos

teoremas.

Teorema 3.12. Sea V un espacio vectorial y X = {v1, . . . , vn} una base para V , entonces V ∼= Rn. Un

isomorfismo entre estos espacios esta dado por la funcion T : V −→ Rn definida por T (α1v1 + · · ·+ αnvn) =

α1

...

αn

, a esta funcion se le conoce como el isomorfismo canonico.

Demostracion. Veamos que T es un isomorfismo.

T es lineal: Sean v, w ∈ V y α ∈ R, como {v1, . . . , vn} es una base para V , existen α1, . . . , αn, β1 . . . , βn ∈ R tal

que v = α1v1 + · · ·+ αnvn y w = β1v1 + · · ·+ βnvn, luego

T (v + w) = T (α1v1 + · · ·+ αnvn + β1v1 + · · ·+ βnvn)

= T ((α1 + β1)v1 + · · ·+ (αn + βn))

=

α1 + β1

...

αn + βn

=

α1

...

αn

+

β1

...

βn

= T (α1v1 + · · ·+ αnvn) + T (β1v1 + · · ·+ βnvn)

= T (v) + T (w).

98

T (αv) = T (α(α1v1 + · · ·+ αnvn))

= T (αα1v1 + · · ·+ ααnvn)

=

αα1

...

ααn

= α

α1

...

αn

= αT (α1v1 + · · ·+ αnvn)

= αT (v).

T es inyectiva: Para esto veamos que ker(T ) = {0}.

“⊆”Sea v = α1v1 + · · · + αnvn ∈ ker(T ), entonces 0 = T (v) =

α1

...

αn

. Entonces α1 = · · · = αn = 0 y por

tanto v = 0.

La otra inclusion es inmediata ya que T (0) = 0 y por tanto 0 ∈ ker(T ).

T es sobreyectiva: Sea y =

α1

...

αn

∈ R

n, y sea v = α1v1 + · · ·+ αnvn ∈ V , entonces tenemos que

T (v) = T (α1v1 + · · ·+ αnvn) =

α1

...

αn

= y.

Por tanto T es sobreyectiva.

Concluimos que T es un isomorfismo.

Observacion 3.3. Notese que en el teorema anterior la transformacion T depende de la base X, mas aun, por

cada base de V tenemos un isomorfismo distinto. Debido a la dependencia de la base, en adelante denotaremos

a esta transformacion por RX.

Ejemplo 3.15. El conjunto X = {1, t, t2, t3} es una base del espacio V = P3, por tanto V es isomorfo a R4 y

el isomorfismo esta dado por

RX(a0 + a1t+ a2t

2 + a3t3) =

a0

a1

a2

a3

.

El numero de vectores en una base es invariante, este hecho se demostro en el Capıtulo 2 Teorema 2.15 pero

solo en el caso de subespacios de Rn, a continuacion lo demostramos para espacios vectoriales en general.

Teorema 3.13. Sea V un espacio vectorial y sean X = {v1, . . . , vn} y Y = {w1, . . . , wm} bases para V, entonces

m = n.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 99

Demostracion. Por el teorema anterior tenemos que V ∼= Rn y V ∼= R

m, luego Rn ∼= R

m. Luego por el

Corolario 3.10 tenemos que m = n.

Esto nos permite definir la dimension de espacios vectoriales, al tener que el numero de vectores en una base

es invariante.

Definicion 3.6. Sea V un espacio vectorial, definimos la dimension de V, denotada por dimV , como el numero

de vectores en una base de V. Es decir, si {v1, . . . , vn} es una base para V entonces dimV = n.

Ejemplo 3.16. 1. Como el conjunto {1, t, . . . , tn} es una base para Pn, tenemos que dimPn = n+ 1.

2. Una base para M22(R) esta dada por

1 0

0 0

,

0 1

0 0

,

0 0

1 0

,

0 0

0 1

, por tanto dimM22(R) = 4.

3. En general tenemos que dimMmn(R) = mn. Una base para este espacio esta dada por {eij | i =

1, . . . , n, j = 1, . . . ,m}, donde eij es la matriz m × n con un 1 en la posicion ij y cero en las demas

posiciones.

El siguiente teorema muestra como los isomorfismo conservan la estructura de los espacios vectoriales, en

otras palabras, el siguiente teorema justifica por que las transformaciones biyectivas son llamadas isomorfismos.

Teorema 3.14. Sean V y W espacios vectoriales, T : V −→ W un isomorfismo, {v1, . . . , vn} ⊆ V y v ∈ V .

Entonces se tiene lo siguiente:

1. El conjunto {v1, . . . , vn} es linealmente independiente si y solo si el conjunto {T (v1), . . . , T (vn)} es lineal-mente independiente.

2. El conjunto {v1, . . . , vn} genera a V si y solo si el conjunto {T (v1), . . . , T (vn)} genera a W .

3. El conjunto {v1, . . . , vn} es una base para V si y solo si el conjunto {T (v1), . . . , T (vn)} es una base para

W .

4. dimV = dimW .

5. v ∈ gen{v1, . . . , vn} si y solo si T (v) ∈ gen{T (v1), . . . , T (vn)}.

Demostracion. 1. “⇒”Supongamos que el conjunto {v1, . . . , vn} es linealmente independiente y suponga-

mos que α1T (v1) + · · ·+ αnT (vn) = 0. Entonces 0 = T (0) = T (α1v1 + · · ·+ αnvn). Como T es inyectiva,

tenemos que α1v1 + · · ·+ αnvn = 0. Ahora, como {v1, . . . , vn} es linealmente independiente, tenemos que

α1 = · · · = αn = 0. De aquı concluimos que {T (v1), . . . , T (vn)} es linealmente independiente.

“⇐”Supongamos que {T (v1), . . . , T (vn)} es linealmente independiente y supongamos que α1v1 + · · · +αnvn = 0. Entonces tenemos que 0 = T (0) = T (α1v1 + · · · + αnvn) = α1T (v1) + · · · + αnT (vn). Como

{T (v1), . . . , T (vn)} es linealmente independiente tenemos que α1 = · · · = αn = 0. Por tanto {v1, . . . , vn}es linealmente independiente.

100

2. Como T es un isomorfismo, es en particular inyectivo y sobreyectivo, por tanto ker(T ) = {0} yW = Im(T ).

Entonces tenemos lo siguiente:

{T (v1), . . . , T (vn)} genera a W si y solo si {T (v1), . . . , T (vn)} genera a Im(T ) si y solo si para todo v ∈ V

existen constantes α1, . . . , αn tal que T (v) = α1T (v1) + · · ·+αnT (vn) si y solo si para todo v ∈ V existen

constantes α1, . . . , αn tal que T (v) = T (α1v1 + · · ·+αnvn) si y solo si para todo v ∈ V existen constantes

α1, . . . , αn tal que 0 = T (α1v1 + · · · + αnvn) − T (v) = T (α1v1 + · · · + αnvn − v) si y solo si para todo

v ∈ V existen constantes α1, . . . , αn tal que α1v1 + · · · + αnvn − v ∈ ker(T ) = {0} si y solo si para todo

v ∈ V existen constantes α1, . . . , αn tal que α1v1 + · · ·+αnvn− v = 0 si y solo si para todo v ∈ V existen

constantes α1, . . . , αn tal que v = α1v1 + · · ·+ αnvn si y solo si {v1, . . . , vn} genera a V .

3. Es inmediato de 1 y 2.

4. Es inmediato de 3

5. v ∈ gen{v1, . . . , vn} si y solo si existen constantes α1, . . . , αn tal que v = α1v1 + · · · + αnvn si y solo si

existen constantes α1, . . . , αn tal que T (v) = T (α1v1 + · · ·+ αnvn) = α1T (v1) + · · ·+ αnT (vn) si y solo si

T (v) ∈ gen{T (v1), . . . , T (vn)}.

En la proxima seccion explotaremos toda la potencia de los Teoremas 3.6 y 3.14, lo cual nos permitira estudiar

independencia lineal, conjuntos generadores y bases en espacios vectoriales arbitrarios. Tambien nos ayudara a

estudiar inyectividad, sobreyectividad y biyectividad de transformaciones lineales entre espacios vectoriales ar-

bitrarios.

Problemas

3.4.1. Sea V =

1 a

0 1

∣∣∣∣a ∈ R

el espacio vectorial con suma definida por A⊕B = AB donde AB denota

el producto usual de matrices y el producto por escalar definido por α ·

1 a

0 1

=

1 αa

0 1

. Demuestre que

V ∼= R exhibiendo un isomorfismo entre estos espacios.

3.4.2. Muestre que las siguientes transformaciones lineales de R3 en R

3 son invertibles y determine su trans-

formacion lineal inversa.

1. T (x, y, z) = (x− 3y − 2z, y − 4z,−z).

2. T (x, y, z) = (x, x− y, 2x+ y − z).

3.4.3. Sea T : R2 → R2 dada por T (x1, x2) = (x1 + x2, x1) para todo (x1, x2) ∈ R

2. Demuestre que T es un

isomorfismo y determine T−1.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 101

3.4.4. Sea V un espacio vectorial y S, T : V → V transformaciones lineales invertibles. Demuestre que S ◦ Tes invertible y (S ◦ T )−1 = T−1 ◦ S−1.

3.4.5. Sean T : R3 → R2 y S : R2 → R

3 transformaciones lineales. Demuestre que S ◦ T no es invertible.

De un ejemplo donde T ◦ S es invertible.

3.4.6. Sea A ∈ Mn(R) y T : Mn(R) −→ Mn(R) la funcion definida por T (X) = AX. Muestre que T es una

transformacion lineal y muestre que T es invertible si y solo si A es invertible.

3.4.7. Sea T : V −→ V un transformacion lineal, Ck = Im(T k) y Nk = ker(T k), demuestre lo siguiente:

1. Ck+1 ⊆ Ck,

2. T (Ck) = Ck+1. (Recuerde que para H ⊆ V se define T (H) como el conjunto T (H) = {T (h) | h ∈ H},)

3. Nk ⊆ Nk+1,

4. T (Nk) ⊆ Nk,

3.4.8. Si T : V −→W y S : W −→ V son transformaciones lineales muestre que

1. Im(S ◦ T ) ⊆ Im(S),

2. Si T admite una inversa a la derecha entonces Im(S ◦ T ) = Im(S).

3.5. Espacios Vectoriales Arbitrarios

En esta seccion veremos como los Teoremas 3.6 y 3.14 nos permiten resolver las preguntas sobre independencia

lineal, conjuntos generadores y bases en espacios vectoriales arbitrarios con un procedimiento Gauss-Jordan.

Ejemplo 3.17. Considere los polinomios p1 = 1− 2t2, p2 = t+ t2 − t3 y p3 = t+ 3t2 en P3. Determinar si los

polinomios son linealmente independientes.

Solucion. Por el Teorema 3.6 la funcion T = RX: P3 −→ R

4 determinada por T (a0+a1t+a2t2+a3t

3) =

a0

a1

a2

a3

es un isomorfismo. Entonces por el Teorema 3.14 tenemos que el conjunto {p1, p2, p3} es linealmente indepen-

diente si y solo si el conjunto

T (p1) =

1

0

−20

, T (p2) =

0

1

1

−1

, T (p3) =

0

1

3

0

es linealmente independiente.

Sabemos por el Teorema 2.5 que este ultimo conjunto es LI si la matriz [T (p1) T (p2) T (p3)] =

1 0 0

0 1 1

−2 1 3

0 −1 0

102

tiene rango igual al numero de columnas. Aplicando el procedimiento Gauss-Jordan obtenemos que la forma es-

calonada reducida de esta matriz es la matriz

1 0 0

0 1 0

0 0 1

0 0 0

. Luego los vectores {T (p1), T (p2), T (p3)} son LI y por

tanto los polinomios {p1, p2, p3} son LI.

Ejemplo 3.18. (MatLab) Sean M1 =

1 −20 0

, M2 =

0 1

1 −1

, M3 =

0 3

1 0

y M4 =

−5 1

−5 3

, determine

si las matrices son LI en M22(R) y si no lo son encontrar una dependencia lineal entre ellos.

Solucion. El procedimiento es analogo al ejemplo anterior. Por el Teorema 3.6 la funcion T : M22(R) −→ R4

determinada por T

a c

b d

=

a

b

c

d

es un isomorfismo. Entonces el conjunto {M1,M2,M3,M4} es lineal-

mente independiente si y solo si el conjunto

T (M1) =

1

0

−20

, T (M2) =

0

1

1

−1

, T (M3) =

0

1

3

0

, T (M4) =

−5−51

3

es linealmente independiente. Al calcular

la forma escalonada de la matriz A = [T (M1) T (M2) T (M3) T (M4)] obtenemos A′ =

1 0 0 −50 1 0 −30 0 1 −20 0 0 0

, por

tanto los vectores no son LI y tenemos que T (M4) = −5T (M1)− 3T (M2)− 2T (M1), como T es un isomorfismo

tenemos que M4 = −5M1 − 3M2 − 2M3, lo que nos da una dependencia lineal entre las matrices M1,M2, M3 y

M4.

Ejemplo 3.19. Sean M1,M2,M3 y M4 las matrices del ejemplo anterior, calcular una base y la dimension de

H = gen{M1,M2,M3,M4} y determine si M =

1 1

1 3

∈ H.

Solucion. De acuerdo al ejemplo anterior sabemos que M1,M2 y M3 son LI y que M4 es una combinacion

lineal de estas, por tanto {M1,M2,M3} es una base para H y dim(H) = 3.

Para determinar si M ∈ H, usamos el Teorema 3.14 el cual dice que M ∈ H si y solo si T (M) ∈ T (H) si y

solo si existen constantes α1, α2, α3 tal que T (M) = α1T (M1) + α2T (M2) + α3T (M3) si y solo si el conjunto

{T (M1), T (M2), T (M3), T (M)} es LD.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 103

Esto lo podemos saber calculando la forma escalonada reducida de la matriz

A = [T (M1) T (M2) T (M3) T (M)] =

1 0 0 1

0 1 1 1

−2 1 3 1

0 −1 0 3

.

Despues de hacer los respectivos calculos podemos notar que A′ = I y por tanto los vectores son LI. Concluimos

que T (M) /∈ T (H), luego M /∈ H.

Problemas

3.5.1. Encuentre una base para {p ∈ R3[x] | p(−1) = 0}.

3.5.1. Transformaciones lineales entre espacios vectoriales arbitrarios.

En esta seccion definiremos la matriz de una transformacion con respecto a una base del dominio y otra del

codominio. Esto nos permitira calcular el kernel y la imagen de una transformacion lineal de manera computacio-

nal. La matriz de la transformacion con respecto a dos bases dadas nos permitira ver una transformacion lineal

entre espacios arbitrarios como una transformacion de Rn en R

m. En las siguientes observaciones introducimos

la matriz de una transformacion con respecto a dos bases.

Observacion 3.4. Sean V y W espacios vectoriales, sean X = {v1, . . . , vn} y Y = {w1, . . . , wm} bases de V

y W respectivamente y T : V → W una transformacion lineal. Por el Teorema 3.12 tenemos los isomorfismos

canonicos RX: V −→ R

n y RY : W −→ Rm definidos por

RX(α1v1 + · · ·+ αnvn) = (α1, . . . , αn) y R

Y(β1w1 + · · ·+ βmvm) = (β1, . . . , βm).

Por tanto tenemos el siguiente diagrama:

VT

//

RX

��

W

RY

��

Rn S

// Rm,

ası se obtiene una transformacion lineal S : Rn −→ Rm, la cual esta dada por S = R

Y◦ T ◦R−1

X.

Esta transformacion tiene asociada una matriz ESS la cual nos permitira calcular el kernel y la imagen de

T .

Teorema 3.15. Usando la notacion de la Observacion 3.4. Sean V y W espacios vectoriales, X = {v1, . . . , vn}una base para V , Y = {w1, . . . , wm} una base para W y T : V −→ W una transformacion lineal. Entonces

tenemos lo siguiente:

104

1. S es inyectiva si y solo si T es inyectiva.

2. S es sobreyectiva si y solo si T es sobreyectiva.

3. S es un isomorfismo si y solo si T es un isomorfismo.

Demostracion. Por la definicion de S tenemos que T = R−1Y◦S◦R

X, ademas como R

Xy R

Yson isomorfismos,

son en particular inyectivos y sobreyectivos.

1. “⇒”Si S es inyectiva entonces T = R−1Y◦S ◦R

Xes una composicion de transformaciones inyectivas y por tanto

es T inyectiva.

“⇐”Si T es inyectiva entonces S = RY◦T ◦R−1

Xes una composicion de transformaciones inyectivas y por tanto

S es inyectiva.

2. “⇒”Si S es sobreyetiva entonces T = R−1Y◦S ◦R

Xes una composicion de transformaciones sobreyectivas y por

tanto es T sobreyectiva.

“⇐”Si T es sobreyectiva entonces S = RY◦ T ◦ R−1

Xes una composicion de transformaciones sobreyectivas y

por tanto S es sobreyectiva.

3. Se sigue de 1. y 2.

Este teorema nos permite asociar a cualquier transformacion lineal entre espacios vectoriales arbitrarios

una transformacion lineal de Rn en R

m que respeta la inyectividad, la sobreyectividad y le biyectividad de la

transformacion, de este se deduce los siguientes resultados que nos dicen como determinar si la transformacion

es inyectiva y/o sobreyectiva, tambien como calcular el kernel y la imagen.

Corolario 3.16. Usando la notacion de la Observacion 3.4. Sean V y W espacios vectoriales, X = {v1, . . . , vn}una base para V , Y = {w1, . . . , wm} una base para W , T : V −→W una transformacion lineal, S = R

n −→ Rm

y A = ESE la matriz de la transformacion S. Entonces

1. T es inyectiva si y solo si rango(A) = numero de columnas de A.

2. T es sobreyectiva si y solo si rango(A) = numero de filas de A.

3. T es un isomorfismo si y solo si rango(A) = numero de filas de A = numero de columnas de A.

Demostracion. Esto es una consecuencia inmediata del teorema anterior y los Teoremas 3.6, 3.8 y 3.9.

Corolario 3.17. Sean V y W espacios vectoriales, sea X = {v1, . . . , vn} una base para V , Y = {w1, . . . , wm}una base para W , T : V −→ W una transformacion lineal. R

X: V −→ R

n y RY: W −→ R

m los isomorfismos

canonicos de V y W , respectivamente, sea S = RY◦ T ◦ R−1

X: Rn −→ R

m y sea A = ESE la matriz de la

transformacion S. Entonces tenemos lo siguiente:

1. ker(T ) = R−1X

(ker(S)) = R−1X

(Nul(A)).

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 105

2. Im(T ) = R−1Y

(Im(S)) = R−1Y

(Col(A)).

Ademas se sigue que

{x1, . . . , xr} es una base de Nul(A) si y solo si {R−1X

(x1), . . . , R−1X

(xr)} es una base de ker(T ) y

{y1, . . . , ys} es una base de Col(A) si y solo si {R−1Y

(y1), . . . , R−1Y

(ys)} es una base de Im(T ).

Demostracion.1.

v ∈ ker(T ) si y solo si 0 = T (v) = R−1Y◦ S ◦R

X(v) si y solo si S ◦R

X(v) = 0

si y solo si RX(v) ∈ ker(S) = Nul(A)

si y solo si v ∈ R−1X

(Nul(A)).

2.

w ∈ Im(T ) si y solo si existe v ∈ V tal que w = T (v) = R−1Y◦ S ◦R

X(v)

si y solo si existe v ∈ V tal que RY(w) = S(R

X(v))

si y solo si RY(w) ∈ Im(S) = Col(A)

si y solo si w ∈ R−1Y

(Col(A)).

A continuacion daremos ejemplos de como usar estos corolarios para calcular la imagen y el kernel de

transformaciones lineales.

Ejemplo 3.20. Considere la transformacion lineal derivacion D : P3 −→ P2 definida en el Problema 3.1.6.

Determinar si es inyectiva y/o sobreyectiva, si es un isomorfismo, calcular el kernel y la imagen de D.

Solucion. Los conjuntos X = {1, t, t2, t3} y Y = {1, t, t2} son bases de P2 y P3, respectivamente. Se tienen los

isomorfismos RX : P3 −→ R4 y RY : P2 −→ R

3 definidos por RX(a0 + a1t + a2t2 + a3t

3) = (a0, a1, a2, a3) y

RY (a0 + a1t+ a2t2) = (a0, a1, a2) (Los isomorfismos canonicos de P3 y P2, respectivamente).

La transformacion S = RY ◦D ◦R−1X : R4 −→ R

3 esta dada por

S(a, b, c, d) = RY ◦D ◦R−1X (a, b, c, d) = RY ◦D(a+ bt+ ct2 + dt3) = RY (b+ 2ct+ 3dt2) = (b, 2c, 3d)

La matriz de esta transformacion es

A =E SE = [S(e1) S(e2) S(e3) S(e4)] =

0 1 0 0

0 0 2 0

0 0 0 3

y su forma escalonada esta dada por A′ =

0 1 0 0

0 0 1 0

0 0 0 1

. Por tanto la transformacion S es sobreyectiva pero no

inyectiva. Del Teorema 3.15 tenemos que D es sobreyectiva pero no inyectiva, por tanto no es un isomorfismo.

106

Ahora pasamos a calcular el kernel y la imagen. Como D es sobre entonces Im(D) = P2. Para el kernel,

usamos el Corolario 3.17, el cual nos dice que si calculamos una base de Nul(A) y aplicamos R−1X obtenemos

una base de ker(D).

Notese que

α1

α2

α3

α4

∈ Nul(A′) = Nul(A) si y solo si α2 = α3 = α4 = 0 si y solo si

α1

α2

α3

α4

=

α1

0

0

0

= α1

1

0

0

0

.

Se sigue que x1 =

1

0

0

0

es una base de Nul(A) = ker(S). Por tanto {R−1X (x1) = 1} una base para ker(D).

Es decir

ker(D) = gen{1} = { polinomios constantes }.

Ejemplo 3.21. Considere la transformacion lineal integracion I : P2 −→ P3 definida en el Problema 3.1.7.

Determinar si I es inyectiva y/o sobreyectiva, si es un isomorfismo, calcular el kernel y la imagen de I.

Solucion. Nuevamente consideramos las bases del problema anterior Y = {1, t, t2} y X = {1, t, t2, t3} y los

isomorfismos RX : P3 −→ R4 definido por RX(a0+a1t+a2t

2+a3t3) = (a0, a1, a2, a3) y RY : P2 −→ R

3 definido

por RY (a0 + a1t+ a2t2) = (a0, a1, a2).

En este caso la transformacion S = RX ◦ I ◦R−1Y : R3 −→ R

4 esta dada por

S(a, b, c) = RX ◦ I ◦R−1Y (a, b, c) = RX ◦ I(a+ bt+ ct2) = RX

(

at+b

2t2 +

c

3t3)

=

(

a,b

2,c

3

)

La matriz de esta transformacion es

A =E SE = [S(e1) S(e2) S(e3)] =

0 0 0

1 0 0

0 1/2 0

0 0 1/3

y su forma escalonada reducida esta dada por A′ =

1 0 0

0 1 0

0 0 1

0 0 0

. Por tanto la transformacion S es inyectiva pero

no sobreyectiva, luego por el Teorema 3.15 tenemos que I es inyectiva pero no sobreyectiva, por tanto no es un

isomorfismo.

Ahora pasamos a calcular el kernel y la imagen. Como I es inyectiva entonces ker(I) = {0}. Para calcular

la imagen, usamos el Corolario 3.17, el cual no dice que si calculamos una base de Col(A) y aplicamos R−1X

obtenemos una base de Im(I).

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 107

De la matriz A′ obtenemos que una base para Col(A) = Im(I) esta dada por el conjunto{

y1 =

[0100

]

, y2 =

[00

1/20

]

, y3 =

[000

1/3

]}

,

ya que A′ tiene pivotes en las tres columnas. Por tanto el conjunto {R−1X (y1), R

−1X (y2), R

−1X (y3)} =

{t, 1

2 t2, 1

3 t3}

es una base para Im(I). Es decir

Im(I) = gen

{

t,1

2t2,

1

3t3}

= gen{t, t2, t3}.

Ejemplo 3.22. Sea M =

1 −1−1 1

y sea T : M22(R) −→ M22(R) la funcion definida por T (A) = AM .

Demuestre que T es una transformacion lineal, determine si T es inyectiva y/o sobreyectiva, si es un isomorfismo

y calcular el kernel y la imagen de T .

Solucion. Primero veamos que T es una transformacion lineal. Sean A1, A2 ∈M22(R) y α ∈ R,

T (A1 +A2) = (A1 +A2)M = A1M +A2M = T (A1) + T (A2) y

T (αA1) = (αA1)M = α(A1M) = αT (A1).

Fijemos la base

X =

E11 =

1 0

0 0

, E21 =

0 0

1 0

, E12 =

0 1

0 0

, E22 =

0 0

0 2

y consideremos el isomorfismo RX : M22 −→ R4 definido por

RX

a c

b d

= RX(aE11 + bE21 + cE12 + dE22) = (a, b, c, d).

La transformacion S = RX ◦ T ◦R−1X : R4 −→ R

4 esta dada por

S (a, b, c, d) = RX ◦ T ◦R−1X (a, b, c, d) = RX ◦ T

a c

b d

= RX

a c

b d

M

= RX

a− c −a+ c

b− d −b+ d

= (a− c, b− d,−a+ c,−b+ d).

La matriz de esta transformacion es

A = ESE = [S(e1) S(e2) S(e3) S(e4)] =

1 0 −1 0

0 1 0 −1−1 0 1 0

0 −1 0 1

y su forma escalonada reducida es la matriz A′ =

1 0 −1 0

0 1 0 −10 0 0 0

0 0 0 0

. Luego S no es inyectiva ni sobreyectiva y

tampoco un isomorfismo.

108

De la matriz A′ tenemos que una base para Col(A) esta dada por las dos primeras columnas de A, es decir,

m1 =

1

0

−10

,m2 =

0

1

0

−1

es una base para Col(A) = Im(S). Por tanto se tiene que una base para Im(T )

esta dada por

{R−1X (m1), R

−1X (m2)} =

1 −10 0

,

0 0

1 −1

.

Ahora para calcular ker(T ) necesitamos una base para Nul(A). Para esto notese que

α1

α2

α3

α4

∈ Nul(A) = Nul(A′) si y solo siα1 = α3

α2 = α4

si y solo si

α1

α2

α3

α4

=

α3

α4

α3

α4

= α3

1

0

1

0

+ α4

0

1

0

1

.

Se sigue que el conjunto

x1 =

1

0

1

0

, x2 =

0

1

0

1

es una base para Nul(A) = ker(S). Por tanto el conjunto

{R−1X (x1), R

−1X (x2)} =

1 1

0 0

,

0 0

1 1

,

es una base para ker(T ).

Ejemplo 3.23. Sea M =

2 1

1 1

y sea T : M22(R) −→M22(R) la funcion definida por T (B) = MB. Demuestre

que T es una transformacion lineal, determine si T es inyectiva y/o sobre, si es un isomorfismo y calcular el

kernel y la imagen de T .

Solucion. Con un argumento similar al del ejemplo anterior se demuestra que T es una transformacion lineal.

Para los demas calculos fijemos la base de M22(R)

X =

E11 =

1 0

0 0

, E21 =

0 0

1 0

, E12 =

0 1

0 0

, E22 =

0 0

0 2

y tomemos el isomorfismo RX : M22 −→ R4 definido por

RX

a c

b d

= RX(aE11 + bE21 + cE12 + dE22) = (a, b, c, d).

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 109

En este caso la transformacion S = RX ◦ T ◦R−1X : R4 −→ R

4 esta dada por

S(a, b, c, d) = RX ◦ T ◦R−1X (a, b, c, d) = RX ◦ T

a c

b d

= RX

M

a c

b d

= RX

2a+ b 2c+ d

a+ b c+ d

= (2a+ b, a+ b, 2c+ d, c+ d).

La matriz de esta transformacion es

A = ESE = [S(e1) S(e2) S(e3) S(e4)] =

2 1 0 0

1 1 0 0

0 0 2 1

0 0 1 1

y su forma escalonada reducida es la matriz A′ =

1 0 0 0

0 1 0 0

0 0 1 0

0 0 0 1

= I. De esto concluimos que S es inyectiva y

sobreyectiva y por tanto es un isomorfismo.

Como T es un isomorfismo tenemos que ker(T ) = {0} y Im(T ) = M22(R).

Problemas

3.5.2. Calcule la matriz de la tranformacion T : R3[t] −→ R3[t] definida por T (p) = ddt [(2 + t)p].

3.5.3. Sean V un espacio vectorial de dimension finita y T : V → V una transformacion lineal. Suponga que

existe S : V → V tal que T ◦ S = IdV . Demuestre que T es invertible y S = T−1. De un ejemplo que muestre

que lo anterior es falso cuando V no es de dimension finita.

3.5.4. Sea T : U → V una transformacion lineal inyectiva. Muestre que V tiene un subespacio isomorfo a U .

Sea T : V −→ V una transformacion lineal y X una base de V , demuestre que T : V −→ V es invertible si y

solo si la matriz XTX es invertible.

3.5.5. Sea V un espacio vectorial con dimV ≥ 3. Muestre que una funcion T : V → V es una transformacion

lineal si y solo la restriccion de T a cada subespacio vectorial de V con dimension 2 es una transformacion

lineal.

3.5.6. Si T : V −→W y S : W −→ Z son transformaciones lineales entonces Im(T ◦S) ⊆ Im(T ) y Im(T ◦S) ⊆Im(S).

3.5.7. Si T, S : V −→ V son transformaciones lineales y T ◦ S es invertible entonces T y S son invertibles.

De un ejemplo en el que T : V −→W y S : W −→ V con T ◦ S invertible pero ni T ni S son invertibles.

110

3.5.8. Sea T : Mn(R) −→Mn(R) definida por T (A) = A−At. Demuestre que kerT = Sn(R) es el conjunto de

marices simetricas y la imagen Im(T ) = An(R) es el conjunto de matrices antisimetricas.

3.5.9. Si T : V −→W y S : W −→ V son transformaciones lineales con dimV > dimW entonces S ◦ T no es

invertible.

3.6. Propiedades de los Espacios Vectoriales

En esta seccion estudiaremos resultados clasicos de espacios vectoriales, como el Teorema de la Base Incom-

pleta y los teoremas de la dimension, entre otros. Comenzamos con el siguiente resultado que garantiza que la

representacion de un vector en terminos de una base es unica salvo el orden.

Teorema 3.18. Sea V un espacio vectorial, {v1, . . . , vn} una base de V y v ∈ V , entonces existen constantes

unicas α1, . . . , αn talque v = α1v1 + · · ·+ αnvn.

Demostracion. Supongamos que existen constantes α1, . . . , αn talque v = α1v1 + · · · + αnvn y supongamos

que existen otras constantes β1, . . . , βn tal que v = β1v1 + · · · + βnvn. Entonces restando estas dos ecuaciones

obtenemos:

0 = v − v = α1v1 + · · ·+ αnvn − (β1v1 + · · ·+ βnvn) = (α1 − β1)v1 + · · ·+ (α1 − βn)vn

luego, como los vectores v1, . . . , vn son LI, entonces 0 = α1−β1 = · · · = αn−βn, por tanto α1 = β1, . . . , αn = βn

y las constantes son unicas.

Los siguientes resultados son generalizaciones de los Teoremas 2.11 ıtem 2. y 2.16 que se enunciaron y se

demotraron en el Capıtulo 2.

Teorema 3.19. Sea V un espacio vectorial y sea {v1, . . . , vn} un conjunto linealmente independiente. Si

dim(V ) = n entonces {v1, . . . , vn} es una base para V.

Demostracion. Como dim(V ) = n entonces V tiene una base X con n elementos, aplicando el Teorema 3.12

existe un isomorfismo T = RX : V −→ Rn y por el Teorema 3.14 ıtem 1 el conjunto {T (v1), . . . , T (vn)} es

linealmente independiente en Rn, luego por el Teorema 2.11 ıtem 2, este conjunto forma una base para R

n.

Aplicando nuevamente el Teorema 3.14 ıtem 1 tenemos que {v1, . . . , vn} es una base de V .

Teorema 3.20. Sean V y W espacios vectoriales con dim(V ) = n y sea T : V −→ W una transformacion

lineal. Entonces

dim(kerT ) + dim(ImT ) = n.

Demostracion. Sea m = dim(W ), sean X y Y bases de V y W respectivamente, y sean RX : V −→ Rn y

RY : W −→ Rm los isomorfismos canonicos de V y W , respectivamente. Definamos S = RY ◦ T ◦ R−1

X y sea

A = ESE la matriz de transformacion de S, entonces por el Corolario 2.17 tenemos que

dim(NulA) + dim(ColA) = n.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 111

Ahora por el Corolario 3.17, se tiene que dim(ImT ) = dim(ImS) = dim(ColA) y dim(KerT ) = dim(KerS) =

dim(NulA) entonces tenemos

dim(ImT ) + dim(KerT ) = dim(ImS) + dim(NulS) = dim(ColA) + dim(NulA) = n.

Ahora pasamos a demostrar el teorema de la base incompleta en su version general, para facilitar su demos-

tracion veamos el siguiente lema.

Lema 3.21. Sea V un espacio vectorial, {v1, . . . , vk} ⊆ V un conjunto de vectores linealmente independientes

y w ∈ V . Si w /∈ gen{v1, . . . , vk} entonces el conjunto {v1, . . . , vk, w} es linealmente independiente.

Demostracion. Supongamos que w /∈ gen{v1, . . . , vk}. Para demostrar que {v1, . . . , vk, w} es linealmente

independiente, supongamos que

α1v1 + · · ·+ αkvk + βw = 0 (3.1)

y veamos que las constantes son todas cero.

Primero notese que β = 0, ya que si β 6= 0, entonces de la Ecuacion 3.1 tenemos que w = −α1

β v1−· · ·− αk

β vk

y por tanto w ∈ gen{v1, . . . , vk} lo que contradice la hipotesis, por tanto β = 0.

Entonces la Ecuacion 3.1 se reduce a α1v1 + · · ·+ αkvk = 0. Pero por hipotesis {v1, . . . , vk} es un conjunto

LI, se sigue por tanto que 0 = α1 = · · · = αk.

De esto concluimos que {v1, . . . , vk, w} es linealmente independiente.

Teorema 3.22. (Teorema de la Base Incompleta) Sean V un espacio vectorial con dim(V ) = n, {v1, . . . , vk}un conjunto de vectores linealmente independientes con k < n. Entonces existen vectores vk+1, . . . , vn tal que

{v1, . . . , vk, vk+1, . . . , vn} es una base para V .

Demostracion. Como {v1, . . . , vk} es linealmente independiente, entonces dim gen{v1, . . . , vk} = k y como

k < n entonces gen{v1, . . . , vk} 6= V , por tanto existe v ∈ V tal que v /∈ gen{v1, . . . , vk}, entonces aplicando el

lema anterior tenemos que {v1, . . . , vk, v} es LI.Tomemos vk+1 = v y ası tenemos que {v1, . . . , vk, vk+1} es linealmente independiente. Si n = k+1 entonces

V = gen{v1, . . . , vk, vk+1} y por tanto {v1, . . . , vk, vk+1} es una base de V . En el caso k + 1 < n tenemos que

gen{v1, . . . , vk, vk+1} 6= V y existe w ∈ V tal que w /∈ gen{v1, . . . , vk, vk+1}, entonces aplicando de nuevo el

lema anterior tenemos que {v1, . . . , vk, vk+1, w} es linealmente independiente.

Hacemos vk+2 = w y tenemos que {v1, . . . , vk, vk+1, vk+2} es linealmente independiente.

Continuando de manera inductiva conseguimos vectores vk+1, . . . , vn tal que {v1, . . . , vk, vk+1, . . . , vn} es

linealmente independiente, entonces como dim(V ) = n, por el Teorema 3.19 tenemos que

{v1, . . . , vk, vk+1, . . . , vn} es una base para V .

Teorema 3.23. Sea V un espacio vectorial y sean W1 y W2 subespacios de V . Entonces

dim(W1 +W2) = dim(W1) + dim(W2)− dim(W1 ∩W2).

112

Demostracion. Sea n = dim(V ), r = dim(W1), s = dim(W2) y t = dim(W1 ∩W2). Sea {w1, . . . , wt} una base

paraW1∩W2, por el Teorema de la Base Incompleta, existen vectores xt+1, . . . , xr tal que {w1, . . . , wt, xt+1, . . . , xr}es una base para W1 y existen vectores yt+1, . . . , ys tal que {w1, . . . , wt, yt+1, . . . , ys} es una base para W2.

Afirmacion 1: El conjunto {w1, . . . , wt, xt+1, . . . , xr, yt+1, . . . , ys} es linealmente independiente.

Para demostrar esta afirmacion, supongamos que

α1w1 + · · ·+ αtwt + βt+1xt+1 + · · ·+ βrxr + λt+1yt+1 + · · ·+ λsys = 0. (3.2)

Sea v = λt+1yt+1 + · · ·+ λsys ∈W2, entonces por la Ecuacion 3.2 tenemos que

v = λt+1yt+1 + · · ·+ λsys = −α1w1 − · · · − αtwt − βt+1xt+1 − · · ·+ βrxr ∈W1

por tanto v ∈W1 ∩W2, entonces existen constantes σ1, . . . , σt tal que v = σ1w1 + · · ·+ σtwt. Se sigue que

0 = v − v = σ1w1 + · · ·+ σtwt − λt+1yt+1 − · · · − λsys,

pero como {w1, . . . , wt, yt+1, . . . , ys} es linealmente independiente, por ser base de W2, entonces

0 = σ1 = · · · = σt = λ1 = · · · = λs.

Entonces la Ecuacion 3.2 se reduce a α1w1 + · · · + αtwt + βt+1xt+1 + · · · + βrxr = 0, pero el conjunto

{w1, . . . , wt, xt+1, . . . , xr} es linealmente independiente, por ser base de W1, entonces

0 = α1 = · · · = αt = β1 = · · · = βs.

Concluimos que {w1, . . . , wt, xt+1, . . . , xr, yt+1, . . . , ys} es linealmente independiente, lo que demuestra la Afir-

macion 1.

Afirmacion 2: El conjunto {w1, . . . , wt, xt+1, . . . , xr, yt+1, . . . , ys} genera a W1 +W2.

Tomemos w ∈W1 +W2, entonces existen x ∈W1 y y ∈W2 tal que w = x+ y.

Como {w1, . . . , wt, xt+1, . . . , xr} es una base para W1, existen constantes α1, . . . , αr tal que

x = α1w1 + · · ·+ αtwt + αt+1xt+1 + · · ·+ αrxr. (3.3)

Similarmente existen constantes β1, . . . , βs tal que

y = β1w1 + · · ·+ βtwt + βt+1yt+1 + · · ·+ βsys. (3.4)

De las Ecuaciones 3.3 y 3.4 tenemos que

w =x+ y

=α1w1 + · · ·+ αtwt + αt+1xt+1 + · · ·+ αrxr

+ β1w1 + · · ·+ βtwt + βt+1yt+1 + · · ·+ βsys

=(α1 + β1)w1 + · · ·+ (αt + βt)wt + αt+1xt+1 + · · ·+ αrxr + βt+1yt+1 + · · ·+ βsys.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 113

Lo que demuestra la Afirmacion 2.

De las Afirmaciones 1. y 2. tenemos que el conjunto {w1, . . . , wt, xt+1, . . . , xr, yt+1, . . . , ys} es una base para

W1 +W2. Por tanto

dim(W1 +W2) = t+ r − t+ s− t = r + s− t = dim(W1) + dim(W2)− dim(W1 ∩W2).

Problemas

3.6.1. Sea V un espacio vectorial de dimension n.

1. Si n es impar, demuestre que no existe ninguna transformacion lineal T : V −→ V tal que ker(T ) = Im(T ).

2. Exhiba un contraejemplo a la afirmacion anterior si n es par.

3.6.2. Muestre que si T : V →W es una transformacion lineal inyectiva, entonces dimV ≤ dimW .

3.6.3. Considere una transformacion lineal T : V −→W , donde V y W son espacios vectoriales de dimension

finita tales que dimW < dimV .

1. Demuestre que existe un elemento no nulo v ∈ V talque T (v) = 0.

2. Si X es una base arbitraria de V , ¿existe un vector v ∈ X tal que T (v) = 0? Demuestre o de un contra ejemplo.

3.6.4. Sea T : V −→ V una transformacion lineal demuestre que las siguientes afirmaciones son equivalentes

1. T es invertible

2. T es inyectiva

3. T es sobreyectiva

3.6.5. El problema anterior no es cierto en dimension infinta, muestre que la transformacion lineal T : R[t] −→R[t] definida por T (p) =

∫ t

0p(x)dx es inyectiva pero no sobre y la transformacion T : R[t] −→ R[t] definida por

T (p) = p′ es sobre pero no inyectiva.

Los dos siguientes problemas bosquejan otra forma de demostrar el Teorema 3.20

3.6.6. Sean V y W espacios vectoriales, T : V −→W una transformacion lineal y {v1, . . . , vt} una base de kerT .

Si vt+1, . . . , vn son vectores tal que {v1, . . . , vt, vt+1, . . . , vn} es una base de V entonces {T (vt+1), . . . , T (vn)} esuna base de Im(T ).

3.6.7. Sean V y W espacios vectoriales, T : V −→ W una transformacion lineal y {w1, . . . , wt} una base de

Im(T ) y sean v1, . . . , vt vectores tal que wi = T (vi), para i = 1, . . . , t. Demuestre lo siguiente

1. El conjunto {v1, . . . , vt} es linealmente independiente.

114

2. Si vt+1, . . . , vn son vectores tal que {v1, . . . , vt, vt+1, . . . , vn} es una base de V entonces {vt+1, . . . , vn} es una

base de ker(T ).

3.6.8. Muestre que la funciontr : Mn(R) −→ R

A 7→ tr(A)es una TL sobreyectiva con ker tr = sln(R) = {A ∈

Mn(R) | trA = 0}. Use esto y el Teorema de la Dimension para transformaciones lineales para determinar

dim sln(R).

3.7. Suma Directa de Espacios

Terminamos el capıtulo con la definicion de suma directa y las propiedades mas relevantes.

Definicion 3.7. (Suma Directa) Sean V un espacio vectorial y W1 y W2 subespacios de V , decimos que V

es la suma directa de W1 y W2, lo cual denotamos por V = W1 ⊕W2, si V = W1 +W2 y W1 ∩W2 = {0}.

Los siguientes resultados exhiben condiciones suficientes y necesarias para que un espacio sea suma directa

de dos subespacios.

Teorema 3.24. Sean V un espacio vectorial y W1 y W2 subespacios de V . Entonces V = W1 ⊕W2 si y solo si

V = W1 +W2 y dimW1 + dimW2 = dimV .

Demostracion. “⇒”Si V = W1⊕W2 entonces por definicion tenemos que V = W1 +W2 y por el Teorema de

la dimension (Teorema ??) tenemos que

dimV = dimW1 + dimW2 − dim(W1 ∩W2)︸ ︷︷ ︸

=0

= dimW1 + dimW2.

“⇐”Si V = W1 +W2 y dimW1 + dimW2 = dimV por el Teorema de la dimension tenemos que

dimV = dimW1 + dimW2 − dim(W1 ∩W2),

se sigue que dim(W1 ∩W2) = 0 y por tanto V = W1 ⊕W2.

Teorema 3.25. Sean V un espacio vectorial, W1 y W2 subespacios de V y X y Y bases para W1 y W2,

respectivamente. Entonces V = W1 ⊕W2 si y solo si X ∪ Y es una base para V .

Demostracion. “⇒”Supongamos que V = W1⊕W2 y sean X = {v1, . . . , vr} y Y = {w1, . . . , ws} bases de W1

y W2. Veamos que {v1, . . . , vr, w1, . . . , ws} es LI.Supongamos que

α1v1 + · · ·+ αrvr + β1w1 + · · ·+ βsws = 0 (3.5)

y definamos x = α1v1 + · · ·+ αrvr entonces x ∈ W1 y de (3.5) se sigue que x = α1v1 + · · ·+ αrvr = −(β1w1 +

· · · + βsws) y por tanto x ∈ W2. Se sigue que x ∈ W1 ∩W2 pero por hipotesis W1 ∩W2 = {0}, luego x = 0 y

como x = α1v1 + · · ·+ αrvr y {v1, . . . , vr} es LI por ser base para W1 tenemos que α1 = · · · = αr = 0. Ademas

como −(β1w1 + · · ·+ βsws) = x = 0 y {w1, . . . , ws} es LI entonces 0 = β1 = · · · = βs.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 115

Concluimos que X ∪ Y = {v1, . . . , vr, w1, . . . , ws} es LI. Ahora, por el teorema anterior dimV = dimW1 +

dimW2 = r + s entonces X ∪ Y es un conjunto LI con r + s = dimV elementos y por tanto es una base de V .

“⇐”Supongamos que X ∪ Y = {v1, . . . , vr, w1, . . . , ws} es una base para V .

Afirmacion 1. V = W1 +W2

Demostracion. Sea v ∈ V , como {v1, . . . , vr, w1, . . . , ws} es una base para V , existen constantes α1, . . . , αr, β1, . . . , βs

tal que

v = α1v1 + · · ·+ αrvr︸ ︷︷ ︸

∈W1

+β1w1 + · · ·+ βsws︸ ︷︷ ︸

∈W2

∈W1 +W2.

La otra inclusion es clara ya que como W1 y W2 son subespacios entonces W1 + W2 es un subespacio, en

particular es un subconjunto. Esto demuestra la afirmacion.

Afirmacion 2. W1 ∩W2 = {0}.Demostracion. Sea v ∈ W1 ∩W2, entonces v ∈ W1 y v ∈ W2. Como {v1, . . . , vr} es una base de W1, existen

constantes α1, . . . , αr tal que

v = α1v1 + · · ·+ αrvr. (3.6)

Un argumento similar garantiza la existencia de constantes β1, . . . , βs tal que

v = β1v1 + · · ·+ βrvr. (3.7)

De las ecuaciones 3.6 y 3.7 tenemos que

0 = v − v = α1v1 + · · ·+ αrvr − β1w1 + · · ·+ βsws.

Ahora, como {v1, . . . , vr, w1, . . . , ws} es linealmente independiente, por ser base para V , tenemos que 0 = α1 =

· · · = αr = β1 = · · · = βs. Por tanto v = α1v1 + · · ·+ αrvr = 0 y W1 ∩W2 ⊆ {0}. La otra inclusion es trivial ya

que 0 ∈W1 +W2 luego {0} ⊆W1 ∩W2. Lo que prueba la afirmacion.

De las afirmaciones 1. y 2. tenemos que V = W1 ⊕W2.

Terminamos la seccion con una ultima caracterizacion de la suma directa de espacios vectoriales.

Teorema 3.26. Sea V un espacio vectorial, sean W1 y W2 subespacios de V . Entonces V = W1⊕W2 si y solo

si para todo v ∈ V existen vectores unicos w1 ∈W1 y w2 ∈W2 tal que v = w1 + w2.

Demostracion. “⇒”: Supongamos que V = W1 ⊕W2, entonces por definicion tenemos que V = W1 + W2,

por tanto para v ∈ V existen w1 ∈W1 y w2 ∈W2 tal que v = w1 + w2.

Ahora veamos que estos vectores son unicos: supongamos que v = w1+w2 y que v = w′1+w′

2 con w1, w′1 ∈W1

y w2, w′2 ∈W2. Entonces tenemos que

0 = v − v = (w1 − w′1) + (w2 − w′

2)

se sigue que w1 − w′1 = w′

2 − w2 ∈ W2, pero como w1, w′1 ∈ W1 tenemos que w1 − w′

1 ∈ W1 y por tanto

w1−w′1 ∈W1∩W2 = {0}, obtenemos que w1−w′

1 = 0 o equivalentemente w1 = w′1. Similarmente se demuestra

que w2 = w′2.

116

“⇐”: Supongamos que para todo v ∈ V existen vectores unicos w1 ∈ W1 y w2 ∈ W2 tal que v = w1 + w2.

Se sigue que V = W1 +W2, ahora veamos que W1 ∩W2 = {0}.Sea x ∈ W1 ∩W2, entonces x = 0 + x ∈ W1 +W2 y x = x + 0 ∈ W1 +W2, como la expresion es unica se

sigue que x = 0.

Problemas

3.7.1. Demuestre que si T : V −→ V es una transformacion lineal tal que T ◦ T = T entonces V = Im(T ) ⊕ker(T ).

3.7.2. Exhiba un ejemplo de una transformacion lineal T : V −→ V tal que ker(T ) ∩ Im(T ) 6= {0}.

3.7.3. Sean W1 y W2 subespacios de un espacio vectorial V , demuestre que V = W1⊕W2 si y solo si dimW1+

dimW2 = dimV y W1 ∩W2 = {0}.

3.7.4. Demuestre que R2 = gen{(1, 0)} ⊕ gen{(1, 1)}.

3.7.5. Demuestre que el espacio de matrices n×n es la suma directa del subespacio de matrices simetricas y el

subespacio de matrices antisimetricas, es decir, Mn(R) ∼= Sn(R)⊕An(R). (Ayuda: Use el Ejercicio 1.2.11).

3.7.6. Sean V = F(R,R) el conjunto de las funciones f de R en R, W1 = {f ∈ V : f(x) = f(−x), ∀x ∈ R} y

W2 = {f ∈ V : f(−x) = −f(x), ∀x ∈ R}. Demuestre que W1 y W2 son subespacios de V y que V = W1 ⊕W2.

3.7.7. Muestre que todo espacio vectorial finitamente generado es una suma directa de subespacios vectoriales

de dimension 1.

3.7.8. Demuestre que si W es un subespacio de un espacio vectorial V entonces existe un subespacio Z de V

tal que V = W ⊕ Z

3.7.9. Demuestre que si V = W1 ⊕ · · · ⊕Wn, entonces

1. dimV =∑n

i=1 dimWi.

2. Si v ∈ V entonces v se escribe de manera unica como v = w1 + · · ·+ wn, con wi ∈Wi para i = 1, . . . , n.

3.7.10. Sean H1 y H2 subespacios de un espacio vectorial V , si dimH1 = dimH2 = dimV − 1 entonces

dim(H1 ∩H2) = dimV − 2. Deduzca que dos planos en R3 siempre siempre tienen una interseccion no trivial.

3.7.11. Sean H y K subespacios de un espacio vectorial V , si dimH = dimV −1 y KH entonces dim(H∩K) =

dimK − 1.

3.7.12. Si A,B ⊆ V son subconjuntos de un espacio vectorial V y A ∩ B = Φ muestre que L(AUB) =

L(A)⊕ L(B), donde L(A) = interseccion de los subespacios que contienen a A.

3.7.13. Sean V = W1 ⊕ · · · ⊕Wt y Bi ⊂Wi, para i = 1, . . . , t. Considere B = B1 ∪ · · · ∪ Bt.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 117

1. Muestre que si Bi es LI para i = 1, . . . , t, entonces B es LI.

2. Muestre que si Bi es una base para Wi para i = 1, . . . , t, entonces B es una base de V .

3.7.14. Si W1 = {A ∈ Mn(R) | aij = 0 para i ≥ j} es el conjunto de matrices estrictamente triangulares

superiores y y W2 = {A ∈ Mn(R) | aij = 0 para i < j} es el conjunto de matrices triangulares inferiores

entonces Mn(R) = W1 ⊕W2.

3.7.15. Si V y W son subespacios de Rn con dimV > n

2 y dimW > n2 entonces V ∩W 6= Φ.

3.7.16. Sea T : V −→ W una transformacion lineal, si V = H1 ⊕ H2 y T (H1) ∩ T (H2) = {0} entonces

T (V ) = T (H1)⊕ T (H2).

3.7.17. Si T : V −→W es un isomorfismo y V = H1 ⊕H2 entonces W = T (H1)⊕ T (H2).

3.7.18. Sea T : V −→ V una TL, demuestre que existe k > 0 tal que V = Im(T k)⊕Ker(T k).

3.7.19. Si T : V −→W un isomorfismo y V = H1 ⊕H2 entonces W = T (H1)⊕ T (H2).

118

Capıtulo 4

Ortogonalidad en Rn

En este capıtulo se define el producto interno usual en espacios vectoriales sobre R y se muestra como se

define, a traves de este producto, la norma de un vector y el angulo entre vectores en Rn. Esto a la vez nos

permitira hablar de ortogonalidad y proyeccion ortogonal de un vector sobre un subespacio. Se dara tambien

el metodo de los mınimos cuadrados, el cual es una aplicacion de proyeccion ortogonal. Al final se define el

concepto de base ortogonal, la importancia de estas bases y el proceso de Gramm-Schmidt, el cual es un metodo

para calcular este tipo de bases. Se termina el capıtulo con la llamada descomposicion QR de una matriz, la

cual se obtiene a partir del proceso Gramm-Schmidt.

4.1. Producto interno en Rn

Comenzamos el capıtulo con la definicion de producto interno o producto escalar de vectores en Rn.

Definicion 4.1. Sean v =

α1

...

αn

y w =

β1

...

βn

vectores en Rn, definimos el producto escalar de v y w,

denotado por v · w, por la formula

v · w = α1β1 + · · ·+ αnβn =

n∑

i=1

αiβi.

Ejemplo 4.1. Sean v =

1

2

3

y w =

−1−12

, entonces v · w = 1 · (−1) + 2 · (−1) + 3 · 2 = −1− 2 + 6 = 3.

Ejemplo 4.2. (MatLab) Sean v =

1

1

1

y w =

−1−10

. El producto escalar v ·w se calcula en MatLab como se

muestra a continuacion

119

120

>> v = [1; 1; 1]; w = [−1;−1; 0]; v′ ∗ w

y se tiene que v · w = −2.

Observacion 4.1. (Propiedades del producto escalar) Sean v, w, z ∈ Rn

1. (v + w) · z = v · z + w · z

2. v · (w + z) = v · w + v · z

3. (αv) · w = v · (αw) = αv · w

4. v · v ≥ 0 y v · v = 0 si y solo si v = 0.

5. v · w = w · v.

El producto por escalar induce una geometrıa en Rn, ya que a partir de este, podemos definir la longitud (o

norma) de un vector y la distancia entre vectores.

Definicion 4.2. (Norma de un vector) Sea v =

α1

...

αn

un vector en R

n, definimos la norma de x, denotada

por ||v||, por la formula

||v|| =√v · v =

α21 + · · ·+ α2

n.

Ejemplo 4.3. De acuerdo a esta formula, la norma del vector v =

−1−12

esta dada por

||v|| =√

(−1)2 + (−1)2 + 22 =√6.

Definicion 4.3. (Distancia entre vectores) Sean v y w vectores en Rn, la distancia entre v y w esta dada

por la formula ||w − v||.

Ejemplo 4.4. Sean v =

1

2

3

y w =

−1−12

, entonces la distancia entre v y w esta dada por

||w − v|| =√

(−1− 1)2 + (−1− 2)2 + (2− 3)2 =√14.

Observacion 4.2. Si v y w son vectores en Rn, entonces se cumple que

v · w = ||v|| ||w||cosθ, (4.1)

donde θ es el angulo formado por v y w.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 121

b

O

v

v − w

La Ecuacion (4.1) se obtiene de la siguiente forma: aplicando la ley de cosenos (en el plano generado por

los vectores v y w ) obtenemos

||v − w||2 = ||v||2 + ||w||2 − 2||v||||w|| cos θ, (4.2)

pero, por la definicion de norma y las propiedades del producto escalar tenemos

||v − w||2 = (v − w) · (v − w) = v · v − v · w − w · v + w · w = ||v||2 − 2v · w + ||w||2. (4.3)

Por tanto de las Ecuaciones (4.2) y (4.3) se tiene que

v · w = ||v|| ||w||cosθ.

Definicion 4.4. (Vectores ortogonales) Sean v, w ∈ Rn.

1. Decimos que v y w son ortogonales si v · w = 0.

2. Usando la Ecuacion (4.1) definimos el angulo entre v y w, esto es,

El angulo entre v y w = cos−1

(v · w||v|| ||w||

)

. (4.4)

Ejemplo 4.5. Sean v =

1

−12

y w =

1

1

1

, encuentre el angulo que forman v y w y determinar si son

ortogonales.

Solucion. El producto escalar v · w = 1 − 1 + 2 = 2, entonces los vectores no son ortogonales. El angulo θ

formado por v y w esta dado por la Ecuacion (4.4), ası:

θ = cos−1

(v · w||v||||w||

)

= cos−1

(2√6√3

)

= cos−1

(√2

3

)

.

Ejemplo 4.6. Calcular el angulo formado por los vectores v =

1

0

1

0

y w =

1

0

0

1

.

Solucion Notese que v · w = 1 + 0 + 0 + 0 = 1, ||v|| =√2 y ||w|| =

√2. Entonces de acuerdo a la Ecuacion

(4.4) tenemos que

el angulo entre v y w = cos−1

(v · w||v|| ||w||

)

= cos−1

(1√2√2

)

= cos−1

(1

2

)

= 60◦.

122

Definicion 4.5. (Espacios ortogonales) Sean V y W subespacios de Rn, decimos que V y W son ortogonales

si v · w = 0 para todo v ∈ V y w ∈W .

Ejemplo 4.7. Sean V = gen

1

−1−20

,

0

1

1

1

y W =

−1−10

1

subespacios de R4, entonces V y W son

ortogonales ya que todo elemento en v ∈ V tiene la forma v = a

1

−1−20

+ b

0

1

1

1

=

a

−a+ b

−2a+ b

b

y todo elemento

w ∈W tiene la forma w = c

−1−10

1

=

−c−c0

c

, donde a, b y c son numeros reales, por tanto

v · w = −ac+ (−a+ b)(−c) + (−2a+ b)0 + bc = −ac+ ac− bc+ bc = 0.

Los subespacios ortogonales satisfacen lo siguiente.

Lema 4.1. Sean V y W subespacios ortogonales de Rn, entonces

1. V ∩W = {0},

2. Si {v1, . . . , vr} y {w1, . . . , ws} son bases para V y W , respectivamente, entonces el conjunto

{v1, . . . , vr, w1, . . . , ws}

es linealmente independiente.

Demostracion. 1. Sea v ∈ V ∩W , entonces como V y W son ortogonales se tiene que v · v = 0 y por las

propiedades del producto interno se tiene que v = 0.

2. Supongamos que α1v1 + · · ·+ αrvr + β1w1 + · · ·+ βsws = 0, entonces

α1v1 + · · ·+ αrvr = −β1w1 − · · · −s ws ∈ V ∩W.

Por la parte 1. tenemos que α1v1 + · · · + αrvr = 0 y por tanto α1 = · · · = αr = 0, de esto se sigue que

−β1w1 − · · · − βsws = 0 y como {w1, . . . , ws} es una base entonces β1 = · · · = βr = 0.

El caso que estudiaremos a fondo en este capıtulo es cuando los dos subespacios ortogonales son complemen-

tarios, esto lo definimos a continuacion.

Definicion 4.6. (Complemento ortogonal) Sea V un subespacio de Rn, definimos el complemento orto-

gonal de V, al cual denotaremos por V ⊥, como el conjunto

V ⊥ = {w ∈ Rn | v · w = 0, para todo v ∈ V }.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 123

El siguiente teorema nos da un algoritmo para calcular la base para el complemento ortogonal de un subespacio

V de Rn.

Teorema 4.2. Sea A una matriz de tamano m× n, entonces tenemos que:

1. Fil(A)⊥ = Nul(A),

2. Col(A)⊥ = Nuliz(A).

Demostracion. Sean F1, . . . , Fm las filas y C1, . . . , Cn las columnas de A.

1. Para la demostracion de este ıtem usamos el Lema 1.9.

“⊆”Sea x ∈ Fil(A)⊥, entonces v ·x = 0 para todo v ∈ Fil(A), en particular, 0 = F ti ·x = Fix, para i = 1, . . . ,m.

De donde

Ax =

F1

...

Fm

x =

F1x...

Fmx

=

0...

0

,

es decir x ∈ Nul(A).

“⊇”Sea x ∈ Nul(A), entonces 0 = Ax =

F1x...

Fmx

, por tanto para i = 1, . . . ,m tenemos que 0 = Fix = F t

i · x.

Ahora si v ∈ Fil(A), entonces v = a1F1 + · · ·+ amFm y por tanto v · x = a1 F1 · x︸ ︷︷ ︸

=0

+ · · ·+ am Fm · x︸ ︷︷ ︸

=0

= 0 y por

tanto x ∈ Fil(A)⊥.

2. Como Col(A) = Fil(At) por el ıtem 1. se sigue que Col(A)⊥ = Fil(At)⊥ = Nul(At) = Nuliz(A).

A continuacion describimos el procedimiento para calcular el complemento ortogonal, el cual se deduce del

teorema anterior.

Procedimiento 4.1. (Calculo del complemento ortogonal). Sea {v1, . . . , vk} una base para V , para cal-

cular una base para V ⊥ hacemos lo siguiente:

1. Definimos la matriz A =

vt1...

vtk

y de esta forma V = Fil(A).

2. Sea W = Nul(A) entonces W = V ⊥, esto por el Teorema 4.2, ya que V ⊥ = Fil(A)⊥ = Nul(A) = W .

Ejemplo 4.8. Calcular V ⊥ si V = gen

1

0

0

1

,

0

0

1

1

.

124

Solucion. Sea v1 =

1

0

0

1

y v2 =

0

0

1

1

, debemos calcular Nul(A) donde A =

vt1

vt2

=

1 0 0 1

0 0 1 1

, como A

esta en forma escalonada reducida entonces tenemos que

x1

x2

x3

x4

∈ Nul(A) si y solo six1 = −x4

x3 = −x4

si y solo si

x1

x2

x3

x4

=

−x4

x2

−x4

x4

= x2

0

1

0

0

+ x4

−10

−11

.

Por el procedimiento indicado arriba y el Teorema 2.16 se concluye que

0

1

0

0

,

−10

−11

es una base para V ⊥.

Ejemplo 4.9. (MatLab) Calcular el complemento ortogonal V ⊥ del subespacio V de R5 generado por los

vectores v1 =

2

−11

0

1

y v2 =

1

3

2

2

1

.

Solucion. Sea A =

vt1

vt2

, necesitamos calcular Nul(A), lo cual hacemos en MatLab como sigue

>> format rat, A = [2,−1, 1, 0, 1; 1, 3, 2, 2, 1]; null(A)

Se obtiene que V ⊥ = gen

−5/7−3/71

0

0

,

−2/7−4/70

1

0

,

−4/7−1/70

0

1

.

Terminamos le seccion con el siguiente resultado que explica porque a V ⊥ se le llama el complemento orto-

gonal de V .

Corolario 4.3. Sea V ⊆ Rn un subespacio entonces Rn = V ⊕ V ⊥.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 125

Demostracion. Sea {v1, . . . , vk} una base de V , definiendo A =

vt1...

vtk

, por el procedimiento anterior tenemos

que V = Fil(A) y V ⊥ = Nul(A) y por tanto

dimV + dimV ⊥ = dimFil(A) + dimNul(A) = dimCol(A) + dimNul(A) = n = dimRn.

Notese ademas que V y V ⊥ son, por definicion, conjuntos ortogonales y por tanto V ∩ V ⊥ = {0} (Lema 4.1),

se sigue del Problema 3.7.3 que Rn = V ⊕ V ⊥.

Problemas

4.1.1. Sean v = (2, 3,−5) y w = (3, 0, 4) determine lo siguiente:

a. ||v|| b. ||w|| c. v · w d. el angulo formado por v y w e. la distancia entre v y w

4.1.2. Determine si el par de vectores dados es ortogonal, si no lo es, determine el angulo formado por ellos.

a. v = (2,−3) y w = (3, 2) b. v = (1, 4,−7) y yw(2, 3, 2) c. v = (1, 1, 1) y w = (1, 1,−1).

4.1.3. Encuentre la relacion entre α y β para que los vectores v = (1, 1, 2, α) y w = (−β, 2, 3, 4) sean ortogonales.

4.1.4. Calcule una base para V ⊥ en cada uno de los siguientes casos:

1. V = gen{(1, 3, 1), (1, 1, 2)} 2. V = gen{(2, 1, 1, 0)} 3. V = gen{(1, 0, 0, 0, 1), (1, 2, 3, 4, 5)}

4.1.5. Calcule una base para V ⊥ si V = {(x, y, z, t) | x+ 2y + 3z + 4t = 0}.

4.1.6. Calcule una base para V = FilA donde A =

1 1 1 0

0 1 1 1

.

4.1.7. Sean v, w, z ∈ Rn, si se sabe que v · w = 3, v · v = 4, v · z = −1, w · w = 1 y w · z = 2, determine lo

siguiente:

1. una combinacion lineal de los vectores w y z que sea ortogonal a v,

2. la distancia entre los vectores v y w.

3. Explique porque el angulo formado por v y z es obtuso.

4. v · (−w) 5. v · (w + z) 6. (v − 2w) · (w − 3z) 7. el angulo formado por v y w

4.1.8. Determine todos los vectores v ∈ Rn tal que ||v|| = α con α un real positivo.

4.1.9. Demuestre las propiedades de producto escalar enunciadas en la Observacion 4.1

126

4.1.10. Determine el angulo que forma el vector v = (1, 1, 1, 1) con cada uno de los vectores de la base estandar

de R4.

4.1.11. Sea A ∈Mn(R) una matriz simestrica, demuestre que NulA es el complemento ortogonal de ColA.

4.1.12. Demuestre que si V = {(x1, . . . , xn) | α1x1 + · · ·+ αnxn = 0} entonces se tiene que

V ⊥ = gen{(α1, . . . , αn)}.

4.1.13. Sean v, w ∈ Rn, demuestre que v + w y v − w son ortogonales si y solo si ||v|| = ||w||.

Deduzca que un paralelogramo es un rombo si y solo si sus diagonales son perpendiculares.

4.1.14. Sea A ∈Mn(R), demuestre que Rm = FilA⊕NulA, deduzca que si V ⊆ R

n es un subespacio entonces

Rm = V ⊕ V ⊥.

4.1.15. Sea A ∈Mn(R) una matriz, demuestre que v ∈ NulA ∩ FilA si y solo si v = 0.

4.1.16. Encuentre una matriz A tal que el vector v = (1, 2, 2) pertenezca a

1. al espacio fila y el espacio columna de A,

2. al espacio nulo y el espacio columna de A.

4.1.17. Sean V,W ⊆ Rn subespacios, demuestre

1. Si V ⊆W entonces W⊥ ⊆ V ⊥,

2. (V ⊥)⊥ = V ,

3. (V +W )⊥ = V ⊥ ∩W⊥,

4. (V ∩W )⊥ = V ⊥ +W⊥.

4.1.18. Encuentre contraejemplos que muestren que las siguientes afirmaciones son falsas

1. Si V y W son subespacios ortogonales de Rn entonces V ⊥ y W⊥ son subespacios ortogonales.

2. Si V y W son subespacios ortogonales y W y Z son subespacios ortogonales entonces V y Z son subespacios

ortogonales.

3.

4.1.19. Calcule una base de V si se sabe que {(1, 2,−1, 0), (0, 2, 1, 3)} es una base de V ⊥

4.1.20. Demuestre que para todo v, w ∈ Rn se tiene que |v ·w| ≤ ||v||||w||. (Esta desigualdad se conoce como la

desigualdad de Cauchy-Schwartz.)

4.1.21. Demuestre que lo siguiente

1. v · w = 0 para todo w ∈ Rn si y solo si v = 0.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 127

2. v = w si y solo si v · z = w · z para todo z ∈ Rn.

4.1.22. Demuestre que para todo v, w ∈ Rn se cumple lo siguiente

1. v · w = 14 (||v + w||2 − ||v − w||2),

2. v · w = 12 (||v + w||2 − ||v||2 − ||w||2),

3. ||v + w||2 + ||v − w||2 = 2||v||2 + 2||w||2. (Esta igualdad es conocida como la Ley del paralelogramo.)

4.1.23. Un vector u ∈ Rn se llama si ||u|| = 1. Demuestre que si w ∈ R

n el vector u = 1||w||w es unitario.

Muestre ademas que si u y w son vectores LD con u unitario (esto es equivalente a decir que u y w estan

en la lınea ) entonces w = ±||w||u. (El caso positivo se da cuando los vectores tienen la misma direccion).

4.2. Proyeccion Ortogonal sobre un Vector

En esta seccion se muestra como calcular la proyeccion ortogonal de un vector sobre otro, la formula que

se obtiene se verifica facilmente. Usaremos la formula obtenida para generalizarla obteniendo la formula de la

proyeccion de un vector en un subespacio.

Definicion 4.7. Sean v y w vectores en Rn, la perpendicular desde el extremo del vector v a la lınea que

contiene a w determina un punto sobre esta lınea, el vector que va desde el origen hasta este punto es llamado

la proyeccion ortogonal de v sobre w, denotado por proywv.

p = proywvp = proywv p = proywv

b

O

v

w

b

O

v

w

b

O

v

w

θ

θ

θ

Notese que el vector proywv es el multiplo de w mas cercano a v.

La siguiente proposicion proporciona una formula para calcular la proyeccion ortogonal de un vector sobre

otro.

Proposicion 4.4. Sean v y w vectores en Rn, la proyeccion ortogonal del vector v sobre el vector w esta dada

por

proywv =v · ww · ww.

Demostracion. Sea p = proywv, θ el angulo formado entre v y w y u un vector unitario en la direccion de w

128

p = proywvb

O

v

w

θ

u

bP

bB

Se sigue que p = ||p||u y u = 1||w||w (Problema 4.1.23 ) y por tanto

p =||p||||w||w. (4.5)

Como el triangulo ∆OBP en la figura anterior es un triangulo rectangulo, tenemos que cos θ = ||p||||v|| . Ademas,

de la Observacion 4.2 se sigue que v·w||w|| = ||v|| cos θ. Por tanto

||p|| = v · w||w|| . (4.6)

De las Ecuaciones (4.5) y (4.6) se sigue que

p =v · w||w||2w =

v · ww · ww.

Ejemplo 4.10. Sean v = (1, 0, 1,−1) y w = (2, 2, 1, 0), se sigue que v · w = 3 y w · w = 9. Por tanto

proywv = 39w = 1

3w = (2/3, 2/3, 2/3, 0).

4.2.1. La matriz proyeccion.

La ultima formula se puede expresar matricialmente de la siguiente forma:v · ww · ww =

wtv

wtww =

1

wtwwwtv.

Notese que wwt es una matriz y a la matriz

P =1

wtwwwt (4.7)

se le llama la matriz de la proyeccion sobre w y tiene la propiedad que para todo v ∈ Rn, Pv = proywv.

Ejemplo 4.11. Sean v =

1

1

1

y w =

1

0

2

, calcular la matriz que proyecta sobre w y usarla para calcular

proywv.

Solucion. Notese que wtw = w · w = 5 y wwt =

1 0 2

0 0 0

2 0 4

por tanto la matriz de la proyeccion sobre w es la

matriz

P =1

5

1 0 2

0 0 0

2 0 4

.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 129

Ahora, proywv = Pv = 15

1 0 2

0 0 0

2 0 4

1

1

1

= 1

5

3

0

6

.

Ejemplo 4.12. (MatLab)Sean a =

[77777

]

y b =

[ −2−1101

]

, calcule la matriz que proyecta sobre w y la proyeccion

proywv del vector v sobre w.

Solucion. La matriz de que proyecta sobre w esta dada por P =1

wtwwwt. Esto lo podemos calcular con MatLab

como sigue

>> format rat, w = [−2;−1; 1; 0; 1]; P = inv(w′ ∗ w) ∗ (w ∗ w′)

ası la matriz de la proyeccion esta dada por

P =

4/7 2/7 −2/7 0 −2/72/7 1/7 −1/7 0 −1/7

−2/7 −1/7 1/7 0 1/70 0 0 0 0

−2/7 −1/7 1/7 0 1/7

Para calcular la proyeccion del vector v sobre w, proywv, seguimos los comandos en MatLab

>> v = [7; 7; 7; 7; 7]; P ∗ vSe obtiene que proywv = −w.

La matriz de la proyeccion satisface las siguientes condiciones.

Teorema 4.5. Sea w ∈ Rn y P =

1

wtwwwt la matriz proyeccion, entonces para todo v ∈ R

n tenemos lo

siguiente

1. Pv = proywv ∈ gen{b},

2. v − Pv ⊥ w,

3. PPv = Pv, en general P 2 = P ,

4. si v ∈ gen{w} entonces Pv = v,

5. v ⊥ w si y solo si Pv = 0.

Demostracion. Se deja como ejercicio.

Problemas

4.2.1. Sean v = (2, 3,−5) y w = (3, 0, 4) calcule lo siguiente:

a. proywv b. proywv c. la matriz de la proyeccion sobre w y d. la matriz de la proyeccion sobre v

4.2.2. Repita el problema anterior si v = (0, 1, 2, 3, 2, 1, 0) y w = (−3,−2,−1, 0, 1, 2, 3). (Use Matlab).

4.2.3. Determine el multiplo del vector v = (2, 2, 1) mas cercano al vector w = (1, 1, 1).

130

4.2.4. Si v y w son vectores en Rn tal que v · w = 4, w · w = 2 y v · v = 1, determine los vectores proywv y

proyvw en terminos de w y v respectivamente.

4.2.5. Encuentre la matriz de la proyeccion sobre la lınea x+ y = 0 en R2.

4.2.6. Demuestre el Teorema 4.5.

4.2.7. Sea v = (1, 2, 2, 3), si sabe que la proyeccion proywv de v sobre un vetor w esta dada por proywv =

(2, 2, 2, 2) y ||w|| = 2, determine el vector w.

4.2.8. Demuestre que la proyeccion proywv es independiente del vector escogido en gen{w}. Es decir,

proyαwv = proywv, para todo α ∈ R.

4.2.9. Demuestre que si Pv es la matriz que proyecta sobre un vector v ∈ Rn entonces rangoPv = 1. (Este es

un caso particular del Problema 1.2.14).

4.3. Proyeccion Ortogonal sobre un Subespacio

El principal objetivo de la seccion es extender el concepto de proyeccion sobre un vector, al de proyeccion

sobre un subespacio (ver figura abajo) y construir una matriz P que al multiplicarla por un vector x, el resultado

Px es el vector proyeccion. De hecho, esta matriz sera obtenida generalizando la matriz dada por la Ecuacion

(4.7) y la definiremos como sigue.

Sea {v1, . . . , vk} una base para un subespacio H de Rn y sea A =

[

v1 · · · vk

]

, vamos a demostrar que la

matriz

P = A(AtA)−1At (4.8)

satisface las condiciones de la matriz proyeccion enunciadas en el Teorema 4.5.

p = proyHv

v

H

Proyeccion de v sobre H

b

b

O

Notese que la Formula (4.7) la podemos escribir en la forma:

P =1

vtvvvt = v(vtv)−1vt,

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 131

de esta manera se ve que en realidad que (4.8) es simplemente una generalizacion de (4.7).

Ahora vamos a demostrar que la matriz definida en (4.8) determina la proyeccion sobre el subespacio H.

Para esto necesitaremos los siguientes lemas preliminares.

Lema 4.6. Sea A una matriz, entonces Nul(A) = Nul(AtA).

Demostracion. “⊆ ” Sea x ∈ Nul(A), entonces Ax = 0 y por tanto AtAx = At0 = 0. Concluimos que

x ∈ Nul(AtA).

“⊇ ” Sea x ∈ Nul(AtA), entonces AtAx = 0, y multiplicando a la izquierda por xt tenemos que xtAtAx =

xt0 = 0, por tanto

0 = xt0 = xtAtAx = (Ax)tAx = Ax ·Ax = ||Ax||2,

de donde ||Ax|| = 0, pero por las propiedades del producto escalar, esto implica que Ax = 0 y por tanto

x ∈ Nul(A).

Lema 4.7. Sea A =[

v1 · · · vk

]

una matriz donde {v1, . . . , vk} son las columnas y son linealmente indepen-

dientes entonces

1. AtA es invertible.

2. La matriz (AtA)−1At es una inversa a la izquierda de A.

Demostracion. 1. Como las columnas de A son linealmente independientes entonces

rango(A) = k, ası por el Teorema 2.16 se tiene que Nul(A) = {0}, entonces por el lema anterior Nul(AtA) =

Nul(A) = {0} de donde rango(AtA) = numero de columnas de (AtA), pero (AtA) es una matriz cuadrada,

entonces

rango(AtA) = numero de columnas de (AtA) = numero de filas de (AtA),

y por el Corolario 1.22, AtA es invertible.

2. Como (AtA)−1AtA = I entonces (AtA)−1At es una inversa a la izquierda de A.

Ejemplo 4.13. Calcular una inversa a la izquierda de la matriz A =

1 0

1 1

1 2

.

Solucion. Observe que los vectores columna de la matriz A son linealmente independientes. Comencemos cal-

culando AtA y su inversa.

AtA =

1 1 1

0 1 2

1 0

1 1

1 2

=

3 3

3 5

y por tanto (AtA)−1 =1

6

5 −3−3 3

.

Por el Lema 4.7 resta calcular (AtA)−1At, esto es,

L = (AtA)−1At =1

6

5 −3−3 3

1 1 1

0 1 2

=1

6

5 2 −1−3 0 3

.

132

El lector puede verificar facilmente que LA = I.

Ejemplo 4.14. (MatLab) Usar MatLab para calcular la inversa a la izquierda de la matriz A =

[1 2 1 21 −1 2 11 3 2 21 2 2 11 1 3 2

]

.

Solucion. Usamos MatLab para calcular la inversa a la izquierda con la formula dada en el Teorema 4.7, como

sigue

>> format rat; A = [1, 2, 1, 2; 1,−1, 2, 1; 1, 3, 2, 2; 1, 2, 2, 1; 1, 1, 3, 2]; L = inv(A′ ∗A) ∗A′

la inversa a la izquierda de A esta dada por

L =

[2/3 1 −1/3 1 −4/3

−1/12 −1/4 1/6 1/4 −1/12−13/24 −1/8 1/12 1/8 11/2411/24 −1/8 1/12 −7/8 11/24

]

.

El siguiente resultado es el caso dual del lema anterior, mas especıficamente, el caso en que las filas de la

matriz son LI.

Corolario 4.8. Sea A una matriz cuyas filas son linealmente independientes, entonces se tiene que

1. AAt es invertible,

2. La matriz At(AAt)−1 es una inversa a la derecha de A.

Demostracion. Como las filas de A son linealmentes entonces las columnas de At son linealmente indepen-

dientes, usando el Lema 4.7 tenemos que (At)tAt = AAt es invertible y por tanto (AAt)−1 existe y ademas

como AAt(AAt)−1 = I, es decir, la matriz At(AAt)−1 es una inversa a la derecha de A.

Ejemplo 4.15. Sea A =

1 1 1

0 1 1

, calcular una inversa a la derecha de A.

Solucion: Es facil ver que las filas de A son linealmente independientes. Primero calculamos AAt y su inversa

AAt =

1 1 1

0 1 1

1 0

1 1

1 1

=

3 2

2 2

de donde (AAt)−1 =1

2

2 −2−2 3

.

Ahora calculamos la inversa a la derecha At(AAt)−1

R = At(AAt)−1 =

1 0

1 1

1 1

1

2

2 −2−2 3

=1

2

2 −20 1

0 1

.

Nuevamente se deja al lector verificar que AR = I.

Ahora usamos los resultados obtenidos en esta seccion para construir la matriz proyeccion de un vector sobre

un subespacio dado.

Teorema 4.9. Sean H un subespacio de Rn, {h1, . . . , hk} una base para H y A =

[

h1 · · · hk

]

. Si definimos

P = A(AtA)−1At entonces para todo v ∈ Rn se tiene lo siguiente

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 133

1. Pv ∈ H,

2. v − Pv ∈ H⊥,

3. P 2 = P ,

4. v ∈ H si y solo si Pv = v,

5. v ∈ H⊥ si y solo si Pv = 0.

Demostracion. Primero observese que H = Col(A) y que si x ∈ Rk, entonces Ax ∈ Col(A) = H, esto ya que

si x =

x1

...

xk

entonces

Ax =[

h1 · · · hk

]

x1

...

xk

= x1h1 + · · ·+ xkhk ∈ Col(A) = H. (4.9)

Mas aun, si h ∈ H, entonces h = x1h1 + · · ·+ xkhk y por la Ecuacion (4.9) h = Ax.

1. Pv = A (AtA)−1Atv︸ ︷︷ ︸

v′

= Av′ ∈ Col(A) = H.

2. Debemos demostrar que si h ∈ H entonces h · (v − Pv) = 0.

Sea h ∈ H, entonces existe x tal que h = Ax y por tanto

h · (v − Pv) = Ax · (v − Pv) = Ax · v −Ax · Pv

= (Ax)tv − (Ax)tPv

= xtAtv − xtAtPv

= xtAtv − xt AtA(AtA)−1

︸ ︷︷ ︸

I

Atv

= xtAtv − xtAtv = 0.

3. P 2 = PP = A (AtA)−1AtA︸ ︷︷ ︸

I

(AtA)−1At = A(AtA)−1At = P .

4. Sea v ∈ H, entonces existe x tal que v = Ax y por tanto

Pv = PAx = A (AtA)−1AtA︸ ︷︷ ︸

I

x = Ax = v.

Para la otra implicacion si v = Pv, por el numeral 1. tenemos Pv ∈ H, por tanto v = Pv ∈ H.

5. ”⇒”Supongamos que v ∈ H⊥, entonces v · h = 0, para todo h ∈ H, en particular v · hi = 0 para i = 1, . . . , k.

Entonces tenemos que

Atv =

ht1

...

htk

v =

ht1v...

htkv

=

h1 · v...

hk · v

=

0...

0

,

134

y por tanto

Pv = A(AtA)−1 Atv︸︷︷︸

=0

= A(AtA)−10 = 0.

”⇐”Supongamos que Pv = 0, entonces A(AtA)−1Atv = 0, multiplicando esta ecuacion a ambos lados por At

obtenemos

At0︸︷︷︸

=0

= AtA(AtA)−1

︸ ︷︷ ︸

=I

Av = IAtv = Atv.

Como At =

ht1

...

htk

tenemos que 0 = ht

iv = hi · v, para i = 1, . . . , k. Por tanto v ∈ H⊥.

Estas propiedades demuestran que Pv satisface las condiciones del vector proyeccion de v sobre H.

Definicion 4.8. Sean H un subespacio de Rn, {v1, . . . , vk} una base para H, A =

[

v1 · · · vk

]

y v ∈ Rn.

Definimos la proyeccion de v sobre H, denotada por proyHv, como el vector:

proyHv = Pv,

donde P es la matriz P = A(AtA)−1At.

Ejemplo 4.16. Sean v =

1

1

3

y H = gen

1

1

0

,

0

1

1

, calcular el vector proyHv.

Solucion. Sea A =

1 0

1 1

0 1

, entonces proyHv = A(AtA)−1Atv.

AtA =

1 1 0

0 1 1

1 0

1 1

0 1

=

2 1

1 2

de donde (AtA)−1 =1

3

2 −1−1 2

,

A(AtA)−1 =

1 0

1 1

0 1

1

3

2 −1−1 2

=1

3

2 −11 1

−1 2

.

Finalmente tenemos

proyHv = A(AtA)−1Atb =1

3

2 −11 1

−1 2

1 1 0

0 1 1

1

1

3

=

1

3

0

6

6

=

0

2

2

,

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 135

entonces proyHv =

0

2

2

.

Ejemplo 4.17. (MatLab) Calcular la matriz que proyecta sobre el subespacio H de R6 generado por los

vectores v1 =

111110

, v2 =

2−13111

, v3 =

122130

y v4 =

212121

. Si b = 11e1 =

1100000

calcular proyHb.

Solucion. La matriz de la proyeccion esta dada por P = A(AtA)−1At, usamos el siguiente comando en MatLab

>> A = [1, 2, 1, 2; 1,−1, 2, 1; 1, 3, 2, 2; 1, 1, 1, 1; 1, 1, 3, 2; 0, 1, 0, 1]; P = A ∗ inv(A′ ∗A) ∗A′

obtenemos que la matriz de la proyeccion esta dada por

P = proyH =

7/11 1/11 1/11 3/11 −1/11 4/111/11 8/11 −3/11 2/11 3/11 −1/111/11 −3/11 8/11 2/11 3/11 −1/113/11 2/11 2/11 6/11 −2/11 −3/11

−1/11 3/11 3/11 −2/11 8/11 1/114/11 −1/11 −1/11 −3/11 1/11 7/11

=

1

11

7 1 1 3 −1 41 8 −3 2 3 −11 −3 8 2 3 −13 2 2 6 −2 −3

−1 3 3 −2 8 14 −1 −1 −3 1 7

.

La proyeccion del vector b sobre H esta dado por proyHb = Pb, ası que en MatLab hacemos lo siguiente

>> b = [11; 0; 0; 0; 0; 0]; P ∗ b

y obtenemos que proyHb =

7113

−14

.

Terminamos la seccion con la siguiente observacion.

Observacion 4.3. Por el Corolario 4.3, si H es un subespacio de Rn entonces R

n = H ⊕H⊥. Por tanto todo

vector v ∈ R se puede descomponer como una suma de un vector en H y un vector en H⊥. Esto se logra de la

siguiente forma.

Sea v ∈ Rn y P la matriz que proyecta sobre H, entonces por el Teorema 4.9 se tiene que Pv ∈ H y v−Pv ∈ H⊥.

Por tanto

v = Pv︸︷︷︸

∈H

+ v − Pv︸ ︷︷ ︸

∈H⊥

es la descomposicion de un vector como suma de un vector en H y un vector perpendicular a H. Notese que,

por el Teorema 3.26, esta descomposicion es unica .

Ejemplo 4.18. En el ejemplo anterior, H = gen{v1, v2, v3, v4} ⊆ R6 y x = 11e1, como proy

Hx =

7113

−14

,

entonces podemos descomponer a x como la suma de vectores

x = proyHx

︸ ︷︷ ︸

∈H

+(x− proyHx)

︸ ︷︷ ︸

∈H⊥

=

7113

−14

+

4−1−1−31

−4

.

Problemas

136

4.3.1. Sea A =

1 1

1 −1−2 4

, b =

1

0

1

y H = ColA. Calcule la matriz que proyecta sobre H y la proyeccion de

b sobre H.

4.3.2. Sea V = gen{(1, 2, 0, 0), (1, 0, 1, 0)}, calcule la matriz que proyecta sobre V y el vector en V mas cercano

al vector v = (2, 1, 0,−1).

4.3.3. Sea V = gen{(1, 1, 0, 1), (0, 0, 1, 0)}, calcule la matriz que proyecta sobre V ⊥ y la proyeccion del vector

v = (2, 1, 0,−1) sobre V ⊥.

4.3.4. Sean A =

[1 1 1 11 1 1 21 2 3 41 0 0 00 1 1 0

]

y B =

[1 1 1 1 11 1 0 2 11 1 0 3 21 1 0 4 3

]

. Use MatLab para calcular lo siguiente

1. una inversa a la izquierda de la matriz A,

2. una inversa a la derecha de la matriz B,

3. las matrices que proyectan sobre ColA y ColB,

4. la proyeccion del vector v = (1, 2, 3, 2, 1) sobre ColA,

5. la proyeccion del vector w = (1, 2, 2, 1) sobre ColB.

4.3.5. Sea A una matriz 4×3, se sabe que AtA =

0 1 −11 0 0

−1 0 0

, determine NulA y FilA.

4.3.6. Sea W ⊆ Rn un subespacio y sean P1, P2 las matrices que proyectan sobre W y sobre W⊥, respectiva-

mente. Demuestre que P1 + P2 = I y que P1P2 = 0.

4.3.7. Si P = P tP muestre que P es una matriz proyeccion, es decir, P 2 = P .

4.3.8. Sea H ⊆ Rn y P la matriz que proyecta sobre H, demuestre lo siguiente

1. ColP = H y rangoP = dimH.

2. NulP = H⊥. (Recuerde que P es simetrica.)

Use lo anterior para calcular bases para H y H⊥ si P = 13

2 1 −11 2 1

−1 1 2

.

4.3.9. Sea H ⊆ Rn un subespacio y sea P la matriz que proyecta sobre H, demuestre que

H = {v ∈ Rn | Pv = v}.

En general, muestre que si P ∈ Rn es una matriz proyeccion, es decir, P 2 = P entonces ColP = {v ∈ R

n |Pv = v}.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 137

4.3.10. Sea H un subespacio vectorial de Rn y P es la matriz que proyecta sobre H. Viendo a P como aplicacion

linealP : R

n −→ Rn

v 7→ Pv, demuestre que P/H = IdH donde P/H : H −→ H es la restriccion de P a H.

Demuestre tambien que P/H⊥ ≡ 0.

4.3.11. Sea H ⊆ Rn un subespacio y w ∈ R

n, definimos el conjunto w +H como

w +H = {w + h | h ∈ H}.

Sean v ∈ Rn y w ∈ H, demuestre que proyHv = w si y solo si v ∈ w +H⊥.

4.4. Mınimos Cuadrados

El metodo de los mınimos cuadrados consiste en encontrar una solucion “optima” a un sistema que no tiene

solucion. La idea es la siguiente.

Dado un sistema de ecuaciones Ax = b, sabemos que el sistema tiene solucion si y solo si b ∈ Col(A), esto

ya que

b = Ax =[

C1 · · · Cn

]

x1

...

xn

= x1C1 + · · ·+ xnCn ∈ gen{C1, . . . , Cn} = Col(A),

donde C1, . . . , Cn son las columnas de A.

De esto se deduce que si el sistema Ax = b es inconsistente, entonces b /∈ Col(A) y el vector mas cercano a

b que pertence a Col(A) es el vector proyCol(A)b = A(AtA)−1Atb. Como el sistema Ax = b es inconsistente, lo

reemplazamos por el sistema consistente Ax = proyCol(A)b = A(AtA)−1Atb. Este ultimo sistema tiene solucion

dada por x = (AtA)−1Atb. A esta solucion la llamamos la solucion de los mınimos cuadrados.

Definicion 4.9. Sea A una matriz cuyas columnas son linealmente independientes y b ∈ Rn, si el sistema

Ax = b es inconsistente entonces la solucion de los mınimos cuadrados al sistema esta dada por

x =(AtA

)−1Atb.

Esta solucion al sistema Ax = b “es la mejor” en el sentido que este se reemplaza por el sistema Ax = b donde

b = proyColAb es el vector mas cercano a b para el cual el sistema Ax = b si tiene solucion.

Ejemplo 4.19. Considere el sistema Ax = b donde A =

2 1

−1 1

1 1

y b =

1

2

0

. Se verifica facilmente que el

sistema es inconsistente (usar el Teorema 1.2). Como las columnas de A son LI, se puede usar el metodo de

los mınimos cuadrados para calcular la “mejor solucion”. Esta esta dada por x = (AtA)−1

Atb, y la calculamos

a continuacion.

138

AtA =

2 −1 1

1 1 1

2 1

−1 1

1 1

=

6 2

2 3

de donde (AtA)−1 = 114

3 −2−2 6

entonces la mejor solucion esta da-

da por

x =(AtA

)−1Atb =

1

14

3 −2−2 6

2 −1 1

1 1 1

1

2

0

=

1

14

−618

.

Otra aplicacion de los mınimos cuadrados es la de ajustar datos encontrados en observaciones, que se esperan

se ajusten a una linea pero sin embargo los puntos obtenidos experimentalmente no son colineales. Supongamos

que los valores observados son (x1, y1), (x2, y2), . . . , (xn, yn) y supongamos que los datos deben satisfacer la

ecuacion y = mx+ b, esto es,

y1 = mx1 + b

y2 = mx2 + b

...

yn = mxn + b

Esto lo podemos escribir matricialmente en la forma

y1...

yn

=

x1 1...

...

xn 1

m

b

, como los puntos (x1, y1), . . . , (xn, yn)

no todos satisfacen la ecuacion y = mx+ b, el sistema es inconsistente. Usando la solucion de los mınimos cua-

drados obtenemos que la mejor solucion al sistema esta dado por

x =(AtA

)−1Aty,

donde A =

x1 1...

...

xn 1

y y =

y1...

yn

.

Ejemplo 4.20. Supongamos que los valores observados son (−2, 0), (1, 0) y (2, 3), es facil ver que estos valores

no pertecen son colineales. Los valores m y b de la linea y = mx+ b que mejor se ajusta a los datos estan dados

en el vector x =

m

b

donde x = (AtA)−1

Aty con A =

−2 1

1 1

2 1

y y =

0

0

3

.

Notese que AtA =

−2 1 2

1 1 1

−2 1

1 1

2 1

=

9 1

1 3

, entonces se tiene que (AtA)−1 = 126

3 −1−1 9

, y por

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 139

tanto

x = (AtA)−1Aty =1

26

3 −1−1 9

−2 1 2

1 1 1

0

0

3

=

1

26

15

21

=

1526

2126

.

De aquı tenemos que m = 1526 y b = 21

26 y por tanto la ecuacion de la linea que mejor se ajusta a los datos es

y = 1526x+ 21

26 .

Los mınimos cuadrados tambien se pueden usar para calcular ecuaciones polinomicas de cualquier grado (en

general cualquier funcion) que mejor se ajusten a ciertos datos, generalizando el ejemplo anterior que se hizo

para lineas. Esto lo ilustramos a contiuacion.

Ejemplo 4.21. (MatLab) Un experimeto arrojo los puntos (−1, 2), (1, 0), (3, 1) y (2,−1), si se espera que

estos puntos esten sobre una parabola y = ax2 + bx + c, calcule la ecuacion de la parabola que mejor se ajuste

a los datos.

Solucion. Como se espera que los puntos satisfagan la ecuacion y = ax2+ bx+ c, evaluando esta en los puntos

obtenemos

2 = a− b+ c

0 = a+ b+ c

1 = 9a+ 3b+ c

−1 = 4a+ 2b+ c

Estas ecuaciones son equivalentes al sistema

1 −1 1

1 1 1

9 3 1

4 2 1

a

b

c

=

2

0

1

−1

, el cual es inconsistente (ver Teorema

1.2), por tanto, usando MatLab para calcular la solucion de los mınimos cuadrados para obtener los coeficientes

a, b y c, los cuales estan dados por x = (AtA)−1Atv con A =

1 −1 1

1 1 1

9 3 1

4 2 1

y v =

2

0

1

−1

, obtenemos

>> A = [1,−1, 1; 1, 1, 1; 9, 3, 1; 4, 2, 1]; v = [2; 0; 1;−1]; x = inv(A′ ∗A) ∗A′ ∗ v

ası x =

21/44

−283/2207/22

. De este resultado obtenemos que la ecuacion que mejor se ajusta a los datos es

y =21

44x2 − 283

220x+

7

22⇔ 220y = 105x2 − 283x+ 70.

El siguiente ejemplo muestra como este metodo se puede usar en problemas del dıa a dıa.

140

Ejemplo 4.22. La demanda d de un artıculo en venta depende del precio p del mismo. En un concesionario

de motocicletas se observo lo siguiente:

Si el precio por unidad es $3 millones se venden 5 motos en un dıa. Si el precio se incrementa a $3.5 millones

se venden 4 motos en dıa y cuando el precio se incrementa a $4 millones, se venden solo 2 motos en el dıa.

Asumiendo que la relacion entre precio y demanda es lineal, d = pm + b, determine la ecuacion que mejor

se ajusta a estos datos. Determine cuantas motos se venderıan en un dıa si se fija el precio en $2.7 millones.

Solucion. De acuerdo a los datos tenemos el sistema

5 = 3m+ b

4 = 3,5m+ b

2 = 4m+ b

donde el precio esta dado en millones.

Escrito matricialmente tenemos la ecuacion Ax = v con A =

3 1

3,5 1

4 1

, x =

m

b

y v =

5

4

2

. Se verifica

que el sistema es inconsitente. La solucion de los mınimos cuadrados esta dada por

x = (AtA)−1Atv =

−314,16

.

Se sigue que la ecuacion que mejor se ajusta a los datos es d = −3p+ 14,16.

Si se fija el precio en $2.7 millones, se obtiene una demanda diaria d = −3 ∗ 2,7+ 14,16 = 6,06, es decir, se

espera vender unas 6 motos por ese precio.

La interpretacion de la pendiente es el crecimiento de la demanda por cada incremento de un millon en el

precio (ya que d′(p) = m esta es la razon de cambio de la demanda con relacion al precio). En este caso, como

m = −3, quiere decir que por cada incremento de un millon en el precio, la demanda disminuye en 3.

El siguiente ejemplo muestra que, incluso en algunos casos, se puede hasta encontrar curvas no polinomicas

que se ajusten a un sistema de datos.

Ejemplo 4.23. Encuentre la curva exponencial y = aecx que mejor se ajuste a los puntos (1, 1), (2, 8) y (3, 8).

Solucion. La curva la podemos “linearizar” aplicando logaritmo a ambos lados

ln y = ln(becx) = ln b+ cx ln e︸︷︷︸

=1

= ln b+ cx.

Por tanto reemplazando los datos en esta ecuacion obtenemos el sistema

0 = ln 1 = ln b+ c

ln 8 = ln b+ 2c

ln 8 = ln b+ 3c

equivalente al sistema

0

ln 8

ln 8

=

1 1

1 2

1 3

ln b

c

.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 141

Este sistema es inconsistente y la solucion de los mınimos cuadrados esta dada por x = (AtA)−1Atv donde

A =

1 1

1 2

1 3

, x =

ln b

c

y v =

0

ln 8

ln 8

= ln 2

0

3

3

. Notese que (AtA)−1At =

4/3 1/3 −2/3−1/2 0 1/2

, por tanto

x = ln 2

4/3 1/3 −2/3−1/2 0 1/2

0

3

3

= ln 2

−13/2

=

− ln 2

3 ln 22

=

ln(1/2)

1,04

.

Se sigue que ln b = ln(1/2), lo que implica que b = 1/2, y c ≈ 1,04. Concluimos que la ecuacion de la “mejor”

curva esta dada por

y =1

2e1,04x.

Problemas

Ejemplo 4.24. Use mınimos cuadrados para calcular la “mejor” solucion al sistema

a.3x = 10

4x = 5b. Ax = v si A =

1 0

0 1

1 1

y v =

1

1

0

.

4.4.1. Determine la ecuacion que mejor se ajusta a los puntos (1, 1), (2, 4), (3, 8) y (4, 8) si la relacion es

1. lineal (y = mx+ b),

2. cuadratica (y = ax2 + bx+ c),

3. exponencial (y = aebx).

4.4.2. Si en el Ejemplo 4.22 se sabe ademas que por el precio de $4.5 millones no se logro ninguna venta,

determine

1. la ecuacion lineal d = mp+ b que mejor se ajusta a los datos.

2. la ecuacion cuadratica d = ap2 + bp + c que mejor se ajusta a los datos y en este caso determine la maxima

demanda posible.

4.4.3. En una plaza de mercado se ha observado que la demanda de naranja se comporta de acuerdo a la

siguiente tabla

precio 500 1000 1500 2000 3000

demanda 600 450 400 300 100

donde el precio esta dado en pesos y la demanda en toneladas. Use MatLab para determinar la ecuacion que

mejor se ajusta a los datos si la relacion entre las variables es

142

1. lineal ( d = mp+ b).

2. Cuadratica (d = ap2 + bp+ c).

3. Cubica (d = ap3 + bp2 + cp+ d).

4. Exponencial (d = aebp).

4.4.4. La poblacion P de un pequeno poblado se esta reduciendo de forma exponencial P = aebt, la tabla de

poblacion es como sigue:

ano 2004 2009 2011 2014

habitantes 5mil 4.5mil 4mil 3.8mil

Usar mınimos cuadrados para responder lo siguiente:

1. Una ecuacion que modele la cantidad de habitantes con respecto al tiempo.

2. La cantidad de habitantes en el ano 2020.

3. El ano en el cual se espera que la poblacion se reducirıa a 2500 habitantes.

4.5. El Proceso Gramm-Schmidt

El objetivo de esta seccion es introducir los conceptos de base ortogonal y base ortonormal y mostrar que

es posible construir, a partir de cualquier base para un subespacio de Rn, una base ortonormal para este. Este

proceso es conocido como el proceso Gramm-Schmidt. Tambienn veremos las ventajas que se obtienen de tener

una base ortogonal u ortonormal, las cuales permite calcular proyecciones de manera sencilla. Comenzamos con

las definiciones de conjunto ortogonal, conjunto ortonormal, base ortogonal y base ortonormal.

Definicion 4.10. Sean v1, . . . , vk vectores en Rn,

1. decimos que {v1, . . . , vk} es un conjunto ortogonal si los vectores v1, . . . , vk son ortogonales entre sı, es decir,

si vi · vj = 0 para 1 ≤ i 6= j ≤ k,

2. decimos que {v1, . . . , vk} es una conjunto ortonormal, si es un conjunto ortogonal y ||vi|| = 1 para i =

1, . . . , k,

3. si {v1, . . . , vk} es una base de Rn y si es un conjunto ortogonal (ortonormal), decimos que {v1, . . . , vk} es una

base ortogonal (ortonormal) de Rn.

Ejemplo 4.25. El conjunto {v1, v2, v3} donde v1 =

1

−10

, v2 =

1

1

0

y v3 =

0

0

1

es un conjunto ortogonal de

R3 y los vectores w1 = 1√

2

1

−10

, w2 = 1√

2

1

1

0

y w3 =

0

0

1

forman una conjunto ortonormal de R3.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 143

Observacion 4.4. Si {v1, . . . , vk} es un conjunto ortogonal, a partir de este podemos formar un conjunto

ortonormal. Basta con definir wi =1

||vi||vi, para i = 1, . . . , k, de lo cual se sigue que el conjunto {w1, . . . , wk}es un conjunto ortonormal. Al vector wi se le llama la normaliazcion del vector vi, esto hace referencia al

hecho que wi es un vector normal o unitario (de norma 1) en la misma lınea que contiene a vi y con la misma

direccion.

Esto ya que para i 6= j se tiene que wi · wj =(

1||vi||vi

)

·(

1||vj ||vj

)

= 1||vi|| ||vj || vi · vj︸ ︷︷ ︸

=0

.

Ademas wi · wi =(

1||vi||vi

)

·(

1||vj ||vj

)

= 1||vi||2 vi · vi

︸ ︷︷ ︸

=||vi||2

= 1.

De hecho, el conjunto ortonormal {w1, w2, w3} del ejemplo anterior se construyo a partir del conjunto orto-

gonal {v1, v2, v3} normalizando cada uno de estos vectores.

En realidad se puede verificar que los conjuntos {v1, v2, v3} y w1, w2, w3} son bases para R3. Esto no es

casualidad, en general se demuestra que un conjunto orrtogonal es LI.

Lema 4.10. Sea {v1, . . . , vk} ⊆ Rn un conjunto ortogonal con vi 6= 0 i = 1, . . . , k. Entonces el conjunto

{v1, . . . , vk} es LI.

Demostracion. Supongamos que el conjunto {v1, . . . , vk} es ortogonal y supongamos que

α1v1 + · · ·+ αkvk = 0. (4.10)

Multiplicando a ambos lados de la Ecuacion (4.10) por vi tenemos:

0 = vi · 0 = vi · (α1v1 + · · ·+ αkvk)

= α1 vi · v1︸ ︷︷ ︸

=0

+ · · ·+ αi vi · vi︸ ︷︷ ︸

6=0

+ · · ·+ αk vi · vk︸ ︷︷ ︸

=0

= αivi · vi

Se sigue que αivi · vi 6= 0 y como vi · vi 6= 0 se debe dar que αi = 0 y esto para i = 1, . . . , n. Por tanto los

vectores v1, . . . , vk son LI.

De este lema se sigue que si {v1, . . . , vk} es un conjunto ortogonal (ortonormal), este forma una base del

espacio H = gen{v1, . . . , vk}.A continuacion definimos la nocion de matriz ortogonal, este sera util en lo que sigue de la seccion.

Definicion 4.11. Decimos que una matriz A =[

v1 · · · vk

]

es una matriz ortogonal, si vi · vj = δij para

i, j ∈ {1, . . . ,≤ k. Es decir, las columnas de A forman un conjunto ortonormal.

Ejemplo 4.26. La matriz A =

1√2

1√2

0

−1√2

1√2

0

0 0 1

es una matriz ortogonal ya que el conjunto de columnas de esta

matriz,

1√2

−1√2

0

,

1√2

1√2

0

,

0

0

1

, es un conjunto ortonormal, lo cual se demostro en el Ejemplo4.25.

144

La propiedad mas importante de las matrices ortogonales es la siguiente.

Lema 4.11. (Propiedad de las matrices ortogonales) Sea A ∈ Mmn(R), entonces A es una matriz orto-

gonal si y solo si AtA = I.

Por tanto si A es una matriz cuadrada entonces A es invertible y A−1 = At. Si A no es cuadrada entonces At

es una inversa a la izquierdaA.

Demostracion. Si A =[

v1 · · · vk

]

es una matriz ortogonal, entonces

AtA =

vt1...

vtk

[

v1 · · · vk

]

=

vt1v1 vt1v2 · · · vt1vk

vt2v1 vt2v2 · · · vt2vk...

.... . .

...

vtkv1 vtkv2 · · · vtkvk

(4.11)

=

v1 · v1︸ ︷︷ ︸

=1

v1 · v2︸ ︷︷ ︸

=0

· · · v1 · vk︸ ︷︷ ︸

=0

v2 · v1︸ ︷︷ ︸

=0

v2 · v2︸ ︷︷ ︸

=1

· · · v2 · vk︸ ︷︷ ︸

=0...

.... . .

...

vk · v1︸ ︷︷ ︸

=0

vk · v2︸ ︷︷ ︸

=0

· · · vk · vk︸ ︷︷ ︸

=1

=

1 0 · · · 0

0 1 · · · 0...

.... . .

...

0 0 · · · 1

= I.

Si AtA = I se sigue de la Ecuacion 4.11 que las columnas de A forman un conjunto ortonormal y por

definicion A es ortogonal.

Si A es una matriz cuadrada, por el Corolario 1.22, A es invertible y A−1 = At. La otra afirmacion es

inmediata.

Ejemplo 4.27.1. Este teorema nos permite calcular la inversa de una matriz ortonormal de manera facil, por el

Ejemplo 4.26 tenemos que la matriz A =

1√2

1√2

0

−1√2

1√2

0

0 0 1

es una matriz ortogonal, por tanto

A−1 = At =

1√2

−1√2

0

1√2

1√2

0

0 0 1

.

2. El teorema tambien se puede usar para calcular la inversa a la izquierda de matrices ortonormales cuando no

son cuadradas. Por ejemplo la matriz B =

1√2

1√2

−1√2

1√2

0 0

es una matriz ortonormal, por tanto una inversa a la

izquierda de B es Bt =

1√2

−1√2

0

1√2

1√2

0

.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 145

Las bases ortogonales (ortonormales) tiene ventajas importantes, estas se reflejan cuando se quiere calcular

la proyeccion de un vector sobre un subespacio. El siguiente teorema provee una formula para determinar la

proyeccion sin usar la matriz de la proyeccion. La formula se obtiene a partir de una base ortogonal u ortonormal.

Teorema 4.12. Sea {v1 . . . , vk} una base ortonormal para un subespacio vectorial H de Rn y sea b ∈ R

n,

entonces

proyHb = (v1 · b)v1 + · · ·+ (vk · b)vk.

Si la base {v1 . . . , vk} es ortogonal entonces proyHb = v1·bv1·v1

v1 + · · ·+ vk·bvk·vk

vk.

Demostracion. Sea A =[

v1 · · · vk

]

, entonces proyHb = A(AtA)−1Atb. Como A es una matriz ortogonal

por el Teorema 4.11 se tiene que AtA = I, por tanto

proyHb = A (AtA)−1

︸ ︷︷ ︸

=I

Atb = AAtb =[

v1 · · · vk

]

vt1...

vtk

b

=[

v1 · · · vk

]

vt1b...

vtkb

= (vt1b)v1 + · · ·+ (vtkb)vk

= (v1 · b)v1 + · · ·+ (vk · b)vk.

Si la base {v1, · · · , vk} es ortogonal, entonces por la Observacion 4.4, tenemos que el conjunto {w1, . . . , wk}es una base ortonormal de H donde wi = 1

||vi||vi, con i = 1, . . . , k. Entonces para i = 1, . . . , k tenemos que

(wi · b)wi =(

1||vi||vi · b

)1

||vi||vi =vi·b

||vi||2 vi =vi·bvi·vi

vi, por tanto

proyHb = (w1 · b)w1 + · · ·+ (wk · b)wk =v1 · bv1 · v1

v1 + · · ·+vk · bvk · vk

vk.

Ejemplo 4.28. Sea b =

1

1

3

y H = gen

v1 =

1

1

0

, v2

−11

2

. Es facil ver que {v1, v2} es una base ortogonal

de H, entonces por el teorema anterior tenemos que

proyHb =v1 · bv1 · v1

v1 +v2 · bv2 · v2

v2 =2

2v1 +

6

6v2 = v1 + v2 =

0

2

2

.

De hecho el este subespacio es el mismo del Ejemplo 4.16 y obtenemos, como debe ser, la misma respuesta.

Simplemente en este caso tenemos una base ortogonal de H, lo cual nos permite usar el teorema anterior sin

tener que calcular la matriz de la proyeccion y la cantidad de calculos se reduce.

146

Para ver que los subespacios de este ejemplo y el ejemplo en mencion coinciden, notese que si w =

0

1

1

entonces

proyHw =v1 · wv1 · v1

v1 +v2 · wv2 · v2

v2 =1

2v1 +

3

6v2 = v1 + v2 =

1/2

1/2

0

+

−1/21/2

1

=

0

1

1

= w.

Se tiene que w = proyHw y por tanto w ∈ H. Es decir, tanto {v1, v2} como {v1, w} son bases de H.

El siguiente corolario tambien muestra la importancia de tener una base ortonormal, porque provee una

formula para escribir un vector en un subespacio como combinacion lineal de una base ortonormal sin tener que

hacer reduccion Gauss-Jordan.

Corolario 4.13. Sea H ⊆ Rn un subespacio con base ortonormal {v1 . . . , vk}. Entonces para todo b ∈ H se

tiene que

b = (b · v1)v1 + · · ·+ (b · vk)vk.

Mas aun, si {v1 . . . , vk} una base ortogonal de H, entonces b = b·v1

v1·v1v1 + · · ·+ b·vk

vk·vkvk.

Demostracion. Si b ∈ H por el Teorema 4.9 tenemos que proyHb = b, por tanto el resultado se sigue aplicando

el teorema anterior.

Ejemplo 4.29. De acuerdo al Ejemplo 4.25 Los vectores v1 =

1

−10

, v2 =

1

1

0

y v3 =

0

0

1

forman una base

ortogonal para R3. Usando el teorema anterior podemos escribir el vector b =

1

1

1

de la siguiente forma:

b =b · v1v1 · v1

v1 +b · v2v2 · v2

v2 +b · v3v3 · v3

v3 =0

2v1 +

2

2v2 +

1

1v3 = v2 + v3.

Ejemplo 4.30. De acuerdo al Ejemplo 4.25 Los vectores w1 =

1√2

−1√2

0

, w2 =

1√2

1√2

0

y w3 =

0

0

1

forman una

base ortonormal para R3. Usando el teorema anterior podemos escribir el vector b =

1

1

1

de la siguiente forma:

b = (b · w1)w1 + (b · w2)w2 + (b · w3)w3 = 0w1 +2√2w2 + w3 =

√2w2 + w3.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 147

Ejemplo 4.31. El conjunto

v1 =

1√2

1√2

0

, v2 =

−1√2

1√2

0

es una base ortonormal para el plano xy (o z = 0)

entonces usando el teorema anterior para calcular proyHb con H = plano xy y b =

1

2

1

obtenemos:

proyHb = (b · v1)v1 + (b · v2)v2 =3√2v1 +

1√2v2 =

1

2

0

.

El Teorema 4.12 y el Corolario 4.13 muestran la importancia de tener una base ortogonal u ortonormal

para un subespacio, sin embargo hasta ahora no sabemos como se puede calcular tal base. El siguiente teorema

muestra como, a partir de una base arbitraria de un subespacio de Rn, podemos construir una base ortogonal.

Teorema 4.14. (El proceso Gramm-Schmidt) Sea H ⊆ Rn un subespacio y sea {v1, . . . , vk} una base de

H si hacemos

w1 = v1, W1 = gen{w1}w2 = v2 − proy

W1v2 W2 = gen{w1, w2}

w3 = v3 − proyW2

v3 W3 = gen{w1, w2, w3}...

...

wk−1 = vk−1 − proyWk−2

vk−1 Wn−1 = gen{w1, . . . , wn−1}wk = vn − proy

Wk−1vk

Entonces {w1, . . . , wk} es una base ortogonal de H.

Mas aun, si hacemos qi =1

||wi||wi para i = 1, . . . , n, entonces {q1, . . . , qn} es una base ortonormal de H.

Demostracion. Por definicion de proyeccion ortogonal tenemos que wi = vi − proyWi−1

vi es ortogonal al

subespacio Wi−1 para i = 1, . . . , k y por tanto wi ortogonal a cada uno de los vectores w1, . . . , wi−1. Se sigue

que los vectores w1, . . . , wk son ortogonales entre sı, es decir, el conjunto {w1, . . . , wk} es un conjunto ortogonal.

En consecuencia, por el Lema 4.10, el conjunto {w1, . . . , wi} es una base ortogonal deWi, , para i = 1, . . . , k−1, y{w1, . . . , wk} es una base ortogonal del subespacio que ellos generan, gen{w1, . . . , wk}. Solo nos resta demostrar

que H = gen{w1, . . . , wk}.

Como el conjunto {w1, . . . , wk} es base de gen{w1, . . . , wk}, se sigue que dimH = k = dim gen{w1, . . . , wk}.Por tanto es suficiente demostrar que w1, . . . , wk ∈ H, ya que de esta forma se sigue que gen{w1, . . . , wk} ⊆ H

y por tener dimesiones iguales se concluye que los subespacios son iguales (Problema ???).

Primero notese que w1 = v1 ∈ H.

Tambien tenemos que w2 = v2 − proyw1v2 = v2 − v2·w1

w1·w1w1 ∈ H.

148

Continuando por induccion supongamos que w1, . . . , wi−1 ∈ H. Como el conjunto {w1, . . . , wi−1} es una base

ortogonal de Wi−1, entonces por el Teorema 4.12 tenemos que

proyWi−1

vi =vi · w1

w1 · w1w1 − · · · −

vi · wi−1

wi−1 · wi−1wi−1 (4.12)

por tanto

wi = vi − proyWi−1

vi = vi −vi · w1

w1 · w1w1 − · · · −

vi · wi−1

wi−1 · wi−1wi−1 ∈ H.

Concluimos que w1, . . . , wk ∈ H y por tanto el conjunto {w1, . . . , wk} es una base ortogonal para H.

De la Observacion 4.4 se sigue que el conjunto {q1, . . . , qk} es una base ortonormal.

Observacion 4.5. Si {v1, . . . , vk} es una base para un subespacio H de Rn, entonces por la Ecuacion (4.12),

los vectores w1, . . . , wk de la base ortogonal del proceso Gramm-Schmidt estan dados por

w1 = v1,

w2 = v2 − v2·w1

w1·w1w1

w3 = v3 − v2·w1

w1·w1w1 − v2·w2

w2·w2w2

...

wk−1 = vk−1 − vk−1·w1

w1·w1w1 − · · · − vk−1·wk−1

wk−1·wk−1wk−1

wk = vk − vk·w1

w1·w1w1 − · · · − vk·wk

wk·wkwk

(4.13)

Ejemplo 4.32. Sean v1 =

[1100

]

, v2 =

[0110

]

y v3 =

[1001

]

y H = gen{v1, v2, v3}. Calcule lo siguiente

1. una base ortonormal {q1, q2, q3} para H.

2. Escriba el vector v =

[131

−1

]

en terminos de la base ortonormal.

3. Calcule la proyeccion del vector z =

[1111

]

sobre H.

Solucion.

1. Usaremos las ecuaciones dadas en (4.13) para calcular los vectores w1, w2 y w3 y despues los normalizamos.

En primer lugar se tiene que w1 = v1, el vector w2 esta dado por w2 = v2 − w1·v2

w1·w1w1 = v2 − 1

2v1 =

[−1/21/210

]

y

finalmente w3 = v3 − w1·v3

w1·w1w1 − w2·v3

w2·w2w2 = v3 − 1

2w1 − (−1/2)3/2 w2 = v3 − 1

2w1 +13w2 =

[1/3

−1/31/31

]

.

Se verifica facilmente que los vectores w1, w2 y w3 son ortogonales. Para la base ortonormal, con el fin de agilizar

calculos, se puede trabajar con multiplos de los vectores w1, w2 y w3 de tal forma que no hayan denominadores.

Para este efecto tomamamos u1 = w1, u2 = 2w2 =

[ −1120

]

y u3 = 3w3 =

[1

−113

]

.

Finalmente se tiene que los vectores

q1 =1

||u1||u1 =

1√2

[1100

]

, q2 =1

||u2||u2 =

1√6

[ −1120

]

y q3 =1

||u2||u3 =

1√12

[1

−113

]

forman una base ortonormal para H.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 149

2. Por el Corolario 4.13 tenemos que

v = (q1 · v)q1 + (q2 · v)q2 + (q3 · v)q3 =4√2q1 +

4√6q2 −

4√12

q3.

La ultima igualdad se obtiene racionalizando el denominador.

En terminos de la base ortogormal

v =u1 · vu1 · u1

u1 +u2 · vu2 · u2

u2 +u3 · vu3 · u3

u3 = 2u1 +2

3u2 −

1

3u3.

3. Por el Teorema 4.12 tenemos que

proyHz = (q1 · z)q1 + (q2 · z)q2 + (q3 · z)q3 =

2√2q1 +

2√6q2 +

4√12

q3 =√2q1 +

√6

3q2 +

√12

3q3.

La ultima igualdad se obtiene racionalizando el denominador.

En terminos de la base ortogormal

v =u1 · vu1 · u1

u1 +u2 · vu2 · u2

u2 +u3 · vu3 · u3

u3 = u1 +1

3u2 +

1

3u3.

Finalizamos la seccion mostrando la idea geometrica detras del proceso de Gramm-Schmidt.

En la siguiente figura se muestran los vectores w1 y w2 (en rojo) obtenidos al aplicar Gram-Schmidt a un

par de vectores v1 y v2. En esta se ve que los vectores w1 y w2 son ortogonales y pertencen al mismo plano que

v1 y v2.

w2 = v2 − proyv1v2

v1 = w1proyv1v2

b

O

v2

En la siguiente figura se muestra el caso en dimension 3. Si se tienen vectores LI v1, v2 y v3 y ya se han

determinado los vectores ortogonales w1 y w2, en la figura se muestra como se obtiene el vector w3, ortogonal

al plano W2 = gen{w1, w2}. Obteniendo ası, los vectores w1, w2 y w3 (en rojo), los cuales forman una base

ortogonal.

proyW2v3

w3 = v3 − proyW2

v3

W2

b

Ov1 = w1

w2

v3

v2

150

Problemas

4.5.1. Verifique que las matrices son ortogonales y que su correspondiente transpuesta es una inversa a la

izquierda

A =

1/2 −1/√6

1/2 −1/√6

1/2 2/√6

1/2 0

B =

1/√3 1/

√6 1/

√2

1/√3 1/

√6 −1/

√2

1/√3 −2/

√6 0

.

4.5.2. Sean w1 = (1, 1, 2), w2 = (2, 0,−1) y w3 = (1,−5, 2), H = gen{w1, w2} y v = (1, 1, 1), haga lo siguiente

1. verifique que X = {w1, w2, w3} es una bas ortogonal,

2. escriba el vector v en terminos de la base X,

3. calcule la proyeccion, proyHv, del vector v sobre H,

4. calcule el vector u y proyHu si se sabe que u · w1 = 5, u · w2 = 3 y u · w3 = −1,

5. calcule el vector z ∈ H tal que z · w1 = 3, z · w2 = 5,

6. muestre que H⊥ = gen{w3}.

4.5.3. Sea {w1, . . . , wn} una base ortogonal de Rn y H = gen{w1, . . . , wk}, muestre que H⊥ = gen{wk+1, . . . , wn}.Demuestre tambien que si v = α1w1 + · · ·+ αnwn entonces proy

Hv = α1w1 + · · ·+ αkwk.

4.5.4. Aplique el procedo de Gramm-Scdmidt para calcular una base ortonormal del subespacio generado por los

vectores v1, v2 y v3 si

a. v1 =

0

1

0

, v2 =

0

1

1

, v3 =

1

1

1

. b. v1 =

1

1

0

, v2 =

1

0

1

, v3 =

0

1

1

.

c. v1 =

1

−10

0

, v2 =

0

1

−10

, v3 =

0

0

1

−1

.

4.5.5. Calcule una base ortogonal y una base ortonormal para cada uno de los espacios en los problemas 4.3.1,

4.3.2, 4.3.3 y 4.3.4. En cada caso calcule la proyeccion del vector indicado en cada problema sobre el respectivo

subespacio en terminos de la base ortogonal y en terminos de la base ortonormal.

4.5.6. Encuentre los valores de α y β tal al aplicar el proceso de Gramm-Schmidt a los vectores v1, v2 y v3 se

obtengan los vectores w1, w2 y w3, donde

v1 =

1

1

0

, v2 =

1

1

α

, v3 =

β

1

0

, w1 =

1

1

0

, w2 =

0

0

1

y w3 =

−11

0

.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 151

4.5.7. Determine los vectores v1, v2 y v3 tal que al aplicar el proceso Gramm-Schmidt se obtienen los vectores

w1 = (1, 1, 1, 1), w2 = (1, 1,−1,−1) y w3 = (1,−1, 1,−1) si se sabe ademas que v2 · w1 = −2, v3 · w1 = 8 y

v3 · w2 = 2.

4.5.8. Determine todos los posibles vectores v1 y v2 talque al aplicar el proceso Gramm-Schmidt y normalizar

el resultado sean los vectores q1 = (1/2, 1/2, 1/2, 1/2) y q2 = (1/2, 1/2,−1/2,−1/2).

4.5.9. Determine las columnas faltantes de tal forma que cada una de las siguientes matrices sean ortogonales.

a. A =

1/√3 1/

√6

1/√3 1/

√6

1/√3 −2/

√6

q3

b. B =

1/2 1/√6

1/2 1/√6

1/2 −2/√6

1/2 0

q3 q4

c. C =

1/2 1/2

1/2 1/2

1/2 −1/21/2 −1/20 0

q3 q4 q5

Ayuda: En cada caso los vectores qi, i = 3, 4, 5, pertenecen al complemento ortogonal del espacio generado por

las dos primeras columnas de la matriz.

4.5.10. Sea A = [v1 · · · vn] ∈Mn(R), donde v1, . . . , vn son las columnas de A, y sea B =[

1v1·v1

v1 · · · 1vn·vn

vn

]

.

Demuestre que si {v1, . . . , vn} es un conjunto ortogonal entonces Bt es la inversa de A.

Use lo anterior para determinar la inversa de la matriz A =

1 1 1

1 1 −11 −2 0

.

4.5.11. Si A es de tamno m×n con columnas ortonormales, demuestre que P = AAt es una matriz proyeccion,

es decir, P 2 = P .

4.5.12. Sea u ∈ Rn un vector unitario y v ∈ R

n arbitrario. Demuestre lo siguiente:

1. la matriz Q = I − utu es una matriz simetrica ortogonal.

2. Si U = gen{u} demuestre que Qv es la proyeccion de v sobre U⊥.

3. Calcule Q si u = (1/2, 1/2, 1/2, 1/2) y la proyeccion de v = (1, 2, 3, 4) sobre U y U⊥.

4.5.13. Una isometrıa de Rn es un isomorfismo T : Rn −→ Rn tal que T (v)·T (w) = v ·w, para todo v, w ∈ R

n.

Muestre que T es una isometrıa si y solo si la matriz ETE de T es una matriz ortogonal.

4.5.14. Sea T : Rn −→ Rn una isometrıa, demuestre lo siguiente:

1. ||T (v)|| = ||v||, para todo v ∈ R, es decir, T preserva longitudes.

2. T preserva angulos, es decir, ∡(v, w) = ∡(T (v), T (w)), para todo v, w ∈ R.

3. La inversa de una isometrıa es una isometrıa y la composicion de isometrıas es una isometrıa.

4. T envıa bases ortonormales en bases ortonormales, es decir, {v1, . . . , vn} es una base ortonormal de Rn si y

solo si {T (v1), . . . , T (vn)} es una base ortonormal de Rn.

152

4.5.15. Sean A,B ∈ Mn(R) matrices ortogonales, muestre que AB y A−1 son ortogonales. (Esto muestra que

el conjunto de matrices ortogonales es un subgrupo del grupo de matrices invertibles, este subgrupo es conocido

como el grupo ortogonal, denotado por On(R).)

Demuestre que O2(R) =

cos θ −senθsin θ cos θ

∣∣∣∣0 ≤ θ ≤ 2π

cos θ sin θ

sin θ − cos θ

∣∣∣∣0 ≤ θ ≤ 2π

.

Estas dos componentes de On(R) consisten de rotaciones en direccion antihoraria del plano y rotaciones en

direccion de las manecillas del reloj del plano. El grupo On(R) tambien se puede ver como el conjunto formado

por composiciones de rotaciones antihorarias y reflecciones con respecto a una lınea por el origen. Los geometras

se refieren a este grupo como el grupo de movimientos rıgidos del plano que preservan el origen.

4.5.16. Sean P y Q de tamanos m× n y n× q matrices ortogonales, muestre que PQ es ortogonal.

Si m < n, es P t ortogonal?

4.6. La Factorizacion QR de una Matriz

Teorema 4.15. Sea A =[

v1 · · · vk

]

una matriz cuyas columnas son LI, entonces exite una matriz ortogonal

Q y una matriz triangular superior R tal que A = QR.

Demostracion. Sean H = gen{v1, · · · , vk} y q1, . . . , qk los vectores obtenidos al aplicar el proceso Gramm-

Schmidt, es decir, los vectores obtenidos al normalizar los vectores en la Observacion 4.5, los cuales forman una

base ortonormal para H. Por el Teorema 4.13 tenemos que

vi = (q1 · vi)q1 + · · ·+ (qk · vi)qk. (4.14)

Recordemos que en la demostracion del Teorema 4.14 vimos que gen{v1, . . . , vi−1} = gen{w1, . . . , wi−1} =

gen{q1, . . . , qi−1}, para i = 2, . . . , k, y como qi es ortogonal a gen{q1, . . . , qi−1}, por ser ortonormal a q1, . . . , qi−1

entonces qi · v1 = 0, . . . , qi · vi−1 = 0. Como esto es para todo i = 1, . . . , k obtenemos que qi · vj = 0 para i > j.

Reemplazando esto en la Ecuacion (4.14) obtenemos

vi = (q1 · vi)q1 + · · ·+ (qi · vi)qi,

para i = 1, . . . , k, por tanto tenemos la ecuaciones:

v1 = (q1 · v1)q1

v2 = (q1 · v2)q1 + (q2 · v2)q2...

vk−1 = (q1 · vk−1)q1 + · · ·+ (qk−1 · vk−1)qk−1

vk = (q1 · vk)q1 + · · ·+ (qk · vk)qk.

La cual podemos escribir matricialmente de la siguiente forma

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 153

[

v1 · · · vk

]

=[

q1 · · · qk

]

q1 · v1 q1 · v2 q1 · v3 · · · q1 · vk0 q2 · v2 q2 · v3 · · · q2 · vk0 0 q3 · v3 · · · q3 · vk...

......

. . ....

0 0 0 · · · qk · vk

Si hacemos Q =[

q1 · · · qk

]

y R =

q1 · v1 q1 · v2 q1 · v3 · · · q1 · vk0 q2 · v2 q2 · v3 · · · q2 · vk0 0 q3 · v3 · · · q3 · vk...

......

. . ....

0 0 0 · · · qk · vk

obtenemos A = QR.

De este Teorema se desprende el siguiente procedimiento para calcular la factorizacion QR de una matriz.

Procedimiento 4.2. (Procedimiento para calcular las matrices Q y R) Sea A =[

v1 · · · vk

]

una

matriz cuyas columnas v1, . . . , vk son linealmente independientes. Calculamos su factorizacion QR con los si-

guientes pasos:

1. Aplicamos el proceso Gramm-Schmidt y la Observacion 4.5 a los vectores v1, . . . , vk para obtener los vectores

ortogonales w1, . . . , wk.

2. Se normalizan los vectores w1, . . . , wk para obtener vectores ortonormales q1, . . . , qk y hacemos Q =[

q1 · · · qk

]

.

3. Para 1 ≤ i ≤ j ≤ k calculamos los productos qi · vj y hacemos

R =

q1 · v1 q1 · v2 q1 · v3 · · · q1 · vk0 q2 · v2 q2 · v3 · · · q2 · vk0 q2 · v2 q3 · v3 · · · q2 · vk...

......

. . ....

0 0 0 · · · qk · vk

.

4. De acuerdo al Teorema 4.15 tenemos que A = QR.

Ejemplo 4.33. Sea A =

1 0 1

1 1 0

0 1 0

0 0 1

, calcular las matrices Q y R tal que A = QR.

Solucion. Sean v1 =

1

1

0

0

, v2 =

0

1

1

0

y v3 =

1

0

0

1

, usando el Procedimiento 4.2 obtenemos lo siguiente.

154

1. En el Ejemplo 4.32 usamos el proceso Gramm-Schdmit y obtuvimos q1 =

1√2

1√2

0

0

, q2 =

− 1√6

1√6

2√6

0

y q3 =

1√12

− 1√12

1√12

3√12

,

por tanto Q =

1√2

− 1√6

1√12

1√2

1√6

− 1√12

0 2√6

1√12

0 0 3√12

.

2. Para 1 ≤ i ≤ j ≤ 3 calculamos los productos qi · vj,

q1 · v1 = 2√2

q1 · v2 = 1√2

q1 · v3 = 1√2

q2 · v2 = 3√6

q2 · v3 = −1√6

q3 · v3 = 4√12.

Por tanto R =

2√2

1√2

1√2

0 3√6

−1√6

0 0 4√12

.

3. De esta manera obtenemos que A =

1√2

− 1√6

1√12

1√2

1√6

− 1√12

0 2√6

1√12

0 0 1√12

2√2

1√2

1√2

0 3√6

−1√6

0 0 4√12

.

Usamos MatLab para corroborar que A = QR:

>> Q = [1/sqrt(2),−1/sqrt(6), sqrt(3)/6; 1/sqrt(2), 1/sqrt(6),−sqrt(3)/6; 0, 2/sqrt(6), sqrt(3)/6; 0, 0, sqrt(3)/2],R = [2/sqrt(2), 1/sqrt(2), 1/sqrt(2); 0, 3/sqrt(6),−1/sqrt(6); 00, 2/sqrt(3)], Q ∗R

Lo que nos confirma que efectivamente A = QR.

En la Seccion 5.6 del proximo capıtulo veremos una interpretacion geometrica de esta descomposicion.

Problemas

4.6.1. Calcule la descomposicion QR de las matrices

A =

0 0 1

1 1 1

0 1 1

, B =

1 1 0

1 0 1

0 1 1

, C =

1 0

1 1

2 1

0 2

y D =

1 0 0

−1 1 0

0 −1 1

0 0 −1

.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 155

4.6.2. Determine la matriz A si Q =

1/√3 −1/

√6

1/√3 −1/

√6

1/√3 2/

√6

y R =

√3 4/

√3

0 2/√6

.

4.6.3. Determine la factorizacion QR de una matriz A = [v1 v2 v3] si sabe que al aplicar el proceso Gramm-

Schmidt a los vectores v1, v2 y v3 se obtienen los vectores w1 = (1, 1, 1, 1), w2 = (1, 1,−1,−1) y w3 =

(1,−1, 1,−1) y se sabe ademas que v2 · w1 = −2, v3 · w1 = 8 y v3 · w2 = 2.

4.6.4. Determine todas las matrices A tal que Q =

1/2 1/2

1/2 1/2

1/2 −1/21/2 −1/2

. Determine tambien las posibles R. (Este

problema esta relacionado con el Problema 4.5.8)

156

Capıtulo 5

Determinantes

La nocion de determinante es muy importante en matematicas, a partir de este se puede definir volumen

de n-pıpedos, los cual exhibimos en la ultima seccion de este capıtulo. En textos de algebra multilineal se de-

muestra que el determinante, visto como funcion de (Rn)n en Rn, es la unica n-forma n-lineal alternada tal

que det(e1, . . . , en) = 1, lo que permite usarla como forma volumen bien definida en Rn. En este capıtulo, al

no usar las herramientas del algebra multilineal, usamos los cofactores para definir el determinante. A partir de

esta definicion y usando matrices elementales demostramos las propiedades de linealidad del determinante en

cada fila y cada columna, al igual que su propiedad de alternabilidad. En la Seccion 5.3 demostramos la regla

del producto y el determinante de la matriz inversa. Despues se introduce la matriz adjunta y una formula para

la inversa de una matriz a partir de esta. Tambien se demuestra la regla de Cramer y terminamos el capıtulo

dando la interpretacion geometrica del determinante usandolo para calcular volumenes.

5.1. Definicion y ejemplos

En esta seccion introducimos la definicion de determinante y las propiedades basicas.

Definicion 5.1. Sea A una matriz de tamano m×n, para cada par (i, j) con 1 ≤ i ≤ m y 1 ≤ j ≤ n, definimos

el ij-esimo menor de A, al cual denotaremos por Aij, como la matriz obtenida de A al eliminar su i-esima

fila y su j-esima columna.

Ejemplo 5.1. Sea A =

1 1 0 2

1 −1 1 0

0 2 3 0

el 24-esimo menor de A es la matriz A24 =

1 1 0

0 2 3

y el 12-esimo

menor es la matriz A12 =

1 1 0

0 3 0

.

157

158

Definicion 5.2. (Determinante) Sea A =

a11 · · · a1n...

. . ....

an1 · · · ann

una matriz de tamano n × n. Definimos el

determinante de A, el cual denotaremos por det(A), recursivamente como sigue:

Si n = 2 entonces det(A) = a11a22 − a12a21.

Para n ≥ 3,

det(A) =

n∑

i=1

(−1)1+ia1i det (A1i)

= a11 det (A11)− a12 det (A12) + · · ·+ (−1)1+na1n det (A1n) .

Ejemplo 5.2. Sea A =

2 −1 0

0 1 0

1 1 1

de acuerdo a esta definicion el determinante de A esta dado por:

det(A) =

3∑

i=1

(−1)1+ia1i det (A1i)

= a11 det (A11)− a12 det (A12) + a13 det (A13)

= 2 det

1 0

1 1

− (−1) det

0 0

1 1

+ 0det

0 1

1 1

= 2(1 · 1− 0 · 1) + (0 · 1− 0 · 1) + 0(0 · 1− 1 · 1)

= 2

Definicion 5.3. Sea A una matriz n×n, para cada par (i, j) con 1 ≤ i ≤ m y 1 ≤ j ≤ n, el ij-esimo cofactor

de A, denotado por Cij, se define como

Cij = (−1)i+j detAij ,

donde Aij es el ij-esimo menor de A.

Observacion 5.1. Con esta definicion podemos reescribir la formula de del determinante como sigue:

det(A) =n∑

i=1

a1iC1i = a11C11 + a12C12 · · ·+ a1nC1n.

A esta formula se le conoce como la expansion por cofactores de A a lo largo de la primera fila.

Ejemplo 5.3. Sea A =

−1 1 0

0 1 1

−1 2 1

, calcular C11, C12 y C13 y calcular el determinante de A.

Solucion: C11 = (−1)1+1 detA11 = (−1)2 det

1 1

2 1

= 1 · 1− 1 · 2 = −1,

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 159

C12 = (−1)1+2 detA12 = (−1)3 det

0 1

−1 1

= −1 (0 · 1− 1 · (−1)) = −1,

C13 = (−1)1+3 detA13 = (−1)4 det

0 1

−1 2

= 0 · 2− 1 · (−1) = 1 y ası

det(A) = a11C11 + a12C12 + a13C13 = −1 · (−1) + 1 · (−1) + 0 · 1 = 0.

De la definicion se desprenden los siguientes resultados.

Lema 5.1. Sea A =

a11 0 · · · 0

a21 a22 · · · 0...

.... . .

...

an1 an2 · · · ann

una matriz triangular inferior, entonces

det(A) = a11a22 · · · ann.

Es decir, el determinante de una matriz triangular inferior es el producto de las entradas en la diagonal. En

particular, el determinante de una matriz diagonal es el producto de las entradas en la diagonal.

Demostracion. Por induccion sobre n.

Si n = 2 tenemos que det(A) = a11a22 − 0a21 = a11a22.

Supongamos que el determinante de toda matriz triangular inferior de tamano (n− 1)× (n− 1) es el producto

de las entradas en la diagonal. Usando la Observacion 5.1 tenemos que

det(A) = a11C11 + a12︸︷︷︸

=0

C12 + · · ·+ a1n︸︷︷︸

=0

C1n = a11C11. (5.1)

Pero por hipotesis de induccion tenemos que

C11 = (−1)1+1 det(A11) = 1 · det

a22 · · · 0...

. . ....

an2 · · · ann

= a22 · · · ann (5.2)

De las ecuaciones (5.1) y (5.2) tenemos que

det(A) = a11a22 · · · ann.

Corolario 5.2. Sea I = In la matriz identidad de tamano n× n, entonces det(I) = 1.

En la Observacion 5.1 se dijo que el determinante se obtiene por expansion por coeficientes a lo largo de la

primera fila. Esto porque en la formula se usan los coeficientes en esa fila. El siguiente teorema muestra que

para calcular el determinante de una matriz podemos usar coeficientes en cualquier fila o cualquier columna con

sus correspondientes menores.

160

Teorema 5.3. Sea A =

a11 · · · a1n...

. . ....

an1 · · · ann

entonces el determinante de A se puede calcular usando la expansion

por cofactores en cualquier fila o cualquier columna, es decir, para 1 ≤ i, j ≤ n tenemos que:

det(A) = ai1Ci1 + ai2Ci2 + · · ·+ ainCin︸ ︷︷ ︸

Expansion por cofactores en la fila i

=n∑

k=1

aikCik o (5.3)

det(A) = a1jC1j + a2jC2j + · · ·+ anjCnj︸ ︷︷ ︸

Expansion por cofactores en la columna j

=

n∑

h=1

ahjChj . (5.4)

Demostracion. Primero demostraremos la Formula (5.3) por induccion sobre n.

Para n = 2 tenemos que:

Expansion por cofactores en la segunda fila = −a21a12 + a22a11 = det(A).

Ahora supongamos que el teorema se cumple para cualquier matriz de tamano (n − 1) × (n − 1) y mostremos

que det(A) = Expansion por cofactores en la fila i.

Por definicion tenemos que

det(A) =

n∑

j=1

(−1)1+ja1j det(A1j). (5.5)

Ahora, como la matriz A1j es de tamano (n− 1)× (n− 1), entonces por la hipotesis de induccion tenemos que

su determinante se puede calcular por expansion por cofactores en la fila i, por tanto

det(A1j) = (−1)i+1ai1 det((A1j)i1) + · · ·+ (−1)i+nain det((A1j)in) (5.6)

=n∑

k=1

(−1)i+kaik det((A1j)ik).

De las Ecuaciones (5.5) y (5.6) tenemos que

det(A) =n∑

j=1

(−1)1+ja1j

n∑

k=1

(−1)i+kaik det((A1j)ik)

=

n∑

j=1

n∑

k=1

(−1)1+j+i+ka1jaik det((A1j)ik). (5.7)

Se demostrara que la expansion por cofactores en la fila i coincide con esta formula.

Notese que como Cik = (−1)i+k det(Aik), entonces tenemos que:

Expansion por cofactores en la fila i =n∑

k=1

aikCik =n∑

k=1

(−1)i+kaik det(Aik). (5.8)

Ahora, por definicion de determinante tenemos que

det(Aik) =n∑

j=1

(−1)1+ja1j det((Aik)1j). (5.9)

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 161

De las Ecuaciones (5.8) y (5.9) tenemos

Expansion por cofactores en la fila i =

n∑

k=1

(−1)i+kaik

n∑

j=1

(−1)1+ja1j det((Aik)1j)

=

n∑

k=1

n∑

j=1

(−1)i+k+1+jaika1j det((Aik)1j). (5.10)

Finalmente notese que (A1j)ik = (Aik)1j ya que ambas se obtienen al eliminar las filas 1 e i y las columnas j y

k de A. Entonces las Ecuaciones (5.7) y (5.10) son iguales, por tanto

det(A) = Expansion por cofactores en la fila i.

Similarmente se demuestra que el determinante se puede calcular por expansion en cualquier columna.

Ejemplo 5.4. Calcular el determinante de A =

−1 0 −12 0 1

0 1 0

usando expansion por cofactores en la tercera

fila y segunda columna.

Solucion: Usando expansion por cofactores en la tercera fila tenemos:

det(A) = (−1)3+1a31 det(A31) + (−1)3+2a32 det(A32) + (−1)3+3a33 det(A33)

= 0 det

0 −10 1

− 1 det

−1 −12 1

+ 0det

−1 0

2 0

= −1(−1 + 2) = −1.

Ahora, usando expansion por cofactores en la segunda columna tenemos:

det(A) = (−1)1+2a12 det(A12) + (−1)2+2a22 det(A22) + (−1)3+2a32 det(A32)

= −0 det

2 1

0 0

+ 0det

−1 −10 0

− 1 det

−1 −12 1

= −1(−1 + 2) = −1.

A continuacion presentamos dos propiedades importantes del determinante cuyas demostraciones son inme-

diatas del teorema anterior.

Corolario 5.4. Sea A una matriz de tamano n × n, si A tiene una fila o una columna de ceros, entonces

det(A) = 0.

Demostracion. Supongamos que la i-esima fila de A es nula, esto es, para 1 ≤ j ≤ n se tiene que aij = 0,

entonces:

det(A) = Expansion por cofactores en la fila i =

n∑

j=1

aij︸︷︷︸

=0

Cij = 0.

En el caso en que haya una columna de ceros se hace una demostracion similar usando expansion por la columna

de ceros.

162

Corolario 5.5. Sea A una matriz de tamano n× n entonces det(At) = det(A).

Demostracion. Sea B = At, entonces bij = aji y Bij = Atij = Aji, donde Aij y Bij son los ij-esimos menores

de A y de B respectivamente, entonces:

det(At) = det(B) = Expansion por cofactores en la columna 1 =n∑

k=1

bk1(−1)k+1 det(Bk1)

=n∑

k=1

a1k(−1)k+1 det(A1k) = det(A).

Corolario 5.6. Sea A =

a11 a12 · · · a1n

0 a22 · · · a21...

.... . .

...

0 0 · · · a11

una matriz triangular superior, entonces

det(A) = a11a22 · · · ann.

Demostracion. Se sigue del Lema 5.1 y del Corolario 5.5.

Terminamos la seccion con la siguiente propiedad del determinante que sera util en el Capıtulo 6.

Teorema 5.7. Sea A ∈Mn(F) una matriz tal que A =

B C

0 D

con B ∈Mp(F) y D ∈Mn−p(F) entonces

detA = detB detD.

Demostracion. Por induccion sobre p.

Si p = 1, tenemos que A =

a11 a12 · · · a1n

0 a22 · · · a2n...

.... . .

...

0 an2 · · · ann

entonces B = a11, D =

a22 · · · a2n...

. . ....

an2 · · · ann

= A11 y detB =

a11. Aplicando cofactores a A a lo largo de la primera columna obtenemos que

detA = a11C11 + a21︸︷︷︸

=0

C21 + · · ·+ an1︸︷︷︸

=0

Cn1 = a11 det A11︸︷︷︸

=D

= detB detD.

Supongamos ahora que el resultado es cierto para submatrices de tamano (p − 1) × (p − 1) y que B =

a11 · · · a1p...

. . ....

ap1 · · · app

. Aplicando nuevamente cofactores en la primera columna de A obtenemos que

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 163

detA = a11C11 + · · ·+ ap1Cp1 + ap+1,1︸ ︷︷ ︸

=0

Cp+1,1 + · · ·+ an1︸︷︷︸

=0

Cn1 = a11 detA11 + · · ·+ (−1)p+1ap1 detAp1

= a11 det

a22 · · · a2p...

. . ....

ap2 · · · app

C1

0 D

+ · · ·+ (−1)1+pap1 det

a12 · · · a1p...

. . ....

ap−1,2 · · · ap−1,p

Cp

0 D

=︸︷︷︸

induccion

a11 det

a22 · · · a2p...

. . ....

ap2 · · · app

︸ ︷︷ ︸

B11

detD + · · ·+ (−1)1+pap1 det

a12 · · · a1p...

. . ....

ap−1,2 · · · ap−1,p

︸ ︷︷ ︸

=Bp1

detD

= (a11 detB11 + · · ·+ (−1)p+1ap1 detBp1︸ ︷︷ ︸

formula por cofactores para detB

) detD

= detB detD

Problemas

5.1.1. Calcule el determinante de las siguientes matrices

A =

−1 1 2 0

0 −1 0 0

1 2 1 0

3 −1 1 1

B =

−1 1 0 2

3 2 0 1

4 3 0 2

5 3 0 1

C =

−1 3 2 1

1 −1 0 2

0 0 1 2

0 0 1 1

y D =

1 2 1

0 2 2

3 2 1

5.1.2.

5.1.3. Si Tn = det(An) donde An es de la matriz tridiagonal: An =

a b 0 ··· 0 0b a b ··· 0 00 b a ··· 0 0............

......

0 0 0 ··· a b0 0 0 ··· b a

entonces Tn = aTn−1 −

b2Tn−2

Si a = 2 y b = −1 demuestre que Tn = n+ 1. En general demuestre que si a = 2b entonces Tn = (n+ 1)bn

Si a = 1 y b = 1 muestre que Tn = Tn−1 − Tn−2. Muestre que Tn+6 = Tn para todo entero positivo n.

Determine T900.

5.1.4. Si Sn = det(An) donde An es la matriz tridiagonal An =

a b 0 ··· 0 0−b a b ··· 0 00 −b a ··· 0 0

......

......

......

0 0 0 ··· a b0 0 0 ··· −b a

entonces Sn = aSn−1 +

b2Sn−2

164

Si a = 1 y b = 1 demuestre que {Sn} es la sucesion de Fibonacci.

5.1.5. Si A =

B C

0 D

, detA = −6 y detB = −3, determine detD.

5.1.6. Si A =

B 0

C D

∈Mn(F) con B ∈Mp(F) y D ∈Mn−p(F) entonces detA = detB detD.

5.1.7. Sean A,B ∈Mn(R) matrices triangulares superiores, demuestre que det(AB) = detAdetB.

Muestre que esto tambien se cumple si A y B son ambas triangulares inferiores o ambas diagonales. (Ayuda:

Use el Problema 1.2.12.)

5.1.8. Sea A, B y C ∈ Mn(R), con A triangular superior, B diagonal y C triangular inferior, demuestre lo

siguiente:

a. det(AB) = detAdetB b. det(BC) = detB detC .

5.1.9. Demuestre la formula del determinante de matrices 2× 2 y 3× 3.

Si A =

a b

c d

, muestre que det(A) = ad− bc.

Si A =

a11 a12 a13

a21 a22 a23

a31 a32 a33

, muestre que

det(A) = a11a22a33 + a21a32a13 + a31a12a23 − a31a22a13 − a11a32a23 − a21a12a23.

5.2. Determinantes y operaciones elementales de fila

En esta seccion mostraremos que si E es una matriz elmental y A es una matriz arbitraria, ambas de tamano

n × n, entonces det(EA) = detE detA. Esto lo haremos considerando tres casos, uno por cada tipo de matriz

elemental. Este resultado sera util para demostrar que el determinante del producto de matrices es el producto

de los determinantes, resultado que veremos en la proxima seccion.

Teorema 5.8. Sea A =

a11 · · · a1n...

. . ....

ai1 · · · ain...

. . ....

an1 · · · ann

y B =

a11 · · · a1n...

. . ....

c · ai1 · · · c · ain...

. . ....

an1 · · · ann

la matriz que se obtiene de A al

multiplicar una fila i por una constante c, entonces

det(B) = c · det(A).

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 165

Demostracion. Primero notese que para k = 1, . . . , n se tiene que Bik = Aik, ya que al eliminar la fila i de B

se obtiene la misma matriz que al eliminar la fila i de A. Por tanto,

det(B) = Expansion por cofactores en la fila i de B =

n∑

k=1

bik︸︷︷︸

=c·aik

(−1)i+k det(Bik︸︷︷︸

=Aik

)

=

n∑

k=1

c · aik(−1)i+k det(Aik)

= c ·n∑

k=1

aik(−1)i+k det(Aik) = c · det(A).

Ejemplo 5.5. El teorema anterior nos dice que si todas las entradas de una fila son multiplos de un real c,

entonces este se puede factorizar de la fila como se muestra a continuacion

det

1 2 −24 2 −60 3 2

= det

1 2 −22 · 2 2 · 1 2 · (−3)0 3 2

= 2det

1 2 −22 1 −30 3 2

.

Del resultado anterior se deduce lo siguiente.

Corolario 5.9. Sea A una matriz n × n y sea E la matriz elemental que se obtiene de In al multiplicar una

fila por una constante c 6= 0 entonces det(E) = c y det(EA) = det(E) det(A).

Demostracion. Por el Lema 5.1 tenemos que det In = 1 y por el teorema anterior se sigue detE = c det In = c.

Ahora, la matriz EA se obtiene de A al multiplicar la fila i por c, Teorema 1.13, se sigue por el teorema

anterior que

det(EA) = c detA = detE detA.

Ahora pasamos a mostrar el efecto que tiene un intercambio de filas en el determinante de una matriz.

Teorema 5.10. Sea A =

a11 · · · a1n...

. . ....

ai1 · · · ain...

. . ....

aj1 · · · ajn...

. . ....

an1 · · · ann

y sea B =

a11 · · · a1n...

. . ....

aj1 · · · ajn...

. . ....

ai1 · · · ain...

. . ....

an1 · · · ann

la matriz que se obtiene de A al

intercambiar las filas i y j de A, entonces

det(B) = − det(A).

166

Demostracion. Primero supongamos que las filas intercambiadas son consecutivas, es decir,

A =

a11 · · · a1n...

. . ....

ai1 · · · ain

a(i+1)1 · · · a(i+1)n

.... . .

...

an1 · · · ann

y B =

a11 · · · a1n...

. . ....

a(i+1)1 · · · a(i+1)n

ai1 · · · ain...

. . ....

an1 · · · ann

.

Ahora, notese que b(i+1)k = aik y B(i+1)k = Aik ya que la matriz que se obtiene al eliminar la fila i + 1 de B

coincide con la matriz que se obtiene al eliminar la fila i de A. Por tanto si usamos expansion por cofactores en

la fila i+ 1 de B obtenemos:

det(B) =

n∑

k=1

b(i+1)k︸ ︷︷ ︸

aik

(−1)i+1+k det(B(i+1)k︸ ︷︷ ︸

Aik

) =

n∑

k=1

aik(−1)i+1+k det(Aik)

=n∑

k=1

aik(−1)(−1)i+k det(Aik) = −n∑

k=1

aik(−1)i+k det(Aik) = − det(A).

En el caso general, para intercambiar las filas i y j de A se necesitan j− i cambios consecutivos de la fila i para

llevarla a la fila j y j − i− 1 cambios consecutivos de la fila j para llevarla a la fila i, por tanto

det(B) = (−1)j−i(−1)j−i−1 det(A) = (−1)2j︸ ︷︷ ︸

=1

(−1)−2i

︸ ︷︷ ︸

=1

(−1)−1

︸ ︷︷ ︸

=−1

det(A) = − det(A).

De este resultado deducimos los siguiente.

Corolario 5.11. Sea A una matriz n× n y sea E la matriz elemental que se obtiene de In al intercambiar las

filas i y j entonces det(E) = −1 y det(EA) = det(E) det(A).

Demostracion. Si E se obtiene al intercambiar las filas i y j de In, entonces por el teorema anterior tenemos

que detE = − det In = −1.

Por el Teorema 1.13 tenemos que EA es la matriz obtenida de A al intercambiar sus filas i y j, se sigue del

teorema anterior

detEA = − detA = detE detA.

Ahora demostramos un par de lemas necesarios para pasar al tercer tipo de matrices elementales.

Lema 5.12. Si A es una matriz n× n con dos filas iguales, entonces det(A) = 0.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 167

Demostracion. Supongamos que las filas i y j de A son iguales y sea B la matriz que se obtiene de A al

intercambiar las filas i y j, entonces B = A. Ahora, por el Teorema 5.10 tenemos que det(B) = − det(A), por

tanto det(A) = − det(A), o equivalentemente, 2 det(A) = 0, concluimos que

det(A) = 0.

Lema 5.13. Sean A, B y C matrices cuyas filas son iguales excepto la fila i y talque la i−esima fila de

C es la suma de las filas i de A y B, es decir, A =

a11 · · · a1n...

. . ....

ai1 · · · ain...

. . ....

an1 · · · ann

, B =

a11 · · · a1n...

. . ....

bi1 · · · bin...

. . ....

an1 · · · ann

y C =

a11 · · · a1n...

. . ....

ai1 + bi1 · · · ain + bin...

. . ....

an1 · · · ann

, entonces det(C) = det(A) + det(B).

Demostracion. Primero notese que para j = 1, . . . , n se tiene que Cij = Aij = Bij , ya que al eliminar la fila i

de A se obtiene la misma matriz que al eliminar la fila i de B y la misma matriz al eliminar la fila i de C, por

tanto al usar expansion por cofactores en la fila i de C obtenemos

det(C) =

n∑

k=1

cik︸︷︷︸

aik+bik

(−1)i+kCik =

n∑

k=1

(aik + bik)(−1)i+kCik =

n∑

k=1

(aik(−1)i+kCik

)+(bik(−1)i+kCik

)

=n∑

k=1

aik(−1)i+k Cik︸︷︷︸

Aik

+n∑

k=1

bik(−1)i+k Cik︸︷︷︸

Bik

=n∑

k=1

aik(−1)i+kAik +n∑

k=1

bik(−1)i+kBik

= det(A) + det(B).

Este lema se puede usar para reducir ciertos calculos de determinantes como se muestra en el siguiente

ejemplo.

Ejemplo 5.6. Calcular el determinante de la matriz A =

3 2 0

−1 1 2

2 2 2

.

Solucion. Escribimos las entradas de la segunda fila como una suma de dos numeros

det(A) = det

3 2 0

−1 1 2

2 2 2

= det

3 2 0

0− 1 0 + 1 2 + 0

2 2 2

= det

3 2 0

0 0 2

2 2 2

+ det

3 2 0

−1 1 0

2 2 2

.

168

De esta forma obtenemos dos matrices ambas con una fila o una columna con 2 ceros, cuyos determinantes

calculamos usando expansion por dicha fila o columna y obtenemos:

det(A) = det

3 2 0

0 0 2

2 2 2

+ det

3 2 0

−1 1 0

2 2 2

= (−1)2+32 det

3 2

2 2

+ (−1)3+32 det

3 2

−1 1

= −2(6− 4) + 2(3− (−2)) = −4 + 10 = 14.

Finalmente a pasamos a mostrar que al sumar un multiplo de una fila a otra fila el determinante se preserva.

Teorema 5.14. Considere la matriz A =

a11 · · · a1n...

. . ....

ai1 · · · ain...

. . ....

aj1 · · · ajn...

. . ....

an1 · · · ann

y sea B =

a11 · · · a1n...

. . ....

ai1 · · · ain...

. . ....

aj1 + cai1 · · · ajn + cain...

. . ....

an1 · · · ann

la matriz

que se obtiene de A al sumar c veces la fila i a la fila j de A, entonces

det(B) = det(A).

Demostracion. Por el lema anterior tenemos que

det(B) = det

a11 · · · a1n...

. . ....

ai1 · · · ain...

. . ....

aj1 + cai1 · · · ajn + cain...

. . ....

an1 · · · ann

= det

a11 · · · a1n...

. . ....

ai1 · · · ain...

. . ....

aj1 · · · ajn...

. . ....

an1 · · · ann

︸ ︷︷ ︸

A

+det

a11 · · · a1n...

. . ....

ai1 · · · ain...

. . ....

cai1 · · · cain...

. . ....

an1 · · · ann

= det(A) + c · det

a11 · · · a1n...

. . ....

ai1 · · · ain...

. . ....

ai1 · · · ain...

. . ....

an1 · · · ann

︸ ︷︷ ︸

=0 (Lemma 5.12)

= det(A).

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 169

Obtenemos el siguiente resultado.

Corolario 5.15. Sea A una matriz n× n y sea E la matriz elemental que se obtiene de In al sumar c veces la

fila i a la fila j de I entonces det(E) = 1 y det(EA) = det(E) det(A).

Demostracion. Como E se obtiene de sumar un multiplo de una fila a otra fila, tenemos por el teorema

anterior que detE = det In = 1.

Ahora, la matriz EA se obtiene de A al multiplicar la fila i por c, Teorema 1.13, se sigue por el teorema

anterior que

det(EA) = detA = detE detA.

Resumimos los resultados de la seccion en el siguiente corolario.

Corolario 5.16. Sea A una matriz n× n y E una matriz elemental, entonces

det(EA) = det(E) det(A) y det(E) 6= 0.

Mas aun, si E1 · · · , Ek son matrices elementales, entonces

det(E1 · · ·EkA) = det(E1) · · · det(Ek) det(A).

Demostracion. El resultado se sigue por induccion y los corolarios 5.9, 5.11 y 5.15.

Los resultados de esta seccion nos permiten usar operaciones elementales para calcular el determinante de

una matriz. La regla es simple: si intercambiamos dos filas, por el Teorema 5.10, el determinante de la nueva

matriz es menos el determinante de la anterior. Si sumamos un multiplo de una fila a otra fila, por el Teorema

5.14, el determinante no cambia. En teorıa estas dos operaciones son suficientes para el calculo del determinante

usando operaciones elementales, sin embargo el Teorema 5.8 nos permite factorizar una constante c en una fila

tal como se mostro en el Ejemplo 5.5. Para una mejor ilusatracion presentamos los siguientes ejemplos.

Ejemplo 5.7. Usar operaciones elementales de fila para calcular el determinante de la matriz A =

0 3 1

0 2 3

2 2 1

.

Solucion. Para la reduccion lo primero que se harıa es intercambiar las filas 1 y 3, entonces por el Teorema

5.10 tenemos que

detA = − det

2 2 1

0 2 3

0 3 1

.

Lo siguiente para convertir la matriz en una matriz triangular superior debemos convertir el 3 en la posicion 2, 3

de la matriz en un 0. Para esto podemos sumar −3/2 de la fila 2 a la fila 3. El Teorema 5.14 nos dice que esta

170

operacion no cambia el determinante, por tanto el determinante de las matrices

2 2 1

0 2 3

0 3 1

y

2 2 1

0 2 3

0 0 −7/2

(obtenida de la anterior al aplicar la operacion de fila − 32F2 + F3 → F3) son iguales. Por tanto

detA = − det

2 2 1

0 2 3

0 3 1

= − det

2 2 1

0 2 3

0 0 −7/2

= −2 · 2 · (−7/2) = 14,

este ultimo resultado se obtiene del hecho que la matriz a la derecha es triangular superior y por tanto su

determinante es el producto de las entradas en la diagonal. Concluimos que detA = 14.

Ejemplo 5.8. En este ejemplo calculamos el determinante de la matriz A =

0 1 2

2 2 −23 3 2

de manera rapida,

solo se indica la operacion que se hace, el teorema que se usa y el consecuente resultado.

detA = det

0 1 2

2 2 −23 3 2

F1↔F2 =︸︷︷︸

Tma 5.10

− det

2 2 −20 1 2

3 3 2

− 32F1+F3↔F3 =

︸︷︷︸

Tma 5.14

− det

2 2 −20 1 2

0 0 5

= −10

Tambien se pudo haber usado el Teorema 5.8 en el segundo paso como se indica a continuacion, sin embargo

como se menciono antes, es suficiente con los Teoremas 5.10 y 5.14 en todos los casos.

detA = det

0 1 2

2 2 −23 3 2

F1↔F2 =︸︷︷︸

Tma 5.10

− det

2 2 −20 1 2

3 3 2

=︸︷︷︸

Tma 5.8

−2 det

1 1 −10 1 2

3 3 2

−3F1+F3↔F3

=︸︷︷︸

Tma 5.14

−2 det

1 1 −10 1 2

0 0 5

= −2 · 1 · 1 · 5 = −10

Problemas

5.2.1. Use operaciones elementales de fila para calcular el determinante de las siguientes matrices

A =

1 2 3

4 5 4

3 2 1

, B =

0 2 −11 3 −23 4 −3

, C =

1 2 −1 3

2 2 −2 4

3 2 −1 0

2 3 −1 2

y D =

0 2 −1 4

1 1 −1 1

2 1 −3 1

1 1 −1 2

5.2.2. Sea A una matriz de tamano 3×3 invertible, si las operaciones elementales que se aplicaron a A para

llevarla a su forma escalonada reducida son 2F1 + F3 → F3, 2F2 → F2, F2 ↔ F3 y −F3 + F1 → F1, calcule lo

siguiente

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 171

1. detA, usando las propiedades vistas en esta seccion

2. la matriz A y caclule el determinante por cofactores.

3. La inversa de A y verifique que detA = 1detA .

5.2.3. Si E ∈Mn(R) es una matriz elemental, muestre que detE = 1detE .

5.2.4. Si A =

F1

F2

F3

es una matriz con F1, F2 y F3 las filas de A y detA = 3. Calcule det

F1 + F3

F1 + F2

F2 + F3

.

5.2.5. Sea A una matriz n× n y c ∈ R. Muestre que det(cA) = cn det(A).

5.2.6. Si A es una matriz 3×3 con detA = −3 determine det( 12A) y det(−A).

5.2.7. Si A es una matriz 4×4 y se sabe que det(2A) = 4, determine det(A) y det(−A).

5.2.8. En este problema se propone demostrar que las propiedades del determinante con respecto a operaciones

de fila tambien se cumplen en operaciones columna.

Sean v1, . . . , vn, w ∈ Rn y sea A = [ v1 · · · vn ] la matriz cuyas columnas son los vectores v1, . . . , vn y λ ∈ R.

Demuestre lo siguiente:

1. det[ v1 · · · λvi · · · vn ] = λ detA.

2. si i < j entonces det[ v1 · · · vj · · · vi · · · vn ] = − detA.

3. det[ v1 · · · vi · · · vi · · · vn ] = 0.

4. det[ v1 · · · vi + w · · · vn ] = det[ v1 · · · vi · · · vn ] + det[ v1 · · · w · · · vn ].

5. si i 6= j entonces det[ v1 · · · vi · · · vjλvi · · · vn ] = detA.

6. det[ λv1 · · · λvn ] = λn detA.

(Ayuda: Use el hecho que detA = detAt.)

5.2.9. Sean A,B ∈Mn(R) con B diagonal, demuestre que det(AB) = detAdetB.

Muestre tambien que det(BA) = detB detA. (Ayuda: Use el Problema 1.2.13).

5.2.10. Si B es antisimetrica con n impar entonces detB = 0.

5.2.11. Muestre que det

1 + a b c

a 1 + b c

a b 1 + c

= 1 + a+ b+ c.

5.2.12. Sea A =

1 1 ··· 1c1 c2 ··· cn...

......

...cn−11 cn−1

2 ··· cn−1n

. Demuestre que detA =∏

i<j

(ci− cj). A la matriz A se le llama matriz de

Vandermonde.

172

5.3. Propiedades del determinante

En esta seccion se demuestran dos propiedades importantes del determinante. La primera es que el producto

de los determinantes de estas y la segunda dice que el determinante de la inversa una matriz es el inverso

multiplicativo del determinante de esta. Tambies se establece otra caracterizacion de matrices invertibles en

adicion a las establecidas en el el Corolario 1.22.

Teorema 5.17. Sean A y B matrices n× n, entonces det(AB) = detAdetB.

Demostracion. Caso 1. Si A es invertible, entonces por el Teorema 1.17 A = E1 · · ·Ek con E1, . . . , Ek matrices

elementales. Entonces del Corolario 5.16 se tiene

det(AB) = det(E1 · · ·EkB) = detE1 · · · detEk︸ ︷︷ ︸

det(E1···Ek)

det(B)

= det(E1 · · ·Ek︸ ︷︷ ︸

A

) detB = detAdetB.

Caso 2. Si A no es invertible, entonces por el Teorema 1.15 A = E1 · · ·Ek · A′ donde E1, . . . , Ek son matrices

elementales y A′ es una matriz en forma escalonada reducida. Como A no es invertible, entonces rango(A) =

rango(A′) < n y como es una matriz cuadrada se debe dar que A′ tiene al menos una fila de ceros y por tanto

A′B tiene una fila de ceros. Se sigue que det(A′B) = 0 = detA′ y usando el Corolario 5.16 tenemos

det(AB) = det(E1 · · ·EkA′B) = detE1 · · · detEk det(A

′B)︸ ︷︷ ︸

=0

= 0,

y por otro lado tenemos que

detAdetB = det(E1 · · ·EkA′)

︸ ︷︷ ︸

=detE1··· detEk detA′

detB = detE1 · · · detEk detA′

︸ ︷︷ ︸

=0

det(B) = 0.

De las dos ultimas ecuaciones tenemos que det(AB) = det(A) det(B).

En ambos casos obtenemos la formula deseada.

De los resultados obtenidos para matrices elementales obtenemos la siguiente caracterizacion de matriz in-

vertible.

Teorema 5.18. Sea A una matriz n× n, entonces A es invertible si y solo si detA 6= 0.

Demostracion. “⇒” Supongamos que A es invertible, entonces A = E1 · · ·Ek con E1, . . . , Ek son matrices

elementales, entonces por el Corolario 5.16 tenemos que detE1 6= 0, , . . . , detEk 6= 0. Usando de nuevo el

Corolario 5.16 tenemos que

detA = det(E1 · · ·Ek) = detE1︸ ︷︷ ︸

6=0

· · · detEk︸ ︷︷ ︸

6=0

6= 0.

“⇐” Supongamos que detA 6= 0 y supongamos por el absurdo que A no es invertible, entonces A = E1 · · ·Ek ·A′

donde E1, . . . , Ek son matrices elementales y A′ es una matriz en forma escalonada reducida. Como A no es

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 173

invertible, entonces rango(A) = rango(A′) < n y como es una matriz cuadrada se debe dar que A′ tiene al

menos una fila de ceros y por tanto det(A′) = 0, luego

det(A) = det(E1 · · ·EkA′)

︸ ︷︷ ︸

detE1··· detEk detA′

= det(E1) · · · detEk detA′

︸ ︷︷ ︸

=0

= 0,

pero esto contradice la hipotesis. Por tanto A es invertible.

Terminamos la seccion con el siguiente resultado que se sigue de lo anterior.

Corolario 5.19. Si A es una matriz invertible de tamano n× n entonces det(A−1) =1

detA.

Demostracion. Por el teorema anterior detA · det(A−1) = det(A ·A−1) = det(I) = 1. Se sigue que

det(A−1) =1

detA.

Problemas

5.3.1. Sea A =

2 3 2

2 2 3

5 2 1

, calcule detA, A−1 y verifique que detA−1 = 1

detA .

5.3.2. Sean A y B matrices cuadradas tal que detA = −1 y detAB = 2. Determine detB, det(B−1),

det((AB)−1

), det(A3) y det(AAt).

5.3.3. Una matriz A ∈Mn(R) se llama nilpotente si Ak = 0 para algun k ∈ Z≥0. Muestre que si A es nilpotente

entonces detA = 0.

5.3.4. Demuestre que si B es una matriz ortogonal entonces detB = ±1.

5.3.5. Demuestre que si P es una matriz proyeccion, es decir P 2 = P , entonces detP = 0 o detP = 1.

5.3.6. Demuestre que si P es una matriz proyeccion entonces P = I si y solo si detP = 1. (Ayuda: Use el

Problema 4.3.9 .)

5.3.7. Sean A,B ∈Mn(R), demuestre que det(AB) = det(BA). Si A es invertible muestre que det(ABA−1) =

detB.

5.3.8. Demuestre que si A,B ∈Mn(R) con n impar y AB = −BA entonces detA = 0 o detB = 0.

174

5.4. Matriz Adjunta

En esta seccion se define la matriz adjunta de una matriz A cuadrada. La principal motivacion para definir

esta matriz es que la podemos usar para deducir una formula de la inversa de la inversa de A cuando A es

invertible. Si A no es invertible mostraremos que el producto de A por su adjunta es la matriz nula.

Definicion 5.4. Sea A una matriz de tamano n×n, definimos la matriz adjunta de A como la matriz definida

por

Adj(A) =

C11 C12 · · · C1n

C21 C22 · · · C2n

......

. . ....

Cn1 Cn2 · · · Cnn

t

=

C11 C21 · · · Cn1

C12 C22 · · · Cn2

......

. . ....

C1n C2n · · · Cnn

,

donde Cij = (−1)i+j det(Aij) es el ij-esimo cofactor de A.

Ejemplo 5.9. Sea A =

1 2 3

1 4 7

1 6 0

, calcule la matriz adjunta de A.

Solucion. Los cofactores de A son

C11 = (−1)1+1 det

4 7

6 0

= −42 C12 = (−1)1+2 det

1 7

1 0

= 7

C13 = (−1)1+3 det

1 4

1 6

= 2 C21 = (−1)2+1 det

2 3

6 0

= 18

C22 = (−1)2+2 det

1 3

1 0

= −3 C23 = (−1)2+3 det

1 2

1 6

= −4

C31 = (−1)3+1 det

2 3

4 7

= 2 C32 = (−1)3+2 det

1 3

1 7

= −4

C33 = (−1)3+3 det

1 2

1 4

= 2.

Se sigue que la matriz adjunta esta dada por:

adj(A) =

C11 C21 C31

C12 C22 C32

C13 C23 C33

=

−42 18 2

7 −3 −42 −4 2

.

El siguiente lema es crucial para mostrar la formula de la inversa de una matriz invertible en terminos de

la adjunta de A.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 175

Lema 5.20. Sea A =

a11 · · · a1n...

. . ....

an1 · · · ann

entonces ai1Cj1 + · · · + ainCjn = 0 si 1 ≤ i 6= j ≤ n, donde Cik es el

ik-esimo cofactor de A. Es decir, la expansion por cofactores en la fila j con coeficientes en otra fila i (i 6= j)

se anula.

Demostracion. Sea B una matriz con las mismas filas de A excepto la fila j en donde se repite la fila i, es

decir B =

a11 · · · a1n...

. . ....

ai1 · · · ain...

. . ....

ai1 · · · ain...

. . ....

an1 · · · ann

. Notese que para k = 1, . . . , n se tiene que Ajk = Bjk ya que al eliminar la j-esima

fila de A se obtiene la misma matriz que al eliminar la j-esima fila de B. Ademas el determinante de B es cero

por tener dos filas iguales. Entonces tenemos que

0 = det(B) = Expansion en cofactores de la fila j de B

=n∑

k=1

bjk︸︷︷︸

aik

(−1)j+k det(Bjk︸︷︷︸

Ajk

) =n∑

k=1

aik (−1)j+k det(Ajk)︸ ︷︷ ︸

Cjk

=

n∑

k=1

aikCjk = ai1Cj1 + · · ·+ ainCjn.

A continuacion se deduce una formula para la inversa de una matriz invertible usando la adj(A).

Teorema 5.21. Sea A una matriz de tamano n× n, entonces

A · adj(A) = det(A) · I.

De esto se sigue que

1. si A es invertible entonces A−1 =1

det(A)adj(A),

2. si A no es invertible entonces A · adj(A) = 0.

Demostracion. Sea A =

a11 · · · a1n...

. . ....

an1 · · · ann

y adj(A) =

C11 · · · Cn1

.... . .

...

C1n · · · Cnn

, donde Cij es el ij-esimo cofactor

de A. Entonces llamando dij a la ij-esima entrada de la matriz A · adj(A), tenemos que

dij = ai1Cj1 + · · ·+ ainCjn =

0 si i 6= j (Lema 5.20),

det(A) si i = j (Teorema 5.3.)

176

Por tanto

A · adj(A) =

d11︸︷︷︸

=det(A)

d12︸︷︷︸

=0

· · · d1n︸︷︷︸

=0

d21︸︷︷︸

=0

d22︸︷︷︸

=det(A)

· · · d2n︸︷︷︸

=0

......

. . ....

dn1︸︷︷︸

=0

dn2︸︷︷︸

=0

· · · dnn︸︷︷︸

=det(A)

=

det(A) 0 · · · 0

0 det(A) · · · 0...

.... . .

...

0 0 · · · det(A)

= det(A) · I. (5.11)

Ahora, si A es invertible se tiene que det(A) 6= 0 y de la Ecuacion (5.11) se sigue que A · 1

det(A)adj(A) = I.

Por tanto

A−1 =1

det(A)adj(A).

En el caso en que A no es invertible, tenemos que det(A) = 0 y la Ecuacion (5.11) se convierte en A · adj(A) =0.

Ejemplo 5.10. Sea A =

1 2 3

1 4 7

1 6 0

calcule el determinante de A y la inversa de A.

Solucion. Por el ejemplo anterior sabemos que la matriz adjunta de A esta dada por:

adj(A) =

C11 C21 C31

C12 C22 C32

C13 C23 C33

=

−42 18 2

7 −3 −42 −4 2

.

El determinante de A lo calculamos por expansion por cofactores en la tercera fila, usando los cofactores C31,

C32 y C33 que se calcularon en el ejemplo anterior, tenemos que

det(A) = a31C31 + a32C32 + a33C33 = 1 · 2 + 6 · (−4) + 0 · 2 = −22

Luego, la inversa de A esta dada por

A−1 =1

det(A)adj(A) =

−122

−42 18 2

7 −3 −42 −4 2

.

Problemas

5.4.1. Calcule la adjunta de las siguientes matrices

A =

1 2 3

4 5 4

3 2 1

, B =

0 2 −11 3 −23 4 −3

, C =

1 2 −1 3

2 2 −2 4

3 2 −1 0

2 3 −1 2

y D =

0 2 −1 4

1 1 −1 1

2 1 −3 1

1 1 −1 2

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 177

Use los calculos para determinar la inversa de las que son invertibles.

5.4.2. Sea A ∈Mn(R) una matriz invertible y B = Adj(A),

1. demuestre que B−1 = 1detAA,

2. demuestre que detB = (detA)n−1,

3. Si n = 4 y detB = 8 calcule detA.

4. Determine las posibles A tal que adj(A) =

2 3 2

2 2 3

3 2 1

.

5. Demuestre que si n es impar entonces det(adj(A)) es positivo.

5.4.3. Sea A ∈ Mn(R) una matriz invertible. Demuestre que la matriz adj(A) es invertible y que adj(A)−1 =

adj(A−1).

5.4.4. Sea A ∈ Mn(R) una matriz no invertible y no nula, demuestre que adj(A) no es invertible y por tanto

det(adj(A)) = 0.

5.4.5. Sea A =

a11 · · · a1n...

. . ....

an1 · · · ann

, demuestre que la expansion por cofactores en la columna j con coeficientes

tomados de la columna i, i 6= j, se anula. Es decir a1iC1j + · · ·+ aniCnj = 0.

Use esto para demostrar que adj(A)A = det(A)I.

5.4.6. Si A es simetrica invertible entonces A−1 es simetrica. (Ayuda: Muestre que Aij = Atji.)

5.4.7. Sea A ∈Mn(R), demuestre que Col(A) ⊆ Nul(adj(A)) y Col(adj(A)) ⊆ Nul(A).

Deduzca que rango(A) + rango(adj(A)) ≤ n.

5.4.8. A ∈Mn(R) con rango(A) = n− 1, muestre que rango(adj(A)) = 1.

5.5. La Regla de Cramer

En esta seccion corta se presenta el resultado conocido como la regla de Cramer. Este metodo da una formula

para calcular la solucion a un sistema con solucion unica, cuando la solucion no es unica no se puede aplicar

este metodo. El metodo es ademas computacionalmente ineficiente, lo que lo hace poco util. Tal vez el metodo

pueda servir en el caso en que no se necesite el valor de todas la incognitas en un sistema, como es el caso en

el Problema 5.5.2. La seccion puede ser obviada y la hacemos solo por mostrar la demostracion del metodo para

los lectores que les resulte interesante.

178

Teorema 5.22. (Regla de Cramer) Sea Ax = b un sistema de ecuaciones con A una matriz n×n invertible.

Sea A = [ C1 · · · Cn ] con C1, . . . , Cn las columnas de A y para i = 1, . . . , n definimos Ai como la matriz que

se obtiene al reemplazar la i-esima columna de A por el vector b. Es decir,

A1 = [ b C2 · · · Cn ], A2 = [ C1 b · · · Cn ], . . . , An = [ C1 C2 · · · b ].

Entonces la solucion unica al sistema esta dada por

x1 =det(A1)

det(A), x2 =

det(A2)

det(A), . . . , xn =

det(An)

det(A).

Demostracion. El sistema tiene solucion unica unica x =

x1

...

xn

, esto lo garantiza el Teorema 1.12 porque A

es invertible. Entonces

b = Ax =[

C1 · · · Cn

]

x1

...

xn

= x1C1 + · · ·+ xnCn.

Ahora, para 1 ≤ i ≤ n fijo, por las propiedades del determinante enunciadas en el Problema 5.2.8 se tiene que:

det(Ai) =det[

C1 · · · b · · · Cn

]

=det[

C1 · · · x1C1 + · · ·+ xnCn · · · Cn

]

=det[

C1 · · · x1C1 · · · Cn

]

+ · · ·+ det[

C1 · · · xiCi · · · Cn

]

+ · · · · · ·+ det[

C1 · · · xnCn · · · Cn

]

=x1 det[

C1 · · · C1 · · · Cn

]

︸ ︷︷ ︸

=0 (por columna repetida)

+ · · ·+ xi det[

C1 · · · Ci · · · Cn

]

︸ ︷︷ ︸

=A

+ · · · · · ·+ xn det[

C1 · · · Cn · · · Cn

]

︸ ︷︷ ︸

=0 (por columna repetida)

=xi det(A).

Al despejar xi de esta ecuacion obtenemos xi =det(Ai)

det(A).

Ejemplo 5.11. Resolver el sistema

3x+ 2y − z = 0

−x + 3z = 0

x + z = 1

usando la regla de Cramer.

Solucion. Primero escribimos el sistema en la forma Ax = b con A =

3 2 −1−1 0 3

1 0 1

y b =

0

0

1

. Despues

necesitamos los determinantes de las matrices de A1, A2, A3 y A.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 179

det(A1) = det

0 2 −10 0 3

1 0 1

= 1det

2 −10 3

= 6

det(A2) = det

3 0 −1−1 0 3

1 1 1

= −1 det

3 −1−1 3

= −8

det(A3) = det

3 2 0

−1 0 0

1 0 1

= −2 det

−1 0

1 1

= 2

det(A) = det

3 2 −1−1 0 3

1 0 1

= −2 det

−1 3

1 1

= 8

Por tanto, por la Regrla de Cramer, la solucion al sistema esta dada por

x =det(A1)

det(A)=

6

8=

3

4y =

det(A2)

det(A)=−88

= −1 y z =det(A3)

det(A)=

2

8=

1

4.

Problemas

5.5.1. Use el metodo de Cramer para calcular la solucion al sistema Ax = b si

a. A =

2 1 0

1 2 1

0 1 2

y b =

1

2

3

b. A =

1 2 0

0 1 1

1 0 1

y b =

1

2

1

5.5.2. Determine el valor de y en la solucion al sistema

x+ y + z + 2t = 0

x+ z + t = 1

y + z + t = 0

x+ y + z + t = 0

.

5.6. Interpretacion Geometrica del Determinante

En esta seccion le daremos una interpretacion geometrica al determinante. Veremos como usarlo para calcular

volumenes de paralelepıpedos en cualquier dimension. Tambien mostraremos como el proceso de Gramm-Schmidt

puede ser util para el mismo objetivo. Comenzamos con la siguiente definicion.

180

Definicion 5.5. Si se tienen dos vectores v1, v2 ∈ R2, se define el paralelogramo determinado por v1 y v2,

como el paralelogramo con vertices en los extremos de los vectores v1, v2 y v1 + v2 y en el origen.

Similarmente, se define el paralelepıpedo determinado por los vectores v1, v2, v3 ∈ R3 como el para-

lelepıpedo con vertices en los extremos de los vectores v1, v2, v3, v1 + v2, v1 + v3, v2 + v3, v1 + v2 + v3 y en el

origen.

Paralelogramo determinadopor v1 y v2

bO

v1

v2

v1 + v2

Paralelepıpedo determinado por v1, v2 y v3

bO

v2

v1

v3

v1 + v2

v2 + v3

v1 + v3

v1 + v2 + v3

En general el n-pıpedo determinado por n vectores en Rn es el n-pıpedo con vertices en los extremos de

los 2n vectores vi1 + · · ·+vik con k entre 1 y n y el origen. Es decir, los vertices del paralelepıpedo n-dimensional

son el origen y los extremos de todos los vectores que se son sumas de k de los vectores originales, con k variando

de 1 a n.

El siguiente resultado es el mas importante de la seccion. En este se establece la relacion entre el volumen

del n-pıpedo determinado por n vectores en Rn y el determinante de la matriz que estos forman. De esta forma,

el teorema provee una interpretacion geometrica del determinante.

Teorema 5.23. Sean v1, . . . , vn ∈ Rn n vectores linealmente independientes y sea A = [ v1 . . . vn ] la matriz

cuyas columnas son los vectores v1, . . . , vn. Entonces para n ≥ 3 tenemos que

| detA| = volumen del paralelepıpedo n− dimensional determinado por los vectores v1, . . . , vn.

Las barras denotan el valor absoluto de detA.

En el caso n = 2 se tiene que | detA| = area del paralelogramo determinado por v1 y v2.

La demostracion se hara al final de la seccion.

Ejemplo 5.12. Sean v1 =

1

2

y v2 =

2

−2

. Por el teorema anterior tenemos que el area A del paralelogramo

determinado por v1 y v2 esta dada por

A =

∣∣∣∣det[

v1 v2

]∣∣∣∣=

∣∣∣∣det

1 2

2 −2

∣∣∣∣= | − 2− 4| = | − 6| = 6.

Mas especificamente el paralegramo tiene un area de 6 unidades cuadradas.

Ejemplo 5.13. Sean v1 =

0

2

3

, v2 =

2

1

0

y v3 =

0

2

2

, calcular el volumen del paralelepıpedo determinado por

estos vectores.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 181

Solucion. Sea V el volumen de este paralelepıpedo, de acuerdo al Teorema 5.23 tenemos que

V = | det[

v1 v2 v3

]

| =

∣∣∣∣∣∣∣∣∣

0 2 0

2 1 2

3 0 2

∣∣∣∣∣∣∣∣∣

=

∣∣∣∣∣∣

−2

2 2

3 2

∣∣∣∣∣∣

= | − 2(4− 6)| = 4.

En este caso el resultado es 4 unidades cubicas.

En general, si tenemos k vectores v1, . . . , vk linealmente independientes en Rn, el paralelepıpedo determinado

por estos vectores, es un paralelepıpedo k dimensional en Rn. El siguiente resultado nos da una formula para

calcular el volumen de este paralelepıpedo.

Teorema 5.24. Sean v1, . . . , vk vectores linealmente independientes en Rn y sea A = [ v1 · · · vk ] la matriz for-

mada por estos vectores. El volumen V del paralelepıpedo k dimensional determinado por los vectores v1, . . . , vk

esta dado por

V = ||w1|| · · · ||wk|| = (q1 · v1) · · · (qk · vk),

donde w1, . . . , wk son los vectores ortogonales que se obtienen al aplicar el proceso Gramm-Schmidt a los vectores

v1, . . . , vk y q1, . . . , qk son los correspondientes vectores ortonormales obtenidos de normalizar los w′is.

Demostracion. Procedemos de manera inductiva. Si k = 2 tenemos que w1 = v1 y w2 es perpendicular a v1

y, de acuerdo al proceso Gramm-Schmidt, w2 = v2 − proyv1v2 es perpendicular a v1. Mas aun, como proy

v1v2

es el multiplo de v1 mas cercano a v2 tenemos que w2 es la altura del paraleogramo formado por v1 y v2:

v1 = w1

v2w2

||w2||

Se sigue que el area del paralelogramo determinado por v1 y v2 = base︸︷︷︸

=||w1||

× altura︸ ︷︷ ︸

=||w2||

= ||w1|| ||w2||.

Si k = 3, tenemos que w3 = v3 − proygen{v1,v2}v3 es perpendicular al plano generado por v1 y v2 y ademas

la magnitud de este vector es la altura del paralelepıpedo formado por v1, v2 y v3. Esto ya que el vector

proygen{v1,v2}v3 es el vector en el subespacio gen{v1, v2} mas cercano a v3. Notese ademas que la base de este

paralelepıpedo es el paralelogramo formado por los vectores v1 y v2 y por el caso anterior tenemos que el area

de la base es ||w1|| ||w2||.

bO

v2

v1

v3w3

||w3||

182

Entonces tenemos que el volumen V de este paralelepıpedo determinado por v1, v2 y v3 esta dado por

V = area de la base︸ ︷︷ ︸

=||w1|| ||w2||

× altura︸ ︷︷ ︸

=||w3||

= ||w1|| ||w2|| ||w3||.

En el caso general se observa que wk es la altura del paralelepıpedo (k − 1)-dimensional determinado por los

vectores v1, . . . , vk−1, con volumen ||w1|| · · · ||wk−1|| y por tanto el volumen V del paralelepıpedo formado por

los k vectores esta dado por

V = area de la base × altura = ||w1|| · · · ||wk−1|| ||wk||.

Para terminar la demostracion veamos que para cada i = 1, . . . k se tiene que ||wk|| = qi · vi. Para esto es

suficiente notar que el angulo θ formado por wi y vi es el mismo angulo entre qi y vi. Esto ya que qi1

||wi||wi es

multiplo de wi.

bO

viwi

qi θ

El triangulo en esta figura es un triangulo rectangulo, entonces se tiene ademas que cosθ = adyacentehipotenusa = ||wi||

||vi|| .

Por tanto

qi · vi = ||qi||︸︷︷︸

=1

||vi||cosθ = ||vi||cosθ = ||vi||||wi||||vi||

= ||wi||.

Concluimos que el volumen V del paralelepıpedo formado por los vectores v1, . . . , vk esta dado por

V = ||w1|| · · · ||wk|| = (q1 · v1) · · · (qk · vk).

Observacion 5.2. Si v1, . . . , vk son vectores linealmente independientes en Rn, A = [ v1 · · · vk ] y A = QR

es la descomposicion QR de la matriz entonces el volumen V del paralelepıpedo determinado por los vectores

v1, . . . , vk esta dado V = | detR|.

Esto se sigue del hecho que R =

q1 · v1 · · · q1 · vk...

. . ....

0 · · · qk · vk

.

Ejemplo 5.14. Determine el volumen V del paralelepıpedo en R4 determinado por los vectores v1 = (1, 1, 0, 0)

v2 = (0, 1, 1, 0) y v3 = (1, 0, 0, 1).

Solucion. En el Ejemplo 4.33 calculamos que los vectores q1, q2 y q3 estan dados por

q1 =

1√2

1√2

0

0

, q2 =

− 1√6

1√6

2√6

0

y q3 =

1√12

− 1√12

1√12

3√12

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 183

Se calculo ademas que q1 · v1 = 2√2, q2 · v2 = 3√

6y q3 · v3 = 4√

12. Por tanto el volumen V esta dado por

V = (q1 · v1)(q2 · v2)(q3 · v3) =2√2

3√6

4√12

= 2.

Es decir, paralelepıpedo tiene un volumen de dos unidades cubicas.

Ejemplo 5.15. Sean v1 =

−23

3

y v2 =

1

4

4

vectores en R3, determine el area del paralelogramo en R

3

determinado por estos vectores.

Solucion. Necesitamos calcular los vectores ortonormales q1 y q2 que se obtienen al aplicar el proceso Gramm-

Schmidt a los vectores v1 y v2.

Primero hacemos w1 = v1 y w2 = v2 − proyv2v1 = v2 − v2·v1

v1·v1v1 =

1

4

4

− 22

22

−23

3

=

3

1

1

.

Normalizando los vectores w1 y w2 obtenemos q1 = 1√22

−23

3

y q2 = 1√11

3

1

1

.

Tenemos que el area A del paralelogramo es

A = (q1 · v1)(q2 · v2) =1√22

221√11

10 = 10√2 ≈ 14,1.

Observacion 5.3. La Proposicion 5.24 tambien se puede usar para calcular areas de triangulos en Rn como

se describe a continuacion. Si A, B y C tres puntos no colineales en Rn, definimos v1 como el vector cuyas

coordenadas son las entradas del punto A − C y v2 el vector el vector cuyas coordenadas son las entradas del

punto B − C. Es decir, si A = (a1, . . . , an), B = (b1, . . . , bn) y C = (c1, . . . , cn) entonces v1 =

a1 − c1...

an − cn

y

v2 =

b1 − c1...

bn − cn

. Para el area del triangulo simplemente notamos que

area del triangulo ABC =1

2area del paralelogramo determinado por v1 y v2.

bO

bA

bCbB

v1

v2

184

Ejemplo 5.16. Sean A = (−1, 2, 3), B = (2, 3, 4) y C = (1,−1, 0) en R3, calcular el area del triangulo ABC.

Solucion: El vector v1 tiene por coordendas las entradas del punto A menos las entradas del punto C y el

vector v2 tiene por coordendas las entradas del punto B menos las entradas del punto C. Es decir, v1 =

−23

3

y v2 =

1

4

4

.

En el Ejemplo 5.15 se calculo que el area del paralelogramo determinado por estos dos vectores es 10√2

unidades cuadradas, por tanto:

area del triangulo ABC =1

2area del paralelogramo determinado por v1 y v2 =

1

210√2 = 5

√2 ≈ 7,0,7

Similarmente se puede calcular el volumen de una piramide en Rn dados 4 puntos no co-planares. Ver

Problema 5.6.5.

Finalizamos la seccion con la demostracion del Teorema 5.23.

Demostracion del Teorema 5.23. Sea A = [ v1 · · · vn ] y sean Q y R tal que A = QR es la descomposicion

QR de la matriz. Entonces Q es ortogonal cuadrada y por tanto Qt = Q−1 o equivalentemente QtQ = I. Se

sigue que

1 = det I = detQtQ = detQt detQ = detQ detQ = (detQ)2.

Se deduce que detQ = ±1, luego | detQ| = 1. Por la Observacion 5.2 tenemos que el volumen V del parale-

lepıpedo n dimensional determinado por los vectores v1, . . . , vn esta dado por V = | detR|. Tenemos entonces

que

| detA| = | detQ detR| = | detQ|︸ ︷︷ ︸

=1

| detR| = | detR| = V.

Concluimos que dicho volumen esta dado por V = | detA| = | det[ v1 · · · vn ]|.

Ejemplo 5.17. (Matlab) Sean v1 =

1

2

3

0

, v2 =

2

1

0

2

, v3 =

−1−1−22

y v4 =

0

2

2

0

, calcular el volumen del

paralelepıpedo 4-dimensional formado por estos vectores.

Solucion. Para calcular el volumen necesitamos calcular el determinante de la matriz A =[

v1 v2 v3 v4

]

el cual calculamos usando Matlab

>> A = [1, 2,−1, 0; 2, 1,−1, 2; 3, 0,−2, 2; 0, 2, 2, 0]; det(A)el resultado que se obtiene en este caso es que detA = −12. Por tanto el volumen V del paralelepıpedo es

V = | − 12| = 12.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 185

Problemas

5.6.1. Calcule el area del paralelogramo determinado por el par de vectores dados

a. v1 =

3

2

y v2 =

1

4

. b. v1 =

1

1

y v2 =

−41

.

5.6.2. Calcule el volumen del paralelepıpedo determinado por los vectores dados

a. v1 =

3

1

1

, v2 =

1

3

1

y v3 =

1

1

3

. b. v1 =

1

1

1

, v2 =

2

1

0

y v3 =

−41

−1

.

5.6.3. Considere los vectores v1, v2, v3, v4 y v5 en R5 con coordenadas (1,−4, 2, 2, 3), (1, 1, 1, 1, 2), (1, 0, 0, 4, 1),

(1, 3, 1, 5, 0) y (1, 0, 0,−1, 2), respectivamente. Calcule lo siguiente:

1. el volumen del paralelepıpedo 5-dimensional determinado por v1, v2, v3, v4 y v5,

2. el volumen del paralelepıpedo 4-dimensional determinado por los vectores v1, v2, v3 y v4,

3. el volumen del paralelepıpedo 3-dimensional determinado por los vectores v1, v2 y v3,

4. el area del paralelogramos determinado por los vectores v1 y v2

5.6.4. Determine el area del triangulo determinado por los puntos:

1. A : (1, 0, 1), B : (1, 3, 1) y C : (1, 2, 3) en R3.

2. A : (1, 0, 0, 1), B : (1, 3, 1, 0) y C : (1, 0, 0,−1) en R4.

3. A : (1, 0, 0, 4, 1), B : (1, 3, 1, 5, 0) y C : (1, 0, 0,−1, 2) en R5.

5.6.5. Sean A = (2, 1, 3, 4, 1, 0), B = (1, 1, 1, 1, 0, 1), C = (3, 5, 0, 0, 1, 1) D = (1, 2, 3, 4, 5, 6). Calcule el volumen

de la piramide en R6 con vertices en los puntos A,B,C,D. Ayuda: Defina los vectores v1, v2 y v3 con coordenadas

A−D, B−D y C−D, respectivamente. Calcule al volumen del paralelepıpedo determinado por estos tres vectores

y note que el volumen de la piramide es 1/6 del volumen del paralelepıpedo.

5.6.6. Sean A : (α1, . . . , αn), B : (β1, . . . , βn) y C : (γ1, . . . , γn) tres puntos en Rn y sean v1 y v2 los vectores

con coordenadas (α1 − γ1, . . . , αn − γn) y (β1 − γ1, . . . , β1 − γn), respectivamente. Demuestre que los puntos A,

B y C son colineales si y solo si det[ v1 v2 ] = 0. (Un conjunto de puntos es colineal si existe una lınea que los

contiene.)

5.6.7. Sean A : (α1, . . . , αn), B : (β1, . . . , βn), C : (γ1, . . . , γn) y D : (δ1, . . . , δn) cuatro puntos en Rn y sean

v1, v2 y v3 los vectores con coordenadas (α1 − δ1, . . . , αn − δn), (β1 − δ1, . . . , β1 − δn) y (γ1 − δ1, . . . , γn − δn),

respectivamente. Demuestre que los puntos A, B, C y D son coplanares si y solo si det[ v1 v2 v3 ] = 0. (Un

conjunto de puntos es coplanar si existe un plano que los contiene.)

186

Capıtulo 6

Valores y Vectores Propios

En este capıtulo estudiaremos los valores y vectores propios de una matriz. Este topico es uno de los mas

importantes en el algebra lineal y tal vez el que tiene mas aplicaciones conocidas dentro de las matematicas y a

otras areas. El objetivo principal es estudiar la diagonalizacion de matrices y los criterios para que una matriz

sea diagonalizable. Dado que los valores propios de una matriz son las raıces del polinomio caracterıstico, todas

las matrices en este capıtulo se tomaran con entradas en C, el conjunto de los numeros complejos, debido a que

a cada matriz le asociaremos un polinomio, cuyas raıces juegan un papel importante en la teorıa y necesitamos

garantizar que el polinomio de grado n tiene exactamente n raıces contando multiplicidades.

6.1. Polinomio Caracterıstico

En esta seccion se introducen los conceptos de polinomio caracterıstico, valores propios, vectores propios y

subespacios propios de una matriz. Tambien se definen las multiplicidades algebraica y geometrica de un valor

propio. Veremos que los valores propios son las raıces del polinomio caracterıstico y demostraresmos algunas

propiedades de de los valores propios y vectores propios. Comenzamos con el siguiente lema del cual se sigue la

definicion de polinomio caracterıstico.

Lema 6.1. Sea A ∈Mn(C) e I la matriz identidad, entonces det(A− xI) es un polinomio en x de grado n. El

coeficiente del monomio xn en este polinomio es (−1)n.

Demostracion. Procedemos por induccion sobre n siendo el caso n = 1 inmediato.

Para k < n y toda B ∈Mk(C), supongamos que det(B − xI) es un polinomio de grado k y que (−1)k es el

coeficiente de xk.

Sean aij (i, j = 1, . . . , n) las entradas de A y sea C = A − xI. Aplicando cofactores en la primera fila de

A− xI tenemos que

det(A− xI) = detC = (a11 − x) detC11 + · · ·+ (−1)1+na1n detC1n, (6.1)

187

188

donde C1i (i = 1, . . . , n) es la matriz que se obtiene despues de eliminar la fila 1 y la columna i de C.

Es facil ver que C11 = A11 − xI, donde A11 es la matriz que se obtiene despues de eliminar la fila 1 y la

columna 1 de A. Se sigue por induccion que detC11 = (−1)n−1xn−1+ terminos de grado menor a n− 1.

Por otra parte, aplicando cofactores en la fila i de C1i, para i = 2, . . . , n, se tiene que detC1i = (−1)n−2xn−2+

terminos de grado menor a n− 2. Por tanto, de (6.1) tenemos que

det(A− xI) = (a11 − x)((−1)n−1xn−1 + terminos de grado menor a n− 1

)

+ otros terminos de grado menor a n− 2

= (−1)nxn + terminos de grado menor a n.

.

Definicion 6.1. Sea A ∈Mn(C) una matriz, al polinomio det(A−xI) se le llama el polinomio caraterıstico de

A y este sera denotado por pA(x).

Ejemplo 6.1. El polinomio caraterıstico de la matriz A =

1 1

2 0

es el polinomio:

pA(x) = det(A− xI) = det

1− x 1

2 −x

= (1− x)(−x)− 2 = x2 − x− 2.

La razon por la cual en esta seccion estamos considerando matrices con entradas en los complejos, es con el

fin de poder usar el Teorema fundamental de algebra, el cual dice que todo polinomio de grado n con coeficientes

en los complejos, tiene exactamente n raıces contando multiplicidades. Por lo tanto para toda matriz compleja,

su polinomio caraterıstico tiene n raıces. Estas raıces juegan un papel importante en la matriz A, ya que estas

coinciden con los valores propios de A. Esto lo mostraremos en el siguiente lema, despues de definir valor propio

de una matriz.

Definicion 6.2. Sea A ∈Mn(C), decimos que λ ∈ C es un valor propio de A si existe un vector v 6= 0 tal que

Av = λv. En este caso decimos tambien que v es un vector propio de valor propio λ.

Lema 6.2. Sea A ∈Mn(C), tenemos las siguientes caracterizaciones de valor propio para A.

λ ∈ C es un valor propio de A si y solo si Nul(A− λI) 6= 0 si y solo si λ es una raız de pA(x).

Demostracion. Esto lo podemos ver por equivalencias como sigue.

λ es un valor propio de A si y solo si existe v 6= 0 tal que Av = λv

si y solo si existe v 6= 0 tal que (A− λI)v = 0

si y solo si existe v 6= 0 tal que v ∈ Nul(A− λI)

si y solo si A− λI no es invertible (Por el Corolario 1.22)

si y solo si 0 = det(A− λI) = pA(λ) (Por el Teorema 1.22)

si y solo si λ es un raız de pA(x).

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 189

Sea A ∈ Mn(C), si λ es un valor propio de A, los vectores propios de valor propio λ forman un subespacio

de Cn. Ademas este espacio coincide con Nul(A− λI).

Lema 6.3. Sea λ ∈ C, tenemos lo siguiente

1. el conjunto E(λ) = {v ∈ Cn | Av = λv} es un subespacio de C

n.

2. E(λ) = Nul(A− λI) y se tiene ademas que E(λ) 6= {0} si y solo si λ es un valor propio.

Demostracion. Le demostracion de este hecho es facil y lo dejamos como ejercicio.

Definicion 6.3. Si λ ∈ C es un valor propio, al subespacio E(λ) = Nul(A − λI) lo llamaremos el subespacio

propio de valor propio λ.

Del Lema 6.2 se deduce el siguiente procedimiento para calcular los valores y vectores propios de una matriz.

Procedimiento 6.1. (Procedimiento para calcular los valores y vectores propios)

1. Se calcula el polinomio caracterıstico pA(x) = det(A− xI),

2. Se resuelve la ecuacion pA(x) = 0, cuyas raıces corresponden a los valores propios.

3. Para cada valor propio λ encontrado en en el paso anterior, se calcula una base para Nul(A−λI). Los vectores

en dicha base son vectores propios de valor propio λ.

Ejemplo 6.2. Sea A =

−3 5

−2 4

, calcular los valores y vectores propios de A y determine los subespacios

propios.

Solucion. El polinomio caracteristico de A, esta dado por

pA(x) = det(A− xI) = det

−3− x 5

−2 4− x

= x2 − x− 2 = (x− 2)(x+ 1).

Despues se resuelve la ecuacion pA(x) = (x − 2)(x + 1) = 0, cuyas soluciones son x = 2 y x = −1. Tenemos

por tanto para A dos valores propios: λ1 = 2 y λ2 = −1.Ahora se calulan bases para Nul(A− λiI) con i = 2 e i = −1.

Para λ1 = 2 tenemos que Nul(A − 2I) = Nul

−5 5

−2 2

, cuya forma escalonada reducida esta dada por

1 −10 0

. De esto se sigue que

x

y

∈ Nul(A− 2I) si y solo si x = y si y solo si

x

y

=

y

y

= y

1

1

.]

190

Concluimos que v1 =

1

1

es un vector propio de valor propio λ1 = 2.

Ahora calculamos Nul(A − λ2I) con λ2 = −1. Es decir, Nul(A + I) = Nul

−2 5

−2 5

. La forma escalonada

reducida de esta matriz esta dada por

1 −5/20 0

. Por tanto tenemos que

x

y

∈ Nul(A+ I) si y solo si x =5

2y si y solo si

x

y

=

52y

y

= y

52

1

.

Se sigue que v2 =

52

1

es un vector propio de valor propio λ2 = −1.

En conclusion la matriz tiene valores propios λ1 = 2 y λ2 = −1 y los correspondientes subespacios propios

son E(2) = gen

v1 =

1

1

y E(−1) = gen

v2 =

52

1

.

Observacion 6.1. Es importante notar que los subespacios propios son subespacios invariantes bajo una trans-

formacion lineal. En el ejemplo anterior si consideramos la transformacion T definida por T (v) = Av, entonces

los subespacios E(2) y E(−1) son invariantes bajo T

bO

v1

+

bO

+

+

+ + +

+

+

+

+

T (E(2))

T (E(−1))

E(2)

v2

+

+

+

+

+ + ++++

+

b

+++

E(−1)

T

T (v2)

T (v1)

Los vectores en la lınea E(−1) son enviados por T a la misma lınea. Mas especificamente, para v ∈ E(−1),

T (v) = Av = −v, esto por ser un vector de valor propio −1. Similarmente, vectores en la lınea E(2) son

enviados por T a la misma lınea y en este caso para v ∈ E(2) se tiene que T (v) = Av = 2v por ser un vector de

valor propio 2. Tambien se sigue del Lema 6.2 que las lıneas E(−1) y E(2) son las unicas lıneas invariantes bajo

multiplicacion por la matriz A.

El hecho de que en general los subespacios propios E(λ) son invariantes bajo multiplicacion por la matriz A es

facil de ver. De hecho si v ∈ E(λ) entonces Av = λv, y como E(λ) es un subespacio, se sigue que Av = λv ∈ E(λ).

Por tanto A(E(λ)) ⊆ E(λ).

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 191

En el ejemplo anterior tambien se puede verificar que los vectores propios encontrados son linealmente

independientes. Esto no es una casualidad, de hecho vectores propios correspondientes a valores propios distintos

son linealmente independientes.

Teorema 6.4. Sea A ∈Mn(C) y sean v1, . . . , vk vectores propios con valores propios λ1, . . . , λk, respectivamen-

te. Si los λi son diferentes entre sı entonces los vectores v1, . . . , vk son linealmente independientes.

Demostracion. Procedemos por induccion sobre k.

Si k = 2 vamos a demostrar que v1 y v2 son LI. Para esto supongamos que existen escalares α1 y α2 tal que

α1v1 + α2v2 = 0 (6.2)

multiplicando por A ambos lados obtenemos α1 Av1︸︷︷︸

λ1v1

+α2 Av2︸︷︷︸

λ2v2

= 0, equivalentemente

α1λ1v1 + α2λ2v2 = 0. (6.3)

Ahora, multiplicando la Ecuacion (6.2) por λ1 obtenemos

α1λ1v1 + α2λ1v2 = 0. (6.4)

Restando la Ecuacion (6.4) de la Ecuacion (6.3) tenemos que α2(λ1 − λ2)v2 = 0. Pero como λ1 6= λ2, es decir,

λ1 − λ2 6= 0 y v2 6= 0 entonces se debe dar que α2 = 0. Reemplazando este valor en la Ecuacion (6.2) tenemos

que α1v1 = 0 y como v1 6= 0 se debe dar que α1 = 0. Por tanto v1 y v2 son linealmente independientes.

Ahora supongamos por induccion, que k − 1 vectores propios correspondientes a k − 1 valores propios distintos

son LI y mostremos que v1, . . . , vk son LI. Para esto supongamos que

α1v1 + · · ·+ αkvk = 0, (6.5)

multiplicando por A ambos lados tenemos que α1 Av1︸︷︷︸

λ1v1

+ · · ·+ αk Avk︸︷︷︸

λkvk

= 0 o equivalentemente

α1λ1v1 + · · ·+ αkλkvk = 0. (6.6)

Ahora, multiplicando a ambos lados de la Ecuacion (6.5) por λk tenemos

α1λkv1 + · · ·+ αkλkvk = 0. (6.7)

Restando la Ecuacion (6.7) de la Ecuacion (6.6)obtenemos

α1(λ1 − λk)v1 + · · ·+ αk−1(λk−1 − λk)vk−1 = 0.

Por hipotesis los vectores v1, . . . , vk−1 son k − 1 vectores propios correspondientes a distintos valores propios y

por tanto son LI. Se sigue entonces que

α1(λ1 − λk︸ ︷︷ ︸

6=0

) = · · · = αk−1(λk−1 − λk︸ ︷︷ ︸

6=0

) = 0

192

como λ1 − λk 6= 0, · · · , λk−1 − λk 6= 0 se debe dar que α1 = · · · = αk−1 = 0. Reemplazando estos valores en la

Ecuacion (6.5) obtenemos αkvk = 0 y como vk 6= 0 se sigue que αk = 0. Concluimos que los vectores v1, . . . , vk

son LI.

Ejemplo 6.3. (MatLab) Calcule los valores y vectores propios de la matriz A =

5 6 9

−3 −4 −90 0 2

.

Solucion. Calculamos el polinomio caracterıstico con MatLab como sigue

>> A = [5 6 9;−3 − 4 − 9; 0 0 2]; p = poly(sym(A))

p =

x3 − 3 ∗ x2 + 4

para calcular los valores propios podemos factorizar p, lo cual podemos hacer con MatLab como sigue

>> factor(p)

ans =

(x+ 1) ∗ (x− 2)2

De donde tenemos que los valores propios son λ1 = −1 de multiplicidad 1 y λ2 = 2 de multiplicidad 2.

Ahora para cada valor propio calculamos los vectores propios como sigue:

Para λ = −1

>> null(A+ eye(3),′ r′)

ans =

−11

0

Por tanto el vector v1 =

−11

0

es un vector propio de valor propio λ = −1.

Para λ = 2

>> null(A− 2 ∗ eye(3),′ r′)

ans =

−2 −31 0

0 1

Luego los vectores v2 =

−21

0

y v3 =

−30

1

son vectores propios de valor propio λ = 2.

En este caso obtenemos que E(−1) = gen{v1} y E(2) = gen{v2, v3}. El subespacio propio E(−1) es un

subespacio de dimension 1 y E(2) es de dimension 2.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 193

El ejemplo anterior exhibe un caso en el que, para un valor propio λ, dimE(λ) es diferente de 1. En general

este espacio puede tener cualquier dimension entre 1 y n. Los valores propios, por ser raıces del polinomio

caracterıstico tambien tienen una multiplicidad algebraica. Como en el caso anterior la multiplidad algebraica

de λ = 2 es 2, ya que (x− 2)2 es factor de pA(x). Por tanto a un valor propio λ le podemos asociar dos enteros

positivos: la multiplicidad algebraica como raız del polinomio caracterıstico y la dimension del subespacio E(λ).

Esto motiva la siguiente definicion.

Definicion 6.4. Sea A una matriz de tamano n×n y sean λ1, . . . λk los valores propios de A,

1. Decimos que la multiplicidad algebraica de λi, es k si (λi − x)k es la maxima potencia de λi − x que divide a

pA(λ). La multiplicidad algebraica de un valor propio λ sera denotada por a(λ).

2. La multiplicidad geometrica de λi esta dada por dimEλi. La multiplicidad geometrica de un valor propio λ

sera denotada por g(λ).

Ejemplo 6.4. En el ejemplo anterior tenemos que a(−1) = 1 = g(2) y a(2) = 2 = g(2).

Ejemplo 6.5. En el Ejemplo 6.2 tenemos que a(−1) = g(−1) = 1 y a(2) = g(2) = 1.

Ejemplo 6.6. (MatLab) Calcular los valores y vectores propios de la matriz A =

3 −1 0 0

−1 3 0 0

7 −1 −4 0

7 −1 0 −4

.

Solucion. En MatLab podemos usar un comando diferente al usado en el Ejemplo 6.3 que nos permite calcular

todos los valores y vectores propios con una sola instruccion como sigue.

>> A = [3 − 1 0 0;−1 3 0 0; 7 − 1 − 4 0; 7 − 1 0 − 4]; [V,D] = eig(A)

V =

0 0 1/2 1/2

0 0 −1/2 1/2

1 0 1/2 1/2

0 1 1/2 1/2

D =

−4 0 0 0

0 −4 0 0

0 0 4 0

0 0 0 2

Con este comando los vectores propios son las columnas de la matriz V y los correpondientes valores propios

en la matriz D. Tenemos entonces que A tiene vectores propios v1 =

0

0

1

0

y v2 =

0

0

0

1

ambos de valor propio

194

λ = −4, v3 =

1/2

−1/21/2

1/2

de valor propio λ = 4 y v4 =

1/2

1/2

1/2

1/2

de valor propio λ = 2. Notese que en este ejemplo

se tiene que cada valor propio tiene multiplicidad geometrica y algebraica iguales. En realidad este comando nos

da mas informacion acerca de la matriz, ver Ejemplo 6.24.

Hasta ahora solo hemos visto ejemplos donde la multiplicidad geometrica y algebraica de cada valor propio

son iguales, pero esto no siempre se cumple. De hecho es posible que la multiplicidad geometrica sea estrictamente

menor que la multiplicidad algebraica, a continuacion damos ejemplos donde se da esto.

Ejemplo 6.7. (MatLab) Calcular los valores propios y sus multiplicidades algebraica y geometrica de la matriz

A =

−3 −2 1

1 −6 1

1 −2 −3

.

Solucion. Primero calculamos el polinomio caracterıstico del A.

>> A = [−3 − 2 1; 1 − 6 1; 1 − 2 − 3]; factor(poly(sym(A)))

ans =

(4 + x)3

Es decir que pA(x) = (4+ x)3 y se sigue que λ = −4 es el unico valor propio con multiplicidad algebraica 3.

Ahora, necesitamos el subespacio propio para calcular la multiplicidad geometrica.

>> null(A− 3 ∗ eye(3),′ r′)ans =

2 −11 0

0 1

Esto indica que E(−4) = gen

2

1

0

,

−10

1

y se sigue que g(−4) = 2 < 3 = a(−4).

Ejemplo 6.8. (MatLab) Calcular los valores propios y sus multiplicidades algebraica y geometrica de la matriz

A =

−4 −1 1

0 −5 1

−1 0 −3

.

Solucion. Calculamos el polinomio caracterıstico

>> A = [−4 − 1 1; 0 − 5 1;−1 0 − 3]; factor(poly(sym(A)))

ans =

(4 + x)3

Nuevamente obtenemos que λ = −4 es el unico valor propio con multiplicidad algebraica 3, ahora necesitamos

el subespacio propio para calcular la multiplicidad geometrica.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 195

>> null(A− 3 ∗ eye(3),′ r′)ans =

1

1

1

Por tanto E(−4) = gen

1

1

1

. En este caso obtenemos que g(−4) = 1 < 3 = a(−4).

Como los valores propios son las raıces de el polinomio caracterıstico, y sabemos que existen polinomios con

coeficientes reales (incluso enteros) y raıces complejas, entonces tambien existen matrices con entradas reales

(enteras) y valores propios complejos. A continuacion exhibimos un ejemplo.

Ejemplo 6.9. (MatLab) Calcular los valores y vectores propios de la matriz A =

−1 −2 2

−2 −1 2

−4 −1 3

.

Solucion. Usamos MatLab para calcular los valores propios

>> A = [−1 − 2 2;−2 − 1 2;−4 − 1 3]; p = poly(sym(A))

x3 − x2 + x− 1

Depues lo factorizamos:

factor(p)

ans =

(x− 1) ∗ (x2 + 1)

De aqui deducimos que los valores propios son λ1 = 1, λ2 = i y λ3 = −i. Ahora calculamos los vectores

propios:

>> v1 = null(c− eye(3),′ r′)

v1 =

1/3

2/3

1

>> v2 = null(c− i ∗ eye(3),′ r′)v2 =

3/5− 1/5i

3/5− 1/5i

1

>> v2 = null(c+ i ∗ eye(3),′ r′)v3 =

3/5 + 1/5i

3/5 + 1/5i

1

196

Por tanto los vectores propios son v1 =

1/3

2/3

1

, v2 =

3/5− 1/5i

3/5− 1/5i

1

y v3 =

3/5 + 1/5i

3/5 + 1/5i

1

de valores propios

λ1 = 1, λ2 = i y λ3 = −i, respectivamente.

Problemas

6.1.1. Encuentre los valores, vectores y subespacios propios de la matriz. Determine tambien las multiplicidades

geometricas y algebraicas de cada valor propio.

a. A =

−2 −2−5 1

, b. B =

2 −15 −2

, c. C =

−3 2

0 −3

,

d. D =

5 4 2

4 5 2

2 2 2

e. E =

0 1 0

0 0 1

1 −3 3

f. F =

−1 −2 1

1 −4 1

1 −2 −1

,

g. G =

4 −3 0

6 −6 1

10 −9 1

, h. H =

5 −3 1

7 −7 1

10 −11 2

, i. J =

0 0 0 1

1 0 0 0

0 1 0 0

0 0 1 0

.

6.1.2. Sea A ∈M3(C) con dos valores propios distintos λ1 y λ2. cuales son los posibles polinomios caracteristicos

de A.

Repita si A ∈M4(C).

6.1.3. Sean λ1, λ2, . . . , λk todos los diferentes valores propios de A ∈ Mn(C) con multiplicidades algebraicas

a(λ1), . . . , a(λk), respectivamente. Demuestre que lo siguiente.

1. El vector v es un vector propio de A de valor propio λ si y solo v es un vector propio de αA valor propio αλ.

2. Para α 6= 0, todos los diferentes valores propios de la matriz αA son αλ1, αλ2, . . . , αλk. Deduzca que a(λi) es

la multiplicidad algebraica de αλi como valor propio de αA , para i = 1, . . . , k.

3. El vector v es un vector propio de A de valor propio λ si y solo v es un vector propio de A − αI valor propio

λ− α.

4. Demuestre que todos los diferentes valores propios de A− αI son λ1 − α, λ2 − α, . . . , λk − α. Deduzca que, para

i = 1, . . . , k, la multiplicidad algebraica de λi − α como valor propio de A− αI es a(λi).

5. El vector v es un valor propio de A de valor propio λ si y solo si v es un vector Am con valor propio λm.

6. Demuestre que λm1 , λm

2 , . . . , λmk son todos los diferentes valores propios de Am. Deduzca que la multiplicidad

algebraica de λmi como valor propio de Am es a(λi), para i = 1, . . . , k.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 197

7. Sea v es un vector propio de A con valor propio λ, f(x) = a0 + a1x+ · · ·+ akxk un polinomio y f(A) la matriz

definida por f(A) = a0I + a1A+ · · ·+ akAk, entonces v es un vector propio de f(A) con valor propio de f(λ).

Deduzca que f(λ1), f(λ2), . . . , f(λk) son valores propios de f(A).

8. Verifique lo anterior si A =

−2 −2−5 1

y f(x) = 1− 2x+ 3x3.

6.1.4. Encuentre los valores y vectores propios de la matrices A =

a −a2

1 0

y B =

a a2

1 0

.

6.1.5. Sea A una matriz simetrica 2×2 con entradas reales. Demuestre que los valores propios de A son reales.

6.1.6. Demuestre que si A =

B C

0 D

entonces pA(x) = pB(x)pD(x).

6.1.7. Demuestre el Lema 6.3.

6.1.8. Demuestre que si A es invertible y v es un vector propio de A entonces v es un vector propio de A−1de

valor propio 1/λ.

6.1.9. Demuestre que si A ∈Mn(R) y v ∈ E(λ) entonces v ∈ E(λ).

6.1.10. Demuestre que A es invertible si y solo si λ = 0 no es un valor propio de A si y solo si pA(0) 6= 0.

6.1.11. Si P es una matriz proyeccion, es decir, si P 2 = P y P 6= I entonces detP = 0. (Recuerde que P visto

como aplicacion lineal satisface que ImP = ColP = {v | Pv = v} y KerP = (ImP )⊥)

6.1.12. Demuestre que si A es nilpotente, es decir, si Ak = 0 para algun k > 0, entonces λ = 0 es el unico

valor propio de A.

6.1.13. Demuestre que si A2 = I entonces los valores propios de A son λ = 1 o λ = −1.

6.1.14. Si λ1, . . . , λk son todos los valores propios de A entonces 1λ1, . . . , 1

λkson todos los valores propios de

A−1.

6.1.15. Si λ1, . . . , λn son los valores propios de A entonces det(A) = λ1 · · ·λn.

6.1.16. Demuestre que A+ I es invertible si y solo si λ = −1 no es un valor propio de A.

6.1.17. Si A ∈Mn(C) es invertible, demuestre que existe α ∈ Cn tal que A+ αI no es invertible.

6.1.18. Sea A ∈ Mn(C), demuestre que A y At tienen el mismo polinomio caracterıstico, es decir, pA(x) =

pAt(x). Deduzca que A y At tienen los mismos valores propios.

6.1.19. Si A =

0 0 0 ··· 0 −a01 0 0 ··· 0 −a10 1 0 ··· 0 −a2

............

......

0 0 0 ··· 0 −an−2

0 0 0 ··· 1 −an−1

demuestre que pA(x) = (−1)n(xn + an−1xn−1 + · · ·+ a1x+ a0).

Exhiba una matriz A cuyo polinomio caracterıstico sea pA(x) = x4 − x+ 1.

198

6.2. Matrices Similares

En esta seccion se definen los conceptos de matrices similares y matriz diagonalizable. Veremos que no todas

las matrices son diagonalizables, que matrices similares tienen el mismo polinomio caracterıstico y usaremos esto

para mostrar que la multiplicidad geometrica de un valor propio es menor o igual a su multiplicidad algebraica.

Definicion 6.5. Sean A y B matrices de tamano n×n, decimos que A y B son similares si existe una matriz

invertible C tal que A = CBC−1. Escribiremos A ∼ B para denotar que A y B son similares.

Ejemplo 6.10. Las matrices A =

2 1

1 2

y B =

3 0

0 1

son similares. Ya que si se toma C =

1 −11 1

, se

tiene que A = CBC−1.

La siguiente propiedad de matrices similares es importante para lo que sigue.

Teorema 6.5. Matrices similares tienen el mismo polinomio caracterıstico. Es decir, si A,BMn(C) son simi-

lares entonces pA(x) = pB(x). Se deduce ademas que matrices similares tienen los mismos valores propios.

Demostracion. Como A y B son similares, existe una matriz invertible C tal que B = CAC−1, luego

pB(λ) = det(B − λI) = det(CAC−1 − λI) = det(CAC−1 − λCIC−1)

= det[C(A− λI)C−1

]= det(C) det(A− λI) det(C−1)

= det(C) det(A− λI)1

det(C)= det(A− λI)

= pA(λ).

Hay un caso especial de similaridad de matrices que definimos a continuacion y sera tratado mas a fondo

en la Seccion 6.4.

Definicion 6.6. Sea A una matriz de tamano n×n, decimos que A es diagonalizable si existe una matriz

diagonal D tal que A ∼ D.

Ejemplo 6.11. La matriz A =

2 1

1 2

es diagonalizable ya que en el Ejemplo 6.10 vimos que A es similar a

la matriz diagonal

3 0

0 1

.

Es importante aclarar que no todas las matrices son diagonalizables. A continuacion exhibimos un ejemplo.

Ejemplo 6.12. Veamos que la matriz A =

1 1

0 1

no es diagonalizable. Por el absurdo supongamos que existe

una matriz D diagonal tal que A ∼ D, con D =

a 0

0 b

.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 199

Notese que los valores propios de A son λ = 1 con multiplicidad 2 y los valores propios de D son λ = a y

λ = b. Como A ∼ D, entonces por el Teorema 6.5 A y D tienen los mismos valores valores propios, por tanto

a = b = 1, entonces D = I.

Finalmente, como A ∼ D(= I), existe una matriz invertible C tal que A = CDC−1 por tanto

1 1

0 1

= A = C D︸︷︷︸

=I

C−1 = CIC−1 = I =

1 0

0 1

De esta igualdad se sigue que 1 = 0, lo que es absurdo. Concluimos que A no es diagonalizable.

Este ejemplo tambien muestra que el recıproco del Teorema 6.5 no es cierto. De acuerdo al ejemplo, la matriz

A =

1 1

0 1

y la matriz identidad tienen los mismos valores propios y en consecuencia el mismo polinomio

caracterıstico, sin embargo no son similares.

La pregunta natural es bajo cuales condiciones una matriz es diagonalizable. La respuesta esta en la Seccion

6.4, mas precisamente los Teoremas 6.13 y 6.15, caracterizan las matrices diagonalizables.

En los ejemplos de la seccion anterior vimos que la multiplicidad geometrica de de los valores propios es

menor o igual a la multiplicidad algebraica, esto es cierto en general.

Teorema 6.6. Sea A una matriz de tamano n×n y sea λ un valor propio de A, entonces g(λ) ≤ a(λ), es decir,

multiplicidad geometrica de λ ≤ multiplicidad algebraica de λ.

Demostracion. Sea λ un valor propio de A, Como λ es un valor propio, entonces existe v 6= 0 tal que Av = λv

y por tanto E(λ) 6= 0.

Sea k = dimE(λ), es decir k = g(λ), y sean {v1, . . . , vk} es una base para E(λ). Tenemos entonces que

Avi = λvi para i = 1, . . . , k. Ahora tomemos wk+1, . . . , wn tal que {v1, . . . , vk, wk+1, . . . , wn} es una base para

Cn y sea S =

[

v1 . . . vk wk+1 . . . wn

]

. Como {v1, . . . , vk, wk+1, . . . , wn} es una base, entonces por el

Corolario 2.13 tenemos que S es invertible y se tiene que

I = S−1S = S−1[

v1 · · · vk wk+1 · · · wn

]

=[

S−1v1 · · · S−1vk S−1wk+1 · · · S−1wn

]

,

de donde se sigue que S−1v1 = e1, . . . , S−1vk = ek.

Ahora definamos B = S−1AS, de esto se sigue que A y B son similares y por el teorema anterior tenemos

200

que pA(x) = pB(x) y la matriz B tiene la siguiente forma:

B = S−1AS = S−1A[

v1 · · · vk wk+1 · · · wn

]

= S−1

[

Av1︸︷︷︸

λv1

· · · Avk︸︷︷︸

λvk

Awk+1 · · · Awn

]

= S−1[

λv1 · · · λvk Awk+1 · · · Awn

]

=

[

S−1λv1︸ ︷︷ ︸

λS−1v1

· · · S−1λvk︸ ︷︷ ︸

λS−1vk

S−1Awk+1 · · · S−1Awn

]

=

[

λS−1v︸ ︷︷ ︸

e1

· · · λS−1vk︸ ︷︷ ︸

ek

S−1Awk+1 · · · S−1Awn

]

=[

λe1 · · · λek S−1Awk+1 · · · S−1Awn

]

=

λ · · · 0...

. . ....

0 · · · λ

0 · · · 0...

. . ....

0 · · · 0

R

donde R =[

S−1Awk+1 · · · S−1Awn

]

. Si escribimos R =

R1

R2

con R1 una matriz k × (n − k) y R2 es

una matriz (n− k)× (n− k), tenemos que

B =

λ · · · 0...

. . ....

0 · · · λ

R1

0 · · · 0...

. . ....

0 · · · 0

R2

y por tanto B − xIn =

λ− x · · · 0...

. . ....

0 · · · λ− x

R1

0 · · · 0...

. . ....

0 · · · 0

R2 − xIk

.

Se sigue del Teorema 5.7 que pB(x) = det(B − xI) = (−1)k(λ− x)k × det(R2 − xIk). En consecuencia, como A

y B son similares, tenemos que

pA(x) = pB(x) = det(B − xI) = (−1)k(λ− x)k × det(R2 − xIk).

Se sigue que (λ− x)k es un factor de pA(x) y por tanto la multiplicidad algebraica de λ como raız de pA(x) es

mayor o igual a k, es decir, k ≤ a(λ). Concluimos que

g(λ) = k ≤ a(λ).

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 201

Problemas

6.2.1. Determine cual de las siguientes 3 matrices es diagonalizable

a. A =

3 0 0

0 3 0

0 0 3

b. B =

3 1 0

0 3 0

0 0 3

c. C =

3 1 0

0 3 1

0 0 3

6.2.2. Muestre que las matrices B =

3 1 0

0 3 0

0 0 3

y C=

3 1 0

0 3 1

0 0 3

no son similares.

6.2.3. Sea v ∈ Cn \ {0} y P = vvt, demuestre que v es un vector propio de P y que E0 = V ⊥ con V = gen{v}.

6.2.4. Muestre que la matriz A =

2b −b2

1 0

no es diagonalizable, para ningun b ∈ C. Muestre que la matriz

B =

−2b −b2

1 0

tampoco es diagonalizable para ningun b.

6.2.5. Muestre que la matriz A =

λ 1

0 λ

no es diagonalizable, para ningun λ ∈ C.

6.2.6. Muestre que las matrices A =

λ1 0

0 λ2

y B =

λ1 1

0 λ2

son similares si y solo si λ1 6= λ2.

6.2.7. Demuestre que si B es invertible entonces AB y BA son similares.

6.2.8. Demuestre que la matriz A =

0 a b

0 0 c

0 0 0

es diagonalizable si y solo si a = b = c = 0.

6.2.9. Demuestre que las matrices A =

a b c

0 a d

0 0 a

y B =

a 0 0

0 a 0

0 0 0

son similares si y solo si a = b = c = 0.

MOVER PROBLEMAS DEL FINAL HACIA ESTA SECCION Y AGREGAR OTROS

6.3. Cambio de Base

El objetivo de esta seccion es demostrar que dos matrices son similares si y solo si estan relacionadas por

un cambio de coordenadas (cambio de base), para llegar a esto debemos definir cambio de coordenadas.

202

Definicion 6.7. Sean X = {v1, . . . , vn} una base de Rn y v ∈ R

n, sabemos que existen escalares α1, . . . , αn

talque v = α1v1 + · · · + αnvn y que esta representacion es unica. Definimos la representacion del vector v en

terminos de la base X como el vector vX=

α1

...

αn

.

Ejemplo 6.13. Sea X =

v1 =

1

1

, v2 =

−12

. Notese que si w =

4

1

tenemos que v = 3v1 − v2 y por

tanto wX=

3

−1

.

En la siguiente figura se pueden observar los vectores de la base X del ejemplo anterior y el vector w.

1

2

3

−1

−2

−3

−4

1 2 3 4−1−2−3−4

b

v2

v1 w

e1

e2

Cuando escribimos que w =

4

1

estamos en realidad dando la posicion del vector w con respecto a los vectores

e1 y e2, ya que w = 4e1 + e2. Es decir, las componentes de w no son mas que las coordenadas del vector con

respecto a los vectores de la base estandar. El vector wX

en cambio, nos esta dando las coordenadas del vector

w con respecto a la base X, ya que w = 3v1 − v2 (como se puede verificar en la grafica).

Esto nos permite decir que las componentes del vector vX

son las coordenadas del vector v con respecto a los

vectores v1 y v2 de la base X.

A continuacion definimos la matriz de cambio de base, que nos permitira cambiar las coordenadas de un

vector de una base a otra.

Definicion 6.8. Sean X = {v1, . . . , vn} y Y = {w1, . . . , wn} bases para Rn, definimos la matriz del cambio de

base (o cambio de coordenadas) de la base X a la base Y como la matriz.

Y IX =[

(v1)Y · · · (vn)Y

]

.

Ejemplo 6.14. Sean E y X las bases de R2 definidas por E =

e1 =

1

0

, e2 =

0

1

la base estandar y

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 203

X =

v1 =

1

1

, v2 =

−12

, de la definicion anterior se tenemos que la matriz EIX esta dada por

EIX =[

(v1)E (v2)E

]

=[

v1 v2

]

=

1 −11 2

.

En el siguiente teorema establecemos la propiedad que caracteriza la matriz de cambio de base.

Teorema 6.7. Sean X = {v1, . . . , vn} y Y = {w1, . . . , wn} bases para Rn y sea v ∈ R

n, entonces

vY= Y IX · vX

.

Mas aun, la matriz de cambio de base es la unica con esta propiedad.

Demostracion. Como X es una base, existen constantes β1, . . . , βn tal que

v = β1v1 + · · ·+ βnvn (6.8)

de la definicion tenemos que vX=

β1

...

βn

, y como Y es una base, para 1 ≤ i ≤ n, existen constantes α1i, . . . , αni

tal que

vi = α1iw1 + · · ·+ αniwn, (6.9)

luego (vi)Y =

α1i

...

αni

, por tanto

Y IX =[

(v1)Y · · · (vn)Y

]

=

α11 · · · α1n

.... . .

...

αn1 · · · αnn

De las Ecuaciones (6.8) y (6.9) tenemos que

v = β1v1 + · · ·+ βnvn

= β1(α11v1 + · · ·+ αn1vn) + · · ·+ βn(α1nv1 + · · ·+ αnnvn)

= (β1α11 + · · ·+ βnα1n)v1 + · · ·+ (β1αn1 + · · ·+ βnαnn)vn

luego

vY =

β1α11 + · · ·+ βnα1n

...

β1αn1 + · · ·+ βnαnn

=

α11 · · · α1n

.... . .

...

αn1 · · · αnn

︸ ︷︷ ︸

Y IX

β1

...

βn

︸ ︷︷ ︸

vY

= Y IXvY .

204

Para la segunda parte, supongamos que A es tal que vY= Av

Xpara todo v ∈ R

n. En particular se tiene que

para i = 1, . . . , n se tiene que (vi)Y = A(vi)X . Como (vi)X = ei se sigue que

(vi)Y = A(vi)X = Aei = iesima columna de A.

Se sigue por tanto que las columnas de A son los vectores (v1)Y , . . . , (vn)Y , es decir, A = [ (v1)Y · · · (vn)Y ].

Cada base determina ejes coordenados de Rn. Estos ejes corresponden a las lıneas generadas por cada uno de

los vectores de la base. El Teorema anterior muestra que la matriz de cambio de base Y IX sirve para determinar

las coordenadas en terminos de la base Y de un vector escrito en terminos de una base X. Esto se ilustra en el

siguiente ejemplo.

Ejemplo 6.15. Sean E = {e1, e2} la base estandar de Rn y X =

v1 =

1

1

, v2 =

−12

. Sea v = 3v1 − v2,

se sigue que vX=

3

−1

. Por el Ejemplo 6.14 se tiene que EIX =

1 −11 2

, entonces

v = vE= EIXv

X=

1 −11 2

3

−1

=

4

1

.

Como se muestra en la siguiente figura, estas dos bases determinan dos sistemas de ejes para R2, uno

determinado por los vectores de la base X y otro determinado por los vectores de la base estandar y la matriz

EIX permite cambiar las coordenadas de un vector, en terminos de la base X, a las coordenadas en terminos

de la base estandar. Usando la figura tambien se pueden determinar las coordenadas del vector w con respecto

a cada una de estas bases.

b

v2v1 w

e1

e2

2

4

6

−2

−4

2 4 6−2−4

b

v2

v1 w

e1

e2

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 205

Ejemplo 6.16. Considere las bases X =

v1 =

−10

, v2 =

2

1

y Y =

w1 =

3

1

, w2 =

4

1

de R

2 y

v = 2v1 + 3v2, expresar a v en terminos de la base Y .

Solucion. Notese que v1 = w1 − w2 y v2 = 2w1 − w2, luego (v1)Y =

1

−1

y (v2)Y =

2

−1

, de donde

Y IX =

1 2

−1 −1

. Ahora, como vX =

2

3

, entonces

vY = Y IXvX =

1 2

−1 −1

2

3

=

8

−5

.

Es decir, v = 8w1 − 5w2.

El siguiente teorema describe una forma de calcular la matriz de cambio de base.

Teorema 6.8. Sean X = {v1, . . . , vn} y Y = {w1, . . . , wn} bases para Rn y sean A =

[

v1 · · · vn

]

y B =[

w1 · · · wn

]

. Entonces Y IX = B−1A.

Demostracion. Expresando los vectores v1, . . . , vn en terminos de la base Y obtenemos:

v1 = α11w1 · · ·+ αn1wn

...

vn = α1nw1 · · ·+ αnnwn

. (6.10)

Entonces (v1)Y =

α11

...

αn1

, . . . , (vn)Y =

α1n

...

αnn

y por tanto Y IX =

α11 · · · α1n

.... . .

...

αn1 · · · αnn

.

De la Ecuacion (6.10) tenemos que

[

v1 · · · vn

]

︸ ︷︷ ︸

=A

=[

w1 · · · wn

]

︸ ︷︷ ︸

=B

α11 · · · α1n

.... . .

...

αn1 · · · αnn

︸ ︷︷ ︸

=Y IX

,

por tanto A = B Y IX , multiplicando a ambos lados por B−1 obtenemos

Y IX = B−1A.

De este teorema se sigue un procedimiento para calcular la matriz del cambio de base, el cual damos a conti-

nuacion.

Procedimiento 6.2. (Procedimiento para calcular la matriz del cambio de base) Sean X = {v1, . . . , vn}y Y = {w1, . . . , wn} bases para R

n y sean A =[

v1 · · · vn

]

y B =[

w1 · · · wn

]

entonces

206

1. Aplicar reduccion Gauss-Jordan a la matriz aumentada[

B A]

hasta encontrar su forma escalonda reducida.

2. Al final del paso 1. obtenemos

[

I B−1A︸ ︷︷ ︸

Y IX

]

. Luego en la parte derecha de la matriz aumentada se obtiene la

matriz de cambio de base Y IX .

Ejemplo 6.17. Considere las bases X =

v1 =

1

1

, v2 =

1

−1

y Y =

w1 =

2

−1

, w2 =

1

0

de R

2,

calcular Y IX y vY si vX =

1

1

.

Al reducir la matriz[

w1 w2 v1 v2

]

=

2 1 1 1

−1 0 1 −1

obtenemos la matriz

1 0 −1 1

0 1 3 −1

y por tanto Y IX =

−1 1

3 −1

Por el Teorema 6.7 tenemos que vY =Y IX · vX =

0

2

.

Ejemplo 6.18. (MatLab) Sean X y Y las bases de R3 definidas por X =

v1 =

2

1

1

, v2 =

1

2

−2

, v3 =

1

−23

y Y =

w1 =

1

2

3

, w2 =

1

1

2

, w3 =

1

1

1

. Calcular la matriz de cambio de base Y IX y calcular vY si v =

2v1 − v2 + v3.

Solucion. Por el procedimiento anterior la matriz de cambio de base es simplemente el producto de las matrices

B−1 y A donde A =[

v1 v2 v3

]

y B =[

w1 w2 w3

]

. En MatLab hacemos lo siguiente:

>> A = [2 1 1; 1 2 − 2; 1 − 2 3]; B = [1 1 1; 2 1 1; 3 2 1]; yIx = inv(B) ∗AyIx =

−1 1 −31 −5 8

2 5 −4

Se sigue que la matriz de cambio de base esta dada por Y IX =

−1 1 −31 −5 8

2 5 −4

. Ahora, para el calculo de

vY , tenemos que vX =

2

−11

y vY =Y IXvX , esto lo hacemos en MatLab como sigue:

>> vx = [2;−1; 1]; vy = yIx ∗ vxvy =

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 207

−615

−5Obtenemos que v = −6w1 + 15w2 − 5w3.

Las matrices de cambio de base cumplen las siguientes propiedades.

Teorema 6.9. Sean X = {v1, . . . , vn}, Y = {w1, . . . , wn} y Z = {u1, . . . , un} bases de Rn entonces se cumple

que:

1. Y IX = (XIY )−1

2. ZIX =Z IY ·Y IX

Demostracion. 1. Sean A =[

v1 · · · vn

]

, B =[

w1 · · · wn

]

, por el Teorema 6.8 tenemos que Y IX =

B−1A y XIY = A−1B, por tanto

(XIY )−1

=(A−1B

)−1= B−1A =Y IX .

2. Sea C =[

u1 · · · un

]

entonces por el Teorema 6.8 tenemos que Y IX = B−1A, ZIY = C−1B y

ZIX = C−1A, entonces

ZIX = C−1A = C−1BB−1A =Z IY ·Y IX .

Ejemplo 6.19. Sean E la base estandar de Rn y X =

v1 =

1

1

, v2 =

−12

. En el Ejemplo 6.14 obtuvimos

que la matriz de cambio de base EIX esta dado por EIX =

1 −11 2

. Por el Teorema anterior anterior tenemos

que la matriz de cambio de base XIE esta dada por

XIE = (EIX)−1

=

23

13

− 13

13

.

Ahora, sea Y =

w1 =

2

−1

, w2 =

−1−1

. Se sigue que EIY = [ (w1)E (w2)E ] = [ w1 w2 ] =

2 −1−1 −1

.

Por el teorema anterior obtenemos que

XIY = XIE · EIY =

23

13

− 13

13

2 −1−1 −1

=

1 −1−1 0

.

Se deja de ejercicio al lector verificar este calculo usando el Procedimiento 6.2.

6.3.1. La matriz de una transformacion con respecto a dos bases

La siguiente generalizacion de la definicion de matriz de una transformacion. La definicion anterior depende

de las bases estandar y aca se hace para cualquier base del dominio y cualquier base del codominio.

208

Definicion 6.9. Sea T : Rn −→ Rm una transformacion lineal y sean X = {v1, . . . , vn} y Y = {w1, . . . , wm}

bases para Rn y R

m, respectivamente. Definimos la matriz de T con respecto a las bases X y Y , denotada por

Y TX como la matriz

Y TX =[

T (v1)Y · · · T (vn)Y

]

.

La matriz de una transformacion es la matriz con respecto a las bases estandar.

Observacion 6.2. Si T : Rn −→ Rm es una transformacion lineal y E = e1, . . . , en y E = e1, . . . , em son las

bases estandar de Rn y R

m, respectivamente, y S es la matriz de T , es decir, la matriz tal que T (x) = Sx, para

todo x ∈ Rn, entonces

S = ETE =[

T (e1) . . . T (en)]

.

Ejemplo 6.20. Sea T : R2 −→ R

2 la transformacion lineal definida por T (x, y) = (2x + 2y, 2y) y sean

X =

v1 =

1

1

, v2 =

1

−1

y Y =

w1 =

2

1

, w2 =

0

−1

bases de R

2. Determine la matriz Y TX de T

con respecto a la bases X y Y .

Solucion. Notese que T (v1) = (4, 2) = 2w1 y T (v2) = (0,−2) = 2w2, se sigue entonces que

Y TX = [ T (v1)Y T (v2)Y ] =

2 0

0 2

.

La importancia de la matriz de la transformacion Y TX es el hecho que si tenemos las coordenadas de un

vector en terminos de X, vX, el producto de la matriz Y TX por v

Xnos da las coordenadas de la imagen de

v, T (v), en terminos de la base Y . Al igual que la matriz de cambio de base, esta matriz esta determinada de

manera unica por dicha propiedad.

Teorema 6.10. Sea T : Rn −→ Rm una transformacion lineal, sean X = {v1, . . . , vn} y Y = {w1, . . . , wm}

bases para Rn y R

m, respectivamente, y sea v ∈ Rn. Entonces

T (v)Y= Y TXv

X.

Ademas tenemos que si existe una matriz A tal que V vX= T (v)

Ypara todo v ∈ R

n, entonces A = Y TX .

Demostracion. Como X es una base, existen constantes β1, . . . , βn tal que

v = β1v1 + · · ·+ βnvn (6.11)

y se tiene que vX =

β1

...

βn

. Como Y tambien es una base, para 1 ≤ i ≤ m, existen constantes α1i, . . . , αmi tal

que

T (vi) = α1iw1 + · · ·+ αmiwm, (6.12)

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 209

luego T (vi)Y =

α1i

...

αmi

y por tanto

Y TX =[

T (v1)Y · · · T (vn)Y

]

=

α11 · · · α1n

.... . .

...

αm1 · · · αmn

De las Ecuaciones (6.11) y (6.12) tenemos que

T (v) = β1T (v1) + · · ·+ βnT (vn)

= β1(α11w1 + · · ·+ αm1wn) + · · ·+ βn(α1nw1 + · · ·+ αmnwn)

= (β1α11 + · · ·+ βnα1n)w1 + · · ·+ (β1αm1 + · · ·+ βnαmn)wn

Se sigue que

T (v)Y=

β1α11 + · · ·+ βnα1n

...

β1αn1 + · · ·+ βnαnn

=

α11 · · · α1n

.... . .

...

αm1 · · · αmn

︸ ︷︷ ︸

Y TX

β1

...

βn

︸ ︷︷ ︸

vX

= Y TXvX.

Si A satisface que AvX= T (v)

Ypara todo v ∈ R

n, entonces para i = 1, . . . , n tenemos que T (vi)Y = A(vi)X =

Aei = i-esima columna de A. Se sigue que las columnas de A son T (v1)Y , . . . , T (vn)Y y por tanto

A = [ T (v1)Y · · · T (vn)Y ] = Y TX .

En el siguiente teorema se hace explıcito un procedimiento para calcular la matriz Y TX .

Teorema 6.11. Sea T : Rn −→ Rm una transformacion lineal, sean X = {v1, . . . , vn} y Y = {w1, . . . , wm}

bases para Rn y R

m, respectivamente y sean A =[

v1 . . . vn

]

y B =[

w1 . . . wm

]

, entonces

Y TX = B−1[

T (v1) · · · T (vn)]

,

mas aun

Y TX = B−1 ·E TE ·A.

Demostracion. La demostracion se hace de manera directa como sigue

XTY =[

T (v1)Y · · · T (vn)Y

]

=[

Y IET (v1)E · · · Y IET (vn)E

]

=[

Y IET (v1) · · · Y IET (vn)]

= Y IE

[

T (v1) · · · T (vn)]

= B−1[

ETEv1 · · · ETEvn

]

= B−1ETE

[

v1 · · · vn

]

= B−1ETEA

210

A continuacion damos un procedimiento para calcular la matriz de una transformacion T : Rn −→ Rm con

respecto a dos bases X = {v1, . . . , vn} y Y = {w1, . . . , wm}, basado en el teorema anterior

Procedimiento 6.3. (Procedimiento para calcular YTX) Con Las mismas hipotesis del teorema anterior,

h

1. Se calcula T (vi) para i = 1, . . . , n,

2. Se aplica reduccion Gauss-Jordan a la matriz aumentada

[

w1 · · · wn | T (v1) · · · T (vn)]

=[

B T (v1) · · · T (vn)]

=[

B ETE ·A]

hasta llevarla a la forma escalonada reducida.

3. Al final del paso 2., considerando que B es invertible, obtenemos

[

I B−1 ·E TE ·A︸ ︷︷ ︸

Y TX

]

.

Por tanto las ultimas n columnas de la matriz en forma escalonada reducida del paso 3. son las columnas de la

matriz Y TX .

Ejemplo 6.21. Sea T : R2 −→ R2 la transformacion lineal definida por T

x

y

=

2x− y

x+ y

, sean X =

v1 =

1

1

, v2 =

1

−1

y Y =

w1 =

2

−1

, w2 =

1

0

bases de R

2. Calcule la matriz Y TX y T (v)Y

si

vX=

1

1

Solucion. Primero notese que ETE =

2 −11 1

y ası

T (v1) =E TE · v1 =

2 −11 1

·

1

1

=

1

2

y T (v2) =E TE · v2 =

2 −11 1

·

1

−1

=

3

0

.

Se necesita reducir la matriz[

w1 w2 | T (v1) T (v2)]

=

2 1 | 1 3

−1 0 | 2 0

y facilmente se verıfica que su

forma escalonada es la matriz

1 0 −2 0

0 1 5 3

. Se sigue por que

Y TX =

−2 0

5 3

.

Finalmente, tenemos que:

T (v)Y=Y TX · vX

=

−2 0

5 3

·

1

1

=

−28

.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 211

Ejemplo 6.22. (MatLab) Sea T : R3 −→ R4 la tranformacion definida por T

x

y

z

=

x+ y + 3z

2x+ y − 2z

x+ 2y + z

−x− y + 2z

y

sean X =

v1 =

2

1

1

, v2 =

1

2

−2

, v3 =

1

−23

y Y =

w1 =

1

2

3

4

, w2 =

1

1

2

3

, w3 =

1

1

1

2

, w4 =

1

1

1

1

bases

de R3 y R

4, respectivamente. Calcule la matriz Y TX y T (v)Y si v = x1 − x2 + x3.

Solucion. Usamos el Teorema 6.11 que nos dice que Y TX = B−1 ·E TE ·A, con

A = [v1 v2 v3] =

2 1 1

1 2 −21 −2 3

, B = [w1 w2 w3 w4] =

1 1 1 1

2 1 1 1

3 2 1 1

4 3 2 1

y ETE =

1 1 3

2 1 −21 2 1

−1 −1 2

.

En MatLab solo necesitamos multiplicar las matrices, lo cual hacemos a continuacion.

>> A = [2 1 1; 1 2 − 2; 1 − 2 3]; B = [1 1 1 1; 2 1 1 1; 3 2 1 1; 4 3 2 1];

eTe = [1 1 3; 2 1 − 2; 1 2 1;−1 − 1 2]; yTx = inv(B) ∗ eTe ∗A

yTx =

−3 11 −145 −16 20

−8 −5 1

12 7 1

Entonces Y TX =

−3 11 −145 −16 20

−8 −5 1

12 7 1

. Finalmente, para calcular T (v)Ymultiplicamos Y TX por v

X=

1

−11

.

>> vx = [1;−1; 1]; Tvy = yTx ∗ vx

Tvy =

−2841

−26

Por tanto T (v)Y=

−2841

−26

. Lo que equivale a decir que T (v) = −28w1 + 41w2 − 2w3 + 6w4.

En MatLab tambien se puede usar el Procedimiento 6.3 para calcular la matriz Y TX de la siguiente forma.

212

Primero notese que

[T (v1) T (v2) T (v3)] = [ETEv1 ETEv2 ETEv3] =E TE [v1 v2 v3] =E TEA.

Despues se calcula la matriz escalonada reducida de la matriz [B | ETEA]. En MatLab lo calculamos como sigue:

>> C = [B, eTe ∗A]; rref(C)

ans =

1 0 0 0 −3 11 −140 1 0 0 5 −16 20

0 0 1 0 −8 −5 1

0 0 0 1 12 7 1

Notese que en la respuesta se tiene la matriz identidad en la parte izquierda y las tres ultimas columnas

coinciden con las columnas de la matriz Y TX calculada arriba.

Concluimos la seccion mostrando que las matrices de tranformaciones de Rn con respecto a bases distintas

son similares. Se muestra en realidad que dos matrices son similares si y solo si las transformaciones lineales

definidas por estas matrices estan relacionados por un cambio de base.

Corolario 6.12. Sea T : Rn −→ Rn una transformacion lineal y sea X = {v1, . . . , vn} una base para R

n.

Entonces las matrices XTX y ETE son similares. Mas aun si A,B ∈Mn(R) son matrices similares y tomamos

la transformacion T : Rn −→ Rn definida por T (v) = Av, entonces existe una base X de R

n tal que B = XTX .

Es decir, A y B son la matriz de la misma transformacion con respecto a bases diferentes.

Demostracion. Sea A =[

v1 · · · vn

]

. Por el Teorema 6.11 tenemos que XTX = A−1 ·E TE ·A, o equivalen-

temente

ETE = A · XTX ·A−1,

es decir ETE y XTX son similares.

Para la segunda parte, supongamos que A ∼ B y sea T : Rn −→ Rn definida por T (v) = Av. Es facil ver

que ETE = A, ya que por la definicion de T se tiene que T (ei) = Aei = iesima columna de A. Pero T (ei) es

tambien la iesima columna de ETE .

Como A y B son similares, existe una matriz invertible C tal que A = CBC−1, o equivalentemente B =

C−1AC. Sean v1, . . . , vn las columnas de C, como C es invertible, tenemos que X = {v1, . . . , vn} es LI y por

tanto una base para Rn.

Por el Teorema 6.11 tenemos que XTX = C−1ETEC = C−1AC = B. Concluimos que A = ETE y B = XTX

son ambas matrices de T con respecto a diferentes bases.

Problemas

6.3.1. Determine ETE si T (2, 1) = (3, 1) y T (1, 1) = (1, 2).

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 213

6.3.2. Demuestre que si A y B son similares entonces detA = detB y traza(A) = traza(B). En el segundo

caso use el hecho que traza(AB) = traza(BA).

6.3.3. Sea T : Rn −→ Rn una transformacion lineal y sean X y Y son bases de R

n, demuestre lo siguiente:

1. detXTX = det Y TY .

2. traza(XTX) = traza(Y TY ).

6.3.4. Sean T, S : Rn −→ Rn transformaciones lineales y X una base de R

n. Demuestre que X(T + S)X =

XTX +XSX , y X(λT )X = λ XTX donde T +S, λT : Rn −→ Rn son las transformaciones lineales definidas por

(T + S)(v) = T (v) + S(v) y (λT )(v) = λT (v).

6.3.5. Sea I : Rn −→ R

n la transformacion identidad, es decir, la transformacion definida por I(v) = v.

Demuestre que XIX = In, donde In es la matriz identidad de tamao n× n.

6.3.6. Sea T : Rn −→ Rn y supongamos que existe v ∈ R tal que {v, T (v), . . . , Tn−1(v)} es una base de R

n y

Tn(v) = −a0v − a1T (v)− · · · − an−1Tn−1(v). Muestre que T =

0 0 0 ··· 0 −a01 0 0 ··· 0 −a10 1 0 ··· 0 −a2

........... .

......

0 0 0 ··· 0 −an−2

0 0 0 ··· 1 −an−1

6.3.7. Sea T : V −→ V una transformacion lineal y X una base de V , demuestre que T : V −→ V es invertible

si y solo si la matriz XTX es invertible, para toda base X de Rn.

6.4. Diagonalizacion

En esta seccion se daran condiciones equivalentes a que una matriz sea diagonalizable, comenzamos con el

siguiente resultado.

Teorema 6.13. Sea A una matriz de tamano n×n, entonces A es diagonalizable si y solo si A tiene n vectores

propios linealmente independientes. En este caso A es similar a la matriz diagonal D =

λ1 0 · · · 0

0 λ2 . . . 0...

.... . .

...

0 0 · · · λn

donde λ1, . . . , λn son los valores propios de A y si los correspondientes vectores propios son v1, . . . , vn entonces

A = CDC−1 con C =[

v1 · · · vn

]

.

Demostracion. “ ⇒ ” Supongamos que A es diagonalizable, entonces existe una matriz D diagonal y una

matriz invertible C tal que A = CDC−1. Sean c1, . . . , cn las columnas de C y λ1, . . . , λn las entradas en la

diagonal de D.

Afirmacion: Los vectores c1, . . . , cn son vectores propios de A con valores propios λ1, . . . , λn.

214

Como A = CDC−1 entonces AC = DC, por tanto

[Ac1 · · · Acn] = A[c1 · · · cn] = AC = DC

=

λ1 · · · 0...

. . ....

0 · · · λn

[c1 · · · cn] = [λ1c1 · · · λncn].

De esta igualdad se sigue que Ac1 = λ1c1, · · · , Acn = λncn, lo que demuestra la afirmacion.

Finalmente, como la matriz C es invertible, entonces sus columnas c1, . . . , cn son linealmente independientes,

por tanto A tiene n vectores propios linealmente independientes.

“⇐ ” Sean v1, . . . , vn vectores propios linealmente independientes de A con valores propios λ1, . . . , λn, respec-

tivamente, es decir, Avi = λivi, para i = 1, . . . , n.

Sea X = {v1, . . . , vn} entonces X es una base para Rn y sea T : Rn 7−→ R

n la transformacion lineal determinada

por A, es decir, T (x) = Ax, para todo x ∈ Rn.

Como T (ei) = Aei = i-esima columna de A, entonces ETE = A. Ahora, sea C =[

v1 · · · vn

]

, entonces por el

Teorema 6.11 tenemos que XTX = C−1ETE︸︷︷︸

A

C = C−1AC, por tanto

A = C XTXC−1. (6.13)

Ahora veamos que XTX es una matriz diagonal. Como T (vi) = Avi = λivi = 0v1 + · · · + λivi + · · · + 0vn,

entonces T (vi)X =

0...

λi

...

0

, por tanto

XTX =[

T (v1) T (v2) · · · T (vn)]

=

λ1 0 · · · 0

0 λ2 · · · 0...

.... . .

...

0 0 · · · λn

. (6.14)

De la Ecuacion (6.13) tenemos que A y XTX son similares y de la ecuacion (6.14), XTX es diagonal, por tanto

A es diagonalizable.

Ejemplo 6.23. La matriz A =

4 −52 −3

tiene vectores propios v1 =

5

2

y v2 =

1

1

de valores propios 2 y

-1, respectivamente (ver Ejemplo 6.2.)

Si tomamos la base X = {v1, v2} de R2, formada por los valores propios de la matriz A, C =

[

v1 v2

]

la

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 215

matriz de vectores propios y D =

2 0

0 −1

, entonces de acuerdo al Teorema 6.13 tenemos que

A = CDC−1.

Esto lo podemos verificar de la siguiente manera. De acuerdo al Teorema 6.11 la matriz XAX de A con respecto

a la base X esta dada por:

XAX = C−1AC =1

3

1 −1−2 5

·

4 −52 −3

·

5 1

2 1

=

2 0

0 −1

= D,

de donde C−1AC = D y por tanto

A = CDC−1.

Ejemplo 6.24. En el Ejemplo 6.6 calculamos los valores y vectores propios de la matriz A =

3 −1 0 0

−1 3 0 0

7 −1 −4 0

7 −1 0 −4

y encontramos que los vectores propios son v1 =

0

0

1

0

y v2 =

0

0

0

1

ambos de valor propio λ = −4, v3 =

1/2

−1/21/2

1/2

de valor propio λ = 4 y v4 =

1/2

1/2

1/2

1/2

de valor propio λ = 2. Como A tiene cuatro vectores linealmente indepen-

dientes entonces A es diagonalizable y A = CDC−1 con

C =

0 0 1/2 1/2

0 0 −1/2 1/2

1 0 1/2 1/2

0 1 1/2 1/2

y D =

−4 0 0 0

0 −4 0 0

0 0 4 0

0 0 0 2

Corolario 6.14. Si una matriz A de tamano n×n tiene n valores propios distintos, entonces A es diagonalizable.

Ejemplo 6.25. (MatLab) La matriz A =

−2 −2 3

−5 1 3

−6 0 5

tiene tres valores propios diferentes, λ = −1, λ = 3

y λ = 2. Esto lo podemos verificar en MatLab como se muestra a continuacion

>> A = [−2 − 2 3;−5 1 3;−6 0 5]; factor(poly(sym(A)))

ans =

-1

216

3

2

Por tanto A es diagonalizable, de hecho A es similar a la matriz D =

−1 0 0

0 3 0

0 0 2

.

Teorema 6.15. Sea A una matriz de tamano n×n, entonces A tiene n vectores propios linealmente indepen-

dientes si y solo si para cada valor propio λ, se tiene que

multiplicidad geometrica de λ = multiplicidad algebraica de λ.

En particular, si todos los valores propios de A son diferentes, todos los vectores propios de A son linealmente

independientes.

Demostracion. Para comenzar la demostracion, supongamos queA tiene k valores propios distintos, λ1, . . . , λk,

con multiplicidades n1, . . . , nk, respectivamente. Es decir, el polinomio caracterıstico de A esta dado por pA(λ) =

(λ− λ1)n1 · · · (λ− λk)

nk , con n = n1 + · · ·+ nk.

“⇒”Supongamos que A tiene n vectores propios linealmente independientes, sean v11, . . . , v1m1, . . . ,

vk1, . . . , vkmkestos vectores con m1 + · · · + mk = n y agrupados de tal forma que v11, . . . , v1m1

tienen valor

propio λ1, v21, . . . , v2m2tienen valor propio λ2 y, de manera inductiva, vk1, . . . , vkmk

tienen valor propio λk.

Como para i = 1, . . . , k, multiplicidad geometrica de λi ≤ multiplicidad algebraica de λi, entonces mi ≤ ni,

ahora si mi < ni para algun i = 1, . . . , k entonces tenemos que

n = m1 + · · ·+mk < n1 + · · ·+ nk = n,

lo cual es imposible, por tanto para todo i = 1, . . . , k, mi = ni, es decir, para todo i = 1, . . . , k tenemos que

multiplicidad geometrica de λi = multiplicidad algebraica de λi.

“ ⇐”Supongamos que la multiplicidad geometrica de cada valor propio es igual a la multiplicidad algebraica,

entonces dim(Eλj) = nj , para 1 ≤ j ≤ k. Sean {v11, . . . , v1n1

}, {v21, . . . , v2n2}, . . . ,

{vk1, . . . , vknk} bases para Eλ1

, Eλ2, . . . , Eλk

, respectivamente.

Veamos que los vectores v11, . . . , v1n1, v21, . . . , v2n2

, · · · , vk1, . . . , vknkson linealmente independientes.

Supongamos que

α11v11 + · · ·+ α1n1v1n1

+ · · ·+ αk1vk1 + · · ·+ αknkvknk

= 0 (6.15)

y sean v1 = α11v11 + · · ·+ α1n1v1n1

, . . . , vk = αk1vk1 + · · ·+ αknkvknk

, entonces la ecuacion (6.15) se convierte

en

v1 + v2 + · · ·+ vk = 0. (6.16)

Afirmacion: v1 = v2 = · · · = vk = 0

Supongamos que algunos de los vj 6= 0, como vij ∈ Eλipara 1 ≤ i ≤ k entonces tenemos que v1 ∈ Eλ1

,

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 217

v2 ∈ Eλ2, . . . , vk ∈ Eλk

, entonces los vectores de la lista v1, . . . , vk que son no nulos, son vectores propios de

valores propios λ1, . . . , λk, respectivamente. Como los valores propios λ1, . . . , λk son distintos, entonces, por el

Teorema 6.4, los vectores no nulos de la lista v1, . . . , vk son linealmente independientes, pero de la Ecuacion (6.16)

se sigue que estos vectores son linealmente dependientes, lo cual es contradictorio y por tanto v1 = · · · = vk = 0,

y la afirmacion se cumple.

Luego para 1 ≤ j ≤ k tenemos que

0 = vj = αj1vj1 + · · ·+ αjn1vjnj

,

pero como los vectores {vj1, . . . , vjnj} son una base para Eλj

, entonces son linealmente independientes y por

tanto αj1 = · · · = αjnj= 0. Como esto es para todo j = 1, . . . , k tenemos que

α11 = · · · = α1n1= · · · = αk1 = · · · = αknk

= 0.

Entonces los vectores v11, . . . , v1n1, v21, . . . , v2n2

, . . . , vk1, . . . , vknkson linealmente independientes y como to-

dos estos son vectores propios de A y n1 + · · · + nk = n, entonces A tiene n vectores propios linealmente

independientes.

Corolario 6.16. Sea A una matriz A de tamano n×n, entonces A es diagonalizable si y solo si para todo valor

propio λ de A se cumple que

multiplicidad geometrica de λ = multiplicidad algebraica de λ.

Demostracion. El corolario se sigue de los Teoremas 6.13 y 6.15.

Ejemplo 6.26.1. En el Ejemplo 6.6 vimos que la matriz

A =

3 −1 0 0

−1 3 0 0

7 −1 −4 0

7 −1 0 −4

tiene valores propios λ = −4, λ = 4 y λ = 2 y que las multiplicidades geometricas y

algebraicas eran a−4 = g−4 = 2, a4 = g4 = 1 y a2 = g2 = 1, entonces la matriz es diagonalizable.

2. En el Ejemplo 6.7 vimos que el unico valor propio de la matriz A =

−3 −2 1

1 −6 1

1 −2 −3

es λ = −4 con multplicidad

algebraica a−4 = 3 y geometrica g−4 = 2, entonces por el corolario anterior A no es diagonalizable.

3. En el Ejemplo 6.8 vimos que el unico valor propio de la matriz A =

−4 −1 1

0 −5 1

−1 0 −3

es λ = −4 con multiplicidad

algebraica es a−4 = 3 y geometrica g−4 = 1, por tanto A no es diagonalizable.

6.4.1. Para cada una de las matrices del problema 6.1.1 determine si es diagonalizable. En caso afirmativo,

encuentre las matrices C y D tal que A = CDC−1.

218

6.5. Matrices Simetricas y Diagonalizacion Ortogonal

Definicion 6.10. Sea A =

a11 · · · a1n...

. . ....

am1 · · · amn

de tamano m× n con entradas complejas.

1. Definimos la matriz conjugada de A, denotada por A, como la matriz que se obtiene al conjugar las entradas de

A, estos es

A =

a11 · · · a1n...

. . ....

am1 · · · amn

2. La transpuesta hermitiana de A, denotada por AH , se define como AH = At.

3. Decimos que A es hermitiana si A = AH .

Ejemplo 6.27. Considere la matriz A =

1 1− i

1 + i 2

, notese que A =

1 1− i

1 + i 2

=

1 1 + i

1− i 2

y

AH = At=

1 1− i

1 + i 2

. Como A = AH entonces A es una matriz hermitiana.

Teorema 6.17. Sea A una matriz hermitiana de tamano n×n entonces los valores propios de A son reales.

Esto es, si λ es un valor propio de A entonces λ ∈ R. En particular, si A una matriz simetrica con entradas

reales, entonces sus valores propios son reales y por tanto sus vectores propios son reales.

Demostracion. Como A es hermitiana, entonces A = AH = Atde donde At = A, entonces

λv · v = λvtv = vtλvAv = vtAv = vtAHv = vtAtv = (Av)tv

= (Av)tv = (λv)tv = λvtv = λv · v.

De donde se sigue que (λ− λ)v · v = 0, como v 6= 0 entonces v · v 6= 0. Por tanto λ− λ, es decir λ = λ.

Teorema 6.18. Sea A una matriz hermitiana de tamano n×n y sean x y y vectores propios de valores propios

λ1 y λ2, respectivamente. Si λ1 6= λ2 entonces x · y = 0, es decir, x y y son ortogonales. El teorema tambien se

cumple si A es una matriz simetrica con entradas reales.

Demostracion.

λ1(v1 · v2) = (λ1v1 · v2) = (Av1 · v2) = (Av1)tv2 = (Av1)

tv2

= v1t A

t

︸︷︷︸

AH=A

v2 = v1tAv2 = v1

tλ2v2 = λ2v1tv2 = λ2(v1 · v2).

Luego (λ1 − λ2)v1 · v2 = 0, como λ1 6= λ2 entonces v1 · v2 = 0.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 219

Ejemplo 6.28. Sea A =

2 1

1 2

. Los valores propios de A son λ = 1 y λ = 3 los cuales son numeros reales y

los vectores propios son v1 =

1

−1

y v2 =

1

1

. Notese que v1 · v2 = 0.

Ejemplo 6.29. La matriz simetrica A =

2 −1 −1−1 2 −1−1 −1 2

debe tener valores propios reales, usamos MatLab

para calcular la factorizacion de su polinomio caracterıstico:

>> A = [2 − 1 − 1;−1 2 − 1;−1 − 1 2]; factor(poly(sym(A)))

ans =

x ∗ (x− 3)2

Por tanto los valores propios son λ = 0 y λ = 2 de multiplicidad 2.

6.6. Formas Cuadraticas

Definicion 6.11. Una forma cuadratica es una expresion de la forma

n∑

i=1

aiix2i +

i<j

aijxixj .

Notese que si F =n∑

i=1

aiix2i+∑

i<j

aijxixj es una forma cuadratica entonces F = xtQx donde Q =

a11a12

2 · · · a1n

2

a12

2 a22 · · · a2n

2

......

. . ....

a1n

2a2n

2 · · · ann

y x =

x1

...

xn

.

Ejemplo 6.30. La forma caudratica F = 2x2 + 2xy + 2y2 se puede escribir matricialmente como F =[

x y]

2 1

1 2

x

y

.

Observacion 6.3. Un hecho muy conocido, pero que no sera demostrado en este libro, es que toda matriz

simetrica es diagonalizable, esto hecho lo usaremos en el siguiente teorema.

Teorema 6.19. (Teorema de los ejes principales) Sea F = xtQx un forma cuadratica en n variables con Q una

matriz simetrica. Como Q es diagonalizable existen vectores propios v1, . . . , vn de Q linealmente independientes.

Sean λ1, . . . , λn los respectivos valores propios correspondientes a v1, . . . , vn y sea X = {v1, . . . , vn}, entoncesX es una base de R

n. Entonces bajo la base X, la forma cuadratica tiene la forma:

F = λ1y21 + · · ·+ λny

2n.

220

Demostracion. Primero veamos que a la base X la podemos tomar ortonormal.

Si los λi son todos distintos, entonces los vectores propios son ortogonales y X es ortogonal, si no lo son,

tomamos v11, . . . , v1k1, . . . , vs1, . . . , vsks

una reindexacion de los vectores deX de tal manera que v11, . . . , v1k1son

vectores propios de valor propio λ1,. . . vs1, . . . , vsksvectores propios de valores propios λs. Aplicando Gramm-

Schmidt a cada uno de los conjuntos {v11, . . . , v1k1, }, . . . ,

{vs1, . . . , vsks} obtenemos vectores w11, . . . , w1k1

, . . . ,ws1, . . . , wsksformando una base ortogonal y redefinimos

X =

{1

||w11||w11, . . . ,

1

||w1k1||w1k1

, . . . ,1

||ws1||ws1, . . . ,

1

||wsks||wsks

}

.

Por tanto X es ortonormal.

Como X es una base de vectores propios entonces

XQX =

λ1 · · · 0...

. . ....

0 · · · λn

. (6.17)

Ademas sabemos que XQX = BQB−1 donde B =[

v1 · · · vn

]

. Como X es ortonormal, entonces B es una

matriz ortogonal y B−1 = Bt, por tanto

Q = B−1XQXB = Bt

XQXB (6.18)

Definamos y = Bx y sean y1, . . . , yn las componentes de y, entonces de (6.18) tenemos que la forma cuadratica

tiene la forma

F = xtQx = xtBtXQXBx = (Bx)t XQXBx = yt XQXy. (6.19)

Luego de (6.17) y (6.19) tenemos que

F = λ1y21 + · · ·+ λny

2n.

Ademas notese que los ejes de esta forma cuadratica son los vectores de la base X, los cuales son perpendiculares.

Observacion 6.4. Una ecuacion de la forma F = c con F una forma cuadratica y c una constante es una

seccion conica.

El teorema de los ejes principales nos permite identificar la secciones conicas. Sea xtQx = c una conica con

c > 0 constante y sean λ1, . . . , λ2 los valores propios de Q, entonces tenemos lo siguiente:

Si Q es 2x2 y:

1. λ1, λ2 > 0 entonces xtQx = c es una elipse.

2. λ1, λ2 < 0 entonces xtQx = c es vacia.

3. λ1 · λ2 < 0 entonces xtQx = c es una hiperbola.

4. λ1 · λ2 = 0 entonces xtQx = c es una forma degenerada.

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 221

En el caso 3x3 tenemos:

1. Si λ1, λ2, λ3 > 0 entonces xtQx = c es un elipsoide.

2. Si λ1, λ2, λ3 < 0 entonces xtQx = c es vacia.

3. Si uno de los λi es positivo y los otros negativos entonces xtQx = c es un hiperboloide de 2 hojas

4. Si uno de los λi es negativo y los otros positivos, entonces xtQx = c es un hiperboloide de una hoja.

5. Si c = 0 y uno de los λi es positivo y los otros negativos o dos positivos y uno negativo entonces xtQx = c es

un cono.

Ahora consideremos la ecuacion z = xtQx con z variable y Q de tamanno 2x2 con valores propios λ1 y λ2.

Entonces tenemos lo siguiente

1. Si λ1 · λ2 > 0 entonces z = xtQx es un paraboloide elıptico.

2. Si λ1 · λ2 < 0 entonces z = xtQx es un paraboloide hiperbolico o silla de montar.

Ejemplo 6.31. La seccion conica 2x2+2xy+2y2 = 4 se puede escribir matricialmente en la forma[

x y]

2 1

1 2

x

y

=

4.

Los vectores propios de Q =

2 1

1 2

son v1 =

1

−1

y v2 =

1

1

con valores propios 1 y 3, respectivamente.

Entonces con respecto a la base X = {v1, v2} tenemos que la ecuacion de la forma cuadratica esta dada por

x′2 + 3y′2 = 4 cuya ecuacion corresponde a una elipse.

Ahora, si consideramos la ecuacion z = 2x2 +2xy+2y2 entonces con respecto a la base X la ecuacion tiene

la forma z = x′2 + 3y′2 el cual corresponde a un paraboloide elıptico.

Ejemplo 6.32. La seccion conica 4xy = 5 se puede escribir matricialmente en la forma[

x y]

0 2

2 0

x

y

=

5.

Los vectores propios de Q =

0 2

2 0

son v1 =

1

−1

y v2 =

1

1

con valores propios

-2 y 2, respectivamente. Normalizando estos vectores obtenemos w1 = 1√2v1 y w2 = 1√

2v2, entonces con respecto

a la base X = {w1, w2} tenemos que la ecuacion de la seccion conica esta dada por −2x′2 + 2y′2 = 5 cuya

ecuacion corresponde a una hiperbola abierta en la direccion de y′, es decir, en la direccion de la linea generada

por v2 y con interceptos√5√2w2 =

√52 v2 =

√5/2√5/2

y −√5√2w2 =

−√5/2

−√5/2

.

Ahora, si consideramos la ecuacion z = 4xy entonces con respecto a la base X la ecuacion tiene la forma

z = −2x′2 + 2y′2 la cual corresponde a un paraboloide hiperbolico o silla de montar.

Ejemplo 6.33. (MatLab) Sea Q =

5 −1 −1−1 5 −1−1 −1 5

, determinar que tipo de conica corresponde a la ecuacion

xtQx = 5.

222

Solucion. Usamos MatLab para calcular los valores propios de A,

>> A = [5 − 1 − 1;−1 5 − 1;−1 − 1 5]; eig(A)

ans =

6

3

6

Por tanto la conica corresponde a un elipsoide. Para calcular los ejes coordenados, calculamos los vectores

propios los cuales son v1 =

1

1

1

con valor propio 3 y v2 =

−11

0

y v3 =

−10

1

ambos de valor propio 6. Notese

que v2 y v3 no son ortogonales, pero estos forman una base para el subespacio propio E6, entonces usando

Gramm-Schmidt, reemplazamos v3 por w3 = v3−proyv2v3 =

−1/2−1/2

1

. Obtenemos que los ejes coordenados bajo

los cuales la grafica de xtQx = 5 es un elipsoide son las lineas determinadas por los vectores:

v1 =

1

1

1

, v2 =

−11

0

y w3 =

−1/2−1/2

1

.

Ejemplo 6.34. Sea Q =

−1 5 −15 −1 −1−1 −1 5

, determinar que tipo de conica corresponde a la ecuacion xtQx = 5.

Solucion. Se puede ver que los valores propios de Q son λ = 3, 6 y −6. Por tanto la conica corresponde a un

hiperboloide de una hoja.

Es facil ver que los vectores propios de Q son v1 =

1

1

1

con valor propio 3, v2 =

−1/2−1/2

1

de valor propio

6 y v3 =

−11

0

de valor propio -6. De donde se sigue que la ecuacion de esta conica con respecto a la base

{v1, v2, v3} es 3x′2 + 6y′2 − 6z′2 = 5, la cual corresponde a un hiperboloide de una hoja cuyo eje central es la

linea generada por el vector v3.

Ejemplo 6.35. Determine el tipo de conica determinada por la cuadratica 2xy + 2xz + 2yz = 5.

Solucion. La matriz de la forma cuadratica es Q =

0 1 1

1 0 1

1 1 0

cuyos vectores propios ortogonales son v1 =

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 223

−11

0

y v2 =

−1/2−1/2

1

ambos de valor propio -1 y v3 =

1

1

1

de valor propio 2. Por tanto la ecuacion de esta

conica con respecto a la base {v1, v2, v3} es −x′2 − y′2 + 2z′2 = 5 cuya grafica corresponde a un paraboloide de

dos hojas cuyo eje central es la linea generada por el vector v3.

6.7. Ejercicios

En los problemas 4-8 λ1, λ2, . . . , λn son los valores propios de una matriz A. Encuentre una matriz ortogonal

Q y una matriz diagonal D tal que A = QDQt si:

a. A =

3 4

4 −3

b. A =

3 2

2 3

c. A =

3 1 0

1 3 0

0 0 2

d. A =

1 3 0

3 1 0

0 0 1

Para cada una de las matrices del problema anterior identifique el tipo de conica representada por la forma

cuadratica xtAx = 4 y bosquejar su grafica. Para las matrices dadas en los Problemas 1a. y 1b. identifique el

tipo de superficie que que representa la ecuacion z = xtAx con z variable. Para cada una de las matrices del

Problema 1 encuentre una base X de vectores propios y encuentre la matriz XAX . Sean

X =

x1 =

1

−10

, x2 =

0

1

−1

, x3 =

−10

2

y Y =

y1 =

1

1

0

, y2 =

0

1

1

, y3 =

1

0

1

bases de R3.

Encuentre las matrices de cambio de base Y IX y XIY . Sea T : R3 −→ R2 la transformacion lineal cuya matriz

ETE esta dada por ETE =

−1 1 1

0 2 −1

. Calcular la matriz ZTX de T con respecto a las bases

X =

x1 =

1

−10

, x2 =

0

1

−1

, x3 =

−10

2

de R3 y Z =

z1 =

1

−1

, z2 =

0

1

de R

2. Sea

T : R3 −→ R3 la transformacion lineal cuya matriz ETE esta dada por ETE =

−1 1 0

0 2 −11 0 −1

. Calcular la

matriz XTX de T con respecto a la base X =

x1 =

1

−10

, x2 =

0

1

−1

, x3 =

−10

2

de R3.

1.2.3.4.5.6.7. Mas Problemas.

8. Sea X =

x1 =

1

−10

, x2 =

0

1

−1

, x3 =

−10

2

una base de R3, encontrar una base Y = {y1, y2, y3} tal

224

que XIY =

1 0 1

1 1 0

0 1 1

.

9. Repetir el problema anterior si en lugar de XIY se nos da Y IX =

1 0 1

1 1 0

0 1 1

.

10. Sea T : R3 −→ R2 una transformacion lineal y sea Z =

z1 =

1

−1

, z2 =

0

1

una base para R

2 y X =

x1 =

1

−10

, x2 =

0

1

−1

, x3 =

−10

2

una base para R3. Si ZTX =

−1 1 1

0 2 −1

, calcular la matriz ETE .

11. Sea T : R2 −→ R2 definida por T

x

y

=

x+ 2y

2x+ y

y sea Y =

y1 =

1

−1

, y2 =

0

1

una base de R

2.

Calcular la base X tal que Y TX =

−1 1

0 2

.

12. Sea T : R2 −→ R2 tal que ETE =

2 1

1 1

. Demuestre que no existe una base X tal que XTX =

1 1

0 1

.

Capıtulo 7

Aplicaciones

En esta seccion asumiremos que A es una matriz diagonalizabe con A = CDC−1 donde C es la matriz de

vectores propios y D =

λ1 0 · · · 0

0 λ2 · · · 0...

.... . .

...

0 0 · · · λn

con λ1, . . . , λn los valores propios de A.

7.1. Potencia de una matriz

Es facil ver que Ak = CDkC−1. De hecho si suponemos por induccion que Ak−1 = CDk−1C−1 entonces

Ak = Ak−1A = CDk−1 C−1C︸ ︷︷ ︸

=I

DC−1 = CDk−1DC−1 = CDkC−1.

Tambien se puede ver facilmente por induccion que Dk =

λk1 0 · · · 0

0 λk2 · · · 0

......

. . ....

0 0 · · · λkn

Ejemplo 7.1. Calcule la k-esima potencia de la matriz A =

2 1

1 2

.

Se puede ver que los vectores propios de A son v1 =

1

−1

de valor propio λ = 1 y v3 =

1

1

de valor propio

λ = 3, entonces tenemos que

A =

1 1

1 −1

3 0

0 1

1 1

1 −1

−1

Por tanto

Ak =

1 1

1 −1

3 0

0 1

k

1 1

1 −1

−1

=

1 1

1 −1

3k 0

0 1

1

2

1 1

1 −1

=

12 (3

k + 1) 12 (3

k − 1)

12 (3

k − 1) 12 (3

k + 1)

.

225

226

7.1.1. Relaciones de recurrencia

Si se tiene una relacion de recurrencia determinada por una ecuacion de la forma an = αan−1 + βan−2,

entonces tenemos el sistema de ecuaciones

an = αan−1 + βan−2,

an−1 = an−1,

El cual es equivalente al sistema

an

an−1

=

α β

1 0

an−1

an−2

,

el cual es cierto para todo n. Si hacemos A =

α β

1 0

y si continuamos aplicando el sistema a los vectores

an−1

an−2

,

an−2

an−3

, . . . , obtenemos

an

an−1

= An−1

a1

a0

. (7.1)

Si conocemos los valores de a1 y a0, entonces con la Ecuacion (7.1) obtenemos una formula para an en terminos

de los valores propios de A y n. Esto se da porque si A = C

λ1 0

0 λ2

C−1, con C la matriz de vectores propios

y λ1 y λ2 los valores propios de A, entonces An−1 = C

λn−11 0

0 λn−12

C−1.

Ejemplo 7.2. (Sucecion de Fibonacci) La secuencia de Fibonacci satisface la relacion Fn = Fn−1 + Fn−2,

para n ≥ 2, con F0 = 0 y F1 = 1. Encuentre una formula para calcular el n-esimo termino Fn.

De acuerdo a las ecuaciones Fn = Fn−1+Fn−2 y Fn−1 = Fn−1, tenemos el sistema

Fn

Fn−1

=

1 1

1 0

Fn−1

Fn−2

y por tanto

Fn

Fn−1

= An−1

F1

F0

, con A =

1 1

1 0

.

Los vectores propios de A son v1 =

12

(1−√5)

1

con valor propio λ1 = 12 (1 −

√5) y v2 =

12

(1 +√5)

1

con

valor propio λ1 = 12 (1 +

√5).

Por tanto A = CDC−1 con C =

12

(1−√5)

12

(1 +√5)

1 1

y D =

12

(1−√5)

0

0 12

(1 +√5)

y de estos

obtenemos que

Fn

Fn−1

= An−1

F1

F0

= CDn−1C−1

1

0

= C

[12

(1−√5)]n−1

0

0[12

(1−√5)]n−1

C−1

1

0

=

1√5

(12 +

√52

)n

− 1√5

(12 −

√52

)n

1√5

(12 +

√52

)n−1

− 1√5

(12 −

√52

)n−1

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 227

De esto concluimos que Fn = 1√5

(12 +

√52

)n

− 1√5

(12 −

√52

)n

7.1.2. Cadenas de Markov

Esta subseccion tambien se trata de una aplicacion de la potencia de matrices y lo expondremos con ejemplos.

Ejemplo 7.3. Dos companias A y B manipulan el mercado de celulares y se calcula que A tiene el 60% de los

clientes, mientras que B maneja el 40% del mercado. La compania A prepara una agresiva campana comercial

la cual, de acuerdo a un estudio de mercado, acarreara las siguientes consecuencias:

El 90% de los clientes de A permanceran con A y el resto se ira a B

El 30% de los clientes de B se cambiaran a A y el resto permanecera con B.

Determine los porcentajes de clientes de A y B si se aplica la campana 1 vez, 10 veces, k veces e indefinida-

mente.

Si Xk y Yk es el porcentaje de clientes de A y B respectivamente despues de aplicar la campana k veces

entonces tenemos que

Xk = 0,9Xk−1 + 0,3Yk−1

Yk = 0,1Xk−1 + 0,7Yk−1

equivalentemente

Xk

Yk

=

0,9 0,3

0,1 0,7

Xk−1

Yk−1

.

Por tanto, despues de aplicar la campana una vez otbtenemos

X1

Y1

=

0,9 0,3

0,1 0,7

X0

Y0

=

0,9 0,3

0,1 0,7

0,6

0,4

=

0,66

0,34

.

Es decir, A manejara el 66% de los clientes y B el 34%.

Si se aplica la campana 10 veces obtenemos que

X10

Y10

=

0,9 0,3

0,1 0,7

X9

Y9

=

0,9 0,3

0,1 0,7

2

X8

Y8

= · · · =

0,9 0,3

0,1 0,7

10

X0

Y0

=

0,749

0,251

.

Es decir, despues de aplicar la campana 10 veces, A dominara el 74.9% del mercado.

Despues de aplicar la campana k veces obtenemos que

Xk

Yk

= Ak

X0

Y0

= Ak

,6

,4

, donde A =

0,9 0,3

0,1 0,7

.

Para determinar la k-esima potencia de A calculamos los valores y vectores propios y encontramos que los

vectores v1 =

3

1

y v2 =

−11

de valores propios λ = 1 y λ = 0,6, respectivamente, por tanto: A = CDC−1

con C =

3 −11 1

y D =

1 0

0 0,6

. De lo cual se obtiene que

Ak = CDkC−1 =

3 −11 1

1 0

0 0,6k

1

4

1 1

−1 3

=

14

(3 + 0,6k

)34

(1− 0,6k

)

14

(1− 0,6k

)14

(1 + 3 · 0,6k

)

228

De esta forma tenemos que

Xk

Yk

= Ak

0, 6

0, 4

=

14

(3− 0,6k+1

)

14

(1 + 0,6k+1

)

Por tanto el porcentaje de clientes de A despues de aplicar la campana k veces serıa el 14

(3− 0,6k+1

)% y el de

B serıa 14

(1 + 0,6k+1

)

Esto indica que si se aplica la campana indefinidamente el maximo porcentaje de clientes que obtiene A es

X∞ = lımk→∞

1

4

(3− 0,6k+1

)= 0,75% y el mınimo porcentaje al que B llegarıa es Y∞ = lım

k→∞

1

4

(3 + 0,6k+1

)=

0,25%.

Comparando este ultimo resultado con el obtenido al aplicar la campana 10 veces obtenemos que es suficiente

con aplicar esta alrededor de 10 veces para obener un buen beneficio para la compania.

7.2. Exponencial de una matriz diagonalizable

La funcion exponencial de un real x, se define como la serie ex =

∞∑

k=0

1

k!xk. Se sabe que esta serie es

convergente para todo x ∈ R y por tanto ex esta bien definido para todo x.

De igual forma para una matriz A definiremos la matriz exponencial como la matriz eA =

∞∑

k=0

1

k!Ak y

mostraremos en esta seccion que esta matriz esta bien definida si A es diagonalizable. En general la matriz de

cualquier matriz compleja esta bien definida, pero esto requiere de la forma de Jordan, en esta seccion solo nos

concentraremos en las matrices diagonalizables.

Primero, si D =

λ1 0 · · · 0

0 λ2 · · · 0...

.... . .

...

0 0 · · · λn

es diagonal, entonces

eD =

∞∑

k=0

1

k!Dk =

∞∑

k=0

1

k!

λk1 0 · · · 0

0 λk2 · · · 0

......

. . ....

0 0 · · · λkn

=

∞∑

k=0

1

k!

λk1 0 · · · 0

0 λk2 · · · 0

......

. . ....

0 0 · · · λkn

=

∞∑

k=0

1

k!λk1 0 · · · 0

0

∞∑

k=0

1

k!λk2 · · · 0

......

. . ....

0 0 · · ·∞∑

k=0

1

k!λkn

=

eλ1 0 · · · 0

0 eλ2 · · · 0...

.... . .

...

0 0 · · · eλn

Autor: OMAR DARIO SALDARRIAGA, HERNAN GIRALDO 229

Ahora, si la matriz A es diagonalizable con A = CDC−1, tenemos que:

∞∑

k=0

1

k!Ak =

∞∑

k=0

1

k!(CDC−1)k =

∞∑

k=0

1

k!CDkC−1 = C

( ∞∑

k=0

1

k!Dk

)

C−1 = CeDC−1,

por tanto eA esta bien definido y eA = CeDC−1.

Ejemplo 7.4. Calcular eA si A =

2 1

1 2

.

En el Ejemplo 7.1 vimos que A = CDC−1 con C =

1 1

1 −1

y D =

3 0

0 1

. Entonces

eA = CeDC−1 =

1 1

1 −1

e3 0

0 e

1 1

1 −1

−1

=

e4 e2

e4 e−2

7.2.1. Sistemas Lineales de Ecuaciones diferenciales

Considere el sistema lineal de ecuaciones diferenciales de la forma

x′1 = a11x1 + · · ·+ a1nxn,

...

x′n = an1x1 + · · ·+ annxn,

El cual es equivalente al sistema

x′1

...

x′n

=

a11 · · · a1n...

. . ....

an1 · · · ann

x1

...

xn

,

el cual tambien, por simplicidad, escribiremos X ′ = AX con X =

x1

...

xn

y A =

a11 · · · a1n...

. . ....

an1 · · · ann

.

Si A es diagonalizable con A = CDC−1 entonces el sistema tenemos que

X ′ = AX = CDC−1X o equivalentemente C−1X ′ = DC−1X o equivalentemente Y ′ = DY

donde Y = C−1X y por tanto Y ′ = C−1Y ′. Si denotamos por y1, . . . , yn las coordenadas del vector Y , entonces

la ecuacion Y ′ = DY produce el sistema de ecuaciones

y′1 = λ1y1, . . . , yn = λnyn

cuyas soluciones estan dadas por

y1 = c1eλ1t, . . . , yn = eλnt.

Como X = CY , obtenemos la siguiente solucion al sistema inicial

x1

...

xn

= X = CY = C

c1eλ1t

...

c1eλ1t

.

230

Ejemplo 7.5. Resolver el sistema de ecuaciones lineales

x′1 = 2x1 + x2,

x′2 = x1 + 2x2.

El sistema se puede escribir en la forma

x′1

x′2

=

2 1

1 2

x1

x2

y por el Ejemplo 7.1 sabemos que la matriz

A =

2 1

1 2

se puede escribir como el producto A = CDC−1 con C =

1 1

1 −1

y D =

3 0

0 1

.

Entonces haciendo Y = C−1X obtenemos el sistema Y ′ = DY , es decir,

y′1

y′2

=

3 0

0 1

y1

y2

cuyas

soluciones estan dadas por

y1 = c1e3t y y2 = c2e

t

con c1 y c2 constantes. Finalmente obtenemos la solucion

x1

x2

= C

c1e

3t

c2et

=

1 1

1 −1

c1e

3t

c2et

=

c1e

3t + c2et

c1e3t − c2e

t

.

Es decir, las solucion al sistema esta dada por

x1 = c1e3t + c2e

t y x2 = c1e3t − c2e

t

con c1 y c2 constantes.