64806112 algebra lineal matlab
TRANSCRIPT
ALGEBRA LINEAL
CON EL USO DE MATLAB
AUTOR
Omar SaldarriagaPh.D., State University of New York at Binghamton
Profesor AsociadoDepartamento de Matematicas
Universidad de Antioquia.
ii
c© Copyright by Omar Saldarriaga, 2009.All rights reserved.
Autor: OMAR DARIO SALDARRIAGA iii
Prefacio
El algebra lineal es el topico mas importante en Matematicas por sus numerosas aplicaciones en todas las
areas de la Matematica y a muchas otras areas, como la economıa, la ingenierıa, la quımica, la biologıa entre
otras. Este material se escribio bajo tres ideas principales:
1. Un texto computacional, en este texto casi todos los temas se ven desde un punto de vista computacional
que ensena a los lectores como hacer calculos en algebra lineal sin abandonar la componente teorica.
2. Un texto autocontenido: en este libro se dan las demostraciones de todos los teoremas, con excepcion del
Teorema 1.1 cuya demostracion se omite por ser muy engorrosa.
3. Un texto algorıtmico: En este libro se dan procedimientos paso por paso de como hacer los calculos
respectivos en cada tema.
La filosofia del texto consiste en desarrollar cada seccion en el siguiente orden: dar primero la teorıa, de
esta deducir posibles algoritmos, despues dar el procedimiento paso por paso para hacer calculos y finalmente
dar ejemplos algunos con calculos manuales y otros con el uso del MatLab, escribiendo los respectivos comandos
para obtener la respuesta.
La teorıa esta escrita en orden cronologico, cada capıtulo tiene una dependencia del anterior y se desarrolla
de una manera consisa y clara. Este material se ha usado como notas de clase y en encuestas realizadas a los
estudiantes, estos han expresado que las notas son muy claras y que se pueden entender con mucha facilidad.
Espero que los lectores encuentren en este libro un buen texto, si lo usan como tal para un curso, en caso
de no ser el texto guıa, espero que encuentren en el una excelente referencia.
iv
Indice general
Prefacio III
0. Comandos en MatLab 3
1. Algebra de matrices 7
1.1. Sistemas de Ecuaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2. Matrices y Vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.3. Producto de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.4. Inversa de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.5. Matrices Elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.6. Inversa a la izquierda y a la derecha . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2. Espacios Vectoriales 35
2.1. Definicion y Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.2. Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.3. Independencia Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.4. Conjuntos generadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.5. Bases y Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.6. Subespacios fundamentales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.7. Subespacio generado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.8. El teorema de la base incompleta en Rm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3. Transformaciones Lineales 61
3.1. Definicion y Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.2. Transformaciones Lineales Inyectivas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.3. Transformaciones lineales sobreyectivas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3.4. Isomorfismos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
v
Autor: OMAR DARIO SALDARRIAGA 1
3.5. Espacios Vectoriales arbitrarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
3.5.1. Transformaciones lineales entre espacios vectoriales arbitrarios. . . . . . . . . . . . . . . . 75
3.6. Propiedades de los Espacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
4. Ortogonalidad en Rn 87
4.1. Definiciones Basicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
4.2. Proyeccion ortogonal sobre un vector . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
4.3. Proyeccion ortogonal sobre un subespacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
4.4. Mınimos Cuadrados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
4.5. El proceso Gramm-Schmidt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
4.6. La factorizacion QR de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
5. Determinantes 113
5.1. Definicion y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
5.2. Determinantes y operaciones elementales de fila . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
5.3. Determinante de matrices invertibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
5.4. Matriz Adjunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
5.5. La Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
5.6. Interpretacion Geometrica del Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
6. Valores y Vectores Propios 131
6.1. Polinomio Caracterıstico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
6.2. Matrices Similares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
6.3. Cambio de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
6.3.1. La matriz de una transformacion con respecto a dos bases . . . . . . . . . . . . . . . . . . 144
6.4. Diagonalizacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
6.5. Matrices Simetricas y Diagonalizacion Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
6.6. Formas Cuadraticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
6.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
2
Capıtulo 0
Comandos en MatLab
En este mini capıtulo damos una pequena introduccion al uso del MatLab para hacer calculos en algebra
lineal, estos comandos son muy utiles y se hara uso constante de estos en los ejemplos en el texto. La lectura
de este capıtulo se puede obviar, ya que solo se usa como referencia para el lector.
1. Para definir una matriz en MatLab se escriben las entradas fila por fila separando las entradas de una fila
con coma o espacio y punto y coma para entrar una nueva fila.
Ejemplo:
>> A = [1,−1; 2, 0] Con este comando se define la matriz A =
1 −1
2 0
.
o en lugar de coma se dejan espacios entre los numeros
>> A = [1 − 1; 2 0]
2. El sistema2x+ y = 3
x− 2y = 6se resuelve con el comando A\b donde A es la matriz de coeficientes y b es el
vector de terminos independientes
>> A = [2, 1; 1,−2], b = [3; 6], x = A\b
3. La forma escalonada de una matriz se calcula con el comando rref(A)
>> A = [2, 1; 1,−2], R = rref(A)
Si se desean las respuestas en numeros racionales se cambia el formato “format rat 2se ejecuta la orden
de nuevo
>> format rat
>> R = rref(A)
4. La suma de las matrices A y B se ejecuta con el comando A+B
>> A = [2, 1; 1,−2], B = [1,−1; 2, 1], A+B
3
4
5. El producto de escalar α por una matriz A se ejecuta con el comando α ∗A
>> A = [2, 1; 1,−2], α ∗A
6. El producto de las matrices A y B se ejecuta con el comando A ∗B
>> A = [2, 1; 1,−2;−1, 0], B = [1, 1,−2; 0, 1, 2], A ∗B
7. La inversa de la matriz A se ejecuta con el comando inv(A)
>> A = [2, 1; 1,−2], inv(A)
8. La transpuesta de una matriz A se calcula con el comando transpose(A) o A′
>> A = [2, 1; 1,−2], transpose(A)
o tambien
>> A′
9. El espacio nulo de una matriz se calcula con el comando null(A)
>> A = [2, 1; 1,−2], null(A)
10. El proceso Gramm-Schmidt se ejecuta con la orden orth(A), en este caso se obtiene una base orthonormal
para el espacio columna de A
>> A = [2, 1; 1,−2], orth(A)
11. La factorizacion QR de una matriz A se calcula con el comando qr(A)
>> A = [2, 1; 1,−2], [Q,R] = qr(A)
12. la solucion de los mınimos cuadrados de un sistema inconsistente, Ax = b, se calcula ejecutando el comando
lsqr(A, b)
>> A = [2, 1; 1,−2; 0, 0], b = [1;−1; 1], lsqr(A, b)
13. La solucion de los mınimos cuadrados tambien se puede hallar como se muestra a continuacion
>> A = [2, 1; 1,−2; 0, 0], b = [1;−1; 1], inv(A′ ∗A) ∗A′ ∗ b
14. El determinante de una matriz se calcula con el comando det(A)
>> A = [2, 1; 1,−2], det(A)
15. El rango de una matriz se calcula con el comando rank(A)
>> A = [2, 1; 1,−2], rank(A)
16. El espacio columna de una matriz A se calcula con el comando colspace(a) pero se necesita usar el comando
especial sym(a) para que MatLab entienda las columnas de A como vectores
>> a = sym([1, 2;−1, 2; 1, 1]), colspace(a)
Autor: OMAR DARIO SALDARRIAGA 5
17. El polinomio caracterıstico de una matriz A se calcula con el comando poly(A).
Advertencia: MatLab escribe solamente los coeficientes del polinomio caracteristico
>> c = [1 2 1;−1 2 0; 1 1 3/4]; poly(c)
ans =
1.00 -3.75 5.25 0.00
Esta respuesta significa que el polinomio caraterıstico de A es λ3 − 3,75λ2 + 5,25λ.
18. Como los valores propios son las raıces del polinomio caraterıstico, los valores propios tambien se pueden
calcular con el comando roots(poly(A)), el cual nos daria las raıces del polinomio caracterıstico
>> c = [1 2 1;−1 2 0; 1 1 3/4]; roots(polyc)
ans =
1.8750 + 1.3170i
1.8750 - 1.3170i
-0.0000
Advertencia: No se debe usar el formato “format bank 2a que este formato no muestra la parte imaginaria.
19. Tambien se puede usar el comando poly(sym(A)), de esta manera se obtiene el poinomio caraterıstico y
no solo los coeficientes
>> c = [1 2 1;−1 2 0; 1 1 3/4]; poly(sym(c))
ans =
x 3− 15/4 ∗ x 2 + 21/4 ∗ x
20. Si se quiere factorizar el polinomio caraterıstico, para encontrar por ejemplo los valores propios, se usa el
comando factor(p)
>> c = [1 2 1;−1 2 0; 1 1 3/4]; factor(poly(sym(c)))
21. Para calcular los valores propios de una matriz A se ejecuta el comando eig(c)
Advertencia: No se debe usar el formato ”format bank”porque estte podria eliminar la parte imaginaria
de los valores propios complejos, se debe usar ”format short.o ”format rat”
>> format short
>> c = [1 2 1;−1 2 0; 1 1 3/4]; eig(c)
22. Para calcular los valores y vectores propios de una matriz A se ejecuta el comando [V,D] = eig(c). MatLab
escribira los vectores propios en la matriz V y los valores propios en la diagonal de la matriz D. Estas
matrices V y D son tambien las matrices de la diagonalizacion de A
6
>> format short (o format rat)
>> c = [1 2 1;−1 2 0; 1 1 3/4]; [V,D] = eig(c)
23. Las potencias de una matriz A se calculan usando el comando Aˆ seguido por la potencia. Por ejemplo A2
se calcula con el comando A 2
>> A = [1 2 1;−1 2 0; 1 1 3/4]; A 2
24. Si se tiene una matriz A de tamano m×n y un vector columna b con m componentes, se puede aumentar
la matriz A por el vector b con el comando [A, b]
>> A = [3 − 1 0 0;−1 3 0 0; 7 − 1 − 4 0; 7 − 1 0 − 4], b = [1; 0;−2; 1], [A, b]
25. Si se tienen dos matrices A y B de tamanos m×n y m× q, respectivamente, se puede aumentar la matriz
A por la matriz B con el comando [A,B]
>> A = [3 − 1 0 0;−1 3 0 0; 7 − 1 − 4 0; 7 − 1 0 − 4], B = [−1 3;−1 − 1; 0 0; 0 − 4], [A,B]
26. Si se tiene una matriz A de tamano m× n y un vector fila b con n componentes, se pueden aumentar las
filas de A agregando el vector b en la parte inferior de la matriz con el comando [A; b]
>> A = [3 − 1 0 0;−1 3 0 0; 7 − 1 − 4 0; 7 − 1 0 − 4], b = [1 0 − 2 1], [A; b]
27. Si se tienen dos matrices A y B de tamanos m× n y q× n, respectivamente, se pueden aumentar las filas
de A agregando la matriz B en la parte inferior de la A con el comando [A;B]
>> A = [3 − 1 0 0;−1 3 0 0; 7 − 1 − 4 0; 7 − 1 0 − 4], B = [−1 3 − 1 − 1; 0 0 0 − 4], [A;B]
28. Si se quiere extraer la i-esima fila de una matriz A se usa el comando A(i, :). Por ejemplo si se quiere
extraer la tercera fila de una matriz A se escribe A(3, :)
>> A = [3 − 1 0 0;−1 3 0 0; 7 − 1 − 4 0; 7 − 1 0 − 4], A(3, :)
29. Si se quiere definir una matriz formada por varias filas de una matriz A, se pegan estas en una matriz
como se muestra en el siguiente ejemplo
>> A = [3 − 1 0 0;−1 3 0 0; 7 − 1 − 4 0; 7 − 1 0 − 4], [A(3, :);A(4, :)]
Esta instruccion produce una matriz formada por las filas tercera y cuarta de la matriz A.
30. Si se quiere extraer la i-esima columna de una matriz A se usa el comando A(:, i). Por ejemplo si se quiere
extraer la segunda columna de una matriz A se escribe A(:, 2)
>> A = [3 − 1 0 0;−1 3 0 0; 7 − 1 − 4 0; 7 − 1 0 − 4], A(:, 2)
31. Si se quiere definir una matriz formada por varias columnas de una matriz A, se pegan estas en una matriz
como se muestra en el siguiente ejemplo
>> A = [3 − 1 0 0;−1 3 0 0; 7 − 1 − 4 0; 7 − 1 0 − 4], [A(:, 2);A(:, 4)]
Esta instruccion produce una matriz formada por las columnas segunda y cuarta de la matriz A.
Capıtulo 1
Algebra de matrices
1.1. Sistemas de Ecuaciones Lineales
Comenzaremos esta seccion ilustrando un ejemplo del tema central del capıtulo, el cual es la solucion de sis-
temas de ecuaciones lineales, y utilizaremos este ejemplo para introducir el metodo de solucion usando reduccion
Gauss-Jordan en matrices.
Para comenzar, consideremos el siguiente sistema de dos ecuaciones en dos incognictas:
x+ 2y = 3 (1.1)
4x+ 5y = 6
Hay varios metodos para resolver este sistema, entre los cuales destacaremos los siguientes:
1. Por eliminacion: Este metodo usa dos operaciones basicas para llevar a la solucion de un sistema lineal las
cuales son:
1. Sumar un multiplo de una ecuacion a otra ecuacion con el objetivo de eliminar una de las variables, por
ejemplo la operacion
-4 ecuacion(1.1)+ ecuacion(1.2)
elimina la variable x y produce la ecuacion −3y = −6.
2. Multiplicar una ecuacion por una constante no cero con el objetivo de simplicar la ecuaciones, por ejemplo
si multiplicamos la nueva ecuacion −3y = −6 por−13
obtenemos y = 2.
3. Finalmente si multiplicamos esta ultima ecuacion (y = 2) por -2 y se la sumamos a la ecuacion (1.1) y
obtenemos x = −1, obteniendo ası la solucion al sistema: x = −1 y y = 2.
2. Determinantes: El metodo de Cramer (ver Seccion 5.5) nos da una formula para la solucion del sistema como
un cociente de determinantes de la siguiente forma:
7
8
x =
∣∣∣∣∣∣3 2
6 5
∣∣∣∣∣∣∣∣∣∣∣∣1 2
4 5
∣∣∣∣∣∣=
3−3
= −1 y y =
∣∣∣∣∣∣1 3
4 6
∣∣∣∣∣∣∣∣∣∣∣∣1 2
4 5
∣∣∣∣∣∣=−6−3
= 2
En general, si tenemos un sistema de dos ecuaciones lineales en dos incognitas, hay tres posibles respuestas y
estas son:
1. El sistema tiene solucion unica, (como en el ejemplo ilustrado)
2. El sistema no tiene solucion, caso en el cual, decimos que es inconsistente
3. el sistema tiene infinitas soluciones, caso en el cual decimos que el sistema es redundante.
Cuando tratamos de resolver un sistema 3x3, de tres ecuaciones en tres incognitas, tambien podemos obtener,
al igual que en el caso 2x2, tres posibles respuestas: solucion unica, solucion vacia o infinitas soluciones.
Uno de los objetivos de la seccion es mostrar que aun en dimensiones mayores se presentan exactamente las
mismas tres posibilidades. Para resolver el caso general necesitamos definir la nocion de matriz y asociar a cada
sistema lineal una de estas y usarla para resolverlo. Tambien introduciremos la nocion de operacion elemental
de fila, las cuales seran las equivalentes a las mencionadas en el metodo de eliminacion al principio de la seccion.
Definicion 1.1. Una matriz es un arreglo rectangular de numeros reales en m filas y n columnas
a11 · · · a1n
.... . .
...
am1 · · · amn
;
donde aij es un numero real para i = 1, . . . ,m y j = 1, . . . , n. A esta matriz se le llama una matriz de tamano
m× n.
Ejemplo 1.1. (MatLab) A =
1 −1
2 0
es una matriz de tamano 2×2
* Esta matriz la definimos en MatLab de la siguiente forma
>> A = [1,−1; 2, 0]
y MatLab guardaria la matriz como el arreglo rectangular
A =1 −1
2 0En general, para definir matrices en MatLab se escriben las entradas entre corchetes, escribiendo las entradas
separadas con coma fila por fila separando las filas con punto y coma.
A un sistema lineal
a11x1 + · · ·+ a1nxn = b1...
am1x1 + · · ·+ amnxn = bm
dem ecuaciones con n incognitas, se le asocia la matriz
a11 · · · a1n b1...
. . ....
...
amn · · · a1n bm
de tamano m× (n+ 1), llamada la matriz de coeficientes. Cada fila de esta matriz tiene los coeficientes de cada
una de las ecuaciones incluyendo el termino constante al final de la misma y hay una columna por cada incognita
mas una columna extra que contiene los terminos independientes.
Autor: OMAR DARIO SALDARRIAGA 9
Ejemplo 1.2. Al sistema linealx+ 2y = 3
4x+ 5y = 6le podemos asignar la matriz de coeficientes1 2 3
4 5 6
.
Las operaciones descritas al principio de la seccion que se pueden realizar sobre las ecuaciones de un sistema
lineal se traducen en operaciones de fila sobre matrices, llamadas operaciones elementales de fila, las cuales
describimos a continuacion.
Definicion 1.2. Sea A una matriz de tamano m × n, una operacion elemental de fila sobre A es una de las
siguientes operaciones:
1. multiplicar una fila por una constante no cero,
2. sumar un multıplo de una fila a otra fila,
3. intercambiar dos filas.
Ejemplo 1.3. Al principio de la seccion resolvimos el sistema de ecuacionesx+ 2y = 3
4x+ 5y = 6aplicando las opera-
ciones
1. -4 ecuacion 1 mas ecuacion 2,
2. −13
de la nueva ecuacion,
3. -2 ecuacion (y = 2) mas ecuacion (1.1).
Como en la matriz asociada a un sistema lineal las ecuaciones se representan en filas, estas operaciones se
traducen en operaciones de fila, de hecho, la primera operacion se traduce en la operacion de fila −4F1+F2 → F2,
la segunda en −13 F2 → F2 y la tercera en −2F2 + F1 → F1. Al aplicar estas operaciones obtenemos:1 2 3
4 5 6
−4F1+F2→F2
1 2 3
0 −3 −6
−13 F2→F2
1 2 3
0 1 2
−2F2+F1→F1
1 0 −1
0 1 2
De esta ultima matriz obtenemos las ecuaciones x = −1 y y = 2 las cuales son la solucion al sistema.
En este ejemplo se ilustra el metodo de solucion de un sistema lineal con operaciones de fila sobre matrices, el
cual es el objetivo de la seccion. Para ilustrar el caso general debemos mostrar como aplicar operaciones de fila
sobre una matriz de una manera eficiente que garantice una solucion, una manera efectiva es llevar la matriz a
su forma escalonada reducida, la cual definimos a continuacion.
Definicion 1.3. Sea A una matriz de tamano m × n, decimos que A esta en forma escalonada reducida si A
satisface las siguientes condiciones:
1. todas las filas nulas (filas donde todas las entradas, en esa fila, son ceros) estan en la parte inferior de la
matriz,
10
2. La primera entrada no cero de una fila no nula es un uno, a esta entrada se le llama pivote,
3. Si dos filas consecutivas son no nulas, entonces el pivote de la de arriba esta mas a la izquierda de la de
abajo,
4. Todas las entradas de una columna con un pivote son cero, excepto la entrada donde esta el pivote.
Ejemplo 1.4. Las siguientes matrices estan en forma escalonada reducida:
A =
1 0 0
0 1 0
0 0 1
B =
1 0 ∗
0 1 ∗
0 0 0
C =
1 ∗ 0
0 0 1
0 0 0
D =
1 ∗ ∗
0 0 0
0 0 0
E =
0 1 0
0 0 1
0 0 0
F =
0 1 ∗
0 0 0
0 0 0
G =
0 0 1
0 0 0
0 0 0
De hecho estas son todas las formas escalonadas reducidas de tamano 3× 3.
Ejemplo 1.5. (MatLab) La forma escalonada reducida de una matriz se calcula en MatLab con el comando
rref como se muestra a continuacion. Sea A =
−1 2 3 −1
0 3 −2 −1
2 −1 −8 1
,
>> A = [−1, 2, 3,−1; 0, 3,−2,−1; 2,−1,−8, 1];R = rref(A)
R =1 0 −13/3 1/3
0 1 −2/3 −1/3
0 0 0 0
El proceso de aplicar operaciones elementales de fila sobre una matriz hasta llevarla a su forma escalonada
reducida se le conoce como reduccion Gauss-Jordan. Este proceso nos lleva tambien a determinar si el sistema
tiene solucion y a encontrarla en el caso de que exista (Ver Teorema 1.2). Primero debemos garantizar que es
posible llevar cualquier matriz a su forma escalonada reducida por medio de operaciones elementales.
Teorema 1.1. Toda matriz se puede reducir una forma escalonada reducida unica
Teorema 1.2. Considere el sistema de ecuaciones
a11x1 + · · ·+ a1nxn = b1...
am1x1 + · · ·+ amnxn = bm
, sea A =
a11 · · · a1n b1
.... . .
......
am1 · · · amn bm
la matriz de coeficientes asociada al sistema y sea A′ la forma escalonada reducida de A. Entonces el sistema
tiene:
1. solucion unica si y solo si A′ tiene pivote en todas las columnas excepto la ultima,
2. solucion vacia si y solo si A′ tiene pivote en la ultima columna,
Autor: OMAR DARIO SALDARRIAGA 11
3. infinitas soluciones si y solo si A′ no tiene pivote en la ultima columna y hay al menos otra columna sin
pivote.
Corolario 1.3. Un sistema de ecuaciones con mas variables que ecuaciones (n > m) nunca tiene solucion
unica.
Observacion 1.1. Sea A la matriz del Teorema 1.2 asociada a un sistema de ecuaciones lineales y A′ su
forma escalonada reducida. El Teorema 1.2 determina, usando la matriz A′, si el sistema tiene soluciones
y cuantas soluciones hay (unica o infinitas). La matriz A′ tambien nos permite encontrar las soluciones de
manera explicita, como lo describimos a continuacion.
1. Si el sistema tiene solucion unica entonces m ≥ n y la solucion esta dada por x1 = c1, . . . , xn = cn, donde
c1, . . . , cn son las entradas en la ultima columna de A′.
2. Si el sistema tiene infinitas soluciones entonces por el Teorema 1.2 hay columnas sin pivote y la solucion
queda en terminos de estas variables, a las cuales se le llamara variables libres. En particular, si j1, . . . , jk
son las columnas de A′ con pivote, entonces una solucion al sistema esta dada por xj1 = c1, . . . , xjk = ck
y xi = 0 si xi es una variable libre.
Ejemplo 1.6. Determine si el sistemax1 + x2 + x3 + x4 = 4
x3 − x4 = 3tiene soluciones y en el caso afirmativo escribalas
de forma parametrica
Solucion La matriz de coeficientes es
1 1 1 1 4
0 0 1 −1 3
y su forma escalonada reducida esta dada por A′ =1 1 0 2 1
0 0 1 −1 3
. Notese que las columnas 1 y 3 de A′ tienen pivote, entonces por la Observacion 1.1, una
solucion particular al sistema esta dada por x1 = 1, x3 = 3 y las variables libres iguales a cero, es decir,
x2 = x4 = 0. Las infinitas soluciones al sistema se pueden dar en forma parametrica leyendo el sistema de
ecuaciones de la matriz A′, las cuales son x1 + x2 + 2x4 = 0 y x3 − x4 = 3, y despejando en terminos de las
variables libres
x1 = 1− x2 − 2x4 (1.2)
x3 = 3 + x4
De acuerdo a estas ecuaciones las variables x2 y x4 toman valores arbitrarios y cada par de valores que se le
asignen a estas variables, se tiene una solucion particular, ası de esta manera las ecuaciones (1.2) nos dan todas
las soluciones al sistema de manera parametrica.
Ejemplo 1.7. Considere el sistema
−x+ 2y + 3z = −1
3y − 2z = −1
2x− y − 8z = 1
. La matriz aumentada asociada al sistema esta dada
12
por A =
−1 2 3 −1
0 3 −2 −1
2 −1 −8 1
cuya forma escalonada reducida R fue calculada en en el Ejemplo 1.5
R =
1 0 −4,3333 0,3333
0 1 −0,6667 −0,3333
0 0 0 0
=
1 0 − 13
313
0 1 − 23 − 1
3
0 0 0 0
De aqui tenemos que el sistema tiene infinitas soluciones las cuales estan dadas por
x = 13 + 13
3 z
y = − 13 + 2
3z
Ejemplo 1.8. (MatLab) El sistema
−x+ 2y + 3z = −1
2x− 4y − 6z = −1
2x− y − 8z = 1
tiene matriz asociada al sistema dado por A =
−1 2 3 −1
2 −4 −6 −1
2 −1 −8 1
. Usando MatLab para calcular la forma escalonada reducida de A obtenemos
>> A = [−1, 2, 3,−1; 2,−4,−6,−1; 2,−1,−8, 1]; R=rref(A)
R =1 0 −4,3333 0
0 1 −0,6667 0
0 0 0 1De aqui tenemos que la forma escalonada reducida R de la matriz A es la matriz
R =
1 0 −4,3333 0
0 1 −0,6667 0
0 0 0 1
.Como esta ultima matriz tiene un pivote en la ultima columna, entonces por el Teorema 1.2 el sistema no tiene
solucion.
Definicion 1.4. Un sistema lineal homogeneo es un sistema lineal de la forma
a11x1 + · · ·+ a1n = 0...
am1x1 + · · ·+ amn = 0
,
es decir, un sistema donde todos los terminos independientes son cero.
Corolario 1.4. Un sistema lineal homogeneo siempre tiene solucion.
Autor: OMAR DARIO SALDARRIAGA 13
Terminamos la seccion con la definicion de rango de una matriz.
Definicion 1.5. Sea A una matriz y A′ su forma escalonada reducida. Definimos el rango de A, denotado por
rango(A), como rango(A) = # de pivotes de A′.
Ejemplo 1.9. Para las matrices del Ejemplo 1.4 se tiene que
rango(A) = 3, rango(B) = rango(C) = rango(E) = 2 y
rango(D) = rango(F ) = rango(G) = 1.
1.1.1. Ejercicios
1. Use el metodo Gauss-Jordan para resolver los siguientes sistemas.
a.
x− 2y + 3z = 7
2x+ y − z = 7
2x− y − z = 7
b.
2x+ 4y − 4z = 6
2x− 5y + 4z = 6
−x+ 16y − 14z = −3
c.
x+ y − z = 7
x− y + z = 4
2x+ y + z = 3
d.
x+ 2y + 3z = 1
4x+ 5y + 6z = 2
7x+ 8y + 9z = 4
e.
x+ 2y + 3z + w = 7
4x+ 5y + 6z + 2w = 7
7x+ 8y + 9z + 4w = 7
f.
x+ 2y + 3z + 4w = 1
x+ 2y + 3z + 3w = 2
x+ 2y + 2z + 2w = 3
x+ y + z + w = 1
2. Encuentre las soluciones parametricas al sistema y uselas para calcular dos soluciones particulares:
x− 2y + 3z + w = 3
y = 2
w = 1
3. Demuestre que el sistema
2x− y + 3z = a
3x+ y − 5z = b
−5x− 5y + 21z = c
es consistente si y solo si c = 2a− 3b.
4. Para los sistemas cuyas matrices aumentadas estan dadas en los numerales a.-c. determine los valores a y
b para los cuales el sistema tenga
I. ninguna solucion
II. solucion unica
III. infinitas soluciones y en este caso dar dos soluciones particulares.
14
a.
1 0 a 0
0 1 b 1
0 0 a+ b a− b− 2
b.
1 0 a 0
0 1 b 1
0 0 2a+ b a+ b− 1
c.
1 0 a 0
0 1 b 1
0 0 a− b a− b− 2
5. Muestre que el sistema
ax+ by = 0
cx+ dy = 0tiene solucion si y solo si ad− bc = 0.
6. Haga una lista de todas las matrices 3x4 que esten en forma escalonada reducida.
1.2. Matrices y Vectores
Definicion 1.6. Definimos vector columna(fila) como una matriz con una sola columna(fila).
Ejemplo 1.10. v =
1
2
−1
es un vector columna y w =[0 1
]es un vector fila.
Definicion 1.7. (Operaciones con matrices y vectores)
1. (Suma de matrices) Sean A =
a11 · · · a1n
.... . .
...
am1 · · · amn
y B =
b11 · · · b1n...
. . ....
bm1 · · · bmn
matrices del mismo tamano,
definimos la matriz A+B como la matriz dada por:
A+B =
a11 + b11 · · · a1n + b1n
.... . .
...
am1 + bm1 · · · amn + bmn
.
Similarmente, definimos la suma de los vectores x =
x1
...
xn
y y =
y1...
yn
como el vector x+ y =
x1 + y1
...
xn + yn
.
2. (Producto de una matriz por un escalar) Sea A =
a11 · · · a1n
.... . .
...
am1 · · · amn
una matriz de tamano m × n y α un
escalar, definimos la matriz α ·A como la matriz dada por
αA =
αa11 · · · αa1n
.... . .
...
αam1 · · · αamn
.
Autor: OMAR DARIO SALDARRIAGA 15
Ejemplo 1.11. (MatLab) Sean A =
1 2
−1 −3
0 1
y B =
−2 −2
3 1
1 1
. Podemos calcular las matrices A + B,
A−B y 3A en MatLab como sigue
>> A = [1, 2;−1,−3; 0, 1]; B = [−2,−2; 3, 1; 1, 1]; A+B
A+B=
−1 0
2 −2
1 2
>> A−B
A−B =
3 4
−4 −4
−1 0
>> 2 ∗A
2 ∗A=
2 4
−2 −6
0 2
Notacion 1. Denotaremos por Omn a la matriz de ceros de tamano m × n, o simplemente por O si no hay
lugar a confusion y al vector cero lo denotaremos por θn o simplemente θ si no hay lugar a confusion.
El siguiente teorema establece las propiedades que satisfacen estas operaciones en matrices y vectores.
Teorema 1.5. Sean A, B y C matrices de tamanos m× n, α y β escalares, entonces tenemos
1. (A+B) + C = A+ (B + C)
3. A+ (−1)A = −1A+A = O
5. α(A+B) = αA+ αB
7. (αβ)A = α(βA)
2. A+Omn = Omn +A = A
4. A+B = B +A
6. (α+ β)A = αA+ βA
8. 1A = A
El siguiente teorema establece las propiedades analogas que se cumplen para vectores.
Teorema 1.6. Sean x, y y z vectores con n componentes, α y β escalares, entonces tenemos
1. (x+ y) + z = x+ (y + z)
3. x+ (−1)x = −1x+ x = θn
5. α(x+ y) = αx+ αy
7. (αβ)x = α(βx)
2. x+ θn = θn + x = x
4. x+ y = y + x
6. (α+ β)x = αx+ βx
8. 1x = x
16
1.2.1. Ejercicios
1. Ejecutar las operaciones indicadas con los vectores v =
1
−1
3
, w =
3
1
2
y z =
−2
5
0
.
a. v + w b. 3v c. − 3w d. 3v + 2d− 3w
2. Ejecutar las operaciones indicadas con las matrices A =
1 2
−1 −3
0 1
y B =
−2 −2
3 1
1 1
y z =
−2
5
0
.
a. A+B b. A−B c. − 3A d. − 3A+ 2B
Sean v, w y z vectores en Rn y α y β ∈ R, demuestre lo siguiente:
1.3. Producto de matrices
Comenzaremos la seccion con las definiciones de producto interno de vectores y transpuesta de una matriz,
las cuales no permitiran definir el producto de matrices.
Definicion 1.8. Sean x =
x1
...
xn
y y =
y1...
yn
vectores de n componentes, definimos el producto interno o
producto escalar de los vectores x y y, denotado por x · y, por la formula
x · y = x1y1 + · · ·+ xnyn =n∑i=1
xiyi.
Definicion 1.9. Sea A =
a11 · · · a1n
.... . .
...
am1 · · · amn
una matriz de tamano m× n, definimos la matriz transpuesta de
A, denotada por At, como la matriz que se obtiene al intercambiar las filas y las columnas de A, esto es:
At =
a11 · · · am1
.... . .
...
a1n · · · amn
Ahora pasemos a definir el producto de matrices.
Autor: OMAR DARIO SALDARRIAGA 17
Definicion 1.10. (Producto de matrices) Sea A =
a11 · · · a1n
.... . .
...
am1 · · · amn
una matriz de tamano m × n y B =
b11 · · · b1q...
. . ....
bn1 · · · bnq
de tamano n× q. Definimos el producto A ·B como la matriz A ·B de tamano m× q dada por
AB =
c11 · · · c1q...
. . ....
cm1 · · · cmq
donde
cij =n∑k=1
aikbkj = ai1b1j + ai2b2j + · · ·+ ainbnj
para i = 1, . . . ,m y j = 1, . . . , q.
La ij-esima entrada de la matriz AB es la suma del producto de las entadas en la fila i de A por las entradas
de la columna j de B:
a11 · · · a1n
.... . .
...
ai1 · · · ain...
. . ....
am1 · · · amn
c11 · · · c1j · · · c1q...
. . ....
. . ....
cn1 · · · cnj · · · cnq
Este producto coincide con el producto escalar(Ai)t · Bj donde Ai es la i-esima fila de A y Bj es la j-esima
columna de B.
Ejemplo 1.12. Calcular el producto AB donde A =
1 −1 0
2 2 −3
y B =
2 0
−2 1
1 0
.
18
Solucion Vamos a calcular cada una de las entradas cij de la matriz AB:
c11 =(A1)t ·B1 =
[1 −1 0
]t·
2
−2
1
=
1
−1
0
·
2
−2
1
= 2 + 2 + 0 = 4,
c12 =(A1)t ·B2 =
[1 −1 0
]t·
0
1
0
=
1
−1
0
·
0
1
0
= 0− 1 + 0 = −1,
c21 =(A2)t ·B1 =
[2 2 −3
]t·
2
−2
1
=
2
2
−3
·
2
−2
1
= 4− 4− 3 = −3,
c22 =(A2)t ·B2 =
[2 2 −3
]t·
0
1
0
=
2
2
−3
·
0
1
0
= 0 + 2 + 0 = 2,
De estos resultados tenemos
AB =
c11 c12
c21 c22
=
4 −1
−3 2
.
Ejemplo 1.13. (MatLab) Sean A =
1 −1 0
2 2 −3
y B =
2 0
−2 1
1 0
las matrices del ejemplo anterior,
podemos calcular el producto de matrices en MatLab con el comando >> A∗B como se muestra a continuacion:
>> A = [1,−1, 0; 2, 2,−3], B = [2, 0;−2, 1; 1, 0], C = A ∗B, D = B ∗A
C=4 −1
−3 2D=
2 −2 0
0 4 −3
1 −1 0
El producto de matrices no es en general conmutativo pero si satisface la asociatividad.
Teorema 1.7. Sean A, B y C matrices de tamanos m× n, n× p y p× q, respectivamente. Entonces se tiene
que
A(BC) = (AB)C.
Demostracion. Sean aij , bij y cij las entradas de las matrices A, B y C, respectivamente, y sean dij y eij las
entradas de las matrices AB y BC, respectivamente. Por definicion del producto de matrices tenemos que
dij =n∑k=1
aikbkj y eij =p∑
h=1
bihchj .
Autor: OMAR DARIO SALDARRIAGA 19
Ahora, sean fij y gij las entradas de las matrices A(BC) y (AB)C, respectivamente. Entonces
fij =n∑k=1
aikekj =n∑k=1
aik
p∑h=1
bkhchj =n∑k=1
p∑h=1
aikbkhchj y (1.3)
gij =p∑
h=1
dihchj =p∑
h=1
n∑k=1
aikbkhchj =n∑k=1
p∑h=1
aikbkhchj (1.4)
De las ecuaciones (1.3) y (1.4) tenemos que (AB)C = A(BC).
El producto de matrices cuadradas satisface otras propiedades importantes, entre ellas la existencia de una
matriz neutra bajo el producto, a la cual se le llama la matriz identidad y se denota por In. Esta matriz se
define por In =
1 · · · 0...
. . ....
0 · · · 1
, es decir, la matriz identidad es la matriz cuyas entradas en la diagonal principal
son uno y ceros por fuera esta. Listamos las propiedades a continuacion.
Teorema 1.8. Sean A y C matrices de tamanos m× n y n× q respectivamente, entonces se tiene lo siguiente
1. ImA = A y AIn = A. En particular si A es una matriz cuadrada de tamano n×n entonces AIn = InA = A.
2. OqmA = Oqn y AOnq = Omq para cualquier q = 1, 2, 3, . . . . En particular si A es una matriz cuadrada de
tamano n× n entonces AOnn = OnnA = Onn.
3. (A+B)C = AC +BC, donde B es una matriz de tamano m× n.
4. A(B + C) = AB +AC, donde B es una matriz de tamano n× q.
A continuacion listamos otras propiedades del producto de matrices que nos van a ser muy utiles especialmente
para simplificar algunas demostraciones en los capıtulos.
Otras propiedades del producto de matrices A continuacion listamos tres propiedades, que aunque parecen
no tener mucho sentido, seran muy utiles en muchas demostraciones en el resto del libro.
Lema 1.9. Sean A =
A1
...
Am
una matriz de tamano m × n donde A1, . . . , Am son las filas de A, B =
[B1 · · · Bq
]de tamano n × q donde B1, . . . , Bq son las columnas de B y x =
x1
...
xq
un vector columna,
entonces
1. Las columnas del producto AB son los vectores AB1, . . . , ABq, es decir
AB =[AB1 · · · ABq
].
20
2. las filas del producto AB son los vectores fila A1B, . . . , AmB, es decir AB =
A1B
...
AmB
.
3. El producto Bx es el vector x1B1 + · · · + xqBq. Es decir, el vector Bx es una combinacion lineal de las
columnas de B con coeficientes tomados de x.
Ejemplo 1.14. Sean A =
1 −3
4 −1
, B =
1 0 3
2 −1 1
y x =
2
−3
1
. El producto AB se puede ver de la
siguientes formas
AB =
[1 −3]B[
4 −1]B
y
AB =
A 1
2
A
0
−1
A
3
1
=
1
1
4
+ 2
−3
−1
0
1
4
− 1
−3
−1
3
1
4
+ 1
−3
−1
=
−5 3 0
2 1 11
.El producto Bx es una combinacion de las columnas de B:
Bx = 2
1
2
− 3
0
−1
+ 1
3
1
=
5
8
.El producto de matrices sirve para establecer otra coneccion entre matrices y sistemas de ecuaciones lineales. Sea
a11x1 + · · ·+ a1nxn = b1...
am1x1 + · · ·+ amnxn = bm
un sistema de ecuaciones lineales, entonces por definicion del producto de matrices
tenemos que este sistema es equivalente a la ecuacion matricial Ax = b donde A =
a11 · · · a1n
.... . .
...
am1 · · · amn
, x =
x1
...
xn
y b =
b1...
bm
. En lo que sigue del libro usaremos la ecuacion matricial Ax = b en lugar del sistema de ecuaciones.
Finalizamos la seccion con el siguiente resultado
Teorema 1.10. Sea A una matriz de tamano m × n y A′ su forma escalonada reducida. Entonces Ax = 0 si
y solo si A′x = 0, es decir, x es una solucion al sistema homogeneo Ax = 0 si y solo si x es una solucion al
sistema A′x = 0.
Autor: OMAR DARIO SALDARRIAGA 21
Demostracion. Si A =
a11 · · · a1n
.... . .
...
am1 · · · amn
, entonces el sistema es equivalente a
a11x1 + · · ·+ a1nxn = 0...
am1x1 + · · ·+ amnxn = 0
el
cual se puede resolver aplicando las operaciones elementales de fila a la matriz aumentada[A 0
]. Si aplicamos
operaciones hasta llegar a la forma escalonada reducida obtenemos la matriz[A′ 0
], la cual nos da las soluciones
al sistema A′x = 0. Ahora como las operaciones elementales son reversibles, comenzando con el sistema A′x = 0,
podemos llegar al sistema Ax = 0. Por tanto Ax = 0 si y solo si A′x = 0
1.4. Inversa de una matriz
Definicion 1.11. Sea A una matriz cuadrada de tamano n×n, decimos que A es invertible si existe una matriz
B de tamano n× n tal que AB = BA = In.
Ejemplo 1.15. La matriz A =
2 1
1 1
es invertible ya que el producto
A
1 −1
−1 2
=
2 1
1 1
1 −1
−1 2
=
1 0
0 1
= I2.
Ejemplo 1.16. No toda matriz tiene inversa, por ejemplo, si la matriz A =
1 1
0 0
tuviera una inversa,
entonces existiria una matriz B =
a c
b d
tal que AB = BA = I2. Sin embargo AB =
a+ b c+ d
0 0
entonces
tendriamos que
a+ b c+ d
0 0
= I2 =
1 0
0 1
por tanto 0=1 lo cual es una contradccion y A no puede ser
invertible.
Las matrices inversas satisfacen las siguientes propiedades.
Lema 1.11. Sea A una matriz n× n una matriz invertible, entonces la inversa es unica.
Demostracion. Sean B y C matrices inversas de A, entonces tenemos que
AB = BA = In y AC = CA = In.
Entonces tenemos que:
B = BIn = B(AC) = (BA︸︷︷︸In
)C = InC = C.
Notacion 2. Como la inversa de una matriz invertible es unica, entonces de ahora en adelante denotaremos
la inversa de A por A−1.
22
Teorema 1.12. Sean A y B matrices de tamanos n× n, entonces:
1. Si A y B son invertibles entonces AB es invertible y (AB)−1 = B−1A−1.
2. A es invertible si y solo si At es invertible y (At)−1 =(A−1
)t.Ejemplo 1.17. Sean A =
1 −1 3
1 −2 2
2 0 2
y B =
1 −1 2
0 0 1
1 −2 2
, de acuerdo al teorema anterior hay dos maneras
de calcular (AB)−1, las cuales son multiplicar A y B y despues calcular su inversa, o calcular A−1 y B−1 y
multiplicarlas. Aca exhibimos los calculos en MatLab
>> A = [1 − 1 3; 1 − 1 2; 2 0 2], B = [1 − 1 1; 0 0 1; 2 − 1 2], C = inv(A ∗B)
C =1 0 −1
3 −3 −1
1 −2 1/2>> A = [1 − 1 3; 1 − 1 2; 2 0 2], B = [1 − 1 1; 0 0 1; 2 − 1 2], D = inv(B) ∗ inv(A)
D =1 0 −1
3 −3 −1
1 −2 1/2Notese que C = D.
El teorema tambien nos dice que hay dos maneras de calcular la inversa de At, una de forma directa y la otra
se obitene al transponer A−1
>> A = [1 − 1 3; 1 − 1 2; 2 0 2], D = transpose(inv(A))
D =−1 −1 1
1 2 −1
1/2 1/2 0Se obtiene lo mismo si se calcula de la siguiente forma
>> E = inv(transpose(A))
E =−1 −1 1
1 2 −1
1/2 1/2 0
Si Ax = b es un sistema de ecuaciones con A invertible, entonces el sistema tiene solucion unica y esta es facıl
de calcular como se muestra a continuacion.
Teorema 1.13. Sea Ax = b un sistema de ecuaciones lineales de n ecuaciones con n incognitas. Si A es
invertible entonces el sistema tiene solucion unica y esta esta dada por x = A−1b.
Autor: OMAR DARIO SALDARRIAGA 23
Ejemplo 1.18. (MatLab) Resuelva el sistema lineal
x− y + 3z = 2
x− 2y + 2z = 1
2x + 2z = 0
.
Solucion El sistema es equivalente a la ecuacion Ax = b con A =
1 −1 3
1 −2 2
2 0 2
y b =
2
1
0
y de acuerdo al
teorema anterior la solucion esta dada por x = A−1b la cual calculamos con MatLab
>> A=[1 -1 3;1 -2 2;2 0 2]; b=[2;1;0]; x=inv(A)*b
x =−1
0
1Entonces la solucion al sistema esta dad por x = −1, y = 0 y z = 1.
1.5. Matrices Elementales
Definicion 1.12. Sea E una matriz de tamano n× n, decimos que E es una matriz elemental si E se obtiene
de la identidad al aplicar una operacion elemental de fila.
Ejemplo 1.19. Las siguientes matrices son matrices elementales:
A =
0 1 0
1 0 0
0 0 1
, B =
1 2 0
0 1 0
0 0 1
y C =
1 0 0
0 −3 0
0 0 1
.Cada una de estas matrices se obtiene al aplicar una operacion sobre la matriz identidad, como se muestra a
conitunacion: 1 0 0
0 1 0
0 0 1
F1 ↔ F2
0 1 0
1 0 0
0 0 1
= A
1 0 0
0 1 0
0 0 1
2F2 + F1 → F1
1 2 0
0 1 0
0 0 1
= B
1 0 0
0 1 0
0 0 1
−3F2 → F2
1 0 0
0 −3 0
0 0 1
= C
Notacion 3. Como hay tres tipos diferentes de operaciones elementales, hay un numero igual de tipos de
matrices elementales entonces usaremos la siguiente notacion.
24
Eij denotara la matriz elemental que se obtiene al intercambiar las filas i y j de la matriz identidad.
Eij(c) denotara la matriz que se obtiene al sumar c veces la fila i a la fila j de la matriz identidad.
Ei(c) la matriz que se obtiene al multiplicar por la constante c la fila i de la matriz identidad.
Ejemplo 1.20. En el ejemplo anterior tenemos que A = E12, B = E21(2) y C = E2(−3).
Las operaciones elementales de fila son reversibles, es decir, al aplicar una operacion elemental de fila, siempre
se puede aplicar otra operacion elemental que deshaga la operacion aplicada. Esto se muestra en le siguiente
ejemplo.
Ejemplo 1.21. Para ilustrar la reversibilidad de las operaciones elementales consideremos la matriz A =0 1 3
2 0 2
−3 1 0
, si intercambiamos las filas 1 y 2 de esta matriz y aplicaramos nuevamente la misma operacion,
obtenemos la matriz orginal como se muestra a continuacion0 1 3
2 0 2
−3 1 0
F1 ↔ F2
2 0 2
0 1 3
−3 1 0
F1 ↔ F2
0 1 3
2 0 2
−3 1 0
En general, si se intercambian dos filas de una matriz, la operacion se puede revertir al volver a intercambiarlas
una vez mas. Esto a la vez nos dice que la matriz elemental Eij, asociada a esta operacion de intercambio de
dos filas, es invertible y es igual a su propia inversa, esto es E−1ij = Eij .
Volviendo a la matriz A, si multiplicamos la fila 2 por 1/2 y despues multiplicamos la misma fila por 2 obtenemos
la matriz original como se muestra a continuacion0 1 3
2 0 2
−3 1 0
12F2 → F2
0 1 3
1 0 1
−3 1 0
2F2 → F2
0 1 3
2 0 2
−3 1 0
En general, si se multiplica una fila de una matriz por una constante c 6= 0, la operacion se puede revertir al
volver a multiplicar la misma fila de la nueva matriz por la constante1c
. Esto a la vez nos dice que la matriz
elemental Ei(c), asociada a esta operacion de multiplicar la fila i por una constante c 6= 0, es invertible y su
inversa esta dada por Ei(c)−1 = Ei
(1c
).
Una vez mas regresamos a la matriz A, si le sumaramos12
de la fila 2 a la fila 1 y despues le sumaramos−12
de la fila 2 a la fila 1 obtenemos la matriz original como se muestra a continuacion0 1 3
2 0 2
−3 1 0
12F2 + F1 → F1
1 1 4
2 0 2
−3 1 0
−12 F2 + F1 → F1
0 1 3
2 0 2
−3 1 0
En general, si se le suma c veces la fila i de una matriz a la fila j, la operacion se puede revertir al volver a sumar
−c veces la fila i a la fila j. Esto una vez mas nos dice que la matriz elemental Eij(c), asociada a esta operacion
de sumar c veces la fila i a la fila j, tambien es invertible y su inversa esta dada por Eij(c)−1 = Eij (−c) .
Autor: OMAR DARIO SALDARRIAGA 25
De acuerdo a lo observado en el ejemplo anterior tenemos el siguiente resultado.
Teorema 1.14. Toda matriz elemental es invertible y las inversas estan dadas por
E−1ij = Eij , Eij(c)−1 = Eij(−c) y Ei(c)−1 = Ei
(1c
).
Teorema 1.15. Sea A una matriz de tamano m × n y E una matriz elemental de tamano m ×m asociada a
una operacion elemental de fila, el producto EA es la matriz que se obtiene al aplicar la operacion elemental de
fila a la matriz A.
Al aplicar reduccion Gauss-Jordan a una matriz, por cada operacion elemental de fila, hay una matriz elemental,
la matriz que se obtiene al aplicar la operacion de fila a la matriz identidad. Como toda matriz se puede reducir
a una forma escalonada reducida, entonces se tiene el siguiente teorema.
Teorema 1.16. Toda matriz se puede expresar como el producto de un numero finito de matrices elementales
por una matriz en forma escalonada reducida. Mas concretamente, si A es una matriz de tamano m×n, existen
matrices elementales E1, . . . , Ek todas de tamano m×m y una matriz escalonada reducida A′ tal que
A = E1 · · ·EkA′.
Ejemplo 1.22. Expresar la matriz A =
1 1 0
1 1 2
2 2 2
como un producto de matrices elementales por una matriz
en forma escalonada reducida.
Solucion Necesitamos aplicar reduccion Gauss-Jordan a la matriz A indicando las matrices elementales asoci-
adas a cada operacion aplicada1 1 0
1 1 2
2 2 2
−F1+F2→F2
︸ ︷︷ ︸E12(−1)
1 1 0
0 0 2
2 2 2
−2F1+F3→F3︸ ︷︷ ︸
E13(−2)
1 1 0
0 0 2
0 0 2
12F2→F2
︸ ︷︷ ︸E2( 1
2 )
1 1 0
0 0 1
0 0 2
−2F2+F3→F3︸ ︷︷ ︸E23(−2)
1 1 0
0 0 1
0 0 0
Por el Teorema 1.15 tenemos que E23(−2)E2
(12
)E13(−2)E12(−1)A = A′ con A′ =
1 1 0
0 0 1
0 0 0
. Entonces se
tiene que
A = E12(−1)−1E13(−2)−1E2
(12
)−1
E23(−2)−1A′
= E12(1)E13(2)E2(2)E23(2)A′.
26
Escribiendo las matrices de manera explicita tenemos:
A =
1 0 0
1 1 0
0 0 1
1 0 0
0 1 0
2 0 1
1 0 0
0 2 0
0 0 1
1 0 0
0 1 0
0 2 1
1 1 0
0 0 1
0 0 0
.A continuacion verificamos el resultado con MatLab
>> E1=[1 0 0;1 1 0;0 0 1]; E2=[1 0 0;0 1 0;2 0 1]; E3=[1 0 0;0 2 0;0 0 1]; E4=[1 0 0;0 1 0;0 2 1]; A′=[1 1
0;0 0 1;0 0 0]; A = E1 ∗ E2 ∗ E3 ∗ E4 ∗ b
A =1 1 0
1 1 2
2 2 2
Ahora usaremos matrices elementales para dar un criterio de invertibilidad de una matriz. Primero debemos
observar lo siguiente.
Lema 1.17. Sea A una matriz de tamano n × n en forma escalonada reducida, entonces A es invertible si y
solo si A = I.
Teorema 1.18. Sea A una matriz de tamano n × n, entonces A es invertible si y solo si A se puede escribir
como un producto de matrices elementales.
Ejemplo 1.23. Expresar la matriz A =
0 1 2
1 1 1
−1 −2 −2
y su inversa como un producto de matrices elementales.
Solucion Abajo se muestra la reduccion Gauss-Jordan de esta matriz indicando la matriz elemental asociada a
cada operacion aplicada de acuerdo a la Notacion 3
0 1 2
1 0 1
−1 −1 −2
F1↔F2
︸ ︷︷ ︸E12
1 0 1
0 1 2
−1 −1 −2
F1+F3→F3︸ ︷︷ ︸E13(1)
1 0 1
0 1 2
0 −1 −1
F2+F3→F3︸ ︷︷ ︸E23(1)
1 0 1
0 1 2
0 0 1
−F3+F1→F1
︸ ︷︷ ︸E31(−1)
1 0 0
0 1 2
0 0 1
−2F3+F2→F2
︸ ︷︷ ︸E32(−2)
1 0 0
0 1 0
0 0 1
De aquı tenemos que E32(−2)E31(−1)E23(1)E13(1)E12A = I, por tanto
A−1 = E32(−2)E31(−1)E23(1)E13(1)E12 y
A = E−112 E13(1)−1E23(1)−1E31(−1)−1E32(−2)−1
= E12E13(−1)E23(−1)E31(1)E32(2)
Autor: OMAR DARIO SALDARRIAGA 27
Las matrices elementales tambien nos ayudan a demostrar un algoritmo para calcular la inversa de una matriz,
el cual enunciamos a continuacion.
Teorema 1.19. (Algoritmo para calcular A−1) Sea A una matriz invertible de tamano n×n, al aplicar reduccion
Gauss-Jordan a la matriz aunmentada[A I
]obtenemos la matriz
[I A−1
]. Mas aun, si B es una matriz
de tamano n × q, al aplicar reduccion Gauss-Jordan a la matriz aumentada[A B
]obtenemos la matriz[
I A−1B].
Ejemplo 1.24. (MatLab) Sea A =
0 1 2
1 1 1
−1 −2 −2
calcular A−1.
Solucion Usando MatLab para calcular la forma escalonada reducida de la matriz[A I
]obtenemos
>> AI = [0 1 2 1 0 0; 1 1 1 0 1 0;−1 − 2 − 2 0 0 1]; rref(AI)
1 0 0 0 2 1
0 1 0 −1 −2 −2
0 0 1 1 1 1
De donde se tiene que A−1 =
0 2 1
−1 −2 −2
1 1 1
.
Ejemplo 1.25. (MatLab) Sean A =
0 1 2
1 1 1
−1 −2 −2
y B =
1 2
2 3
0 1
, calcular A−1B.
Solucion De acuerdo al teorema anterior debemos encontrar la forma escalonada reducida de la matriz aumen-
tada C =[A B
]=
0 1 2 1 2
1 1 1 2 3
−1 −2 −2 0 1
, la cual calculamos usando MatLab
>> C = [0 1 2 1 2; 1 1 1 2 3;−1 − 2 − 2 0 1]; rref(C)
1 0 0 4 7
0 1 0 −5 −10
0 0 1 3 6
De acuerdo al teorema anterior A−1B =
4 7
−5 −10
3 6
.
Observacion 1.2. Si en el teorema anterior las columnas de la matriz B son los vectores b1, . . . , bq, entonces al
aplicar reduccion Gauss-Jordan a la matriz aumentada[A B
]=[A b1 · · · bq
]obtenemos la matriz
A−1B =[A−1b1 · · · A−1bq
], obteniendo soluciones simultaneas a los sistemas Ax = b1, . . . , Ax = bq.
28
Ejemplo 1.26. Usar la observacion anterior para resolver los sistemas
x2 + 2x3 = 1
x1 + x2 + x3 = 2
−x1 − 2x2 − 2x3 = 0
y
x2 + 2x3 = 2
x1 + x2 + x3 = 3
−x1 − 2x2 − 2x3 = 1
.
Solucion Estos sistemas son equivalentes a las ecuaciones matriciales
Ax = b1 y Ax = b2 donde A =
0 1 2
1 1 1
−1 −2 −2
, b1 =
1
2
0
y b1 =
2
3
1
y se pueden resolver simultaneamente calculando la forma escalonada reducida de la matriz aumentada
[A b1 b2
]=
0 1 2 1 2
1 1 1 2 3
−1 −2 −2 0 1
, la cual esta dada por (ver ejemplo anterior)
1 0 0 4 7
0 1 0 −5 −10
0 0 1 3 6
y por tanto
las respectivas soluciones a los sistemas estan dadas por
x1 =
4
−5
3
y x2 =
7
−10
6
.
1.6. Inversa a la izquierda y a la derecha
Definicion 1.13. Sea A una matriz de tamano m× n,
1. decimos que A tiene inversa a la izquierda si existe una matriz L de tamano n×m tal que LA = In,
2. decimos que A tiene inversa a la derecha si existe una matriz R de tamano n×m tal que AR = Im.
Tenemos el siguiente criterio para caracterizar las matrices que tienen inversa a la derecha.
Teorema 1.20. Sea A una matriz de tamano m× n, entonces las siguientes afirmaciones son equivalentes:
1. A tiene inversa a la derecha.
2. El sistema Ax = b tiene solucion para cada b ∈ Rm.
3. rango(A) = m = # de filas de A,
4. La funcion TA : Rn −→ Rm definida por TA(x) = Ax es sobreyectiva.
Demostracion. Vamos a demostrar que 1⇔ 2, 2⇔ 3 y 2⇔ 4
“1 ⇒ 2”Si A tiene inversa a la derecha, existe R =[r1 · · · rm
]de tamano n ×m tal que AR = I, donde
r1, r2, . . . , rm son las columnas de R. Sea b = b1e1 + · · ·+ bmem ∈ Rm entonces el vector c = b1r1 + · · ·+ bmrm
Autor: OMAR DARIO SALDARRIAGA 29
es una solucion al sistema Ax = b ya que
Ac = A(b1r1 + · · ·+ bmrm) = b1Ar1 + · · ·+ bmArm
=[Ar1 · · · Arm
]b1...
bm
= A
[r1 · · · rm
]︸ ︷︷ ︸
=R
b
= AR︸︷︷︸=I
b
= b.
“2 ⇒ 1”Supongamos que la ecuacion Ax = b tiene solucion para cada b, entonces para cada i = 1, . . . ,m, la
ecuacion Ax = ei tiene solucion. Sean r1, . . . , rm las soluciones respectivas dichas ecuaciones. Es decir,
Ar1 = e1, . . . , Arm = em.
Sea R =[r1 · · · rm
], entonces se tiene que
AR = A[r1 · · · rm
]=
[Ar1︸︷︷︸=e1
· · · Arm︸︷︷︸=em
]=[e1 · · · em
]= Im
Por tanto R es la inversa a la derecha de A.
“2⇒ 3”Supongamos que Ax = b tiene solucion para cada b y supongamos que rango(A) < m, entonces las forma
escalonada A′ de A tiene al menos una fila de ceros. Sean E1, . . . , Ek matrices elementales tal que A′ = E1 · · ·EkA
y sea b = E−1k · · ·E
−11 em entonces al aplicar reduccion Gauss-Jordan a la matriz
[A b
]usando las operaciones
elementales de fila asociadas a las matrices E1, . . . , Ek obtenemos la matriz
[E1 · · ·EkA︸ ︷︷ ︸
=A′
E1 · · ·Ekb︸ ︷︷ ︸em
]=[
A′ em
]. Como la ultima fila de A′ es de ceros, entonces el sistema es inconsistente, es decir, para b =
E−1k · · ·E
−11 em, la ecuacion Ax = b no tiene solucion, lo que contradice la hipotesis. Por tanto rango(A) = m.
“3 ⇒ 2”Si rango(A) = m entonces A′ tiene un pivote en cada fila, por tanto para todo b ∈ Rm se tiene que
la matriz[A b
]no tiene pivote en la ultima columna y ası el sistema Ax = b siempre tiene al menos una
solucion.
“2 ⇒ 4”Si la ecuacion Ax = b tiene solucion para todo b, entonces para todo b ∈ Rm, existe c ∈ Rn tal que
b = Ac = TA(c). Por tanto TA es sobre.
“4⇒ 2”Si TA es sobre, para todo b ∈ Rm, existe c ∈ Rn tal que b = TA(c) = Ac, es decir, x = c es una solucion
al sistema Ax = b.
La parte 3. de este teorema nos dice que una matriz tiene inversa a la derecha si y solo si su forma escalonada
reducida tiene un pivote en cada fila, lo cual es el criterio para determinar si una matriz tiene inversa a la
30
derecha. De el teorema tambien nos ofrece un metodo calcular la inversa a la derecha, el cual esta casi explıcito
en la demostracion de 1 ⇒ 2, ya que en ese numeral se prueba que las columnas r1, . . . , rm de la inversa a la
derecha R son las respectivas soluciones a las ecuaciones Ax = e1, Ax = e2, . . . , Ax = en como se ilustra en el
siguiente ejemplo.
Ejemplo 1.27. Determine si la matriz A =
1 2 2
−1 0 4
tiene inversa a la derecha y en caso afirmativo
calcular una inversa a la derecha de A.
Solucion Como la forma escalonada de reducida de A es la matriz A′ =
1 0 −4
0 1 3
se tiene que rango(A) =
2 = # de filas, por tanto A tiene inversa a la derecha.
Para encontrar la inversa a la derecha de A debemos encontrar soluciones a las ecuaciones Ax = e1 y
Ax = e2. Se puede verificar que soluciones particulares a estas ecuaciones estan dadas por r1 =
0
1/2
0
y
r2 =
0
−1/4
1/4
y por tanto una inversa a la derecha de A esta dada por
R =[r1 r2
]=
0 0
1/2 −1/4
0 1/4
El siguiente teorema carateriza las matrices con inversa a la izquierda, las propiedades son analogas a las del
teorema anterior para la inversa a derecha.
Teorema 1.21. Sea A una matriz de tamano m× n, entonces las siguientes afirmaciones son equivalentes:
1. A tiene inversa a la izquierda.
2. El sistema Ax = b tiene a lo sumo una solucion para cada b ∈ Rm.
3. La funcion TA : Rn −→ Rm definida por TA(x) = Ax es inyectiva.
4. El sistema Ax = θn tiene solucion unica.
5. rango(A) = n = # de columnas de A.
Demostracion. Para este teorema demostraremos las equivalencias en el orden 1⇒ 2, 2⇒ 3 3⇒ 4, 4⇒ 5 y
5⇒ 1.
“1⇒ 2”Supongamos que A tiene inversa a la izquierda L , y sean v y w soluciones al sistema Ax = b. Entonces
v = Iv = L Av︸︷︷︸=b
= L b︸︷︷︸=Aw
= LA︸︷︷︸=I
w = Iw = w
Autor: OMAR DARIO SALDARRIAGA 31
Como v = w el sistema tiene a lo sumo una solucion.
“2 ⇒ 3”Supongamos que Ax = b tiene a lo sumo una solucion para todo b y que TA(v) = TA(w), entonces
Av = Aw. Sea b = Av, entonces la ecuacion Ax = b tiene dos soluciones v y w, entonces v = w.
“3⇒ 4”Supongamos que TA es inyectiva. Entonces si v es tal que Av = θ se tiene que θ = Av = TA(v) y como
TA(θ) = Aθ = θ entonces TA(v) = TA(θ) y como TA es inyectiva, v = θ.
4⇒ 5 Supongamos que el sistema Ax = θ tiene solucion unica, entonces por el Teorema 1.2 la forma escalonada
reducida de la matriz[A θ
]=[A′ θ
], donde A′ es la forma escalonada reducida de A, tiene un pivote
en todas la columnas excepto la ultima, entonces A′ tiene un pivote en cada columna y por tanto rango(A) = n.
“5⇒ 1”Supongamos que rango(A) = n, entonces la forma escalonada A′ de A tiene un pivote en cada columna,
por tanto
A′ =
1 0 · · · 0
0 1 · · · 0...
.... . .
...
0 0 · · · 1
0 0 · · · 0...
.... . .
...
0 0 · · · 0
.
Sean E1, . . . , Ek matrices elementales tal que A = E1 · · ·Ek ·A′ y sea
B = E−1k · · ·E
−11 , entonces A′ = BA. Sean b1, . . . , bm las filas de B, es decir B =
b1
...
bm
. Como A′ = BA
tenemos lo siguiente
A′ = BA =
b1
...
bm
A =
b1A
...
bmA
.
Ahora tomemos C =
b1
...
bn
la matriz formada con las primeras n filas de B, veamos que C es la matriz inversa
a la izquierda de A.
CA =
b1
...
bn
A =
b1A
...
bnA
= primeras n filas de A′ =
1 0 · · · 0
0 1 · · · 0...
.... . .
...
0 0 · · · 1
= I
Este teorema nos da una forma de determinar si una matriz tiene inversa a la izquierda (se calcula el rango y
32
la matriz tiene inversa a la izquierda si y solo si el rango es igual al numero de columnas). El teorema tambien
provee un algorimo para calcular dicha matriz, el cual describimos a continuacion
1. Se aplica reduccion Gauss-Jordan a la matriz
2. Se calculan las matrices elementales E1, . . . , Ek asociadas a cada una de las operaciones elementales apli-
cadas en el paso 1.
3. Se calcula el producto Ek · · ·E1.
4. La matriz L formada por las primeras n filas de la matriz Ek · · ·E1 es la inversa a la izquierda.
Ejemplo 1.28. (MatLab) Para cada una de las matrices abajo, determine si tienen inversa a la izquierda y
encuentrela en caso afirmativo.
a. A =
2 −1
−4 2
−2 1
b. B =
1 −1 0
2 −1 1
c. C =
1 −1
0 1
2 1
.Solucion a. Usando MatLab para calcular el rango de la matriz A obtenemos
>> A = [2 − 1;−4 2;−2 1], r = rank(A)
r = 1
Como rango(A) = 1 < # de columnas, entonces la matriz no tiene inversa a la izquierda.
b. La matriz B tiene 2 filas, de donde rango(B) ≤ 2 < 3 = # de columnas. Por tanto B no tiene inversa a la
izquierda.
c. El rango de esta matriz C es dos, entonces C tiene inversa a la izquierda. Para calcular una inversa a la
izquierda debemos aplicar el procedimiento descrito arriba,
1. apliquemos reduccion Gauss-Jordan a la matriz C
1 −1
0 1
2 1
−2F1+F3→F3︸ ︷︷ ︸
E1
1 −1
0 1
0 3
F2+F1→F1
︸ ︷︷ ︸E2
1 0
0 1
0 3
−3F2+F3→F3︸ ︷︷ ︸
E3
1 0
0 1
0 0
Donde E1, E2 y E3 son las matrices elementales asociadas a cada una de las operaciones ejecutadas.
2. Aplicamos las operaciones efectuadas en la reduccion a la matriz identidad 3 × 3. Esto es equivalente a
multiplicar las matrices elementales asociadas a las operaciones.1 0 0
0 1 0
0 0 1
−2F1+F3→F3
1 0 0
0 1 0
−2 0 1
︸ ︷︷ ︸
E1
F2+F1→F1
1 1 0
0 1 0
−2 0 1
︸ ︷︷ ︸
E2E1
Autor: OMAR DARIO SALDARRIAGA 33
−3F2+F3→F3
1 1 0
0 1 0
−2 −3 1
= E3E2E1.
3. La matriz L =
1 1 0
0 1 0
, obtenida al suprimir la ultima fila a la matriz E3E2E1, es una inversa a la
izquierda de C.
Hay otra forma de calcular la inversa a la izquierda de una matriz. Es facil ver que si R es una inversa a la
derecha de At entonces L = Rt es una inversa a la izquierda de A. Esto se ilustra en el siguiente ejemplo.
Ejemplo 1.29. (MatLab) Calcular una inversa a la izquierda de la matriz C =
1 −1
0 1
2 1
.
Solucion Para calcular la inversa a la derecha de Ct, necesitamos resolver las ecuaciones Ctx = e1 y Ctx = e2.
Estas soluciones las calculamos con MatLab
>> Ct = [1, 0, 2;−1, 1, 1], e1 = [1; 0], e2 = [0; 1], r1 = A\e1, r2 = A\e2
r1 =1/3
0
1/3r2 =−2/3
0
1/3
Entonces una inversa a la derecha de Ct es la matriz R =
1/3 −2/3
0 0
1/3 1/3
, por tanto una inversa a la izquierda
de C es la matriz L = Rt =
1/3 0 1/3
−2/3 0 1/3
.
De estos resultados obtenemos la siguiente caracterizacion para matrices invertibles.
Corolario 1.22. (Caracterizacion de una matriz invertible) Sea A una matriz cuadrada de tamano n × n,
entonces las siguientes afirmaciones son equivalentes:
1. A es invertible.
2. A tiene inversa a la izquierda.
3. El sistema Ax = b tiene a lo sumo una solucion para cada b ∈ Rn.
4. La funcion TA : Rn −→ Rn definida por TA(x) = Ax es inyectiva.
34
5. El sistema Ax = θn tiene solucion unica.
6. rango(A) = n = # de columnas de A=# de filas deA.
7. A tiene inversa a la derecha.
8. El sistema Ax = b tiene solucion para cada b ∈ Rm.
9. La funcion TA : Rn −→ Rn definida por TA(x) = Ax es sobreyectiva.
10. La funcion TA : Rn −→ Rn definida por TA(x) = Ax es biyectiva.
11. At es invertible.
12. A es un producto de matrices elementales.
Demostracion. Las condiciones 1. y 12 son equivalentes por el Teorema 1.12, las condiciones 1. y 13. son
equivalentes por el Teorema 1.18, las condiciones 2. a 6. son equivalentes por el Teorema 1.21 y las condiciones
6. a 10. son equivalentes por el Teorema 1.20. Es suficiente demostrar que 1⇔ 2, 1⇔ 10 y 1⇔ 11.
“1⇒ 2”Si A es invertible, entonces A−1A = I y por tanto A−1 es inversa a la izquierda de A.
“2⇒ 1”Si A tiene inversa a la izquierda, entonces existe B tal que BA = I y por el Teorema 1.21, rango(A) =
n = # de columnas. Como A es cuadrada entonces # de filas=# de columnas=rango(A), entonces por el
Teorema 1.20, A tiene una inversa a la derecha C, de donde AC = I, entonces se tiene que
B = BI = B(AC) = (BA)C = IC = C
Entonces BA = AB = I y por tanto A es invertible y B = A−1.
“1⇒ 11”Supongamos que A es invertible, veamos que la funcion TA−1 definida por TA−1(B) = A−1B es la
inversa de T
TA(TA−1(B)) = TA(A−1B) = A(A−1B) = B y
TA−1(TA(B)) = TA−1(AB) = A−1(AB) = B
Por tanto TA−1 = T−1A .
“1⇒ 11”Si T es biyectiva es en particular inyectiva y por el Teorema 1.21 A tiene inversa a la izquierda y por
la parte 2. de este teorema la matriz A es invertible.
Capıtulo 2
Espacios Vectoriales
2.1. Definicion y Ejemplos
En el capıtulo anterior se dieron ejemplos, sin mencionarlo, de espacios vectoriales. Mas concretamente en los
Teorema 1.5 y 1.6 se mostro que el conjunto de matrices de tamano m × n y el conjunto de vectores columna
Rn son espacios vectoriales. Solo nos falta enunciar la definicion y ver que estos conjuntos la satisfacen. En
este capıtulo solo trabajaremos sobre Rn y los teoremas seran acerca de este conjunto, en el Capıtulo 3 se
demostraran los teoremas generales.
Definicion 2.1. Sea V un conjunto no vacio con dos operaciones + : V × V → V y · : R × V → V , decimos
que V es un espacio vectorial sobre R si para todo x, y y z ∈ V y para todo α y β ∈ R se cumple lo siguiente:
1. (x+ y) + z = x+ (y + z),
2. existe θ ∈ V tal que θ + x = x+ θ = x, (A θ se le llama el neutro de V )
3. existe w tal que x+ w = w + x = θ, (A w se le llama el inverso aditivo de x)
4. x+ y = y + x,
5. α · (x+ y) = α · x+ α · y,
6. (α+ β) · x = αx+ β · x,
7. α · (β · x) = (αβ) · x,
8. 1 · x = x.
Ejemplo 2.1. 1. El conjunto de vectores en Rm es un espacio vectorial, por el Teorema 1.6.
2. El conjunto Mmn de matrices m× n es un espacio vectorial, esto por el Teorema 1.5
3. Sea Pn = {a0 + a1t+ · · ·+ antn | a0, . . . , an ∈ R} el conjunto de polinomios de grado a lo sumo n en la
indeterminada t, este conjunto es un espacio vectorial sobre R bajo las operaciones:
a0 + a1t+ · · ·+ antn + b0 + b1t+ · · ·+ bnt
n = (a0 + b0) + (a1 + b1)t+ · · ·+ (an + bn)tn y
α · (a0 + a1t+ · · ·+ antn) = α · a0 + α · a1t+ · · ·+ α · antn.
35
36
Veamos que estas operaciones satisfacen todas las propiedades de la
definicion de espacio vectorial.
Sean p1 = a0 + a1t+ · · ·+ antn, p2 = b1t+ · · ·+ bnt
n y p3 = c0 + c1t+ · · ·+ cntn ∈ Pn, α, β ∈ R,
1.
(p1 + p2) + p3 =(a0 + a1t+ · · ·+ antn + b0 + b1t+ · · ·+ bnt
n)
+ c0 + c1t+ · · ·+ cntn
=(a0 + b0) + (a1 + b1)t+ · · ·+ (an + bn)tn
+ c0 + c1t+ · · ·+ cntn
(definicion de suma en Pn)
=((a0 + b0) + c0) + ((a1 + b1) + c1)t+ . . .
· · ·+ ((an + bn) + cn)tn
(definicion de suma en Pn)
=(a0 + (b0 + c0)) + (a1 + (b1 + c1))t+ . . .
· · ·+ (an + (bn + cn))tn
(asociatividad en R)
=a0 + a1t+ · · ·+ antn + (b0 + c0) + (b1 + c1)t+ . . .
· · ·+ (bn + cn)tn
(definicion de suma en Pn)
=a0 + a1t+ · · ·+ antn
+ (b0 + b1t+ · · ·+ bntn + c0 + c1t+ · · ·+ cnt
n)
(definicion de suma en Pn)
=p1 + (p2 + p3)
2. Sea θ = 0 el polinomio constante = 0, entonces
p1 + θ = a0 + a1t+ · · ·+ antn + 0 = a0 + a1t+ · · ·+ ant
n = p1
3. Sea w = −a0 − a1t+ · · · − antn entonces
w + p1 = −a0 − a1t+ · · · − antn + a0 + a1t+ · · ·+ antn+
= (−a0 + a0) + (−a1 + a1)t+ · · ·+ (−an + an)tn
= 0 = θ.
Autor: OMAR DARIO SALDARRIAGA 37
4.
p1 + p2 = a0 + a1t+ · · ·+ antn + b0 + b1t+ · · ·+ bnt
n
= (a0 + b0) + (a1 + b1)t+ · · ·+ (an + bn)tn
(Definicion de suma en Pn)
= (b0 + a0) + (b1 + a1)t+ · · ·+ (bn + an)tn
(Conmuatitividad en R)
= b0 + b1t+ · · ·+ bntn + a0 + a1t+ · · ·+ ant
n
(Definicion de suma en Pn)
= p2 + p1
5.
α · (p1 + p2) = α · (a0 + a1t+ · · ·+ antn + b0 + b1t+ · · ·+ bnt
n)
= α · ((a0 + b0) + (a1 + b1)t+ · · ·+ (an + bn)tn)
definicion de suma en Pn
= α(a0 + b0) + α(a1 + b1)t+ · · ·+ α(an + bn)tn
definicion de producto por escalar en Pn
= (αa0 + αb0) + (αa1 + αb1)t+ · · ·+ (αan + αbn)tn
distributividad en R
= αa0 + αa1t+ · · ·+ αantn + αb0 + αb1t+ · · ·+ αbnt
n
definicion de suma en Pn
= α · (a0 + a1t+ · · ·+ antn) + α · (b0 + b1t+ · · ·+ bnt
n)
definicion de producto por escalar en Pn
= α · p1 + α · p2
38
6.
(α+ β) · p1 = (α+ β) · (a0 + a1t+ · · ·+ antn)
= (α+ β)a0 + (α+ β)a1t+ · · ·+ (α+ β)antn
definicion de producto por escalar en Pn
= (αa0 + βa0) + (αa1 + βa1)t+ · · ·+ (αan + βan)tn
ditributividad en R
= αa0 + αa1t+ · · ·+ αantn + βa0 + βa1t+ · · ·+ βant
n
definicion de suma en Pn
= α · (a0 + a1t+ · · ·+ antn) + β · (a0 + a1t+ · · ·+ ant
n)
definicion de producto por escalar en Pn
= α · p1 + β · p1
7.
(αβ) · p1 = (αβ) · (a0 + a1t+ · · ·+ antn)
= (αβ)a0 + (αβ)a1t+ · · ·+ (αβ)antn
definicion de producto por escalar en Pn
= α(βa0) + α(βa1)t+ · · ·+ α(βan)tn
asociatividad en R
= α · (βa0 + βa1t+ · · ·+ βantn)
definicion de producto por escalar en Pn
= α · (β · (a0 + a1t+ · · ·+ antn))
definicion de producto por escalar en Pn
= α · (β · p1)
8.
1 · p1 = 1 · (a0 + a1t+ · · ·+ antn) = 1 · a0 + 1 · a1t+ · · ·+ 1 · antn
= a0 + a1t+ · · ·+ antn
= p1.
Los espacios vectoriales satisfacen las siguientes propiedades que se desprenden de la definicion.
Teorema 2.1. Sea V un espacio vectorial, x ∈ V y α ∈ R entonces
1. El neutro es unico, es decir, si θ y θ′ son neutros entonces θ = θ′,
Autor: OMAR DARIO SALDARRIAGA 39
2. el inverso aditivo de x es unico, es decir, si w y w′ son inversos aditivos de x entonces w = w′, (dada la
unicidad del inverso aditivo de x, este sera denotado por −x)
3. α · θ = θ, 4. 0 · x = θ,
5. −1 · x = −x, 6. Si α · x = θ entonces α = 0 o x = θ.
Demostracion. 1. θ = θ + θ′ = θ′ + θ = θ′.
2. w = w + θ = w + (x+ w′) = (w + x) + w′ = θ + w′ = w′.
3. αθ + αθ = α(θ + θ) = αθ, sumand el inverso aditivo de αθ a ambos lados tenemos: αθ = θ..
4. 0x = (0 + 0)x = 0x+ 0x, sumando el inverso aditivo de 0x a ambos lados tenemos que θ = 0x.
5. −1x+x = −1x+1x = (−1+1)x = 0x = θ. como el inverso aditivo de x es unico, tenemos que −1x = −x.
6. Supongamos que αx = θ y que α 6= 0. Si multiplicamos a ambos lados por1α
tenemos que
1α
(αx)︸ ︷︷ ︸=
1αα︸︷︷︸
=1
x
=1αθ︸︷︷︸
=θ
⇒ 1x︸︷︷︸=x
= θ ⇒ x = θ
2.2. Subespacios
Definicion 2.2. Sea V un espacio vectorial y φ 6= W ⊆ V , decimos que W es un subespacio de V si W es
tambien un espacio vectorial bajo las mismas operaciones de suma y producto por escalar de V .
Ejemplo 2.2. En el Ejemplo 2.1 vimos que Pn es un espacio vectorial para to n, como Pn−1 ⊆ Pn y ambos son
espacios vectoriales, tenemos que Pn−1 es un subespacio de Pn.
Para probar que un subconjunto no vacio de un espacio vectorial V es un subespacio no es necesario demostrar
las ocho condiciones de la definicion, solo es necesario probar que este es cerrado bajo la suma y el producto
por escalar, este resultado lo presentamos a continuacion.
Teorema 2.2. Sea V un espacio vectorial y φ 6= W ⊆ V , entonces W es un subespacio de V si para todo
w,w′ ∈W y para todo α ∈ R se satisface que
1. w + w′ ∈W ,
2. αw ∈W .
Demostracion. Debemos demostrar W cumple las ocho condiciones de espacio vectorial.
40
1. La asociatividad se cumple para todo v, v′ y v′′ ∈ V , entoncs en particular si estos estan en W .
2. Como W 6= Φ, existe w ∈W , entonces por hipoteses −w = (−1)w ∈W y por tanto 0 = −w + w ∈W .
3. Si w ∈W entonces por la hipotesis 2. tenemos que −w = (−1)w ∈W .
4-8. Estas propiedades se cumplen para todo w,w′ ∈ V , en particular si w,w′ ∈W .
Por tanto W es un espacio vectorial y como W ⊆ V , tenemos que W es un subespacio de V .
Ejemplo 2.3. Sea H =
x1
...
xn
∣∣∣∣ xn = 0
⊆ Rm, demuestre que H es un subespacio de Rm.
Solucion. Veamos que H satisface las condiciones 1. y 2. del Teorema 2.2. Sean
x1
...
xn
,y1...
yn
∈ H y α ∈ R,
entonces xn = 0 = yn por tantox1
...
xn
+
y1...
yn
=
x1 + y1
...
xn + yn
=
x1 + y1
...
0
∈ H y α
x1
...
xn
= α
x1
...
0
=
αx1
...
0
∈ H.
El Teorema 2.2 es muy util para verificar cuando un subconjunto es un subespacio, como en los siguientes
teoremas.
Teorema 2.3. Sean Φ 6= W1,W2 ⊆ V entonces W1 ∩W2 es un subespacio de V .
Demostracion. Como W1 y W2 son subespacios, entonces 0 ∈W1 y 0 ∈W2, por tanto 0 ∈W1 ∩W2 de donde
W1 ∩W2 6= Φ, ahora probemos las condiciones 1. y 2. del Teorema 2.2.
Sean w,w′ ∈ W1 ∩W2, entonces w,w′ ∈ W1 y w,w′ ∈ W2, luego w + w′ ∈ W1 y w + w′ ∈ W2, por tanto
w + w′ ∈W1 ∩ w2.
Sea α ∈ R, como W1 y W2 son subespacios tenemos que αw ∈W1 y αw ∈W2, por tanto αw ∈W1 ∩W2.
Concluimos que W1 ∩W2 es un subespacio de V .
Teorema 2.4. Sean Φ 6= W1,W2 ⊆ V y definamos
W1 +W2 = {w1 + w2 | w1 ∈W1 y w2 ∈W2 }
entonces W1 +W2 es un subespacio de V .
Demostracion. Esta se deja como ejercicio.
Autor: OMAR DARIO SALDARRIAGA 41
2.3. Independencia Lineal
En esta seccion se estudiara el concepto de independencia lineal el cual nos permitira determinar cuando
un vector en un conjunto dado de vectores se puede expresar en terminos de los demas. Tambien se dara un
criterio que nos permitira determinar computacionalmente cuando un conjunto de vectores en Rm es linealmente
independiente. Se usara muy a menudo la frase combinacion lineal, la cual definimos a continuacion.
Definicion 2.3. Sea V un espacio vectorial y sean v1, . . . , vk ∈ V , una combinacion lineal de estos vectores es
una expresion de la forma
α1v1 + · · ·+ αkvk,
donde α1, . . . , αk son reales.
Definicion 2.4. Sea V un espacio vectorial y sean v1, . . . , vk ∈ V , decimos que el conjunto {v1, . . . , vk} es
linealmente independiente si α1v1 + · · ·+ αkvk = 0 implica que α1 = α2 = · · · = αk = 0.
Si el conjunto {v1, . . . , vk} no es linealmente independiente, decimos que es linealmente dependiente.
Observacion 2.1. De la definicion anterior se deprende que si el conjunto {v1, . . . , vk} es linealmente depen-
diente, entonces existen constantes α1, . . . , αk, no todas cero, talque
α1v1 + · · ·+ αkvk = 0. (2.1)
Lo que es equivalente a decir que alguno de los vi se puede escribir como una combinacion lineal de los demas,
esto ya que al menos uno de los αi 6= 0, por tanto despejando por vi en (2.1) tenemos
vi =−α1
αiv1 − · · · −
αi−1
αivi−1 −
αi+1
αivi+1 − · · · −
αkαivk.
Ejemplo 2.4. 1. El conjunto
v1 =
1
−1
2
, v2 =
2
3
0
, v3 =
−1
−9
6
es LD ya que v3 = 3v1 − 2v2 de donde
3v1 − 2v2 − v3 = 0.
2. El conjunto de vectores
v1 =
1
1
0
, v2 =
0
1
1
, v3 =
1
0
1
es LI ya que si existieran constantes α1, α2, α3
tal que α1v1 + α2v2 + α3v3 = 0 entonces tendriamos que0
0
0
= α1v1 + α2v2 + α3v3 = α1
1
1
0
+ α2
0
1
1
+ α3
1
0
1
=
α1
α1
0
+
0
α2
α2
+
α3
0
α3
=
α1 + α3
α1 + α2
α2 + α3
42
De donde
α1 + α3 = 0
α1 + α2 = 0
α2 + α3 = 0
, el cual es equivalente a la ecuacion matricial
1 0 1
1 1 0
0 1 1
α1
α2
α3
=
0
0
0
. (2.2)
Al aplicar reduccion Gauss-Jordan a la matriz
1 0 1
1 1 0
0 1 1
obtenemos la matriz identidad, luego la unica solucion
al sistema (2.2) es la trivial, α1 = 0, α2 = 0 y α3 = 0. Por tanto el conjunto {v1, v2, v3} es LI.
En Rm es facil establecer un criterio para determinar si un conjunto de vectores es LI o no. De la definicion se
sigue que un conjunto de vectores {v1, . . . , vk} ⊆ Rm es LD si existen constantes α1, . . . , αk, no todas cero tal
que α1v1 + · · ·+ αkvk = 0 pero esta ecuacion la podemos escribir matricialmente de la siguiente forma
0 = α1v1 + · · ·+ αkvk =[v1 · · · vk
]α1
...
αk
.
De donde se sigue que los vectores son LD si la ecuacion α1v1 + · · ·+ αkvk =[v1 · · · vk
]α1
...
αk
=
0...
0
tiene
soluciones no triviales, criterio que escribimos a continuacion en le siguiente teorema.
Teorema 2.5. Sea {v1, . . . , vk} ⊆ Rm y sea A =[v1 · · · vk
]la matriz cuyas columnas son los vectores
v1, . . . , vk, entonces el conjunto {v1, . . . , vk} es LI si y solo si rangoA = k = # de columnas de A.
Demostracion. El conjunto {v1, . . . , vk} es LI si y solo si las unicas constantes α1, . . . , αk tal que α1v1 + · · ·+
αkvk = 0 son α1 = · · · = αk = 0 si y solo si la unica solucion al sistema[v1 · · · vk
]︸ ︷︷ ︸
=A
α1
...
αk
=
0...
0
es el vector
α1
...
αk
=
0...
0
y por el Teorema 1.21 esto es equivalente a que rangoA = k = # de columnas de A.
En este capıtulo nos concentraremos en estudiar criterios que aplican solo para vectores en Rm, pero estos seran
generalizados a otros espacios vectoriales en la Capıtulo 3.
Observacion 2.2. Este teorema nos da un procedimiento computacional para determinar si un conjunto de
vectores es LI y si no lo son tambien nos permite encontrar la dependencia lineal entre los vectores, el cual
describimos a continuacion.
Autor: OMAR DARIO SALDARRIAGA 43
Sea {v1, . . . , vk} un conjunto de vectores en Rm, para determinar si este conjunto es LI hacemos lo siguiente:
1. Aplicamos reduccion Gauss-Jordan a la matriz A =[v1 · · · vk
].
2. Si la forma escalonada reducida A′ de A tiene un pivote en cada fila entonces los vectores son LI, si no
entonces los vectores son LD.
3. Si los vectores son LD, entonces el sistema Ax = 0 o equivalentemente A′x = 0 tiene solucion. Si x =
α1
...
αk
es una solucion a este sistema, las constantes α1, . . . , αk satisfacen
α1v1 + · · ·+ αkvk = 0
la cual nos da una dependencia lineal entre los vectores.
Ejemplo 2.5. Determine si el conjunto de vectores es LI, si no lo es, encontrar una dependencia lineal entre
ellos.
1.
v1 =
1
1
0
, v2 =
2
1
−1
, v3 =
−1
1
2
, v4 =
0
1
1
2.
v1 =
1
1
0
, v2 =
0
1
1
, v3 =
1
0
1
Solucion. 1. Necesitamos aplicar reduccion Gauss-Jordan a la matriz
[v1 v2 v3 v4
]=
1 2 −1 0
1 1 1 1
0 −1 2 1
, cuya forma escalonada reducida esta dada por
A′ =
1 0 3 2
0 1 −2 −1
0 0 0 0
.Como rango(A) = 2 < # de columnas de A entonces los vectores son LD. Para encontrar una dependencia
lineal entre estos vectores resolvemos el sistema A′x = 0, el cual nos da las ecuaciones x1 + 3x3 + 2x4 = 0 y
x2 − 2x3 − x4 = 0 o equivalentemente
x1 = −3x3 − 2x4 x2 = 2x3 + x4,
con x3 y x4 son variables libres, entonces si hacemos x3 = x4 = 1 obtenemos la solucion particular x1 = −5,
x2 = 3 y x3 = x4 = 1, por tanto una dependencia lineal entre los vectores esta dada por
−5v1 + 3v2 + v3 + v4 = 0.
44
2. En este caso necesitamos escalonar la matriz[v1 v2 v3
]=
1 0 1
1 1 0
0 1 1
, cuya forma escalonada reducida
es A′ = I y por tanto rango(A) = # de columnas de A y los vectores v1, v2 y v3 son LI.
Terminamos la seccion con un corolario que nos sera util mas adelante.
Corolario 2.6. Un conjunto de vectores linealmente independientes de Rm tiene a lo sumo m vectores.
Demostracion. Sean v1, . . . , vk ∈ Rm vectores linealmente independientes y sea A =[v1 · · · vk
]entonces
rango(A) = k, por tanto k = rango(A) ≤ # de filas=m, es decir, k ≤ m.
2.4. Conjuntos generadores
Definicion 2.5. Sea V un espacio vectorial, decimos que los vectores v1, v2, . . . , vk generan a V , si para todo
v ∈ V existen escalares α1, α2, . . . , αk tal que
v = α1v1 + · · ·+ αkvk.
Tambien diremos que V es generado por el conjunto de vectores {v1, . . . , vk}, lo cual denotaremos por V =
〈v1, . . . , vk〉. Al conjunto {v1, . . . , vk} se le llama conjunto generador.
La siguiente es una caracterizacion que sirve para determinar cuando un conjunto de vectores es un conjunto
generador de Rm.
Teorema 2.7. Sean v1, v2, . . . , vk vectores en Rm y sea A =[v1 · · · vk
]la matriz cuyas columnas son los
vectores v1, v2, . . . , vk. Entonces el conjunto {v1, v2, . . . , vk} es un conjunto generador si y solo si rango(A) =
m = # de filas de A.
Demostracion. Por definicion el conjunto {v1, v2, . . . , vk} es un conjunto generador si y solo si para todo
b ∈ Rm, existen escalares α1, . . . , αk tal que b = α1v1 + · · · + αkvk =[v1 · · · vk
]︸ ︷︷ ︸
A
α1
...
αk
= Ax donde
x =
α1
...
αk
, si y solo si la ecuacion Ax = b tiene solucion para todo b ∈ Rm y esto, por el Teorema 1.20, es
equivalente a que rango(A) = m = # de filas de A.
De este teorema se desprende un procedimiento para determinar si un conjunto de vectores es un conjunto
generador de Rm, el cual describimos a continuacion.
Procedimiento para determinar si un conjunto de vectores de Rm es un conjunto generador
Sean v1, v2, . . . , vk vectores en Rm, entonces
Autor: OMAR DARIO SALDARRIAGA 45
1. Forme la matriz A =[v1 · · · vk
].
2. Aplicar reduccion Gauss-Jordan a A para calcular la forma escalonada reducida A′ de A.
3. Si A′ tiene un pivote en cada fila, entonces los vectores v1, v2, . . . , vk generan a Rm, de otra forma no
generan.
Ejemplo 2.6. Determine si el conjunto de vectores genera a R3,
1.
v1 =
1
2
5
, v2 =
−2
−4
−10
, v3 =
0
1
1
, v4 =
−1
0
−3
2.
v1 =
1
2
5
, v2 =
−2
−4
−9
, v3 =
0
1
1
Solucion. 1. Siguiendo los pasos indicados en el procedimiento, primero formamos la matriz A =[v1 v2 v3 v4
]=
1 −2 0 −1
2 −4 1 0
5 −10 1 −3
. Ahora calculamos la matriz escalonada reducida de A, usando MatLab obtenemos
>> A = [1 − 2 0 − 1; 2 − 4 1 0; 5 − 10 1 − 3]; rref(A)
ans =1 −2 0 −1
0 0 1 2
0 0 0 0
Como rango(A) = 2 < 3 = # de filas, entonces los vectores no generan a R3.
2. En este caso formamos la matriz A =[v1 v2 v3 v4
]=
1 −2 0
2 −4 1
5 −9 1
. Ahora calculamos la matriz escalon-
ada reducida de A, usando MatLab obtenemos
>> A = [1 − 2 0; 2 − 4 1; 5 − 10 1]; rref(A)
ans =1 0 0
0 1 0
0 0 1
Como rango(A) = 3 = # de filas, entonces estos vectores generan a R3, es decir, 〈v1, v2, v3〉 = R3.
Corolario 2.8. Sean v1, v2, . . . , vk vectores en Rm, si k < n entonces los vectores v1, v2, . . . , vk no generan a
Rm.
Demostracion. Sea A =[v1 · · · vk
], entonces rango(A) ≤ k < m = # de filas de A, entonces por el
Teorema 2.7, el conjunto no genera a Rm.
46
Corolario 2.9. Un conjunto generador de Rm tiene al menos m vectores.
Teorema 2.10. Si los vectores v1, . . . , vm ∈ Rm son linealmente independientes, entonces generan a Rm, es
decir, 〈v1, . . . , vm〉 = Rm.
Demostracion. Sea A =[v1 · · · vm
], como los vectores v1, . . . , vm son linealmente independientes entonces,
por el Teorema 2.5, se tiene que rango(A) = m = # de columnas, pero la matriz A es de tamano m ×m, por
tanto # de filas=# de columnas. Luego rango(A) = m = # de filas de A. Por tanto por el Teorema 2.7 los
vectores v1, . . . , vm generan a Rm.
Ejemplo 2.7. En el Ejemplo 2.5 se encontro que los vectores v1 =
1
1
0
, v2 =
0
1
1
y v3 =
1
0
1
son linealmente
independientes, entonces por el teorema anterior se tiene que estos vectores generan R3.
2.5. Bases y Dimension
Al unir los conceptos de independencia lineal y conjunto generador se consigue el concepto mas importante
del algebra lineal, el cual es el concepto de base de un espacio vectorial el cual definimos a continuacion.
Definicion 2.6. Sea V un espacio vectorial y sean v1, . . . , vn ∈ V , decimos que el conjunto {v1, . . . , vn} es una
base para V si
1. los vectores v1, . . . , vn son linealmente independientes,
2. los vectores {v1, . . . , vn} generan a V .
De los corolarios de las dos ultimas secciones tenemos lo siguiente.
Teorema 2.11. 1. Toda base de Rm tiene exactamente m vectores.
2. Un conjunto de m vectores linealmente independientes de Rm es una base.
Demostracion. 1. Esto se sigue de los corolarios 2.6 y 2.9.
2. Este se sigue de el Teorema 2.10.
Ejemplo 2.8. En el ejemplo anterior se comprobo que los vectores v1 =
1
2
5
, v2 =
−2
−4
−9
y v3 =
0
1
1
son
linealmente independientes, por tanto generan y forman una base para R3.
Autor: OMAR DARIO SALDARRIAGA 47
El ultimo teorema garantiza que todas las bases de Rm tienen m vectores, en general para todos los espacios
vectoriales con un numero finito de generadores (tambien llamados finito dimensionales) se cumple que todas las
bases tienen exactamente el mismo numero de elementos. Abajo en el Teorema 2.13 se demostrara este hecho
para subespacios de Rm, el caso general se demostrara en la Seccion 3.4. Por ahora daremos un argumento
computacional que nos permitira determinar si un conjunto de vectores es una base para Rm.
Teorema 2.12. Sean v1, . . . , vm ∈ Rm y A =[v1 · · · vm
]entonces el conjunto {v1, . . . , vm} es una base
para Rm si y solo si rango(A) = m.
Nuevamente este teorema da un procedimiento para determinar si un conjunto de vectores es una base, el cual
consiste en formar una matriz con los vectores dados y determinar si el rango de esta matriz es # de filas e
igual al # de columnas. Como lo mostramos en el siguiente ejemplo.
Ejemplo 2.9. Determine si el conjunto de vectores dados forma una base para R3.
1.
v1 =
1
−1
3
, v2 =
−2
2
−6
, v3 =
1
1
4
2.
v1 =
1
−1
3
, v2 =
−1
2
−3
, v3 =
1
1
4
Solucion.
1. Sea A =
1 −2 1
−1 2 −1
3 −6 3
, aplicando reduccion Gauss-Jordan obtenemos
1 −2 1
−1 2 −1
3 −6 4
F1+F2→F2
−3F1+F3→F3
1 −2 1
0 0 0
0 0 1
F1↔F2
1 −2 1
0 0 1
0 0 0
−F2+F1→F1
1 −2 0
0 0 1
0 0 0
esta matriz tiene rango 2 y por tanto los vectores v1, v2 y v3 no forman una base para R3.
2. Sea A =
1 1 1
−1 2 1
3 3 4
, aplicando reduccion Gauss-Jordan obtenemos
1 −1 1
−1 2 1
3 −3 4
F2+F1→F2
−3F1+F3→F3
1 −1 1
0 1 2
0 0 1
F1+F2→F1
1 0 3
0 1 2
0 0 1
48
−3F3+F1→F1
−2F3+F1→F1
1 0 0
0 1 0
0 0 1
como esta matriz tiene rango 3, entonces los vectores v1, v2 y v3 forman una base para R3.
Ahora demostraremos que, para subespacios de Rm, todas las bases tienen el mismo numero de elementos.
Teorema 2.13. Sea V un subespacio de Rm y sean {v1, . . . , vk} y {w1, . . . , wl} bases para V , entonces k = l.
Es decir, todas las bases de V tienen exactamente el mismo numero de vectores.
Demostracion. Primero supongamos que l > k, como los vectores v1, . . . , vk forman una base para V , entonces
por definicion de base V = 〈v1, . . . , vk〉 y por tanto para i = 1, . . . , l existen constantes α1i, . . . , αki tal que
wi = α1iv1 + · · ·+ αkivk =[v1 · · · vk
]α1i
...
αki
.Uniendo estas ecuaciones obtenemos:
[w1 · · · wl
]=[v1 · · · vk
]α11 · · · α1l
.... . .
...
αk1 · · · αkl
=[v1 · · · vk
]A (2.3)
Donde A =
α11 · · · α1l
.... . .
...
αk1 · · · αkl
. Como l > k, entonces el sistema Ax = 0 tiene mas variables que ecuaciones y
por tanto existe al menos una solucion no trivial a este, es decir, exiten β1, . . . , βl tal que
A
β1
...
βl
=
0...
0
. (2.4)
Luego, multiplicando la Ecuacion (2.3) a la derecha por
β1
...
βl
, obtenemos
[w1 · · · wl
]β1
...
βl
=[v1 · · · vk
]A
β1
...
βl
︸ ︷︷ ︸
=0 por Ec. (2.4)
=[v1 · · · vk
]0...
0
=
0...
0
.
Autor: OMAR DARIO SALDARRIAGA 49
De donde[w1 · · · wl
]β1
...
βl
=
0...
0
, o equivalentemente β1w1 + · · ·+ βlwl = 0, luego los vectores w1, . . . , wl
son linealmente dependientes lo que contradice el hecho de que forman una base para V , por tanto k ≤ l.
De igual forma se demuestra que l ≤ k y por tanto k = l.
Terminamos la seccion con la definicion de conjunto generador y una caracterizacion de estos conjuntos.
Definicion 2.7. Sea V un espacio vectorial y sean v1, . . . , vk ∈ V , definimos el conjunto generado por estos
vectores, denotado por 〈v1 . . . , vk〉, como el conjunto de combinaciones lineales de los vectores v1, . . . , vk. Esto
es,
〈v1 . . . , vk〉 = {α1v1 + · · ·+ αkvk | α1, . . . , αk ∈ R } .
El conjunto generado por los vectores v1, . . . , vk ∈ V es un subespacio de V , este hecho se demuestra a contin-
uacion.
Teorema 2.14. Sea V un espacio vectorial y sean v1, . . . , vk ∈ V , entonces H = 〈v1, . . . , vk〉 es un subespacio
de V .
Demostracion. Como los vectores v1, . . . , vk ∈ V entonces combinaciones lineales de estos tambien pertenecen
a V , por tanto H = 〈v1, . . . , vk〉 ⊆ V .
Ahora veamos que H = 〈v1, . . . , vk〉 es cerrado bajo suma y producto por escalar.
Sean v, w ∈ H y δ ∈ V , entonces v = α1v1 + · · ·+ αkvk y w = β1v1 + · · ·+ βkvk. Entonces
v + w = α1v1 + · · ·+ αkvk + β1v1 + · · ·+ βkvk = (α1 + β1)v1 + · · ·+ (αk + βk)vk ∈ H
y
δv = δ(α1v1 + · · ·+ αkvk) = (δα1)v1 + · · ·+ (δαk)vk ∈ 〈v1, . . . , vk〉.
Por tanto H es un subespacio de V .
2.6. Subespacios fundamentales
Dada una matriz A se pueden definir cuatro subespacios determinados por esta, los cuales definimos a
continuacion.
Definicion 2.8. Sea A una matriz de tamano m× n definimos los siguientes subespacios:
1. El espacion nulo de A, denotado Nul(A), se define como
Nul(A) = {x ∈ Rn | Ax = 0.}
50
2. El espacio columna, denotado Col(A), se define como
Col(A) = 〈c1, . . . , cn〉,
donde c1, . . . , cn son las columnas de A.
3. El espacio fila de A, denotado por Fil(A), se define como
Fil(A) = 〈f t1, . . . , f tm〉,
donde f1, . . . , fm son las filas de A.
4. El espacio nulo a izquierda de A, denotado por Nuliz(A), se define como
Nuliz(A) = {x ∈ Rm | Atx = 0.}
De acuerdo al Teorema 2.14, el espacio columna, Col(A), y el espacio fila, Fil(A), de una matriz A son sube-
spacios de Rm y Rn, respectivamente. Para que los cuatro conjuntos definidos en la definicion anterior sean
subespacios, solo nos resta demostrar que Nul(A) y Nuliz(A) son subespacios. Esto se demuestra en el sigu-
iente teorema.
Teorema 2.15. Sea A una matriz m× n, entonces Nul(A) y Nuliz(A) son subespacios de Rn y Rm, respecti-
vamente.
Demostracion. Por definicion Nul(A) ⊆ Rn y claramente 0 ∈ Nul(A) ya que A0 = 0. Veamos que es cerrado
bajo la suma y el producto por escalar.
Sean x, y ∈ Nul(A) y sea αR, entonces por definicion de Nul(A) tenemos que Ax = 0 = Ay, luego
A(x+ y) = Ax+Ay = 0 + 0 = 0 y A(αx) = α Ax︸︷︷︸=0
= α0 = 0,
de donde x+ y ∈ Nul(A) y αx ∈ Nul(A). Por tanto Nul(A) es un subespacio de Rn.
Ahora, como lo anterior se demostro para A arbitraria, tenemos que Nuliz(A) = Nul(At) es un subespacio, en
este caso de Rm, ya que At es de tamano n×m.
El proposito ahora es dar un procedimiento que nos permita hallar una base para los subespacios fundamentales.
Calcular el espacio nulo de una matriz A es mas sencillo, ya que los vectores x en este espacio son solucion
a la ecuacion Ax = 0, el cual se resuelve aplicando Gauss-Jordan a la matriz[A 0
](ver ejemplo abajo). El
procedimiento para calcular una base para el espacio columna se sigue del siguiente teorema.
Teorema 2.16. Sea A una matriz de tamano m× n y sea A′ la forma escalonada reducida de A. Entonces los
vectores para los cuales la columna de A′ tiene un pivote, forman una base para Col(A) y por tanto dimCol(A) =
rango(A). Ademas se tiene que dimNul(A) = n− rango(A).
Autor: OMAR DARIO SALDARRIAGA 51
Demostracion. Sea k = rango(A), sin perdida de generalidad, supongamos las primeras k columnas de A′
tienen pivote, es decir
A′ =
1 · · · 0 b1,k+1 · · · b1n...
. . ....
.... . .
...
0 · · · 1 bk,k+1 · · · bkn
0 · · · 0 0 · · · 0...
. . ....
.... . .
...
0 · · · 0 0 · · · 0
(2.5)
Sean c1, . . . , cn las columnas de A, vamos a demostrar que los vectores c1, . . . , ck forman una base para Col(A).
Primero notese que los vectores c1, . . . , ck son linealmente independientes ya que estas son las primeras
columnas de A y por tanto la forma escalonada reducida de la matriz[c1 · · · ck
]esta dada por las primeras
k filas de A′ y de 2.5, se obtiene que esta tiene un pivote en cada columna, luego por el Teorema 2.5, estos son
linealmente independientes.
52
Ahora, de 2.5 tenemos lo siguiente
x1
...
xn
∈ Nul(A) si y solo si Ax = 0 si y solo si A′x = 0
si y solo si
x1 + b1,k+1xk+1 + · · ·+ b1nxn = 0...
xk + bk,k+1xk+1 + · · ·+ bknxn = 0
si y solo si
x1 = −b1,k+1xk+1 − · · · − b1nxn...
xk = −bk,k+1xk+1 − · · · − bknxn
si y solo si
x1
...
xk
xk+1
...
xn
=
−b1,k+1xk+1 − · · · − b1nxn...
−bk,k+1xk+1 − · · · − bknxnxk+1
...
xn
= xk+1
−b1,k+1
...
−bk,k+1
1...
0
+ · · ·+ xn
−b1n...
−bkn0...
1
. (2.6)
Entonces Nul(A) =
⟨
−b1,k+1
...
−bk,k+1
1...
0
, . . . ,
−b1n...
−bkn0...
1
⟩y en particular los vectores
−b1,k+1
...
−bk,k+1
1...
0
, . . . ,
−b1n...
−bkn0...
1
∈ Nul(A)
Autor: OMAR DARIO SALDARRIAGA 53
por tanto los vectores c1, · · · , cn satisfacen lo siguiente
0...
0
= A
−b1,k+1
...
−bk,k+1
1...
0
=[c1 · · · cn
]
−b1,k+1
...
−bk,k+1
1...
0
...
0...
0
= A
−b1n...
−bkn0...
1
=[c1 · · · cn
]
−b1n...
−bkn0...
1
Estas ecuaciones matriciales producen las ecuaciones
−b1,k+1c1 − · · · − bk,k+1ck + ck+1 = 0⇔ ck+1 = b1,k+1c1 + · · ·+ bk,k+1ck
...
−b1nc1 − · · · − bknck + cn = 0⇔ cn = b1nc1 + · · ·+ bknck
Luego si x ∈ Col(A), por definicion
x =α1c1 + · · ·+ αkck + αk+1ck+1 + · · ·+ αncn
=α1c1 + · · ·+ αkck + αk+1(b1,k+1c1 + · · ·+ bk,k+1ck) + · · ·
· · ·+ αn(b1nc1 + · · ·+ bknck)
=(α1 + αk+1b1,k+1 + · · ·+ αnb1n)c1 + · · ·
· · ·+ (αk + αk+1bk,k+1 + · · ·+ αnbkn)ck ∈ 〈c1 · · · , ck〉
Luego ColA = 〈c1, . . . , ck〉, entonces los vectores c1, . . . , ck generan a Col(A) y como sonson linealmente inde-
pendientes entonces forman una base para Col(A).
Finalmente, observese que dimCol(A) = k = rango(A) y por la Ecuacion 2.6 tenemos que dimNul(A) =
n− k = n− rango(A).
Corolario 2.17. Sea A una matriz de tamano m× n, entonces
dimCol(A) + dimNul(A) = n = # de columnas de A.
54
Ejemplo 2.10. Calcule los cuatro subespacios fundamentales de la matriz A =
1 −1 0 1
2 −2 1 4
3 −3 1 5
.
Solucion: Calculando la forma escalonada reducida de A obtenemos1 −1 0 1
2 −2 1 4
3 −3 1 5
−2F1+F2→F2
−2F1+F3→F3
1 −1 0 1
0 0 1 2
0 0 1 2
−F2+F3→F3
1 −1 0 1
0 0 1 2
0 0 0 0
entonces por el teorema anterior la primera y tercera columna de A forman una base para el espacio columna
de A, es decir
Col(A) =
⟨1
2
3
,
0
1
1
⟩.
Ahora para el espacio nulo resolvemos el sistema Ax = 0 o equivalentemente A′x = 0 y obtenemos lo siguiente
A′
x1
x2
x3
x4
=
0
0
0
⇔ x1 − x2 + x4 = 0
x3 + 2x4 = 0⇔
x1 = x2 − x4
x3 = −2x4
⇔
x1
x2
x3
x4
=
x2 − x4
x2
−2x4
x4
= x2
1
1
0
0
+ x4
−1
1
−2
1
.
Por tanto Nul(A) =
⟨
1
1
0
0
,−1
1
−2
1
⟩.
Ahora, como rango(A) = rango(At) entonces la transpuesta de las dos primeras filas es una base para Fil(A),
es decir, Fil(A) =
⟨
1
−1
0
1
,
2
−2
1
4
⟩.
Ahora calculamos la escalonada reducida de At1 2 3
−1 −2 −3
0 1 1
1 4 5
F1+F2→F2
−F1+F4→F4
1 2 3
0 0 0
0 1 1
0 2 2
F2↔F3
1 2 3
0 1 1
0 0 0
0 2 2
Autor: OMAR DARIO SALDARRIAGA 55
−2F2+F1→F1
−2F2+F4→F4
1 0 1
0 1 1
0 0 0
0 0 0
entonces un vector x =
x1
x2
x3
satisface la ecuacion Atx = 0 si y solo si
At
x1
x2
x3
=
0
0
0
0
⇔x1 + x3 = 0
x2 + x3 = 0⇔
x1 = −x3
x2 = −x3
⇔
x1
x2
x3
=
−x3
−x3
x3
=
−1
−1
1
.
Por tanto Nuliz(A) =
⟨−1
−1
1
⟩.
2.7. Subespacio generado
Si v1 . . . , vn son vectores en Rm, hay dos preguntas que que abordaremos en esta seccion acerca del subespacio
H = 〈v1, . . . , vn〉, las primera de las cuales es:
1. Si los vectores v1, . . . , vn no son linealmente independientes, como encontrar una base para H.
Si hacemos A =[v1 · · · vn
]entonces Col(A) = 〈v1, . . . , vn〉 = H y aplicando el Teorema 2.16 obtenemos
una base para Col(A) = H.
Ejemplo 2.11. Calcular una base para H = 〈v1, v2, v3〉 donde v1 =
1
2
5
, v2 =
−2
−4
−10
y v3 =
0
1
1
.
Solucion. Aplicando reduccion Gauss-Jordan a la matriz A =
1 −2 0
2 −5 1
5 −5 1
obtenemos A′ =
1 −2 0
0 0 1
0 0 0
.
Entonces los vectores v1 y v3 forman una base para H.
2. Si H es un subespacio de Rm con base {v1, . . . , vk} y b es un vector en Rm, como determinar si b ∈ H.
Haciendo A =[v1 · · · vk
]tenemos que b ∈ H si y solo si existen constantes α1, . . . , αk tal que b =
α1v1 + · · ·+ αkvk =[v1 · · · vk
]α1
...
αk
= Ax con x =
α1
...
αk
. En otras palabras, b ∈ H si y solo si la ecuacion
56
Ax = b tiene solucion y si x =
α1
...
αk
es una solucion a esta ecuacion, entonces b = α1v1 + · · ·+ αkvk.
Ejemplo 2.12. Sea H =
⟨v1 =
1
2
5
, v2 =
0
1
1
⟩
y sea b =
1
−2
1
, determinar si b ∈ H, en caso afirmativo
expresar a b como combinacion lineal de v1 y v2.
Solucion. Aplicando reduccion Gauss-Jordan a la matriz
1 0 1
2 1 −2
5 1 1
obtenemos
1 0 1
2 1 −2
5 1 1
−2F1+F2→F2
−5F1+F3→F3
1 0 1
0 1 −4
0 1 −4
−F2+F3→F3
1 0 1
0 1 −4
0 0 0
de donde tenemos que la ecuacion Ax = b tiene solucion α1 = 1 y α2 = −4, por tanto b = v1 − 4v2.
En el siguiente ejemplo se muestra que algunas veces los subespacios de Rn aparecen como el espacio nulo de
una matriz.
Ejemplo 2.13. Calcular una base para cada uno de los siguientes subespacios.
1. H =
xy
∣∣∣∣ y = mx, m ∈ R
2. H =
x
y
z
∣∣∣∣ x = at, y = bt y z = ct, a, b, c ∈ R
.
3. H =
x
y
z
∣∣∣∣ ax+ by + cz = 0, a, b, c ∈ R, c 6= 0
4. H =
x
y
z
∣∣∣∣ x+ y + z = 0, 2x− y − z = 0
.
1.
xy
∈ H si y solo si y = mx si y solo si
xy
=
x
mx
= x
1
m
si y solo si
xy
es un multiplo de
1
1
.
Por tanto H =
⟨1
1
⟩ .
Autor: OMAR DARIO SALDARRIAGA 57
2.
x
y
z
∈ H si y solo si x = at, y = bt y z = bt si y solo si
x
y
z
=
at
bt
ct
= t
a
b
c
si y solo si
x
y
z
es un multiplo
de
a
b
c
. Por tanto H =
⟨a
b
c
⟩.
3.
x
y
z
∈ H si y solo si ax+ by+ cz = 0 si y solo si z = −acx−bcy si y solo si
x
y
z
=
x
y
−acx−bcy
= x
1
0
−ac
+
y
0
1
− bc
si y solo si
x
y
z
es una combinacion lineal de
1
0
−ac
y
0
1
− bc
. Por tanto H =
⟨1
0
−ac
,
0
1
− bc
⟩.
4.
x
y
z
∈ H si y solo si x + y + z = 0 y 2x − y − z = 0 si y solo si
1 1 1
2 −1 −1
x
y
z
=
0
0
si y solo si
x
y
z
∈ Nul(A) con A =
1 1 1
2 −1 −1
. Para calcular el espacio nulo de A aplicamos reduccion Gauss-Jordan
1 1 1
2 −1 −1
−2F1+F2→F2
1 1 1
0 −3 −3
−13 F2→F2
1 1 1
0 1 1
−F2+F1→F1
1 0 0
0 1 1
Entonces
x
y
z
∈ Nul(A) si y solo si x = 0 y y + z = 0 si y solo si x = 0 y y = −z si y solo si
x
y
z
=
0
−z
z
=
z
0
−1
1
. Por tanto H =
⟨0
−1
1
⟩.
Terminamos el capıtulo con con un teorema que sera muy util en el proximo capıtulo.
Teorema 2.18. Sea A una matriz de tamano m× n, entonces
1. Nul(A) = 0 si y solo si rango(A) = n = # de columnas de A.
2. Col(A) = Rn si y solo si rango(A) = m = # de filas de A.
58
Demostracion. 1. Nul(A) = 0 si y solo si la unica solucion a la ecuacion Ax = 0 es x = 0 si y solo si
rango(A) = n = # de columnas de A (Teorema 1.21.)
2. Col(A) = Rn si y solo si b ∈ Col(A) para todo b ∈ Rn si y solo si para todo b ∈ Rn, Ax = b si y solo si la
ecuacion Ax = b tiene solucion para todo b ∈ Rn si y solo si rango(A) = m = # de filas de A (Teorema
1.20.)
2.8. El teorema de la base incompleta en Rm
En el Corolario 2.6 se demostro que si v1, . . . , vk son vectores linealmente independientes en Rm entonces
k ≤ m. El Teorema de la base incompleta dice que si k < m se pueden escojer vectores wk+1, . . . , wm talque
v1, . . . , vk, wk+1, . . . , wm forman una base para Rm.
Teorema 2.19. (Teorema de la base incompleta) Sean v1, . . . , vk vectores linealmente independientes en Rm.
Si k < m se pueden escojer vectores wk+1, . . . , wm talque v1, . . . , vk, wk+1, . . . , wm forman una base para Rm.
Demostracion. Sea A =[v1 · · · vk
]la matriz cuyas columnas son los vectores v1, . . . , vk, como estos son
linealmente independientes, entonces por el Teorema 2.5 tenemos que rango(A) = k y por tanto la forma
escalonada reducida A′ de A tiene un pivote en cada fila, luego A′ tiene la forma
A′ =
1 · · · 0...
. . ....
0 · · · 1
0 · · · 0...
. . ....
0 · · · 0
=[e1 · · · ek
]
donde ei es el vector con un uno en la i-esima componente y ceros en las demas componentes. Sean E1, . . . , Es
matrices elementales talque
A′ = Es · · ·E1A (2.7)
y sea B = E−11 · · ·E−1
s entonces tenemos lo siguiente
Afirmacion 1. Las primeras k columnas de B son los vectores v1, . . . , vk
Demostracion de la afirmacion: de la ecuacion (2.7) se sigue que
A = E−11 · · ·E−1
s︸ ︷︷ ︸=B
A′ = BA′ = B[e1 · · · ek
]=[Be1 · · · Bek
]
Autor: OMAR DARIO SALDARRIAGA 59
como las columnas de A son los vectores v1, · · · , vk entonces tenemos que Be1 = v1, . . . , Bek = vk, luego
B = BI = B[e1 · · · ek ek+1 · · · em
]=
[Be1︸︷︷︸v1
· · · Bek︸︷︷︸vk
Bek+1 · · · Bem
]=[v1 · · · vk Bek+1 · · · Bem
]Afirmacion 2. Las columnas de B son linealmente independientes.
Demostracion de la afirmacion: Como B es un producto de matrices invertibles, entonces B es invertible,
luego por el Corolario 1.22 tenemos que rango(A) = m entonces por el Teorema ?? los vectores son linealmente
independientes.
Ahora, como B tiene m columnas linealmente independientes, entonces estas forman una base para Rm, es
decir, los vectores v1, . . . , vk, wk+1, . . . , wm forman una base, donde wk+1, . . . , wm son las ultimas columnas de
B.
Este teorema exhibe un metodo computacional para completar una base, el cual escribimos a continuacion:
Procedimiento para completar una base en Rm
Sean v1, . . . , vk vectores linealmente independientes en Rm con k < m, para calcular vectores wk+1, . . . , wm
talque los vectores v1, . . . , vk, wk+1, . . . , wm forman una base, hacemos lo siguiente
1. Sea A =[v1 · · · vk
]la matriz formada con los vectores v1, . . . , vk
2. Sea C el producto de las matrices elementales talque A = CA′, esta matriz se calcula hallando la forma
escalonada reducida de la matriz[A I
]ya que esta esta dada por
[A′ C
]3. Hacemos B = C−1
Si las columnas de B son linealmente independientes y por tanto forman una base para Rm y por el teorema
anterior, las primeras columnas de B son los vectores v1, . . . , vk.
Ejemplo 2.14. (MatLab) Sean v1 =
0
−1
1
y v2 =
1
1
2
, calcular un vector v3 talque los vectores v1, v2, v3
forman una base para R3.
Solucion. Sea A =[v1 v2
]=
0 1
−1 1
1 2
, entonces hacemos lo siguiente
1. calculamos la forma escalonada reducida de la matriz[A I
]usando MatLab
>> A = [01;−11; 12]; R=rref([A, eye(3)])
R=
60
1 0 0 −2/3 1/3
0 1 0 1/3 1/3
0 0 1 −1/3 −1/3El producto de las matrices elementales es la matriz compuesta por las 3 ultimas columnas de R, la cual
podemos definir usando MatLab como sigue
>> C = [R(:, 3), R(:, 4), R(:, 5)]
C =0 −2/3 1/3
0 1/3 1/3
1 −1/3 −1/32. Ahora calculamos B = C−1 como sigue
B = inv(C)
B=0 1 1
−1 1 0
1 2 0Notese que efectivamente las dos primeras columnas de esta matriz son los vectores v1 y v2 y por tanto los
vectores v1, v2 y v3 =
1
0
0
forman una base para R3.
Capıtulo 3
Transformaciones Lineales
3.1. Definicion y Ejemplos
En este capıtulo se estudiaran funciones entre espacios vectoriales que preservan la estructura, estas funciones
se llaman tranformaciones lineales, comenzamos con la definicion.
Definicion 3.1. Sean V y W espacios vectoriales y T : V −→W una funcion, decimos que T es una transfor-
macion lineal si T satisface:
1. T (v + v′) = T (v) + T (v′), para todo v, v′ ∈ V .
2. T (αv) = αT (v), para todo v ∈ V y para todo α ∈ R.
Observacion 3.1. Como consecuencia de la definicion tenemos que si T : V −→ W es una transformacion
lineal, v1, . . . , vn ∈ V y α1, . . . , αn ∈ R entonces
1. T (α1v1 + α2v2) = α1T (v1) + α2T (v2), y en general
2. T (α1v1 + · · ·+ αnvn) = α1T (v1) + · · ·+ αnT (vn).
Ejemplo 3.1. 1. La funcion T : R2 −→ R definido por T
xy
= x+ y es una transformacion lineal ya
que
T
xy
+
x′y′
= T
x+ x′
y + y′
= x+ x′ + y + y′ = (x+ y) + (x′ + y′) = T
xy
+ T
x′y′
T
αxy
= T
αxαy
= αx+ αy = α(x+ y) = αT
xy
2. Si A es una matriz m×n, la funcion T : Rn −→ Rm definida por T (x) = Ax es una transformacion lineal
ya que satisface los axiomas 1 y 2 de la definicion, mas especificamente tenemos que
61
62
T (x+ y) = A(x+ y) = Ax+Ay = T (x) + T (y) y
T (αx) = A(αx) = αAx = αT (x).
Destacamos las siguientes propiedades que cumple cualquier transformacion lineal.
Teorema 3.1. Sean V y W espacios vectoriales y sea T : V −→W una transformacion lineal, entonces
1. T (0) = 0
2. T (−v) = −T (v).
Demostracion. 1. T (0) = T (0 + 0) = T (0) + T (0) por tanto T (0) = 0.
2. T (−v) = T ((−1)v) = −1T (v) = −T (v).
Por ahora nos concentraremos solo en transformaciones lineales de Rn en Rm, ya que estas, como se muestra
en el siguiente teorema, son de la forma dada en el ejemplo 2, es decir, para toda transformacion lineal se puede
encontrar una matriz A de tamao m× n tal que T (x) = Ax. Pasamos a enunciar el teorema.
Teorema 3.2. Sea T : Rn −→ Rm una transformacion lineal, sea {e1, . . . , en} la base estandar de Rn y
A = [T (e1) · · · T (en)], la matriz cuyas columnas son los vectores T (e1), . . . , T (en), entonces T (x) = Ax,
para todo x ∈ Rn.
Demostracion. Sea x =
α1
...
αn
∈ Rn, entonces x = α1e1 + · · ·+ α1en y tenemos lo siguiente
T (x) = T (α1e1 + · · ·+ α1en) = α1T (e1) + · · ·+ α1T (en)
= [T (e1) · · · T (en)]︸ ︷︷ ︸=A
α1
...
αn
= Ax.
Notacion 4. Si T : Rn −→ Rm es una transformacion lineal y E = {e1, . . . , en} es la base estandar de Rn, a
la matriz A = [T (e1) · · · T (en)] se llama la matriz de la transformacion y sera denotada por A =ETE.
Ejemplo 3.2. Calcular la matriz de la transformacion T : R2 −→ R definida por T
xy
= x+ y.
Solucion. De acuerdo al teorema anterior debemos calcular T (e1) y T (e2):
T (e1) = T
1
0
= 1 + 0 = 1 T (e2) = T
0
1
= 0 + 1 = 1.
Luego la matriz de la transformacion es ETE = [1 1].
Autor: OMAR DARIO SALDARRIAGA 63
Ejemplo 3.3. Calcular la matriz, ESE, de la transformacion S : R3 −→ R2 definida por S
x
y
z
=
x+ 2y
y − 3z
.
Solucion. En este caso debemos calcular S(e1), S(e2) y S(e3).
S(e1) = S
1
0
0
=
1 + 2 · 0
0− 3 · 0
=
1
0
S(e2) = S
0
1
0
=
0 + 2 · 1
1− 3 · 0
=
2
1
y S(e3) = S
0
0
1
=
0 + 2 · 0
0− 3 · 1
=
0
−3
Por tanto la matriz de la transformacion es ESE =
1 2 0
0 1 −3
.
En el siguiente teorema demostraremos que la composicion de transformaciones lineales es una transformacion
lineal.
Teorema 3.3. Sean V, W y Z espacios vectoriales y sean T : V −→ W y S : W −→ Z tranformaciones
lineales, entonces S ◦ T es una transformacion lineal. Mas aun, si V = Rn, W = Rm y Z = Rq entonces la
matriz de S ◦ T esta dada por ESE ·E TE, es decir, E(S ◦ T )E =E SE ·E TE .
Demostracion. Primero demostremos que S ◦ T es una transformacion lineal, sean v, v′ ∈ V y α ∈ R,
S ◦ T (v + v′) = S(T (v + v′)︸ ︷︷ ︸T (v)+T (v′)
) = S(T (v) + T (v′))︸ ︷︷ ︸S(T (v))+S(T (v′))
= S(T (v)) + S(T (v′))
= S ◦ T (v) + S ◦ T (v′) y
S ◦ T (αv) = S(T (αv)︸ ︷︷ ︸αT (v)
) = S(αT (v))︸ ︷︷ ︸αS(T (v))
= αS(T (v)) = αS ◦ T (v)
Ahora demostremos la segunda parte, sean A =E TE y B =E SE , entonces T (v) = Av para todo v ∈ Rn y
S(w) = Bw para todo w ∈ Rm. Veamos que BA es la matriz de S ◦ T , es decir, S ◦ T (v) = BAv para todo
v ∈ Rn.
S ◦ T (v) = S(T (v)︸︷︷︸Av
) = S(Av)︸ ︷︷ ︸BAv
= BAv.
Por tanto BA es la matriz de S ◦ T .
Ejemplo 3.4. Sean T y S las transformaciones lineales definidas en los Ejemplos 3.2 y 3.3 entonces la matriz
de la transformacion T ◦ S, E(T ◦ S)E , esta dada por
E(T ◦ S)E =E TE ·E SE =[1 1
]1 2 0
0 1 −3
=[1 3 −3
].
64
Por tanto T ◦ S
α1
α2
α3
=
[1 3 −3
]α1
α2
α3
= α1 + 3α2 − 3α3.
Ejemplo 3.5. (MatLab) Definir matrices 3x4 y 4x3 y calcular las matrices de las composiciones.
La matriz de una transformacion se puede usar para conseguir informacion util acerca de la transformacion,
por ejemplo, esta se puede usar para determinar si una transformacion lineal es inyectiva, si es sobre, si es
biyectiva y tambien se puede usar para calcular el rango de la transformacion. Esto lo veremos en las secciones
3.2-3.4
3.2. Transformaciones Lineales Inyectivas
Comenzamos el estudio de las transformaciones inyectivas con la defincion de kernel de la transforacion.
Definicion 3.2. Sean V y W espacios vectoriales y sea T : V −→ W una transformacion lineal, definimos el
nucleo o kernel de T como el conjunto
Ker(T ) = {x ∈ V | T (x) = 0}.
Para transformaciones lineales de Rn en Rm, la matriz de la transformacion se puede usar para calcular el
kernel. Este es el resultado del siguiente teorema.
Lema 3.4. Sea T : Rn −→ Rm una transformacion lineal y sea A =E TE la matriz de la transformacion,
entonces Ker(T ) = Nul(A).
Demostracion. x ∈ Ker(T ) si y solo si T (x) = 0 si y solo si T (x) = Ax = 0 si y solo si x ∈ Nul(A).
Concluimos que Ker(T ) = Nul(A).
Ejemplo 3.6. Calcular el kernel de la transformacion lineal S definida en el Ejemplo 3.3.
Solucion. La matriz de la transformacion es A =
1 2 0
0 1 −3
, necesitamos calcular Nul(A):
1 2 0
0 1 −3
F1 − 2F2 → F1
1 0 6
0 1 −3
Luego tenemos que un vector x =
x
y
z
∈ Nul(A) si y solo se satisfacen las ecuacionesx = −6z
y = 3z. Entonces
tenemos que x =
x
y
z
∈ Nul(A) si y solo si
x
y
z
=
−6z
3z
z
= z
−6
3
1
.
Autor: OMAR DARIO SALDARRIAGA 65
Por tanto tenemos que Ker(T ) = Nul(A) =
⟨−6
3
1
⟩.
Teorema 3.5. Sea T : V −→W una transformacion lineal, entonces T es inyectiva si y solo si Ker(T ) = {0}.
Demostracion. “⇒”Supongamos que T es inyectiva, entonces si T (x) = T (y), tenemos que x = y.
Ahora, supongamos que x ∈ Ker(T ), entonces T (x) = 0 = T (0), luego x = 0 y por tanto Ker(T ) ⊆ {0}.
La otra inclusion se da ya que Ker(T ) es un subespacio de V y por tanto 0 ∈ Ker(T ). Concluimos que
Ker(T ) = {0}.
“⇐”Supongamos que Ker(T ) = 0 y demostremos que si T (x) = T (y), entonces x = y, para todo x, y ∈ V .
Supongamos entonces que T (x) = T (y). Luego T (x − y) = T (x) + T (−y) = T (x) − T (y) = 0, se sigue que
x− y ∈ Ker(T ) = {0} por tanto x− y = 0 o equivalentemente x = y. Concluimos que T es inyectiva.
En el caso particular de transformaciones lineales que van de Rn en Rm, este teorema y el Lema 3.4 nos dan
un algoritmo para calcular el kernel, este se hara evidente con el siguiente teorema.
Teorema 3.6. Sea T : Rn −→ Rm una transformacion lineal y sea A =ETE la matriz de la transformacion.
Entonces T es inyectiva si y solo si rango(A) = n = # de columnas de A.
Demostracion. T es inyectiva si y solo si Ker(T ) = 0 (Teorema anterior) si y solo si Nul(A) = 0 (Lema 3.4)
si y solo si rango(A) = n.
Este teorema nos da una manera de determinar si una transformacion lineal es inyectiva y en caso negativo,
usamos el Lema 3.4 para calcularlo. A continuacion damos el ejemplo.
Ejemplo 3.7. Determine si la transformacion lineal T : R3 −→ R2 definida por T
x
y
z
=
x+ 2y
y − 3z
es
inyectiva.
Solucion. En el Ejemplo 3.6 vimos que la matriz de la transformacion es A =
1 2 0
0 1 −3
y la forma
escalonada reducida de A es A′ =
1 0 6
0 1 −3
. De esto deducimos que rango(A) = 2 < # de columnas de A,
por tanto A no es inyectiva.
a=[1 -2 3 4;2 3 -4 5;3 4 5 6;4 5 6 7];
Ejemplo 3.8. (MatLab) Sea A =
1 −2 3 4
2 3 −4 5
3 4 5 6
4 5 6 7
y sea T : R4 −→ R4 la transformacion lineal definida
por T (x) = Ax. Determine si T es inyectiva y calcular su kernel.
66
Solucion. Es facil ver que A =ETE es la matriz de la tranformacion, para determinar si T es o no inyectiva,
necesitamos calcular el rango de A, lo cual calculamos como sigue en MatLab:
>> A = [1 − 2 3 4; 2 3 − 4 5; 3 4 5 6; 4 5 6 7]; rank(A)
ans =
4
De aqui se sigue que rango(A) = 4 = # de columnas de A y tenemos que T es inyectiva y Ker(T ) = {0}.
Ejemplo 3.9. (MatLab) Sea A =
−1 −2 1 1 1
1 0 1 −3 1
0 1 −1 1 1
0 1 −1 1 1
1 0 1 −3 1
y sea T : R5 −→ R5 definida por T (x) = Ax,
determine si T es inyectiva y calcular Ker(T ).
Solucion. Primero calculamos el rango de A para determinar si la transformacion es inyectiva
>> A = [−1 − 2 1 1 1; 1 0 1 − 3 1; 0 1 − 1 1 1; 0 1 − 1 1 1; 1 0 1 − 3 1]; rank(A)
ans =
3
Obtenemos que rango(A) = 3 y por tanto T no inyectiva. Para calcular el kernel, computamos el subespacio
nulo de A.
>> null(A,′ r′)
ans =−1 3
1 −1
1 0
0 1
0 0
Obtenemos que Ker(T ) = Nul(A) =
⟨
−1
1
1
0
0
,
3
−1
0
1
0
⟩.
3.3. Transformaciones lineales sobreyectivas
Comenzamos recordando la definicion de imagen (o rango) de funcion y la de funcion sobreyectiva.
Definicion 3.3. Sean V y W espacios vectoriales y T : V −→W una transformacion lineal,
Autor: OMAR DARIO SALDARRIAGA 67
1. Definimos la imagen (o rango) de T , denotada por Im(T ), como el conjunto
Im(T ) = {T (v) | v ∈ V } = {w ∈W | existe v ∈ V tal que w = T (v)}.
2. Decimos que T es sobreyectiva si Im(T ) = W .
Cuando las transformacion esta definida de Rn en Rm podemos calcular la imagen usando la matriz de la
transformacion. Este hecho se demuestra en el siguiente teorema.
Lema 3.7. Sea T : Rn −→ Rm una transformacion lineal y sea A =ETE la matriz de T , entonces Im(T ) =
Col(A).
Demostracion. Antes de hacer la demostracion denotemos por C1, . . . , Cn las columnas de A.
w ∈ Im(T ) si y solo si existe v ∈ Rn tal que w = T (v) = Av si y solo si existe v =
α1
...
αn
∈ Rn tal que
w = Av = [C1 · · · Cn]
α1
...
αn
= α1C1 + · · ·+ αnCn si y solo si w ∈ 〈C1, . . . , Cn〉 = Col(A).
Por tanto Im(T ) = Col(A).
Ejemplo 3.10. Sea A =
1 0
1 −2
3 0
y T : R2 −→ R3 la transformacion lineal definida por T (x) = Ax, calcular
la imagen de T .
Solucion. De acuerdo al lema anterior necesitamos calcular Col(A).
Si calculamos la forma escalonada de A obtenemos A′ =
1 0
0 1
0 0
y por tanto
Im(T ) = Col(A) =
⟨1
1
3
,
0
−2
0
⟩.
El lema anterior nos muestra como la matriz de la transformacion se puede usar para calcular la imagen de
una transformacion, esta tambien sirve para determinar si la transformacion es sobreyectiva, esto lo mostramos
a continuacion.
Teorema 3.8. Sea T : Rn −→ Rm una transformacion lineal y A la matriz de T , entonces T es sobreyectiva si
y solo si rango(A) = m = # de filas de A.
Demostracion. T es sobre si y solo si Rm = Im(T ) = Col(A) y Col(A) = Rm si y solo si rango(A) = m = #
de filas de A.
68
El lema anterior nos dice que encontrar el rango de una transformacion es equivalente a encontrar el es-
pacio columna de la matriz de la transformacion y el teorema anterior reduce el problema de determinar si la
transformacion es sobre a encontrar el rango de esta matriz. Esto lo ilustramos en los siguientes ejemplos.
Ejemplo 3.11. Determine si la transformacion del ejemplo anterior es sobre.
Solucion. La forma escalonada de la matriz de T es A′ =
1 0
0 1
0 0
y por tanto rango(A) = 2 < 3 = # de
columnas de A, concluimos que T no es sobre.
Ejemplo 3.12. (MatLab) Sea T la transformacion del Ejemplo 3.9, determine si T es sobre y calcular Im(T ).
Solucion. En el Ejemplo 3.9 calculamos que el rango de la matriz A =ETE es 3 y por tanto T no es sobre.
Para calcular Im(T ) necesitamos calcular el espacio columna de A, el cual podemos calcular con la escalonada
reducida de A.
>> A = [−1 − 2 1 1 1; 1 0 1 − 3 1; 0 1 − 1 1 1; 0 1 − 1 1 1; 1 0 1 − 3 1]; rank(A)
ans =
1 0 1 −3 0
0 1 −1 1 0
0 0 0 0 1
0 0 0 0 0
0 0 0 0 0
Obtenemos que Im(T ) =
⟨
−1
1
0
0
1
,
−2
0
1
1
0
,
1
1
1
1
1
⟩
, correspondientes a la 1a, 2a y 5a columna de A.
Otra forma de calcular la imagen es usando el comando colspace(sym(A)), el cual no dara la base de
Col(A) = Im(T ).
>> A = [−1 − 2 1 1 1; 1 0 1 − 3 1; 0 1 − 1 1 1; 0 1 − 1 1 1; 1 0 1 − 3 1]; colspace(sym(A))
ans =
[1, 0, 0]
[0, 1, 0]
[0, 0, 1]
[0, 0, 1]
[0, 1, 0]
Autor: OMAR DARIO SALDARRIAGA 69
De esta manera obtenemos que el conjunto
1
0
0
0
0
,
0
1
0
0
1
,
0
0
1
1
0
es una base para Im(T ).
3.4. Isomorfismos
Las transformaciones lineales biyectivas (inyectivas y sobreyectivas) se llaman isomorfismos, la palabra iso-
morfirmo significa igual forma. En esta seccion veremos como los isomorfismos preservan la estructura de los
espacios vectoriales. Comenzamos con la definicion de isomorfismo.
Definicion 3.4. Sean V y W espacios vectoriales y T : V −→ W una transformacion lineal, decimos que T
es un isomorfismo si es una funcion biyectiva. Tambin diremos que V es isomorfo a W lo cual denotaremos
V ∼= W .
Los teoremas 3.6 y 3.8 implican lo siguiente.
Teorema 3.9. Sea T : Rn −→ Rm una transformacion lineal y A =ETE la matriz de T , entonces T es un
isomorfismo si y solo si rango(A) = m = n.
Corolario 3.10. Rn ∼= Rm si y solo si m = n.
Ejemplo 3.13. Sea T : R2 −→ R2 la tranformacion lineal cuya matriz es A =
1 1
1 −1
, determinar si T es
un isomorfismo.
Solucion. La forma escalonada reducida de A es la matriz A = I, por tanto T es un isomorfismo.
Teorema 3.11. Sea T : Rn −→ Rn una transformacion lineal y A =ETE la matriz de T , entonces T−1 es una
transformacion lineal y su matriz es A−1.
Demostracion. Demostracion. Primero veamos que T−1 es lineal. Sean y1, y2 ∈ Rn, como T es sobre, existen
x1, x2 ∈ Rn tal que y1 = T (x1) y y2 = T (x2), entonces
T−1(y1 + y2) = T−1(T (x1) + T (x2)) = T−1(T (x1 + x2)) = x1 + x2
= T−1(y1) + T−1(y2)
Ahora, sea α ∈ R, entonces tenemos
T−1(αy1) = T−1(αT (x1)) = T−1(T (αx1)) = αx1 = αT−1(y1).
Por tanto T−1 es lineal. Ahora veamos que A−1 es la matriz de T . Notese que y ∈ Rn entonces y = AA−1y =
T (A−1y), aplicando T−1 a ambos lados obtenemos
T−1(y) = A−1y.
70
Conluimos que A−1 es la matriz de T−1.
Observacion 3.2. En general si T : V −→ W es un isomorfismo, entonces T−1 : W −→ V tambien es una
transformacion lineal.
Ejemplo 3.14. En el ejemplo anterior vimos que la transformacion lineal T : R2 −→ R2 cuya matriz es
A =
1 1
1 −1
es invertible, entonces T−1 es un isomorfismo y su matriz es A−1 =
1/2 1/2
1/2 −1/2
. Es decir, la
transformacion esta dada por T
xy
=
12 (x+ y)12 (x− y)
.
Hasta ahora la mayoria de los teoremas que hemos visto en el capıtulo y en el anterior aplican solamente al
espacio vectorial Rn y a transformaciones lineales de Rn en Rm. Vamos a usar la teorıa de isomorfismos para
generalizar los teoremas vistos, comenzamos con un resultado que nos va a servir de puente para extender estos
teoremas.
Teorema 3.12. Sea V un espacio vectorial y {v1, . . . , vn} una base para V , entonces V ∼= Rn. Un isomorfismo
entre estos espacios esta dado por la funcion T : V −→ Rn definida por T (α1v1 + · · ·+ αnvn) =
α1
...
αn
, a esta
funcion se le conoce como el isomorfismo canonico.
Demostracion. Veamos que T es un isomorfismo.
T es lineal: Sean v, w ∈ V y α ∈ R, como {v1, . . . , vn} es una base para V , existen α1, . . . , αn, β1 . . . , βn ∈ R tal
que v = α1v1 + · · ·+ αnvn y w = β1v1 + · · ·+ βnvn, luego
T (v + w) = T (α1v1 + · · ·+ αnvn + β1v1 + · · ·+ βnvn)
= T ((α1 + β1)v1 + · · ·+ (αn + βn))
=
α1 + β1
...
αn + βn
=
α1
...
αn
+
β1
...
βn
= T (α1v1 + · · ·+ αnvn) + T (β1v1 + · · ·+ βnvn)
= T (v) + T (w).
Autor: OMAR DARIO SALDARRIAGA 71
T (αv) = T (α(α1v1 + · · ·+ αnvn))
= T (αα1v1 + · · ·+ ααnvn)
=
αα1
...
ααn
= α
α1
...
αn
= αT (α1v1 + · · ·+ αnvn)
= αT (v).
T es inyectiva: Para esto veamos que Ker(T ) = {0}.
“⊆”Sea v = α1v1 + · · · + αnvn ∈ Ker(T ), entonces 0 = T (v) =
α1
...
αn
. Entonces α1 = · · · = αn = 0 y por
tanto v = 0.
La otra inclusion es inmediata ya que T (0) = 0 y por tanto 0 ∈ Ker(T ).
T es sobreyectiva: Sea y =
α1
...
αn
∈ Rn, y sea v = α1v1 + · · ·+ αnvn ∈ V , entonces tenemos que
T (v) = T (α1v1 + · · ·+ αnvn) =
α1
...
αn
= y.
Por tanto T es sobreyectiva.
Concluimos que T es un isomorfismo.
Ejemplo 3.15. El conjunto {1, t, t2, t3} es una base del espacio V = P3, por tanto V es isomorfo a R4 y el
isomorfismo esta dado por
T (a0 + a1t+ a2t2 + a3t
3) =
a0
a1
a2
a3
.
El numero de vectores en una base es invariante, este hecho se demostro en el Capıtulo 2, pero en el caso de
subespacios de Rn, a continuacion lo demostramos para espacios vectoriales en general.
Teorema 3.13. Sea V un espacio vectorial y sean {v1, . . . , vn} y {w1, . . . , wm} bases para V , entonces m = n.
Demostracion. Por el teorema anterior tenemos que V ∼= Rn y V ∼= Rm, luego Rn ∼= Rm. Luego por el
Corolario 3.10 tenemos que m = n.
72
Esto nos permite definir la dimension de espacios vectoriales, al tener que el numero de vectores en una base
es invariante.
Definicion 3.5. Sea V un espacio vectorial, definimos la dimensin de V, denotada por dimV , como el numero
de vectores en una base de V. Es decir, si {v1, . . . , vn} es una base para V entonces dimV = n.
Ejemplo 3.16. 1. Como el conjunto {1, t, . . . , tn} es una base para Pn, tenemos que dim Pn = n+ 1.
2. Una base para M22(R) esta dada por
1 0
0 0
,0 1
0 0
,0 0
1 0
,0 0
0 1
, por tanto dimM22(R) = 4.
3. En general tenemos que dimMmn(R) = mn. Una base para este espacio esta dada por {Eij | i =
1, dots, n, j = 1, . . . ,m}, donde Eij es la matriz m × n con un 1 en la posicion ij y cero en las de-
mas posiciones.
El siguiente teorema muestra como los isomorfismo conservan la estructura de los espacios vectoriales, en
otras palabras, el siguiente teorema justifica por que las transformaciones biyectivas son llamadas isomorfismos.
Teorema 3.14. Sean V y W espacios vectoriales, T : V −→W un isomorfismo, {v1, . . . , vn} ⊆ V y sea v ∈ V .
Entonces se tiene lo siguiente:
1. El conjunto {v1, . . . , vn} es linealmente independiente si y solo si el conjunto {T (v1), . . . , T (vn)} es lineal-
mente independiente.
2. El conjunto {v1, . . . , vn} genera a V si y solo si el conjunto
{T (v1), . . . , T (vn)} genera a W .
3. El conjunto {T (v1), . . . , T (vn)} es una base para V si y solo si el conjunto {T (v1), . . . , T (vn)} es una base
para W .
4. dimV = dimW .
5. v ∈ 〈v1, . . . , vn〉 si y solo si T (v) ∈ 〈T (v1), . . . , T (vn)〉.
Demostracion. 1. “⇒”Supongamos que el conjunto {v1, . . . , vn} es linealmente independiente y supong-
amos que α1T (v1) + · · · + αnT (vn) = 0. Entonces 0 = T (0) = T (α1v1 + · · · + αnvn). Como T es 1-1,
tenemos que α1v1 + · · ·+ αnvn = 0. Ahora, como {v1, . . . , vn} es linealmente independiente, tenemos que
α1 = · · · = αn = 0. De aquı concluimos que {T (v1), . . . , T (vn)} es linealmente independiente.
“⇐”Supongamos que {T (v1), . . . , T (vn)} es linealmente independiente y supongamos que α1v1 + · · · +
αnvn = 0. Entonces tenemos que 0 = T (0) = T (α1v1 + · · · + αnvn) = α1T (v1) + · · · + αnT (vn). Como
{T (v1), . . . , T (vn)} es linealmente independiente tenemos que α1 = · · · = αn = 0. Por tanto {v1, . . . , vn}
es linealmente independiente.
Autor: OMAR DARIO SALDARRIAGA 73
2. Como T es un isomorfismo, es en particular inyectivo y sobreyectivo, por tanto Ker(T ) = {0} y W =
Im(T ). Entonces tenemos lo siguiente:
{T (v1), . . . , T (vn)} genera a W si y solo si {T (v1), . . . , T (vn)} genera a Im(T ) si y solo si para todo v ∈ V
existen constantes α1, . . . , αn tal que T (v) = α1T (v1) + · · ·+αnT (vn) si y solo si para todo v ∈ V existen
constantes α1, . . . , αn tal que T (v) = T (α1v1 + · · ·+αnvn) si y solo si para todo v ∈ V existen constantes
α1, . . . , αn tal que 0 = T (α1v1 + · · · + αnvn) − T (v) = T (α1v1 + · · · + αnvn − v) si y solo si para todo
v ∈ V existen constantes α1, . . . , αn tal que α1v1 + · · ·+ αnvn − v ∈ Ker(T ) = {0} si y solo si para todo
v ∈ V existen constantes α1, . . . , αn tal que α1v1 + · · ·+αnvn− v = 0 si y solo si para todo v ∈ V existen
constantes α1, . . . , αn tal que v = α1v1 + · · ·+ αnvn si y solo si {v1, . . . , vn} genera a V .
3. Es inmediato de 1 y 2.
4. Es inmediato de 3
5. v ∈ 〈v1, . . . , vn〉 si y solo si existen constantes α1, . . . , αn tal que v = α1v1 + · · · + αnvn si y solo si
existen constantes α1, . . . , αn tal que T (v) = T (α1v1 + · · ·+ αnvn) = α1T (v1) + · · ·+ αnT (vn) si y solo si
T (v) ∈ 〈T (v1), . . . , T (vn)〉.
En la proxima seccion explotaremos toda la potencia de los teoremas 3.5 y 3.14, el cual nos permitira estudiar
independencia lineal, conjuntos generadores y bases en espacios vectoriales arbitrarios. Tambien nos ayudara a
estudiar inyectividad, sobreyectividad y biyectividad de transformaciones lineales entre espacios vectoriales
arbitrarios.
3.5. Espacios Vectoriales arbitrarios
En esta seccion veremos como los teoremas 3.5 y 3.14 nos permiten resolver las preguntas sobre independencia
lineal, conjuntos generadores y bases en espacios vectoriales arbitrarios con un procedimiento Gauss-Jordan.
Ejemplo 3.17. Considere los polinomios p1 = 1 − 2t2, p2 = t + t2 − t3 y p3 = t + 3t2P3. Determinar si los
polinomios son linealmente independientes.
Solucion. Por el Teorema 3.5 la funcion T : P3 −→ R4 determinada por T (a0 +a1t+a2t2 +a3t
3) =
a0
a1
a2
a3
es un
isomorfismo. Entonces por el Teorema 3.14 tenemos que el conjunto {p1, p2, p3} es linealmente independiente si
y solo si el conjunto
T (p1) =
1
0
−2
0
, T (p2) =
0
1
1
−1
, T (p3) =
0
1
3
0
es linealmente independiente.
74
Sabemos que este ultimo conjunto es LI si la matriz [T (p1) T (p2) T (p3)] =
1 0 0
0 1 1
−2 1 3
0 −1 0
tiene rango
igual al numero de columnas. Aplicando el procedimiento Gauss-Jordan obtenemos que la forma escalonada
reducida de esta matriz es la matriz
1 0 0
0 1 0
0 0 1
0 0 0
. Luego los vectores {T (p1), T (p2), T (p3)} son LI y por tanto los
polinomios {p1, p2, p3} son LI.
Ejemplo 3.18. (MatLab) Sean m1 =
1 −2
0 0
, m2 =
0 1
1 −1
, m3 =
0 3
1 0
y m4 =
−5 1
−5 3
, determine
si las matrices son LI en M22(R) y si no lo son encontrar una dependencia lineal entre ellos.
Solucion. Por el Teorema 3.5 la funcion T : M22(R) −→ R4 determinada por T
a c
b d
=
a
b
c
d
es un
isomorfismo. Entonces el conjunto {m1,m2,m3,m4} es linealmente independiente si y solo si el conjuntoT (m1) =
1
0
−2
0
, T (m2) =
0
1
1
−1
, T (m3) =
0
1
3
0
, T (m4) =
−5
−5
1
3
es linealmente independiente. Al calcular
la forma escalonada de la matriz
A = [T (m1) T (m2) T (m3) T (m4)] obtenemos A′ =
1 0 0 −5
0 1 0 −3
0 0 1 −2
0 0 0 0
, por tanto los vectores no son LI y
tenemos que T (m4) = −5T (m1) − 3T (m2) − 2T (m1), como T es un isomorfismo tenemos que m4 = −5m1 −
3m2 − 2m3, lo que nos da una dependencia lineal entre las matrices m1, m2, m3 y m4.
Ejemplo 3.19. Sean m1, m2, m3 y m4 las matrices del ejemplo anterior, calcular una base y la dimension de
H = 〈m1,m2,m3,m4〉 y determine si m =
1 1
1 3
∈ H.
Solucion. De acuerdo al ejemplo anterior sabemos que m1, m2 y m3 son LI y que m4 es una combinacion
lineal de estas, por tanto {m1,m2,m3} es una base para H y dim(H) = 3.
Para determinar si m ∈ H, usamos el Teorema 3.14 el cual dice que m ∈ H si y solo si T (m) ∈ T (H) si y
solo si existen constantes α1, α2, α3 tal que
T (m) = α1T (m1) + α2T (m2) + α3T (m3) si y solo si el conjunto
{T (m1), T (m2), T (m3), T (m)} es LD.
Autor: OMAR DARIO SALDARRIAGA 75
Esto lo podemos saber calculando la forma escalonada reducida de la matriz
A = [T (m1) T (m2) T (m3) T (m)] =
1 0 0 1
0 1 1 1
−2 1 3 1
0 −1 0 3
.
Despues de hacer los respectivos calculos podemos notar que A′ = I y por tanto los vectores son LI. Concluimos
que T (m) /∈ T (H), luego m /∈ H.
3.5.1. Transformaciones lineales entre espacios vectoriales arbitrarios.
El Teorema 3.5 tamben nos va ser muy util para calcular el kernel y la imagen de una transformacion lineal
entre espacios vectoriales generales usando reduccion Gauss-Jordan. Lo que nos permite hacer todos los calculos
sobre espacios vectoriales y transformaciones lineales de una manera computacional. Necesitamos el siguiente
teorema.
Teorema 3.15. Sean V y W espacios vectoriales, sea {v1, . . . , vn} una base para V , {w1, . . . , wm} una base
para W y T : V −→ W una transformacion lineal. Por el Teorema 3.12 sabemos que existen isomorfismos
T1 : Rn −→ V y T2 : Rm −→ W. Por tanto tenemos el diagrama
V −→ W
↑ ↑
Rn −→ Rmdonde la transformacion S
esta dada por S = T−12 ◦ T ◦ T1. Entonces tenemos lo siguiente:
1. S es inyectiva si y solo si T es inyectiva.
2. S es sobre si y solo si T es sobre.
3. S es un isomorfismo si y solo si T es un isomorfismo.
Demostracion. Por la definicion de S tenemos que T = T2 ◦S ◦ T−11 , ademas como T1 y T2 son isomorfismos,
son en particular inyectivos y sobreyectivos.
1. “⇒”Si S es inyectiva entonces T = T2 ◦ S ◦ T−11 es una composicion de transformaciones inyectivas y por
tanto es inyectiva.
“⇐”Si T es inyectiva entonces S = T−12 ◦ T ◦ T1 es una composicion de transformaciones inyectivas y por
tanto S es inyectiva.
2. “⇒”Si S es sobreyetiva entonces T = T2 ◦ S ◦ T−11 es una composicion de transformaciones sobreyectivas
y por tanto es sobreyectiva.
“⇐”Si T es sobreyectiva entonces S = T−12 ◦T ◦T1 es una composicion de transformaciones sobreyectivas
y por tanto S es sobreyectiva.
76
3. Se sigue de 1. y 2.
Este teorema nos permite ver cualquier transformacion lineal como una transformacion lineal de Rn en Rm,
pero no nos dice como determinar si la transformacion es inyectiva y/o sobreyectiva, tampoco nos dice como
calcular el kernel y la imagen. Los siguientes corolarios nos daran las respuestas.
Corolario 3.16. Sean V y W espacios vectoriales, sea {v1, . . . , vn} una base para V , {w1, . . . , wm} una base
para W , T : V −→ W una transformacion lineal. T1 : Rn −→ V y T2 : Rm −→ W los isomorfismos canonicos
de V y W , respectivamente, sea S = T−12 ◦ T ◦ T1 : Rn −→ Rm y sea A =ESE la matriz de la transformacion
S. Entonces
1. T es 1-1 si y solo si rango(A) = # de columnas de A.
2. T es sobre si y solo si rango(A) = # de filas de A.
3. es un isomorfismo si y solo si rango(A) = # de filas de A = # de columnas.
Demostracion. Esto es una consecuencia inmediata del teorema anterior y los Teoremas 3.6, 3.8 y 3.9
Corolario 3.17. Sean V y W espacios vectoriales, sea {v1, . . . , vn} una base para V , {w1, . . . , wm} una base
para W , T : V −→ W una transformacion lineal. T1 : Rn −→ V y T2 : Rm −→ W los isomorfismos canonicos
de V y W , respectivamente, sea S = T−12 ◦ T ◦ T1 : Rn −→ Rm y sea A =ESE la matriz de la transformacion
S. Entonces
1. Ker(T ) = T1(Ker(S)) = T1(Nul(A)).
2. Im(T ) = T2(Im(S)) = T2(Col(A)).
En otras palabras
{x1, . . . , xr} es una base de Nul(A) si y solo si {T1(x1), . . . , T1(xr)} es una base de Ker(T ) y
{y1, . . . , ys} es una base de Col(A) si y solo si {T2(y1), . . . , T2(ys)} es una base de Im(T ).
Demostracion. 1.
v ∈ Ker(T ) si y solo si 0 = T (v) = T2 ◦ S ◦ T−11 (v)
si y solo si T2(S ◦ T−11 (v)) = 0
si y solo si S ◦ T−11 (v) = 0
si y solo si T−11 (v) ∈ Ker(S) = Nul(A)
si y solo si v ∈ T1(Nul(A)).
Autor: OMAR DARIO SALDARRIAGA 77
2.
w ∈ Im(T ) si y solo si existe v ∈ V tal que w = T (v) = T2 ◦ S ◦ T−11 (v)
si y solo si existe v ∈ V tal que T−12 (w) = S(T−1
1 (v))
si y solo si T−12 (w) ∈ Im(S) = Col(A)
si y solo si y ∈ T2(Col(A)).
A continuacion daremos ejemplos de como usar estos corolarios para calcular la imagen y el kernel de
transformaciones lineales.
Ejemplo 3.20. Considere la funcion derivacion D : P3 −→ P2 definida por D(a+bt+ct2 +dt3) = b+2ct+3dt2.
Determinar si es 1-1 y/o sobre, si es un isomorfismo, calcular el kernel y la imagen de D.
Solucion. El conjunto {1, t, t2} es una base de P2 y {1, t, t2, t3} es una base de P3. Considere los isomorfismos
T1 : R4 −→ P3 y T2 : R3 −→ P2 definidos por T1
a
b
c
d
= a+ bt+ ct2 + dt3 y T2
a
b
c
= a+ bt+ ct2 (Los
isomorfismos canonicos de P3 y P2, respectivamente.)
La transformacion S = T−12 ◦D ◦ T1 : R4 −→ R3 esta dada por
S
a
b
c
d
= T−12 ◦D ◦ T1
a
b
c
d
= T−12 ◦D(a+ bt+ ct2 + dt3)
= T−12 (b+ 2ct+ 3dt2) =
b
2c
3d
.La matriz de esta transformacion es
A =E SE = [S(e1) S(e2) S(e3) S(e4)] =
0 1 0 0
0 0 2 0
0 0 0 3
y su forma escalonada esta dada por A′ =
0 1 0 0
0 0 1 0
0 0 0 1
. Por tanto la transformacion S es sobre pero no
inyectiva, luego por el Teorema 3.15 tenemos que D es sobreyectiva pero no inyectiva, por tanto no es un
isomorfismo.
78
Ahora pasamos a calcular el kernel y la imagen. Como D es sobre entonces Im(D) = P2. Para el kernel,
usamos el Corolario 3.17, el cual no dice que si calculamos una base de Nul(A) y aplicamos T1 obtenemos una
base de Ker(D).
Notese que
α1
α2
α3
α4
∈ Nul(A′) = Nul(A) si y solo si α2 = α3 = α4 = 0
si y solo si
α1
α2
α3
α4
=
α1
0
0
0
= α1
1
0
0
0
Luego x1 =
1
0
0
0
es una base de Nul(A) = Ker(S). Por tanto {T1(x1) = 1} una base para Ker(D). Es
decir Ker(D) = 〈1〉 = { polinomios constantes }.
Ejemplo 3.21. Considere la funcion integracion D : P2 −→ P3 definida por I(a+ bt+ ct2) = at+ 12bt
2 + 13ct
3.
Determinar si I es 1-1 y/o sobre, si es un isomorfismo, calcular el kernel y la imagen de I.
Solucion. Nuevamente consideramos las bases {1, t, t2} de P2 y {1, t, t2, t3} de P3 y los isomorfismos T1 :
R3 −→ P2 definido por T1
a
b
c
= a+ bt+ ct2 y T2 : R4 −→ P3 definido por T2
a
b
c
d
= a+ bt+ ct2 + dt3.
En este caso la transformacion S = T−12 ◦ I ◦ T1 : R3 −→ R4 esta dada por
S
a
b
c
= T−1
2 ◦ I ◦ T1
a
b
c
= T−1
2 ◦ I(a+ bt+ ct2)
= T−12 (at+
12bt2 +
13ct3) =
0
a
1/2b
1/3c
.
Autor: OMAR DARIO SALDARRIAGA 79
La matriz de esta transformacion es
A =E SE = [S(e1) S(e2) S(e3)] =
0 0 0
1 0 0
0 1/2 0
0 0 1/3
y su forma escalonada reducida esta dada por A′ =
1 0 0
0 1 0
0 0 1
0 0 0
. Por tanto la transformacion S es inyectiva pero
no sobreyectiva, luego por el Teorema 3.15 tenemos que I es inyectiva pero no sobreyectiva, por tanto no es un
isomorfismo.
Ahora pasamos a calcular el kernel y la imagen. Como I es inyectiva entonces Ker(I) = {0}. Para calcular
la imagen, usamos el Corolario 3.17, el cual no dice que si calculamos una base de Col(A) y aplicamos T2
obtenemos una base de Im(I).
De la matriz A′ obtenemos que una base para Col(A) = Im(S) esta dada por el conjunto
y1 =
0
1
0
0
, y2 =
0
0
1/2
0
, y3 =
0
0
0
1/3
,
ya que A′ tiene pivotes en las tres columnas. Por tanto el conjunto {T2(y1), T2(y2), T2(y3)} ={t, 1
2 t2, 1
3 t3}
es
una base para Im(I). Es decir
Im(I) =⟨t,
12t2,
13t3⟩
= 〈t, t2, t3〉.
Ejemplo 3.22. Sea X =
1 −1
−1 1
y sea T : M22 −→ M22 la funcion definida por T (B) = BX. Demuestre
que T es una transformacion lineal, determine si T es inyectiva y/o sobre, si es un isomorfismo y calcular el
kernel y la imagen de T .
Solucion. Primero veamos que T es una transformacion lineal. Sean B1, B2 ∈M22 y α ∈ R,
T (B1 +B2) = (B1 +B2)X = B1X +B2X = T (B1) + T (B2) y
T (αB1) = (αB1)X = α(B1X) = αT (B1).
Fijemos la base E11 =
1 0
0 0
, E21 =
0 0
1 0
, E12 =
0 1
0 0
, E22 =
0 0
0 2
80
y consideremos el isomorfismo H : R4 −→M22 definido por
H
a
b
c
d
= aE11 + bE21 + cE12 + dE22 =
a c
b d
.
La transformacion S = H−1 ◦ T ◦H : R4 −→ R4 esta dada por
S
a
b
c
d
= H−1 ◦ T ◦H
a
b
c
d
= H−1 ◦ T
a c
b d
= H−1
a c
b d
X = H−1
a− c −a+ c
b− d −b+ d
=
a− c
b− d
−a+ c
−b+ d
.
La matriz de esta transformacion es
A = ESE = [S(e1) S(e2) S(e3) S(e4)] =
1 0 −1 0
0 1 0 −1
−1 0 1 0
0 −1 0 1
y su forma escalonada reducida es la matriz A′ =
1 0 −1 0
0 1 0 −1
0 0 0 0
0 0 0 0
. Luego S no es inyectiva ni sobreyectiva y
tampoco un isomorfismo.
De la matriz A′ tenemos que una base para Col(A) esta dada por las dos primeras columnas de A, es decir,m1 =
1
0
−1
0
,m2 =
0
1
0
−1
es una base para Col(A) = Im(S). Por tanto {H(m1), H(m2)} =
1 −1
0 0
, 0 0
1 −1
es una base de Im(T ).
Autor: OMAR DARIO SALDARRIAGA 81
Ahora para calcular Ker(T ) necesitamos una base para Nul(A). Notese que
α1
α2
α3
α4
∈ Nul(A) = Nul(A′) si y solo siα1 = α3
α2 = α3
si y solo si
α1
α2
α3
α4
=
α3
α4
α3
α4
= α3
1
0
1
0
+ α4
0
1
0
1
Luego el conjunto
x1 =
1
0
1
0
, x2 =
0
1
0
1
es una base para Nul(A) = Ker(S). Por tanto el conjunto {H(x1), H(x2)} =
1 1
0 0
,0 0
1 1
es una base para Ker(T ).
Ejemplo 3.23. Sea X =
2 1
1 1
y sea T : M22 −→ M22 la funcion definida por T (B) = XB. Demuestre que
T es una transformacion lineal, determine si T es inyectiva y/o sobre, si es un isomorfismo y calcular el kernel
y la imagen de T .
Solucion. Con un argumento similar al del ejemplo anterior se demuestra que T es una transformacion lineal.
Para los demas calcilos fijemos la base
E11 =
1 0
0 0
, E21 =
0 0
1 0
, E12 =
0 1
0 0
, E22 =
0 0
0 2
y tomemos el isomorfismo H : R4 −→M22 definido por
H
a
b
c
d
= aE11 + bE21 + cE12 + dE22 =
a c
b d
.
82
En este caso la transformacion S = H−1 ◦ T ◦H : R4 −→ R4 esta dada por
S
a
b
c
d
= H−1 ◦ T ◦H
a
b
c
d
= H−1 ◦ T
a c
b d
= H−1
Xa c
b d
= H−1
2a+ b 2c+ d
a+ b b+ d
=
2a+ b
a+ b
2c+ d
b+ d
.
La matriz de esta transformacion es
A = ESE = [S(e1) S(e2) S(e3) S(e4)] =
2 1 0 0
1 1 0 0
0 0 2 1
0 0 1 1
y su forma escalonada reducida es la matriz A′ =
1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1
= I. De esto concluimos que S es inyectiva y
sobreyectiva y por tanto es un isomorfismo.
Como T es un isomorfismo tenemos que Ker(T ) = {0} y Im(T ) = M22.
3.6. Propiedades de los Espacios Vectoriales
En esta seccion estudiaremos resultados clasicos de espacios vectoriales, como el Teorema de la base incom-
pleta y el Teorema de la dimension, entre otros. Comenzamos con el siguiente resultado que garantiza que la
representacion de un vector en terminos de una base es unica.
Teorema 3.18. Sea V un espacio vectorial, {v1, . . . , vn} una base de V y v ∈ V , entonces existen constantes
unicas α1, . . . , αn talque v = α1v1 + · · ·+ αnvn.
Demostracion. Supongamos que existen constantes α1, . . . , αn talque v = α1v1 + · · · + αnvn y supongamos
que existen otras constantes β1, . . . , βn tal que v = β1v1 + · · · + βnvn. Entonces restando estas dos ecuaciones
obtenemos:
0 = v − v = α1v1 + · · ·+ αnvn − (β1v1 + · · ·+ βnvn) = (α1 − β1)v1 + · · ·+ (α1 − βn)vn
luego, como los vectores v1, . . . , vn son LI, entonces 0 = α1−β1 = · · · = αn−βn, por tanto α1 = β1, . . . , αn−βny las constantes son unicas.
Autor: OMAR DARIO SALDARRIAGA 83
Los siguientes dos teoremas generalizaciones de teoremas que vimos en el Capıtulo 2 para Rn.
Teorema 3.19. Sea V un espacio vectorial y sea {v1, . . . , vn} un conjunto linealmente independiente. Si
dim(V ) = n entonces {v1, . . . , vn} es una base para V.
Demostracion. Como dim(V ) = n, aplicando el Teorema 3.12 existe un isomorfismo T : V −→ Rn y por el
Teorema 3.13 el conjunto {T (v1), . . . , T (vn)} es linealmente independiente en Rn, luego por el Teorema 2.11
parte 2. Este conjunto forma una base para Rn. Aplicando nuevamente el Teorema 3.12 tenemos que {v1, . . . , vn}
es una base de V .
Teorema 3.20. Sean V y W espacios vectoriales con dim(V ) = n y sea T : V −→W una transformacin lineal.
Entonces dim(Ker(T )) + dim(ImT ) = n.
Demostracion. Sea m = dim(W ) y sean T1 : Rn −→ V y T2 : Rm −→ W los isomorfismos canonicas de V y
W , respectivamente. Definamos S = T−12 ◦T ◦T1 y sea A la matriz de S, entonces por el Corolario 2.17 tenemos
que
dim(NulA) + dim(ColA) = n.
Ahora, como dim(ImT ) = dim(ImS) = dim(ColA) y
dim(KerT ) = dim(KerS) = dim(NulA) entonces tenemos
dim(ImT ) + dim(KerT ) = dim(ImS) + dim(NulS)
= dim(ColA) + dim(NulA) = n.
Ahora vamos a demostrar el teorema de la base incompleta, para facilitar su demostracion veamos el siguiente
Lema.
Lema 3.21. Sea V un EV, {v1, . . . , vk} ⊆ V un conjunto de vectores linealmente independientes y w ∈ V . Si
w /∈ 〈v1, . . . , vk〉 entonces el conjunto {v1, . . . , vk, w} es linealmente independiente.
Demostracion. Supongamos que w /∈ 〈v1, . . . , vk〉. Para demostrar que
{v1, . . . , vk, w} es linealmente independiente, supongamos que
α1v1 + · · ·+ αkvk + βw = 0 (3.1)
y veamos que las constantes son todas cero.
Primero notese que β = 0, ya que si β 6= 0, entonces de 3.1 tenemos que w = −α1β v1−· · ·−
αk
β vk y por tanto
w ∈ 〈v1, . . . , vk〉 lo que contradice la hipotesis, por tanto β = 0. Entonces la Ecuacion 3.1 se reduce a
α1v1 + · · ·+ αkvk = 0,
pero como {v1, . . . , vk} es un conjunto linealmente indpendiente tenemos que 0 = α1 = · · · = αk. Concluimos
que {v1, . . . , vk, w} es linealmente independiente.
84
Teorema 3.22. (Teorema de la base incompleta) Sea V un espacio vectorial con dim(V ) = n, sea
{v1, . . . , vk} un conjunto de vectores linealmente independientes con k < n. Entonces existen vectores vk+1, . . . , vn
tal que
{v1, . . . , vk, vk+1, . . . , vn} es una base para V .
Demostracion. Como {v1, . . . , vk} es linealmente independiente, entonces
dim〈v1, . . . , vk〉 = k y como k < n entonces 〈v1, . . . , vk〉 6= V , por tanto existe v ∈ V tal que v /∈ 〈v1, . . . , vk〉,
entonces aplicando el lema anterior tenemos que {v1, . . . , vk, v} es linealmente independiente.
Tomemos vk+1 = v y ası tenemos que {v1, . . . , vk, vk+1} es linealmente independiente. Si n = k+ 1 entonces
V = 〈v1, . . . , vk, vk+1〉 y por tanto {v1, . . . , vk, vk+1} es una base de V . En el caso k + 1 < n tenemos que
〈v1, . . . , vk, vk+1〉 6= V y existe w ∈ V tal que w /∈ 〈v1, . . . , vk, vk+1〉, entonces aplicando el lema anterior
tenemos que {v1, . . . , vk, vk+1, w} es linealmente independiente.
Hacemos vk+2 = w y tenemos que {v1, . . . , vk, vk+1, vk+2} es linealmente independiente.
Continuando de manera inductiva conseguimos vectores vk+1, . . . , vn tal que {v1, . . . , vk, vk+1, . . . , vn} es
linealmente independiente, entonces como dim(V ) = n, por el Teorema 3.19 tenemos que
{v1, . . . , vk, vk+1, . . . , vn} es una base para V .
Teorema 3.23. Sea V un espacio vectorial y sean W1 y W2 subespacios de V . Entonces
dim(W1 +W2) = dim(W1) + dim(W2)− dim(W1 ∩W2).
Demostracion. Sea n = dim(V ), r = dim(W1), s = dim(W2) y t = dim(W1 ∩W2). Sea {w1, . . . , wt} una base
paraW1∩W2, por el Teorema de la base incompleta, existen vectores xt+1, . . . , xr tal que {w1, . . . , wt, xt+1, . . . , xr}
es una base para W1 y existen vectores yt+1, . . . , ys tal que {w1, . . . , wt, yt+1, . . . , ys} es una base para W2.
Afirmacion 1: El conjunto {w1, . . . , wt, xt+1, . . . , xr, yt+1, . . . , ys} es linealmente independiente.
Demostracion: supongamos que
α1w1 + · · ·+ αtwt + βt+1xt+1 + · · ·+ βrxr + λt+1yt+1 + · · ·+ λsys = 0. (3.2)
Sea v = λt+1yt+1 + · · ·+ λsys ∈W2, entonces por 3.2 tenemos que
v = λt+1yt+1 + · · ·+ λsys = −α1w1 − · · · − αtwt − βt+1xt+1 − · · ·+ βrxr ∈W1
por tanto v ∈W1 ∩W2, entonces existen constantes σ1, . . . , σt tal que v = σ1w1 + · · ·+σtwt. Luego 0 = v− v =
σ1w1 + · · · + σtwt − λt+1yt+1 − · · · − λsys y como {w1, . . . , wt, yt+1, . . . , ys} es linealmente independiente, por
ser base de W2, entonces
0 = σ1 = · · · = σt = λ1 = · · · = λs.
Entonces 3.2 se reduce a α1w1 + · · · + αtwt + βt+1xt+1 + · · · + βrxr = 0, pero como {w1, . . . , wt, xt+1, . . . , xr}
es linealmente independiente, por ser base de W1, tenemos que
0 = α1 = · · · = αt = β1 = · · · = βs.
Autor: OMAR DARIO SALDARRIAGA 85
Concluimos que {w1, . . . , wt, xt+1, . . . , xr, yt+1, . . . , ys} es linealmente independiente, lo que demuestra la Afir-
macion 1.
Afirmacion 2: El conjunto {w1, . . . , wt, xt+1, . . . , xr, yt+1, . . . , ys} genera a W1 +W2.
Demostracion: Sea w ∈W1 +W2, entonces existen x ∈W1 y y ∈W2 tal que w = x+ y.
Como {w1, . . . , wt, xt+1, . . . , xr} es una base para W1, existen constantes α1, . . . , αr tal que
x = α1w1 + · · ·+ αtwt + αt+1xt+1 + · · ·+ αrxr. (3.3)
Similarmente existen constantes β1, . . . , βs tal que
y = β1w1 + · · ·+ βtwt + βt+1yt+1 + · · ·+ βsys. (3.4)
De las Ecuaciones 3.3 y 3.4 tenemos que
w =x+ y
=α1w1 + · · ·+ αtwt + αt+1xt+1 + · · ·+ αrxr
+ β1w1 + · · ·+ βtwt + βt+1yt+1 + · · ·+ βsys
=(α1 + β1)w1 + · · ·+ (αt + βt)wt
+ αt+1xt+1 + · · ·+ αrxr + βt+1yt+1 + · · ·+ βsys.
Lo que demuestra la Afirmacion 2.
De las afirmaciones 1. y 2. tenemos que el conjunto
{w1, . . . , wt, xt+1, . . . , xr, yt+1, . . . , ys} es una base para W1 +W2. Por tanto
dim(W1 +W2) = t+ r − t+ s− t = r + s− t = dim(W1) + dim(W2)− dim(W1 ∩W2).
Observacion 3.3. Notese que en el caso particular en el que W1 ∩W2 = {0} tenemos que
dim(W1 +W2) = dim(W1) + dim(W2).
En este caso decimos que W1 +W2 es la suma directa de W1 y W2.
Para mayor claridad definimos suma directa a continuacion.
Definicion 3.6. (Suma Directa) Sea V un espacio vectorial y sean W1 y W2 subespacios de V , decimos que
V es la suma directa de W1 y W2, lo cual denotamos por V = W1 ⊕W2 si V = W1 +W2 y W1 ∩W2 = {0}.
El siguiente teorema caracteriza la suma directa de espacios, en general se dice que V es suma directa de
subespacios si al unir bases de estos se forma una base de V , esto lo enunciamos a continuacion.
Teorema 3.24. Sea V un espacio vectorial, sean W1 y W2 subespacios de V y sean {v1, . . . , vr} y {w1, . . . , ws}
bases para W1 y W2, respectivamente. Entonces V = W1 ⊕W2 si y solo si
{v1, . . . , vr, w1, . . . , ws} es una base para V .
86
Demostracion. “⇒”Supongamos que V = W1 ⊕W2, entonces V = W1 +W2 y W1 ∩W2 = {0}, entonces por
la Afirmacion 1. del teorema anterior tenemos que {v1, . . . , vr, w1, . . . , ws} es una base para W1 +W2 = V.
“⇐”Supongamos que {v1, . . . , vr, w1, . . . , ws} es una base para V .
Afirmacion 1. V = W1 +W2
Demostracion. Sea v ∈ V , como {v1, . . . , vr, w1, . . . , ws} es una base para V , existen constantes α1, . . . , αr, β1, . . . , βs
tal que
v = α1v1 + · · ·+ αrvr︸ ︷︷ ︸∈W1
+β1w1 + · · ·+ βsws︸ ︷︷ ︸∈W2
∈W1 +W2.
La otra inclusion es clara ya que como W1 y W2 son subespacios entonces W1 + W2 es un subespacio, en
particular es un subconjunto. Esto demuestra la afirmacion.
Afirmacion 2. W1 ∩W2 = {0}.
Demostracion. Sea v ∈ W1 ∩W2, entonces v ∈ W1 y v ∈ W2. Como {v1, . . . , vr} es una base de W1, existen
constantes α1, . . . , αr tal que
v = α1v1 + · · ·+ αrvr. (3.5)
Un argumento similar garantiza la existencia de constantes β1, . . . , βs tal que
v = β1v1 + · · ·+ βrvr. (3.6)
De las ecuaciones 3.5 y 3.6 tenemos que
0 = v − v = α1v1 + · · ·+ αrvr − β1w1 + · · ·+ βsws.
Ahora, como {v1, . . . , vr, w1, . . . , ws} es linealmente independiente, por ser base para V , tenemos que 0 = α1 =
· · · = αr = β1 = · · · = βs. Por tanto v = α1v1 + · · ·+ αrvr = 0 y W1 ∩W2 ⊆ {0}. La otra inclusion es trivial ya
que 0 ∈W1 +W2 luego {0} ⊆W1 ∩W2. Lo que prueba la afirmacion.
De las afirmaciones 1. 2. tenemos que V = W1 ⊕W2.
Capıtulo 4
Ortogonalidad en Rn
4.1. Definiciones Basicas
Comenzamos el capıtulo con la definicion de producto escalar de vectores en Rn.
Definicion 4.1. Sean x =
x1
...
xn
y y =
y1...
yn
vectores en Rn, definimos el producto por escalar de x y y,
denotado por x · y, por la formula
x · y = x1y1 + · · ·+ xnyn =n∑i=1
xiyi.
Ejemplo 4.1. Sean x =
1
2
3
y y =
−1
−1
2
, entonces x · y = 1 · (−1) + 2 · (−1) + 3 · 2 = −1− 2 + 6 = 3.
Ejemplo 4.2. (MatLab) Sean x =
1
1
1
y y =
−1
−1
0
. El producto escalar x · y se calcula en MatLab como se
muestra continuacion
>> x = [1; 1; ; 1], y = [−1;−1; 0], x′ ∗ y
ans = -2.
De donde se tiene que x · y = −2.
Observacion 4.1. (Propiedades del producto escalar) Sean x, y, z ∈ Rn
1. (x+ y) · z = x · x+ y · z
2. x · (y + z) = x · y + x · z
87
88
3. (αx) · y = x · (αy) = αx · y
4. x · x ≥ 0 y x · x = 0 si y solo si x = 0.
5. x · y = y · x.
El producto por escalar induce una geometrıa en Rn, ya que a partir de este, podemos definir la longitud (o
norma) de un vector y la distancia entre vectores.
Definicion 4.2. (Norma de un vector) Sea x =
x1
...
xn
un vector en Rn, definimos la norma de x, denotada
por ||x||, por la formula
||x|| =√x · x =
√x2
1 + · · ·+ x2n.
Ejemplo 4.3. De acuerdo a esta formula, la norma del vector v =
−1
−1
2
esta dada por
||v|| =√
(−1)2 + (−1)2 + 22 =√
6.
Definicion 4.3. (Distancia entre vectores) Sean x y y vectores en Rn, la distancia entre x y y esta dada
por la formula ||y − x||.
Ejemplo 4.4. Sean x =
1
2
3
y y =
−1
−1
2
, entonces la distancia entre x y y esta dada por
||y − x|| =√
(−1− 1)2 + (−1− 2)2 + (2− 3)2 =√
14.
Observacion 4.2. Notese que si x y y son vectores en R2 o en R3, entonces se cumple que
x · y = ||x|| ||y||cosθ, (4.1)
donde θ es el angulo formado por x y y
Aplicando la ley de cosenos obtenemos
||x− y||2 = ||x||2 + ||y||2 − 2||x||||y|| cos θ, (4.2)
pero, por la definicion de norma y las propiedades del producto escalar tenemos
||x− y||2 = (x− y) · (x− y) = x · x− x · y − y · x+ y · y = ||x||2 − 2x · y + ||y||2. (4.3)
De las ecuaciones (4.2) y (4.3) tenemos
x · y = ||x|| ||y||cosθ.
Autor: OMAR DARIO SALDARRIAGA 89
Definicion 4.4. (Vectores ortogonales) Sean x, y ∈ Rn, decimos que x y y son ortogonales si x · y = 0.
Ejemplo 4.5. Sean x =
1
−1
2
y y =
1
1
1
, determinar si x y y son ortogonales y encontrar al angulo que
forman.
Solucion: El producto escalar x · y = 1 − 1 + 2 = 2, entonces los vectores no son ortogonales. Ahora, de la
ecuacion (4.1) tenemos que el angulo θ formado por x y y esta dado por
θ = cos−1
(x · y||x||||y||
)= cos−1
(2√6√
3
)= cos−1
(√2
3
).
La formula (4.1) se usa para definir el angulo formado por dos vectores x y y en Rn, la cual es como sigue.
Definicion 4.5. Sean x, y ∈ Rn, definimos el angulo formado por x y por
angulo entre x y y = cos−1
(x · y||x|| ||y||
). (4.4)
Ejemplo 4.6. Calcular el angulo formado por los vectores x =
1
0
1
0
y y =
1
0
0
1
.
Solucion Notese que x · y = 1 + 0 + 0 + 0 = 1, ||x|| =√
2 y ||y|| =√
2. Entonces de acuerdo a la Ecuacion (4.4)
tenemos que
angulo entre x y y = cos−1
(x · y||x|| ||y||
)= cos−1
(1√2√
2
)= cos−1
(12
)= 60◦.
Definicion 4.6. (Espacios ortogonales) Sean V y W subespacios de Rn , decimos que V y W son ortogonales
si v · w = 0 para todo v ∈ V y w ∈W .
Ejemplo 4.7. Sean V =
⟨
1
−1
−2
0
,
0
1
1
1
⟩
y W =
⟨−1
−1
0
1
⟩
subespacios de R4, entonces V y W son ortogonales
ya que todo elemento en v ∈ V tiene la forma v = a
1
−1
−2
0
+ b
0
1
1
1
=
a
−a+ b
−2a+ b
b
y todo elemento w ∈W tiene
la forma w = c
−1
−1
0
1
=
−c
−c
0
c
, donde a, b y c son numeros reales, por tanto
v · w = −ac+ (−a+ b)(−c) + (−2a+ b)0 + bc = −ac+ ac− bc+ bc = 0.
90
Los subespacios ortogonales satisfacen lo siguiente.
Lema 4.1. Sean V y W subespacios ortogonales de Rn, entonces
1. V ∩W = {0},
2. Si {v1, . . . , vr} y {w1, . . . , ws} son bases para V y W , respectivamente, entonces el conjunto {v1, . . . , vr, w1, . . . , ws}
es linealmente independiente.
Demostracion. 1. Sea v ∈ V ∩W , entonces como V y W son ortogonales se tiene que v · v = 0 y por tanto
v = 0.
2. Supongamos que a1v1 + · · ·+ arvr + c1w1 + · · ·+ csws = 0, entonces
a1v1 + · · ·+ arvr = −c1w1 − · · · − csws ∈ V ∩W.
Por la parte 1. tenemos que a1v1 + · · · + arvr = 0, de donde a1 = · · · = ar = 0 y de aquı se sigue que
−c1w1 − · · · − csws = 0 y como {w1, . . . , ws} es una base entonces c1 = · · · = cr = 0.
El caso que estudiaremos a fondo en este capıtulo es cuando los dos subespacios ortogonales son complemen-
tarios, esto lo definimos a continuacion.
Definicion 4.7. (Complemento ortogonal) Sea V un subespacio de Rn, definimos el complemento ortogonal
de V , al cual denotaremos por V ⊥, como el conjunto
V ⊥ = {w ∈ Rn | v · w = 0, para todo v ∈ V }.
El siguiente teorema nos da un algoritmo para calcular la base para el complemento ortogonal de un sube-
spacio V de Rn.
Teorema 4.2. Sea A una matriz de tamano m× n, entonces tenemos que:
1. Fil(A)⊥ = Nul(A),
2. Col(A)⊥ = Nuliz(A).
Demostracion. Sean F1, . . . , Fm las filas y C1, . . . , Cn las columnas de A.
1. “⊆”Sea x ∈ Fil(A)⊥, entonces v · x = 0 para todo v ∈ Fil(A), en particular, 0 = F ti · x = Fix, para
i = 1, . . . ,m. De donde
Ax =
F1
...
Fm
x =
F1x
...
Fmx
=
0...
0
,es decir x ∈ Nul(A).
Autor: OMAR DARIO SALDARRIAGA 91
“⊇”Sea x ∈ Nul(A), entonces 0 = Ax =
F1x
...
Fmx
, por tanto para i = 1, . . . ,m tenemos que 0 = Fix = F ti ·x.
Ahora si v ∈ Fil(A), entonces v = a1F1 + · · ·+ amFm y por tanto v · x = a1 F1 · x︸ ︷︷ ︸=0
+ · · ·+ am Fm · x︸ ︷︷ ︸=0
= 0,
de donde x ∈ Fil(A)⊥.
2. Col(A) = Fil(At), entonces Col(A)⊥ = Fil(At)⊥ = Nul(At) = Nuliz(A).
A continuacion describimos el procedimiento para calcular el complemento ortogonal, el cual se deduce del
teorema anterior.
Procedimiento para calcular el complemento ortogonal. Sea {v1, . . . , vk} una base para V , para calcular
una base para V ⊥ hacemos lo siguiente:
1. Sea A =
vt1...
vtk
. Por tanto V = Fil(A).
2. Sea W = Nul(A) entonces W = V ⊥, esto ya que V ⊥ = Fil(A)⊥ = Nul(A) = W .
Ejemplo 4.8. Calcular V ⊥ si V =
⟨
1
0
0
1
,
0
0
1
1
⟩
.
Solucion: Sea v1 =
1
0
0
1
y v2 =
0
0
1
1
, debemos calcular Nul(A) donde A =
vt1vt2
=
1 0 0 1
0 0 1 1
, como A
esta en forma escalonada reducida entonces tenemos quex1
x2
x3
x4
∈ Nul(A) si y solo six1 = −x4
x3 = −x4
si y solo si
x1
x2
x3
x4
=
−x4
x2
−x4
x4
= x2
0
1
0
0
+ x4
−1
0
−1
1
.
92
El procedimiento indicado arriba nos dice que
0
1
0
0
,−1
0
−1
1
es una base para V ⊥.
Ejemplo 4.9. (MatLab) Calcular el complemento ortogonal V ⊥ del subespacio V de R5 generado por los
vectores v1 =
2
−1
1
0
1
y v2 =
1
3
2
2
1
.
Solucion. Sea A =
vt1vt2
, necesitamos calcular Nul(A), lo cual hacemos en MatLab como sigue
>> format rat, A = [2 − 1 1 0 1; 1 3 2 2 1]; null(A)
ans=−5/7 −2/7 −4/7
−3/7 −4/7 −1/7
1 0 0
0 1 0
0 0 1
De aqui se sigue que V ⊥ =
⟨
−5/7
−3/7
1
0
0
,
−2/7
−4/7
0
1
0
,
−4/7
−1/7
0
0
1
⟩
.
4.2. Proyeccion ortogonal sobre un vector
Definicion 4.8. Sean a y b vectores en Rn, definimos la proyeccion ortogonal del vector a sobre el vector b, el
cual sera denotado por proyba, como el vector dado por
proyba =b · ab · b
b.
La matriz proyeccion: Esta formula la podemos expresar matricialmente de la siguiente forma:b · ab · b
b =
bta
btbb =
1btb
bbta. Notese que bbt es una matriz y a la matriz
P =1btb
bbt (4.5)
se le llama la matriz de la proyeccion y tiene la propiedad que para todo a ∈ Rn, Pa = proyba.
Autor: OMAR DARIO SALDARRIAGA 93
Ejemplo 4.10. Sea b =
1
0
2
, calcular la matriz que proyecta sobre b y usarla para calcular proyba donde
a =
1
1
1
Solucion Notese que btb = b · b = 1 + 0 + 4 = 5 y bbt =
1 0 2
0 0 0
2 0 4
por tanto la matriz de la proyeccion sobre b
es la matriz
P =15
1 0 2
0 0 0
2 0 4
.
Ahora, proyba = Pa = 15
1 0 2
0 0 0
2 0 4
1
1
1
= 15
3
0
6
Ejemplo 4.11. (MatLab) Calcular la matriz que proyecta sobre el vector b =
−2
−1
1
0
1
y la proyeccion del vector
a =
7
7
7
7
7
sobre b.
Solucion. La matriz de que proyecta sobre b esta dada por P =1btb
bbt. Esto lo podemos calcular con MatLab
como sigue
>> b = [−2;−1; 1; 0; 1]; P = inv(b′ ∗ b) ∗ (b ∗ b′)
P =4/7 2/7 −2/7 0 −2/7
2/7 1/7 −1/7 0 −1/7
−2/7 −1/7 1/7 0 1/7
0 0 0 0 0
−2/7 −1/7 1/7 0 1/7
94
Luego, la matriz de la proyeccion esta dada por
P =
4/7 2/7 −2/7 0 −2/7
2/7 1/7 −1/7 0 −1/7
−2/7 −1/7 1/7 0 1/7
0 0 0 0 0
−2/7 −1/7 1/7 0 1/7
Para calcular la proyeccion del vector a sobre b, proyba, seguimos los comandos en MatLab
>> a = [7; 7; 7; 7; 7]; proy = P ∗ a
proy =
2
1
−1
0
−1Por tanto proyba = −b.
La proyeccion de a sobre b satisface las siguientes condiciones.
Teorema 4.3. Sea b ∈ Rn y P =1btb
bbt la matriz proyeccion, entonces para todo a ∈ Rn tenemos lo siguiente
1. Pa = proyba ∈ 〈b〉,
2. a− Pa ⊥ b,
3. PPa = Pa, es decir, P 2 = P ,
4. si a ∈ 〈b〉 entonces Pa = a,
5. Si a ⊥ b entonces Pa = 0.
4.3. Proyeccion ortogonal sobre un subespacio
El principal objetivo de la seccion es extender el concepto de proyeccion sobre un vector a proyeccion sobre
un subespacio y construir una matriz P que al multiplicarla por un vector x, el resultado Px es el vector
proyeccion. De hecho, esta matriz sera obtenida generalizando de la matriz (4.5) y la definiremos como sigue.
Sea {v1, . . . , vk} una base para un subespacio H de Rn y sea A =[v1 · · · vk
], vamos a demostrar que la
matriz
P = A(AtA)−1At (4.6)
satisface las condiciones de la matriz proyeccion enunciadas en el Teorema 4.3.
Autor: OMAR DARIO SALDARRIAGA 95
Notese que la formula (4.5) la podemos escribir en la forma:
P =1btb
bbt = b(btb)−1bt
de esta manera se ve que en realidad que (4.6) es simplemente una generalizacion de (4.5).
Para poder demostrar esto, necesitamos unos lemas preliminares.
Lema 4.4. Sea A una matriz, entonces Nul(A) = Nul(AtA).
Demostracion: “⊆”Sea x ∈ Nul(A), entonces Ax = 0 y por tanto AtAx = At0 = 0. Concluimos que
x ∈ Nul(AtA).
“⊇”Sea x ∈ Nul(AtA), entonces AtAx = 0, y multiplicando a la izquierda por xt tenemos que xtAtAx = xt0 = 0,
por tanto
0 = xt0 = xtAtAx = (Ax)tAx = Ax ·Ax = ||Ax||2
de donde ||Ax|| = 0, pero esto implica que Ax = o y x ∈ Nul(A).
Lema 4.5. Sea A =[v1 · · · vk
]una matriz donde {v1, . . . , vk} son las columnas y son LI entonces
1. AtA es invertible,
2. la matriz (AtA)−1At es una inversa a la izquierda de A.
Demostracion. 1. Como las columnas de A son linealmente independientes entonces
rango(A) = k yNul(A) = {0}, entonces por el lema anteriorNul(AtA) = Nul(A) = {0} de donde rango(AtA) =
# de columnas de (AtA), pero (AtA) es una matriz cuadrada, entonces
rango(AtA) = # de columnas de (AtA) = # de filas de (AtA)
y por tanto AtA es invertible.
2. Como (AtA)−1AtA = I entonces (AtA)−1At es una inversa a la izquierda de A.
Ejemplo 4.12. Calcular una inversa a la izquierda de la matriz A =
1 0
1 1
1 2
.
Solucion Debemos calcular AtA y su inversa.
AtA =
1 1 1
0 1 2
1 0
1 1
1 2
=
3 3
3 5
y por tanto (AtA)−1 =16
5 −3
−3 3
.Ahora calculamos la inversa a la izquierda (AtA)−1At de la matriz A
(AtA)−1At =16
5 −3
−3 3
1 1 1
0 1 2
=16
5 2 −1
−3 0 3
96
Ejemplo 4.13. (MatLab) Usar MatLab para calcular la inversa a la izquierda de la matriz A =
1 2 1 2
1 −1 2 1
1 3 2 2
1 2 2 1
1 1 3 2
.
Solucion. Usamos MatLab para calcular la inversa a la izquierda con la formula dada en el Teorema 4.5, como
sigue
>> Format rat; A = [1 2 1 2; 1 − 1 2 1; 1 3 2 2; 1 2 2 1; 1 1 3 2]; L = inv(a′ ∗ a) ∗ a′
L =2/3 1 −1/3 1 −4/3
−1/12 −1/4 1/6 1/4 −1/12
−13/24 −1/8 1/12 1/8 11/24
11/24 −1/8 1/12 −7/8 11/24La inversa a la izquierda de A esta dada por
L =
2/3 1 −1/3 1 −4/3
−1/12 −1/4 1/6 1/4 −1/12
−13/24 −1/8 1/12 1/8 11/24
11/24 −1/8 1/12 −7/8 11/24
.
Corolario 4.6. Sea A una matriz cuyas filas son linealmente independientes, entonces se tiene que
1. AAt es invertible,
2. la matriz At(AAt)−1 es una inversa a la derecha de A.
Demostracion. Como las filas de A son linealmentes entonces las columnas de At son linealmente independi-
entes, usando el teorema anterior tenemos que (At)tAt = AAt es invertible y por tanto (AAt)−1 existe y ademas
como AAt(AAt)−1 = I entonces At(AAt)−1 es una inversa a la derecha de A.
Ejemplo 4.14. Sea A =
1 1 1
0 1 1
, calcular una inversa a la derecha de A.
Solucion: Primero calculamos AAt y su inversa
AAt =
1 1 1
0 1 1
1 0
1 1
1 1
=
3 2
2 2
de donde (AAt)−1 =12
2 −2
−2 3
.Ahora calculamos la inversa a la derecha At(AAt)−1
At(AAt)−1 =
1 0
1 1
1 1
12
2 −2
−2 3
=12
2 −2
0 1
0 1
.
Autor: OMAR DARIO SALDARRIAGA 97
Ahora usamos los resultados obtenidos en esta seccion para construir la matriz que proyecta un vector sobre
un subespacio dado, la cual construimos en el siguiente teorema.
Teorema 4.7. Sean H un subespacio de Rn, {h1, . . . , hk} una base para H, A =[h1 · · · hk
], P =
A(AtA)−1At y b ∈ Rn, entonces se tiene que
1. Pb ∈ H,
2. b− Pb ∈ H⊥,
3. P 2 = P ,
4. Si b ∈ H entonces Pb = b,
5. Si b ∈ H⊥ entonces Pb = 0.
Demostracion: Primero observese que H = Col(A) y que si x ∈ Rk, entonces Ax ∈ Col(A) = H, esto ya que
si x =
x1
...
xk
entonces
Ax =[h1 · · · hk
]x1
...
xk
= x1h1 + · · ·+ xkhk ∈ Col(A) = H. (4.7)
Mas aun, si h ∈ H, entonces h = x1h1 + · · ·+ xkhk y por la ecuacion (4.7) h = Ax.
1. Pb = A (AtA)−1Atb︸ ︷︷ ︸b′
= Ab′ ∈ Col(A) = H.
2. Debemos demostrar que si h ∈ H entonces h · (b− Pb) = 0.
Sea h ∈ H, entonces existe x tal que h = Ax y por tanto
h · (b− Pb) = Ax · (b− Pb) = Ax · b−Ax · Pb
= (Ax)tb− (Ax)tPb
= xtAtb− xtAtPb
= xtAtb− xtAtA(AtA)−1︸ ︷︷ ︸I
Atb
= xtAtb− xtAtb = 0
3. P 2 = PP = A (AtA)−1AtA︸ ︷︷ ︸I
(AtA)−1At = A(AtA)−1At = P
98
4. Sea b ∈ H, entonces existe x tal que b = Ax y por tanto
Pb = PAx = A (AtA)−1AtA︸ ︷︷ ︸I
x = Ax = b.
5. Supongamos que b ∈ H⊥, entonces b · h = 0, para todo h ∈ H, en particular b · hi = 0 para i = 1, . . . , k.
Entonces tenemos que
Atb =
ht1...
htk
b =
ht1b
...
htkb
=
h1 · b
...
hk · b
=
0...
0
,y por tanto
Pb = A(AtA)−1 Atb︸︷︷︸=0
= A(AtA)−10 = 0.
Estas propiedas prueban que Pb satisface las condiciones del vector proyeccion de b sobre H.
Definicion 4.9. Sean H un subespacio de Rn, {v1, . . . , vk} una base para H, A =[v1 · · · vk
]y b ∈ Rn.
Definimos la proyeccion de b sobre H, denotada por proyHb, como el vector:
proyHb = Pb,
donde P es la matriz P = A(AtA)−1At.
Ejemplo 4.15. Sean b =
1
1
3
y H =
⟨1
1
0
,
0
1
1
⟩
, calcular el vector proyHb.
Solucion Sea A =
1 0
1 1
0 1
, entonces proyHb = A(AtA)−1Atb.
AtA =
1 1 0
0 1 1
1 0
1 1
0 1
=
2 1
1 2
de donde (AtA)−1 =13
2 −1
−1 2
,
A(AtA)−1 =
1 0
1 1
0 1
13
2 −1
−1 2
=13
2 −1
1 1
−1 2
Finalmente tenemos
proyHb = A(AtA)−1Atb =13
2 −1
1 1
−1 2
1 1 0
0 1 1
1
1
3
=13
0
6
6
=
0
2
2
,
Autor: OMAR DARIO SALDARRIAGA 99
entonces proyHb =
0
2
2
.
Ejemplo 4.16. (MatLab) Calcular la matriz que proyecta sobre el subespacio H de R6 generado por los
vectores v1 =
1
1
1
1
1
0
, v2 =
2
−1
3
1
1
1
, v3 =
1
2
2
1
3
0
y v4 =
2
1
2
1
2
1
. Si b = 11e1 =
11
0
0
0
0
0
calcular proyHb.
Solucion. La matriz de la proyeccion esta dada por P = A(AtA)−1At
>> A = [1 2 1 2; 1 − 1 2 1; 1 3 2 2; 1 1 1 1; 1 1 3 2; 0 1 0 1]; P = A ∗ inv(A′ ∗A) ∗A′
P =7/11 1/11 1/11 3/11 −1/11 4/111/11 8/11 −3/11 2/11 3/11 −1/111/11 −3/11 8/11 2/11 3/11 −1/113/11 2/11 2/11 6/11 −2/11 −3/11−1/11 3/11 3/11 −2/11 8/11 1/11
4/11 −1/11 −1/11 −3/11 1/11 7/11
Obtenemos que la matriz de la proyeccion esta dada por
P = proyH =
7/11 1/11 1/11 3/11 −1/11 4/111/11 8/11 −3/11 2/11 3/11 −1/111/11 −3/11 8/11 2/11 3/11 −1/113/11 2/11 2/11 6/11 −2/11 −3/11−1/11 3/11 3/11 −2/11 8/11 1/11
4/11 −1/11 −1/11 −3/11 1/11 7/11
=
111
7 1 1 3 −1 41 8 −3 2 3 −11 −3 8 2 3 −13 2 2 6 −2 −3−1 3 3 −2 8 14 −1 −1 −3 1 7
.La proyeccion del vector b sobre H esta dado por proyHb = Pb, asi que en MatLab hacemos lo siguiente
>> b = [11; 0; 0; 0; 0; 0] proy = P ∗ b
proy =7113−1
4
Obtenemos que proyHb =
7
1
1
3
−1
4
.
100
4.4. Mınimos Cuadrados
Dado un sistema de ecuaciones Ax = b, sabemos que el sistema tiene solucion si y solo si b ∈ Col(A), esto
ya que
b = Ax =[C1 · · · Cn
]x1
...
xn
= x1C1 + · · ·+ xnCn ∈ 〈C1, . . . , Cn〉 = Col(A),
donde C1, . . . , Cn son las columnas de A.
De esto se deduce que si el sistema Ax = b es inconsistente, entonces b /∈ Col(A) y el vector mas cercano
a b que pertence a Col(A) es el vector proyCol(A)b = A(AtA)−1Ab, por tanto como el sistema Ax = b es
inconsistente, lo reemplazamos por el sistema consistente Ax = proyCol(A)b = A(AtA)−1Ab. De donde tenemos
que x = (AtA)−1Ab. A esta solucion la llamamos la solucion de los mınimos cuadrados.
Definicion 4.10. Sea A una matriz cuyas columnas son linealmente independientes y b ∈ Rn, si el sistema
Ax = b es inconsistente entonces la solucion de los mınimos cuadrados al sistema esta dada por
x =(AtA
)−1Atb.
Ejemplo 4.17. Considere el sistema Ax = b donde A =
2 1
−1 1
1 1
y b =
1
2
0
. Notese que el sistema es
inconsistente, como las columnas de A son linealmente independientes, se puede usar el metodo de los mıni-
mos cuadrados para calcular la “mejor”solucion, la cual esta dada por x = (AtA)−1Atb, y la calculamos a
continuacion.
AtA =
2 −1 1
1 1 1
2 1
−1 1
1 1
=
6 2
2 3
de donde (AtA)−1 = 114
3 −2
−2 6
entonces la mejor solucion esta da-
da por
x =(AtA
)−1Atb =
114
3 −2
−2 6
2 −1 1
1 1 1
1
2
0
=114
−6
18
.Otra aplicacion es la de ajustar datos encontrados en observaciones, que se esperan se ajusten a una linea pero
sin embargo no todos pertencen a esta. Supongamos que los valores observados son (x1, y1), (x2, y2), . . . , (xn, yn)
y supongamos que los datos deben satisfacer la ecuacion y = mx+ b, esto es,
y1 = mx1 + b
y2 = mx2 + b
...
yn = mxn + b
Autor: OMAR DARIO SALDARRIAGA 101
El cual podemos escribir matricialmente en la forma
y1...
yn
=
x1 1...
...
xn 1
mb
y como los puntos (x1, y1), (x2, y2), . . . , (xn, yn)
no satisfacen la ecuacion y = mx+ b, el sistema es inconsistente. Usando la solucion de los mınimos cuadrados
obtenemos que la mejor solucion al sistema esta dado por
x =(AtA
)−1Aty,
donde A =
x1 1...
...
xn 1
y y =
y1...
yn
.
Ejemplo 4.18. Supongamos que los valores observados son (−2, 0), (1, 0) y (2, 3), es facil ver que estos valores
no pertecen a una linea. Los valores m y b de la linea y = mx+ b que mas se ajusta a los datos estan dados en
el vector x =
mb
donde x = (AtA)−1Aty con A =
−2 1
1 1
2 1
y y =
0
0
3
.
Notese que AtA =
−2 1 2
1 1 1
−2 1
1 1
2 1
=
9 1
1 3
, entonces se tiene que (AtA)−1 = 126
3 −1
−1 9
, y por
tanto
x = (AtA)−1Aty =126
3 −1
−1 9
−2 1 2
1 1 1
0
0
3
=126
15
21
=
1526
2126
.De aquı tenemos que m = 15
26 y b = 2126 y por tanto la ecuacion de la linea que mas se ajusta a los datos es
y = 1526x+ 21
26 .
Los mınimos cuadrados tambien se pueden usar para calcular ecuaciones polinomicas de cualquier grado que
mejor se ajusten a ciertos datos, generalizando el ejemplo anterior, para lineas. Esto lo ilustramos a contiuacion.
Ejemplo 4.19. (MatLab) Un experimeto arrojo los puntos (−2, 2), (1, 0), (1, 3) y (2,−1). Si se espera que
estos puntos esten sobre una parabola y = ax2 + bx+ c, calcular la ecuacion que mejor se ajuste a los datos.
Solucion. Los puntos nos dan las ecuaciones
2 = a− b+ c
0 = a+ b+ c
1 = 9a+ 3b+ c
−1 = 4a+ 2b+ c
102
Estas ecuaciones son equivalentes al sistema
1 −1 1
1 1 1
9 3 1
4 2 1
a
b
c
=
2
0
1
−1
. Usamos la solucion de los mınimos
cuadrados para calcular los coeficientes a, b y c, la cual esta dada por x = inv(AtA)Atv con A =
1 −1 1
1 1 1
9 3 1
4 2 1
y v =
2
0
1
−1
. Esto lo calculamos en MatLab como sigue
>> A = [1 − 1 1; 1 1 1; 9 3 1; 4 2 1]; v = [2; 0; 1;−1]; x = inv(A′ ∗A) ∗A′ ∗ v
x =21/44
−283/220
7/22De este resultado obtenemos que la ecuacion que mejor se ajusta a los datos es
y =2144x2 − 283
220x+
722
⇔ 220y = 105x2 − 283x+ 70.
4.5. El proceso Gramm-Schmidt
El objetivo de esta seccion es mostrar como es posible construir una base ortonormal a partir de cualquier
base, este proceso es conocido como el proceso Gramm-Schmidt. Comenzamos con la definicion de conjunto
ortognal y ortonormal.
Definicion 4.11. Sean v1, . . . , vk vectores en Rn,
1. decimos que {v1, . . . , vk} es un conjunto ortogonal si los vectores v1, . . . , vn son ortogonales entre sı, es
decir si vi · vj = 0 para 1 ≤ i 6= j ≤ k.
2. decimos que {v1, . . . , vk} es una conjunto ortonormal si es una base ortogonal y ||vi|| = 1 para i = 1, . . . , k.
Ejemplo 4.20. Los vectores v1 =
1
−1
0
, v2 =
1
1
0
y v3 =
0
0
1
forman una base ortogonal para R3 y los
vectores w1 = 1√2
1
−1
0
, w2 = 1√2
1
1
0
y w3 =
0
0
1
forman una base ortonormal para R3.
Autor: OMAR DARIO SALDARRIAGA 103
Lema 4.8. Sean v1, . . . , vk vectores en Rn, si el conjunto {v1, . . . , vk} es ortogonal, entonces es linealmente
independiente.
Demostracion. Supongamos que el conjunto {v1, . . . , vk} es ortogonal y supongamos que
α1v1 + · · ·+ αkvk = 0. (4.8)
Multiplicando ambos lados de (4.8) por vi tenemos:
vi · (α1v1 + · · ·+ αkvk) = vi · 0
α1 vi · v1︸ ︷︷ ︸=0
+ · · ·+ αi vi · vi︸ ︷︷ ︸6=0
+ · · ·+ αk vi · vk︸ ︷︷ ︸=0
= 0
αivi · vi = 0
Como vi · vi 6= 0 entonces αi = 0 y esto para todo i = 1, . . . , n. Por tanto los vectores v1, . . . , vk son linealmente
independientes.
Tambien hay una nocion de matriz ortogonal la cual definimos a continuacion.
Definicion 4.12. Decimos que una matriz A =[v1 · · · vk
]es una matriz ortogonal si vi · vj = 0 para
1 ≤ i 6= j ≤ k y ||vi|| = 1 para i = 1, . . . , k, es decir, si las columnas de A forman un conjunto ortonormal.
Ejemplo 4.21. La matriz A =
1√2
1√2
0−1√
21√2
0
0 0 1
es una matriz ortogonal ya que el conjunto de columnas de esta
matriz,
1√2
−1√2
0
,
1√2
1√2
0
,
0
0
1
, es un conjunto ortonormal.
Teorema 4.9. (Propiedad de las matrices ortogonales) Sea A una matriz ortogonal, entonces AtA = I.
Por tanto si A es una matriz cuadrada entonces A es invertible y A−1 = At, si A no es cuadrada entonces A
tiene inversa a la izquierda la cual esta dada por At.
104
Demostracion: Si A =[v1 · · · vk
]es una matriz ortogonal, entonces
AtA =
vt1...
vtn
[v1 · · · vk
]=
vt1v1 vt1v2 · · · vt1vk
vt2v1 vt2v2 · · · vt2vk...
.... . .
...
vtnv1 vtnv2 · · · vtnvn
=
v1 · v1︸ ︷︷ ︸=1
v1 · v2︸ ︷︷ ︸=0
· · · v1 · vk︸ ︷︷ ︸=0
v2 · v1︸ ︷︷ ︸=0
v2 · v2︸ ︷︷ ︸=1
· · · v2 · vk︸ ︷︷ ︸=0
......
. . ....
vn · v1︸ ︷︷ ︸=0
vn · v2︸ ︷︷ ︸=0
· · · vn · vn︸ ︷︷ ︸=1
=
1 0 · · · 0
0 1 · · · 0...
.... . .
...
0 0 · · · 1
= I.
La segunda afirmacion es inmediata. Finalmente, si A no es cuadrada entonces por el Lema 4.5, una inversa a
la izquierda de A esta dada por(AtA
)−1︸ ︷︷ ︸=I−1=I
At = IAt = At.
Ejemplo 4.22. 1. Este teorema nos permite calcular la inversa de una matriz ortogonal de manera facil, por
el Ejemplo 4.21 tenemos que la matriz A =
1√2
1√2
0−1√
21√2
0
0 0 1
es una matriz ortogonal, por tanto
A−1 = At =
1√2
−1√2
01√2
1√2
0
0 0 1
.2. El teorema tambien se puede usar para calcular la inversa a la izquierda de matrices ortogonales cuando
no son cuadradas. Por ejemplo la matriz B =
1√2
1√2
−1√2
1√2
0 0
es una matriz ortogonal, por tanto una inversa
a la izquierda de B es Bt =
1√2
−1√2
01√2
1√2
0
.El computo bases ortogonales(ortogonales) tiene ventajas importantes, una de ellas es la posibilidad de poder
expresar vectores en terminos de una base de manera simple, esto se muestra en el siguiente teorema.
Teorema 4.10. Sea {v1 . . . , vn} una base ortogonal para un espacio vectorial V y sea b ∈ V , entonces
b =b · v1v1 · v1
v1 + · · ·+ b · vnvn · vn
vn.
Mas aun, si {v1 . . . , vn} una base ortonormal, entonces b = (b · v1)v1 + · · ·+ (b · vn)vn.
Autor: OMAR DARIO SALDARRIAGA 105
Demostracion. Como {v1 . . . , vn} es una base entonces existen constantes α1, α2, . . . , αn talque b = α1v1 +
· · ·+ αnvn. Ahora para i = 1, . . . , n tenemos que
b · vi = α1 v1 · vi︸ ︷︷ ︸=0
+ · · ·+ αi vi · vi︸ ︷︷ ︸6=0
+ · · ·+ αn vn · vi︸ ︷︷ ︸=0
b · vi = αivi · vi,
de donde tenemos que αi =b · vivi · vi
.
Ahora, si {v1 . . . , vn} es una base ortonormal entonces vi · vi =√||vi|| =
√1 = 1, por tanto αi = b · vi.
Ejemplo 4.23. De acuerdo al Ejemplo 4.20 Los vectores v1 =
1
−1
0
, v2 =
1
1
0
y v3 =
0
0
1
forman una base
ortogonal para R3. Usando el teorema anterior podemos escribir el vector b =
1
1
1
de la siguiente forma:
b =b · v1v1 · v1
v1 +b · v2v2 · v2
v2 +b · v3v3 · v3
v3 =02v1 +
22v2 +
11v3 = v2 + v3.
Ejemplo 4.24. De acuerdo al Ejemplo 4.20 Los vectores w1 =
1√2
−1√2
0
,
w2 =
1√2
1√2
0
y w3 =
0
0
1
forman una base ortonormal para R3. Usando el teorema anterior podemos escribir el
vector b =
1
1
1
de la siguiente forma:
b = (b · w1)w1 + (b · w2)w2 + (b · w3)w3 = 0w1 +2√2w2 + w3 =
√2w2 + w3.
Teorema 4.11. Sea {v1 . . . , vk} una base ortonormal para un subespacio vectorial H de Rn y sea b ∈ Rn,
entonces
proyHb = (b · v1)v1 + · · ·+ (b · vk)vk.
Demostracion. Sea A =[v1 · · · vk
], entonces proyHb = A(AtA)−1Atb. Como A es una matriz ortogonal
106
entonces AtA = I, por tanto
proyHb = A (AtA)−1︸ ︷︷ ︸=I
Atb = AAtb =[v1 · · · vk
]vt1...
vtk
b
=[v1 · · · vk
]vt1b...
vtkb
= (vt1b)v1 + · · ·+ (vtkb)vk
= (b · v1)v1 + · · ·+ (b · vk)vk.
Observacion 4.3. La segunda parte del Teorema 4.10 sale como corolario de este teorema, ya que si b ∈ H
entonces por el Teorema 4.7 tenemos que proyHb = b y por tanto
b = proyHb = (b · v1)v1 + · · ·+ (b · vk)vk.
Ejemplo 4.25. El conjunto
v1 =
1√2
1√2
0
, v2 =
−1√
2
1√2
0
es una base ortogonal para el plano xy (o z = 0)
entonces usando el teorema anterior para calcular proyHb con H = plano xy y b =
1
2
1
obtenemos:
proyHb = (b · v1)v1 + (b · v2)v2 =3√2v1 +
1√2v2 =
1
2
0
Teorema 4.12. (El proceso Gramm-Schmidt) Sea {v1, . . . , vk} una base para un subespacio H de Rn y
sean
w1 = v1, (4.9)
w2 = v2 − proyw1v2 = v2 −v2 · w1
w1 · w1w1,
w3 = v3 − proy〈w1,w2〉v3 = v3 −v3 · w1
w1 · w1w1 −
v3 · w2
w2 · w2w2
...
wk = vk − proy〈w1,...,wk−1〉vk = vk −vk · w1
w1 · w1w1 − · · · −
vk · wk−1
wk−1 · wk−1wk−1
entonces {w1, . . . , wk} una base ortogonal para H.
Autor: OMAR DARIO SALDARRIAGA 107
Demostracion. Por el Teorema 4.3 tenemos que wi = vi − proy〈w1,...,wi−1〉vi es ortogonal al subespacio
〈w1, . . . , wi−1〉 para i = 1, . . . , k y por tanto ortogonal a cada uno de los vectores w1, . . . , wi−1. Entonces
tenemos que los vectores w1, . . . , wk son ortogonales entre sı, es decir, el conjunto {w1, . . . , wk} es un conjunto
ortogonal.
Solo nos resta demostrar que H = 〈w1, . . . , wk〉, pero como el conjunto {w1, . . . , wk} es ortogonal, entonces
por el Lema 4.8 es linealmente independiente, y como dimH = k = dim〈w1, . . . , wk〉 es suficiente demostrar que
w1, . . . , wk ∈ H.
Primero notese que w1 = v1 ∈ H.
Tambien tenemos que w2 = v2 − proyw1v2 = v2 − v2·w1w1·w1
w1 ∈ H.
Continuando por induccon supongamos que w1, . . . , wi−1 ∈ H, entonces
wi = vi − proy〈w1,...,wi−1〉vi = vi −vi · w1
w1 · w1w1 − · · · −
vi · wi−1
wi−1 · wi−1wi−1 ∈ H.
Concluimos que w1, . . . , wk ∈ H y por tanto el conjunto {w1, . . . , wk} es una base ortogonal para H.
Observacion 4.4. Si {v1, . . . , vk} es una base para un subespacio H de Rn y sea {w1, . . . , wk} la base ortogonal
calculada usando el proceso Gramm-Schmidt y
q1 =1||w1||
w1, q2 =1||w2||
w2, · · · , qk =1||wk||
wk
entonces tenemos que {q1, . . . , qk} es una base ortognal para H. Usando el Teorema 4.11 podemos re-escribir
las ecuaciones (4.9) de la siguiente forma:
w1 = v1, q1 = 1||w1||w1
w2 = v2 − (vi · q1)q1, q2 = 1||w2||w2
w3 = v3 − (v3 · q1)q1 − (v3 · q2)q2 q3 = 1||w3||w3
......
wk = vk − (vk · q1)q1 − · · · − (vk · qk−1)qk−1 qk = 1||wk||wk
(4.10)
Ejemplo 4.26. Considere el subespacio H de R4 generado por el conjunto
v1 =
1
1
0
0
, v2 =
0
1
1
0
, v3 =
1
0
0
1
,
calcule una base ortonormal para H.
Solucion: Usaremos las ecuaciones (4.10) para calcular los vectores q1, . . . , qk.
w1 = v1, q1 =1||w1||
w1 =1√2
1
1
0
0
=
1√2
1√2
0
0
108
w2 = v2 − (v2 · q1)q1 =
0
1
1
0
−1√2
1√2
1√2
0
0
=
− 1
2
12
1
0
,
q2 =1||w2||
w2 =2√6
− 1
2
12
1
0
=
− 1√
6
1√6
2√6
0
w3 = v3 − (v3 · q1)q1 − (v3 · q2)q2 =
1
0
0
1
−1√2
− 1√
2
1√2
1
0
−−1√
6
− 1√
6
1√6
2√6
0
=
13
− 13
13
1
y finalmente q3 =1||w3||
w3 =√
32
13
− 13
13
1
=
√3
6
−√
36
√3
6
√3
2
Por tanto
q1 =
1√2
1√2
0
0
, q2 =
− 1√
6
1√6
2√6
0
, q3 =
√3
6
−√
36
√3
6
√3
2
es una base ortonormal para H.
4.6. La factorizacion QR de una matriz
Teorema 4.13. Sea A =[v1 · · · vk
]una matriz cuyas columnas son linealmente independientes, entonces
exite una matriz ortogonal Q y una matriz triangular superior R tal que A = QR.
Demostracion. Sean q1, . . . , qk los vectores obtenidos al aplicar el proceso Gramm-Schmidt, como estos forman
una base ortonormal para H = 〈v1, · · · , vk〉 entonces por el Teorema 4.10 tenemos que
vi = (q1 · vi)q1 + · · ·+ (qk · vi)qk. (4.11)
En la demostracion del Teorema 4.12 se probo que 〈v1, . . . , vi−1〉 = 〈q1, . . . , qi−1〉 y como qi es ortogonal a
q1, . . . , qi−1, por ser ortonormales, entonces qi · v1 = 0, . . . , qi · vi−1 = 0. Como esto es para todo i = 1, . . . , k
obtenemos que qi · vj = 0 para i > j. Reemplazando esto en la ecuacion (4.11) obtenemos
vi = (q1 · vi)q1 + · · ·+ (qi · vi)qi,
Autor: OMAR DARIO SALDARRIAGA 109
para i = 1, . . . , k, por tanto tenemos la ecuaciones:
v1 = (q1 · v1)q1
v2 = (q1 · v2)q1 + (q2 · v2)q2...
vk−1 = (q1 · vk−1)q1 + · · ·+ (qk−1 · vk−1)qk−1
vk = (q1 · vk)q1 + · · ·+ (qk · vk)qk
La cual podemos escribir matricialmente de la siguiente forma
[v1 · · · vk
]=[q1 · · · qk
]
q1 · v1 q1 · v2 q1 · v3 · · · q1 · vk0 q2 · v2 q2 · v3 · · · q2 · vk0 0 q3 · v3 · · · q3 · vk...
......
. . ....
0 0 0 · · · qk · vk
Si hacemos Q =[q1 · · · qk
]y R =
q1 · v1 q1 · v2 q1 · v3 · · · q1 · vk0 q2 · v2 q2 · v3 · · · q2 · vk0 0 q3 · v3 · · · q3 · vk...
......
. . ....
0 0 0 · · · qk · vk
obtenemos A = QR.
De este Teorema se desprende el siguiente procedimiento para calcular la factorizacion QR de una matriz.
Procedimiento para calcular las matrices Q y R
Sea A =[v1 · · · vk
]una matriz cuyas columnas v1, . . . , vk son linealmente independientes. Calculamos
su factorizacion QR con los siguientes pasos:
1. Aplicamos el proceso Gramm-Schmidt a los vectores v1, . . . , vk para obtener una vectores ortonormales
q1, . . . , qk y hacemos Q =[q1 · · · qk
].
2. Para 1 ≤ i ≤ j ≤ k calculamos los productos qi · vj y hacemos
R =
q1 · v1 q1 · v2 q1 · v3 · · · q1 · vk0 q2 · v2 q2 · v3 · · · q2 · vk0 q2 · v2 q3 · v3 · · · q2 · vk...
......
. . ....
0 0 0 · · · qk · vk
.
3. De acuerdo al Teorema 4.13 tenemos que A = QR.
110
Ejemplo 4.27. Sea A =
1 0 1
1 1 0
0 1 0
0 0 1
, calcular matrices Q y R tal que A = QR.
Solucion: Sean v1 =
1
1
0
0
, v2 =
0
1
1
0
y v3 =
1
0
0
1
, usando el procedimiento anterior obtenemos lo siguiente.
1. En el Ejemplo 4.26 usamos el proceso Gramm-Schdmit y obtuvimos q1 =
1√2
1√2
0
0
, q2 =
− 1√
6
1√6
2√6
0
y q3 =
√3
6
−√
36
√3
6
√3
2
, por tanto Q =
1√2− 1√
6
√3
6
1√2
1√6 −
√3
6
0 2√6
√3
6
0 0 √3
2
.
2. Para 1 ≤ i ≤ j ≤ 3 calculamos los productos qi · vj,
q1 · v1 = 2√2
q1 · v2 = 1√2
q1 · v3 = 1√2
q2 · v2 = 3√6
q2 · v3 = −1√6
q3 · v3 = 2√
33 = 2√
3
Por tanto R =
2√2
1√2
1√2
0 3√6
−1√6
0 0 2√3
.
3. De esta manero obtenemos que A =
1√2− 1√
6
√3
6
1√2
1√6 −
√3
6
0 2√6
√3
6
0 0 √3
2
2√2
1√2
1√2
0 3√6
−1√6
0 0 2√3
.
Usamos MatLab para corroborar que A = QR:
>> Q=[1/sqrt(2) -1/sqrt(6) sqrt(3)/6;1/sqrt(2) 1/sqrt(6) -sqrt(3)/6;0 2/sqrt(6) sqrt(3)/6;0 0 sqrt(3)/2],
R=[2/sqrt(2) 1/sqrt(2) 1/sqrt(2);0 3/sqrt(6) -1/sqrt(6);0 0 2/sqrt(3)], Q*R
ans=
1,00 −0,00 1,00
1,00 1,00 −0,00
0 1,00 −0,00
0 0 1,00
Autor: OMAR DARIO SALDARRIAGA 111
Lo que nos confirma que efectivamente A = QR.
112
Capıtulo 5
Determinantes
5.1. Definicion y ejemplos
Definicion 5.1. Sea A una matriz de tamano m×n, para 1 ≤ i ≤ m y 1 ≤ j ≤ n, definimos el ij-esimo menor
de A, al cual denotaremos por Aij, como la matriz obtenida de A al eliminar su i-esima fila y j-esima columna.
Ejemplo 5.1. Sea A =
1 1 0 2
1 −1 1 0
0 2 3 0
el 24-esimo menor de A es la matriz A24 =
1 1 0
0 2 3
y el 12-esimo
menor es la matriz A12 =
1 1 0
0 3 0
.
Definicion 5.2. (Determinante) Sea A =
a11 · · · a1n
.... . .
...
an1 · · · ann
una matriz de tamano n × n. Definimos el
determinante de A, el cual denotaremos por det(A), recursivamente como sigue:
Si n = 2 entonces det(A) = a11a22 − a12a21.
Para n ≥ 3,
det(A) =n∑i=1
(−1)1+ia1i det (C1i)
= a11 det (A11)− a12 det (A12) + · · ·+ (−1)1+na1n det (A1n) .
Ejemplo 5.2. Sea A =
2 −1 0
0 1 0
1 1 1
, de acuerdo a esta definicion el determinante de A esta dado por:
113
114
det(A) =3∑i=1
(−1)1+ia1i det (A1i)
= a11 det (A11)− a12 det (A12) + a13 det (A13)
= 2 det
1 0
1 1
− (−1) det
0 0
1 1
+ 0 det
0 1
1 1
= 2(1 · 1− 0 · 1) + (0 · 1− 0 · 1) + 0(0 · 1− 1 · 1)
= 2
Definicion 5.3. Sea A una matriz n× n, el ij-esimo cofactor de A, denotado por Cij, se define como
Cij = (−1)i+j detAij ,
donde Aij es el ij-esimo menor de A.
Observacion 5.1. Con esta definicion podemos re-escribir la formula de del determinante como sigue:
det(A) =n∑i=1
a1iC1i = a11C11 + · · ·+ a1nC1n.
A esta formula se le conoce como la expansion por cofactores de A a lo largo de la primera fila.
Ejemplo 5.3. Sea A =
−1 1 0
0 1 1
−1 2 1
, calcular C11, C12 y C13 y calcular el determinante de A.
Solucion: C11 = (−1)1+1 detA11 = (−1)2 det
1 1
2 1
= 1 · 1− 1 · 2 = −1
C12 = (−1)1+2 detA12 = (−1)3 det
0 1
−1 1
= −1 (0 · 1− 1 · (−1)) = −1
C13 = (−1)1+3 detA13 = (−1)4 det
0 1
−1 2
= 0 · 2− 1 · (−1) = 1
det(A) = a11C11 + a12C12 + a13C13 = −1 · (−1) + 1 · (−1) + 0 · 1 = 0
Lema 5.1. Sea A =
a11 0 · · · 0
a21 a22 · · · 0...
.... . .
...
an1 an2 · · · ann
una matriz triangular inferior, entonces
det(A) = a11a22 · · · ann.
Es decir, el determinante de una matriz triangular inferior es el producto de las entradas en la diagonal.
Autor: OMAR DARIO SALDARRIAGA 115
Demostracion. Por induccion sobre n.
Si n = 2 tenemos que det(A) = a11a22 − 0a21 = a11a22.
Supongamos que el determinante de toda matriz triangular inferior de tamano (n− 1)× (n− 1) es el producto
de las entradas en la diagonal. Usando la Observacion 5.1 tenemos que
det(A) = a11C11 + a12︸︷︷︸=0
C12 + · · ·+ a1n︸︷︷︸=0
C1n = a11C11. (5.1)
Pero por hipotesis de induccion tenemos que
C11 = (−1)1+1 det(A11) = 1 · det
a22 · · · 0...
. . ....
an1 · · · ann
= a22 · · · ann (5.2)
De las ecuaciones (5.1) y (5.2) tenemos que
det(A) = a11a22 · · · ann.
Corolario 5.2. Sea In la matriz identidad de tamano n× n, entonces det(I) = 1.
Teorema 5.3. Sea A =
a11 · · · a1n
.... . .
...
an1 · · · ann
entonces el determinante de A se puede calcular usando la expansion
por cofactores en cualquier fila y cualquier columna, es decir, para 1 ≤ i, j ≤ n tenemos que:
det(A) = ai1Ci1 + ai2Ci2 + · · ·+ ainCin︸ ︷︷ ︸Expansion por cofactores en la fila i
=n∑k=1
aikCik y (5.3)
det(A) = a1jC1j + a2jC2j + · · ·+ anjCnj︸ ︷︷ ︸Expansion por cofactores en la columna j
=n∑h=1
ahjChj (5.4)
Demostracion. Primero demostraremos la formula (5.3) por induccion sobre n
Para n = 2 tenemos
Expansion en la segunda fila = −a21a12 + a22a11 = det(A).
Ahora supongamos que el teorema se cumple para cualquier matriz de tamano (n − 1) × (n − 1) y probemos
que det(A) =expansion en la fila i.
Por definicion tenemos que
det(A) =n∑j=1
(−1)1+ja1j det(A1j) (5.5)
116
Ahora, como la matriz Aij es de tamano (n− 1)× (n− 1), entonces por la hipotesis de induccion tenemos que
su determinante se puede calcular por expansion en la fila i, por tanto
det(A1j) = (−1)i+1ai1 det(A1j)i1 + · · ·+ (−1)i+nain det(A1j)in (5.6)
=n∑k=1
(−1)i+kaik det(A1j)ik
De las ecuaciones (5.5) y (5.6) tenemos que
det(A) =n∑j=1
(−1)1+ja1j
n∑k=1
(−1)i+kaik det(A1j)ik (5.7)
=n∑j=1
n∑k=1
(−1)1+j+i+ka1jaik det(A1j)ik
La idea es demostrar que la expansion por cofactores en la fila i coincide con esta formula.
Notese que como Cik = (−1)i+k det(Aik), entonces tenemos que
Expansion por cofactores en la fila i =n∑k=1
aikCik =n∑k=1
(−1)i+kaik det(Aik) (5.8)
Ahora, por definicion de determinante tenemos que
det(Aik) =n∑j=1
(−1)1+ja1j det(Aik)1j (5.9)
De las ecuaciones (5.8) y (5.9) tenemos
Expansion por cofactores en la fila i =n∑k=1
(−1)i+kaikn∑j=1
(−1)1+ja1j det(Aik)1j
=n∑k=1
n∑j=1
(−1)i+k+1+jaika1j det(Aik)1j (5.10)
Finalmente notese que (A1j)ik = (Aik)1j ya que ambas se obtienen al eliminar las filas 1 e i y las columnas j y
k de A. Entonces las ecuaciones (5.7) y (5.10) son iguales, por tanto
det(A) = expansion por cofactores en la fila i.
Ejemplo 5.4. Calcular determinante de A =
−1 0 −1
2 0 1
0 1 0
usando expansion por cofactores en la tercera fila
y segunda columna.
Solucion: Usando expansion en la tercera fila tenemos:
det(A) = (−1)3+1a31 det(A31) + (−1)3+2a32 det(A32) + (−1)3+3a33 det(A33)
= 0 det
0 −1
0 1
− 1 det
−1 −1
2 1
+ 0 det
−1 0
2 0
= −1(−1 + 2) = −1.
Autor: OMAR DARIO SALDARRIAGA 117
Ahora, usando expansion por cofactores en la segunda columna tenemos:
det(A) = (−1)1+2a12 det(A12) + (−1)2+2a22 det(A22) + (−1)3+2a32 det(A32)
= −0 det
2 1
0 0
+ 0 det
−1 −1
0 0
− 1 det
−1 −1
2 1
= −1(−1 + 2) = −1.
Corolario 5.4. Sea A una matriz de tamano n × n, si A tiene una fila o una columna de ceros, entonces
det(A) = 0.
Demostracion. Supongamos que la i-esima fila de A es nula, esto es, para 1 ≤ j ≤ n se tiene que aij = 0,
entonces:
det(A) = expansion en la fila i =n∑j=1
aij︸︷︷︸=0
Cij = 0.
Corolario 5.5. Sea A una matriz de tamano n× n entonces det(At) = det(A).
Demostracion. Sea B = At, entonces bij = aji y Bij = Atij = Aji, donde Aij y Bij son los ij-esimos menores
de A y de B, respectivamente, entoncces:
det(At) = det(B) = expansion en la columna 1 =n∑k=1
bk1(−1)k+1 det(Bk1)
=n∑k=1
a1k(−1)k+1 det(A1k) = det(A).
Corolario 5.6. Sea A =
a11 a12 · · · a1n
0 a22 · · · a21
......
. . ....
0 0 · · · a11
una matriz triangular superior, entonces
det(A) = a11a22 · · · ann.
5.2. Determinantes y operaciones elementales de fila
Teorema 5.7. Sea A =
a11 · · · a1n
.... . .
...
ai1 · · · ain...
. . ....
an1 · · · ann
y B =
a11 · · · a1n
.... . .
...
c · ai1 · · · c · ain...
. . ....
an1 · · · ann
, la matriz que se obtiene de A al
multiplicar una fila i por una constante c, entonces
det(B) = c · det(A).
118
Demostracion. Primero notese que para k = 1 . . . , nse tiene que Bik = Aik, ya que al eliminar la fila i de B
se obtiene la misma matriz que al eliminar la fila i de A. Por tanto,
det(B) = expansion fila i =n∑k=1
bik︸︷︷︸=c·aik
(−1)i+k det(Bik︸︷︷︸=Aik
)
=n∑k=1
c · aik(−1)i+k det(Aik)
= c ·n∑k=1
aik(−1)i+k det(Aik) = c · det(A).
Ejemplo 5.5. El teorema anterior nos dice que si todas las entradas de una fila son mulitplos de un real c,
entonces este se puede factorizar de la fila como se muestra a continuacion
det
1 2 −2
4 2 −6
0 3 2
= det
1 2 −2
2 · 2 2 · 1 2 · (−3)
0 3 2
= 2 det
1 2 −2
2 1 −3
0 3 2
.Corolario 5.8. Sea A una matriz n× n y sea E la matriz elemental que se obtiene de In al multiplicar la fila
por una constante c 6= 0 entonces det(E) = c y det(EA) = det(E) det(A).
Teorema 5.9. Sea A =
a11 · · · a1n
.... . .
...
ai1 · · · ain...
. . ....
aj1 · · · ajn...
. . ....
an1 · · · ann
y sea B =
a11 · · · a1n
.... . .
...
aj1 · · · ajn...
. . ....
ai1 · · · ain...
. . ....
an1 · · · ann
la matriz que se obtiene de A al
intercambiar las filas i y j de A, entonces
det(B) = −det(A).
Demostracion. Primero supongamos que las filas intercambiadas son consecutivas, es decir,
A =
a11 · · · a1n
.... . .
...
ai1 · · · ain
a(i+1)1 · · · a(i+1)n
.... . .
...
an1 · · · ann
y B =
a11 · · · a1n
.... . .
...
a(i+1)1 · · · a(i+1)n
ai1 · · · ain...
. . ....
an1 · · · ann
.
Autor: OMAR DARIO SALDARRIAGA 119
Ahora, notese que b(i+1)k = aik y B(i+1)k = Aik ya que la matriz que se obtiene al eliminar la fila i + 1 de B
coincide con la matriz que se obtiene al eliminar la fila i de A. Por tanto si usamos expansion por cofactores en
la fila i+ 1 de B obtenemos:
det(B) =n∑k=1
b(i+1)k︸ ︷︷ ︸aik
(−1)i+1+k det(B(i+1)k︸ ︷︷ ︸Aik
) =n∑k=1
aik(−1)i+1+k det(Aik)
=n∑k=1
aik(−1)(−1)i+k det(Aik) = −n∑k=1
aik(−1)i+k det(Aik) = −det(A).
En el caso general, para intercambiar las filas i y j de A se necesitan j− i cambios consecutivos de la fila i para
llevarla a la fila j y j − i− 1 cambios consecutivos de la fila j para llevarla a la fila i, por tanto
det(B) = (−1)j−i(−1)j−i det(A) = (−1)2j︸ ︷︷ ︸=1
(−1)−2i︸ ︷︷ ︸=1
(−1)−1︸ ︷︷ ︸=−1
det(A) = −det(A).
Corolario 5.10. Sea A una matriz n× n y sea E la matriz elemental que se obtiene de In al intercambiar las
filas i y j entonces det(E) = −1 y det(EA) = det(E) det(A).
Lema 5.11. Si A es una matriz con dos filas iguales, entonces det(A) = 0.
Demostracion. Supongamos que las filas i y j de A son iguales y sea B la matriz que se obtiene de A al
intercambiar las filas i y j, entonces B = A. Ahora, por el Teorema 5.9 tenemos que
det(B) = −det(A), por tanto det(A) = −det(A), o equivalentemente, 2 det(A) = 0, de donde
det(A) = 0.
Lema 5.12. Sean A, B y C matrices cuyas filas son iguales excepto la fila i y talque la i−esima fila de
C es la suma de las filas i de A y B, es decir, A =
a11 · · · a1n
.... . .
...
ai1 · · · ain...
. . ....
an1 · · · ann
, B =
a11 · · · a1n
.... . .
...
bi1 · · · bin...
. . ....
an1 · · · ann
y C =
a11 · · · a1n
.... . .
...
ai1 + bi1 · · · ain + bin...
. . ....
an1 · · · ann
, entonces det(C) = det(A) + det(B).
120
Demostracion. Primero notese que para j = 1 . . . , n se tiene que Cij = Aij = Bij , ya que al eliminar la fila i
de A se obtiene la misma matriz que al eliminar la fila i de B y la misma matriz al eliminar la fila i de C, por
tanto al usal expansion por cofactores en la fila i de C obtenemos
det(C) =n∑k=1
cik︸︷︷︸aik+bik
(−1)i+kCik =n∑k=1
(aik + bik)(−1)i+kCik
=n∑k=1
(aik(−1)i+kCik
)+(bik(−1)i+kCik
)=
n∑k=1
aik(−1)i+k Cik︸︷︷︸Aik
+n∑k=1
bik(−1)i+k Cik︸︷︷︸Bik
=n∑k=1
aik(−1)i+kAik +n∑k=1
bik(−1)i+kBik
= det(A) + det(B)
Este teorema se puede usar para reducir ciertos calculos de determinantes como se muestra en el siguiente
ejemplo.
Ejemplo 5.6. Calcular el determinante de la matriz A =
3 2 0
−1 1 2
2 2 2
.
Solucion. Escribimos las entradas de la segunda fila como una suma de dos numeros
det(A) = det
3 2 0
−1 1 2
2 2 2
= det
3 2 0
0− 1 0 + 1 2 + 0
2 2 2
= det
3 2 0
0 0 2
2 2 2
+ det
3 2 0
−1 1 0
2 2 2
.De esta forma obtenemos dos matrices ambas con una fila o una columna con 2 ceros, cuyos determinantes
calculamos usando expansion por dicha fila o columna y obtenemos:
det(A) = det
3 2 0
0 0 2
2 2 2
+ det
3 2 0
−1 1 0
2 2 2
= (−1)2+32 det
3 2
2 2
+ (−1)3+32 det
3 2
−1 1
= −2(6− 4) + 2(3− (−1)) = −4 + 8 = 4
Autor: OMAR DARIO SALDARRIAGA 121
Teorema 5.13. Considere la matriz A =
a11 · · · a1n
.... . .
...
ai1 · · · ain...
. . ....
aj1 · · · ajn...
. . ....
an1 · · · ann
y sea
B =
a11 · · · a1n
.... . .
...
ai1 · · · ain...
. . ....
aj1 + cai1 · · · ajn + cain...
. . ....
an1 · · · ann
, la matriz que se obtiene de A al sumar c veces la fila i a las fila j de A,
entonces
det(B) = det(A).
Demostracion.
det(B) = det
a11 · · · a1n
.... . .
...
ai1 · · · ain...
. . ....
aj1 + cai1 · · · ajn + cain...
. . ....
an1 · · · ann
122
= det
a11 · · · a1n
.... . .
...
ai1 · · · ain...
. . ....
aj1 · · · ajn...
. . ....
an1 · · · ann
︸ ︷︷ ︸
A
+ det
a11 · · · a1n
.... . .
...
ai1 · · · ain...
. . ....
cai1 · · · cain...
. . ....
an1 · · · ann
= det(A) + c · det
a11 · · · a1n
.... . .
...
ai1 · · · ain...
. . ....
ai1 · · · ain...
. . ....
an1 · · · ann
︸ ︷︷ ︸
=0
= det(A).
Corolario 5.14. Sea A una matriz n× n y sea E la matriz elemental que se obtiene de In al sumar c veces la
fila i a la fila j de I entonces det(E) = 1 y det(EA) = det(E) det(A).
Corolario 5.15. Sea A una matriz n× n y E una matriz elemental, entonces
det(EA) = det(E) det(A) y det(E) 6= 0.
Mas aun, si E1 · · · , Ek son matrices elementales, entonces
det(E1 · · ·EkA) = det(E1) · · · det(Ek) det(A).
5.3. Determinante de matrices invertibles
Teorema 5.16. Sean A y B matrices n× n, entonces det(AB) = det(A) det(B).
Demostracion. Caso 1. A es invertible, entonces A = E1 · · ·Ek con E1, . . . , Ek matrices elementales. Entonces
det(AB) = det(E1 · · ·EkB) = det(E1) · · · det(Ek)︸ ︷︷ ︸det(E1···Ek)
det(B)
= det(E1 · · ·Ek︸ ︷︷ ︸A
) det(B) = det(A) det(B).
Autor: OMAR DARIO SALDARRIAGA 123
Caso 2. A no es invertible, entonces A = E1 · · ·Ek · A′ donde E1, . . . , Ek son matrices elementales y A′ es una
matriz en forma escalonada reducida. Como A no es invertible, entonces rango(A) = rango(A′) < n y como es
una matriz cuadrada entonces A′ tiene al menos una fila de ceros y por tanto A′B tiene una fila de ceros, por
tanto det(A′B) = 0 = det(A′) luego
det(AB) = det(E1 · · ·EkA′B) = det(E1) · · · det(Ek) det(A′B)︸ ︷︷ ︸=0
= 0, (5.11)
y
det(A) det(B) = det(E1 · · ·EkA′) det(B) (5.12)
= det(E1) · · · det(Ek) det(A′)︸ ︷︷ ︸=0
det(B) = 0.
De las ecuaciones (5.11) y (5.12) tenemos que
det(AB) = det(A) det(B).
Teorema 5.17. Sea A una matriz n× n, entonces A es invertible si y solo si det(A) 6= 0.
Demostracion. “⇒” Supongamos que A es invertible, entonces A = E1 · · ·Ek con E1, . . . , Ek son matrices
elementales y por tanto det(E1) 6= 0, , . . . , det(Ek) 6= 0. Entonces
det(A) = det(E1 · · ·Ek) = det(E1)︸ ︷︷ ︸6=0
· · · det(Ek)︸ ︷︷ ︸6=0
6= 0.
“⇐” Supongamos que det(A) 6= 0 y supongamos por el absurdo que A no es invertible, entonces A = E1 · · ·Ek ·A′
donde E1, . . . , Ek son matrices elementales y A′ es una matriz en forma escalonada reducida. Como A no es
invertible, entonces rango(A) = rango(A′) < n y como es una matriz cuadrada entonces A′ tiene al menos una
fila de ceros y por tanto det(A′) = 0, luego
det(A) = det(E1 · · ·EkA′) = det(E1) · · · det(Ek) det(A′)︸ ︷︷ ︸=0
= 0,
pero esto contradice la hipotesis, por tanto A es invertible.
Corolario 5.18. Sea A una matriz invertible de tamano n× n entonces
det(A−1) =1
det(A).
Demostracion. det(A) ·det(A−1) = det(A ·A−1) = det(I) = 1. Entonces, despejando tenemos que det(A−1) =1
det(A).
124
5.4. Matriz Adjunta
Definicion 5.4. Sea A una matriz de tamano n× n, definimos la matriz adjunta como la matriz definida por
Adj(A) =
C11 C12 · · · C1n
C21 C22 · · · C2n
......
. . ....
Cn1 Cn2 · · · Cnn
t
=
C11 C21 · · · Cn1
C12 C22 · · · Cn2
......
. . ....
C1n C2n · · · Cnn
,
donde Cij = (−1)i+j det(Aij) es el ij-esimo cofactor de A.
Lema 5.19. Sea A =
a11 · · · a1n
.... . .
...
an1 · · · ann
entonces ai1Cj1 + · · ·+ ainCjn = 0 si 1 ≤ i 6= j ≤ n, donde Cik es el
ik-esimo cofactor de A.
Demostracion. Sea B una matriz con las mismas filas de A excepto la fila j en donde se repite la fila i, es
decir B =
a11 · · · a1n
.... . .
...
ai1 · · · ain...
. . ....
ai1 · · · ain...
. . ....
an1 · · · ann
. Notese que para k = 1, . . . , n se tiene que Ajk = Bjk ya que al eliminar la j-esima
fila de A se obtiene la misma matriz que al eliminar la j-esima fila de B. Entonces tenemos que
0 = det(B) = Expansion en la fila j
=n∑k=1
bjk︸︷︷︸aik
(−1)j+k det(Bjk︸︷︷︸Ajk
) =n∑k=1
aik (−1)j+k det(Ajk)︸ ︷︷ ︸Cjk
=n∑k=1
aikCjk = ai1Cj1 + · · ·+ ainCjn
Teorema 5.20. Sea A una matriz de tamano n× n, entonces
A · adj(A) = det(A) · I,
por tanto
1. Si A es invertible entonces A−1 =1
det(A)adj(A).
2. Si A no es invertible entonces A · adj(A) = 0.
Autor: OMAR DARIO SALDARRIAGA 125
Demostracion. Sea A =
a11 · · · a1n
.... . .
...
an1 · · · ann
y adj(A) =
C11 · · · Cn1
.... . .
...
C1n · · · Cnn
, donde Cij es el ijesimo cofactor
de A. Entonces el coeficiente dij en la ij-esima entrada de la matriz A · adj(A) esta dada por
dij = ai1Cj1 + · · ·+ ainCjn =
0 si i 6= j (Lema 5.19),
det(A) si i = j.
.
Por tanto
A · adj(A) =
d11︸︷︷︸=det(A)
d12︸︷︷︸=0
· · · d1n︸︷︷︸=0
d21︸︷︷︸=0
d22︸︷︷︸=det(A)
· · · d2n︸︷︷︸=0
......
. . ....
dn1︸︷︷︸=0
dn2︸︷︷︸=0
· · · dnn︸︷︷︸=det(A)
(5.13)
=
det(A) · · · 0
.... . .
...
0 · · · det(A)
= det(A)I.
Ahora, en el caso 1. si A es invertible entonces det(A) 6= 0 y dividiendo a ambos lados de la Ecuacion (5.13)
tenemos que A · 1det(A)
adj(A) = I, por tanto
A−1 =1
det(A)adj(A).
Finalmente, en el caso 2. si A no es invertible, entonces det(A) = 0 y por tanto la Ecuacion (5.13) se convierte
en A · adj(A) = 0.
Ejemplo 5.7. Sea A =
1 2 3
1 4 7
1 6 0
, calcular los cofactores de A, el determinante de A y la inversa de A.
Solucion. Los cofactores de A son
C11 = (−1)1+1 det
4 7
6 0
= −42 C12 = (−1)1+2 det
1 7
1 0
= 7
C13 = (−1)1+3 det
1 4
1 6
= 2 C21 = (−1)2+1 det
2 3
6 0
= 18
C22 = (−1)2+2 det
1 3
1 0
= −3 C23 = (−1)2+3 det
1 2
1 6
= −4
C31 = (−1)3+1 det
2 3
4 7
= 2 C32 = (−1)3+2 det
1 3
1 7
= −4
126
C33 = (−1)3+3 det
1 2
1 4
= 2.
El determinante de A lo calculamos por expansion por cofactores en la tercera fila
det(A) = a31C31 + a32C32 + a33C33 = 1 · 2 + 6 · (−4) + 0 · 2 = −22
La matriz adjunta esta dada por:
adj(A) =
C11 C21 C31
C12 C22 C32
C13 C23 C33
=
−42 18 2
7 −3 −4
2 −4 2
.Luego, la inversa de A esta dada por
A−1 =1
det(A)adj(A) =
−122
−42 18 2
7 −3 −4
2 −4 2
.
5.5. La Regla de Cramer
Teorema 5.21. (Regla de Cramer) Sea Ax = b un sistema de ecuaciones con A una matriz n×n invertible
entonces el sistema tiene solucion unica la cual esta dada por
x1 =det(A1)det(A)
, x2 =det(A2)det(A)
, . . . , xn =det(An)det(A)
,
Donde A =
a11 a12 · · · a1n
a21 a22 · · · a2n
......
. . ....
an1 an2 · · · ann
, A1 =
b1 a12 · · · a1n
b2 a22 · · · a2n
......
. . ....
bn an2 · · · ann
,
A2 =
a11 b1 · · · a1n
a21 b2 · · · a2n
......
. . ....
an1 bn · · · ann
, . . . , An =
a11 a12 · · · b1
a21 a22 · · · b2...
.... . .
...
an1 an2 · · · bn
Demostracion. Sean a1, . . . , an las columnas de A, es decir, A =
[a1 · · · an
]. Como A es invertible entonces
el sistema tiene solucion unica. Sea x =
x1
...
xn
la solucion al sistema, entonces
b = Ax =[a1 · · · an
]x1
...
xn
= x1a1 + · · ·+ xnan.
Autor: OMAR DARIO SALDARRIAGA 127
Entonces para 1 ≤ i ≤ n fijo, tenemos que
det(Ai) = det[a1 · · · b · · · an
]= det
[a1 · · · x1a1 + · · ·+ xnan · · · an
]= det
[a1 · · · x1a1 · · · an
]+ · · ·+ det
[a1 · · · xiai · · · an
]+ · · · · · ·+ det
[a1 · · · xnan · · · an
]=x1 det
[a1 · · · a1 · · · an
]︸ ︷︷ ︸
=0 (por columna repetida)
+ · · ·+ xi det[a1 · · · ai · · · an
]︸ ︷︷ ︸
=A
+ · · · · · ·+ xn det[a1 · · · an · · · an
]︸ ︷︷ ︸
=0 (por columna repetida)
=xi det(A).
Al despejar xi de esta ecuacion obtenemos xi =det(Ai)det(A)
.
Ejemplo 5.8. Resolver el sistema
3x+ 2y − z = 0
−x + 3z = 0
x + z = 1
usando la regla de Cramer.
Solucion. Primero calculemos los determinantes de las matrices de A1, A2, A3 y A.
det(A1) = det
0 2 −1
0 0 3
1 0 1
= 1 det
2 −1
0 3
= 6
det(A2) = det
3 0 −1
−1 0 3
1 1 1
= −1 det
3 −1
−1 3
= −8
det(A3) = det
3 2 0
−1 0 0
1 0 1
= −2 det
−1 0
1 1
= 2
det(A) = det
3 2 −1
−1 0 3
1 0 1
= −2 det
−1 3
1 1
= 8
Por tanto la solucion al sistema esta dada por
x =det(A1)det(A)
=68
=34
y =det(A2)det(A)
=−88
= −1 y z =det(A3)det(A)
=28
=14.
128
5.6. Interpretacion Geometrica del Determinante
Teorema 5.22. Sean v, w ∈ R2 entonces
|det([v w
])| = area del paralelogramo formado por v y w,
donde las barras denotan el valor absoluto.
Teorema 5.23. Sean v, w y z vectores en R3 entonces
|det([v w z
])| = volumen del paralelepıpedo formado por v, w y z.
Ejemplo 5.9. Sean v1 =
0
2
3
, v2 =
2
1
0
y v3 =
0
2
2
, calcular el volumen del paralelepıpedo formado por estos
vectores.
Solucion. De acuerdo al Teorema 5.23 tenemos que
Volumen = |det[v1 v2 v3
]| =
∣∣∣∣∣∣∣∣∣
0 2 0
2 1 2
3 0 2
∣∣∣∣∣∣∣∣∣ =
∣∣∣∣∣∣−2
2 2
3 2
∣∣∣∣∣∣ = | − 2(4− 6)| = 4.
Estos dos teoremas motivan la siguiente definicion.
Definicion 5.5. Sean v1, v2, · · · , vn ∈ Rn, definimos el volumen de paparelelepıpedo n dimensional por la
ecuacion
Volumen = |det[v1 · · · vn
]|,
donde las barras denotan el valor absoluto
Ejemplo 5.10. (Matlab) Sean v1 =
1
2
3
0
, v2 =
2
1
0
0
, v3 =
−1
−1
−2
−1
y v4 =
0
2
2
0
, calcular el volumen del
paralelepıpedo 4-dimensional formado por estos vectores.
Solucion. Para calcular el volumen necesitamos calcular el determinante de la matriz A =[v1 v2 v3 v4
]el cual calulamos usando Matlab
>> A = [1 2 − 1 0; 2 1 − 1 2; 3 0 − 2 2; 0 2 2 0]; det(A)
ans =
−12
Por tanto el volumen del paralelepıpedo es | − 12| = 12 unidades cubicas.
El Teorema 5.23 tambien se puede usar para calcular areas de triangulos en R3 como se describe a continuacion.
Sean A, B y C tres puntos no colineales en R3,
Autor: OMAR DARIO SALDARRIAGA 129
1. Sean v1 = A− C y v2 = B − C y sea V = 〈v1, v2〉,
2. Calcular una base para V ⊥, notese que este espacio es 1-dimensional,
3. Sea v =1||w||
w la normalizacion del vector encontrado en el paso 2. entonces
area del trangulo ABC =12|det
([v1 v2 v
])|. (5.14)
Esta igualdad se da ya que el vector v es un vector unitario perpendicular a v1 y v2, entonces ||v|| es la altura
del paralelepıpedo formado por v1, v2 y v3, por tanto tenemos que
|det([v1 v2 v
])| = volumen del paralelepıpedo formado por v1, v2 y v
= area de la base por la altura
= area del paralelogramo formado por v1 y v2 × ||v||︸︷︷︸=1
= area del paralelogramo formado por v1 y v2,
Al multiplicar por 12 ambos lados de esta ecuacion y notando que 1
2 del area del paralelogramo formado por v1
y v2 es el area del triangulo ABC, se obtiene la ecuacion (5.14).
Ejemplo 5.11. Sean A = (−1, 2, 3), B = (4, 3, 4) y C = (−1,−1, 0) en R3, calcular el area del trangulo ABC.
Solucion: Siguiendo los pasos del procedimiento anterior tenemos lo siguiente:
1. Sean v1 = A− C =
−2
3
3
y v2 =
5
4
4
y V = 〈v1, v2〉,
2. Para calcular el complemento ortogonal V ⊥ de V calculamos el espacio nulo de la matriz A =
vt1vt2
=−2 3 3
5 4 4
, cuya forma escalonada reducida es la matriz A′ =
1 0 0
0 1 1
y por tanto:
x
y
z
∈ Nul(A) si y solo si x = 0 y y = −z si y solo si
x
y
z
=
0
1
−1
,
Entonces V ⊥ =
⟨0
1
−1
⟩
.
130
3. Sea v =1√2
0
1
−1
, necesitamo calcular det[v1 v2 v
], el cual calculamos a continuacion usando ex-
pasion en la tercera columna:
det[v1 v2 v
]=
−2 5 0
3 4 1√2
3 4 − 1√2
= − 1√
2det
−2 5
3 4
− 1√2
det
−2 5
3 4
=
2√2
23
Finalmente tenemos que
area del triangulo ABC =12
det[v1 v2 v
]=
12
2√2
23 =1√2
23.
Capıtulo 6
Valores y Vectores Propios
6.1. Polinomio Caracterıstico
Definicion 6.1. Sea A una matriz de tamano n×n, decimos que λ es un valor propio de A si existe un vector
v tal que Av = λv. En este caso decimos que v es un vector propio de valor propio λ.
Si λ es un valor propio de una matriz A y v es un vector propio de valor propio λ entonces se tiene que la
Av = λv = λIv o equivalentemente (A− λI)v = 0. Esto es, v ∈ Nul(A− λI) y por tanto det(A− λI) = 0. Esta
ultima ecuacion produce un polinomio en terminos de λ y es llamado el polinomio caracteristico de A.
Teorema 6.1. Sea A una matriz de tamano n×n, entonces λ es un valor propio si y solo si det(A− λI) = 0.
Demostracion. λ es un valor propio si y solo si existe v 6= 0 tal que Av = λv si y solo si existe v 6= 0 tal que
Av = λIv si y solo si existe v 6= 0 tal que Av − λIv = 0 si y solo si existe v 6= 0 tal que (A− λI)v = 0 si y solo
si A− λI no es invertible si y solo det(A− λI) = 0.
Definicion 6.2. Sea A una matriz de tamano n×n, definimos el polinomio caracteristico pA(λ) de A por
pA(λ) = det(A− λI).
Del teorema anterior se deduce el siguiente procedimiento para calcular los valores y vectores propios de una
matriz A.
Procedimiento 6.1. (Procedimiento para calcular los valores y vectores propios)
1. Calcular el polinomio caracteristico pA(λ) = det(A− λI),
2. Resolver la ecuacion pA(λ) = 0, cuyas raices corresponden a los valores propios.
3. Para cada valor propio λ encontrado en en el paso anterios, calcular una base para Nul(A − λI). Los
vectores en dicha base son vectores propios de valor propio λ.
131
132
Ejemplo 6.1. Sea
4 −5
2 −3
calcular los valores y vectores propios de A.
El polinomio caracteristico de A, esta dado por
pA(λ) = det(A− λI) = det
4− λ −5
2 −3− λ
= λ2 − λ− 2
Ahora resolvemos pA(λ) = (λ− 2)(λ+ 1) = 0 de donde λ = 2 y λ = −1.
Ahora calculamos Nul(A − λI) con λ = 2. Esto es, Nul(A − 2I) = Nul
2 −5
2 −5
, cuya forma escalonada
reducida es
1 −52
0 0
. De esto tenemos quexy
∈ Nul(A− 2I) si y solo si x = 52y si y solo si
xy
=
52y
y
= y
52
1
Entonces v =
52
1
es un vector propio de valor propio λ = 2.
Ahora calculamos Nul(A − λI) con λ = −1. Esto es, Nul(A + I) = Nul
5 −5
2 −2
, cuya forma escalonada
reducida es
1 −1
0 0
. De lo anterior tenemos quexy
∈ Nul(A+ I) si y solo si x = y si y solo si
xy
=
yy
= y
1
1
Entonces v =
1
1
es un vector propio de valor propio λ = −1.
En el ejemplo anterior se puede ver que los vectores propios encontrados son linealmente independientes, esto
no es una casualidad, de hecho vectores propios correspondientes a valores propios distintos son linealmente
independientes.
Teorema 6.2. Sea A una matriz de tamano n×n y sean v1, . . . , vk vectores propios con valores propios
λ1, . . . , λk, respectivamente. Si los λi son diferentes entre si entonces los vectores v1, . . . , vk son linealmente
independientes.
Demostracion. Por induccion sobre k
Para k = 2, supongamos que
α1v1 + α2v2 = 0 (6.1)
multiplicando por A ambos lados obtenemos α1 Av1︸︷︷︸λ1v1
+α2 Av2︸︷︷︸λ2v2
= 0, equivalentemente
α1λ1v1 + α2λ2v2 = 0. (6.2)
Autor: OMAR DARIO SALDARRIAGA 133
Ahora multiplicamos la ecuacion (6.1) por λ1 obtenemos
α1λ1v1 + α2λ1v2 = 0. (6.3)
Restando la Ecuacion (6.3) de la Ecuacion (6.2) tenemos que α2(λ1 − λ2)v2 = 0, como λ1 6= λ2 entonces
λ1−λ2 6= 0 y como v2 6= 0 entonces α2 = 0, reemplazando este valor en la Ecuacion (6.1) tenemos que α1v1 = 0
y como v1 6= 0 entonces α1 = 0 y por tanto v1 y v2 son linealmente independientes.
Supongamos por induccion que k − 1 vectores propios correspondientes a k − 1 valores propios distintos son
linealmente independientes y supongamos que
α1v1 + · · ·+ αkvk = 0, (6.4)
multiplicando por A ambos lados tenemos que α1 Av1︸︷︷︸λ1v1
+ · · ·+ αk Avk︸︷︷︸λkvk
= 0 o equivalentemente
α1λ1v1 + · · ·+ αkλkvk = 0. (6.5)
Ahora, multiplicando a ambos lados de la Ecuacion (6.4) por λk tenemos
α1λkv1 + · · ·+ αkλkvk = 0. (6.6)
Restando la Ecuacion (6.6) de la Ecuacion (6.5)obtenemos
α1(λ1 − λk)v1 + · · ·+ αk−1(λk−1 − λk)vk−1 = 0.
Como v1, . . . , vk−1 son k− 1 vectores propios correspondientes a distintos valores propios entonces por hipotesis
de induccion son linealmente independientes, por tanto
α1(λ1 − λk︸ ︷︷ ︸6=0
) = · · · = αk−1(λk−1 − λk︸ ︷︷ ︸6=0
) = 0
como λ1−λk 6= 0, · · · , λk−1−λk 6= 0 entonces α1 = · · · = αk−1 = 0. Reemplazando estos valores en la Ecuacion
(6.4) obtenemos αkvk = 0 y como vk 6= 0 entonces αk = 0 y por tanto los vectores v1, . . . , vk son linealmente
independientes.
Definicion 6.3. Sea A una matriz de tamano n×n, al conjunto
Eλ = {v : Av = λv}
se le llama el subespacio propio de valor propio λ.
Observacion: Notese que Eλ = Nul(A− λI) y por tanto Eλ es un subespacio de Rn.
Ejemplo 6.2. En el Ejemplo 6.1 tenemos que E2 =⟨ 5
2
1
⟩ y E−1 =⟨1
1
⟩.
134
Ejemplo 6.3. (MatLab) Calcule los valores y vectores propios de la matriz A =
5 6 9
−3 −4 −9
0 0 2
.
Solucion. Calculamos el polinomio caracterıstico con MatLab como sigue
>> A = [5 6 9;−3 − 4 − 9; 0 0 2]; p = poly(sym(A))
p =
x3 − 3 ∗ x2 + 4
para calcular los valores propios podemos factorizar p, lo cual podemos hacer con MatLab como sigue
>> factor(p)
ans =
(x+ 1) ∗ (x− 2)2
De donde tenemos que los valores propios son λ1 = −1 de multiplicidad 1 y λ2 = 2 de multiplicidad 2.
Ahora para cada valor propio calculamos los vectores propios como sigue:
Para λ = −1
>> null(A+ eye(3),′ r′)
ans =−1
1
0
Por tanto el vector v1 =
−1
1
0
es un vector propio de valor propio λ = −1.
Para λ = 2
>> null(A− 2 ∗ eye(3),′ r′)
ans =−2 −3
1 0
0 1
Luego los vectores v2 =
−2
1
0
y v3 =
−3
0
1
son vectores propios de valor propio λ = 2.
Definicion 6.4. Sea A una matriz de tamano n×n y sean λ1, . . . λk los valores propios de A,
1. Decimos que la multiplicidad algebraica de λi, es k si (λ−λi)k es la maxima potencia de λ−λi que divide
a pA(λ). La multiplicidad algebraica de λ sera denotada por aλ.
2. La multiplicidad geometrica de λi esta dada por dimEλi. La multiplicidad geometrica de λ sera denotada
por gλ.
Autor: OMAR DARIO SALDARRIAGA 135
Ejemplo 6.4. En el ejemplo anterior tenemos que a−1 = 1 = g−2 y a2 = 2 = g2.
Ejemplo 6.5. En el Ejemplo 6.1 tenemos que a−1 = g−1 = 1 y a2 = g2 = 1.
Ejemplo 6.6. (MatLab) Calcular los valores y vectores propios de la matriz A =
3 −1 0 0
−1 3 0 0
7 −1 −4 0
7 −1 0 −4
.
Solucion. En MatLab podemos usar un comando diferente al usado en el Ejemplo 6.3 que nos permite calcular
todos los valores y vectores propios con una sola instruccion como sigue.
>> A = [3 − 1 0 0;−1 3 0 0; 7 − 1 − 4 0; 7 − 1 0 − 4]; [V,D] = eig(A)
V =0 0 1/2 1/2
0 0 −1/2 1/2
1 0 1/2 1/2
0 1 1/2 1/2D =
−4 0 0 0
0 −4 0 0
0 0 4 0
0 0 0 2
De aquı tenemos que la matriz tiene vectores propios v1 =
0
0
1
0
y v2 =
0
0
0
1
ambos de valor propio λ = −4,
v3 =
1/2
−1/2
1/2
1/2
de valor propio λ = 4 y v4 =
1/2
1/2
1/2
1/2
de valor propio λ = 2. Notese que en este ejemplo se tiene
que los valores propios tienen multiplicidad geometrica y algebraica iguales. En realidad este este comando nos
da mas informacion acerca de la matriz, ver Ejemplo 6.21.
Hasta ahora solo hemos visto ejemplos donde los valores propios tienen multiplicidad geometrica y algebraica
iguales, pero esto no siempre se cumple, de hecho es posible que la multiplicidad geometrica sea estrictamente
menor que la multiplicidad algebraica, a continuacion damos ejemplos donde se da esto.
Ejemplo 6.7. (MatLab) Calcular los valores propios y sus multiplicidades algebraica y geometrica de la matriz
A =
−3 −2 1
1 −6 1
1 −2 −3
.
136
Solucion. Primero calculamos el polinomio caracterıstico del A.
>> A = [−3 − 2 1; 1 − 6 1; 1 − 2 − 3]; factor(poly(sym(A)))
ans =
(4 + x)3
Es decir λ = −4 es el unico valor propio con multiplicidad algebraica 3, ahora necesitamos el subespacio
propio para calcular la multiplicidad geometrica.
>> null(A− 3 ∗ eye(3),′ r′)
ans =2 −1
1 0
0 1
Por tanto E−4 =
⟨2
1
0
,−1
0
1
⟩
, de esto tenemos que g3 = 2 < 3 = a3.
Ejemplo 6.8. (MatLab) Calcular los valores propios y sus multiplicidades algebraica y geometrica de la matriz
A =
−4 −1 1
0 −5 1
−1 0 −3
.Solucion. Calculamos el polinomio caracterıstico
>> A = [−4 − 1 1; 0 − 5 1;−1 0 − 3]; factor(poly(sym(A)))
ans =
(4 + x)3
Es decir λ = −4 es el unico valor propio con multiplicidad algebraica 3, ahora necesitamos el subespacio
propio para calcular la multiplicidad geometrica.
>> null(A− 3 ∗ eye(3),′ r′)
ans =1
1
1
Por tanto E−4 =
⟨1
1
1
⟩
. Por tanto g3 = 1 < 3 = a3.
Como los valores propios son las raıces de el polinomio caracterıstico, y sabemos que existen polinomios con
coeficientes reales (incluso enteros) y raıces complejas, entonces tambien existen matrices con entradas reales
(enteras) y valores propios complejos, a continuacion damos un ejemplo.
Autor: OMAR DARIO SALDARRIAGA 137
Ejemplo 6.9. (MatLab) Calcular los valores y vectores propios de la matriz A =
−1 −2 2
−2 −1 2
−4 −1 3
.
Solucion. Usamos MatLab para calcular los valores propios
>> A = [−1 − 2 2;−2 − 1 2;−4 − 1 3]; p = poly(sym(A))
x3 − x2 + x− 1
Depues lo factorizamos:
factor(p)
ans =
(x− 1) ∗ (x2 + 1)
De aqui deducimos que los valores propios son λ1 = 1, λ2 = i y λ3 = −i. Ahora calculamos los vectores
propios:
>> v1 = null(c− eye(3),′ r′)
v1 =1/3
2/3
1>> v2 = null(c− i ∗ eye(3),′ r′)
v2 =3/5− 1/5i
3/5− 1/5i
1>> v2 = null(c+ i ∗ eye(3),′ r′)
v3 =3/5 + 1/5i
3/5 + 1/5i
1
Por tanto los vectores propios son v1 =
1/3
2/3
1
, v2 =
3/5− 1/5i
3/5− 1/5i
1
y v3 =
3/5 + 1/5i
3/5 + 1/5i
1
de valores propios
λ1 = 1, λ2 = i y λ3 = −i, respectivamente.
6.2. Matrices Similares
Definicion 6.5. Sean A y B matrices de tamano n×n, decimos que A y B son similares si existe una matriz
invertible C tal que A = CBC−1. Escribiremos A ∼ B para denotar que A y B son similares.
138
Ejemplo 6.10. Las matrices A =
2 1
1 2
y B =
3 0
0 1
son similares, ya que si tomamos C =
1 −1
1 1
entonces tenemos que A = CBC−1.
La siguiente propiedad de matrices similares es importante para lo que sigue.
Teorema 6.3. Sean A y B matrices de tamano n×n, si A y B son similares entonces pA(λ) = pB(λ) y por
tanto A y B tienen los mismos valores propios.
Demostracion. Como A y B son similares, entonces existe una matriz invertible C tal que B = CAC−1,
pB(λ) = det(B − λI) = det(CAC−1 − λI) = det(CAC−1 − λCIC−1)
= det[C(A− λI)C−1
]= det(C) det(A− λI) det(C−1)
= det(C) det(A− λI)1
det(C)= det(A− λI)
= pA(λ).
Definicion 6.6. Sea A una matriz de tamano n×n, decimos que A es diagonalizable si existe una matriz
diagonal D tal que A ∼ D.
Ejemplo 6.11. La matriz A =
2 1
1 2
es diagonalizable ya que en el Ejemplo 6.10 vimos que A es similar a
la matriz diagonal
3 0
0 1
.
El Teorema 6.3 nos permite ver de manera facil que no todas las matrices son diagonalizables, como se
muestra a continuacion.
Ejemplo 6.12. Veamos que la matriz A =
1 1
0 1
no es diagonalizable. Por el absurdo supongamos que existe
una matriz D diagonal tal que A ∼ D, supongamos que D =
a 0
0 b
.
Notese que los valores propios de A son λ = 1 con multiplicidad 2 y los valores propios de D son λ = a y
λ = b. Como A ∼ D, entonces por el Teorema 6.3 A y D tienen los mismos valores valores propios, por tanto
a = b = 1, entonces D = I.
Finalmente, como A ∼ D, existe una matriz invertible C tal que A = CDC−1 por tanto1 1
0 1
= A = C D︸︷︷︸=I
C−1 = CIC−1 = I =
1 0
0 1
De esta igualdad se debe dar que 1 = 0, lo que es absurdo. Concluimos que A no es diagonalizable.
Autor: OMAR DARIO SALDARRIAGA 139
Este ejemplo tambien muestra que el recıproco del Teorema 6.3 no es cierto ya que la matriz A =
1 1
0 1
y
la matriz identidad tienen los mismos valores propios, sin embargo no son similares.
En los ejemplos de la seccion anterior vimos que la multiplicidad geometrica de de los valores propios es
menor o igual a la multiplicidad algebraica, esto es cierto en general.
Teorema 6.4. Sea A una matriz de tamano n×n y sea λ un valor propio de A, entonces gλ ≤ aλ, es decir,
multiplicidad geometrica de λ ≤ multiplicidad algebraıca de λ.
Demostracion. Sea λ′ un valor propio de A, Como λ es un valor propio, entonces existe v 6= 0 tal que Av = λ′v
y por tanto Eλ′ 6= 0.
Supongamos que dimEλ′ = k y sean v2, . . . , vk tal que {v, v2, . . . , vk} es una base para Eλ′ , entonces
Avi = λ′vi para i = 1, . . . , k. Ahora sean wk+1, . . . , wn tal que {v, v2, . . . , vk, wk+1, . . . , wn} es una base para Rn
y sea
S =[v v2 . . . vk wk+1 . . . wn
], como {v, v2, . . . , vk, wk+1, . . . , wn} es una base, entonces S es invertible
y se tiene que
I = S−1S = S−1[v v2 · · · vk wk+1 · · · wn
]=[S−1v S−1v2 · · · S−1vk S−1wk+1 · · · S−1wn
],
de donde S−1v = e1, S−1v2 = e2, . . . , S−1vk = ek.
Ahora definamos B = S−1AS, entonces por el teorema anterior tenemos que pA(λ) = pB(λ) y la matriz B
tiene la siguiente forma:
B = S−1AS = S−1A[v v2 · · · vk wk+1 · · · wn
]= S−1
[Av︸︷︷︸λ′v
Av2︸︷︷︸λ′v2
· · · Avk︸︷︷︸λ′vk
Awk+1 · · · Awn
]= S−1
[λ′v λ′v2 · · · λ′vk Awk+1 · · · Awn
]=
[S−1λ′v︸ ︷︷ ︸λ′S−1v
S−1λ′v2︸ ︷︷ ︸λ′S−1v2
· · · S−1λ′vk︸ ︷︷ ︸λ′S−1vk
S−1Awk+1 · · · S−1Awn
]
=
[λ′ S−1v︸ ︷︷ ︸
e1
λ′ S−1v2︸ ︷︷ ︸e2
· · · λ′ S−1vk︸ ︷︷ ︸ek
S−1Awk+1 · · · S−1Awn
]=[λ′e1 λ′e2 · · · λ′ek S−1Awk+1 · · · S−1Awn
]
140
=
λ′ · · · 0...
. . ....
0 · · · λ′
0 · · · 0...
. . ....
0 · · · 0
R
donde R =[S−1Awk+1 · · · S−1Awn
]. Entonces si escribimos R =
R1
R2
con R1 una matriz k × (n− k)
y R2 es una matriz (n− k)× (n− k), tenemos que
B =
λ′ · · · 0...
. . ....
0 · · · λ′
R1
0 · · · 0...
. . ....
0 · · · 0
R2
por tanto pA(λ) = pB(λ) = det(B − λI) = (−1)k(λ− λ′)k × detR2, de donde
multiplicidad algebraica de λ′ ≥ k = multiplicidad geometrica de λ′.
6.3. Cambio de Base
El objetivo de esta seccion es demostrar que si A ∼ B entonces las matrices estan relacionadas por un cambio
de coordenadas (cambio de base), para llegar a esto debemos definir cambio de coordenadas.
Definicion 6.7. Sean X = {x1, . . . , xn} una base de Rn y v ∈ Rn, sabemos que existen escalares α1, . . . , αn
talque v = α1v1 + · · ·+ αnvn y que esta representacion es unica. Entonces decimos que el vector v en terminos
de la base X esta dado por
vX =
α1
...
αn
.
Ejemplo 6.13. Sea X =
x1 =
1
−1
, x2 =
1
1
. Notese que v =
5
−1
= 3x1 + 2x2, entonces tenemos que
vX =
3
2
.
Autor: OMAR DARIO SALDARRIAGA 141
Definicion 6.8. Sean X = {x1, . . . , xn} y Y = {y1, . . . , yn} bases para Rn, definimos la matriz del cambio de
base (o cambio de coordenadas) de la base X a la base Y como la matriz.
Y IX =[(x1)Y · · · (xn)Y
].
Ejemplo 6.14. Sea E =
e1 =
1
0
, e2 =
0
1
la base estandar de R2 y sea X =
x1 =
1
1
, x2 =
1
−1
entonces la matriz EIX esta dada por
EIX =[(x1)E (x2)E
]=[x1 x2
]=
1 1
1 −1
.Teorema 6.5. Sean X = {x1, . . . , xn} y Y = {y1, . . . , yn} bases para Rn y sea v ∈ Rn, entonces
vY =Y IX · vX .
Demostracion. Como X es una base, entonces existen constantes β1, . . . , βn tal que
v = β1x1 + · · ·+ βnxn (6.7)
entonces vX =
β1
...
βn
, y como Y es una base, para 1 ≤ i ≤ n, existen constantes α1i, . . . , αni tal que
xi = α1iy1 + · · ·+ αniyn, (6.8)
luego (xi)Y =
α1i
...
αni
, por tanto
Y IX =[(x1)Y · · · (xn)Y
]=
α11 · · · α1n
.... . .
...
αn1 · · · αnn
De las Ecuaciones (6.7) y (6.8) tenemos que
v = β1x1 + · · ·+ βnxn
= β1(α11y1 + · · ·+ αn1yn) + · · ·+ βn(α1ny1 + · · ·+ αnnyn)
= (β1α11 + · · ·+ βnα1n)y1 + · · ·+ (β1αn1 + · · ·+ βnαnn)yn
luego
vY =
β1α11 + · · ·+ βnα1n
...
β1αn1 + · · ·+ βnαnn
=
α11 · · · α1n
.... . .
...
αn1 · · · αnn
︸ ︷︷ ︸
Y IX
β1
...
βn
︸ ︷︷ ︸vY
=Y IXvY .
142
Ejemplo 6.15. Consideres las bases X =
x1 =
−1
0
, x2 =
2
1
y Y =
y1 =
3
1
, y2 =
4
1
de R2 y
v = 2x1 + 3x2, expresar a v en terminos de la base Y .
Solucion. Notese que x1 = y1 − y2 y x2 = 2y1 − y2, luego (x1)Y =
1
−1
y (x2)Y =
2
−1
, de donde
Y IX =
1 2
−1 −1
. Ahora, como vX =
2
3
, entonces
vY =Y IXvX =
1 2
−1 −1
2
3
=
8
−5
.Es decir, v = 8y1 − 5y2.
La dificultad que a menudo se encuentra al usar este procedimiento es en el calculo de la matriz de cambio
de base Y IX , la cual, en este ejemplo, fue facil calcular. El siguiente teorema nos dara una forma efectiva de
calcular esta matriz en el caso general.
Teorema 6.6. Sean X = {x1, . . . , xn} y Y = {y1, . . . , yn} bases para Rn y sean A =[x1 · · · xn
]y B =[
y1 · · · yn
]. Entonces Y IX = B−1A.
Demostracion. Expresando los vectores x1, . . . , xn en terminos de la base Y obtenemos:
x1 = α11y1 · · ·+ αn1yn...
xn = α1ny1 · · ·+ αnnyn
. (6.9)
Entonces (x1)Y =
α11
...
αn1
, . . . , (xn)Y =
α1n
...
αnn
y por tanto
Y IX =
α11 · · · α1n
.... . .
...
αn1 · · · αnn
.De la Ecuacion (6.9) tenemos que
x1
...
xn
=
α11 · · · αn1
.... . .
...
α1n · · · αnn
y1...
yn
.Transponiendo, obtenemos
[x1 · · · xn
]︸ ︷︷ ︸
=A
=[y1 · · · yn
]︸ ︷︷ ︸
=B
α11 · · · α1n
.... . .
...
αn1 · · · αnn
︸ ︷︷ ︸
=Y IX
,
Autor: OMAR DARIO SALDARRIAGA 143
por tanto A = B Y IX , multiplicando a ambos lados por B−1 obtenemos
Y IX = B−1A.
De este teorema se sigue un procedimiento para calcular la matriz del cambio de base, el cual damos a contin-
uacion.
Procedimiento 6.2. (Procedimiento para calcular la matriz del cambio de base) Sean X = {x1, . . . , xn}
y Y = {y1, . . . , yn} bases para Rn y sean A =[x1 · · · xn
]y B =
[y1 · · · yn
]entonces
1. Aplicar reduccion Gauss-Jordan a la matriz aumentada[B A
]hasta encontrar su forma escalonda
reducida.
2. Al final del paso 1. obtenemos
[I B−1A︸ ︷︷ ︸
Y IX
]. Luego en la parte derecha de la matriz aumentada se obtiene
la matriz de cambio de base Y IX .
Ejemplo 6.16. Considere las bases X =
x1 =
1
1
, x2 =
1
−1
y Y =
y1 =
2
−1
, y2 =
1
0
de R2,
calcular Y IX y vY si vX =
1
1
.
Al reducir la matriz[y1 y2 x1 x2
]=
2 1 1 1
−1 0 1 −1
obtenemos la matriz 1 0 −1 1
0 1 3 −1
y por tanto Y IX =
−1 1
3 −1
Por el Teorema 6.5 tenemos que vY =Y IX · vX =
0
2
.
Ejemplo 6.17. (MatLab) Considere las bases X =
2
1
1
,
1
2
−2
,
1
−2
3
y Y =
1
2
3
,
1
1
2
,
1
1
1
de R3.
Calcular la matriz de cambio de base Y IX y calcular vY si v = 2x1 − x2 + x3.
Solucion. En MatLab calcular la matriz de cambio de base es simplemente un producto de matrices, ya que
podemos definir A =[x1 x2 x3
]y B =
[y1 y2 y3
]y calcular B−1A, lo cual hacemos como sigue en
MatLab:
>> A = [2 1 1; 1 2 − 2; 1 − 2 3]; B = [1 1 1; 2 1 1; 3 2 1]; yIx = inv(B) ∗A
yIx =
−1 1 −3
1 −5 8
2 5 −4
144
Entonces la matriz de cambio de base esta dada por Y IX =
−1 1 −3
1 −5 8
2 5 −4
. Ahora, para el calculo de vY ,
tenemos que vX =
2
−1
1
y vY =Y IXvX , esto lo hacemos en MatLab como sigue:
>> vx = [2;−1; 1]; vy = yIx ∗ vx
vy =
−6
15
−5Entonces tenemos que v = −6y1 + 15y2 − 5y3.
Las matrices de cambio de base cumplen las siguientes propiedades.
Teorema 6.7. Sean X = {x1, . . . , xn}, Y = {y1, . . . , yn} y Z = {z1, . . . , zn} bases de Rn entonces tenemos que:
1. Y IX = (XIY )−1
2. ZIX =Z IY ·Y IX
Demostracion. 1. Sean A =[x1 · · · xn
], B =
[y1 · · · yn
], por el Teorema 6.6 tenemos que Y IX =
B−1A y XIY = A−1B, por tanto
(XIY )−1 =(A−1B
)−1= B−1A =Y IX .
2. Sea C =[z1 · · · zn
]entonces por el Teorema 6.6 tenemos que Y IX = B−1A, ZIY = C−1B y ZIX =
C−1A, entonces
ZIX = C−1A = C−1BB−1A =Z IY ·Y IX .
6.3.1. La matriz de una transformacion con respecto a dos bases
Definicion 6.9. Sea T : Rn −→ Rm una transformacion lineal y sean X = {x1, . . . , xn} y Y = {y1, . . . , ym}
bases para Rn y Rm, respectivamente. Definimos la matriz de T con respecto a las bases X y Y , denotada por
Y TX como la matriz
Y TX =[T (x1)Y · · · T (xn)Y
].
La matriz de una transformacion es la matriz con respecto a las bases estandar.
Observacion 6.1. Si T : Rn −→ Rm es una transformacion lineal y E = e1, . . . , en y E = e1, . . . , em son las
bases estandar de Rn y Rm, respectivamente, y S es la matriz de T , es decir, la matriz tal que T (x) = Sx, para
todo x ∈ Rn, entonces
S = ETE =[T (e1) . . . T (en)
].
Autor: OMAR DARIO SALDARRIAGA 145
La siguiente es la propiedad mas importante de la matriz con respecto a dos bases.
Teorema 6.8. Sea T : Rn −→ Rm una transformacion lineal, sean X = {x1, . . . , xn} y Y = {y1, . . . , ym} bases
para Rn y Rm, respectivamente y sea v ∈ Rn. Entonces
T (v)Y = Y TXvX .
Demostracion. Como X es una base, entonces existen constantes β1, . . . , βn tal que
v = β1x1 + · · ·+ βnxn (6.10)
entonces vX =
β1
...
βn
, y como Y es una base, para 1 ≤ i ≤ m, existen constantes α1i, . . . , αmi tal que
T (xi) = α1iy1 + · · ·+ αmiym, (6.11)
luego T (xi)Y =
α1i
...
αmi
, por tanto
Y TX =[T (x1)Y · · · T (xn)Y
]=
α11 · · · α1n
.... . .
...
αm1 · · · αmn
De las Ecuaciones (6.10) y (6.11) tenemos que
T (v) = β1T (x1) + · · ·+ βnT (xn)
= β1(α11y1 + · · ·+ αm1yn) + · · ·+ βn(α1ny1 + · · ·+ αmnyn)
= (β1α11 + · · ·+ βnα1n)y1 + · · ·+ (β1αm1 + · · ·+ βnαmn)yn
luego
T (v)Y =
β1α11 + · · ·+ βnα1n
...
β1αn1 + · · ·+ βnαnn
=
α11 · · · α1n
.... . .
...
αm1 · · · αmn
︸ ︷︷ ︸
Y TX
β1
...
βn
︸ ︷︷ ︸vX
=Y TXvX .
De nuevo el problema en este teorema es el calculo de la matriz Y TX , en el siguiente teorema se hara explicito
un procedimiento para calcular dicha matriz.
Teorema 6.9. Sea T : Rn −→ Rm una transformacion lineal, sean X = {x1, . . . , xn} y Y = {y1, . . . , ym} bases
para Rn y Rm, respectivamente y sean A =[x1 . . . xn
]y B =
[y1 . . . yn
], entonces
Y TX = B−1[T (x1) · · · T (xn)
],
146
mas aun
Y TX = B−1 ·E TE ·A.
En palabras el teorema dice que la matriz de T con respecto a las bases X y Y es el producto de las matrices la
inversa de la matriz de Y , la matriz de T y la matriz de X.
Demostracion.
XTY =[T (x1)Y · · · T (xn)Y
]=[Y IET (x1)E · · · Y IET (xn)E
]=[Y IET (x1) · · · Y IET (xn)
]= Y IE
[T (x1) · · · T (xn)
]= B−1
[ETEx1 · · · ETExn
]= B−1
ETE
[x1 · · · xn
]= B−1
ETEA
Este teorema nos da un procedimiento para calcular la matriz de una transformacion T : Rn −→ Rm con
respecto a dos bases X = {x1, . . . , xn} y Y = {y1, . . . , ym}, el cual describimos a continuacion.
Procedimiento 6.3. (Procedimiento para calcular YTX)
1. Calcular T (xi) para i = 1, . . . , n,
2. Aplicar reduccion Gauss-Jordan a la matriz aumentada[y1 · · · yn | T (x1) · · · T (xn)
]=[B T (x1) · · · T (xn)
]=[B ETE ·A
]hasta llevarla a la forma escalonada reducida, donde A =
[x1 · · · xn
]y
B =[y1 · · · yn
],
3. Al final del paso 2. obtenemos
[I B−1 ·E TE ·A︸ ︷︷ ︸
Y TX
].
Ejemplo 6.18. Sea T : R2 −→ R2 la transformacion lineal dada por T
xy
=
2x− y
x+ y
, sean X =x1 =
1
1
, x2 =
1
−1
y Y =
y1 =
2
−1
, y2 =
1
0
bases de R2, calcular Y TX y T (v)Y si vX =
1
1
Primero notese que ETE =
2 −1
1 1
y ası
T (x1) =E TE · x1 =
2 −1
1 1
·1
1
=
1
2
y
Autor: OMAR DARIO SALDARRIAGA 147
T (x2) =E TE · x2 =
2 −1
1 1
· 1
−1
=
3
0
.Entonces necesitamos reducir la matriz[y1 y2 | T (x1) T (x2)
]=
2 1 | 1 3
−1 0 | 2 0
cuya forma escalonada esta dada por
1 0 −2 0
0 1 5 3
, de
donde tenemos
Y TX =
−2 0
5 3
.Finalmente, tenemos que:
T (v)Y =Y TX · vX =
−2 0
5 3
·1
1
=
−2
8
.Ejemplo 6.19. (MatLab) Considere la tranformacion T : R3 −→ R4 definida por
T
x
y
z
=
x+ y + 3z
2x+ y − 2z
x+ 2y + z
−x− y + 2z
y sean X =
x1 =
2
1
1
, x2 =
1
2
−2
, x3 =
1
−2
3
y
Y =
y1 =
1
2
3
4
, y2 =
1
1
2
3
, y3 =
1
1
1
2
, y4 =
1
1
1
1
bases de R3 y R4, respectivamente. Calcular la matriz Y TX
y T (v)Y si v = x1 − x2 + x3.
Solucion. Usamos el Teorema 6.9 que nos dice que Y TX = B−1 ·E TE ·A, con
A = [x1 x2 x3] =
2 1 1
1 2 −2
1 −2 3
, B = [y1 y2 y3 y4] =
1 1 1 1
2 1 1 1
3 2 1 1
4 3 2 1
y ETE =
1 1 3
2 1 −2
1 2 1
−1 −1 2
.
En MatLab solo necesitamos multiplicar las matrices, lo cual hacemos a continuacion.
>> A = [2 1 1; 1 2 − 2; 1 − 2 3]; B = [1 1 1 1; 2 1 1 1; 3 2 1 1; 4 3 2 1];
eTe = [1 1 3; 2 1 − 2; 1 2 1;−1 − 1 2]; yTx = inv(B) ∗ eTe ∗A
yTx =
−3 11 −14
5 −16 20
−8 −5 1
12 7 1
Entonces Y TX =
−3 11 −14
5 −16 20
−8 −5 1
12 7 1
. Finalmente, multiplicamos Y TX por vX =
1
−1
1
, lo que nos da T (v)Y .
148
>> vx = [1;−1; 1]; Tvy = yTx ∗ vx
Tvy =
−28
41
−2
6
Por tanto T (v)Y =
−28
41
−2
6
.En MatLab tambien se puede usar el Procedimiento 6.3 para calcular la matriz Y TX , primero notese que
[T (x1) T (x2) T (x3)] = [ETEx1 ETEx2 ETEx3] =E TE [x1 x2 x3]
=E TEA
, entonces se debe calcular la matriz escalonada reducida de la matriz [B | ETEA]. En MatLab lo calculamos
como sigue:
>> C = [B, eTe ∗A]; rref(C)
ans =1 0 0 0 −3 11 −14
0 1 0 0 5 −16 20
0 0 1 0 −8 −5 1
0 0 0 1 12 7 1Notese que en la respuesta se tiene la matriz identidad en la parte izquierda y en la parte derecha se tiene
Y TX .
Es importante observar que las matrices de una transformacion lineal con respecto a bases diferentes son
similares:
Observacion 6.2. Sea T : Rn −→ Rn una transformacion lineal y sea X = {x1, . . . , xn} una base para Rn.
Entonces las matrices XTX y ETE son similares, ya que por el Teorema 6.9 tenemos que XTX = A−1 ·E TE ·A,
o equivalentemente
ETE = A ·X TX ·A−1
donde A =[x1 · · · xn
].
6.4. Diagonalizacion
En esta seccion se daran condiciones equivalentes a que una matriz sea diagonalizable, comenzamos con el
siguiente resultado.
Autor: OMAR DARIO SALDARRIAGA 149
Teorema 6.10. Sea A una matriz de tamano n×n, entonces A es diagonalizable si y solo si A tiene n vectores
propios linealmente independientes. En este caso A es similar a la matriz diagonal D =
λ1 0 · · · 0
0 λ2 . . . 0...
.... . .
...
0 0 · · · λn
donde λ1, . . . , λn son los valores propios de A y si los correspondientes vectores propios son v1, . . . , vn entonces
A = CDC−1 con C =[v1 · · · vn
].
Demostracion. “ ⇒ ” Supongamos que A es diagonalizable, entonces existe una matriz D diagonal y una
matriz invertible C tal que A = CDC−1. Sean c1, . . . , cn las columnas de C y λ1, . . . , λn las entradas en la
diagonal de D.
Afirmacion: Los vectores c1, . . . , cn son vectores propios de A con valores propios λ1, . . . , λn.
Como A = CDC−1 entonces AC = DC, por tanto
[Ac1 · · · Acn] = A[c1 · · · cn] = AC = DC
=
λ1 · · · 0...
. . ....
0 · · · λn
[c1 · · · cn] = [λ1c1 · · · λncn].
De esta igualdad se sigue que Ac1 = λ1c1, · · · , Acn = λncn, lo que demuestra la afirmacion.
Finalmente, como la matriz C es invertible, entonces sus columnas c1, . . . , cn son linealmente independientes,
por tanto A tiene n vectores propios linealmente independientes.
“⇐ ” Sean v1, . . . , vn vectores propios linealmente independientes de A con valores propios λ1, . . . , λn, respec-
tivamente, es decir, Avi = λivi, para i = 1, . . . , n.
Sea X = {v1, . . . , vn} entonces X es una base para Rn y sea T : Rn 7−→ Rn la transformacion lineal determinada
por A, es decir, T (x) = Ax, para todo x ∈ Rn.
Como T (ei) = Aei = i-esima columna de A, entonces ETE = A. Ahora, sea C =[v1 · · · vn
], entonces por el
Teorema 6.9 tenemos que XTX = C−1ETE︸︷︷︸A
C = C−1AC, por tanto
A = C XTXC−1. (6.12)
Ahora veamos que XTX es una matriz diagonal. Como T (vi) = Avi = λivi = 0v1 + · · · + λivi + · · · + 0vn,
150
entonces T (vi)X =
0...
λi...
0
, por tanto
XTX =[T (v1) T (v2) · · · T (vn)
]=
λ1 0 · · · 0
0 λ2 · · · 0...
.... . .
...
0 0 · · · λn
. (6.13)
De la Ecuacion (6.12) tenemos que A y XTX son similares y de la ecuacion (6.13), XTX es diagonal, por tanto
A es diagonalizable.
Ejemplo 6.20. La matriz A =
4 −5
2 −3
tiene vectores propios v1 =
5
2
y v2 =
1
1
de valores propios 2 y
-1, respectivamente (ver Ejemplo 6.1.)
Si tomamos la base X = {v1, v2} de R2, formada por los valores propios de la matriz A, C =[v1 v2
]la
matriz de vectores propios y D =
2 0
0 −1
, entonces de acuerdo al Teorema 6.10 tenemos que
A = CDC−1.
Esto lo podemos verificar de la siguiente manera. De acuerdo al Teorema 6.9 la matriz XAX de A con respecto
a la base X esta dada por:
XAX = C−1AC =13
1 −1
−2 5
·4 −5
2 −3
·5 1
2 1
=
2 0
0 −1
= D,
de donde C−1AC = D y por tanto
A = CDC−1.
Ejemplo 6.21. En el Ejemplo 6.6 calculamos los valores y vectores propios de la matriz A =
3 −1 0 0
−1 3 0 0
7 −1 −4 0
7 −1 0 −4
y encontramos que los vectores propios son v1 =
0
0
1
0
y v2 =
0
0
0
1
ambos de valor propio λ = −4, v3 =
1/2
−1/2
1/2
1/2
Autor: OMAR DARIO SALDARRIAGA 151
de valor propio λ = 4 y v4 =
1/2
1/2
1/2
1/2
de valor propio λ = 2. Como A tiene cuatro vectores linealmente indepen-
dientes entonces A es diagonalizable y A = CDC−1 con
C =
0 0 1/2 1/2
0 0 −1/2 1/2
1 0 1/2 1/2
0 1 1/2 1/2
y D =
−4 0 0 0
0 −4 0 0
0 0 4 0
0 0 0 2
Corolario 6.11. Si una matriz A de tamano n×n tiene n valores propios distintos, entonces A es diagonalizable.
Ejemplo 6.22. (MatLab) La matriz A =
−2 −2 3
−5 1 3
−6 0 5
tiene tres valores propios diferentes, λ = −1, λ = 3
y λ = 2. Esto lo podemos verificar en MatLab como se muestra a continuacion
>> A = [−2 − 2 3;−5 1 3;−6 0 5]; factor(poly(sym(A)))
ans =
-1
3
2
Por tanto A es diagonalizable, de hecho A es similar a la matriz D =
−1 0 0
0 3 0
0 0 2
.
Teorema 6.12. Sea A una matriz de tamano n×n, entonces A tiene n vectores propios linealmente independi-
entes si y solo si para cada valor propio λ, se tiene que
multiplicidad geometrica de λ = multiplicidad algebraica de λ.
En particular, si todos los valores propios de A son diferentes, todos los vectores propios de A son linealmente
independientes.
Demostracion. Para comenzar la demostracion, supongamos queA tiene k valores propios distintos, λ1, . . . , λk,
con multiplicidades n1, . . . , nk, respectivamente. Es decir, el polinomio caracterıstico de A esta dado por pA(λ) =
(λ− λ1)n1 · · · (λ− λk)nk , con n = n1 + · · ·+ nk.
“⇒”Supongamos que A tiene n vectores propios linealmente independientes, sean v11, . . . , v1m1 , . . . ,
vk1, . . . , vkmkestos vectores con m1 + · · · + mk = n y agrupados de tal forma que v11, . . . , v1m1 tienen valor
propio λ1, v21, . . . , v2m2 tienen valor propio λ2 y, de manera inductiva, vk1, . . . , vkmktienen valor propio λk.
Como para i = 1, . . . , k, multiplicidad geometrica de λi ≤ multiplicidad algebraica de λi, entonces mi ≤ ni,
152
ahora si mi < ni para algun i = 1, . . . , k entonces tenemos que
n = m1 + · · ·+mk < n1 + · · ·+ nk = n,
lo cual es imposible, por tanto para todo i = 1, . . . , k, mi = ni, es decir, para todo i = 1, . . . , k tenemos que
multiplicidad geometrica de λi = multiplicidad algebraica de λi.
“ ⇐”Supongamos que la multiplicidad geometrica de cada valor propio es igual a la multiplicidad algebraica,
entonces dim(Eλj) = nj , para 1 ≤ j ≤ k. Sean {v11, . . . , v1n1}, {v21, . . . , v2n2}, . . . ,
{vk1, . . . , vknk} bases para Eλ1 , Eλ2 , . . . , Eλk
, respectivamente.
Veamos que los vectores v11, . . . , v1n1 , v21, . . . , v2n2 , · · · , vk1, . . . , vknkson linealmente independientes.
Supongamos que
α11v11 + · · ·+ α1n1v1n1 + · · ·+ αk1vk1 + · · ·+ αknkvknk
= 0 (6.14)
y sean v1 = α11v11 + · · ·+ α1n1v1n1 , . . . , vk = αk1vk1 + · · ·+ αknkvknk
, entonces la ecuacion (6.14) se convierte
en
v1 + v2 + · · ·+ vk = 0. (6.15)
Afirmacion: v1 = v2 = · · · = vk = 0
Supongamos que algunos de los vj 6= 0, como vij ∈ Eλipara 1 ≤ i ≤ k entonces tenemos que v1 ∈ Eλ1 ,
v2 ∈ Eλ2 , . . . , vk ∈ Eλk, entonces los vectores de la lista v1, . . . , vk que son no nulos, son vectores propios de
valores propios λ1, . . . , λk, respectivamente. Como los valores propios λ1, . . . , λk son distintos, entonces, por el
Teorema 6.2, los vectores no nulos de la lista v1, . . . , vk son linealmente independientes, pero de la Ecuacion (6.15)
se sigue que estos vectores son linealmente dependientes, lo cual es contradictorio y por tanto v1 = · · · = vk = 0,
y la afirmacion se cumple.
Luego para 1 ≤ j ≤ k tenemos que
0 = vj = αj1vj1 + · · ·+ αjn1vjnj,
pero como los vectores {vj1, . . . , vjnj} son una base para Eλj , entonces son linealmente independientes y por
tanto αj1 = · · · = αjnj= 0. Como esto es para todo j = 1, . . . , k tenemos que
α11 = · · · = α1n1 = · · · = αk1 = · · · = αknk= 0.
Entonces los vectores v11, . . . , v1n1 , v21, . . . , v2n2 , . . . , vk1, . . . , vknkson linealmente independientes y como to-
dos estos son vectores propios de A y n1 + · · · + nk = n, entonces A tiene n vectores propios linealmente
independientes.
Corolario 6.13. Sea A una matriz A de tamano n×n, entonces A es diagonalizable si y solo si para todo valor
propio λ de A se cumple que
multiplicidad geometrica de λ = multiplicidad algebraica de λ.
Autor: OMAR DARIO SALDARRIAGA 153
Demostracion. El corolario se sigue de los Teoremas 6.10 y 6.12.
Ejemplo 6.23. 1. En el Ejemplo 6.6 vimos que la matriz
A =
3 −1 0 0
−1 3 0 0
7 −1 −4 0
7 −1 0 −4
tiene valores propios λ = −4, λ = 4 y λ = 2 y que las multiplicidades
geometricas y algebraicas eran a−4 = g−4 = 2, a4 = g4 = 1 y a2 = g2 = 1, entonces la matriz es
diagonalizable.
2. En el Ejemplo 6.7 vimos que el unico valor propio de la matriz A =
−3 −2 1
1 −6 1
1 −2 −3
es λ = −4 con
multplicidad algebraica a−4 = 3 y geometrica g−4 = 2, entonces por el corolario anterior A no es diago-
nalizable.
3. En el Ejemplo 6.8 vimos que el unico valor propio de la matriz A =
−4 −1 1
0 −5 1
−1 0 −3
es λ = −4 con
multiplicidad algebraica es a−4 = 3 y geometrica g−4 = 1, por tanto A no es diagonalizable.
6.5. Matrices Simetricas y Diagonalizacion Ortogonal
Definicion 6.10. Sea A =
a11 · · · a1n
.... . .
...
am1 · · · amn
de tamano m× n con entradas complejas.
1. Definimos la matriz conjugada de A, denotada por A, como la matriz que se obtiene al conjugar las
entradas de A, estos es
A =
a11 · · · a1n
.... . .
...
am1 · · · amn
2. La transpuesta hermitiana de A, denotada por AH , se define como AH = A
t.
3. Decimos que A es hermitiana si A = AH .
Ejemplo 6.24. Considere la matriz A =
1 1− i
1 + i 2
, notese que A =
1 1− i
1 + i 2
=
1 1 + i
1− i 2
y
AH = At
=
1 1− i
1 + i 2
. Como A = AH entonces A es una matriz hermitiana.
154
Teorema 6.14. Sea A una matriz hermitiana de tamano n×n entonces los valores propios de A son reales.
Esto es, si λ es un valor propio de A entonces λ ∈ R. En particular, si A una matriz simetrica con entradas
reales, entonces sus valores propios son reales y por tanto sus vectores propios son reales.
Demostracion. Como A es hermitiana, entonces A = AH = At
de donde At = A, entonces
λv · v = λvtv = vtλvAv = vtAv = vtAHv = vtAtv = (Av)tv
= (Av)tv = (λv)tv = λvtv = λv · v.
De donde se sigue que (λ− λ)v · v = 0, como v 6= 0 entonces v · v 6= 0. Por tanto λ− λ, es decir λ = λ.
Teorema 6.15. Sea A una matriz hermitiana de tamano n×n y sean x y y vectores propios de valores propios
λ1 y λ2, respectivamente. Si λ1 6= λ2 entonces x · y = 0, es decir, x y y son ortogonales. El teorema tambien se
cumple si A es una matriz simetrica con entradas reales.
Demostracion.
λ1(v1 · v2) = (λ1v1 · v2) = (Av1 · v2) = (Av1)tv2 = (Av1)tv2
= v1t A
t︸︷︷︸AH=A
v2 = v1tAv2 = v1
tλ2v2 = λ2v1tv2 = λ2(v1 · v2).
Luego (λ1 − λ2)v1 · v2 = 0, como λ1 6= λ2 entonces v1 · v2 = 0.
Ejemplo 6.25. Sea A =
2 1
1 2
. Los valores propios de A son λ = 1 y λ = 3 los cuales son numeros reales y
los vectores propios son v1 =
1
−1
y v2 =
1
1
. Notese que v1 · v2 = 0.
Ejemplo 6.26. La matriz simetrica A =
2 −1 −1
−1 2 −1
−1 −1 2
debe tener valores propios reales, usamos MatLab
para calcular la factorizacion de su polinomio caracterıstico:
>> A = [2 − 1 − 1;−1 2 − 1;−1 − 1 2]; factor(poly(sym(A)))
ans =
x ∗ (x− 3)2
Por tanto los valores propios son λ = 0 y λ = 2 de multiplicidad 2.
6.6. Formas Cuadraticas
Definicion 6.11. Una forma cuadratica es una expresion de la forma
n∑i=1
aiix2i +
∑i<j
aijxixj .
Autor: OMAR DARIO SALDARRIAGA 155
Notese que si F =n∑i=1
aiix2i+∑i<j
aijxixj es una forma cuadratica entonces F = xtQx dondeQ =
a11
a122 · · · a1n
2
a122 a22 · · · a2n
2
......
. . ....
a1n
2a2n
2 · · · ann
y x =
x1
...
xn
.
Ejemplo 6.27. La forma caudratica F = 2x2 + 2xy + 2y2 se puede escribir matricialmente como F =[x y
]2 1
1 2
xy
.
Observacion 6.3. Un hecho muy conocido, pero que no sera demostrado en este libro, es que toda matriz
simetrica es diagonalizable, esto hecho lo usaremos en el siguiente teorema.
Teorema 6.16. (Teorema de los ejes principales) Sea F = xtQx un forma cuadratica en n variables con Q una
matriz simetrica. Como Q es diagonalizable existen vectores propios v1, . . . , vn de Q linealmente independientes.
Sean λ1, . . . , λn los respectivos valores propios correspondientes a v1, . . . , vn y sea X = {v1, . . . , vn}, entonces
X es una base de Rn. Entonces bajo la base X, la forma cuadratica tiene la forma:
F = λ1y21 + · · ·+ λny
2n.
Demostracion. Primero veamos que a la base X la podemos tomar ortonormal.
Si los λi son todos distintos, entonces los vectores propios son ortogonales y X es ortogonal, si no lo son,
tomamos v11, . . . , v1k1 , . . . , vs1, . . . , vsksuna reindexacion de los vectores de X de tal manera que v11, . . . , v1k1 son
vectores propios de valor propio λ1,. . . vs1, . . . , vsksvectores propios de valores propios λs. Aplicando Gramm-
Schmidt a cada uno de los conjuntos {v11, . . . , v1k1 , }, . . . ,
{vs1, . . . , vsks} obtenemos vectores w11, . . . , w1k1 , . . . ,ws1, . . . , wsks formando una base ortogonal y redefinimos
X ={
1||w11||
w11, . . . ,1
||w1k1 ||w1k1 , . . . ,
1||ws1||
ws1, . . . ,1
||wsks||wsks
}.
Por tanto X es ortonormal.
Como X es una base de vectores propios entonces
XQX =
λ1 · · · 0...
. . ....
0 · · · λn
. (6.16)
Ademas sabemos que XQX = BQB−1 donde B =[v1 · · · vn
]. Como X es ortonormal, entonces B es una
matriz ortogonal y B−1 = Bt, por tanto
Q = B−1XQXB = BtXQXB (6.17)
156
Definamos y = Bx y sean y1, . . . , yn las componentes de y, entonces de (6.17) tenemos que la forma cuadratica
tiene la forma
F = xtQx = xtBt XQXBx = (Bx)t XQXBx = yt XQXy. (6.18)
Luego de (6.16) y (6.18) tenemos que
F = λ1y21 + · · ·+ λny
2n.
Ademas notese que los ejes de esta forma cuadratica son los vectores de la base X, los cuales son perpendiculares.
Observacion 6.4. Una ecuacion de la forma F = c con F una forma cuadratica y c una constante es una
seccion conica.
El teorema de los ejes principales nos permite identificar la secciones conicas. Sea xtQx = c una conica con
c > 0 constante y sean λ1, . . . , λ2 los valores propios de Q, entonces tenemos lo siguiente:
Si Q es 2x2 y:
1. λ1, λ2 > 0 entonces xtQx = c es una elipse.
2. λ1, λ2 < 0 entonces xtQx = c es vacia.
3. λ1 · λ2 < 0 entonces xtQx = c es una hiperbola.
4. λ1 · λ2 = 0 entonces xtQx = c es una forma degenerada.
En el caso 3x3 tenemos:
1. Si λ1, λ2, λ3 > 0 entonces xtQx = c es un elipsoide.
2. Si λ1, λ2, λ3 < 0 entonces xtQx = c es vacia.
3. Si uno de los λi es positivo y los otros negativos entonces xtQx = c es un hiperboloide de 2 hojas
4. Si uno de los λi es negativo y los otros positivos, entonces xtQx = c es un hiperboloide de una hoja.
5. Si c = 0 y uno de los λi es positivo y los otros negativos o dos positivos y uno negativo entonces xtQx = c
es un cono.
Ahora consideremos la ecuacion z = xtQx con z variable y Q de tamanno 2x2 con valores propios λ1 y λ2.
Entonces tenemos lo siguiente
1. Si λ1 · λ2 > 0 entonces z = xtQx es un paraboloide elıptico.
2. Si λ1 · λ2 < 0 entonces z = xtQx es un paraboloide hiperbolico o silla de montar.
Autor: OMAR DARIO SALDARRIAGA 157
Ejemplo 6.28. La seccion conica 2x2+2xy+2y2 = 4 se puede escribir matricialmente en la forma[x y
]2 1
1 2
xy
=
4.
Los vectores propios de Q =
2 1
1 2
son v1 =
1
−1
y v2 =
1
1
con valores propios 1 y 3, respectivamente.
Entonces con respecto a la base X = {v1, v2} tenemos que la ecuacion de la forma cuadratica esta dada por
x′2 + 3y′2 = 4 cuya ecuacion corresponde a una elipse.
Ahora, si consideramos la ecuacion z = 2x2 + 2xy+ 2y2 entonces con respecto a la base X la ecuacion tiene
la forma z = x′2 + 3y′2 el cual corresponde a un paraboloide elıptico.
Ejemplo 6.29. La seccion conica 4xy = 5 se puede escribir matricialmente en la forma[x y
]0 2
2 0
xy
=
5.
Los vectores propios de Q =
0 2
2 0
son v1 =
1
−1
y v2 =
1
1
con valores propios
-2 y 2, respectivamente. Normalizando estos vectores obtenemos w1 = 1√2v1 y w2 = 1√
2v2, entonces con respecto
a la base X = {w1, w2} tenemos que la ecuacion de la seccion conica esta dada por −2x′2 + 2y′2 = 5 cuya
ecuacion corresponde a una hiperbola abierta en la direccion de y′, es decir, en la direccion de la linea generada
por v2 y con interceptos√
5√2w2 =
√5
2 v2 =
√5/2√
5/2
y −√
5√2w2 =
−√5/2
−√
5/2
.
Ahora, si consideramos la ecuacion z = 4xy entonces con respecto a la base X la ecuacion tiene la forma
z = −2x′2 + 2y′2 la cual corresponde a un paraboloide hiperbolico o silla de montar.
Ejemplo 6.30. (MatLab) Sea Q =
5 −1 −1
−1 5 −1
−1 −1 5
, determinar que tipo de conica corresponde a la ecuacion
xtQx = 5.
Solucion. Usamos MatLab para calcular los valores propios de A,
>> A = [5 − 1 − 1;−1 5 − 1;−1 − 1 5]; eig(A)
ans =6
3
6Por tanto la conica corresponde a un elipsoide. Para calcular los ejes coordenados, calculamos los vectores
propios los cuales son v1 =
1
1
1
con valor propio 3 y v2 =
−1
1
0
y v3 =
−1
0
1
ambos de valor propio 6. Notese
que v2 y v3 no son ortogonales, pero estos forman una base para el subespacio propio E6, entonces usando
Gramm-Schmidt, reemplazamos v3 por w3 = v3−proyv2v3 =
−1/2
−1/2
1
. Obtenemos que los ejes coordenados bajo
158
los cuales la grafica de xtQx = 5 es un elipsoide son las lineas determinadas por los vectores:
v1 =
1
1
1
, v2 =
−1
1
0
y w3 =
−1/2
−1/2
1
.
Ejemplo 6.31. Sea Q =
−1 5 −1
5 −1 −1
−1 −1 5
, determinar que tipo de conica corresponde a la ecuacion xtQx = 5.
Solucion. Se puede ver que los valores propios de Q son λ = 3, 6 y −6. Por tanto la conica corresponde a un
hiperboloide de una hoja.
Es facil ver que los vectores propios de Q son v1 =
1
1
1
con valor propio 3, v2 =
−1/2
−1/2
1
de valor propio
6 y v3 =
−1
1
0
de valor propio -6. De donde se sigue que la ecuacion de esta conica con respecto a la base
{v1, v2, v3} es 3x′2 + 6y′2 − 6z′2 = 5, la cual corresponde a un hiperboloide de una hoja cuyo eje central es la
linea generada por el vector v3.
Ejemplo 6.32. Determine el tipo de conica determinada por la cuadratica 2xy + 2xz + 2yz = 5.
Solucion. La matriz de la forma cuadratica es Q =
0 1 1
1 0 1
1 1 0
cuyos vectores propios ortogonales son v1 =
−1
1
0
y v2 =
−1/2
−1/2
1
ambos de valor propio -1 y v3 =
1
1
1
de valor propio 2. Por tanto la ecuacion de esta
conica con respecto a la base {v1, v2, v3} es −x′2 − y′2 + 2z′2 = 5 cuya grafica corresponde a un paraboloide de
dos hojas cuyo eje central es la linea generada por el vector v3.
6.7. Ejercicios
1. Encuentre los valores, vectores y subespacios propios de la matriz y determine si es diagonalizable.
a. A =
−2 −2
−5 1
, b. B =
2 −1
5 −2
, c. C =
−3 2
0 −3
,
d. D =
5 4 2
4 5 2
2 2 2
e. E =
0 1 0
0 0 1
1 −3 3
Autor: OMAR DARIO SALDARRIAGA 159
2. Para cada una de las matrices diagonalizables del problema anterior escriba la matriz en la forma MDM−1
con D diagonal.
3. Demuestre que A y At tienen los mismos valores propios.
En los problemas 4-8 λ1, λ2, . . . , λn son los valores propios de una matriz A.
4. Demuestre que los valores propios de αA son αλ1, αλ2, . . . , αλn.
5. Demuestre que |A| = λ1 · λ2 · · ·λn.
6. Demuestre que los valores propios de A− αI son λ1 − α, λ2 − α, . . . , λn − α.
7. Demuestre que los valores propios de Am son λm1 , λm2 , . . . , λ
mn .
8. Sean v es un vector propio de A con valor propio λ, f(λ) = a0 + a1λ + · · · + akλk un polinomio y f(A) =
a0I + a1A + · · · + akAk, entonces f(A)v = f(λ)v. Use el resultado para demostrar que los valores propios de
f(A) son f(λ1), f(λ2), . . . , f(λn).
9. Sea A una matriz y sea pA(λ) el polinomio caraterıstico de A, demuestre que pA(A) = 0, donde pA(A) es la
matriz definida como en el problema anterior.
10. Sea A una matriz n×n con entradas reales y sea v ∈ Cn un vector propio de A de valor propio λ, demuestre
que v es un vector propio de A de valor propio λ.
11. Verifique el problema 7. si A =
−2 −2
−5 1
(del problema 1.a.) y f(λ) = 1− 2λ+ 3λ3.
12. Determine cual de las siguientes 3 matrices es diagonalizable
a. A =
3 0 0
0 3 0
0 0 3
b. B =
3 1 0
0 3 0
0 0 3
c. C =
3 1 0
0 3 1
0 0 3
13. Demuestre que si B es invertible entonces AB y BA son similares.
160
14. Encuentre una matriz ortogonal Q y una matriz diagonal D tal que A = QDQt si:
a. A =
3 4
4 −3
b. A =
3 2
2 3
c. A =
3 1 0
1 3 0
0 0 2
d. A =
1 3 0
3 1 0
0 0 1
15. Para cada una de las matrices del problema anterior identifique el tipo de conica representada por la forma
cuadratica xtAx = 4 y bosquejar su grafica.
16. Para las matrices dadas en los problemas 12.a y 12.b. identifique el tipo de superficie que que representa la
ecuacion z = xtAx con z variable.
15. Para cada una de las matrices del problema 12 encuentre una base X de vectores propios y encuentre la
matriz XAX .
17. Sean X =
x1 =
1
−1
0
, x2 =
0
1
−1
, x3 =
−1
0
2
y
Y =
y1 =
1
1
0
, y2 =
0
1
1
, y3 =
1
0
1
bases de R3. Encuentre las matrices de cambio de base Y IX y XIY .
18. Sea T : R3 −→ R2 la transformacion lineal cuya matriz ETE esta dada por
ETE =
−1 1 1
0 2 −1
. Calcular la matriz ZTX de T con respecto a las bases
X =
x1 =
1
−1
0
, x2 =
0
1
−1
, x3 =
−1
0
2
de R3 y Z =
z1 =
1
−1
, z2 =
0
1
de R2.
19. Sea T : R3 −→ R3 la transformacion lineal cuya matriz ETE esta dada por
ETE =
−1 1 0
0 2 −1
1 0 −1
. Calcular la matriz XTX de T con respecto a la base
X =
x1 =
1
−1
0
, x2 =
0
1
−1
, x3 =
−1
0
2
de R3.
Mas Problemas.
Autor: OMAR DARIO SALDARRIAGA 161
20. Sea X =
x1 =
1
−1
0
, x2 =
0
1
−1
, x3 =
−1
0
2
una base de R3, encontrar una base Y = {y1, y2, y3}
tal que XIY =
1 0 1
1 1 0
0 1 1
.
21. Repetir el problema anterior si en lugar de XIY se nos da Y IX =
1 0 1
1 1 0
0 1 1
.
22. Sea T : R3 −→ R2 una transformacion lineal y sea Z =
z1 =
1
−1
, z2 =
0
1
una base para R2 y
X =
x1 =
1
−1
0
, x2 =
0
1
−1
, x3 =
−1
0
2
una base para R3. Si ZTX =
−1 1 1
0 2 −1
, calcular la matriz
ETE .
23. Sea T : R2 −→ R2 la transformacion lineal definida por T
xy
=
x+ 2y
2x+ y
y sea Y =
y1 =
1
−1
, y2 =
0
1
una base de R2. Calcular la base X tal que Y TX =
−1 1
0 2
.
24. Sea T : R2 −→ R2 tal que ETE =
2 1
1 1
. Demuestre que no existe una base X tal que XTX =
1 1
0 1
.