algebra lineal. curso 2019-2020 (parte) · 2019. 9. 10. · algebra lineal. curso 2019-2020 (parte)...

71
´ Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim´ on Pinero

Upload: others

Post on 30-Aug-2020

7 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

Algebra Lineal.

Curso 2019-2020 (Parte)

Juan Jacobo Simon Pinero

Page 2: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

2

Page 3: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

Indice general

1. Introduccion 51.1. Numeros complejos . . . . . . . . . . . . . . . . . . . . . . . . . . 51.2. Estructuras algebraicas . . . . . . . . . . . . . . . . . . . . . . . 8

2. Matrices y sistemas 112.1. Sistemas de ecuaciones . . . . . . . . . . . . . . . . . . . . . . . . 112.2. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

2.2.1. Operaciones aritmeticas . . . . . . . . . . . . . . . . . . . 152.2.2. Submatrices y matrices en bloques . . . . . . . . . . . . . 17

2.3. Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . 222.3.1. Clasificacion . . . . . . . . . . . . . . . . . . . . . . . . . 23

2.4. El metodo de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . 242.4.1. Operaciones elementales y ecuaciones vectoriales. . . . . . 252.4.2. Aplicaciones de la reduccion en la aritmetica de matrices 32

3. Espacios vectoriales 353.1. Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 383.2. Combinaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . 40

3.2.1. Combinaciones lineales y matrices . . . . . . . . . . . . . 413.3. Dependencia e independencia lineal . . . . . . . . . . . . . . . . . 43

3.3.1. Dependencia lineal y matrices . . . . . . . . . . . . . . . . 443.4. Conjuntos generadores . . . . . . . . . . . . . . . . . . . . . . . . 46

3.4.1. Conjuntos generadores y matrices . . . . . . . . . . . . . . 473.5. Bases y dimension . . . . . . . . . . . . . . . . . . . . . . . . . . 50

3.5.1. Sistemas de coordenadas y matrices . . . . . . . . . . . . 533.6. Teorema de Steinitz y dimension . . . . . . . . . . . . . . . . . . 563.7. El rango de una matriz . . . . . . . . . . . . . . . . . . . . . . . . 573.8. Matrices y construcciones de bases . . . . . . . . . . . . . . . . . 583.9. Suma e interseccion finitas de subespacios . . . . . . . . . . . . . 623.10. Espacio cociente . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

4. Dimension y rango 674.1. Repaso de preliminares . . . . . . . . . . . . . . . . . . . . . . . . 674.2. Teorema de Rouche-Frobenius . . . . . . . . . . . . . . . . . . . . 68

3

Page 4: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

4 INDICE GENERAL

4.3. Aplicaciones y propiedades del rango . . . . . . . . . . . . . . . . 69

Page 5: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

Capıtulo 1

Introduccion

Como siempre, denotaremos con N el conjunto de los numeros naturales, con Z,el de los enteros, Q los racionales, R los reales y C los complejos.

Historicamente, la aparicion y el manejo de los distintos conjuntos numericosestuvo asociada con la resolucion de ecuaciones, los problemas de geometrıa ylos de astronomıa.

Como es natural al pensamiento cientıfico, la irrupcion de las ecuaciones enla historia comenzo con aquellas que formamos a partir de los polinomios deprimer, grado es decir, las ecuaciones de la forma ax + b = 0 donde a, b ∈ Z,que dieron lugar a la consideracion de los numeros racionales, mientras que lasque provienen de los de segundo grado ax2 + bx+ c = 0 con coeficientes enterosestan relacionado con la aparicion de los numeros reales y complejos.

Por parte de los geometras, se tiene el famoso argumento de Pitagoras (sigloVI antes de Cristo) sobre el hecho de que

√2 no es racional.

Recordemos dos resultados fundamentales mas.

Teorema 1.1 (Teorema Fundamental del Algebra). Todo polinomio con coefi-cientes complejos de grado n tiene exactamente n-raıces complejas (salvo mul-tiplicidad).

Observacion 1.2. Si∑ni=0 aix

i es un polinomio con coeficientes enteros y αes una raız entera del polinomio entonces α|a0.

1.1. Numeros complejos

Se puede consultar el libro de M. A. Goberna y otros, Capıtulo 6.Definimos los numeros complejos como el conjunto

C ={a+ bı a, b ∈ R, ı2 = −1

}junto con las operaciones:

1. Suma. (a+ bı) + (c+ dı) = (a+ b) + (c+ d) ı

5

Page 6: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

6 CAPITULO 1. INTRODUCCION

2. Producto. (a+ bı) · (c+ dı) = (ac− bd) + (ad+ bc) ı.

Estas operaciones se puede comprobar que son asociativas, y que ademas, elproducto distribuye a la suma.

1. El neutro bajo la suma es 0 = 0 + 0ı.

2. El opuesto de a+ bı (o inverso bajo la suma) es −a− bı.

3. El neutro bajo producto es 1 = 1 + 0ı.

4. El inverso de a+ bı (bajo producto) es aa2+b2 +

(−b

a2+b2

)ı.

1.3. Conjugado. El conjugado de un numero complejo z = a + bı ∈ C esz = a− bı y tiene, entre otras, las siguientes propiedades. Sean z, w ∈ C.

1. z = z.

2. z + w = z + w.

3. zw = z w.

4. Si z 6= 0 entonces z−1 = z−1.

5. z ∈ R si y solo si z = z.

Demostracion. Se deja como ejercicio.

Definicion 1.4. Sea z = a+ bı ∈ C.

1. Al coeficiente “a” se le llama la parte real, Re(a + bı), y a “b” la parteimaginaria, Im(a+ bı).

2. Su modulo es |z| = |a+ bı| =√a2 + b2.

3. Su argumento es el (unico, salvo multiplos de 2π) angulo θ que verifica

cos(θ) =a

|z|y sen(θ) =

b

|z|;

es decir, Arg(z) = θ = arctan(ba

)(estableciendo, como siempre, primero

el cuadrante).

1.5. Propiedades. Sean z, w ∈ C.

1. |z| =√z · z (equivalentemente, |z|2 = zz).

2. |z| = |z|.

3. |zw| = |z||w|.

4.∣∣z−1∣∣ = |z|−1.

Page 7: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

1.1. NUMEROS COMPLEJOS 7

5. |Re(z)| ≤ |z|.

6. |z + w| ≤ |z|+ |w| (desigualdad triangular).

Demostracion. Solo de (6). Notese primero que zw y zw son conjugados y porlo tanto zw+zw = 2Re(zw). Usando lo anterior y el apartado anterior, tenemos|z + w|2 = (z + w)(z + w) = zz + ww + zw + zw = |z|2 + |w|2 + 2Re(zw) ≤|z|2 + |w|2 + 2|zw| = (|z|+ |w|)2.

Formas polar y trigonometrica.

Notacion 1.6. Sea z = a + bı ∈ C, con modulo r =√a2 + b2 y argumento

θ = arctan(ba

)(como siempre, estableciendo previamente el cuadrante).

1. La representacion polar de z es

z 7−→ (r, θ).

R

R 6

-p p p p p p p p

-

-

-

-

-

-

r (r, θ)•

������3

.

....................................θ

2. La representacion triginometrica de z es

z 7−→ r(cos θ + ı sen θ).

R

R 6

-p p p p p p p p

-

-

-

-

-

-

r

r cos(θ)

r sen(θ) (r cos(θ), r sen(θ))•

������3

.

....................................θ p

pppp

Page 8: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

8 CAPITULO 1. INTRODUCCION

1.7. Producto. Sean z = (r, θ) y w = (s, σ). Entonces

zw = (rs, θ + σ) = rs(cos(θ + σ) + ı sen(θ + σ)).

La forma trigonometrica se obtiene sin mas, ejecutando el producto y utili-zando las identidades trigonometricas fundamentales. En particular, si z ∈ C esz = r(cos θ + ı sen θ)

z−1 =1

r(cos(−θ) + ı sen(−θ)) =

1

r(cos θ − ı sen θ)

como corresponde con las formulas de la definicion del producto. Aun mas, sepuede probar por induccion el siguiente resultado clasico de De Moivre1.

Teorema 1.8 (Teorema de De Moivre). Sea z ∈ C, con |z| = r y Arg(z) = θ.Para n ∈ N se tiene

zn = (rn, nθ) = rn(cos(nθ) + ı sen(nθ)).

1.2. Estructuras algebraicas

Definicion 1.9 (Grupo abeliano). Un grupo abeliano (aditivo) esta formadopor una pareja (A,+), donde A es un conjunto no vacıo y + : A × A → A esuna aplicacion (que llamamos operacion binaria o ley de composicion interna ydenotamos + (a, b) = a+ b); que satisfacen los siguientes axiomas:

1. “+” es asociativa; es decir, para cualesquiera elementos a, b, c ∈ A se tienea+ (b+ c) = (a+ b) + c.

2. Existe el (unico) neutro que solemos escribir 0 ∈ A tal que 0+a = a+0 =a, para todo a ∈ A.

3. Opuesto (inverso). Para todo a ∈ A existe un (unico) elemento que sole-mos escribir −a ∈ A tal que a+ (−a) = (−a) + a = 0.

4. Finalmente, cumple la conmutatividad; es decir a + b = b + a para todoa, b ∈ A.

Ejemplos 1. 1. Cualquiera de los conjuntos numericos que conocemos, Z, Q, R, Cjunto con la suma.

2. Cualquiera de Q \ {0}, R \ {0}, C \ {0} junto con el producto.

3. El conjunto R[X], de los polinomios, con la suma habitual.

4. El conjunto de puntos en el plano cartesiano R2, junto con la suma habi-tual

(x1, x2) + (y1, y2) = (x1 + y1, x2 + y2) .1Abraham de Moivre nacio el 26 de mayo de 1667 en Vitry-le-Francois, Champagne, Francia

y murio el 27 de noviembre de 1754 en Londres. Ademas del resultado mencionado hizoimportantes aportaciones en geometrıa analıtica y teorıa de la probabilidad.

Page 9: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

1.2. ESTRUCTURAS ALGEBRAICAS 9

5. El conjunto de las matrices 2× 2

M2(R) =

{(a11 a12a21 a22

)| aij ∈ R

}junto con la suma habitual, entrada a entrada(

a11 a12a21 a22

)+

(b11 b12b21 b22

)=

(a11 + b11 a12 + b12a21 + b21 a22 + b22

)

6. El cuerpo binario, Z2 = {0, 1}, junto con la siguiente tabla de sumar

+ 0 1

0 0 11 1 0

7. El cuerpo ternario, Z3 = {0, 1, 2}, junto con la siguiente tabla de sumar

+ 0 1 2

0 0 1 21 1 2 02 2 0 1

Definicion 1.10 (Anillo). Un anillo esta formado por tres ingredientes (A,+, ·),donde A es un conjunto no vacıo, + : A × A → A es una aplicacion (suma)y · : A × A → A es una aplicacion (producto); que satisfacen los siguientesaxiomas:

1. (A,+) es grupo abeliano.

2. “·” es asociativa; es decir, para cualesquiera elementos a, b, c ∈ A se tienea · (b · c) = (a · b) · c

3. “·” distribuye a “+”; es decir, para cualesquiera elementos a, b, c ∈ A setiene a · (b+ c) = (a · b) + (a · c)

4. Existe el (unico) neutro para · que solemos escribir 1 ∈ A tal que 1 · a =a · 1 = a, para todo a ∈ A.

5. Si ademas cumple:

Conmutatividad. a · b = b · a para todo a, b ∈ A decimos que es anilloconmutativo.

Ejemplos 2. 1. El conjunto de las matrices 2× 2

M2(R) =

{(a11 a12a21 a22

)| aij ∈ R

}

Page 10: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

10 CAPITULO 1. INTRODUCCION

junto con la suma descrita antes y el producto habitual(a11 a12a21 a22

)·(b11 b12b21 b22

)=

(a11b11 + a12b21 a11b12 + a12b22a21b11 + a22b21 a21b12 + a22b22

)es un anillo, pero no es un anillo conmutativo, ya que, por ejemplo,(

0 10 0

)·(

0 11 0

)=

(1 00 0

)6=(

0 00 1

)=

(0 11 0

)·(

0 10 0

)2. Cualquiera de los conjuntos numericos que conocemos, Q, R, C junto con

la suma y el producto habituales.

3. El conjunto R[X], de los polinomios, con la suma y producto habituales.

4. El cuerpo binario, Z2 = {0, 1}, junto con la tabla de suma anterior lasiguiente tabla de multiplicar

· 0 1

0 0 01 0 1

5. El cuerpo ternario, Z3 = {0, 1, 2}, junto con la tabla de suma anterior lasiguiente tabla de multiplicar

· 0 1 2

0 0 0 01 0 1 22 0 2 1

Definicion 1.11 (Cuerpo). Un cuerpo es un anillo conmutativo (A,+, ·) queverifica el axioma adicional en el producto,

6. Todo elemento 0 6= a ∈ A tiene inverso bajo producto.

En otras palabras, tanto (A,+) como (A \ {0}, ·) son grupos abelianos y elproducto distribuye a la suma.

Ejemplos 3. Todos los conjuntos Q, R, C, Z2, Z3.

Page 11: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

Capıtulo 2

Matrices y sistemas

Hace unos 4000 anos los babilonios sabıan resolver sistemas de ecuaciones deorden 2× 2. En el famoso libro chino Nueve capıtulos del arte de las matemati-cas1, alrededor del ano 200 AC los chinos resuelven sistemas de orden 3 × 3trabajando solamente con los coeficientes del sistema. Ninguno de ellos estable-ce un sistema abstracto y general; sin embargo, estos fueron los prototipos nomuy lejanos de los metodos de eliminacion que introdujo Gauss 2000 anos mastarde [10, Chapter 5].

2.1. Sistemas de ecuaciones

Definicion 2.1. Un sistema de ecuaciones es una lista

a11x1 + · · ·+ a1nxn = b1. . .

am1x1 + · · ·+ amnxn = bm

en la cual, a los numeros aij se les llama “coeficientes”; a los sımbolos xi,incognitas, y a los numeros bi, constantes.

Definicion 2.2. Un sistema homogeneo es aquel donde ocurre que bi = 0, ∀i;es decir,

a11x1 + · · ·+ a1nxn = 0. . .

am1x1 + · · ·+ amnxn = 01El libro Jiuzhang suanshu o Nueve capıtulos del arte de las matematicas es un libro

de problemas practicos, en general resueltos, con el fin didactico de mostrar los metodosmatematicos de la epoca y sus aplicaciones. Tiene, como su nombre lo indica, nueve capıtulosque abarcan las aplicaciones de la geometrıa, el calculo y el algebra. Precisamente el Capıtulo8, llamado “Calculos con tablas cuadradas” tiene 18 problemas cuya solucion involucra elestudio de los sistemas de ecuaciones.

En la historia de la matematica china, este libro serıa el equivalente a Los Elementosde Euclides para la matematica occidental, y al libro Dimensions in Mathematics de L. C.Pernault, para los lectores de novela contemporanea.

11

Page 12: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

12 CAPITULO 2. MATRICES Y SISTEMAS

La idea es crear una aritmetica con los coeficientes de tal manera que po-damos encontrar soluciones operando con ellos. Mas adelante definiremos for-malmente el concepto de espacio vectorial; sin embargo, ya que la tenemos,echaremos mano de una definicion intuitiva conocida de “vector” como sistemade coordenadas; es decir, de la forma v = (v1, . . . , vn) para los vectores fila.

Definicion 2.3. Dado un sistema de ecuaciones como en la Definicion 2.1, laecuacion vectorial esta formada por

A =

a11 . . . a1n. . .

am1 . . . amn

matriz de coeficientes

X =

x1...xn

vector (columna) incognita

B =

b1...bn

vector (columna) constante

y la escribimos AX = B.Al igual que para los sistemas de ecuaciones, la ecuacion vectorial homogenea

sera de la forma AX = 0, donde 0 denota al vector cuyas entradas son todas 0.

Ahora habra que dotarla de las operaciones correctas de tal manera que seaequivalente con el concepto de sistema de ecuaciones.

Observacion 2.4. Aspiramos al siguiente resultado. Dado un sistema de ecua-ciones

a11x1 + · · ·+ a1nxn = b1. . .

am1x1 + · · ·+ amnxn = bm

y la ecuacion vectorial AX = B como antes, se tiene que α1, . . . , αn es solu-

cion del sistema si y solo si el vector α =

α1

...αn

es solucion de la ecuacion

vectorial.

Vamos primero a establecer la forma fundamental que tienen las solucionesde un sistema de ecuaciones.

Teorema 2.5. Con el producto de matriz por vector habitual, si un sistema deecuaciones AX = B tiene solucion, esta ha de ser de la forma

X = X0 + Y

donde X0 es una solucion particular de AX = B e Y es solucion de la ecuacionhomogenea AY = 0.

Page 13: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

2.2. MATRICES 13

Demostracion. Sabemos que en el producto de matriz por vector habitual setiene la distributividad, luego A(X0 + Y ) = AX0 = B

2.6. Problema. Queremos resolver las ecuaciones vectoriales despejando X =BA , y aquı surge el primer problema ¿que es B

A?

2.2. Matrices

Ya hemos comentado que la idea de arreglos rectangulares de numeros pararesolver sistemas de ecuaciones tiene mas de 2000 anos de antiguedad y de hechofue usada por Gauss para la tecnica de eliminacion. La teorıa moderna formalde matrices tiene sus orıgenes en los trabajos de los matematicos James JosephSilvester 2 y A. Cayley3 durante el siglo XIX.

Definicion 2.7 (Matriz). Sea K un cuerpo y m,n ∈ N. Una matriz de ordenm×n (en este orden) es una arreglo bidimensional de elementos de K dispuestosen filas de m, y columnas de n elementos; es decir,a11 a12 . . . a1n

. . .am1 am2 . . . amn

A los elementos aij los llamaremos las entradas de la matriz y diremos que

dos matrices son iguales si lo son entrada a entrada.

Notacion 2.8. Denotamos con Mm×n (K) al conjunto de las matrices.Los elementos A ∈ Mm×n (K) se suelen escribir en forma abreviada como

Am×n, o bien A = (aij)m×n con aij ∈ K o satisfaciendo alguna propiedad.Para referirnos a las columnas o a las filas de una matriz Am×n podemos

escribir,

A =

A1 . . . An

o bien

− A1 −...

− Am −

,

respectivamente.2James Joseph (Londres, 1814-1897) era su nombre original, al que despues agrego Syl-

vester, por razones legales y sociales, al ser judıo. Discıpulo de De Morgan, se graduo porel Trinity College. Tambien hizo la carrera de Derecho, donde conocio a A. Cayley y con elcompartio el estudio de la teorıa de matrices. Fue el segundo presidente de la Sociedad Ma-tematica de Londres y tambien fue miembro de la Acedemia de Ciencias de Parıs. Ademasde su importante contribucion matematica, publico un libro de peomas titulado The Laws ofVerse.

3Arthur Cayley (Richmont, 1821, Cambridge, 1895) fue un estudiante particularmentedestacado en su juventud, ganando premios y honores. Tambien se graduo en Derecho y trabajocon Sylvester en la corte de Lincoln’s Inn durante casi 15 anos, alternando con brillantesresultados de investigacion en matematicas. Finalmente, en 1863, Cayley ingreso como profesoren Cambridge. El introdujo el uso formal y sistematico de las matrices en el estudio de lasecuaciones, las aplicaciones lineales, los operadores, ademas de definir, entre otros, el polinomiocaracterıstico, que estudiaremos mas adelante.

Page 14: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

14 CAPITULO 2. MATRICES Y SISTEMAS

Observacion 2.9. Por definicion, dos matrices con entradas en un cuerpo K,digamos A = (aij)m×n y B = (bij)m′×n′ seran iguales si y solo si se cumple:

1. m = m′ y n = n′.

2. aij = bij para todo i = 1, . . . ,m y j = 1, . . . , n.

Ejemplos 4. 1. A =

(0 1 23 4 5

)es una matriz de orden 2× 3 con entradas

en Z o bien en C, si se quiere.

2. A =

0 ı π3 4 5

231√

2 5

es una matriz de orden 3× 3 con entradas en C.

3. A =(0√

2 5)

es una matriz de orden 1×3 con entradas en R. Tambienla llamamos vector (fila) y en ese caso seperamos sus entradas por “,”.

4. A =

π55

es una matriz de orden 3 × 1 con entradas en R. Tambien la

llamamos vector (columna).

Algunas otras matrices especiales por la distribucion de sus elementos o porla forma son:

2.10. Matrices cuadradas 1. Diremos que una matriz Am×n es cuadradade orden m, si verifica que m = n, y podemos solo escribir Am.

2. Diremos que una matriz cuadrada A = (aij)m es triangular superior siaij = 0 para i > j.

3. Diremos que una matriz cuadrada A = (aij)m es triangular inferior siaij = 0 para i < j.

4. Diremos que una matriz cuadrada A = (aij)m es diagonal si aij = 0 parai 6= j.

5. Diremos que una matriz diagonal A = (aij)m es constante o escalar c, siaii = c ∈ K con i = 1, . . . ,m (y al ser diagonal aij = 0 para i 6= j).

6. Llamamos matriz identidad de orden m a la matriz diagonal de la forma

Im =

1 0 . . . 0

. . .

. . .

0 . . . 0 1 0 . . . 0

. . .

. . .

0 . . . 0 1

Page 15: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

2.2. MATRICES 15

Tambien la podemos describir como A = (aij)m tal que aij = 1 si i = j yaij = 0 en otro caso.

Ejemplos 5. 1. La matriz A =

0 0 11 1 00 0 0

es una matriz cuadrada.

2. La matriz A =

3 0 12 1 05 0 0

es triangular superior.

3. La matriz A =

0 0 00 1 00 2 5

es triangular inferior.

4. La matriz A =

3 0 00 1 00 0 0

es diagonal.

5. La matriz A =

3 0 00 3 00 0 3

es escalar.

2.2.1. Operaciones aritmeticas

Las operaciones aritmeticas de matrices es un tema conocido; vamos a repa-sarlo.

2.11. Suma de matrices. Sea K un cuerpo y A,B ∈ Mm×n(K) que escri-bimos A = (aij)m×n y B = (bij)m×n. La suma de las matrices A y B, quedenotamos A+B se define como

A+B = (cij)m×n tal que cij = aij + bij .

Ejemplos 6. 1. Sean A =

(1 −1 32 8 −5

)y B =

(2 0 70 1 2

). Entonces

A+B =

(3 −1 102 9 −3

)

2. Las matrices A =

(1 −1 32 8 −5

)y B =

(2 00 1

)no se pueden sumar.

Proposicion 2.12. Sea K un cuerpo. El conjunto Mm×n(K), junto con lasuma definida tiene estructura de grupo abeliano.

Demostracion. Es inmediato verificarlo. Notese que el neutro es la matriz 0 =(aij)m×n tal que aij = 0 para todo i = 1, . . . ,m y j = 1, . . . , n, mientras quepara una matriz A = (aij)m×n su opuesto es la matriz −A = (bij)m×n tal quebij = −aij .

Page 16: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

16 CAPITULO 2. MATRICES Y SISTEMAS

2.13. Producto de matrices. Sea K un cuerpo, A = (aij)m×n y B =(bij)n×k. El producto de las matrices A y B se define como

A ·B = (cij)m×k tal que cij =

n∑p=1

aipbpj .

Ejemplo 7. Sean A =

(1 −12 8

)y B =

(2 0 70 1 2

). Entonces

A ·B =

(2 −1 54 8 30

)Mientras que el producto B ·A no se puede ejecutar.

2.14. Propiedades generales del producto. 1. Sean A = Am×n, B =Bn×k y C = Ck×l matrices con entradas en un cuerpo K. Entonces elproducto es asociativo; es decir A(BC) = (AB)C.

2. Para toda matriz Am×n se tienen las identidades Am×nIn = Am×n yImAm×n = Am×n.

3. Sean A = Am×n, B = Bn×k y C = Cn×k matrices con entradas en uncuerpo K. Entonces el producto distribuye a la suma; es decir A(B+C) =(AB) + (AC).

Demostracion. Se puede verificar directamente.

Observacion 2.15. El producto de matrices cuadradas del mismo orden, aun-que es ejecutable a los dos lados, no tiene la propiedad conmutativa.

Por ejemplo, las matrices A =

(1 00 2

)y B =

(1 21 0

)verifican que AB

y BA son distintos; sin embargo, las matrices A =

(1 00 2

)y B =

(5 00 5

)verifican que AB = BA. Ası que no hay reglas. Se dice entonces que el productono es conmutativo.

Teorema 2.16. Las matrices (Mm×n (K) ,+, ·) forman un anillo no conmuta-tivo.

Demostracion. Se demuestra de forma directa.

2.17. Producto por un escalar. Sea Am×n una matriz con entradas en uncuerpo K y sea λ ∈ K. Se define el producto por un escalar como

λA = (cij) tal que cij = λaij .

Analogamente se define Aλ.

Page 17: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

2.2. MATRICES 17

2.18. Propiedades del producto por un escalar Sean K un cuerpo, λ, µ ∈K y Am×n y Bn×k matrices con entradas en K.

1. Es conmutativo, λA = Aλ.

2. Se tienen las dos propiedades asociativas; a saber, λ(AB) = (λA)B yλ(µA) = (λµ)A.

3. Se tienen las dos propiedades distributivas: λ(A + B) = λA + λB y (λ +µ)A = λA+ µA.

4. Sobre los neutros se tiene 1A = A y λIm es la diagonal constante λ.

Ejemplos 8. 1. Para K = R

3 ·(−2 3 01 −1 3

)=

(−6 9 03 −3 9

).

2. Para K = R y m = 3,

−2 ·

1 0 00 1 00 0 1

=

−2 0 00 −2 00 0 −2

.

2.2.2. Submatrices y matrices en bloques

Sea A =

a11 . . . a1n. . .

am1 . . . amn

∈Mm×n (K).

Definicion 2.19. Una submatriz de A es aquella matriz que se forma eligiendociertas filas y columnas, colocando los elementos en el mismo orden.

Formalmente, si I = {i1, . . . , ip} ⊆ {1, . . . ,m} y J = {j1, . . . , jq} ⊆ {1, . . . , n}entonces

A( IJ ) = (a′kl)p×q tal que a′kl = aikjl .

Observacion 2.20. Para una submatriz A′ de A se escribe A′ = A ( filascolumnas )

Ejemplo 9. Para la matriz A =

1 2 3 42 4 6 83 6 9 12

definimos

A( 1,32,3 ) =

(2 36 9

).

En este caso I = {1, 3}, J = {2, 3} y p = q = 2, en terminos de la definicionanterior.

2.21. Tipos de submatrices Sea Am×n una matriz.

Page 18: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

18 CAPITULO 2. MATRICES Y SISTEMAS

1. Decimos que una submatriz A′ es principal si A′ = A( II ); es decir, se elijen

las mismas filas que columnas. Si se quiere abreviar, basta escribir A(I).

2. Decimos que una submatriz principal A(I) es principal sobre la diagonalsi I = {1, . . . , p} con p ≤ m; es decir, el bloque formado por las primerasp filas y columnas.

Ejemplos 10. Consideremos la matriz A =

1 2 3 42 4 6 83 6 9 12

. Entonces

1. A(1, 3) =

(1 33 9

)es una submatriz principal.

2.

3. A(1, 2) =

(1 22 4

)es una submatriz principal sobre la diagonal.

2.22. Matrices en bloques. Dada una matriz A = (aij)m×n podemos consi-

derar una “particion en bloques” de A en submatrices; digamos, A11 = A(

1,...,r1,...,s

),

A12 = A(

1,...,rs+1,...,n

), A21 = A

(r+1,...,m

1,...,s

)A22 = A

(r+1,...,ms+1,...,n

).

Escribimos entonces

A = (Aij) =

(A11 A12

A21 A22

)o bien dibujar

A =

(A11 A12

A21 A22

)=

a11 · · · a1s

. . .ar1 · · · ars

a1s+1 · · · a1n. . .

ars+1 · · · arnar+1 1 · · · ar+1 s

. . .am1 · · · ams

ar+1s+1 · · · ar+1n

. . .ams+1 · · · amn

Observacion 2.23. Dos matrices definidas en bloques A = (Aij) y B = (Bkl)se podran multiplicar siempre que, primero, por supuesto, el producto, AB tengasentido y luego que cada producto AijBjk tambien tenga, a su vez, sentido. Esdecir, que no se requiere ninguna regla en especial, solo que el producto seaejecutable, en cuyo caso se obtendra una matriz con los bloques adecuados.

Ejemplo 11. Considerense las matrices

A =

1 2 −3 −4 52 −4 6 8 −10−3 6 9 −12 15

y B =

1 2−3 45 −6−7 89 −10

.

Page 19: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

2.2. MATRICES 19

Partimos en bloques que se puedan multiplicar

A =

1 2 −3 −4 52 −4 6 8 −10−3 6 9 −12 15

= (A11 A12) y B =

1 2−3 45 −6−7 89 −10

=

(B11

B21

)

o bien

A =

1 2 −3 −4 52 −4 6 8 −10−3 6 9 −12 15

=

(A11 A12

A21 A22

)que tambien se puede multiplicar por B con su particion.

2.24. La traspuesta de una matriz Sea A = (aij)m×n. Se define la tras-

puesta de A como la matriz At =(a′ij)n×m tal que a′ij = aji.

Ejemplo 12. Si A es la matriz

A =

1 2 −3 −4 52 −4 6 8 −10−3 6 9 −12 15

entonces At =

1 2 32 −4 6−3 6 9−4 8 −125 −10 15

2.25. Propiedades de la matriz traspuesta. Sean K un cuerpo, y Am×ny Bn×k matrices con entradas en K. Entonces

1. (At)t

= A.

2. (A+B)t

= At +Bt

3. (AB)t

= BtAt.

Demostracion. Las dos primeras propiedades son inmediatas.Para la tercera, si denotamos A = (aij)m×n, B = (bij)n×k y AB = (cij)n×k,

se tiene que cij =∑nl=1 ailblj , de donde (AB)t =

(c′ij)k×n tal que c′ij = cji. Ası,

c′ij = cji =

n∑l=1

ajlbli =

n∑l=1

a′ljb′il =

n∑l=1

b′ila′lj

De aquı se desprende la igualdad (AB)t = BtAt.

2.26. Matriz simetrica y anti simetrica.

1. Una matriz simetrica es aquella que coincide con su traspuesta; es decir,toda matriz A, que verifique la igualdad A = At.

2. Una matriz antisimetrica es aquella que coincide con el opuesto de sutraspuesta; es decir, toda matriz A, que verifique la igualdad A = −At.

Page 20: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

20 CAPITULO 2. MATRICES Y SISTEMAS

Ejemplos 13. 1. La matriz A =

1 0 20 −2 −32 −3 1

es simetrica.

2. La matriz A =

0 1 2−1 0 −3−2 3 0

es simetrica.

Tarea 1. Sobre las siguientes afirmaciones se pide deterinar de forma justifi-cada si son verdaderas o falsas.

1. Si una matriz A es simetrica entonces es cuadrada.

2. Si una matriz es antisimetrica entonces los elementos de su diagonal sonnulos.

2.27. La traza de una matriz. Sea A = (aij)n(cuadrada) una matriz sobreun cuerpo K. La traza de A es el escalar

tr (A) =

n∑i=1

aii.

2.28. Propiedades de la traza. Sean A y B matrices del mismo orden.Entonces

1. tr (A+B) = tr (A) + tr (B).

2. tr (A) = tr (At).

3. tr (AAt) =∑ni=1

∑nj=1 a

2ij.

Demostracion. Las dos primeras afirmaciones son triviales.Para la tercera, si hacemos A = (aij)m×n entonces AAt = (cij)m×m tal que

cij =∑nl=1 aila

′lj , de donde

cii =

n∑l=1

aila′li =

n∑l=1

ailail =

n∑l=1

a2il

de donde se desprende de inmediato la igualdad.

2.29. Matrices invertibles. Sea An×m una matriz con entradas en un cuerpoK. Denotamos con I a la matriz identidad sin especificar el orden.

1. Decimos que A es invertible por la izquierda o tiene inversa por laizquierda si existe una matriz X tal que XA = I.

2. Decimos que A es invertible por la derecha o tiene inversa por la derechasi existe una matriz Y tal que AY = I.

3. Decimos que A es invertible si tiene inversa por la izquierda y por laderecha.

Page 21: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

2.2. MATRICES 21

Ejemplos 14. 1. No toda matriz tiene inversa por algun lado. Por ejemplo,

cualquier matriz A 6= I tal que A2 = A, como

(1 00 0

), no puede tener

inversa (vease la Tarea 2 mas abajo).

2. Hay matrices que tienen inversa por un lado y por el otro no. Por ejemplo,

A =

(1 0 00 1 0

)y B =

1 00 10 0

se tiene que AB = I2, la identidad de 2 × 2; pero BA no es identidadalguna. Aun mas, se puede ver (se desprende de la Tarea 2 mas abajo)que A no puede tener inversa por la izquierda.

Tarea 2. Probar que si una matriz A, verifica que AB = 0, con B 6= 0, entoncesA no puede tener inversa por la izquierda.

Proposicion 2.30. Sea An×m una matriz con entradas en un cuerpo K.

1. Si A es invertible por la izquierda, con XA = I entonces X tiene ordenm× n e I tiene orden m.

2. Si A es invertible por la derecha, con AY = I entonces Y tiene ordenm× n e I tiene orden n.

3. Si A es invertible, con XA = I y AY = I entonces m = n y ademas, X =Y . Es decir, existe una unica matriz, digamos Z tal que ZA = AZ = Im.

Demostracion. Las dos primeras afirmaciones son inmediatas de la definicionde producto. La ultima, inmediata de la propiedad asociativa.

Tarea 3.

1. Dar un ejemplo de una matriz A que tenga dos inversas por la izquierda(derecha) diferentes.

2. Probar que si A es invertible y se tiene XA = I y X ′A = I entoncesX = X ′ y lo mismo ocurre al otro lado.

Notacion 2.31. Para toda matriz invertible A, denotamos a la unica inversacon el sımbolo A−1.

Proposicion 2.32 (Mas propiedades de la inversa).

1. Si A y B tienen inversa entonces AB (si existe) tiene inversa. En este

caso se verifica (AB)−1

= B−1A−1.

2. Si A tiene inversa entonces At tiene inversa y verifica (At)−1

=(A−1

)t.

Demostracion. Inmediatas de la definicion de producto y de inversa.

Page 22: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

22 CAPITULO 2. MATRICES Y SISTEMAS

2.3. Sistemas de ecuaciones lineales

Ya hemos comentado los orıgenes de su consideracion. El estudio modernode los sistemas de ecuaciones se inicio con G. W. Leibniz4 en 1693, al introducirla nocion de determinante, aunque nunca lo publico. Varios autores desarrolla-ron lo que llamamos hoy en dıa el Metodo de Cramer, que comentaremos masadelante. Se atribuye a L. Euler5 el observar que los sistemas pueden no tenersolucion unica y proponer la idea de dependencia de unas ecuaciones a otras,pero no fue sino hasta 1811, cuando C. F. Gauss6 estudiaba el calculo de laorbita de un asteriode, que se introdujo el procedimiento sistematico que hoyllamamos metodo de eliminacion gaussiano. En 1888 el geodesista aleman W.Jordan7 realizo la variacion que conocemos como el metodo de Gauss-Jordan.

Volvemos a considerar la ecuacion AX = B y el problema de despejar X =BA . Con las operaciones ya definidas antes.

Es claro que la expresion X = BA implica que A−1B = BA−1, lo cual, a

su vez, implica conmutatividad; sin embargo, conocemos ejemplos en los que laigualdad anterior no se tiene. Veamos otro.

Ejemplo 15. Sea A =

(1 10 1

)y B =

(0 11 0

). Entonces A−1 =

(1 −10 1

)y

se tiene

A−1B =

(−1 11 0

)y BA−1 =

(0 11 −1

).

Ası que no tiene sentido dicha escritura, pero tambpoco es que haga falta.

4Gottfried Wilhelm von Leibniz (Leipzig, 1646, Hannover 1716) ingreso en la Universidadde Leipzig a los 14 anos, siendo un estudiante excepcional. Estudio filosofıa, matematicas yderecho. Diplomatico, polıtico y gran matematico, se cuentan entre los temas de sus contri-buciones a la matematica, el algebra lineal y la geometrıa y el calculo diferencial e integral.Valga como pequena muestra, el hecho de que la notacion de integral

∫f(x)dx de debe a el.

5Leonhard Euler (Basilea, 1707, San Petersburgo, 1783) tambien ingreso a los 14 anos enla Universidad de Basilea, en Suiza, donde comenzo los estudio de teologıa, griego y hebreo,pero su inclinacion por la matematica y su brillante inteligencia hicieron que su padre lepermitiera cambiar a los estudios de matematicas, siendo el alumno mas destacado del famosomatematico J. Bernoulli. Euler fue uno de los matematicos mas prolıficos de la historia conmas de 850 trabajos relevantes en muchas areas de matematicas como algebra, geometrıa,analisis matematico y ecuaciones diferenciales, entre otras. En una de las entradas de nuestrafacultad podemos encontrar la famosa identidad de Euler, eπı + 1 = 0, que seguramente secomentara en la asignatura de Conjuntos y Numeros.

6Carl Friedrich Gauss (Brunswick, 1777, Gottingen, 1855) fue desde nino un genio reco-nocido y muy brillante. A los 21 anos resolvio un problema clasico de geometrıa; a saber,la construccion del polıgono regular de 17 lados con regla y compas. A los 22 anos presentosu disertacion doctoral sobre el Teorema Fundamental del Algebra. En 1801 publico una delas obras mas famosas de la matematica, Disquisitiones Arithmeticae, dedicada sobre todoa la Teorıa de los Numeros. Grandes contribuciones, ademas de la anterior, en geomtrıa noeuclıdea, estadıstica, analisis matematico y fısica, entre otras, le han hecho conocido como “ElPrıncipe de las Matematicas”.

7Wilhelm Jordan (1842, Ellwangen, 1899, Hannover) era geodesico y su unica aportacion ala matematica es su variante del metodo de Gauss, que uso para resolver sistemas de ecuacionesinvolucradas en el estudio de la agrimensura, o topografıa tridimensional. Como geodesico,parece que fue muy prolıfico y su obra mas famosa fue un Manual de Geodesica.

Page 23: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

2.3. SISTEMAS DE ECUACIONES LINEALES 23

Basta que se pueda considerar, A−1B, lo cual, sabemos que tendra sentido unasveces y otras no. Entonces nos inclinamos a concluir tan solo que si existe unamatriz C tal que CA = I entonces la ecuacion AX = B tendra solucion.

Ejemplo 16. Observemos la siguiente situacion. Si A =

1 00 10 0

, entonces

claramente A no es cuadrada y tiene inverso por la izquierda. Llamemos C aun inverso (hay al menos dos). CA = 12×2.

Si ahora B =

001

entonces, para resolver AX = B, simplemente hacemos

X = CB. ¿Que ocurre? Sale X = 0 y sabemos que no puede ser.

El problema es que hemos supuesto que el sistema es compatible, cuando nolo es. Luego, cuando se trata de matrices que no son invertibles es indispen-sable saber de antemano si el sistema tiene o no solucion.

Es decir, que solo podemos asegurar las dos afirmaciones siguientes. Se dejacomo ejercicio demostrarlas.

Tarea 4. 1. Si A tiene una inversa por la izquierda, digamos C, y AX = Btiene solucion, digamos X0, entonces X0 = CB.

2. Si A tiene una inversa entonces AX = B tiene solucion X = A−1B.

Pero esto, claramente, describe menos de lo que sabemos. Por ejemplo,

AX = 0 siempre tiene solucion. Tambien ocurre que si A =

1 00 10 0

y B =

100

entonces AX = B tiene solucion unica X =

(10

)y sin embargo A no es cua-

drada.

Finalmente, si A =

(1 10 0

)y b =

(10

)entonces la ecuacion AX = b tiene

una infinidad de soluciones.Necesitamos herramientas nuevas para estudiar los sistemas de ecuaciones.

Comenzamos con la clasificacion.

2.3.1. Clasificacion

Sistemas

Compatibles(tienen solucion)

{Determinados (unica)Indeterminados (no unica)

Incompatibles(no tienen solucion)

Antes de comenzar con los metodos, vamos a ver otros ejemplos sobre aritmeti-ca de matrices.

Page 24: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

24 CAPITULO 2. MATRICES Y SISTEMAS

Ejemplos 17. 1. Sabemos que en numeros reales ocurre que a 6= 0 implicaa2 > 0. Pero existen matrices A tales que A 6= 0, pero A2 = 0. Por

ejemplo, A =

(0 01 0

)2. En numeros reales ab = 0 implica ba = 0. Pero si A =

(1 11 1

)y B =(

1 1−1 −1

)entonces AB = 0 pero BA 6= 0.

3. En numeros reales, los unicos numeros a tales que a2 = 1 son 1 y -1. Enmatrices hay mas. Algunas son,(

1 00 1

),

(−1 00 −1

),

(0 11 0

),

(0 −1−1 0

)4. Hay matrices cuyo producto es muy pecualiar,

A =

(0 01 0

)y B =

(1 00 0

)verifican que AB = A pero BA = 0. B es identidad por la derecha para Apero la anula por la izquierda.

2.4. El metodo de Gauss

Diremos que dos sistemas de ecuaciones son equivalentes si tienen exacta-mente las mismas soluciones. La idea es partir de un sistema de ecuaciones yluego de llevar a cabo algunas operaciones que llamaremos operaciones elemen-tales construiremos otro sistema, equivalente (en el sentido de que tienen lasmismas soluciones), que sea mas manejable para su clasificacion y en caso deser compatible, encontrar las soluciones.

Vamos a comenzar con la descripcion de las operaciones elementales por fila;de forma completamente analoga se tienen las mismas operaciones por columna.

2.33. Operaciones elementales en sistemas de ecuaciones.

1. Intercambiar dos ecuaciones.

2. Multiplicar una ecuacion por un escalar no nulo.

3. Sumar a una ecuacion un multiplo escalar de otra.

Mas adelante demostraremos que dado un sistema de ecuaciones el nuevosistema que se obtiene al aplicar una operacion elemental es equivalente.

Ejemplo 18. Consierese el sistema

3x+ y = 5

x+ 2y = 1

que es compatible determinado, con solucion x = 95 e y = − 2

5 . Entonces

Page 25: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

2.4. EL METODO DE GAUSS 25

1. El sistema

x+ 2y = 1

3x+ y = 5

obtenido de intercambiar las dos ecuaciones es equivalente.

2. El sistema

3x+ y = 5

−3x− 6y = −3

obtenido de multiplicar la segunda ecuacion por −3, es equivalente.

3. El sistema

−5y = 2

x+ 2y = 1

obtenido de multiplicar la segunda ecuacion por −3 y sumarla a la primera,es equivalente.

2.4.1. Operaciones elementales y ecuaciones vectoriales.

Queremos trasladar la idea de operacion elemental en un sistema de ecua-ciones a una ecuacion vectorial; es decir, de la forma AX = B. Para fijar ideas,vamos a extender el ejemplo anterior.

Ejemplos 19. Consierese el sistema del Ejemplo 18

3x+ y = 5

x+ 2y = 1.

con ecuacion vectorial (3 11 2

)(xy

)=

(51

)Entonces

1. El sistema

x+ 2y = 1

3x+ y = 5

obtenido de intercambiar las dos ecuaciones tiene ecuacion vectorial(1 23 1

)(xy

)=

(15

)es decir, se han intercambiado las filas de las matrices A y B, no ası lasde X.

Page 26: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

26 CAPITULO 2. MATRICES Y SISTEMAS

2. El sistema

3x+ y = 5

−3x− 6y = −3

obtenido de multiplicar la segunda ecuacion por −3, tiene ecuacion vecto-rial (

3 1−3 −6

)(xy

)=

(5−3

)donde se puede ver que se han multiplicado por −3 la fila 2 en las matricesA y B, mientras que X no sufre cambio alguno.

3. El sistema

−5y = 2

x+ 2y = 1

obtenido de multiplicar la segunda ecuacion por −3 y sumarla a la primera,tiene ecuacion vectorial (

0 −51 2

)(xy

)=

(21

)donde se puede comprobar que ha obtenido de multiplicar la la segunda filade A y B por −3 y sumarla a la primera, y como siempre X permaneceigual.

Formalmente se tiene

2.34. Operaciones elementales por fila en matrices.

1. Intercambiar dos filas.

2. Multiplicar una fila por un escalar no nulo.

3. Sumar a una fila un multiplo escalar de otra.

Proposicion 2.35. Se considera el sistema de ecuaciones con coeficientes enun cuerpo K,

a11x1 + · · ·+ a1nxn = b1. . .

am1x1 + · · ·+ amnxn = bm

y la ecuacion vectorial AX = B, determinada por el sistema.Entonces el nuevo sistema obtenido por una toda operacion elemental del sis-

tema original tiene por nueva ecuacion vectorial aquella donde a los coeficientesA y B se les ha aplicado la correspondiente operacion elemental por filas.

Demostracion. Es directo haciendo las cuentas para cada operacion elemental.

Page 27: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

2.4. EL METODO DE GAUSS 27

Una vez establecida la relacion, vamos a ver las operaciones elementales comooperaciones de aritmetica de matrices en la ecuacion vectorial.

Definicion 2.36. Una matriz elemental es aquella que se obtiene al aplicar ala identidad una operacion elemental.

Observacion 2.37. La forma que tienen las matrices elementales

1. Matriz de intercambio de filas i0 y j0 (y de columnas)

E = (eij) tal que

ei0j0 = 1, ej0i0 = 1

eii = 1 si i 6= i0, j0

0 resto.

2. Matriz de multiplicar la fila (columna) i0 por un escalar k 6= 0

E = (eij) tal que

ei0i0 = k

eii = 1 si i 6= i0

0 resto.

3. Matriz de sumar un multiplo de la fila (columna) i0, digamos k, a la filaj0.

E = (eij) tal que

ej0i0 = k

eii = 1

0 resto.

Ejemplo 20. Vamos a ver el caso n = 3.

1. La matriz elemental de intercambiar las filas 1 y 3 es0 0 10 1 01 0 0

.

2. La matriz elemental de multiplicar la fila 2 por −3 es1 0 00 −3 00 0 1

.

3. La matriz elemental de multiplicar la fila 1 por −4 y sumarla a la segundafila es 1 0 0

−4 1 00 0 1

.

Observacion 2.38. Todas las matrices elementales tienen inversa y la inversaes una matriz elemental que corresponde con la operacion elemental contraria.

Page 28: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

28 CAPITULO 2. MATRICES Y SISTEMAS

Proposicion 2.39. Toda operacion elemental por fila en una matriz A es elresultado de multiplicar la matriz A por la adecuada matriz elemental por laizquierda. (Columnas, por la derecha.)

Demostracion. Vamos a hacer la demostracion para una de las operaciones ele-mentales por fila y el resto se deja como ejercicio.

Sea A = (aij) y sea A′ la matriz de intercambio de la fila i0 con la fila j0.Entonces

A′ =(a′ij)

tal que

a′i0j = aj0j

a′j0j = ai0j

a′ij = aij resto.

Sea E la matriz elemental de intercambio de filas,

E = (eij) tal que

ei0j0 = 1, ej0i0 = 1

eii = 1 si i 6= i0, j0

0 resto.

Ahora hacemos EA = (cij) tqcij =∑np=1 eipapj .

Se afirma que EA = A′.

ci0j =

n∑p=1

ei0papj = ei0j0aj0j = aj0j = a′i0j

cj0j =

n∑p=1

ej0papj = ej0i0ai0j = ai0j = a′j0j

Para i 6= i0 y j 6= j0

cij =

n∑p=1

eipapj = eiiaij = aij = a′ij

Ejemplo 21. Vamos a volver al Ejemplo 20

1. La matriz elemental de intercambiar las filas 1 y 3 es0 0 10 1 01 0 0

Y ahora veamos como actua0 0 1

0 1 01 0 0

1 2 34 5 67 8 9

=

7 8 94 5 61 2 3

Page 29: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

2.4. EL METODO DE GAUSS 29

2. La matriz elemental de multiplicar la fila 2 por −3 es1 0 00 −3 00 0 1

Y ahora veamos como actua1 0 0

0 −3 00 0 1

1 2 34 5 67 8 9

=

1 2 3−12 −15 −18

7 8 9

3. La matriz elemental de multiplicar la fila 1 por −4 y sumarla a la segunda

fila es 1 0 0−4 1 00 0 1

Y ahora veamos como actua 1 0 0

−4 1 00 0 1

1 2 34 5 67 8 9

=

1 2 30 −3 −67 8 9

2.40. Forma escalonada

1. Un pivote es una entrada no cero tal que las entradas anteriores en lafila son cero.

2. Decimos que una matriz esta en forma escalonada si:

a) Las filas cero estan al final.

b) Las entradas posteriores por columna a un pivote son cero y anterio-res al pivote (si existe) de la fila siguiente.

2.41. Forma escalonada reducida Decimos que una matriz esta en formaescalonada reducida si:

1. Esta en forma escalonada.

2. Las entradas anteriores por columna a un pivote son cero.

Observacion 2.42. Sea Am×n una matriz, con un elemento aij 6= 0. Entoncesexiste una matriz producto de matrices elementales E tal que la columna j-esimade EA es

EAj =

a1j...1(lugar ij)

0...0

.

Page 30: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

30 CAPITULO 2. MATRICES Y SISTEMAS

y ademas, A

(1, . . . i− 11, . . . , n

)= EA

(1, . . . i− 11, . . . , n

), siempre que i− 1 ≥ 1.

Efectivamente, basta multiplicar A por la matriz producto de elementales

E =

1. . . 0

1aij

−ai+1j

aij1

0...

. . .

−amj

aij1

.

Observacion 2.43. Notese que es posible hacer un proceso analogo (por fila)para los elementos anteriores en la columna de aij .

Teorema 2.44. En toda matriz es posible llegar por medio de operaciones ele-mentales por fila a la forma escalonada y a la forma escalonada reducida.

Demostracion. Sea A una matriz arbitraria de m × n. Si la matriz es cero nohay nada que hacer. Supongase que A 6= 0.

Primero vamos a obtener la forma escalonada. De la matriz A sea k1 laprimera columna no cero. Sea (i1k1) el primer lugar no cero de dicha columna.Sea P1 la matriz elemental que intercambia las filas primera e i1-esima de A.entonces la matriz PA tiene la primera columna no cero (P1A)k1 y el primerelemento no cero en la columna esta en el lugar (1k1) . Ahora siguiendo laObservacion anterior, existe E1 tal que la matriz E1P1A tiene las primerask1 − 1 columnas cero, y la columna k1 es de la forma

(E1P1A)k1 =

10...0

.

Ahora consideramos la submatriz E1P1A

(2, . . . ,m

k1 + 1, . . . n

). Si tiene sentido

y es distinta de cero, entonces habra una primera columna que no sea cero.Digamos que es k2, y el primer elemento no cero en la columna esta en el lugar(i2k2) . Vista en la matriz E1P1A la columna es k1 + k2 y el elemento no ceroesta en el lugar (i2 + 1, k1 + k2) . Sea P2 la matriz que intercambia las filas 2 ei2 + 1. Ahora la columna k1 + k2 de P2E1P1A tiene un elemento no cero en lafila 2, y podemos aplicar otra vez la observacion para obtener

(E2P2E1P1A)k1+k2 =

algo

10...0

.

Page 31: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

2.4. EL METODO DE GAUSS 31

Ası sucesivamente se procede hasta terminar, lo cual tiene que ocurrir, por-que k1 < k1 + k2 < k1 + k2 + k3 debe llegar a n. Notese que si se tienek1 < k1 + k2 < . . . < k1 + · · · + kr = n, (donde termina el proceso) enton-ces las primeras r filas de (

∏EiPi)A tienen todos los pivotes, luego es una

forma escalonada.

Para la forma escalonada reducida, procedemos de la siguiente forma. Unavez que se tiene la forma escalonada de A, digamos B. Entonces por la ultimaobservacion podemos hacer cero en los elementos anteriores por columna a lospivotes, comenzando por el ultimo pivote.

Corolario 2.45. Para toda matriz A, existen matrices invertibles, producto dematrices elementales, E,F tales que EA es la forma escalonada de A y

EAF =

1. . . 0

10

0. . .

0

donde la cantidad de 1 en la diagonal, coincide con la cantidad de pivotes quese obtienen al hacer la forma escalonada por filas de A.

Demostracion. Una vez que se tiene la forma escalonada reducida por filas, seprocede a hacer la forma escalonada por columnas.

2.46. Metodo de Gauss Partiendo de un sistema de ecuaciones, se conside-ra la matriz de coeficientes A, la matriz de los terminos independientes B, y lamatriz ampliada (A | B). Se obtiene la forma escalonada de la matriz A, apli-cando las mismas operaciones elementales a B. (A | B) ∼ · · · ∼ (EA | EB).Se resuelve el sistema (EA)X = (EB) , y como veremos ahora, ambos sistemastiene las mismas soluciones.

Demostracion. AX = B ∼ · · · ∼ EAX = EB. Si x0 es solucion de EAX = EBentonces como E tiene inversa x0 es solucion de AX = B y viceversa.

Observacion 2.47. El metodo de Gauss-Jordan es una variante mınima delanterior donde a diferencia del primero, se hace la reduccion hasta obtener laforma escalonada reducida.

Ejemplo 22.

x1 + x3 = 1

x1 + x2 + x3 + x4 = 0

x2 + x4 = 1.

Page 32: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

32 CAPITULO 2. MATRICES Y SISTEMAS

Se considera entonces la matriz ampliada de coeficientes y reducimos 1 0 1 0 11 1 1 1 00 1 0 1 1

∼ · · · ∼ 1 0 1 0 1

0 1 0 1 −10 0 0 0 0

obteniendo el sistema

x1 + x3 = 1

x2 + x4 = −1.

2.4.2. Aplicaciones de la reduccion en la aritmetica de ma-trices

Vamos a ver como la reduccion de matrices nos permite hacer una aritmeticamuy fina sobre las matrices y desentranar su naturaleza. Solo nos ocuparemosdel fenomeno de la inversa. Recordemos que la definicion de inversa para unamatriz A exige que exista C tal que AC = CA = I. El siguiente resultado es laversion ecuaciones de la Proposicion 2.30.

Proposicion 2.48. Si Anm es tal que las ecuaciones AX = In e Y A = Imtienen solucion entonces n = m y X = Y .

Recordemos que la Proposicion 2.30 nos dice que si AC = CA = I entoncesA y C son cuadradas, del mismo orden. Como tarea, el siguiente resultado.

Corolario 2.49. Sea Anm, con m 6= n. Entonces

1. Si m < n entonces AX = In no tiene solucion.

2. Si m > n entonces XA = Im no tiene solucion.

Teorema 2.50. Sea An×n una matriz cuadrada. Son equivalentes:

1. A es invertible.

2. AX = B es sistema compatible determinado para todo Bn×1.

3. AX = 0 es sistema compatible determinado.

4. En la forma escalonada de A, todas las filas tienen pivote.

5. A es producto de matrices elementales.

Demostracion. [1⇒ 2]. Evidente, X = A−1B.[2⇒ 3] Caso particular.[3⇒ 4] Supongamos que al hacer la forma escalonada de A obtenemos r < n

pivotes. Entonces sabemos que existen matrices B,C tales que

BAC =

(Ir×r 0

0 0

)n×n

.

Page 33: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

2.4. EL METODO DE GAUSS 33

Observese que BAC

0...1

= 0; pero C

0...1

6= 0, porque C es invertible.

Luego AC

0...1

= 0. Hacemos X = C

0...1

. Entonces X 6= 0, pero AX = 0,

contradiciendo la hipotesis de que el sistema homogeneo era determinado.[4⇒ 5] Por hipotesis debe de ocurrir queBAC = I. entoncesA = B−1C−1 =

(CB)−1. Ası que A es invertible.[5⇒ 1] Inmediato del hecho de que producto de invertibles es invertible.

El siguiente resultado es una notabilısima muestra de la aritmetica de lasmatrices finitas cuadradas sobre un cuerpo.

Corolario 2.51. Sean A,B matrices cuadradas. AB = I si y solo si BA = I.

Demostracion. Si AB = I entonces BX = 0 es SCD, luego B es invertible yABB−1 = B−1 de donde A = B−1.

Observacion 2.52. Todo sistema homogeneo es compatible.

Proposicion 2.53. Sea An×r. Si n < r entonces AX = 0 es SCI.

Demostracion. Sabemos que existen matrices invertibles E,F tales que

EAF =

( [I 00 0

]n×n

0n×(r−n)

)n×r

Luego hacemos C =

0...1

y se tiene EAFC = 0 porque r−n > 0. Entonces

A (FC) = 0, donde FC 6= 0, porque C 6= 0 y F es invertible.

Recordemos el Teorema 2.5

Teorema. Si un sistema de ecuaciones AX = B tiene solucion,esta ha de ser de la forma

X = X0 + Y

donde X0 es una solucion particular de AX = B e Y es solucion dela ecuacion homogenea AY = 0.

Las demostraciones de los siguientes resultados se dejan de tarea.

Corolario 2.54. Sea Am×n una matriz con entradas en algun cuerpo. Sonequivalentes:

Page 34: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

34 CAPITULO 2. MATRICES Y SISTEMAS

1. AX = 0 es sistema compatible determinado.

2. Si AX = C es compatible entonces es determinado.

Demostracion. Tarea.

Corolario 2.55. Sea Am×n una matriz con entradas en algun cuerpo. Sonequivalentes:

1. AX = 0 es sistema compatible indeterminado.

2. Si AX = C es compatible entonces es indeterminado.

Demostracion. Tarea.

Ejemplo 23 (Los grados de libertad). Para el sistema del Ejemplo 22

x1 + x3 = 1

x1 + x2 + x3 + x4 = 0

x2 + x4 = 1.

Se puede comprobar que en este caso

A =

1 0 1 01 1 1 10 1 0 1

, E =

1 0 0−1 1 01 −1 1

y F =

1 0 −1 00 1 0 −10 0 1 00 0 0 1

.

Volvamos a la matriz ampliada de coeficientes 1 0 1 0 11 1 1 1 00 1 0 1 1

∼ · · · ∼ 1 0 1 0 1

0 1 0 1 −10 0 0 0 0

obteniendo el sistema

x1 + x3 = 1

x2 + x4 = −1.

Hemos aprendido que este sistema tiene “dos grados de libertad” y que lasolucion general haciendo x3 = λ y x4 = µ es de la forma

x1 = 1− λx2 = −1− µ.

Por otra parte, la solucion general de la ecuacion homogenea es

(λ, µ,−λ,−µ)

A lo largo del curso trataremos de formalizar y dar fundamento a la expresion“grados de libertad” relacionado con la ecuacion homogenea.

Page 35: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

Capıtulo 3

Espacios vectoriales

La genesis del concepto de espacio vectorial (abstracto) la encontramos enla geometrıa con los trabajos de Descartes. El punto de vista moderno se de-be principalmente a las contribuciones de Grassmann1, en 1862. En el libro dePeano2 Calcolo geometrico secondo l’Ausdehnungslehre di H. Grassmann pre-ceduto dalle operazioni della logica deduttiva, se establece su estudio de formaaxiomatica. Tambien Frobenius3 tiene contribuciones importantes en las nocio-nes de dependencia e independencia lineal, rango y sistemas de coordenadas.

Definicion 3.1. Sea K un cuerpo. Un espacio vectorial V sobre K esta formadopor:

1. Un conjunto (de vectores) V .

2. Dos operaciones:

a) Suma: + : V × V −→ V .

1Hermann Grassmann (1809 Stettin, Prussia (actualmente, Szczecin, Polonia), 1809-mismositio 1877. Estudion Teologıa y despues Matematicas en la Universidad de Berlın. En 1831inicio su carrera como profesor, aunque nunca fue profesor universitario. Aun cuando tienecontribuciones notables al estudio del Algebra lineal y las llamadas Algebras exteriores, Grass-mann estuvo dedicado basicamente a la ensenanza y sus esfuerzos por hacer comprensible lamatematica lo llevaron a desarrollar y sistematizar las tecnicas del calculo vectorial en su obraDie lineale Ausdehnungslehre, ein neuer Zweig der Mathematik (teorıa de la extension lineal,una nueva rama de las matematicas).

2Giuseppe Peano nacio en 1858 en Cuneo, Italia (en ese tiempo Reino de Sardinia) ymurio en 1932, en Turın. Peano fue un alumno muy adelantado: a los 22 anos ya era doctor enmatematicas y a los 26 profesor en la Universidad de Turın. Realizo importantes contribucionesen la teorıa de conjuntos, la geometrıa diferencial y el calculo.

3Ferdinand George Frobenius nacio en 1849 en Berliner-Charlottenburg, Prusia (hoy Berlın,Alemania) y murio en el mismo sitio, en 1917. Presento su tesis doctoral, dirigida por Weiers-trass, en la Universidad de Berlın en 1870. En 1874 entro como profesor en la Universidad deBerlın y al ano siguiente ingreso en la Eidgenossische Polytechnikum de Zurich, donde estu-vo hasta 1891 que volvio a Berlın. Aparte de sus aportaciones al estudio sistematico de losespacios vectoriales, los conceptos de dependencia e independecia lineal y el calculo de la di-mension; tiene notables contribuciones al estudio de la teorıa de la representacion y caracteresde grupos, ademas de otras en analisis matematico.

35

Page 36: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

36 CAPITULO 3. ESPACIOS VECTORIALES

b) Producto por un escalar · : K × V −→ V .

Junto con los siguientes axiomas:

Sobre la suma:

1. Es asociativa.

2. Hay neutro, que denotaremos con 0 ∈ V .

3. Cada vector v ∈ V tiene (un unico) opuesto −v ∈ V .

4. Es conmutativa.

(Es decir, (V,+) es grupo abeliano).

Sobre el producto por un escalar:

1. Es asociativo (en el unico sentido posible).

2. Hay dos propiedades distributivas,

a) (α+ β) v = αv + βv.

b) α (v + w) = αv + αw.

3. El neutro de K cumple 1v = v, ∀v ∈ V .

Ejemplos 24. Sea K un cuerpo.

1. Comenzamos con el espacio trivial V = {0} que tambien escribimos V =(0) con la suma y el producto por escalar obvios.

2. Considerese el conjunto

Kn = {(x1, . . . , xn) | xi ∈ K, ∀i = 1, . . . , n}

junto con la suma coordenada a coordenada

(x1, . . . , xn) + (y1, . . . , yn) = (x1 + y1, . . . , xn + yn)

y el producto por un escalar

k · (x1, . . . , xn) = (kx1, . . . , kxn) .

Se deja como ejercicio comprobar que Kn = (Kn,+, ·) es un K-espaciovectorial. (Notese que todo vector puede ser visto como matriz de orden1× n, ası que este ejemplo esta contenido en el siguiente.)

3. El conjunto de las matrices, Mn×m (K) (vease la Definicion 2.7) juntocon la suma dada en (2.11) y el prodcuto por un escalar definido en (2.17)

4. Los polinomios K[X], junto con la suma y el producto por un escalarhabituales.

Page 37: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

37

5. Consideremos la matriz A ∈ Mn×m(K), el vector indeterminada X yformemos el sistema homogeneo AX = 0.

Se deja como ejercicio comprobar que el conjunto de soluciones

V = {v ∈ Km | Av = 0}

es un K-espacio vectorial. Analogamente se puede definir un espacio desoluciones de la ecuacion Y A = 0.

6. De forma mas concreta, si A = (2, 5) entonces el espacio AX = 0 es elplano en R2 (que pasa por el origen) con ecuacion implıcita o general

2x1 + 5x2 = 0

y recıprocamente, sabemos que todo plano (que pasa por el origen) tieneasociada una ecuacion general (homogenea), que obtenemos, por ejemplo,a partir de su vector normal.

7. El conjunto de soluciones v = (v1, v2) ∈ R2 de la ecuacion 2x1 + 5x2 = 1no es un espacio vectorial.

8. Las funciones reales de variable real F = {f : R→ R | f es aplicacion},junto con la suma habitual (f + g)(r) = f(r) + g(r) para todo r ∈ R y elproducto por un escalar (k · f)(a) = k f(a), con k ∈ R.

Observacion 3.2. En principio, no existe una razon que nos muestre que esmejor escribir a los elementos de Kn, bien como fila o bien como columna; esdecir

v = (v1, . . . , vn) o bien v =

v1...vn

;

y tampoco tenemos que decidirnos por una escritura por defecto; es decir, unanotacion. Dado un espacio, siempre que sea necesario aclararemos la notacion.

En todo caso, siguiendo la definicion de matriz traspuesta (2.24) se tendraque si v ∈ Kn es un vector fila entonces el vector vt sera un vector columna, deforma obvia.

Propiedades 3.3. Sea K un cuerpo y V un K-espacio vectorial.

1. Para todo v ∈ V se tiene que 0v = 0.

2. Para todo λ ∈ K y v ∈ V se tiene. Si λv = 0 entonces λ = 0 o v = 0.

Demostracion. Para (1), usaremos el hecho de que, en cualquier cuerpo, 0+0 =0. Ası que 0v = (0 + 0)v = 0v + 0v y como es grupo abeliano se tiene 0 = 0v.

El enunciado (2) se deja como ejercicio, con la indicacion de que la propiedad1v = v puede ser util.

Page 38: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

38 CAPITULO 3. ESPACIOS VECTORIALES

3.1. Subespacios

Definicion 3.4. Sea V un K-espacio. Decimos que S ⊆ V es un subespacio deV si S tiene estructura de espacio vectorial, con las operaciones de V .

Notacion 3.5. Si S ⊂ V es un subespacio de V entonces escribimos simple-mente S ≤ V .

Ejemplos 25. Sea K un cuerpo.

1. Los ejemplos extremos son el subespacio trivial S = (0) y el subespacioimpropio S = V .

2. En R2, se considera S = {v = (v1, v2) | v1 > v2}. Se pide mostrar que Sno es subespacio de R2.

3. En R2, se considera S = {v = (v1, v2) | 2v1 = v2}. Se pide mostrar que Ses subespacio de R2.

Teorema de la caracterizacion de los subespacios

Teorema 3.6. Sea V un K-espacio vectorial y S ⊆ V . S es subespacio de V siy solo si para todo u, v ∈ S y para todo α, β ∈ K se tiene αu+ βv ∈ S.

Demostracion. Supongamos que S es subespacio de V . Entonces dados u, v ∈ Sy α, β ∈ K se tiene que αu y βv son elementos de S porque al ser K-espaciovectorial tiene producto por un escalar; de hecho, el mismo que K y V , y comoademas S es grupo abeliano entonces αu+ βv ∈ S.

Recıprocamente es inmediato ver que S tiene suma, ya que para todo u, v ∈ Sy con α = β = 1 se tiene u+ v ∈ S y para u ∈ V y α ∈ K arbitrario, haciendov = 0 o bien β = 0 se tiene que αu ∈ S. Las propiedades de la suma y elproducto por un escalar se heredan de V .

Observacion 3.7. Para probar que un cierto S ⊆ V es subespacio se puedeproceder de la siguiente forma. Se consideran cualesquiera dos vectores u, v ∈ Sy un solo escalar α ∈ K. Entonces, por separado se comprueba que:

1. u+ v ∈ S.

2. αu ∈ S.

Trivialmente, estas dos condiciones son equivalentes a las hipotesis del Teo-rema 3.6.

Tarea 5. Sea K un cuerpo. Dada una matriz A ∈ Mn×m(K), un vector inde-terminada X y B ∈ Kn un vector columna, formemos el sistema AX = B.

Se pide probar que el conjunto de soluciones es subespacio de Km si y solosi B = 0.

Page 39: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

3.1. SUBESPACIOS 39

Ejemplo 26. Sea K un cuerpo y consideremos el espacio de los polinomiosK[X], descrito antes. Se define el conjunto de los polinomios de grado a lo masn ∈ N; es decir

Pn(K,X) = {p(X) ∈ K[X] | grado(p) ≤ n}

o simplemente Pn si el cuerpo y la indeterminada estan fijos.Se pide probar que Pn es subespacio de K[X].

Definicion 3.8. Sea K un cuerpo y A ∈Mn×m(K). Al subespacio de las solu-ciones AX = 0 se le conoce como espacio nulo por la derecha de A y se denotaNd(A). Analogamente se define el espacio nulo por la izquierda, Ni(A).

Tarea 6. Sea K un cuerpo y se consideran A ∈ Mn×m(K) y E una matrizcualquiera de operaciones elementales. Probar que Nd(A) = Nd(EA).

Ejemplos 27. Se pide decidir justificadamente si los siguientes conjuntos sonsubespacios de R3.

1.{

(x, y, z) ∈ R3 x, y, z ∈ R}

.

2.{

(x, y, z) ∈ R3 xy = z}

.

3.{

(x, y, z) ∈ R3 2x+ 4y = 3z}

.

4.{

(x, y, z) ∈ R3 2x+ 4y = 3z, x+ y = 2z}

.

5.{

(x, y, z) ∈ R3 2x+ 4y = 3z, x+ y = 2z, 3x+ 5y = 5z}

.

6.{

(x, y, z) ∈ R3 x2 + y2 = 1}

.

3.9. Forma lineal Una forma lineal en unas indeterminadas x1, . . . , xn esuna expresion f (x1, . . . , xn) de la forma

∑ni=1 aixi, con ai ∈ K, para todo

i = 1, . . . , n.

Observacion 3.10. Notese que toda expresion del tipo

{(x1, . . . , xn) ∈ Kn | fi (x1, . . . , xn) = 0, i = 1, . . . ,m}

con fi (x1, . . . , xn) una forma lineal, para cada i = 1, . . . ,m es subespacio.

Tarea 7.

1. Se pide identificar las formas lineales en los ejemplos anteriores donde sehaya decidido que hay subespacio (notese que una forma lineal no es unaecuacion).

2. Se pide que se identifiquen los subespacios definidos de esta forma conespacios nulos de matrices.

3. Se pide que, en terminos la Tarea 6, se simplifiquen las formas lineales.

Page 40: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

40 CAPITULO 3. ESPACIOS VECTORIALES

3.2. Combinaciones lineales

Definicion 3.11. Sea V un K-espacio vectorial y {v1, . . . , vn} ⊆ V . Una com-binacion lineal (c.l., para abreviar) de v1, . . . , vn es una expresion formal

α1v1 + · · ·+ αnvn

donde los α1, . . . , αn ∈ K.

Ejemplo 28.

1. La expresion 2(1, 2, 0) + 3(1, 1, 1) es una combinacion lineal de (1, 2, 0) y(1, 1, 1).

2.

7(1, 2) + 8(2, 1) = (23, 22)

Esto es una c.l. de (1, 2) y (2, 1)Decimos que (23, 22) se expresa como c.l. de(1, 2) y (2, 1); pero no es una c.l. mas que desı mismo.

La siguiente definicion nos indica que vamos a entender por combinacioneslineales iguales.

Definicion 3.12. Sea V un K-espacio vectorial y {v1, . . . , vn} ⊆ V . Dos combi-naciones lineales, digamos

∑αivi y

∑βivi decimos que son la misma o igua-

les como combinaciones lineales si y solo si αi = βi para todo i = 1, . . . , n.

Notese que no tiene cabida, por la definicion anterior, relacionar combina-ciones lineales de distintos conjuntos de vectores.

Ejemplos 29.

1. Las expresiones 2(1, 2, 0) + 3(1, 1, 1) y 5(1, 2, 0)− 2(1, 1, 1) son dos combi-naciones lineales distintas de (1, 2, 0) y (1, 1, 1).

2. Identificamos las combinaciones lineales 5(1, 2, 0)− 2(1, 1, 1) y 5(1, 2, 0) +(−2)(1, 1, 1). La segunda expresion es mas formal.

3. 2 (1, 2)+1 (2, 4) y 4 (1, 2)+0 (2, 4) son dos combinaciones lineales distintasde (1, 2) y (2, 4). Notese que si se ejecutan las operaciones obtenemos elmismo vector.

Es decir que (4, 8) se expresa como c.l. de (1, 2) y (2, 4) de dos manerasdistintas.

4. Consideramos los vectores (1, 0) y (0, 1). Se puede comprobar trivialmenteque si se tienen dos expresiones (3, 4) = a(1, 0)+b(0, 1) y (3, 4) = c(1, 0)+d(0, 1) entonces a = c = 3 y b = d = 4. Ası que aquı (3, 4) se expresa comoc.l. de (1, 0) y (0, 1) de forma unica.

Observacion 3.13. Es muy importante que notemos que distintas c.l. de{v1, . . . , vn}, al ejecutar las operaciones pueden resultar, o no, en un mismovector.

Y de aquı, dos conclusiones:

Page 41: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

3.2. COMBINACIONES LINEALES 41

1. Un vector se puede expresar como c.l. de un conjunto de vectores de formaunica o no unica.

2. Ası que, igualdad de combinaciones lineales no es lo mismo que igualdadde vectores.

Notese que en el Ejemplo 29.4 toda expresion de cualquier vector (a, b) ∈ R2

es posible llevarla a cabo y ademas es unica.Un ejemplo mas.

Ejemplo 30. Se considera el conjunto de vectores X = {1, X, . . . ,Xn, . . . } enK[X].

Se pide probar que todo polinomio en K[X] se expresa de forma unica comocombinacion lineal de X .

3.2.1. Combinaciones lineales y matrices

Combinaciones lineales y sistemas de ecuaciones

Problema 1: Sabemos que, dados dos vectores, por ejemplo, (1, 2) y (1, 3)y escalares 4, 6 podemos construir la c.l. 4 (1, 2) + 6 (1, 3) y ejecutar lasoperaciones 4 (1, 2) + 6 (1, 3) = (10, 7). Pero, dado un vector (7, 14) ¿comosaber si se expresa como c.l. de (1, 2) y (1, 3)?

Para resolver esto, formamos

(7, 14) = x (1, 2) + y (1, 3) .

Entonces, como la igualdad de vectores es componente a componente, sedebera verificar

7 = x+ y14 = 2x+ 3y

¡un sistema de ecuaciones! Veamos la matriz ampliada.(1 1 72 3 14

)es decir, enKn, resolver sistemas de ecuaciones y expresar unos vectorescomo c.l. de otros puede identificarse.

En terminos de la ecuacion vectorial(1 12 3

)(xy

)=

(714

)que podemos tambien expresar como c.l. de forma directa en terminos de co-lumnas (

12

)· x+

(13

)· y =

(714

)

Page 42: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

42 CAPITULO 3. ESPACIOS VECTORIALES

Problema 2: ¿Cual es la relacion entre sistemas compatibles determinadoe indeterminado y las c.l?

Para resolver esto, notemos que si un sistema es compatible indeterminadoes porque tiene infinidad de soluciones ası que habra infinidad de c.l. queden el mismo resultado. Si, por el contrario, la solucion es unica, solohabra una posible (y unica) c.l. cuyo resultado sea el vector en cuestion.Cuando para un conjunto de vectores {v1, . . . , vn} haya una combinacion∑αivi = v tal que sea una solucion unica, es decir, que dada otra c.l.

distinta∑βivi = w se tiene v 6= w diremos que la c.l.

∑αivi es unica.

3.14. La relacion entre c.l. en Kn y sistemas de ecuaciones con coeficientesen K es:

Sistema compatible = expresion de un vector como c.l. de otrosSistema compatible determinado = expresion unicaSistema compatible indeterminado = expresion no unicaSistema incompatible = no se expresa

Combinaciones lineales y producto de matrices

A continuacion vamos a ver que en un producto de matrices, la matriz pro-ducto tiene, en sus filas y columnas, combinaciones lineales de las filas y colum-nas de los factores.

Observacion 3.15. Sean Am×n y Bn×k matrices sobre un cuerpo K. Sea C =AB. Entonces:

1. Las columnas de C son combinaciones lineales de las columnas de A.

2. Las filas de C son combinaciones lineales de las filas de B.

Efectivamente. (1) Sean

Am×n =

a11 . . . a1n. . .

am1 . . . amn

y Bn×k =

b11 . . . b1k. . .

bn1 . . . bnk

.

Sea C = AB. Entonces

C =

∑ni=1 a1ibi1 . . .

∑ni=1 a1ibik

. . .∑ni=1 amibi1 . . .

∑ni=1 amibik

.

Consideremos las columnas de C∑ni=1 a1ibi1

...∑ni=1 amibi1

=

n∑i=1

bi1

a1i...ami

, . . . ,

∑ni=1 a1ibik

...∑ni=1 amibik

=

n∑i=1

bik

a1i...ami

Page 43: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

3.3. DEPENDENCIA E INDEPENDENCIA LINEAL 43

por tanto se expresan como c.l. de las columnas de A.Con un argumento completamente analogo se tiene el resultado para filas.

3.3. Dependencia e independencia lineal

Considerese el sistema2x+ y = ax+ 3y = bx+ y = c

Para resolverlo hacemos: 2 1 a1 3 b1 1 c

∼ 1 1 c

0 −1 a− 2c0 0 2a+ b− 5c

Sabemos que si a, b, c son tales que 2a + b − 5c = 0 entonces SCD. Si no,

incompatible, pero ya hemos comentado que jamas sera indeterminado.Por los corolarios (2.54)y (2.55) sabemos que cuando un sistema AX = B

es compatible determinado (indeterminado) entonces todo sistema compatibleAX = C sera determinado (indeterminado).

La relacion anterior queda mejor plasmada con este resultado general.

Proposicion 3.16. Sea K un cuerpo, V un K-espacio vectorial y {v1, . . . , vm}una familia de vectores en V . Sean v, w ∈ V tales que ambos se expresan comoc.l. de los vectores v1, . . . , vm.

Entonces v se expresa de forma unica si y solo si w se expresa de formaunica.

Demostracion. Supongamos que v se expresa de forma unica, digamos v =∑mi=1 kivi, y queremos ver que w tambien. Para eso, consideremos las expre-

siones w =∑mi=1 aivi y w =

∑mi=1 bivi y tenemos que ver que ai = bi para todo

i = 1, . . . ,m. Igualamos las dos expresiones de w, restamos y sumamos a la dev, ası se tiene que v =

∑mi=1(ai − bi + ki)vi, de donde, por hipotesis, para todo

i = 1, . . . ,m, se tiene ai − bi + ki = ki y ası ai = bi.

Pero hay mas. Los mismos corolarios nos dicen que basta saber lo que ocurrecon el sistema homogeneo AX = 0. Ese fenomeno tambien se extiende a espaciosgenerales.

Corolario 3.17. Sea K un cuerpo, V un K-espacio vectorial y {v1, . . . , vm}una familia de vectores en V . Sea v ∈ V tal que se expresa como c.l. de losvectores v1, . . . , vm.

Entonces v se expresa de forma unica si y solo si 0 ∈ V se expresa de formaunica.

Page 44: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

44 CAPITULO 3. ESPACIOS VECTORIALES

Demostracion. Inmediato del hecho de que 0 siempre se expresa como c.l. decualquier familia de vectores.

Esos resultados nos llevan a la siguientes definiciones.

Definicion 3.18. Sea {v1, . . . , vn} ⊆ V . Decimos que {v1, . . . , vn} es lineal-mente dependiente (l.d., para abreviar), o que los vectores v1, . . . , vn forman unsistema ligado, si existe j ∈ {1, . . . , n} tal que vj =

∑i6=j αivi p.a. αi ∈ K.

Definicion 3.19. Decimos que el conjunto {v1, . . . , vn} es linealmente indepen-diente (l.i.) si no es l.d.

Observacion 3.20. Es inmediato probar que {v1, . . . , vn} ⊆ V es l.d. si y solosi existe una c.l.

∑i αivi = 0, con alguna αi 6= 0.

En particular, si algun elemento vi = 0 el conjunto ya sera l.d.

Notese que el enunciado de la observacion anterior es equivalente a decir que0 se expresa de forma no unica como c.l. de {v1, . . . , vn} ⊆ V .

Ejemplos 31.

El conjunto {(1, 2) , (2, 1) , (1, 0)} es l.d.

El conjunto {(1, 0, 1) , (1, 1, 0)} es l.i.

Sean e1 = (1, 0, . . . , 0) , . . . , en = (0, . . . , 0, 1). Entonces {ei}ni=1 en Kn esl.i.

En K[X], el conjunto X definido en el Ejemplo 30 es claramente l.i.

3.3.1. Dependencia lineal y matrices

Ahora recopilaremos lo visto y lo interpretaremos en terminos de ecuacionesvectoriales.

Teorema 3.21. Sea K {v1, . . . , vn} ⊆ V . Son equivalentes:

1. {v1, . . . , vn} es l.d.

2. Existen α1, . . . , αn no todos cero tales que 0 =∑ni=1 αivi.

3. Suponinendo V = Km. Si A =

v1 . . . vn

entonces AX = 0 es

SC Indeterminado.

Demostracion. [1⇒ 2] Es directo de la Definicion 3.18 y la Observacion 3.20.[2 ⇒ 3] Es inmediata del hecho de que las columnas de A son los vectores

escritos como columna.[3 ⇒ 1] Es inmediata del hecho de que las columnas de A son los vectores

escritos como columna y de la Observacion 3.20 y la Definicion 3.18.

Page 45: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

3.3. DEPENDENCIA E INDEPENDENCIA LINEAL 45

Hay un resultado completamente analogo para la independencia lineal:

Teorema 3.22. Sea {v1, . . . , vn} ⊆ V . Son equivalentes:

1. {v1, . . . , vn} es l.i.

2. Si 0 =∑ni=1 αivi entonces α1, . . . , αn son todos cero.

3. Suponinendo V = Km. Si A =

v1 . . . vn

entonces AX = 0 es

SC Determinado.

Podrıamos resumir la situacion anterior en el siguiente esquema:Sea V un K-espacio vectorial y {v1, . . . , vn} ⊆ V . Entonces

{v1, . . . , vn} es l.i. ⇔ toda expresion v =∑αivi es unica

{v1, . . . , vn} es l.d. ⇔ toda expresion v =∑αivi es no unica

Ejemplo 32. Considerense los vectores (1, 2, 1), (2, 0, 1), (1, 6, 2). Queremosdeterminar si forman un conjunto l.i.

Entonces, por los teoremas anteriores lo que hacemos es construir una matrizA cuyas columnas son los vectores anteriores y clasificar AX = 0 o su analogopor filas; ası, 1 2 1 0

2 0 6 01 1 2 0

∼ · · · ∼ 1 2 1 0

0 1 −1 00 0 0 0

luego, AX = 0 es SCI y por tanto el conjunto es l.d.

Una aplicacion interesante de los resultados anteriores junto con el Teore-ma 2.50 es el siguiente.

Corolario 3.23. Sea A una matriz n× n. Son equivalentes:

1. A tiene inversa.

2. Las columnas de A forman un conjunto l.i.

3. Las filas de A forman un conjunto l.i.

Demostracion. Sabemos que A tiene inversa si y solo si AX = 0 es SCD y estoimplica que las columnas de A son un conjunto li.

Usando un argumento totalmente analogo pero ahora con el sistema XA = 0se tiene el resto.

Page 46: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

46 CAPITULO 3. ESPACIOS VECTORIALES

3.4. Conjuntos generadores

En la seccion anterior nos referimos a vectores que se expresan como c.l. deotros de forma unica o no, pero siempre bajo el supuesto de que se expresan.Ahora vamos a abordar el problema de cuando un vector se expresa como c.l.de otros y cuando no.

Volvamos al sistema AX = B, con

2x+ y = ax+ 3y = bx+ y = c

Para resolverlo habıamos hecho: 2 1 a1 3 b1 1 c

∼ 1 1 c

0 −1 a− 2c0 0 2a+ b− 5c

Notese que, en particular, si a = 1, b = 3 y c = 1 se tiene SCD, mientras que

si a = 0, b = 1 y c = 0 entonces es incompatible.Nos preguntamos entonces por el conjunto

S = {B = (a, b, c) | AX = B es compatible}

De inmediato observamos que

S = {B = (a, b, c) | 2a+ b− 5c = 0}

que sabemos es la ecuacion de un subespacio dada por una forma lineal (vease(3.9)); o bien Nd(2 1 − 5) (vease la Definicion 3.8). A este subespacio lo llama-remos el subespacio generado (o engendrado) por {(2, 1, 1) , (1, 3, 1)}.

Mas formalmente, sea V un K-espacio vectorial y {v1, . . . , vn} ⊆ V . Sea

〈v1, . . . , vn〉 ={u ∈ V ∃α1, . . . , αn ∈ K, u =

∑αivi

}.

Vamos a ver que 〈v1, . . . , vn〉 es un subespacio de V como consecuencia delos siguientes resultados mas generales y formales.

Definicion 3.24. Sea K un cuerpo, V un K-espacio vectorial y X ⊆ V unsubconjunto arbitrario de V , (puede ser finito o infinito, pero por lo pronto, novacıo). Definimos el conjunto

〈X〉 =

{n∑i=1

αivi n ∈ N, αi ∈ K, vi ∈ V

}

Teorema 3.25. En la situacion de la definicion anterior:

1. 〈X〉 es subespacio de V (con la notacion de 3.5 〈X〉 ≤ V ).

Page 47: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

3.4. CONJUNTOS GENERADORES 47

2. Si un subespacio W ≤ V es tal que X ⊆W entonces 〈X〉 ≤W . Es decir,es el “menor” subespacio que contiene a X.

Demostracion. Para probar el apartado (1.) vamos a usar el Teorema 3.6.Sean α, β ∈ K y v, w ∈ 〈X〉 tales que v =

∑ni=1 αixi y w =

∑mj=1 βjyj ,

con {αi}i=1n , {βj}j=1m ⊂ K. Hacemos, para k = 1, . . . , n + m, lo siguiente:

γk =

{ααi si k = i ≤ nββj si k = n+ j

y uk =

{xi si k = i ≤ nyj si k = n+ j

.

Entonces αv + βw =∑n+mk=1 γkuk, el cual trivialmente vemos que es un

elemento de 〈X〉.

Definicion 3.26. Sea K un cuerpo, V un K-espacio vectorial y X ⊆ V . Alsubespacio 〈X〉 se le llama el subespacio generado o engendrado por X.

Definicion 3.27. Decimos que {v1, . . . , vn} ⊆ V es un conjunto generador(para V ) si 〈v1, . . . , vn〉 = V .

Por ejemplo, el conjunto {(2, 1, 1), (1, 3, 1)} que vimos al inicio, es generadorpara el subespacio con ecuacion 2x+ y − 5z = 0. Vamos a ver otros.

Ejemplos 33. En los siguientes ejemplos se pide probar:

1. Para Kn, se tiene 〈{ei}ni=1〉 = Kn (vease el Ejemplo 31).

2. Para K[X], se tiene 〈X 〉 = K[X] (vease el Ejemplo 30).

3. Para K[X], se define Xn = {1, . . . , Xn}. Entonces 〈Xn〉 = Pn (vease elEjemplo 26).

El siguiente resultado es util y muy natural.

Proposicion 3.28. Sea K un cuerpo y V un K-espacio vectorial. Sean X,Y ⊆V tales que X ⊆ Y . Entonces 〈X〉 ≤ 〈Y 〉

Demostracion. Se deja como ejercicio.

3.4.1. Conjuntos generadores y matrices

Aunque ya lo hemos visto de hecho, vamos a establecer con formalidad comoobtener las ecuaciones implıcitas del subespacio generado por un conjunto finitode vectores en Kn.

Sea K un cuerpo y V ≤ Km un subespacio con un conjunto generador{v1, . . . , vn}. Evitamos el caso trivial suponiendo que no todos los vectores son 0;de hecho, podemos suponer que ninguno lo es. Directamente de los parrafos ini-

ciales de esta seccion se puede ver que si formamos A =

v1 . . . vn

m×n

Page 48: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

48 CAPITULO 3. ESPACIOS VECTORIALES

y B =

b1...bm

; consideramos el sistema AX = B y reducimos a la forma escalo-

nada, obtendremos b1

v1 . . . vn...bm

∼ · · · ∼ ( EA EB)

=

(0 6= A′t×n B′

0 F

)

donde, si t < r entonces F = (ft+1, . . . , fm) seran formas lineales a partir de lascuales definiremos el subespacio V = 〈v1, . . . , vn〉 (vease la Observacion 3.10.

Ya sabemos que toda solucion, digamos C, del sistema homogeneo determi-nado por las formas lineales, que escribimos FX = 0, verifica que AX = C escompatible y por lo tanto C ∈ V = 〈v1, . . . , vn〉.

Como caso extremo, si t = m entonces, tendremos queKm = V = 〈v1, . . . , vn〉.Si, ademas, n ≤ m entonces sera n = m y la matriz A sera invertible.

Ası, tenemos el siguiente resultado que resume lo anterior.

3.29. Ecuaciones implıcitas de un subespacio de Km.

Sea K un cuerpo y V ≤ Km un subespacio. Si conocemos un conjunto gene-rador para V , digamos β ⊂ V , entonces por lo visto anteriormente, junto con laObservacion 3.10 podemos determinar un sistema homogeneo FX = 0, dondeF es la matriz de las formas lineales que obtenemos de los vectores de β puestoscomo columnas, ası que

V = {v ∈ Km | v es solucion de FX = 0} .

Al sistema FX = 0 se le conoce como las ecuaciones implıcitas de V .

Ası, hemos demostrado lo siguiente:

Proposicion 3.30. Para todo subespacio V ≤ Kn, existe una matriz M(V ) talque

V = {v ∈ Kn | v es solucion de M(V )X = 0}

Demostracion. Es el metodo anterior, donde M(V ) = F .

Ejemplo 34. Sea V = 〈(1, 2, 1, 2), (2, 0, 1, 4), (1, 6, 2, 2)〉. Queremos determi-nar las ecuaciones del subespacio generado por dichos vectores.

Consideramos AX = B, como se ha indicado, y reducimos el sistema am-pliado

1 2 1 a2 0 6 b1 1 2 c2 4 2 d

∼ · · · ∼

1 2 1 a0 1 −1 c− a0 0 0 2a+ b− 4c0 0 0 d− 2a

.

Page 49: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

3.4. CONJUNTOS GENERADORES 49

Ası que las ecuaciones implıcitas de V = 〈(1, 2, 1), (2, 0, 1), (1, 6, 2)〉 son2a + b − 4c = 0 y 2a − d = 0, que tambien podemos escribir cambiando lanotacion

2x+ y − 4z = 0

2x− w = 0

En terminos de la definicion anterior, F =

(2 1 −4 02 0 0 −1

).

Mas adelante veremos como encontrar un conjunto generador a partir de lasecuaciones implıcitas.

Subespacios fila y columna de una matriz

Asociado a cualquier matriz Am×n =

a11 . . . a1n. . .

am1 . . . amn

con entradas en

un cuerpo, se tienen dos subespacios vectoriales.

1. El subespacio fila de A, que denotamos F (A) ⊆ Rn. Es el subespaciogenerado por las filas; es decir, si denotamos la i-esima fila de A con A( i

... ),es

〈A( 1... ), . . . , A( m

... )〉 ⊆ Kn.

2. El subespacio columna de A, que denotamos C (A) ⊆ Rm. El subes-pacio generado por las columnas de A. Es el subespacio generado por lascolumna; es decir, si denotamos la j-esima columna de A con A( ...

j ), es

〈A( ...1 ), . . . , A( ...

n )〉 ⊆ Km.

Observacion 3.31. Tambien podemos interpretar el subespacio fila como

{B = (b1, . . . , bn) ∈ Kn XA = B es compatible}

o bien AtX = B con X y B, si nos empenamos siempre en trabajar con vectorescolumna.

El el otro caso, analogamente sera el conjuntoB =

b1...bn

∈ Kn AX = B es compatible

.

o bien XAt = B con X y B vectores fila.

Si en lugar de partir de una matriz partimos de unos vectores columna(analogo para filas),

Observaciones 3.32. Sea K un cuerpo.

Page 50: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

50 CAPITULO 3. ESPACIOS VECTORIALES

1. Sean {v1, . . . , vn} ⊆ Kr , v ∈ V y A =

v1 . . . vn

r×n

.

El siguiente esquema describe la relacion entre espacio columna y sistemasde ecuaciones

v ∈ 〈v1, . . . , vn〉 ⇔ el sistema AX = v es compatible ⇔ v ∈ C (A)

2. Sea A una matriz y sea E una matriz producto de elementales. Conside-remos la ecuacion AX = B. El metodo de Gauss nos dice en este contextoque B ∈ C(A)⇔ EB ∈ C(EA).

Ejemplo 35. En el Ejemplo 34 lo que hacemos es interpretar el subespacio Vcomo el espacio columna de la matriz A obteniendo sus ecuaciones implıcitas.

Proposicion 3.33. Sea K un cuerpo y sean Am×n y Bn×k matrices sobre K.Entonces

1. C(AB) es subespacio de C(A).

2. F(AB) es subespacio de F(B).

Demostracion. Son consecuencia directa de en la Observacion 3.15

Corolario 3.34. Sea K un cuerpo y sean Am×n una matriz arbitraria y E, E′

matrices invertibles sobre K. Entonces

1. C(AE′) = C(A).

2. F(EA) = F(A).

Demostracion. Una inclusion es consecuencia inmediata del resultados anterior.Para la otra, notese que, por ejemplo, A = AE′E′−1.

3.5. Bases y dimension

Definicion 3.35. Sea V un K-espacio vectorial y β = {v1, . . . , vn} ⊆ V . Deci-mos que β es una base para V si es l.i. y generador (i.e. base = l.i. + generador).

Ejemplos 36. Sea K un cuerpo.

1. El conjunto X , definido en el Ejemplo 30, es una base para K[X].

2. El conjunto {ei}ni=1, definido en el Ejemplo 31, es una base para Kn.

3. El conjunto Xn, definido en el Ejemplo 33, es una base para Pn, definidoen el Ejemplo 26.

Page 51: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

3.5. BASES Y DIMENSION 51

4. En el Ejemplo 34 se tiene V = 〈(1, 2, 1, 2), (2, 0, 1, 4), (1, 6, 2, 2)〉. En esecaso {(1, 2, 1, 2), (2, 0, 1, 4), (1, 6, 2, 2)} es generador para V , pero es baseporque no es l.i.

5. El espacio trivial V = {0} = (0) no tiene base.

Definicion 3.36. Los tipos de base definidos en los primeros tres ejemplosanteriores se conocen como bases canonicas.

3.37. Coordenadas de un vector respecto de un conjunto l.i.Sea V un K-espacio vectorial y β ⊆ V un conjunto l.i. Para todo vector v ∈

〈β〉 sabemos que existe una expresion unica v =∑ni=1 aivi, con {v1, . . . , vn} ⊆ β

y ai ∈ K, para i = 1, . . . , n. Al juego de coordenadas (a1, . . . , an) que provienede la expresion anterior lo llamaremos las coordendas de v respecto de β ydenotaremos [v]β = (a1, . . . , an).

Al conjunto de todas las coordenadas anteriores lo llamaremos un sistemade coordenadas definido por β.

Teorema 3.38. Sea K un cuerpo. Toda base ordenada de un K-espacio vecto-rial define un sistema de coordenadas.

Demostracion. Sea V un K-espacio vectorial y β una base para V . Como β esconjunto generador entonces todo elemento de V se expresa como c.l. de β ycomo β es l.i. la expresion es unica; luego a cada elemento v ∈ V se le puedeasociar de manera unica unas coordenadas [v]β .

Ejemplos 37. Sea K un cuerpo.

1. En el caso de X , la base canonica para K[X], se tiene que todo polino-mio con coeficientres en K, digamos p(X) =

∑mi=0 aiX

i se puede escribir[p(X)]X = (a0, . . . , am, 0, . . . ). Ası que son juegos de coordenadas infinitas(ordenados por N) donde a partir de un momento m ∈ N todas las coor-denadas son 0. En este caso se dice que las coordenadas [p(X)]X son casinulas; es decir, son nulas, excepto un numero finito de entradas.

2. La base canonica E = {ei}ni=1 de Kn determina las coordenadas que hemosusado toda la vida.

3. La base canonica Xn, para Pn, nos lleva a escribir, para p(X) =∑ni=0 aiX

i ∈Pn se escribe [p(X)]Xn = (a0, . . . , an).

En las siguientes secciones veremos como, una vez definido un sistema decoordenadas, todas las tecnicas matriciales que hemos ido desarrollando paraKn, se aplican de forma directa y natural, pues ahora podremos concebir a losvectores “como coordenadas”, pero antes vamos a terminar de exponer algunosresultados teoricos y tecnicas generales, que no dependen de la existencia desistemas de coordenadas.

Proposicion 3.39. Sea K un cuerpo, V un K-espacio vectorial y β ⊂ V .

Page 52: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

52 CAPITULO 3. ESPACIOS VECTORIALES

1. El conjunto β es una base para V si y solo si todo elemento v ∈ V seexpresa de manera unica como combinacion lineal de β.

2. Si V = 〈β〉 y β es l.i. entonces β es una base para V

Demostracion. Inmediata de la definicion de base y de conjuntos l.i. y generador.

Teorema 3.40. Todo K-espacio vectorial V tiene al menos una base.

Demostracion. La demostracion de este resultado excede el alcance de nuestrocurso.

Hay un tipo de espacios donde podemos estudiar las bases de acuerdo conlos objetivos de nuestro curso. Los espacios llamados de dimension finita. Ahıpodremos dar tecnicas para extraer y completar a bases, como veremos.

Definicion 3.41. Sea K un cuerpo y V un K-espacio vectorial. Decimos queV es un espacio de dimension finita si V tiene un conjunto generador finito.

Ejemplo 38. Para un cuerpo K, todos los Kn son espacios de dimension finita;ası como todos los Pn, mientras que K[X] no lo es, aunque conocemos una basepara el.

En (3.29) describimos las ecuaciones implıcitas para subespacios de Kn (queahora sabemos generalizar a cualquier K-espacio vectorial). Vamos a hacer lopropio para las ecuaciones parametricas. Trabajaremos solo en Kn y su exten-sion a cualquier K-espacio vectorial sera. igual que antes, obvia.

Sea V ≤ Kn un subespacio con base {v1, . . . , vr} y, como antes, cons-

truimos la matriz A =

v1 . . . vn

r×n

, ahora junto con los sımbolos

λ = (λ1, . . . , λn), que llamaremos parametros, y el vector X = (x1, . . . , xn),formamos la ecuacion vectorial Aλ = X. Si lo escribimos como sistema de ecua-ciones con, digamos vi = (vi1, . . . , vin), entonces se tendra

x1 = λ1v11 + · · ·+ λnv1n...

xn = λ1vn1 + · · ·+ λnvnn

que son las conocidas ecuaciones parametricas de V .Enunciamos formalmente la construccion anterior.

3.42. Ecuaciones parametricas de V ≤ Kn.Sea K un cuerpo y V ≤ Kn un subespacio. Si conocemos una base, digamos

β para V , podemos formar, como se ha descrito, un sistema Aλ = X, de talforma que todo vector v ∈ V corresponde con los valores que las variables xipuedan tomar a partir de asignar valores a los parametros λi. Es decir,

V = {v ∈ Kn | exsite un vector λ ∈ Kn con Aλ = v}.

Page 53: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

3.5. BASES Y DIMENSION 53

Al sistema Aλ = X se le llama las ecuaciones parametricas de V .

Formalmente se tiene el siguiente resultado.

Proposicion 3.43. Para todo subespacio S ≤ Kn existe una matriz N(S) yparametros λ = (λ1, . . . , λn) tal que

S = {X ∈ Kn N(S)λ = X es determinado }

En el paragrafo siguiente y el posterior, veremos que es posible extender yextraer bases a partir de conjuntos de vectores. Por lo pronto nos centraremosen la existencia; mas adelante veremos tecnicas matriciales concretas.

Extension a una base a partir de conjuntos l.i.

Teorema 3.44. Sea V un K-espacio vectorial y {v1, . . . , vn} ⊆ V un conjuntol.i. Si v ∈ V es tal que v 6∈ 〈v1, . . . , vn〉 entonces {v1, . . . , vn, v} tambien es l.i.

Demostracion. Supongase que hay una c.l. a1v1 + · · · + anvn + av = 0 concoeficientes no cero. Si a 6= 0 entonces pasamos restando −av =

∑aivi lo cual

es imposible pues v 6∈ 〈v1, . . . , vn〉. Ası que a = 0. Entonces debera ocurrirque −akvk =

∑i6=k aivi pero esto tambien es imposible porque el conjunto es

l.i. Luego todos los coeficiente son cero y por tanto {v1, . . . , vn, v} tambien esl.i.

Extraccion de una base en conjuntos linealmente dependientes.

Teorema 3.45. Sea V un K-espacio vectorial. Si {v1, . . . , vn} ⊆ V es tal quevk =

∑i6=k αivi entonces 〈vi〉i 6=k = 〈v1, . . . , vn〉.

Demostracion. Trivial. Se deja como ejercicio.

Teorema 3.46. Todo K-espacio vectorial V , de dimension finita, tiene al me-nos una base.

Demostracion. Como V es de dimension finita entonces existe un conjunto ge-nerador finito, digamos {v1, . . . , vn} ⊆ V , con los vi 6= 0. Si {v1, . . . , vn} esl.i. ya terminamos. Si no, es porque hay algun vk1 =

∑i 6=k1 αivi. Entonces

〈vi〉i 6=k1 = 〈v1, . . . , vn〉 = V . Si {vi}i 6=k1 es l.i., hemos terminado; si no, es por-que hay algun vk2 =

∑i 6=k1,k2 αivi. Entonces 〈vi〉i 6=k1,k2 = 〈v1, . . . , vn〉 = V . De

nuevo, si {vi}i 6=k1,k2 es l.i. hemos terminado; si no, continuamos el proceso, quetiene que terminar porque el conjunto es finito y es facil ver que todo conjuntocon un solo vector no cero es l.i.

3.5.1. Sistemas de coordenadas y matrices

Ahora vamos a hacer un repaso de las tecnicas matriciales que hemos vistoaplicadas a espacios vectoriales de dimension finita.

Page 54: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

54 CAPITULO 3. ESPACIOS VECTORIALES

Sea V un espacio vectorial sobre un cuerpo K y supongamos que V tieneuna base β ⊂ V ordenada, finita, con n-elementos. Consideremos el conjuntoγ = {v1, . . . , vn} ⊆ V y formamos la matriz

A =

[v1]β . . . [vn]β

con las coordenadas de los vectores de γ en terminos de β. Se tienen los siguienteshechos, cuya justificacion se deja como ejercicio.

1. Un vector v ∈ V verifica que v ∈ 〈γ〉 si y solo si el sistema AX = [v]β escompatible y ademas.

a) El sistema anterior es SCD si y solo si v se expresa de forma unica.

b) El sistema anterior es SCI si y solo si v se expresa de forma no unica.

2. El conjunto γ es l.i. si y solo si AX = 0 es determinado y es l.d. en otrocaso.

3. Las ecuaciones implıcitas de γ respecto de la base β se construyen exac-tamente como en(3.29) y aun mas,

4. Podemos aplicar lo visto en la Observacion 3.32.

5. Por tanto, γ es un base para V si y solo si para todo v ∈ V el sistemaAX = [v]β es SCD.

Ejemplos 39. 1. Sean K = R y V = P2 y considerese la base canonicaX2 =

{1, X,X2

}. Sean p1(X) = 1 + X y p2(X) = X + 2X2, con los que

formamos γ = {p1, p2}.Entonces en terminos de los parrafos anteriores [p1]X2

= (1, 1, 0), mientrasque [p2]X2

= (0, 1, 2). Ası formamos

A =

1 01 10 2

.

De aquı se tiene:

a) Para saber si el polinomio f(X) = 2 +X−2X2 ∈ P2 verifica f ∈ 〈γ〉hacemos, [f ] = (2, 1,−2) y reducimos 1 0 2

1 1 10 2 −2

∼ · · · ∼ 1 0 2

0 1 −10 0 0

es SCD, lo da respuesta positiva. Aun mas, la expresion es unica.

Por otra parte, se puede comprobar que g = 1 +X +X2 verifica queg 6∈ 〈γ〉, pues obtendremos un sistema incompatible.

Page 55: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

3.5. BASES Y DIMENSION 55

b) De lo anterior, por la Proposicion 3.16 se tiene que γ es l.i.

c) Para obtener las ecuaciones implıcitas de γ respecto de β, hacemos 1 0 a1 1 b0 2 c

∼ · · · ∼ 1 0 a

0 1 b− a0 0 c− 2b+ 2a

de donde

2x− 2y + z = 0

es la ecuacion implıcita.

Esto quiere decir que un polinomio f ∈ P2 verifica f ∈ 〈γ〉 si y solosi (2 − 2 1) · [f ] = 0; por ejemplo, para f(X) = 2 + X − 2X2 que

ya hemos ensayado, se puede comprobar que (2 − 2 1) ·

21−2

= 0,

como debe de ser.

2. Ahora consideremos en R3 el conjunto γ = {(1, 1, 0), (0, 1, 1), (1, 0, 1)} ex-presado en terminos de la base canonica E, por defecto, como siempre. Asıformamos

A =

1 0 11 1 00 1 1

.

De aquı se tiene:

a) Para saber si el vector v = (1, 2, 2) verifica v ∈ 〈γ〉 reducimos 1 0 1 11 1 0 20 1 1 2

∼ · · · ∼ 1 0 1 1

0 1 −1 10 0 2 1

es SCD, lo da respuesta positiva. Aun mas, la expresion es unica.

b) Se puede comprobar que para cualquier vector v ∈ R3 se tiene SCD,por tanto γ es base (no tiene ecuaciones implıcitas).

c) Entonces, por ejemplo, el vector de la base canonica e1 = (1, 0, 0)tiene como coordenadas en la base γ a la solucion de 1 0 1 1

1 1 0 00 1 1 0

∼ · · · ∼ 1 0 1 1

0 1 −1 −10 0 2 1

que nos da [e1]γ =

(12 ,−

12 ,

12

).

d) En forma anecdotica y trivial, notese que [(1, 1, 0)]γ = (1, 0, 0).

Page 56: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

56 CAPITULO 3. ESPACIOS VECTORIALES

3.6. Teorema de Steinitz y dimension

Uno de los conceptos mas importantes (si no el mas) del algebra lineal esel de dimension. En el caso de los espacios de dimension finita, es un numeroinvariante que podemos asociar y del que obtendremos mucha informacion sobrela estructura algebraica. Antes de ver dicho concepto, algunos resultados muynotables; el primero debido a Enrst Steinitz4

Teorema 3.47 (Steinitz). Sea V un K-espacio vectorial de dimension finita conbase β = {v1, . . . , vn} y sea γ = {u1, . . . , um} un conjunto l.i. Entonces m ≤ n.Aun mas, si 0 6= r = n−m entonces existe un subconjunto {vi1 , . . . , vir} tal queγ ∪ {vi1 , . . . , vir} es una base.

Demostracion. Hacemosu1 =

∑ai1vi

...um =

∑aimvi

y A = (aij)n×m. Sabemos, por el Corolario 2.54, que si m > n entonces elsistema AX = 0 es indeterminado y por el resultado anterior γ serıa l.d. Asıque m ≤ n. La parte del aun mas sale con la extension.

Corolario 3.48. Sea V un K-espacio de dimension finita y sean {v1, . . . , vn}y {u1, . . . , ur} bases para V . Entonces n = r.

Demostracion. Si n 6= r entonces debera ocurrir n > r o n < r. En el primercaso {v1, . . . , vn} serıa l.d., imposible. El otro caso lo serıa el otro conjunto y estambien imposible. Luego debe ser n = r.

Observacion 3.49. Por lo anterior, un espacio vectorial de dimension finitapuede tener muchas bases, pero el numero de vectores de cada una es invariante.

Esto nos permite dar la siguiente definicion:

Definicion 3.50. Sea V un K-espacio vectorial. La dimension de V es el nume-ro de vectores que tiene una (y en consecuencia todas) base de V . Se denotadim (V ).

Por convencion, el espacio trivial verifica dim ({0}) = 0.

Ejemplo 40. Todo Kn tiene dimension n.

Ahora vamos con los subespacios.

Teorema 3.51. Sea V un K-espacio vectorial y S ⊆ V un subespacio. Si V esde dimension finita entonces tambien lo es S.

4Ernst Steinitz nacio en Silesia, Alemania (hoy Polonia), en 1871 y murio en Kiel, Alemania,en 1928. Discıpulo de Frobenius, Kronecker y Max Planc en la Universidad de Berlın, obtuvosu doctorado por la Universidad de Breslau en 1894. En 1897 ingreso en la Socidad MatematicaAlemana. Fue profesor en la Universiad de Wurzburg y en la Universidad de Kiel, desde 1920hasta su muerte. En 1942, su esposa, Martha, fue asesinada por los nazis en una camara degas en el campo de concentracion de Treblinka.

Page 57: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

3.7. EL RANGO DE UNA MATRIZ 57

Demostracion. Supongamos que dim (V ) = n. Sea {v1, . . . , vk} un conjuntol.i. en S que encontramos como punto de partida. Notese que k ≤ n. Si elconjunto es generador ya terminamos. Si no, entonces habra algun v ∈ V talque v 6∈ 〈v1, . . . , vk〉 ası que {v1, . . . , vk, v} es l.i., luego k+ 1 ≤ n. Si el conjuntoes generador ya; si no agregamos otro y el proceso debe terminar en una base.Como es l.i., entonces k + t ≤ n.

De aquı podemos obtener una desigualdad muy importante:

Teorema 3.52. Sea V un K-espacio vectorial de dimension finita y S ⊆ V unsubespacio.

1. dim (S) ≤ dim (V ).

2. dim (S) = dim (V ) si y solo si S = V .

Demostracion. La primera parte es inmediata del teorema anterior.

Para la segunda. Si dim (S) = dim (V ) entonces hay una base de S, β. Si βno es generador entonces habra v ∈ V tal que v 6∈ 〈β〉 ası que podrıamos agregarβ′ = β ∪ {v}, que serıa l.i. Pero β′ ya tiene mas elementos que dim (V ), eso esimposible. Luego β es generador. El recıproco es trivial.

Observacion 3.53. Los resultados anteriores nos permiten tambien construirlas siguientes ”desigualdades”sobre numero de elementos.

#l.i. ≤ dim (V ) ≤ #generador

y las igualdades se cumplen cuando tenemos bases.

Demostracion. Supongamos que dimV = n. El Teorema de Steinitz no da ladesigualdad de la izquierda. Para ver la posible igualdad hay que probar que siun conjunto γ ⊂ V tiene |γ| = n entonces es base. Es directo y muy facil. Laotra desigualdad se hace de forma completamente analoga.

3.7. El rango de una matriz

Proposicion 3.54. Sea K un cuerpo, A una matriz arbitraria y sean E y E′

matrices invertibles sobre K tales que EA y AE′ tienen sentido. Entonces:

1. dim C (A) = dim C (EA).

2. dimF (A) = dimF (AE′).

Page 58: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

58 CAPITULO 3. ESPACIOS VECTORIALES

Demostracion. Vamos a probar solo el primer apartado. El otro es completa-mente analogo. Sea {Ai1 , . . . , Aik} un conjunto de columnas de A. Entonces{EAi1 , . . . , EAik} lo es de columnas de EA. Ahora, para escalares α1, . . . , αnde K se tiene que

k∑j=1

αjAij = 0⇔ E

k∑j=1

αjAij

= 0⇔k∑j=1

αjEAij = 0

y por tanto uno de los conjuntos de columnas seras l.i. si y solo si lo es el otro.De aquı se desprende de inmediato el resultado.

Teorema 3.55. Sea Am×n una matriz. Entonces dim C (A) = dimF (A) =numero de pivotes en cualquier forma escalonada (fila o columna).

Demostracion. Sea EA una forma escalonada por filas. Entonces haciendo laforma por columnas se tiene que existe F invertible tal que

EAF =

(Ir 00 0

)Notese que dim C (EAF ) = dimF (EAF ) = r. Ahora bien,

dim C (A) = dim C (EA) = dim C (EAF ) = dimF (EAF ) =

dimF (EA) = dimF (A)

Definicion 3.56. Al numero dim C (A) = dimF (A) = numero de pivotes encualquier forma escalonada (fila o columna) se le conoce como rango de la matrizA.

Si A = 0 entonces el rango sera 0.

3.8. Matrices y construcciones de bases

3.57. Un metodo para obtener bases de espacios nulos de matrices.Consideremos cualquier matriz Am×n con entradas en algun cuerpo. Sabe-

mos que existen matrices producto de elementales X,Y tales que

XAY =

(Ir×r 0

0 0

)Sea {e1, . . . , en} la base canonica de Kn escrita como columna. Notese que

N (XAY ) = 〈er+1, . . . , en〉. Ahora hacemos ui = Y ei para i = r + 1, . . . , n.Se afirma que {ur+1, . . . , un} es base para N (A).Vamos a ver que es l.i. y generador. Primero li. Consideramos una combi-

nacion lineal∑ni=r+1 αiui = 0. Entonces

0 =

n∑i=r+1

αiui =

n∑i=r+1

αiY ei = Y

(n∑

i=r+1

αiei

)=

n∑i=r+1

αiei

Page 59: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

3.8. MATRICES Y CONSTRUCCIONES DE BASES 59

y esto ultimo implica que los αi son todos 0.Ahora vamos a ver que es generador. Sea v ∈ N (A). Entonces 0 = Av =

XAY Y −1v, ası que Y −1v ∈ N (XAY ), y entonces se expresa como Y −1v =∑ni=r+1 αiei. Ası que v = Y

(∑ni=r+1 αiei

)y usando propiedades aritmeticas

del producto v =∑ni=r+1 αiY ei, y por tanto, v =

∑ni=r+1 αiY ei =

∑ni=r+1 αiui.

En la practica se procede ası:Hacemos (

AI

)∼ · · · ∼

(A′

F

)Entonces A′ sera de la forma

A′ =

(triangular inferior

0r − columnas

)Entonces una base de N (A) se tiene al tomar las ultimas r-columnas de F .

Observacion 3.58. Se deduce de inmediato y luego sera muy util el siguientehecho: dimN (XAY ) = dimN (A).

Ejemplo 41. Sea K un cuerpo, V un K-espacio vectorial con base β = {v1, v2, v3, v4}y S ≤ V el subespacio con ecuaciones implıcitas respecto a β

2x+ y − z − t = 0

x+ z + t = 0.

Se pide encontrar una base para S (que solo podemos expresar en sus coordena-das respecto de β, claro).

Respuesta. Interpretamos a S como el espacio nulo de la matriz de coeficientes.Reducimos la matriz, primero por filas(

2 1 −1 −11 0 1 1

)∼ · · · ∼

(1 0 1 10 1 −3 −3

)y luego viene la parte en la que necesitamos recuperar la matriz de operacionespor columna (

1 0 1 10 1 −3 −3

)∼ · · · ∼

(1 0 0 00 1 0 0

)con matriz

1 0 −1 −10 1 3 30 0 1 00 0 0 1

Entonces, segun lo visto antes, dimS = 2 y {(−1, 3, 1, 0), (−1, 3, 0, 1)} es una

base escrita en las coordenadas de β.Esto es lo que interpretamos como “dos grados de libertad”, donde tendremos

que encontrar dos soluciones linealmente independientes. Notese que, en estecaso, corresponde con los valores {z = 1, t = 0} y {z = 0, t = 1}.

Page 60: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

60 CAPITULO 3. ESPACIOS VECTORIALES

Extraccion de bases por operaciones elementales

Supongamos que tenemos los vectores {v1, . . . , vr} ⊆ Kn.Podemos proceder de dos maneras, colocando las coordenadas de los vectores

como filas o como columnas.Primero por filas.Hacemos las matriz

A =

− v1 −...

− vr −

Se reduce de forma “canonica” (se busca el primer pivote por la derecha, se

pone en la primera fila, se reduce; se busca el siguiente pivote, se pone en lasegunda fila, se reduce, etcetera).

Con esto formamos la matriz

A′ =

− v′i1 −...

− v′it −− 0 −

...− 0 −

Sabemos que

{v′i1 , . . . , v

′it

}es base para F(A) = F(EA). Ademas, notese

quev′i1 = vi1v′i2 = vi2 + k1v

′i1

...v′it = vit + k1v

′i1

+ · · ·+ kt−1v′it−1

Haciendo las coordenadas de las vij , respecto de las primas.

vi1 (1, 0, . . . , 0)vi2 (−k1, 1, 0, . . . , 0)

...vit (−k1, . . . ,−kt−1, 1)

Y si ahora ponemos las coordenadas como columna y nos sale una matrizcuadrada de la forma

1 −k1 −k1 . . . −k10 1 −k2 . . . −k2

...0 1

que claramente vemos que es invertible. Por tanto {vi1 , . . . , vit} es linealmenteindependiente.

Page 61: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

3.8. MATRICES Y CONSTRUCCIONES DE BASES 61

Ahora por columna.Hacemos la matriz

A =

| |v1 . . . vr| |

y se reduce por filas con el metodo de Gauss y obtenemos

EA =

| |Ev1 . . . Evr| |

.

Se consideran aquellas columnas que tienen pivote. {Evi1 , . . . , Evit}, que esun conjunto es l.i.

Estas columnas forman una base para el espacio columna de EA. Para com-probar esto, basta observar que podemos continuar el proceso siguiendo el meto-do de Gauss-Jordan, digamos E′A, donde ahora se tiene que

E′vij =

0...

1(lugarj)0...0

.

Ahora bien, por lo visto en la demostracion de la Proposicion 3.54 se tieneque {vi1 , . . . , vit} es l.i. y como dim C(E′A) = t entonces dim C(A) = t y portanto, el conjunto anterior es una base.

Notese que este proceso se puede hacer al mismo tiempo que se obtienen lasecuaciones implıcitas.

Ejemplo 42. Sea V = 〈(0, 1, 1, 0), (1, 1, 2, 1), (2, 3, 1, 1), (3, 5, 4, 2)〉 ≤ Rn. Sepide:

1. Dar las ecuaciones implıcitas (respecto de la base canonica).

2. Extraer una base del conjunto generador dado para V y comprobar quedimR V = 3.

3. Comprobar que los vectores (3, 4, 3, 2) y (3, 6, 5, 2) son elementos de V yforman un conjunto l.i.

4. Extender el conjunto l.i. anterior a una base para V .

Respuesta. Comenzamos obteniendo las ecuaciones implıcitas0 1 2 3 x1 1 3 5 y1 2 1 4 z0 1 1 2 t

∼ · · · ∼

1 1 3 5 y0 1 −2 −1 z − y0 0 1 1 x−z+y

4

0 0 0 0 t− z + y − 3(x−z+y)4

Page 62: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

62 CAPITULO 3. ESPACIOS VECTORIALES

De donde la ecuacion es −3x+ y − z + 4t = 0.Como hemos escrito los vectores como columna y hemos hecho reduccion por

filas aplicamos el procedimiento anterior y se tiene que {(0, 1, 1, 0), (1, 1, 2, 1), (2, 3, 1, 1)}es una base que hemos extraıdo.

El apartado (3) es inmediato. Finalmente, para extender el conjunto a unabase, utilizaremos los vectores de la base que ya conocemos. Procedemos porfilas, reduciendo sin intercambiar filas

3 4 3 23 6 5 20 1 1 01 1 2 12 3 1 1

∼ · · · ∼

3 4 3 20 1 1 00 0 0 00 0 4

313

0 0 0 0

de aquı que una base para V es {(3, 4, 3, 2), (3, 6, 5, 2), (1, 1, 2, 1)}.

Tambien podemos proceder por columnas3 3 0 1 24 6 1 1 33 5 1 2 12 2 0 1 1

∼ · · · ∼

3 3 0 1 20 2 1 − 1

313

0 0 0 23 − 2

30 0 0 1

3 − 13

obteniendo la misma base.

3.9. Suma e interseccion finitas de subespacios

Comenzamos abordando la interseccion de subespacios.

Proposicion 3.59. Sean K un cuerpo y V un K-espacio vectorial. Sean {S1, . . . , Sn}una familia de subespacios de V . Entonces

⋂ni=1 Si es un subespacio de V .

Demostracion. Se deja como ejercicio. Es inmediata del Teorema de la Carac-terizacion de los Subespacios (3.6)

Observacion 3.60. Se consideran los subespacios S1 = {(x, 0) | x ∈ R} yS2 = {(0, y) | y ∈ R}. Claramente, S1 ∪ S2 no es subespacio.

Hemos comprobado entonces que la union de subespacios no necesariamentees cerrada para combinaciones lineales. De ahı podemos encontrar muy naturalla siguiente definicion.

3.61. Suma de subespacios. Sean K un cuerpo y V un K-espacio vecto-rial. Sean {S1, . . . , Sn} una familia de subespacios de V . Definimos la suma desubespacios como el conjunto

n∑i=1

Si =

{v ∈ V | v =

n∑i=1

αivi, αi ∈ K, vi ∈ Si, i = 1, . . . , n

}.

Page 63: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

3.9. SUMA E INTERSECCION FINITAS DE SUBESPACIOS 63

Proposicion 3.62. Sean K un cuerpo y V un K-espacio vectorial. Sean {S1, . . . , Sn}una familia de subespacios de V . El conjunto

∑ni=1 Si es un subespacio de V ,

que contiene a todos los subespacios Si.

Demostracion. Inmediata, por el Teorema 3.6.

Corolario 3.63. Sean K un cuerpo y V un K-espacio vectorial. Sean {S1, . . . , Sn}una familia de subespacios de V . Entonces

n∑i=1

Si =

⟨n⋃i=1

Si

Demostracion. Es directa del resultado anterior.

Vamos a dar una formula para calcular su dimension.

Teorema 3.64 (Formula de Grassmann). Sea V un K-espacio vectorial dedimension finita y U,W ≤ V . Entonces

dim (U +W ) = dimU + dimW − dim (U ∩W )

Demostracion. Sabemos que U ∩W es subespacio de V . Consideremos una basepara el, digamos β = {v1, . . . , vk}. Ahora, sean γ1 la base que completa a U yγ2 la que completa a W . Se puede comprobar facilmente que β ∪ γ1 ∪ γ2 es unabase de U +W . De ahı el resultado.

Ahora estudiaremos la suma directa.

3.65. Familia independiente de subespacios. Sean K un cuerpo y V unK-espacio vectorial. Sea {S1, . . . , Sn} una familia de subespacios de V . Decimosque es una familia independiente de subespacios si ocurre que para cada i =1, . . . , n

Si⋂ n∑

j 6=i

Sj = (0)

3.66. Suma directa. Sean K un cuerpo y V un K-espacio vectorial. Sea{S1, . . . , Sn} una familia independiente de subespacios de V . Se dice en estecaso que la suma

∑ni=1 Si es directa (o suma directa interna) y se escribe

n∑i=1

Si =

n⊕i=1

Si.

Ejemplos 43. 1. Sea V un R-espacio vectorial de dimension 3. Se consi-deran los subespacios U con ecuacion 2x + y − z = 0 y W con ecuacionx+ y − 2z = 0, respecto de alguna base. Se pide:

a) Comprobar que las ecuaciones implıcitas de U ∩W son{2x+ y − z = 0x+ y − z = 0

.

Page 64: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

64 CAPITULO 3. ESPACIOS VECTORIALES

b) Dar una base para dicho subespacio.

2. En el mismo espacio se consideran ahora los subespacios U con ecuacio-

nes

{2x+ y = 0

z = 0y W con ecuaciones

{x+ y = 0

z = 0respecto de

alguna base. Se pide:

a) Dar las ecuaciones implıcitas de U +W .

b) Comprobar que los subespacios forman una familia independiente.

c) Dar una base para U +W .

El siguiente resultado tecnico es muy util. Lo podrıamos llamar “los subes-pacios complementarios”.

Proposicion 3.67. Sea V un K-espacio vectorial de dimension finita. Paratodo U ≤ V existe W ≤ V tal que U ⊕W = V .

Demostracion. Trivial, basta extender una base para U .

Tambien se puede demostrar como ejercicio el siguiente resultado.

Proposicion 3.68. Sea {U1, . . . , Un} una familia de subespacios de V . Estacoleccion es independiente si y solo si para cada eleccion 0 6= vt ∈ Uit (donde{i1, . . . , is} ⊆ {1, . . . , n}) se tiene que {vi1 , . . . , vis} es l.i.

Demostracion. Trivial.

3.69. Producto directo o suma directa externa finita.Sea {V1, . . . , Vn} una familia de K-espacios vectoriales. Se considera el pro-

ducto directo∏ni=1 Vi y se le dota de estructura de espacio vectorial, con las

operaciones,

(v1, . . . , vn) + (v′1, . . . , v′n) = (v1 + v′1, . . . , vn + v′n)

λ(v1, . . . , vn) = (λv1, . . . , λvn)

Es inmediato comprobar que el conjunto anterior junto con las operacionesdescritas es un K-espacio vectorial y se deja como ejercicio.

A este espacio se le conoce como espacio producto o suma directa finitaexterna y se denota igual que su escritura como conjunto; es decir,

∏ni=1 Vi =

V1 × · · · × Vn. En algunos textos tambien⊕n

i=1 Vi, igula que la suma interna ypor el contexto se distingue si es interna o externa.

Observacion 3.70. Sean V,W K-espacios vectoriales y consideremos el espa-cio producto, V ×W . Es importante notar que, estrictamente, V y W no sonsubespacios de V ×W ; sin embargo, si se consideran V ′ = {(v, 0) | v ∈ V } yW ′ = {(0, w) | w ∈W} se puede comprobar que ya son subespacios del productoy que V ′ +W ′ = V ×W ; ademas de ser suma directa.

Incluso se llega a identificar V con V ′ y W con W ′ sabiendo de antemanoque no es una igualdad estricta.

Como ejercicio se pide extender esta idea a un numero finito de factores.

Page 65: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

3.10. ESPACIO COCIENTE 65

Ejemplo 44. El espacio Kn podemos identificarlo con K×· · ·×K o K⊕· · ·⊕K

Proposicion 3.71. En la situacion anterior dimV ⊕W = dimV + dimW .

Demostracion. Inmediato de la formula de Grassmann (3.64) y de la Observa-cion 3.70 que acabamos de ver.

3.10. Espacio cociente

En esta seccion es necesario que recordemos el concepto de relacion de equi-valencia, clases de equivalencia y conjunto cociente.

Definicion 3.72. Sea V un K-espacio vectorial y W ≤ V . Para u, v ∈ Vdefinimos la relacion

v ∼ v ⇔ u− w ∈W

Proposicion 3.73. La relacion anterior es relacion de equivalencia.

Demostracion. Trivial, se deja como ejercicio.

3.74. Espacio cociente. En vista de la proposicion anterior, consideramosal conjunto cociente, que denotaremos V/W y vamos a dotarlo de operacionescon las que construir un nuevo espacio vectorial.

Definimos la suma [u]+[v] = [u+v] y el producto por un escalar λ[v] = [λv].Tendremos que demostrar que las operaciones estan bien definidas y que

verifican los axiomas de K-espacio vectorial.

Teorema 3.75. En la situacion anterior, el conjunto V/W , junto con las ope-raciones descritas tiene estructura de K-espacio vectorial

Demostracion. Vamos a ver que la suma esta bien definida y el resto se dejaracomo ejercicio. Sean u ∼ u′ y v ∼ v′. Tenemos que probar que [u+v] = [u′+v′].Esto ultimo sera verdadero si y solo si u+v− (u′+v′) ∈W lo cual, trivialmentees verdadero.

Definicion 3.76. Al conjunto V/W con la estructura de K-espacio vectorial sele conoce como espacio cociente.

Proposicion 3.77. Sea V un K-espacio vectorial de dimension finita y W ≤ V .La dimension del espacio cociente es

dim (V/W ) = dimV − dimW

Demostracion. Supongamos que dim(V ) = m y dim(W ) = n, con n ≤ m. Sim = n entonces por el Teorema 3.52 se tendra que V = W y solo habra unaclase de equivalencia, con lo que V/W = (0).

Supongamos entonces que n < m y consideremos una base para W , digamos{w1, . . . , wn} que extendemos a una base para V ; β = {w1, . . . , wn, vn+1, . . . , vm}.

Se afirma que el conjunto de clases {[vn+1], . . . , [vm]} es una base para V/W .

Page 66: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

66 CAPITULO 3. ESPACIOS VECTORIALES

Primero consideremos una igualdad∑mi=n+1 αi[vi] = [0], con αi ∈ K, para

i = n + 1, . . . ,m. Entonces∑mi=n+1 αivi ∈ W , ası que existen αj ∈ K, para

j = 1, . . . , n, tales que∑mi=n+1 αivi =

∑nj=1 αjwj y como β es l.i. todos los

coeficientes han de ser nulos; en particular αn+1 = · · · = αm = 0.Ahora consideremos un elemento arbitrario del espacio cociente, que como

sabemos podemos escribir a traves de cualquiera de sus representantes, digamos[v] ∈ V/W . Como v ∈ V entonces existen αj ∈ K, para j = 1, . . . , n y αi ∈K, para i = n + 1, . . . ,m tales que

∑nj=1 αjwj +

∑mi=n+1 αivi = v, de donde∑m

i=n+1 αivi ∼ v y por tanto∑mi=n+1 αi[vi] = [v].

Ejemplo 45. Se considera V = R3 y W = 〈(0, 0, 1)〉. En este caso se puedecomprobar que (v1, v2, v3) ∼ (v′1, v

′2, v′3) si y solo si v1 = v′1 y v2 = v′2.

Por experiencia, hemos visto que describir las clases de equivalencia y losconjuntos cociente es muy laborioso, pero las tecnicas del algebra lineal nosayudan a simplificar mucho, como veremos.

a) Extendemos una base de W a una base de V . Sabemos por la demostracionde la proposicion anterior que las clases del conjunto que extiende seranuna base del espacio cociente. En este caso puede ser {[(1, 0, 0)], [(0, 1, 0)]}la base de V/W .

b) Ahora describimos las clases. Para λ, µ ∈ R.

λ[(1, 0, 0)] = {(x, y, z) | x = λ, y = 0, z ∈ R}= {(λ, 0, z) | z ∈ R}

µ[(0, 1, 0)] = {(x, y, z) | x = 0, y = µ, z ∈ R}= {(0, µ, z) | z ∈ R}

c) En general, toda clase sera de la forma, para λ, µ ∈ R,

λ[(1, 0, 0)] + µ[(0, 1, 0)] = [(λ, µ, 0)] = {(λ, µ, z) | z ∈ R}

Observacion 3.78. Sea V un K-espacio vectorial con subespacios U,W , talesque V = U ⊕W . Es inmediato de los resultados anteriores que si {u1, . . . , ur}es una base para U , entonces {[u1], . . . , [ur]} es una base para V/W .

Page 67: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

Capıtulo 4

Dimension y rango

Las nociones de dimension y rango fueorn desarrolladas principalmante porGrassmann, Cayley y Frobenius. El resultado principal de este capıtulo es elTeorema de Rouche-Fronbenius.

4.1. Repaso de preliminares

Hemos visto que asociados a cualquier matriz Am×n se tienen tres (puedenser 4) subespacios y tambien algunas relaciones entre ellos.

1. Espacio fila de A. El subespacio de Kn generado por las filas de A. Sedenota F (A) (3.4.1).

2. Espacio columna de A. El subespacio de Km generado por las columnasde A. Se denota C (A) (3.4.1).

3. Espacio nulo (por la derecha) de A.N (A) = {v ∈ Kn Av = 0} (3.8)

4. Los siguientes numeros son iguales (3.55):

a) rg (A).

b) dim (F (A)).

c) dim (C (A)).

d) Numero de filas l.i. de A.

e) Numero de columnas l.i. de A.

f ) Numero de pivotes en la forma escalonada por fila de A.

g) Numero de pivotes en la forma escalonada por columna de A.

Vamos ahora a cerrar esta lista de resultados con una relacion muy impor-tante conocida como la ecuacion del rango.

67

Page 68: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

68 CAPITULO 4. DIMENSION Y RANGO

Teorema 4.1. Sea Am×n una matriz arbitraria. Entonces

rg (A) + dimN (A) = n.

Demostracion. Consideremos cualquier matriz Am×n con entradas en alguncuerpo. Sabemos que existen matrices producto de elementales X,Y tales que

XAY =

(Ir×r 0

0 0

).

Por el Teorema 3.55 y el Corolario 3.34 sabemos que rg(A) = r. Ahora,recordemos que en la construccion de una base para el espacio nulo (3.57) vi-mos que el conjunto {Y er+1, . . . , Y en} es base de N (A), de donde se tiene laigualdad. Como caso particular, si r = n entonces N (A) = 0 e igualmente laigualdad se verifica.

4.2. Teorema de Rouche-Frobenius

Uno de los resultados mas notables de la teorıa sobre los sistemas de ecuacio-nes es el siguiente criterio de clasificacion, tambien llamado teorema de Rouche-Capelli, Rouche-Fontene, dependiendo del paıs y la cultura.

Este teorema fue publicado por primera vez por Rouche1 en 1875, con unaversion mejor en 1880. G. Fontene2 publico una nota atribuyendose la autorıa.Mas tarde, Frobenius y Capelli3 publicaron, cada uno, demostraciones muynotables. En la de Frobenius, explıcitamente, este llama al resultado teorema deRouche-Fontene; aun ası, en Espana y parte de America Latina se le conoce comoteorema de Rouche-Frobenius, debido a la influencia de un notable e historicolibro de algebra lineal escrito por el matematico hispano-argentino Rey Pastor4.

Teorema 4.2. Considerese la ecuacion vectorial o el sistema AX = B. Siempreocurre que rg (A) ≤ rg (A|B) (3.52).

1. Si rg (A) = rg (A|B) = numero de incognitas (=num. de col.) entoncesSCD.

1Eugene Rouche nacio en 1832 en Sommieres, Francia y murio en 1910 en Lunel, Francia.En 1855 entro como profesor en el Lycee Charlemagne de Parıs y en 1858 presento dos tesisde doctorado; una en matematicas y otra en fısica. En 1877 ingreso en la Ecole Centrale deParıs. Ademas, trabajo como profesor para la Ecole Polytechnique de Parıs.

2Georges Fontene nacio en Rousies, Francia, en 1848 y murio en Parıs, en 1923. No setienen muchos datos de su vida. Se sabe que se dedico a la ensenanza no universitaria conmucho exito institucional.

3Alfredo Capelli nacio en Milan, Lombardo-Veneto (actualmente Italia) en 1855 y murioen Napoles, en 1910. Se graduo en la Universidad de Roma, en 1877. En 1881 ingreso comoprfesor en la Universidad de Palermo. Sus contribuciones mas relevantes se tienen en la teorıade grupos y ecuaciones.

4Julio Rey Pastor nacio en Logrono en 1888 y murio en Buenos Aires en 1962. Obtuvo sudoctorado en la Universidad de Madrid (que precede a la Complutense) en 1910 y fue fundadorde la Sociedad Matematica Espanola (que precede la actual RSME). En 1917 se traslado aArgentina donde siguio desarrrollando una gran influencia en el desarrollo de las matematicashispanas.

Page 69: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

4.3. APLICACIONES Y PROPIEDADES DEL RANGO 69

2. Si rg (A) = rg (A|B) < numero de incognitas (=numero de col.) entoncesSCI.

3. Si rg (A) < rg (A|B) entonces el sistema es Incompatible.

Demostracion. Supongamos que A tiene orden m × n. Sabemos que C(A) ≤C(A|B) pues hemos agregado el vector columna B a la matriz.

Primero notemos lo siguiente: rg(A) = rg(A|B) si y solo si, por definicionde rango, dim(C(A)) = dim(C(A|B)) y por el Teorema 3.52 esto ocurre si ysolo si C(A) = C(A|B) y esto, a su vez, ocurre si y solo si B ∈ C(A) y por laObervacion 3.32 esto se tiene si y solo si el sistema AX = B es compatible.

De aquı, obtenemos que rg(A) = rg(A|B) si y solo si el sistema AX = B escompatible. Para probar los dos primeros apartados procedemos como sigue:

1. Si rg(A) = n entonces, por definicion de rango y de dimension, las co-lumnas de A forman un conjunto l.i. y por el Teorema 3.22 el sistema AX = 0es determinado, lo cual implica por el Corolario 3.16 que el sistema compatibleAX = B, es determinado.

2. Si rg(A) < n entonces el conjunto de columnas de A es l.d. y, como antes,por el Teorema 3.21 se tendra que AX = B es compatible indeterminado.

3. Hemos visto que rg(A) = rg(A|B) si y solo si el sistema AX = B escompatible. Por contrapositiva, se tiene el resultado.

4.3. Aplicaciones y propiedades del rango

Proposicion 4.3. Sean A,B,E, F matrices tales que E y F son invertibles yAB, EA, AF tienen sentido. Entonces

1. rg (AB) ≤ mın {rgA, rgB}.

2. rgA = rgEA = rgAF .

3. rg (A) = rg (At).

Demostracion. 1. Inmediato del hecho de que F(AB) ⊆ F(B) y de que C(AB) ⊆C(A), junto con la definicion de rango.

2. Inmediato del hecho de que dim C(A) = dim C(EA) = dim C(AF ).3. rgA = dim C(A) = dimF(A) = dim C(At) = rgAt.

Vamos a terminar con unos ejemplos donde aplicaremos el Teorema deRouche.

Ejemplos 46. 1. Considerese el sistema

x+ 3y = 5

2x+ y = 5

x+ 2y = 4

Page 70: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

70 CAPITULO 4. DIMENSION Y RANGO

del cual obtenemos la matriz ampliada, que reducimos por filas 1 3 52 1 51 2 4

∼ · · · ∼ 1 3 5

0 1 10 0 0

.

Entonces,

rg(A) = rg(A|B) = 2, que es igual al numero de columnas. Por tantoes sistema compatible determinado.

Resolvemos x = 2 e y = 1.

2. Ahora considerese el sistema

x+ 3y = 5

2x+ y = 0

x+ 2y = 2

del cual obtenemos la matriz ampliada, que reducimos por filas 1 3 52 1 01 2 2

∼ · · · ∼ 1 3 5

0 1 20 0 −1

.

Entonces,

2 = rg(A) < rg(A|B) = 3, que nos da un sistema incompatible.

3. Finalmente, considerese el sistema

x+ 3y + 5z = 0

2x+ y + 5z = 0

x+ 2y + 4z = 0

del cual obtenemos la matriz ampliada, que reducimos por filas 1 3 5 02 1 5 01 2 4 0

∼ · · · ∼ 1 3 5 0

0 1 1 00 0 0 0

.

Entonces,

rg(A) = rg(A|B) = 2, que es menor que el numero de columnas. Portanto es sistema compatible indeterminado.

Resolvemos. Como dimN (A) = 1, tenemos un grado de libertad. Co-mo hemos visto en el Ejemplo 23 y mas formalmente en el Ejemplo 41que vimos en 3.57, tenemos un grado de libertad, ası que considera-mos un parametro, digamos λ y resolvemos x = −2λ, y = −λ yz = λ.

Page 71: Algebra Lineal. Curso 2019-2020 (Parte) · 2019. 9. 10. · Algebra Lineal. Curso 2019-2020 (Parte) Juan Jacobo Sim on Pinero

Bibliografıa

[1] H. Anton, C. Rorres, Elementary Linear Algebra, 21a ed., Wiley, Singapur,2015.

[2] A. del Rıo, J. J. Simon, A. del Valle, Algebra Basica, U. Murcia-DiegoMarın, Murcia, 2000.

[3] J. B. Fraleigh, R. A. Beauregard, Algebra Lineal, Addison-Wesley Ibero-americana, Mexico, 1989.

[4] B. R. Gelbaum, Linear Algebra, North-Holland, Nueva York, 1989.

[5] M. A. Goberna, V. Jornat, R. Puen, Algebra y fundamentos, Ariel, Bar-celona, 2000.

[6] Algebra Lineal y Algunas de sus Aplicaciones, 2a ed., MIR, Moscu,1983.

[7] I. N. Herstein, Topics in Algebra, 2nd, ed., Wiley, Nueva York, 1975.

[8] R. S. Irving, Integers, Polynomials, and Rings, Springer, Nueva York,2004.

[9] N. Jacobson, Lectures in Abstract Algebra. II. Linear Algebra, Springer,Nueva York, 1964.

[10] I. Kleiner, A History of Abstract Algebra, Birkhauser Boston, 2007.

[11] S. Lang, Algebra Lineal, Fondo Educativo Interamericano, Mexico, 1976.

[12] D. C. Lay, Algebra Lineal y sus aplicaciones, Pearson Educacion - AddisonWesley, 2007, Mexico.

[13] L. Merino y E. Santos, Algebra Lineal con metodos elementales, Thomson,Madrid, 2006.

[14] J. M. Moreno, Una Introduccion al Algebra Lineal Elemental, Ed. delautor, Barcelona, 1990.

[15] J. J. O’Connor, E. F. Robertson, The MacTutor History of Mathe-matics archive. Sitio WEB de historia de las matematicas. Universi-dad de St Andrews, Escocia. Direccion: http://www-history.mcs.st- an-drews.ac.uk/history/index.html

71