temario de matemáticas ii

68
Temario de Matem´ aticas II Temario de Matem´ aticas II 1 o Grado en Ingenier´ ıa El´ ectrica e Ingenier´ ıa Electr´onica Industrial Alma Luisa Albujer Brotons

Upload: ledieu

Post on 12-Feb-2017

230 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Temario de Matemáticas II

Temario de Matematicas IITemario de Matematicas II

1o Grado en Ingenierıa Electrica e

Ingenierıa Electronica Industrial

Alma Luisa Albujer Brotons

Page 2: Temario de Matemáticas II
Page 3: Temario de Matemáticas II

Indice generalIndice general

1. Matrices 1

1.1. Conceptos basicos y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

1.1.1. Tipos particulares de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 2

1.2. Operaciones basicas con matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

1.2.1. Traspuesta de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

1.2.2. Suma de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

1.2.3. Producto de una matriz por un escalar . . . . . . . . . . . . . . . . . . . . . . 4

1.2.4. Producto de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

1.3. Concepto de matriz regular y propiedades . . . . . . . . . . . . . . . . . . . . . . . . 6

1.3.1. Metodo de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

1.4. Determinante asociado a una matriz cuadrada . . . . . . . . . . . . . . . . . . . . . . 7

1.4.1. Propiedades de los determinantes . . . . . . . . . . . . . . . . . . . . . . . . . 8

1.5. Rango de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

2. Sistemas de ecuaciones lineales 11

2.1. Definiciones basicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

2.1.1. Forma matricial de un sistema de ecuaciones lineales . . . . . . . . . . . . . . 12

2.2. Clasificacion de los sistemas segun el numero de soluciones. Teorema de Rouche-Frobenius. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

2.3. Metodos de resolucion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

Page 4: Temario de Matemáticas II

iv

2.3.1. Metodo de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

2.3.2. Metodo de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

2.4. Aplicaciones: metodo de los mınimos cuadrados . . . . . . . . . . . . . . . . . . . . . 15

3. Espacios vectoriales 17

3.1. Definicion y propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

3.1.1. Ejemplos clasicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

3.2. Dependencia e independencia lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

3.3. Conceptos de base y dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

3.3.1. Coordenadas y cambio de base . . . . . . . . . . . . . . . . . . . . . . . . . . 22

3.4. Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

3.4.1. Ecuaciones de un subespacio . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

3.4.2. Operaciones entre dos subespacios . . . . . . . . . . . . . . . . . . . . . . . . 25

3.5. Espacios vectoriales euclıdeos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

3.5.1. Norma de un vector . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

3.5.2. Angulo entre dos vectores. Vectores ortogonales . . . . . . . . . . . . . . . . . 28

3.5.3. Complemento ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

3.5.4. El producto vectorial en R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

4. Aplicaciones lineales 31

4.1. Definicion y propiedades. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

4.1.1. Monomorfismos, epimorfismos e isomorfismos . . . . . . . . . . . . . . . . . . 32

4.1.2. Operaciones entre aplicaciones lineales . . . . . . . . . . . . . . . . . . . . . . 33

4.2. Expresion matricial de una aplicacion lineal . . . . . . . . . . . . . . . . . . . . . . . 33

4.3. Nucleo e imagen de una aplicacion lineal . . . . . . . . . . . . . . . . . . . . . . . . . 35

4.4. Cambio de base para aplicaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . 36

5. Diagonalizacion de matrices y endomorfismos 39

5.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

5.2. Vectores y valores propios. Definicion y propiedades . . . . . . . . . . . . . . . . . . 40

5.3. Polinomio y ecuacion caracterıstica . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

Page 5: Temario de Matemáticas II

v

5.4. Matrices diagonalizables. Caracterizacion . . . . . . . . . . . . . . . . . . . . . . . . 42

5.5. Diagonalizacion de matrices simetricas reales . . . . . . . . . . . . . . . . . . . . . . 42

6. Geometrıa afın 45

6.1. Espacio afın y espacio afın euclıdeo. Propiedades . . . . . . . . . . . . . . . . . . . . 45

6.1.1. Sistemas de referencia y coordenadas . . . . . . . . . . . . . . . . . . . . . . . 47

6.2. Variedades afines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

6.2.1. Ecuaciones de una variedad afın . . . . . . . . . . . . . . . . . . . . . . . . . 49

6.2.2. Operaciones entre variedades afines . . . . . . . . . . . . . . . . . . . . . . . . 50

6.3. Posiciones relativas de dos variedades afines . . . . . . . . . . . . . . . . . . . . . . . 51

6.4. Problemas metricos entre variedades afines . . . . . . . . . . . . . . . . . . . . . . . 52

6.4.1. Proyeccion ortogonal de un punto sobre una variedad afın . . . . . . . . . . . 52

6.4.2. Distancia entre dos variedades afines . . . . . . . . . . . . . . . . . . . . . . . 53

7. Geometrıa diferencial de curvas 55

7.1. Concepto de curva. Curvas parametrizadas . . . . . . . . . . . . . . . . . . . . . . . 55

7.1.1. Longitud de arco. Parametro arco de una curva . . . . . . . . . . . . . . . . . 56

7.2. Teorıa local de curvas planas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

7.3. Teorıa local de curvas espaciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60

Apendice: Regla de derivacion del producto escalar y del producto vectorial . . . . . 62

Page 6: Temario de Matemáticas II

vi

Page 7: Temario de Matemáticas II

Tema 1

MatricesMatrices

1.1. Conceptos basicos y ejemplos

Definicion 1.1.1. Dados dos numeros naturales m y n, una matriz de orden o dimension m×n

es una tabla numerica rectangular con m filas y n columnas.

Los elementos de las matrices podran ser tanto numeros reales como complejos. La teorıano varıa de unos a otros, pero para simplificar en la mayorıa de los ejemplos y de los ejerciciosconsideraremos numeros reales.

Las matrices se suelen denotar por letras mayusculas: A, B, X,... y los elementos de una matrizse denotan con la misma letra que la matriz pero en minuscula, y con dos subındices representandola fila y la columna en la que se encuentra el elemento. Cuando escribimos una matriz por mediode sus elementos, escribimos estos en forma de tabla y delimitados por parentesis. Por ejemplo,escribimos una matriz generica de orden m× n como

A =

a11 a12 a13 ... a1n

a21 a22 a23 ... a2n

a31 a32 a33 ... a3n

... ... ... ... ...

am1 am2 am3 ... amn

.

Otras formas abreviadas de denotar la misma matriz son

A = (aij)i=1,...,mj=1,...,n , A = (aij)m,n, o simplemente A = (aij).

Page 8: Temario de Matemáticas II

2 Matrices

Se define la relacion de igualdad entre matrices de la siguiente manera.

Definicion 1.1.2. Dos matrices A y B son iguales si tienen la misma dimension m × n y siaij = bij para cualesquiera 1 ≤ i ≤ m y 1 ≤ j ≤ n, es decir, si coinciden elemento a elemento.

Algunos casos especiales de matrices segun su orden son los siguientes.

Definicion 1.1.3. Se dice que una matriz A es una matriz cuadrada si m = n. En este casopodemos decir simplemente que la matriz es una matriz cuadrada de orden n. Se dice que unamatriz es una matriz fila o vector fila si m = 1, es decir, si tiene una unica fila. Analogamente,una matriz es una matriz columna o vector columna si n = 1, es decir, si tiene una unicacolumna. Se sobreentiende que una matriz fila de orden n es una matriz de orden 1 × n, y unamatriz columna de orden m es una matriz de orden m× 1.

En el caso particular de las matrices cuadradas, podemos definir su diagonal y su traza.

Definicion 1.1.4. Dada una matriz cuadrada, se define su diagonal principal, o simplementesu diagonal, como el conjunto de todos los elementos de A del tipo aii. La suma de los elementosde la diagonal principal de una matriz cuadrada se llama traza:

tr(A) =n∑

i=1

aii.

Por ultimo, introduciremos el concepto de submatriz.

Definicion 1.1.5. Dada una matriz A, llamaremos submatriz de A a cada matriz que se obtengade ella suprimiendo algunas de sus filas y columnas.

1.1.1. Tipos particulares de matrices

Veamos ahora algunos casos particulares de matrices cuadradas de especial relevancia. Sea A

una matriz cuadrada de orden n. Entonces, se dice que:

• A es una matriz simetrica si para cualesquiera i, j con 1 ≤ i, j ≤ n se tiene que aij = aji.

• A es una matriz antisimetrica si para cualesquiera i, j con 1 ≤ i, j ≤ n se tiene queaij = −aji. En particular, los elementos de la diagonal de una matriz antisimetrica valencero.

• A es una matriz diagonal si todos los elementos que no pertenezcan a la diagonal valencero. En el caso particular en que todos los elementos de la diagonal valgan 1, la matriz sellama matriz identidad o matriz unidad, y se denota por In donde n es el orden de lamatriz. Cuando no haya lugar a confusion con respecto al orden de la matriz, denotaremosla matriz identidad simplemente por I.

Page 9: Temario de Matemáticas II

1.2 Operaciones basicas con matrices 3

• A es una matriz triangular superior (inferior, respectivamente) si todos los elementospor debajo (por encima, respectivamente) de la diagonal son cero.

Por otro lado, supongamos que A es una matriz, no necesariamente cuadrada, de orden m× n.Llamaremos pivote de una fila de A al primer elemento no nulo de dicha fila (si es que existe).Entonces se dice que:

• A es una matriz escalonada por filas si verifica las siguientes condiciones:

1. Si A tiene filas compuestas enteramente por ceros (filas nulas), estas estan agrupadas enla parte inferior de la matriz.

2. El pivote de cada fila no nula es 1.

3. El pivote de cada fila no nula esta a la derecha del de la fila anterior.

Analogamente, se podrıan definir las matrices escalonadas por columnas.

Por ultimo, como un caso particular de matriz, definimos la matriz nula de orden m × n,Om×n, como la matriz de orden m × n formada enteramente por ceros. Si la matriz es cuadradade orden n la denotaremos por On, y cuando no haya confusion posible con respecto al orden ladenotaremos simplemente por O.

1.2. Operaciones basicas con matrices

En esta seccion vamos a repasar las operaciones basicas que se pueden realizar con matrices:traspuesta de una matriz, suma de matrices, producto de una matriz por un escalar y producto dematrices. Veremos tambien las principales propiedades de estas operaciones.

1.2.1. Traspuesta de una matriz

Definicion 1.2.1. Dada una matriz A de orden m×n, se define la matriz traspuesta de A comola matriz de orden n × m que obtenemos cuando intercambiamos las filas y las columnas de A.Denotamos la matriz traspuesta por At.

De la definicion se deduce que:

• Dada una matriz cualquiera A, la traspuesta de su traspuesta es ella misma: (At)t = A.

• Si A es una matriz cuadrada, entonces At tambien es una matriz cuadrada del mismo orden.

Por otro lado, es posible caracterizar las matrices simetricas y antisimetricas con ayuda de lamatriz traspuesta:

Page 10: Temario de Matemáticas II

4 Matrices

• Una matriz cuadrada A es una matriz simetrica si y solo si A = At.

• Una matriz cuadrada A es una matriz antisimetrica si y solo si A = −At.

1.2.2. Suma de matrices

Para sumar dos matrices, las matrices tienen que ser del mismo orden.

Definicion 1.2.2. Dadas dos matrices A y B de orden m×n, se define la suma de ambas matricescomo la matriz del mismo orden m× n, A + B, que se obtiene al sumar elemento a elemento:

cij = aij + bij .

La suma de matrices de orden m× n tiene las siguientes propiedades:

1. Es una operacion asociativa: dadas A, B y C se tiene que (A + B) + C = A + (B + C).

2. Es una operacion conmutativa: dadas A y B se tiene que A + B = B + A.

3. Existe un elemento neutro. Es decir, existe una unica matriz de orden m× n, conocida comoelemento neutro, de modo que al sumarla con cualquier matriz A del mismo orden la dejeinvariante. Esta matriz es la matriz nula Om×n ya que dada cualquier matriz Am×n se tieneque A + O = A.

4. Existe el elemento opuesto. Es decir, dada una matriz A existe otra matriz del mismo orden,conocida como elemento opuesto de A, de modo que al sumarla con A nos da el elementoneutro. Esta matriz se denota por −A y es la matriz que obtenemos cuando cambiamos cadaelemento de A por su opuesto: A + (−A) = 0.

1.2.3. Producto de una matriz por un escalar

Con el termino escalar nos referiremos a lo largo de la asignatura a un numero real o a unnumero complejo. Denotaremos por K al conjunto formado por todos los escalares, es decir, K = Ro K = C segun corresponda.

Definicion 1.2.3. Dada una matriz A de orden m × n y un numero real k ∈ K, se define elproducto de A por k como la matriz de orden m × n, kA, que se obtiene al multiplicar cadaelemento de A por k:

cij = kaij .

El producto de una matriz de orden m× n por un escalar tiene las siguientes propiedades:

1. Es una operacion asociativa: dada una matriz A y dados dos escalares k y l, se tiene quek(lA) = (kl)A.

Page 11: Temario de Matemáticas II

1.2 Operaciones basicas con matrices 5

2. Es una operacion distributiva con respecto a la suma por escalares: dada una matriz A y dosescalares k y l, se tiene que (k + l)A = kA + lA.

3. Es una operacion distributiva con respecto a la suma de matrices: dadas dos matrices A,B yun escalar k, se tiene que k(A + B) = kA + kB.

4. Existe un elemento unidad : es decir, existe un unico escalar de modo que al multiplicarlo porcualquier matriz A la deja invariante. El elemento unidad es el numero 1.

Las dos operaciones anteriores junto con las propiedades que hemos enumerado serviran demotivacion para estudiar en el Tema 3 los espacios vectoriales.

1.2.4. Producto de matrices

Para multiplicar dos matrices habremos de tener mucho cuidado con sus dimensiones.

Definicion 1.2.4. Sea A una matriz de orden m× p y B una matriz de orden p× n, se define suproducto como la matriz de orden m× n, AB, cuyos elementos vienen dados por:

cij =p∑

k=1

aikbkj .

El producto de matrices verifica las siguientes propiedades:

1. No es una operacion conmutativa. De hecho, dadas dos matrices A y B puede que solo tengasentido realizar uno de los dos productos AB o BA (o ninguno de ellos). Aun en el caso depoder realizarse los dos productos, estos no tienen porque coincidir.

2. Es una operacion asociativa: A(BC) = (AB)C siempre que los productos tengan sentido.

3. Dada una matriz de orden m× n se tiene que ImA = A y AIn = A.

4. Se verifica la propiedad distributiva con respecto a la suma de matrices: A(B+C) = AB+AC

y (A + B)C = AC + BC siempre que los productos tengan sentido.

El comportamiento de la trasposicion de matrices con respecto a las operaciones anteriores es:

• Dadas A y B dos matrices del mismo orden, se tiene que (A + B)t = At + Bt.

• Dada A una matriz cualquiera y dado un escalar k, se tiene que (kA)t = kAt.

• Dadas dos matrices A de orden m× p y B de orden p× n se tiene que (AB)t = BtAt.

Page 12: Temario de Matemáticas II

6 Matrices

1.3. Concepto de matriz regular y propiedades

Definicion 1.3.1. Dadas dos matrices A y B, se dice que B es la matriz inversa de A si AB =BA = I. En el caso en que A admita una matriz inversa se dice que A es una matriz regular, y sumatriz inversa se denota por A−1. Una matriz se dice que es singular si no es regular.

Observemos que una condicion necesaria para que A sea una matriz regular es que sea unamatriz cuadrada.

Una caracterizacion de las matrices regulares viene dada por la siguiente proposicion.

Proposicion 1.3.2. Si A y B son dos matrices cuadradas de orden n tales que AB = I, entoncesA es regular y B = A−1.

Las matrices regulares verifican las siguientes propiedades:

• La matriz inversa de una matriz dada, si existe, es unica.

• Si A es una matriz regular entonces A−1 tambien es regular y (A−1)−1 = A.

• Si A y B son dos matrices regulares del mismo orden, entonces AB tambien es regular y(AB)−1 = B−1A−1.

• Si A es una matriz regular entonces At tambien es regular y (At)−1 = (A−1)t.

Hay un tipo de matrices para las que su inversa tiene una expresion muy sencilla, las llamadasmatrices ortogonales.

Definicion 1.3.3. Se dice que una matriz cuadrada regular es una matriz ortogonal si verifica

P−1 = P t.

El interes de estas matrices se estudiara en temas posteriores.

1.3.1. Metodo de Gauss

La matriz inversa a una matriz dada se puede obtener directamente a partir de la definicion,pero esto implica resolver n sistemas de n ecuaciones cada uno, siendo n el orden de la matriz.Por tanto, este sistema no es muy util para matrices de orden grande. Hay metodos con un costecomputacional menor para calcular la inversa de una matriz. En particular, veamos como calcularla inversa de una matriz utilizando el conocido metodo de Gauss. Para ello necesitamos conocerantes el siguiente concepto.

Definicion 1.3.4. Llamamos transformaciones elementales de filas (de columnas, respec-tivamente) de una matriz A a cada uno de los siguientes tipos de transformaciones que se puedenrealizar sobre A:

Page 13: Temario de Matemáticas II

1.4 Determinante asociado a una matriz cuadrada 7

1. Intercambiar la posicion de dos filas (dos columnas, respectivamente). Lo denotamos comoFi ↔ Fj (Ci ↔ Cj , respectivamente).

2. Multiplicar todos los elementos de una fila (columna, respectivamente) por un escalar no nulo.Lo denotamos como Fi → aFi (Ci → aCi, respectivamente).

3. Sumar a una fila (columna, respectivamente) otra multiplicada por un escalar. Lo denotamoscomo Fi → Fi + aFj (Ci → Ci + aCj , respectivamente).

Teniendo en cuenta esta definicion, podemos establecer la siguiente propiedad entre dos matri-ces.

Definicion 1.3.5. Sean A y B dos matrices del mismo orden (no necesariamente cuadradas),entonces se dice que son equivalentes por filas (por columnas, respectivamente) si podemosobtener una a partir de transformaciones elementales de filas (de columnas, respectivamente) de laotra. En este caso se denota A ∼f B (A ∼c B, respectivamente).

Se puede probar que una matriz cuadrada A es invertible si y solo si es equivalente por filasa la matriz identidad, es decir, si existe una serie de transformaciones elementales por filas quetransforman A en la matriz identidad. Si ahora aplicamos las mismas transformaciones elementalespor filas a la matriz identidad, obtendremos la matriz inversa de A, A−1. Este procedimiento es elque se conoce como metodo de Gauss para el calculo de la matriz inversa.

NOTA: En general cualquier calculo con matrices que involucre el uso de transformacioneselementales para obtener matrices equivalentes por filas o por columnas mas sencillas se conocecomo metodo de Gauss. Este metodo no es solo util para el calculo de matrices inversas, sinotambien para el calculo de determinantes, de rangos o para la resolucion de sistemas de ecuacioneslineales.

1.4. Determinante asociado a una matriz cuadrada

Definicion 1.4.1. A una matriz cuadrada A se le puede asociar un numero real, llamado deter-minante, que nos proporciona cierta informacion sobre la matriz. El concepto de determinante deuna matriz cuadrada puede ser definido inductivamente de la siguiente forma.

Para una matriz cuadrada de orden 1, A = (a11), se define su determinante como det(A) = a11.

Supongamos ahora que conocemos el valor del determinante de una matriz cuadrada de ordenn− 1 y consideremos una matriz cuadrada de orden n

A =

a11 a12 ... a1n

a21 a22 ... a2n

... ... ... ...

an1 an2 ... ann

.

Page 14: Temario de Matemáticas II

8 Matrices

Se llama ij-esimo menor adjunto de A a αij = (−1)i+jdet(Aij), donde Aij es la submatriz quese obtiene de A eliminando la fila i-esima y la columna j-esima, y se define el determinante de A

como

det(A) =

∣∣∣∣∣∣∣∣∣∣

a11 a12 ... a1n

a21 a22 ... a2n

... ... ... ...

an1 an2 ... ann

∣∣∣∣∣∣∣∣∣∣

= a11α11 + a12α12 + ... + a1nα1n.

Utilizando la definicion anterior para matrices cuadradas de orden 2 tenemos∣∣∣∣∣

a11 a12

a21 a22

∣∣∣∣∣ = a11α11 + a12α12 = a11a22 − a12a21.

Y para matrices de orden 3∣∣∣∣∣∣∣

a11 a12 a13

a21 a22 a23

a31 a32 a33

∣∣∣∣∣∣∣= a11α11 + a12α12 + a13α13

= a11

∣∣∣∣∣a22 a23

a32 a33

∣∣∣∣∣− a12

∣∣∣∣∣a21 a23

a31 a33

∣∣∣∣∣ + a13

∣∣∣∣∣a21 a22

a31 a32

∣∣∣∣∣= a11(a22a33 − a23a32)− a12(a21a33 − a23a31) + a13(a21a32 − a22a31)

= a11a22a33 + a13a21a32 + a12a23a31 − a11a23a32 − a12a21a33 − a13a22a31.

Ası es como se define la conocida regla de Sarrus para el calculo del determinante de una matrizcuadrada de orden 3.

1.4.1. Propiedades de los determinantes

Los determinantes verifican las siguientes propiedades:

1. Si tres matrices cuadradas A, A′ y A′′ son identicas salvo en que la i-esima fila (o columna)de A es la suma de las filas (o columnas) correspondientes de A′ y A′′ entonces

det(A) = det(A′) + det(A′′).

2. Si una matriz cuadrada A tiene dos filas (o dos columnas) iguales entonces su determinantees cero, det(A) = 0.

3. Si se intercambian dos filas (o dos columnas) de una matriz A entonces su determinantecambia de signo.

4. Si se multiplican los elementos de una fila (o columna) de una matriz A por un escalar k,entonces su determinante queda multiplicado por k.

Page 15: Temario de Matemáticas II

1.5 Rango de una matriz 9

5. Si a una fila (o columna) de una matriz cuadrada A se le suma otra multiplicada por unescalar k entonces su determinante no varıa.

6. Una matriz cuadrada A es regular si y solo si det(A) 6= 0.

7. El determinante del producto de matrices cuadradas es igual al producto de sus determinantes,det(AB) = det(A)det(B).

8. El determinante de una matriz es igual al de su traspuesta, det(A) = det(At).

9. El determinante de una matriz puede obtenerse desarrollando por cualquiera de sus filas (ocolumnas),

det(A) = ai1αi1 + ai2αi2 + ... + ainαin

= a1jα1j + a2jα2j + ... + anjαnj .

para cualquier 1 ≤ i ≤ n o 1 ≤ j ≤ n.

Las propiedades anteriores nos facilitan el calculo de determinantes. De hecho, podemos usarlaspara transformar la matriz de modo que obtengamos algunos ceros en una de las filas (o columnas)con el objetivo de desarrollar posteriormente por dicha fila (o columna). Los determinantes lostransformaremos usando las transformaciones elementales descritas en la Definicion 1.3.4 tanto porfilas como por columnas. No obstante, hay que tener en cuenta que tras cada transformacion eldeterminante no se mantiene invariante, sino que varıa de acuerdo con las propiedades 3, 4 y 5antes descritas.

Los determinantes nos proporcionan un metodo alternativo para el calculo de la matriz inversa.

Definicion 1.4.2. Dada una matriz cuadrada A de orden n, llamaremos matriz adjunta de A ala matriz Adj(A) = (αij)i,j , es decir, la matriz que en cada posicion tiene el correspondiente menoradjunto de A.

Proposicion 1.4.3. Si A es una matriz regular de orden n entonces

A−1 =1

det(A)(Adj(A))t.

1.5. Rango de una matriz

Aplicando transformaciones elementales por filas (o por columnas) a una matriz A arbitraria dedimension m×n siempre se puede encontrar otra matriz equivalente por filas (o por columnas) a A

que sea escalonada por filas (o por columnas). Se define el rango de A, rg(A), como el numero defilas (o de columnas) no nulas de la matriz equivalente por filas (o por columnas) a A escalonada

Page 16: Temario de Matemáticas II

10 Matrices

por filas (o por columnas) que obtenemos. Es inmediato comprobar que el rango de A coincide conel numero de pivotes que tenga la matriz escalonada correspondiente.

Si A es de orden m× n siempre se tiene que rg(A) ≤ min(m,n).

El rango de una matriz tambien se puede obtener mediante el calculo de determinantes.

Proposicion 1.5.1. Sea A una matriz de orden m × n, entonces el rango de A coincide con elmayor orden de una submatriz cuadrada regular de A.

Por tanto se tiene la siguiente caracterizacion de las matrices regulares.

Proposicion 1.5.2. Una matriz cuadrada A de orden n es regular si y solo si rg(A) = n.

Page 17: Temario de Matemáticas II

Tema 2

Sistemas de ecuaciones linealesSistemas de ecuaciones lineales

2.1. Definiciones basicas

Una ecuacion lineal es una ecuacion polinomica de grado 1 en una o varias incognitas. Esdecir, es una expresion de la forma

a1x1 + ... + anxn = b

donde los terminos a1, ..., an son escalares conocidos que se llaman coeficientes; el termino b estambien otro escalar conocido que se llama termino independiente, y por ultimo los sımbolosx1, ..., xn se conocen como incognitas y son a priori desconocidas. Para un numero pequeno deincognitas, sera usual tambien denotarlas por las letras x, y, z, t, ...

Una solucion de una ecuacion es una asignacion de valores a las incognitas para la cual severifique la igualdad.

Definicion 2.1.1. Se llama sistema de m ecuaciones lineales con n incognitas a un conjuntode m ecuaciones lineales en las mismas n incognitas:

a11x1 + a12x2 + ... + a1nxn = b1

a21x1 + a22x2 + ... + a2nxn = b2

.... .... ... .... ....

am1x1 + am2x2 + ... + amnxn = bm

. (2.1)

Page 18: Temario de Matemáticas II

12 Sistemas de ecuaciones lineales

Llamaremos solucion del sistema a cada asignacion de valores de las incognitas x1 = k1, ...,xn = kn que sea solucion comun a todas las ecuaciones del sistema, es decir, que verifique todaslas igualdades simultaneamente. Se dice tambien que (k1, ..., kn) es solucion del sistema. Se llamasolucion general del sistema al conjunto de todas las soluciones del sistema. Resolver un sistemaes hallar su solucion general. Dos sistemas se dice que son sistemas equivalentes si tienen lamisma solucion general, es decir, si tienen exactamente las mismas soluciones.

Para transformar un sistema en otro sistema equivalente podemos realizar las siguientes opera-ciones elementales:

• Intercambiar dos ecuaciones.

• Multiplicar una ecuacion por un escalar no nulo.

• Sumar a una ecuacion un multiplo de otra.

• Eliminar las ecuaciones triviales del tipo 0 = 0, las ecuaciones repetidas o las proporcionales.

2.1.1. Forma matricial de un sistema de ecuaciones lineales

Cualquier sistema de ecuaciones lineales se puede expresar de forma matricial. Por ejemplo,(2.1) se puede escribir como

AX = b,

donde

A =

a11 a12 ... a1n

a21 a22 ... a2n

... ... ... ...

am1 am2 ... amn

, X =

x1

x2

...xn

y b =

b1

b2

...bm

.

A la matriz A se le llama matriz del sistema o de coeficientes. El vector X es el vectorde incognitas y el vector b es el vector de terminos independientes. Por ultimo llamamosmatriz ampliada a la matriz que se forma cuando anadimos a la matriz del sistema el vector determinos independientes:

A∗ = (A|b) =

a11 a12 ... a1n b1

a21 a22 ... a2n b2

... ... ... ... ...

am1 am2 ... amn bm

.

Como caso particular de sistemas de ecuaciones lineales cabe destacar los sistemas homogeneos.

Definicion 2.1.2. Un sistema de ecuaciones lineales se dice que es homogeneo si su vector determinos independientes es el vector nulo.

Observemos que un sistema homogeneo siempre admite la solucion trivial {x1 = 0, ..., xn = 0}.

Page 19: Temario de Matemáticas II

2.2 Clasificacion de sistemas. Teorema de Rouche-Frobenius 13

2.2. Clasificacion de los sistemas segun el numero de soluciones. Teo-

rema de Rouche-Frobenius.

Atendiendo a la existencia o no de soluciones de un sistema y al numero de estas se da lasiguiente clasificacion.

Definicion 2.2.1. Un sistema de ecuaciones lineales se dice que es un sistema incompatible sino tiene solucion. Por el contrario se dice que es un sistema compatible si tiene alguna solucion.En este ultimo caso solo caben dos posibilidades: o bien el sistema tiene una unica solucion, y eneste caso se dice que es un sistema compatible determinado, o bien tiene infinitas soluciones,llamandose un sistema compatible indeterminado.

Como ejemplo, vease que los sistemas homogeneos siempre son compatibles.

En consecuencia, la solucion general de un sistema compatible determinado consistira en launica solucion posible del sistema, mientras que la solucion general de un sistema compatibleindeterminado vendra expresada en funcion de uno o mas parametros. En este ultimo caso, paracada asignacion de valores que demos a los parametros obtendremos una solucion concreta delsistema.

Al hecho de decidir si un sistema es incompatible, compatible determinado o compatible in-determinado se le llama comunmente discutir el sistema. Para discutir un sistema no es necesarioresolverlo. Nos basta con estudiar el rango de la matriz del sistema y el de la matriz ampliada yaplicar el siguiente resultado.

Teorema 2.2.2. Teorema de Rouche-Frobenius. Sea AX = b la representacion matricial deun sistema de ecuaciones lineales y sea A∗ = (A|b) la matriz ampliada del sistema. Entonces, elsistema es compatible si y solo si rg(A) = rg(A∗). En este caso el sistema es compatible determinadosi rg(A) coincide con el numero de incognitas, y es compatible indeterminado si rg(A) es menorque el numero de incognitas.

Algunas consecuencias inmediatas del Teorema 2.2.2 son las siguientes.

1. Un sistema es incompatible si y solo si rg(A) < rg(A∗), ya que por ser A una submatriz deA∗ la otra desigualdad estricta no es nunca posible.

2. Como el numero de ecuaciones del sistema coincide con el numero de filas de A y el numerode incognitas con el numero de columnas, rg(A) siempre es menor o igual que el numero deincognitas del sistema y que el numero de ecuaciones.

En el caso de un sistema compatible indeterminado sabemos que su solucion general dependede parametros. El numero de parametros necesarios es igual a la diferencia entre el numero de

Page 20: Temario de Matemáticas II

14 Sistemas de ecuaciones lineales

incognitas y el rango de la matriz del sistema:

no de parametros = no de incognitas− rg(A).

2.3. Metodos de resolucion

2.3.1. Metodo de Cramer

Del Teorema 2.2.2 y de las observaciones que le suceden se sigue que si tenemos un sistemade ecuaciones lineales con n incognitas, el menor numero de ecuaciones para que sea compatibledeterminado es tambien n. En este caso la matriz del sistema A es cuadrada, y para que se verifiquerg(A) = n ha de tener determinante no nulo. Es decir, A tiene que ser una matriz regular. Lossistemas que cumplen estas caracterısticas se denominan sistemas de Cramer.

Definicion 2.3.1. Un sistema de ecuaciones lineales se dice que es un sistema de Cramer sies un sistema compatible determinado de n ecuaciones con n incognitas. O equivalentemente, si lamatriz del sistema A es una matriz cuadrada regular.

Es posible dar la solucion de un sistema de Cramer mediante determinantes. De hecho, unsistema de Cramer generico viene dado por

a11x1 + a12x2 + ... + a1nxn = b1

a21x1 + a22x2 + ... + a2nxn = b2

.... .... ... .... ....

an1x1 + an2x2 + ... + annxn = bn

,

y se puede probar que su solucion es

x1 =

∣∣∣∣∣∣∣∣∣∣

b1 a12 ... a1n

b2 a22 ... a2n

... ... ... ...

bn an2 ... ann

∣∣∣∣∣∣∣∣∣∣|A| , x2 =

∣∣∣∣∣∣∣∣∣∣

a11 b1 ... a1n

a21 b2 ... a2n

... ... ... ...

an1 bn ... ann

∣∣∣∣∣∣∣∣∣∣|A| , ..., xn =

∣∣∣∣∣∣∣∣∣∣

a11 a12 ... b1

a21 a22 ... b2

... ... ... ...

an1 an2 ... bn

∣∣∣∣∣∣∣∣∣∣|A| .

Obtener la solucion de un sistema compatible determinado mediante determinantes es lo quese conoce como metodo de Cramer. Los principales incovenientes del metodo de Cramer son: tieneun alto coste computacional, y solamente se puede aplicar a sistemas de Cramer. Sin embargo,siguiendo la filosofıa del metodo de Gauss que hemos expuesto en el Tema 1 podemos discutir yresolver simultaneamente cualquier sistema de ecuaciones lineales.

Page 21: Temario de Matemáticas II

2.4 Aplicaciones: metodo de los mınimos cuadrados 15

2.3.2. Metodo de Gauss

Hay una serie de sistemas de ecuaciones lineales muy faciles de discutir y de resolver, los sistemasescalonados.

Definicion 2.3.2. Un sistema de ecuaciones lineales es un sistema escalonado si la matrizampliada es una matriz escalonada por filas tal y como se definio en el Tema 1.

Si la matriz ampliada del sistema es una matriz escalonada por filas, la matriz del sistematambien lo sera, y por tanto sera inmediato hallar y comparar los rangos de ambas matrices. Enconsecuencia, gracias al Teorema 2.2.2 la discusion del sistema es inmediata.

Con respecto a la resolucion:

• Si el sistema es incompatible no hay nada que resolver.

• Si el sistema es compatible determinado se podra resolver de forma regresiva: en la ultimaecuacion se despeja la ultima incognita y se sustituye en la penultima ecuacion. En estapenultima ecuacion se despeja la penultima incognita y se sustituye en la anterior, y ası hastallegar a la primera ecuacion donde despejaremos la primera incognita.

• Si el sistema es compatible indeterminado lo resolveremos de modo similar, pero nos quedaranincognitas “libres” que no podamos despejar. Estas incognitas seran los parametros de lasolucion general del sistema.

El metodo de Gauss para la resolucion de sistemas consiste en transformar un sistema deecuaciones lineales en otro equivalente que sea escalonado, para discutirlo y resolverlo como se acabade explicar. Para ello, basta con escribir el sistema en forma matricial y aplicarle transformacioneselementales de filas a la matriz ampliada hasta obtener una matriz escalonada por filas. Tambienpodemos eliminar las filas nulas, o las que sean iguales o proporcionales. La matriz que obtengamossera la matriz ampliada correspondiente a un sistema escalonado equivalente al inicial.

Si se prefiere se puede hacer el mismo proceso sin escribir el sistema en forma matricial, mani-pulando directamente las ecuaciones.

2.4. Aplicaciones: metodo de los mınimos cuadrados

Por definicion un sistema incompatible no tiene solucion. No obstante en ocasiones convienebuscar una aproximacion, es decir, una o varias asignaciones de valores para las incognitas que,aunque no satisfagan todas las ecuaciones del sistema simultaneamente, el “error” sea de algunmodo pequeno.

Este planteamiento es interesante porque en multiples ocasiones los sistemas de ecuacioneslineales surgen como modelos matematicos sencillos de problematicas tangibles y reales. Los modelos

Page 22: Temario de Matemáticas II

16 Sistemas de ecuaciones lineales

mas realistas suelen tener un alto numero de ecuaciones, y la mayorıa de las veces obtenemossistemas incompatibles (por errores de medicion, o simplemente porque no hay solucion). Algunos delos problemas mas clasicos son: problemas de transporte, de abastecimiento, de flujos, de regresionlineal...

Para buscar las “mejores” asignaciones tenemos que especificar que tipo de error vamos a consi-derar. Una vez fijado el error solo tendremos que minimizarlo. El error que vamos a considerar es elmınimo cuadratico. Supongamos que tenemos el sistema (2.1) y que consideramos una asignacionde valores (x1, ..., xn) = (k1, ..., kn). En un primer intento de definir el error podrıamos pensar queel error cometido en cada una de las ecuaciones viene dado por

|a11k1 + a12k2 + ... + a1nkn − b1| , ... , |am1k1 + am2k2 + ... + amnkn − bm|.

Por tanto, el error total serıa su suma:

|a11k1 + a12k2 + ... + a1nkn − b1| + ... + |am1k1 + am2k2 + ... + amnkn − bm|.

Esta funcion no tiene buenas propiedades analıticas ya que no es derivable, pero tampoco podemoseliminar sin mas los valores absolutos porque los errores individuales deben ser positivos para nocompensarse.

Para solventar este problema de derivabilidad, la funcion que usualmente se considera es lasuma de los cuadrados de los errores individuales, es decir:

E(x1, ..., xn) = (a11x1 + a12x2 + ... + a1nxn − b1)2 + ... + (am1x1 + am2x2 + ... + amnxn − bm)2.

Esta funcion cuadratica es facil de minimizar siguiendo los metodos estudiados en la asignaturaMatematicas I, y su mınimo sera la aproximacion que buscabamos.

El metodo que acabamos de describir es el que se conoce como metodo de los mınimos cuadradospara aproximar un sistema incompatible. Es interesante observar que el metodo tambien podrıaaplicarse al caso de sistemas compatibles, pero entonces obtendrıamos como mınimos de la funcionerror las propias soluciones del sistema. Observese tambien que la funcion error es siempre positivay se anula en un punto si y solo si el punto es solucion del sistema.

Page 23: Temario de Matemáticas II

Tema 3

Espacios vectorialesEspacios vectoriales

3.1. Definicion y propiedades

El conjunto de todas las matrices de un mismo orden dotado de las operaciones suma y productopor un escalar, tal cual se ha definido en el Tema 1, es un ejemplo particular de la estructura deespacio vectorial que definimos a continuacion.

Definicion 3.1.1. Sea K el conjunto de los numeros reales R o el conjunto de los numeros complejosC y sea V un conjunto no vacıo. Supongamos que en V hay definida una operacion interna, quedenotaremos por +, y una operacion externa, que denotaremos por ·. Diremos que (V,+, ·) es unespacio vectorial sobre K si se verifican las siguientes propiedades:

1. Propiedad asociativa (op. interna): (u + v) + w = u + (v + w), ∀u,v,w ∈ V .

2. Propiedad conmutativa: u + v = v + u, ∀u,v,∈ V .

3. Existencia de elemento neutro: ∃0 ∈ V |0 + v = v, ∀v ∈ V .

4. Existencia de elemento opuesto: ∀v ∈ V ∃ -v ∈ V |v + (-v) = 0.

5. Propiedad distributiva I: a · (u + v) = a · u + a · v, ∀ a ∈ K, ∀u,v ∈ V .

6. Propiedad distributiva II: (a + b) · v = a · v + b · v, ∀ a, b ∈ K, ∀v ∈ V .

7. Propiedad asociativa (op. externa): a · (b · v) = (ab) · v, ∀ a, b ∈ K, ∀v ∈ V .

8. Elemento unidad: 1 · v = v, ∀v ∈ V , donde 1 es el numero 1 en K.

Page 24: Temario de Matemáticas II

18 Espacios vectoriales

Los elementos de V suelen denominarse vectores y los elementos de K, tal y como hemos indicadoen el Tema 1, escalares. En el caso en que K = R diremos que (V,+, ·) es un espacio vectorialreal mientras que en el caso en que K = C diremos que (V, +, ·) es un espacio vectorial complejo.

NOTA: En realidad, en la definicion anterior podrıamos considerar como K un conjunto masgeneral, lo que se conoce en Algebra como un cuerpo. Sin embargo, para los propositos de estaasignatura nos bastara con considerar espacios vectoriales reales o complejos.

Cabe aclarar algunos detalles de la definicion anterior:

• A la operacion interna + se le conoce normalmente como suma.

• A la operacion externa · se le conoce normalmente como producto por escalares. A menudoomitiremos el sımbolo ·.

• Cuando no haya lugar a confusion con respecto a las operaciones consideradas, denotaremosel espacio vectorial simplemente por V .

• Para evitar confusiones escribiremos los vectores en negrita. En particular, observemos quetenemos dos elementos neutros: el vector 0 y el escalar 0, y no debemos confundirlos.

Todo espacio vectorial satisface las siguientes propiedades.

Proposicion 3.1.2. Sea V un espacio vectorial. Entonces, se tiene

1. a · 0 = 0, ∀a ∈ K.

2. 0 · v = 0, ∀v ∈ V .

3. Si a · v = 0 para a ∈ K y v ∈ V entonces, o bien a = 0, o v = 0.

4. (−1) · v = -v, ∀v ∈ V .

3.1.1. Ejemplos clasicos

Algunos ejemplos clasicos de espacios vectoriales reales son:

• Dado cualquier n ∈ N el conjunto

Rn = {(x1, ...xn) : x1, ..., xn ∈ R}

dotado de las operaciones suma y producto por escalares usuales.

• El conjunto Mm×n(R) de las matrices con coeficientes reales de orden m × n dotados de lasuma y el producto por escalares usuales.

Page 25: Temario de Matemáticas II

3.2 Dependencia e independencia lineal 19

• El conjunto P(R) de los polinomios de variable real con coeficientes reales con la suma y elproducto por escalares usuales.

• El conjunto Pn(R) de los polinomios de grado a lo sumo n con coeficientes reales con la sumay el producto por escalares usuales.

• El conjunto C ([0, 1]) de las funciones continuas en el intervalo cerrado [0, 1] con la suma y elproducto por escalares usuales.

Por otro lado, podrıamos considerar Cn = {(x1, ..., xn) : x1, ..., xn ∈ C}, y todos los ejemplosanteriores con coeficientes complejos o en variable compleja segun corresponda. Todos estos casosserıan ejemplos de espacios vectoriales tanto reales como complejos (dependiendo del cuerpo delque consideremos los escalares).

Siempre que sea posible la teorıa se expondra en general para espacios vectoriales tanto realescomo complejos. No obstante, como ya hemos dicho en el Tema 1, para facilitar que los alumnosasimilen la materia, los ejemplos en clase y los ejercicios que se les propongan versaran en sumayorıa sobre espacios vectoriales reales. Solo trabajaremos con espacios vectoriales complejoscuando queramos poner de manifiesto alguna diferencia significativa.

Trabajaremos a menudo con los ejemplos que acabamos de introducir, por lo que mantendremosla notacion siempre que sea posible. Mientras no se especifiquen las operaciones a considerar,asumiremos que son la suma y el producto por escalares usuales en cada uno de los conjuntos queestemos tratando.

Como un ultimo ejemplo de espacio vectorial consideremos un conjunto formado por un unicoelemento. Se puede dotar a este conjunto de estructura de espacio vectorial (real o complejo). Paraello, el unico elemento del conjunto tiene que ser el elemento neutro: V = {0} y se definen lasoperaciones suma y producto por escalares del unico modo posible: 0 + 0 = 0 y a · 0 = 0, ∀ a ∈ K.Este ejemplo se conoce como espacio vectorial trivial.

3.2. Dependencia e independencia lineal

Definicion 3.2.1. Dado un conjunto de vectores v1, ..., vk de un espacio vectorial V , llamaremoscombinacion lineal de ellos a cualquier vector de la forma

a1v1 + ... + akvk

donde los coeficientes ai, i = 1, ..., k, son escalares de K.

El concepto de combinacion lineal nos permite dar la definicion de dependencia e independencialineal que sera fundamental a lo largo de toda la asignatura.

Page 26: Temario de Matemáticas II

20 Espacios vectoriales

Definicion 3.2.2. Se dice que un conjunto finito de vectores {v1, ...,vk} es linealmente depen-diente si el elemento neutro se puede escribir como combinacion lineal de ellos con no todos loscoeficientes nulos. Es decir, si existen escalares a1, ..., ak no todos nulos tales que

a1v1 + ... + akvk = 0.

Por el contrario, si {v1, ...,vk} no es linealmente dependiente, se dice que es un conjunto lineal-mente independiente. Es decir,

si a1v1 + ... + akvk = 0 ⇒ a1 = ... = ak = 0.

Como una consecuencia inmediata de esta definicion, observemos que cualquier conjunto devectores que contenga al elemento neutro es linealmente dependiente.

De la definicion tambien se deduce facilmente el siguiente resultado.

Proposicion 3.2.3. 1. Si S = {v1, v2, ..., vk} es un conjunto de vectores linealmente depen-diente, entonces cualquier otro conjunto de vectores S′ que lo contenga (S ⊆ S′) tambien eslinealmente dependiente.

2. Si S = {v1, v2, ..., vk} es un conjunto de vectores linealmente independiente, entonces cual-quier subconjunto de S tambien es linealmente independiente.

Estudiar la independencia o dependencia lineal de un conjunto finito de vectores es equivalentea estudiar si un determinando sistema homogeneo es compatible determinado o indeterminado,respectivamente.

Una caracterizacion equivalente de la dependencia lineal es la que sigue.

Proposicion 3.2.4. Un conjunto de vectores {v1, ..., vk} es linealmente dependiente si y solo sipodemos expresar uno de los vectores del conjunto como combinacion lineal del resto.

NOTA: Que podamos expresar uno de los vectores como combinacion lineal del resto no significaque podamos expresar cualquier vector como combinacion lineal del resto.

Es interesante tambien remarcar que en la definicion de combinacion lineal no solo intervienenlos vectores, sino tambien los escalares. Si consideramos un mismo conjunto como espacio vectorialreal y como espacio vectorial complejo el concepto de dependencia e independencia lineal puedevariar.

3.3. Conceptos de base y dimension

Definicion 3.3.1. Se dice que V es un espacio vectorial de dimension finita si existe unconjunto finito de vectores S = {v1, ...,vk} ⊆ V de modo que cualquier otro vector v ∈ V se pueda

Page 27: Temario de Matemáticas II

3.3 Conceptos de base y dimension 21

expresar como una combinacion lineal de los elementos de S. En este caso, se dice que el conjuntoS es un sistema de generadores o un sistema generador de V .

De ahora en adelante, y salvo que se indique lo contrario, trabajaremos con espacios vectorialesde dimension finita. La teorıa se puede extender a espacios vectoriales que no admitan un conjuntofinito de generadores, pero esto excede de los contenidos de la asignatura. Diremos que los espaciospara los que se da esta situacion son espacios vectoriales de dimension infinita.

Un sistema generador S de V no tiene porque ser un conjunto linealmente independiente. Noobstante, siempre podemos extraer un subconjunto de S que sea linealmente independiente. Bastacon quitar uno a uno los vectores que se puedan expresar como combinacion lineal del resto. Ademas,puesto que los vectores que eliminamos se pueden expresar como combinacion lineal del resto, esfacil razonar que el subconjunto linealmente independiente con el que nos vamos a quedar tambienes un sistema generador de V .

Por otro lado, un conjunto de vectores linealmente independiente de V no es necesariamenteun sistema generador de V . Sin embargo, podemos completar el conjunto anadiendo uno a unovectores que sean linealmente independientes con los anteriores hasta obtener un sistema generadorde V . Son estos conjuntos los que nos van a interesar.

Definicion 3.3.2. Dado un espacio vectorial V , un subconjunto de vectores B ⊆ V es una basede V si es simultaneamente un conjunto linealmente independiente y un sistema generador de V .

Las bases de un espacio vectorial no son unicas.

Teorema 3.3.3. Teorema de la base. Si un espacio vectorial V tiene una base formada por unnumero finito de vectores, entonces todas las bases de V son finitas y tienen el mismo numero devectores. En este caso llamaremos dimension de V , y lo denotaremos por dim(V ), al numero devectores de cualquiera de sus bases.

Vamos a describir ahora las bases mas sencillas de algunos de los espacios vectoriales clasicos.Cada una de estas bases se conoce como base estandar o canonica:

• Para el espacio vectorial real Rn, B = {(1, 0, ..., 0), (0, 1, ..., 0), ..., (0, 0, ..., 1)}.• Para el espacio vectorial real Cn,

B = {(1, 0, ..., 0), (i, 0, ..., 0), (0, 1, ..., 0), (0, i, ..., 0), ..., (0, 0, ..., 1), (0, 0, ..., i)}.• Para el espacio vectorial complejo Cn, B = {(1, 0, ..., 0), (0, 1, ..., 0), ..., (0, 0, ..., 1)}.• Para el espacio vectorial real Pn(R), B = {1, x, x2, ..., xn}.• Para el espacio vectorial real Mm×n(R),

B =

1 0 ... 0... ... ... ...

0 0 ... 0

m×n

,

0 1 ... 0... ... ... ...

0 0 ... 0

m×n

, ...,

0 0 ... 0... ... ... ...

0 0 ... 1

m×n

.

Page 28: Temario de Matemáticas II

22 Espacios vectoriales

Como consecuencia dim(Rn) = n, dim(Pn(R)) = n + 1 y dim(Mm×n(R)) = m × n. Y, en cuantoa Cn tendremos que su dimension real es 2n, dimR(Cn) = 2n, y su dimension compleja es n,dimC(Cn) = n.

Por otro lado, es facil probar que P(R) y C ([0, 1]) son espacios vectoriales reales de dimensioninfinita.

Consideremos por ultimo el espacio vectorial trivial V = {0}. Ya hemos visto que cualquierconjunto de vectores que contenga al elemento neutro es linealmente dependiente. Por tanto, V

no tiene ningun subconjunto linealmente independiente. En consecuencia dim(V ) = 0 y no tienesentido hablar de base, no existe.

Ya hemos dicho que, dado un espacio vectorial V , cualquier subconjunto S ⊂ V de vectoreslinealmente independientes se puede extender a una base de V , y cualquier sistema generador sepuede reducir tambien a una base de V . Ademas, por el teorema de la base todas las bases de V

tienen el mismo numero de elementos.

Proposicion 3.3.4. Sea V un espacio vectorial de dimension n. Entonces:

1. Todo conjunto de n vectores linealmente independientes de V es una base de V .

2. Todo sistema generador de V de n elementos es una base de V .

3.3.1. Coordenadas y cambio de base

Dado un sistema generador S de V y un vector cualquiera v ∈ V , en general no hay unaunica manera de expresar v como combinacion lineal de los elementos de S. Sin embargo, estacombinacion lineal es unica en el caso en que S sea una base de V .

Proposicion 3.3.5. Sea V un espacio vectorial. Si B = {v1, ..., vn} es una base de V , entoncescualquier vector v ∈ V se puede escribir de forma unica como una combinacion lineal de los vectoresde B. Es decir, existe una unica eleccion de escalares a1, ..., an ∈ K de modo que

v = a1v1 + ... + anvn.

A los coeficientes de esta combinacion lineal se les llama coordenadas de v con respecto a la baseB y se denota como

v = (a1, ..., an)B.

De la definicion de coordenadas dada en la Proposicion 3.3.5 se observa que, si V un espaciovectorial de dimension n y B es una base cualquiera de V , entonces cualquier vector v ∈ V sepuede identificar mediante sus coordenadas con respecto a B con un vector de Kn (es decir, Rn oCn segun corresponda). Esto nos va a permitir, una vez expresados todos los vectores en funcion de

Page 29: Temario de Matemáticas II

3.3 Conceptos de base y dimension 23

una misma base, trabajar en cualquier espacio vectorial de dimension finita como si lo estuvieramoshaciendo en Kn.

Las coordenadas simplifican las operaciones con vectores. De hecho, sea V un espacio vectorialde dimension n, sea B una base de V , y sean u y v dos vectores de V . Entonces, si u = (a1, ..., an)B

y v = (b1, ..., bn)B se tiene:

• u + v = (a1 + b1, ..., an + bn)B.

• ku = (ka1, ...., kan)B, ∀ k ∈ K.

Las coordenadas tambien nos permiten decidir sobre la dependencia o independencia lineal deun conjunto de vectores.

Teorema 3.3.6. Sea V un espacio vectorial y sea B una base cualquiera de V . Un conjunto devectores {u1, ...,ur} es linealmente independiente si y solo si la matriz cuyas columnas (o filas) sonlas coordenadas de cada uno de estos vectores con respecto a la base B tiene rango r.

Notese que, por lo general, las expresiones en coordenadas de un vector con respecto a dos basesdistintas seran tambien distintas. Veamos como se relacionan ambas coordenadas. Para ello, sea V

un espacio vectorial de dimension n y sean B = {v1, ...,vn} y B′ = {v′1, ...,v′n} dos bases de V .Dado un vector v ∈ V podemos considerar sus coordenadas con respecto a ambas bases:

v = (a1, ..., an)B = (a′1, ..., a′n)B′ .

Por otro lado, por ser B una base, podemos expresar cada uno de los vectores de B′ en coordenadascon respecto a B, v′j = (p1j , ..., pnj)B, ∀ 1 ≤ j ≤ n. De aquı se llega facilmente a que

v =n∑

j=1

a′j v′j =n∑

j=1

a′j

(n∑

i=1

pij vi

)=

n∑

i=1

n∑

j=1

pij a′j

vi.

Como conclusion, por la unicidad de coordenadas con respecto a la misma base tenemos que

ai =n∑

j=1

pij a′j , ∀ 1 ≤ i ≤ n. Escrito en forma matricial tenemos

a1

a2

...

an

B

=

p11 p12 ... p1n

p21 p22 ... p2n

... ... ... ...

pn1 pn2 ... pnn

a′1a′2...

a′n

B′

.

La matriz PBB′ =

p11 p12 ... p1n

p21 p22 ... p2n

... ... ... ...

pn1 pn2 ... pnn

se conoce como matriz cambio de base de B′ a B.

Observemos que se trata de la matriz cuyas columnas son las coordenadas de los vectores de labase B′ en funcion de la base B.

Page 30: Temario de Matemáticas II

24 Espacios vectoriales

Analogamente se puede deducir el cambio de base de B a B′. Ası, de modo similar obtendrıamos

que

a′1a′2...

a′n

B′

= PB′B

a1

a2

...

an

B

donde PB′B es la matriz cambio de base de B a B′. Es decir, la

matriz cuyas columnas son las coordenadas de los vectores de la base B en funcion de la base B′.

Se puede comprobar que las matrices cambio de base siempre son regulares, y que ademas severifica PB′

B =(PB

B′)−1.

3.4. Subespacios vectoriales

Definicion 3.4.1. Sea V un espacio vectorial y sea U un subconjunto no vacıo de V . Decimos queU es un subespacio vectorial de V si U es en sı mismo un espacio vectorial con las operacionesinducidas de V . Lo denotaremos como U ≤ V .

Una caracterizacion equivalente de subespacio vectorial es la siguiente.

Proposicion 3.4.2. Sea V un espacio vectorial y sea ∅ 6= U ⊆ V . Son equivalentes:

• U es un subespacio vectorial de V .

• Dados dos vectores cualesquiera u, v ∈ U y dos escalares a, b ∈ K se tiene que au + bv ∈ U .

Todo espacio vectorial no trivial V tiene al menos dos subespacios vectoriales distintos: U = V

y U = {0}. Estos dos subespacios se conocen como subespacios impropios mientras que el restode subespacios intermedios se llaman subespacios propios.

Uno de los modos mas habituales y sencillos de obtener subespacios vectoriales es a partir deun subconjunto cualquiera de V .

Definicion 3.4.3. Sea S ⊆ V y consideremos el conjunto formado por todas las posibles combi-naciones lineales finitas de vectores de S:

L(S) = {a1s1 + ... + ansn; n ∈ N, ai ∈ K, si ∈ S, i = 1, ..., n}.

Es facil demostrar que L(S) es un subespacio vectorial de V . Se conoce como subespacio generadopor S.

Se puede demostrar que L(S) es el menor subespacio vectorial de V que contiene a S.

Dado cualquier subespacio vectorial U 6= ∅, podemos encontrar un conjunto S ⊂ V de modo queU = L(S). Diremos en este caso que S es un conjunto de generadores de U . Por tener los subespacios

Page 31: Temario de Matemáticas II

3.4 Subespacios vectoriales 25

vectoriales estructura de espacio vectorial podemos hablar de base y dimension: una base de unsubespacio vectorial U es cualquier conjunto de generadores de U linealmente independiente, yla dimension de U es el numero de elementos de cualquier base suya. Observese que si U es unsubespacio vectorial de V entonces dim(U) ≤ dim(V ), dandose la igualdad si y solo si U = V .

3.4.1. Ecuaciones de un subespacio

Sea V un espacio vectorial de dimension n y sea U un subespacio vectorial de V de dimensionr. Veamos que U puede interpretarse como el conjunto de soluciones de un determinado sistemade ecuaciones. Para ello consideremos B = {v1, ...,vn} y BU = {u1, ...,ur} bases de V y U

respectivamente. Cada vector de BU lo podemos expresar en coordenadas con respecto a B comoui = (a1i, a2i, ..., ani)B. Por otro lado, cualquier vector x ∈ U se puede expresar en coordenadas conrespecto a BU : x = (λ1, ..., λr)BU

y con respecto a B: x = (x1, ..., xn)B. Siguiendo un desarrollosimilar al del cambio de base podemos obtener la relacion entre ambas coordenadas:

x1 = a11 λ1 + a12 λ2 + ... + a1r λr

x2 = a21 λ1 + a22 λ2 + ... + a2r λr

... ... ... ...

xn = an1 λ1 + an2 λ2 + ... + anr λr

Este sistema de ecuaciones se conoce como ecuaciones parametricas de U respecto a la base B.A partir de estas ecuaciones, eliminando los parametros, vemos que tambien podemos obtener todoslos elementos de U , x = (x1, ..., xn)B como el conjunto de soluciones de un sistema homogeneo de n

incognitas y n−r ecuaciones. A este sistema homogeneo se le conoce como ecuaciones cartesianasde U respecto a B. Tanto unas ecuaciones como las otras nos proporcionan las condiciones necesariaspara que un determinado vector pertenezca a U . Las ecuaciones cartesianas no son unicas.

3.4.2. Operaciones entre dos subespacios

Sea V un espacio vectorial y sean U y W dos subespacios vectoriales de V . Es posible operarU y W para obtener nuevos subespacios.

Proposicion 3.4.4. La interseccion U ∩W es un subespacio vectorial de V .

Sin embargo, es facil ver que la union U ∪W no es, por lo general, un subespacio vectorial. Noobstante, podemos considerar el menor subespacio que contenga a U ∪W .

Definicion 3.4.5. El menor subespacio que contiene a U∪W se denomina suma de los subespaciosU y W y se denota por U + W .

En el caso particular en que U ∩W = {0} se dice que la suma es una suma directa y se denotapor U ⊕W .

Page 32: Temario de Matemáticas II

26 Espacios vectoriales

Se puede comprobar que U + W = {u + w |u ∈ U,w ∈ W}.Por lo general la descomposicion de un vector v ∈ U + W como suma de un vector de U y otro

de W no es unica, pero sı lo es en el caso en que la suma sea directa.

La suma directa nos permite definir el concepto de subespacio complementario (o suplementa-rio).

Proposicion 3.4.6. Sea V un espacio vectorial y sea U un subespacio vectorial de V . Entoncessiempre existe otro subespacio vectorial de V , W , de modo que V = U ⊕W . En este caso se diceque W es un subespacio complementario (o suplementario) de U .

El subespacio complementario (o suplementario) a uno dado no es unico.

Por ultimo cabe destacar la siguiente relacion entre las dimensiones de los subespacios U , W ,U + W y U ∩W .

Proposicion 3.4.7. Sea V un espacio vectorial y sean U y W dos subespacios vectoriales de V ,entonces:

dim(U + W ) = dim(U) + dim(W )− dim(U ∩W ).

NOTA: De modo similar se podrıan definir las operaciones entre un numero arbitrario de su-bespacios vectoriales.

3.5. Espacios vectoriales euclıdeos

A lo largo de esta seccion, V va a representar un espacio vectorial real. En esta seccion queremosver como podemos enriquecer la estructura de V . Para ello introduciremos el concepto de productoescalar y de espacio vectorial euclıdeo.

Definicion 3.5.1. Sea V un espacio vectorial real. Un producto escalar en V es una aplicacion

〈, 〉 : V × V → R

verificando las siguientes propiedades:

1. Simetrıa: 〈u,v〉 = 〈v,u〉, ∀u,v ∈ V .

2. Bilinealidad: 〈au + bv,w〉 = a〈u,w〉+ b〈v,w〉, ∀ a, b ∈ R, ∀u,v,w ∈ V .

3. Definido positivo: 〈v,v〉 ≥ 0, ∀v ∈ V y 〈v,v〉 = 0 si y solo si v = 0.

Definicion 3.5.2. Un espacio vectorial euclıdeo es un par (V, 〈, 〉) formado por un espaciovectorial real V y un producto escalar definido en el.

Page 33: Temario de Matemáticas II

3.5 Espacios vectoriales euclıdeos 27

Hay que tener en cuenta que, si para un mismo espacio vectorial real, consideramos distintosproductos escalares, obtendremos distintos espacios vectoriales euclıdeos.

El producto escalar de un espacio euclıdeo de dimension finita se puede expresar matricialmentecomo sigue. Sea (V, 〈, 〉) un espacio vectorial euclıdeo de dimension finita, sea B = {v1, ...,vn} unabase de V y consideremos cij = 〈vi,vj〉, 1 ≤ i, j ≤ n. Se llama matriz de Gram de (V, 〈, 〉) conrespecto de la base B a la matriz

A =

c11 . . . c1n

.... . .

...cn1 . . . cnn

.

Consideremos ahora u,v ∈ V , e identifiquemos estos vectores con las matrices filas que forman suscoordenadas con respecto a B, es decir: u = (a1, ..., an)B y v = (b1, ..., bn)B. Entonces el productoescalar se puede expresar como el siguiente producto de matrices:

〈u,v〉 =(

a1 · · · an

)A

b1

...bn

.

A esta expresion es a la que se le conoce como forma o expresion matricial del productoescalar.

3.5.1. Norma de un vector

Definicion 3.5.3. Sea (V, 〈, 〉) un espacio vectorial euclıdeo y sea v ∈ V . Se define la norma omodulo de v como

‖v‖ =√〈v,v〉.

De las definiciones de norma y de producto escalar se deducen las siguientes propiedades parala norma de un vector.

Proposicion 3.5.4. Sea (V, 〈, 〉) un espacio vectorial euclıdeo y sean v ∈ V y a ∈ R. Entonces,

1. ‖v‖ ≥ 0 y ‖v‖ = 0 si y solo si v = 0.

2. ‖av‖ = |a|‖v‖.

Se dice que un vector v es unitario si tiene norma 1. Podemos obtener un vector unitario apartir de cualquier vector dado dividiendolo por su norma.

Las siguientes desigualdades son dos propiedades no tan inmediatas pero muy importantes.

Proposicion 3.5.5. Sea (V, 〈, 〉) un espacio vectorial euclıdeo y sean u, v ∈ V . Entonces,

• Desigualdad de Cauchy-Schwarz: |〈u, v〉| ≤ ‖u‖‖v‖.• Desigualdad triangular: ‖u + v‖ ≤ ‖u‖+ ‖v‖.

Page 34: Temario de Matemáticas II

28 Espacios vectoriales

3.5.2. Angulo entre dos vectores. Vectores ortogonales

La desigualdad de Cauchy-Schwarz nos permite definir el angulo entre dos vectores.

Definicion 3.5.6. Dado (V, 〈, 〉) un espacio vectorial euclıdeo y dados u,v ∈ V , se llama anguloentre los vectores u y v al unico numero real 0 ≤ θ ≤ π de forma que

cos θ =〈u,v〉‖u‖‖v‖ .

Dos vectores u,v ∈ V se dice que son ortogonales, y se denota por u ⊥ v, si el angulo queforman es π

2 , o equivalentemente si 〈u,v〉 = 0. Esto nos permite definir unas bases con caracterısticasespeciales que las hacen mas operativas.

Definicion 3.5.7. Dado un espacio vectorial euclıdeo (V, 〈, 〉), una base B = {e1, ..., en} se diceque es

• una base ortogonal si los vectores que la forman son ortogonales dos a dos.

• una base ortonormal si es ortogonal y ademas todos los vectores son unitarios.

Estas bases nos permiten, por ejemplo, obtener una expresion sencilla de las coordenadas de unvector con respecto a una de dichas bases.

Proposicion 3.5.8. Sea (V, 〈, 〉) un espacio vectorial euclıdeo y sea B = {e1, ..., en} una baseortogonal. Entonces, las coordenadas de un vector v ∈ V con respecto a B, v = (v1, ..., vn)B, vienendadas por

vi =〈v, ei〉‖ei‖2

.

Siempre podemos construir una base ortonormal a partir de una base dada. Para ello hay queaplicar el proceso conocido como metodo de Gram-Schmidt.

Teorema 3.5.9. Sea (V, 〈, 〉) un espacio vectorial euclıdeo y sea B = {v1, ..., vn} una base cualquie-ra de V . Entonces existe una base ortonormal de V , B′ = {e1, ..., en}, de forma que L(v1, ..., vk) =L(e1, ..., ek) para cualquier 1 ≤ k ≤ n.

Los vectores de B′ se construyen segun el siguiente algoritmo. En primer lugar construimos unabase ortogonal de V , {e′1, ..., e′n}, mediante las siguientes expresiones:

e′1 = v1

e′2 = v2 − 〈v2, e′1〉‖e′1‖2

e′1

...

e′n = vn − 〈vn, e′1〉‖e′1‖2

e′1 − ...− 〈vn, e′n-1〉‖e′n-1‖2

e′n-1.

Basta ahora con dividir cada uno de estos vectores por su modulo para obtener los vectores de la

base ortonormal, ei =e′i‖e′i‖

, ∀ 1 ≤ i ≤ n.

Page 35: Temario de Matemáticas II

3.5 Espacios vectoriales euclıdeos 29

3.5.3. Complemento ortogonal

Se dice que un vector v ∈ V es ortogonal a un subespacio vectorial U ≤ V , y se denota v ⊥ U ,si es ortogonal a todos los vectores de U , es decir, si v ⊥ u ∀u ∈ U . Si consideramos el conjuntode todos los vectores ortogonales a U obtendremos un nuevo subespacio vectorial.

Proposicion 3.5.10. Sea (V, 〈, 〉) un espacio vectorial euclıdeo de dimension finita y sea U unsubespacio de V . Entonces, el conjunto

U⊥ = {v ∈ V | v ⊥ U}es un subespacio vectorial de V . Ademas, V = U ⊕ U⊥ y, en particular,

dim(U⊥) = dim(V )− dim(U).

Llamamos a U⊥ el complemento ortogonal de U .

Observese que (U⊥)⊥ = U .

El complemento ortogonal nos permite definir la proyeccion ortogonal de un vector sobre uncierto subespacio. Como V = U⊕U⊥, cualquier vector v ∈ V se puede escribir de forma unica comov = u + w con u ∈ U y w ∈ U⊥. En esta situacion diremos que u es la proyeccion ortogonal dev sobre U y lo denotaremos por u = pU (v). Analogamente, el vector w sera la proyeccion ortogonalde v sobre U⊥, w = pU⊥(v).

3.5.4. El producto vectorial en R3

Para finalizar el tema, consideremos el espacio euclıdeo ordinario o estandar R3. Es decir,consideremos el producto escalar sobre R3 que hace que el conjunto B = {(1, 0, 0), (0, 1, 0), (0, 0, 1)}sea una base ortonormal, es decir, el producto escalar usual.

En este contexto vamos a dar la definicion y las principales propiedades del producto vectorialde dos vectores de R3.

Definicion 3.5.11. Dados dos vectores u,v ∈ R3, se define el producto vectorial de u y v comoel unico vector u ∧ v ∈ R3 tal que

〈u ∧ v,w〉 = det(u,v,w), ∀w ∈ R3.

En concreto, si u = (u1, u2, u3)B y v = (v1, v2, v3)B se tiene que

u ∧ v =

∣∣∣∣∣u2 u3

v2 v3

∣∣∣∣∣ e1 −∣∣∣∣∣

u1 u3

v1 v3

∣∣∣∣∣ e2 +

∣∣∣∣∣u1 u2

v1 v2

∣∣∣∣∣ e3

siendo e1 = (1, 0, 0), e2 = (0, 1, 0) y e3 = (0, 0, 1).

El producto vectorial verifica las siguientes propiedades. Dados tres vectores u,v,w ∈ R3 ydados dos escalares a, b ∈ R se verifica que:

Page 36: Temario de Matemáticas II

30 Espacios vectoriales

1. Antisimetrıa: u ∧ v = −v ∧ u.

2. Bilinealidad: (au + bw) ∧ v = au ∧ v + bw ∧ v.

3. No-asociatividad: (u ∧ v) ∧w = 〈u,w〉v− 〈v,w〉u4. u ∧ v = 0 si y solo si u y v son linealmente dependientes.

5. u ∧ v es ortogonal a u y a v.

6. ‖u ∧ v‖2 = ‖u‖2‖v‖2 sin2 θ, siendo θ el angulo formado por los vectores u y v.

Page 37: Temario de Matemáticas II

Tema 4

Aplicaciones linealesAplicaciones lineales

Tal y como hemos dicho en el Tema 3, supondremos en este tema, y en el resto de la asignatura,que todos los espacios vectoriales son de dimension finita.

4.1. Definicion y propiedades. Ejemplos

Una aplicacion lineal es una funcion o aplicacion entre espacios vectoriales que preserva laestructura de espacio vectorial, es decir, que se comporta bien con respecto a las operaciones sumay producto por escalares.

Definicion 4.1.1. Dados V y V ′ dos espacios vectoriales, una aplicacion f : V → V ′ se dice quees una aplicacion lineal si para cualesquiera u,v ∈ V y a, b ∈ K se tiene

• f(u + v) = f(u) + f(v).

• f(av) = af(v).

De la definicion de aplicacion lineal se siguen las siguientes propiedades inmediatas.

Proposicion 4.1.2. Sea f : V → V ′ una aplicacion lineal entre dos espacios vectoriales V y V ′.Entonces,

1. f(0) = 0.

2. f(−v) = −f(v), ∀v ∈ V .

Page 38: Temario de Matemáticas II

32 Aplicaciones lineales

3. f(a1v1 + ... + anvn) = a1f(v1) + ... + anf(vn), ∀ v1, ...vn ∈ V , ∀ a1, ..., an ∈ K.

Los dos ejemplos mas sencillos de aplicaciones lineales son:

• La aplicacion identidad de un espacio vectorial V en sı mismo:

I : V → V

I(v) = v.

• La aplicacion nula, cero o trivial entre dos espacios vectoriales V y V ′:

0 : V → V ′

0(v) = 0.

4.1.1. Monomorfismos, epimorfismos e isomorfismos

Las aplicaciones lineales reciben denominaciones especiales segun las propiedades que tengan.

Definicion 4.1.3. Sea f : V → V ′ una aplicacion lineal entre dos espacios vectoriales V y V ′:

• Si V = V ′ se dice que f es un endomorfismo.

• Si f es una aplicacion inyectiva se dice que es un monomorfismo.

• Si f es una aplicacion sobreyectiva se dice que es un epimorfismo.

• Si f es una aplicacion biyectiva se dice que es un isomorfismo.

• Si f es simultaneamente un endomorfismo y un isomorfismo se dice que es un automorfismo.

Estas aplicaciones se pueden caracterizar segun el comportamiento de conjuntos de vectoreslinealmente independientes, de sistemas generadores o de bases.

Proposicion 4.1.4. Dada f : V → V ′ una aplicacion lineal entre dos espacios vectoriales V y V ′

se verifica que:

1. f es un monomorfismo si y solo si para cualquier conjunto linealmente independiente devectores de V {v1, ..., vr}, el conjunto {f(v1), ..., f(vr)} es linealmente independiente en V ′.

2. f es un epimorfismo si y solo si para cualquier sistema generador de V {v1, ..., vs}, el conjunto{f(v1), ..., f(vs)} es un sistema generador de V ′.

3. f es un isomorfismo si y solo si para cualquier base de V {v1, ..., vn}, {f(v1), ..., f(vn)} esuna base de V ′.

Page 39: Temario de Matemáticas II

4.2 Expresion matricial de una aplicacion lineal 33

Por otro lado, se dice que dos espacios vectoriales son isomorfos si existe un isomorfismoentre ellos. Por la proposicion anterior dos espacios isomorfos tienen la misma dimension, peroes mas, comparten la misma estructura y las mismas propiedades. De hecho, es facil probar quecualquier espacio vectorial de dimension finita n es isomorfo al espacio vectorial Kn sobre K. Portanto, podemos suponer sin perdida de generalidad que, siempre que consideremos un espacio dedimension finita, estaremos trabajando en Kn (bien sea Rn o Cn).

4.1.2. Operaciones entre aplicaciones lineales

Podemos realizar varias operaciones entre aplicaciones lineales de modo que el resultado seauna nueva aplicacion lineal.

Proposicion 4.1.5. Sean f, g : V → V ′ dos aplicaciones lineales entre dos espacios vectoriales V

y V ′ y sea a un escalar. Entonces, las operaciones suma y producto por un escalar,

f + g : V → V ′

(f + g)(v) = f(v) + g(v)y

af : V → V ′

(af)(v) = af(v),

son aplicaciones lineales.

Lo mismo ocurre con la composicion de aplicaciones lineales (cuando esta es posible).

Proposicion 4.1.6. Sean V , V ′ y V ′′ tres espacios vectoriales, y sean f : V → V ′ y g : V ′ → V ′′

dos aplicaciones lineales entre ellos. Entonces la composicion g ◦ f : V → V ′′ tambien es unaaplicacion lineal.

Y, por ultimo, con la aplicacion inversa.

Proposicion 4.1.7. Sea f : V → V ′ un isomorfismo entre espacios vectoriales, entonces su apli-cacion inversa f−1 : V ′ → V tambien es un isomorfismo.

4.2. Expresion matricial de una aplicacion lineal

Como ya hemos indicado en la seccion anterior cualquier espacio vectorial de dimension finitaes isomorfo a un cierto Kn. Supongamos, por tanto, que estamos trabajando unicamente en estosespacios.

Sea f : Kn → Km una aplicacion lineal y sea B = {v1, ...,vn} una base de Kn. Entonces f quedacompletamente determinada por las imagenes de los vectores de la base f(v1), ..., f(vn). En efecto,consideremos v ∈ Kn y supongamos que sus coordenadas con respecto a B son v = (a1, ..., an)B.Gracias a las propiedades de las aplicaciones lineales se tiene que

f(v) = a1f(v1) + ... + anf(vn).

Page 40: Temario de Matemáticas II

34 Aplicaciones lineales

Sea ahora B′ = {v′1, ...,v′m} una base de Km. Podemos expresar los vectores f(v1), ..., f(vn) ∈ Km

en coordenadas con respecto a B′:

f(vi) = (c1i, ..., cmi)B′ , ∀ 1 ≤ i ≤ n.

Y, en consecuencia,

f(v) = (c11a1 + c12a2 + ... + c1nan, ..., cm1a1 + cm2a2 + ... + cmnan)B′ .

Escrito en forma matricial obtenemos que las coordenadas de f(v) con respecto a la base B′ vienendadas por

f(v) =

c11 . . . c1n

.... . .

...cm1 . . . cmn

a1

...an

B

.

A la matriz MfB′B =

c11 . . . c1n

.... . .

...cm1 . . . cmn

le llamaremos matriz asociada a la aplicacion lineal f

con respecto a las bases B y B′ de Kn y Km respectivamente. Esta matriz nos permite obtenerlas coordenadas con respecto a la base B′ de la imagen de un vector de Kn dado en coordenadascon respecto a la base B. Las columnas de la matriz MfB′

B son las coordenadas de las imagenes decada uno de los vectores de la base B con respecto a la base B′.

Las operaciones entre aplicaciones lineales se traducen en operaciones analogas en sus expresio-nes matriciales.

Proposicion 4.2.1. Sean f, g : Kn → Km dos aplicaciones lineales y sea a ∈ K. Consideremos B

y B′ bases de Kn y Km respectivamente. Entonces:

• Si h = f + g : Kn → Km, entonces MhB′B = MfB′

B + MgB′B .

• Si h = af : Kn → Km, entonces MhB′B = aMfB′

B .

Proposicion 4.2.2. Sean f : Kn → Km y g : Km → K l dos aplicaciones lineales y sean B, B′ yB′′ bases de Kn, Km y K l respectivamente. Sea h = g ◦ f : Kn → K l, entonces

MhB′′B = MgB′′

B′ ·MfB′B .

Proposicion 4.2.3. Sea f : Kn → Kn un isomorfismo y sean B y B dos bases cualesquiera deKn. Entonces, si h = f−1 : Kn → Kn

MhBB = (Mf B

B )−1.

Page 41: Temario de Matemáticas II

4.3 Nucleo e imagen de una aplicacion lineal 35

4.3. Nucleo e imagen de una aplicacion lineal

A toda aplicacion lineal se le pueden asociar dos conjuntos relevantes: su nucleo y su imagen.

Definicion 4.3.1. Sea f : Kn → Km una aplicacion lineal. Entonces se definen su nucleo, Ker(f),y su imagen, Im(f) , como los subconjuntos

Ker(f) = {v ∈ Kn : f(v) = 0} ⊆ Kn e Im(f) = {f(v) : v ∈ Kn} ⊆ Km,

respectivamente.

Se puede probar que estos conjuntos tienen estructura de espacio vectorial.

Proposicion 4.3.2. Dada una aplicacion lineal f : Kn → Km, Ker(f) e Im(f) son subespaciosvectoriales de Kn y Km respectivamente.

Para obtener el nucleo de una aplicacion lineal basta con resolver un sistema homogeneo deecuaciones. En cuanto a la imagen, el siguiente resultado es muy util para su calculo.

Lema 4.3.3. Sea f : Kn → Km una aplicacion lineal. Si {v1, ..., vp} es un sistema generador deKn, entonces {f(v1), ..., f(vp)} es un sistema generador de Im(f).

El nucleo y la imagen tambien nos proporcionan una nueva caracterizacion para los monomor-fismos y los epimorfimos.

Proposicion 4.3.4. Sea f : Kn → Km una aplicacion lineal. Entonces,

• f es un monomorfismo si y solo si Ker(f) = {0}.• f es un epimorfismo si y solo si Im(f) = Km.

La matriz asociada a una aplicacion lineal facilita sobremanera el calculo de su nucleo y de suimagen. De hecho, dada f : Kn → Km una aplicacion lineal y dadas B y B′ dos bases de Kn

y Km respectivamente, es inmediato comprobar que las columnas de la matriz asociada MfB′B se

corresponden con las coordenadas de n vectores de Km con respecto a B′, y que estos vectores sonun sistema generador de Im(f). En particular, se deduce que

dim(Im(f))) = rg(MfB′B ).

Por otro lado, para calcular el nucleo podemos considerar el sistema homogeneo

MfB′B · x = 0,

Page 42: Temario de Matemáticas II

36 Aplicaciones lineales

donde x = (x1, ..., xn) es el vector de incognitas. Las soluciones de este sistema seran los elementosdel nucleo escritos en coordenadas con respecto a la base B. Recordando del Tema 2 el modo deobtener los parametros de los que dependıa un sistema compatible indeterminado deducimos que

dim(Ker(f)) = n− rg(MfB′B ).

Como consecuencia, destacamos la siguiente relacion entre las dimensiones de Kn, Im(f) yKer(f).

Proposicion 4.3.5. Sea f : Kn → Km una aplicacion lineal, entonces

n = dim(Kn) = dim(Im(f)) + dim(Ker(f)).

4.4. Cambio de base para aplicaciones lineales

Las matrices asociadas a una misma aplicacion lineal con respecto a bases diferentes no son igua-les pero comparten varias propiedades interesantes. Por ejemplo, de la seccion anterior deducimosque tienen el mismo rango. Aun es mas, estan relacionadas del modo que veremos ahora.

Sea f : Kn → Km una aplicacion lineal y sean B y B dos bases de Kn y B′ y B′ dos basesde Km. Asociadas a estas bases y a la aplicacion lineal podemos hallar MfB′

B y Mf B′B

. Por otrolado, en el Tema 3 estudiamos la matriz cambio de base en un espacio vectorial. Podemos obtenerpor tanto PB

By P B′

B′ . Es facil razonar que estas cuatro matrices estan relacionadas mediante laexpresion

Mf B′B = P B′

B′ MfB′B PB

B .

De hecho, si hacemos un diagrama de esta situacion con la aplicacion lineal y las cuatro matricesimplicadas vemos que la relacion anterior se deriva de una composicion de aplicaciones (vease laFigura 4.1).

f : Kn Km-

B B′

B B′

-

-

MfB′B

Mf B′B

6?

PBB P B′

B′

Figura 4.1: Cambio de base para una aplicacion lineal.

Recordemos del tema anterior que las matrices cambio de base son matrices regulares. Engeneral, si dadas dos matrices A y C existen dos matrices regulares P y Q tales que C = PAQ,

Page 43: Temario de Matemáticas II

4.4 Cambio de base para aplicaciones lineales 37

se dice que A y C son dos matrices equivalentes. Por tanto, todas las matrices asociadas a unamisma aplicacion lineal son matrices equivalentes.

NOTA: Volviendo a lo estudiado en el Tema 1, se puede probar que dos matrices son equivalentessi y solo si una se puede obtener a partir de transformaciones por filas y/o por columnas de la otra.En particular, las matrices equivalentes por filas o por columnas son matrices equivalentes.

Supongamos ahora que realizamos el mismo razonamiento a partir de un endomorfismo f :Kn → Kn. En este caso podrıamos considerar las mismas bases en el espacio de partida y en el dellegada. El diagrama quedarıa como la Figura 4.2.

f : Kn Kn-

B B

B B

-

-

MfBB

Mf BB

6?

PBB P B

B

Figura 4.2: Cambio de base para un endomorfismo.

y tendrıamos queMf B

B = P BB MfB

B PBB = (PB

B )−1MfBB PB

B .

En este caso la relacion es algo mas fuerte. Dadas dos matrices A y C, si existe una matriz regularP tal que C = P−1AP , se dice que A y C son matrices semejantes. Esto es lo que ocurre conlas matrices Mf B

By MfB

B .

En general, dado un endomorfismo f : Kn → Kn, nos referiremos a MfBB como la matriz

asociada a f con respecto a la base B (daremos por hecho que la base es la misma para el espaciode partida que para el de llegada).

Page 44: Temario de Matemáticas II

38 Aplicaciones lineales

Page 45: Temario de Matemáticas II

Tema 5

Diagonalizacion de matrices y

endomorfismos

Diagonalizacion de matrices y

endomorfismos

5.1. Introduccion

En el Tema 4 estudiamos las aplicaciones lineales, y en particular los endomorfismos. Vimosque la matriz asociada a un endomorfismo es una matriz cuadrada, y que las matrices asociadas aun mismo endomorfismo son matrices semejantes. Dado un endomorfismo f : V → V pretendemoshallar una base para la cual la expresion de f sea lo mas “sencilla” posible. O, dicho de otramanera, dada una matriz cuadrada queremos encontrar, de entre todas sus matrices semejantes,la mas “sencilla”. Falta explicitar que queremos decir con “sencilla”. Con ello nos referiremos aque el endomorfismo (o la matriz) tenga forma diagonal. En concreto, podemos dar las siguientesdefiniciones.

Definicion 5.1.1. Se dice que un endomorfismo f : V → V es diagonalizable si existe una baseB = {v1, ...,vn} ⊂ V de modo que f(vi) = λivi, ∀ 1 ≤ i ≤ n y para ciertos escalares λi.

Definicion 5.1.2. Se dice que una matriz cuadrada A es diagonalizable si es semejante a unamatriz diagonal D. Es decir, si existe una matriz regular P de modo que D = P−1AP . Esta matrizP se conoce como matriz de paso.

El principal objetivo de este tema es determinar cuando un determinado endomorfismo (o unamatriz cuadrada) es diagonalizable. Ademas, si la respuesta es afirmativa buscaremos un metodopara hallar la base que diagonalice el endomorfismo (o la matriz de paso que diagonalice la matriz).

Page 46: Temario de Matemáticas II

40 Diagonalizacion de matrices y endomorfismos

Se prueba facilmente que estudiar la diagonalizacion de un endomorfismo es equivalente a es-tudiar la diagonalizacion de cualquiera de sus matrices asociadas. Para simplificar estudiaremos ladiagonalizacion de matrices cuadradas.

De nuevo trabajaremos en este tema con espacios vectoriales del tipo Kn.

5.2. Vectores y valores propios. Definicion y propiedades

Dada una matriz cuadrada A de orden n con coeficientes en K, pueden existir vectores v ∈ Kn

no nulos y escalares λ tales que Av = λv. Estos elementos, los vectores y los escalares, seranfundamentales en el desarrollo del tema.

Definicion 5.2.1. Sea A una matriz cuadrada de orden n con coeficientes en K. Se dice que unescalar λ ∈ K es un valor propio de A (o autovalor) si existe un vector v ∈ Kn no nulo de modoque Av = λv. Todo vector no nulo que satisfaga esta relacion se denomina vector propio de A (oautovector) asociado al valor propio λ.

Observese que la condicion v 6= 0 es necesaria para evitar el caso trivial: cualquier numero realλ verifica la condicion A0 = λ0. Por tanto v = 0 no se considera vector propio. Por el contrario,los valores propios si pueden tomar el valor 0.

Los valores y vectores propios tienen las siguientes propiedades basicas:

Propiedades:

1. Todo vector propio esta asociado a un unico valor propio.

2. Un valor propio tiene asociados infinitos vectores propios. De hecho, se puede demostrar queel conjunto de todos los vectores propios asociados a un mismo valor propio λ junto con elvector nulo 0 tiene estructura de subespacio vectorial de Kn. En particular, si v es un vectorpropio asociado a λ, cualquier multiplo suyo av (a 6= 0, a ∈ K) tambien lo sera.

3. Si A es una matriz de orden n, existen a lo sumo n valores propios distintos de A.

Teniendo en cuenta la segunda propiedad, podemos dar la siguiente definicion.

Definicion 5.2.2. Sea A una matriz cuadrada de orden n y sea λ un valor propio de A. El conjuntode todos los vectores propios v asociados a un mismo valor propio λ junto con el vector nulo v = 0se denomina subespacio propio de A asociado a λ y se denota como Eλ, es decir:

Eλ = {v ∈ Kn : Av = λv}.

De las propiedades anteriores y de las definiciones de valores y vectores propios se deducen lossiguientes resultados.

Page 47: Temario de Matemáticas II

5.3 Polinomio y ecuacion caracterıstica 41

Proposicion 5.2.3. Cada subespacio propio Eλ tiene estructura de subespacio vectorial de Kn yademas dim(Eλ) = n− rg(A− λI).

Proposicion 5.2.4. Si λ1 y λ2 son dos autovalores distintos de A, entonces Eλ1 ∩Eλ2 = {0}. Enparticular, vectores propios asociados a valores propios distintos son siempre linealmente indepen-dientes.

5.3. Polinomio y ecuacion caracterıstica

Pretendemos ahora aprender a calcular los valores y los vectores propios de una matriz cuadrada.

Por definicion, un escalar λ es un valor propio de A si y solo si existe un vector no nulo v demodo que

Av = λv.

Es decir, si se verificaAv− λv = (A− λI)v = 0. (5.1)

Observemos que (5.1) no es mas que un sistema de ecuaciones lineales homogeneo, y estamosdiciendo que λ es un valor propio de A si y solo si el sistema es compatible indeterminado. A su vezesto ocurrira si y solo si rg(A−λI) < n, y como se trata de una matriz cuadrada esto es equivalentea que det(A− λI) = 0.

Resumiendo, λ es un valor propio de A si y solo si det(A−λI) = 0. Por tanto, el procedimientoa seguir para hallar los valores propios de una matriz cuadrada A de orden n es considerar λ comoun parametro arbitrario y calcular

det(A− λI).

El determinante anterior es un polinomio de orden n en la variable λ, y sus raıces en K seran losvalores propios de A.

Definicion 5.3.1. La matriz A−λI se llama matriz caracterıstica de A. El polinomio pA(λ) =det(A − λI) se conoce como polinomio caracterıstico de A. Si λ es un valor propio de A,entonces se llama multiplicidad algebraica de λ a la multiplicidad de λ como raız del polinomiocaracterıstico.

Una vez calculados los valores propios de A estamos en condiciones de hallar sus subespaciospropios, y por tanto sus vectores propios. Sea λ un valor propio de A, el subespacio propio asociadoa λ, Eλ, es el conjunto de todas las soluciones del sistema compatible indeterminado (5.1). Ladimension de Eλ se conoce como multiplicidad geometrica de λ.

Es importante destacar que para cualquier valor propio λ siempre se verifica que

1 ≤ multiplicidad geometrica de λ ≤ multiplicidad algebraica de λ. (5.2)

Page 48: Temario de Matemáticas II

42 Diagonalizacion de matrices y endomorfismos

5.4. Matrices diagonalizables. Caracterizacion

Una vez presentados todas las herramientas necesarias, estamos en condiciones de presentar elresultado principal del tema.

Teorema 5.4.1. Una matriz A cuadrada de orden n es diagonalizable si y solo si tiene n vectorespropios linealmente independientes. En este caso, la matriz diagonal D a la que es semejante esaquella cuyos elementos diagonales son los valores propios de A. Por ultimo, la matriz de paso P

es la matriz cuyas columnas son los n vectores propios linealmente independientes.

Como los valores propios son las raıces de un polinomio de orden n y se verifica la desigual-dad (5.2), una caracterizacion equivalente de las matrices diagonalizables viene dada por la siguienteproposicion.

Proposicion 5.4.2. Una matriz A cuadrada de orden n es diagonalizable si y solo si la suma delas multiplicidades algebraicas de las raıces de su polinomio caracterıstico es n y para cualquiervalor propio coincide la multiplicidad algebraica con la geometrica. En particular, si la matriz tienen valores propios distintos, entonces es diagonalizable.

NOTA: Si estamos trabajando en C, la suma de las multiplicidades algebraicas de las raıces delpolinomio caracterıstico sera siempre n. Sin embargo en R podrıa no ser ası.

Si ahora volvemos a pensar en la diagonalizacion de endomorfismos, tendremos que un endo-morfismo es diagonalizable si y solo si lo es su matriz asociada con respecto a cualquier base. Y eneste caso, la base que diagonaliza el endomorfismo es la formada por los vectores propios.

5.5. Diagonalizacion de matrices simetricas reales

Consideremos ahora un espacio vectorial euclıdeo (V, 〈, 〉), aunque lo denotaremos simplementepor V para simplificar. Por definicion V es un espacio vectorial real, luego supondremos que es Rn

para algun n ∈ N. En este contexto damos la siguiente definicion.

Definicion 5.5.1. Un endomorfismo f : Rn → Rn se dice que es simetrico si verifica

〈f(u),v〉 = 〈u, f(v)〉, ∀u,v ∈ Rn.

Es facil probar que un endomorfismo simetrico admite matrices asociadas simetricas.

Proposicion 5.5.2. Sea f : Rn → Rn un endomorfismo y sea B una base ortonormal. Entonces,f es un endomorfismo simetrico si y solo si su matriz asociada MfB

B es simetrica.

Page 49: Temario de Matemáticas II

5.5 Diagonalizacion de matrices simetricas reales 43

Veamos en esta seccion que las matrices simetricas, y en consecuencia los endomorfismos simetri-cos, siempre son diagonalizables y que ademas, en este caso, obtenemos propiedades adicionalesespeciales.

En primer lugar se verifica el siguiente resultado.

Proposicion 5.5.3. Sea A un matriz simetrica de orden n. Entonces todas las raıces de su poli-nomio caracterıstico son reales.

Ya tenemos asegurada la primera condicion para garantizar la diagonalizacion de A. Veamosque la segunda tambien se verifica.

Proposicion 5.5.4. Dada una matriz simetrica A, la multiplicidad algebraica de cualquier valorpropio coincide con su multiplicidad geometrica. Es decir, si λ1, ..., λr son los autovalores de A,entonces Rn = Eλ1 ⊕ · · · ⊕Eλr .

Por tanto, las matrices simetricas son diagonalizables. Pero ademas se pueden diagonalizar deun modo especial: por congruencia o semejanza ortogonal.

Definicion 5.5.5. Dos matrices cuadradas A y C se dice que son matrices congruentes si existeuna matriz regular P de modo que C = P tAP .

Veamos que toda matriz simetrica es congruente a su matriz diagonal semejante. En concre-to, veamos que la matriz de paso P es una matriz ortogonal. Necesitamos para ello la siguientecaracterizacion de las matrices ortogonales.

Proposicion 5.5.6. Una matriz cuadrada P de orden n es ortogonal si y solo si sus filas (ocolumnas) forman una base ortonormal de Rn.

Teniendo esto en cuenta, lo que tenemos que probar es que podemos obtener una base ortonormalde vectores propios. Para ello, es facil probar primero que los subespacios propios son ortogonalesdos a dos.

Lema 5.5.7. Sea A una matriz simetrica, y sean λ1 y λ2 dos valores propios distintos de A. Enton-ces los correspondientes subespacios propios Eλ1 y Eλ2 son ortogonales. Es decir, para cualesquierau ∈ Eλ1 y v ∈ Eλ2, se tiene u ⊥ v.

Una vez probado que los subespacios propios son ortogonales dos a dos, nos basta con encontraruna base ortonormal de cada uno de ellos mediante el procedimiento de Gram-Schmidt expuestoen el Tema 3.

En resumen, podemos dar ya el principal resultado de esta seccion.

Teorema 5.5.8. Toda matriz simetrica A es diagonalizable. Ademas, siempre admite una matrizde paso ortogonal.

Page 50: Temario de Matemáticas II

44 Diagonalizacion de matrices y endomorfismos

Aun es mas, se puede probar que este resultado es, en realidad, una caracterizacion de lasmatrices simetricas.

Proposicion 5.5.9. Una matriz cuadrada A es una matriz simetrica si y solo si es una matrizdiagonalizable que admite una matriz de paso ortogonal.

Page 51: Temario de Matemáticas II

Tema 6

Geometrıa afınGeometrıa afın

6.1. Espacio afın y espacio afın euclıdeo. Propiedades

En el Tema 3 estudiamos los espacios vectoriales. En este tema volveremos a estudiar vectorespero consideraremos tambien los puntos sobre “los que se apoyan” dichos vectores. Es decir, es-tudiaremos con rigor la idea intuitiva de un vector como un segmento orientado que parte de unpunto, al que denominamos origen y llega a otro punto, al que se conoce como extremo. Con estaidea podemos introducir la definicion de espacio afın.

Definicion 6.1.1. Sea A un conjunto no vacıo y sea V un espacio vectorial. Diremos que A esun espacio afın sobre V si existe una aplicacion

Φ : A ×A → V

de modo que a cada par de elementos de A , (A,B), le haga corresponder un unico vector Φ(A,B) =−−→AB ∈ V , y que verifique las dos siguientes propiedades:

1. Para cada A ∈ A y cada v ∈ V existe un unico elemento B ∈ A de modo que−−→AB = v.

2. Para cada terna A,B, C ∈ A se tiene que−−→AB +

−−→BC =

−→AC.

A los elementos del conjunto A los llamaremos puntos. Si v =−−→AB diremos que v es el vector

con origen en el punto A y extremo en el punto B. Por ultimo, se define la dimension delespacio afın A como la dimension de V como espacio vectorial. Cuando no haya lugar a confusion

Page 52: Temario de Matemáticas II

46 Geometrıa afın

denotaremos al espacio afın simplemente por A , sin hacer mencion al espacio vectorial. A lo largodel tema supondremos que A es un espacio afın de dimension finita n.

Dado cualquier espacio vectorial V , es posible definir una aplicacion apropiada que haga que V

sea un espacio afın sobre el propio V . Especıficamente, sean x e y dos elementos de V y definamosel vector con origen en x y extremo en y como −→xy = y − x. Es inmediato comprobar que estaaplicacion verifica las propiedades requeridas en la definicion de espacio afın. Observemos que, porconstruccion, si v = −→xy se tiene y = x + v. Esto nos indica el modo de obtener el unico puntoy que junto con x determina un vector dado v. Llamamos a y el trasladado por v del punto x.Como caso particular, podemos definir una estructura de espacio afın sobre Rn.

Algunas propiedades basicas de los espacios afines son las siguientes.

Propiedades de un espacio afın:

Sean A, B, C y D puntos en un espacio afın A , entonces:

1.−−→AB = 0 si y solo si A = B.

2.−−→BA = −−−→AB.

3. Si−−→AB =

−−→CD entonces

−→AC =

−−→BD.

De modo similar a lo que hemos estudiado en el Tema 3, la existencia de un producto escalarenriquece la estructura de un espacio afın.

Definicion 6.1.2. Si A es un espacio afın sobre V siendo (V, 〈, 〉) un espacio vectorial euclıdeo,diremos que A es un espacio afın euclıdeo o espacio afın metrico.

El motivo por el que se llama espacio afın metrico es porque podemos definir una distanciaentre puntos que nos permita medir.

Definicion 6.1.3. En un espacio afın euclıdeo o metrico se define la distancia entre dos puntoscomo la norma del vector que determinan,

d(A,B) = ‖−−→AB‖.

Es facil comprobar que la distancia que hemos definido satisface las siguientes propiedades.

Propiedades de la distancia:

Sean A, B y C puntos en un espacio afın euclıdeo A , entonces:

1. d(A, B) = 0 si y solo si A = B.

2. d(A, B) = d(B,A).

3. d(A, C) ≤ d(A,B) + d(B,C).

NOTA: En general, cualquier aplicacion que verifique las propiedades anteriores se denominauna distancia.

Page 53: Temario de Matemáticas II

6.1 Espacio afın y espacio afın euclıdeo. Propiedades 47

6.1.1. Sistemas de referencia y coordenadas

Los sistemas de referencia son para un espacio afın lo que las bases son para un espacio vectorial.

Definicion 6.1.4. Sea A un espacio afın de dimension finita sobre V . Llamamos sistema dereferencia de A a cualquier par

R = {O;B},donde O es un punto de A al que llamamos origen del sistema de referencia y B es una base delespacio vectorial V .

A partir del concepto de sistema de referencia podemos definir las coordenadas de los puntosde A .

Definicion 6.1.5. Se definen las coordenadas de un punto A ∈ A con respecto a un sistemade referencia R = {O; B} como las coordenadas del vector

−→OA ∈ V con respecto a la base B de V ,−→

OA = (a1, ..., an)B. Se denotaA = (a1, ..., an)R.

Se puede comprobar que, si las coordenadas de un punto respecto de un sistema de referenciaR = {O; B} son A = (a1, ..., an)R y las coordenadas de un vector v ∈ V respecto de B sonv = (v1, ..., vn)B entonces las coordenadas del trasladado del punto A por v son B = (a1 +v1, ..., an + vn)R.

Por otro lado, si A es un espacio afın euclıdeo, se dice que R = {O; B} es un sistema dereferencia rectangular si la base B de V es ortonormal. En este caso, dados dos puntos A =(a1, ..., an)R y B = (b1, ..., bn)R se tiene

d(A, B) = ‖−−→AB‖ =√

(b1 − a1)2 + ... + (bn − an)2.

Del mismo modo que en el Tema 3 introducıamos el cambio de base para espacios vectoriales,y en el Tema 4 lo estudiamos para aplicaciones lineales, nos planteamos ahora el problema analogopara espacios afines, el cambio de sistema de referencia. Dados dos sistemas de referencia R ={O; B} y R′ = {O′; B′} en un espacio afın A , y dado un punto A ∈ A , podemos considerar suscoordenadas con respecto a ambos sistemas de referencia: A = (a1, ..., an)R y A = (a′1, ..., a

′n)R′ .

Para hallar la relacion entre ambas expresiones en coordenadas necesitaremos saber previamentedos datos:

1. La matriz cambio de base en V de B′ a B, PBB′ =

p11 · · · p1n

.... . .

...pn1 · · · pnn

, y

2. Las coordenadas respecto del sistema de referencia R del punto O′: O′ = (b1, ..., bn)R.

Page 54: Temario de Matemáticas II

48 Geometrıa afın

Es facil ver con estos datos que las ecuaciones que buscamos del cambio de sistema de referenciade R′ a R vienen dadas por

a1

...an

=

b1

...bn

+ PB

B′

a′1...

a′n

.

Es posible expresar tambien el cambio de referencia en una forma matricial compacta, lo cualpermite calcular el cambio de sistema de referencia inverso calculando la inversa de una matriz (eneste caso de orden n + 1), tal y como vimos en el caso de espacios vectoriales. En esta version elcambio de sistema de referencia viene dado por

1a1

...an

=

1 0 · · · 0b1 p11 · · · p1n

......

. . ....

bn pn1 · · · pnn

1a′1...

a′n

.

6.2. Variedades afines

Las variedades afines son, en un espacio afın, el equivalente a los subespacios vectoriales en unespacio vectorial. De hecho, como veremos ahora, podemos entender una variedad afin como unsubespacio vectorial trasladado.

Definicion 6.2.1. Sea A una variedad afın sobre un espacio vectorial V . Se dice que un subcon-junto B ⊆ A es una variedad afın o un subespacio afın de A si existe un subespacio de V ,U ≤ V , de modo que B tenga estructura de espacio afın sobre U . En este caso se dice que U es elespacio de direccion de B.

Una caracterizacion equivalente de las variedades afines es la siguiente.

Proposicion 6.2.2. Sea A un espacio afın sobre un espacio vectorial V y sea B ⊆ A . Entoncesson equivalentes:

1. B es una variedad afın de A sobre un cierto subespacio vectorial U ≤ V .

2. Dado un punto B ∈ B, existe un subespacio vectorial de V , U ≤ V de modo que B = {B′ ∈A | −−→BB′ ∈ U}.

3. El conjunto U = {−−→PQ |P, Q ∈ B} es un subespacio vectorial de V .

Ademas, la construccion del apartado 2. es independiente del punto escogido, y los subespaciosvectoriales que aparecen en los apartados 2. y 3. coinciden con el espacio de direccion de B.

Page 55: Temario de Matemáticas II

6.2 Variedades afines 49

Teniendo en cuenta este resultado, podemos describir de modo reducido la variedad afın B

comoB = B + U = {B + u |u ∈ U},

para cualquier B ∈ B. La dimension de una variedad afın es la dimension de su espacio de direccioncomo subespacio vectorial de V . En funcion de su dimension algunas variedades afines reciben unnombre especial. Las variedades afines de dimension 1 se denominan rectas, las de dimension 2planos y las de dimension n − 1 hiperplanos. Ademas, la unica variedad afın de dimension n

es el espacio afın total y cada uno de los puntos del espacio afın constituye una variedad afın dedimension 0.

Un modo de generar variedades afines es partiendo de un subconjunto de puntos de A .

Definicion 6.2.3. Dado un subconjunto P ⊆ A se define la variedad afın generada por P

como la menor variedad afın que contiene a P. Se denota A (P).

Este concepto esta ıntimamente ligado al de subespacio generado. De hecho se tiene la siugienteproposicion.

Proposicion 6.2.4. Si P = {A1, ..., Ar} ⊂ A , entonces

A (P) = A1 + L(−−−→A1A2, ...,

−−−→A1Ar).

Los conceptos de dependencia e independencia lineal tambien pueden extrapolarse de vectoresa puntos.

Definicion 6.2.5. Un conjunto finito de puntos {A1, ..., Ar} ⊂ A se dice que es afınmentedependiente si el conjunto de vectores {−−−→A1A2, ...,

−−−→A1Ar} ⊂ V es linealmente dependiente. En caso

contrario el conjunto de puntos es afınmente independiente.

Es importante observar que la definicion anterior no depende del punto que se tome como origende los vectores.

Como consecuencia directa de las definiciones y resultados anteriores se tiene la siguiente pro-posicion.

Proposicion 6.2.6. Por r puntos afınmente independientes pasa una unica variedad afın de di-mension r − 1.

6.2.1. Ecuaciones de una variedad afın

De modo analogo a lo que ocurrıa con los subespacios vectoriales en el Tema 3, se puedever que toda variedad afın se corresponde con el conjunto de soluciones de un cierto sistema de

Page 56: Temario de Matemáticas II

50 Geometrıa afın

ecuaciones lineales. De hecho, sea A un espacio afın y sea R = {O; B} un sistema de referenciasuyo. Consideremos una variedad afın B de dimension r de A . Sabemos que B = B + U paraciertos B ∈ B ⊆ A y U ≤ V . Supongamos que {u1,u2, ...,ur} es una base de U . Si expresamosestos puntos y vectores en coordenadas tendremos B = (b1, b2, ..., bn)R y ui = (ui1, ui2, ..., uin)B,

1 ≤ i ≤ r. Entonces, un punto X = (x1, x2, ..., xn)R pertenece a B si y solo si X = A + u paraalgun u ∈ U , o equivalentemente si existen escalares λ1, λ2, ...λr tales que

x1 = b1 + λ1u11 + ... + λrur1

x2 = b2 + λ1u12 + ... + λrur2

... = ...

xn = bn + λ1u1n + ... + λrurn

.

Estas ecuaciones se conocen como las ecuaciones parametricas de B. De nuevo podemos inter-pretar estas ecuaciones como el conjunto de soluciones de un sistema de n − r ecuaciones linealescompatible indeterminado (no necesariamente homogeneo en este caso), cuyas soluciones depen-deran de r parametros o grados de libertad. Cualquier conjunto de ecuaciones que determinen unsistema con estas caracterısticas se denomina ecuaciones cartesianas de B.

6.2.2. Operaciones entre variedades afines

De nuevo podemos operar dos variedades afines para obtener nuevas variedades. Veamos, enprimer lugar, que ocurre con la interseccion de variedades afines.

Proposicion 6.2.7. Sea A un espacio afın sobre V y sean B1 = B1 + U1 y B2 = B2 + U2 dosvariedades afines. Entonces, si B1 ∩B2 6= ∅, B1 ∩B2 tiene estructura de variedad afın. Ademas,

B1 ∩B2 = B + (U1 ∩ U2)

para cualquier B ∈ B1 ∩B2.

Al igual que ocurrıa en el caso de los subespacios vectoriales, la union de dos variedades afinesno es en general una variedad afın. De nuevo se define la suma de variedades afines como lamenor variedad que contiene a su union,

B1 + B2 = A (B1 ∪B2).

Se puede dar una expresion explıcita de la suma de dos variedades afınes a partir de las expresionesde cada una de las variedades.

Proposicion 6.2.8. Sea A un espacio afın sobre V y sean B1 = B1 + U1 y B2 = B2 + U2 dosvariedades afines. Entonces,

B1 + B2 = B1 +(L(−−−→B1B2) + U1 + U2

).

Page 57: Temario de Matemáticas II

6.3 Posiciones relativas de dos variedades afines 51

En el caso en que B1 ∩B2 6= ∅ la expresion es mas sencilla: dado cualquier B ∈ B1 ∩B2

B1 + B2 = B + (U1 + U2) .

En este ultimo caso tambien se satisface la relacion entre las dimensiones de B1, B2, B1 ∩B2 yB1 + B2:

dim(B1 + B2) = dim(B1) + dim(B2)− dim(B1 ∩B2).

6.3. Posiciones relativas de dos variedades afines

Dado A un espacio afın y dos variedades afines B1 = B1 + U1 y B2 = B2 + U2, diremos queB1 y B2:

• se cortan si B1 ∩B2 6= ∅.

• Ademas, si U1 ⊆ U2 se dice que B1 esta contenida en B2, y viceversa.

• no se cortan si B1 ∩B2 = ∅. En este caso se dice que:

• son paralelas si se da una de las dos siguientes inclusiones: U1 ⊆ U2 o U2 ⊆ U1.

• se cruzan en caso contrario.

Conocidas las ecuaciones cartesianas de las dos variedades afines, su interseccion B1 ∩B2 se iden-tifica con el conjunto de soluciones del sistema que resulta de reunir las ecuaciones cartesianas deambas variedades. Por tanto, discutir las posiciones relativas de dos variedades afines equivale adiscutir un sistema de ecuaciones lineales.

Para simplificar consideremos la siguiente notacion: n = dim(A ), r = dim(B1) y s = dim(B2),y supongamos, sin perdida de generalidad, que r ≤ s. Al reunir las ecuaciones cartesianas de ambasvariedades obtenemos un sistema de 2n − r − s ecuaciones lineales AX = b. Segun si el rango dela matriz del sistema coincide o no con el rango de la matriz ampliada las variedades se cortaran ono se cortaran. Es facil razonar que rg(A) = n− dim(U1 ∩ U2), y como estamos suponiendo r ≤ s

tendremos que rg(A) ≥ n− r. Segun todas estas observaciones la clasificacion queda:

rg(A) = n− r rg(A) = rg(A∗) B1 esta contenida en B2.

rg(A) = n− r rg(A) 6= rg(A∗) B1 y B2 son paralelas.

rg(A) > n− r rg(A) = rg(A∗) B1 y B2 se cortan.

rg(A) > n− r rg(A) 6= rg(A∗) B1 y B2 se cruzan.

En el caso en que A sea un espacio afın euclıdeo, diremos que dos variedades afines B1 y B2

son ortogonales o perpendiculares si U1 ⊆ U⊥2 o U2 ⊆ U⊥

1 . Dos variedades afines ortogonalesse pueden cortar o cruzar.

Page 58: Temario de Matemáticas II

52 Geometrıa afın

NOTA: Podrıamos plantearnos el estudio de las posiciones relativas de tres o mas variedadesafines, pero se dispararıa el numero de posibilidades y se complicarıa el estudio enormemente.

6.4. Problemas metricos entre variedades afines

Supongamos en esta seccion que A es un espacio afın euclıdeo. Vamos a estudiar algunaspropiedades metricas entre dos variedades afines. En concreto veamos problemas de ortogonalidady de distancias.

6.4.1. Proyeccion ortogonal de un punto sobre una variedad afın

En el Tema 3 ya estudiamos la proyeccion ortogonal de un vector sobre un espacio vectorial.Apoyandonos en ello, veamos ahora el resultado analogo en un espacio afın. Para asegurar que laproyeccion ortogonal este bien definida necesitamos el siguiente resultado previo.

Proposicion 6.4.1. Dada una variedad afın B = B +U y un punto A /∈ B, existe una unica rectar que contiene a A y corta perpendicularmente a B.

Atendiendo a esta proposicion damos la definicion de proyeccion ortogonal.

Definicion 6.4.2. Sea B = B + U una variedad afın y consideremos un punto A ∈ A . Entonces,se define la proyeccion ortogonal del punto A sore B, y se denota pB(A), a:

1. el mismo punto si A ∈ B, o

2. el punto de corte entre B y la recta que pasa por A perpendicular a B, garantizada por laProposicion 6.4.1.

Se puede probar en este ultimo caso 2. que pB(A) = B +pU (−−→BA). Sin embargo, para calcular la

proyeccion ortogonal de un punto sobre una variedad afın es mas util hacerlo a traves de la variedadperpendicular a una dada.

Definicion 6.4.3. Dada una variedad afın B = B + U llamaremos variedad perpendicular aB pasando por un punto A /∈ B a B⊥

A = A + U⊥.

Proposicion 6.4.4. Sea B una variedad afın y consideremos un punto A /∈ B. Entonces,

pB(A) = B ∩B⊥A .

Por ultimo la proyeccion ortogonal nos permite definir el punto simetrico a uno dado.

Definicion 6.4.5. Dada una variedad afın B y un punto A /∈ B, el punto simetrico de A conrespecto a B, sB(A), se define como sB(A) = A + 2

−−−−−→ApB(A).

Page 59: Temario de Matemáticas II

6.4 Problemas metricos entre variedades afines 53

6.4.2. Distancia entre dos variedades afines

Comencemos con la definicion y el calculo de la distancia de un punto a una variedad afıncualquiera. Dada una variedad afın B = B + U , se define la distancia de B a un punto A ∈ A

comod(A,B) = mın{d(A,P ) |P ∈ B}.

Proposicion 6.4.6. Dado un punto A ∈ A y una variedad afın B se verifica

d(A, B) = d(A, pB(A)).

Estamos ahora en condiciones de extender la nocion de distancia a dos variedades afines cua-lesquiera.

Definicion 6.4.7. Dadas dos variedades afines B1 y B2 se define la distancia entre ambas como

d(B1, B2) = mın{d(B1, B2) |B1 ∈ B1 y B2 ∈ B2}.

Evidentemente, si dos variedades se cortan la distancia entre ambas es cero, pero en otro casopodemos comprobar que la distancia siempre esta bien definida.

Proposicion 6.4.8. Dadas dos variedades afines B1 = B1 + U1 y B2 = B2 + U2, se verifica

d(B1,B2) = d(B1,B)

donde B = B2 + (U1 + U2) es la menor variedad afın que contiene a B2 y es paralela a B1.

Page 60: Temario de Matemáticas II

54 Geometrıa afın

Page 61: Temario de Matemáticas II

Tema 7

Geometrıa diferencial de curvasGeometrıa diferencial de curvas

7.1. Concepto de curva. Curvas parametrizadas

Intuitivamente, podemos pensar en una curva de dos modos distintos. Para empezar podemosentender una curva como un lugar geometrico, es decir, como el conjunto de los puntos del plano odel espacio que cumplen una cierta propiedad, o que estan relacionados mediante una determinadaexpresion. En segundo lugar, podemos pensar en una curva como la trayectoria de un objeto enmovimiento. En este caso la posicion del objeto sera la que nos describa la curva y esta vendra ex-presada en funcion de un parametro, usualmente el tiempo. Esta segunda interpretacion es “masrica” en el sentido que nos permite hablar del sentido y de la velocidad de la trayectoria, y sera laque consideremos. Es lo que se conoce como curvas parametrizadas.

Definicion 7.1.1. Una curva parametrizada en Rn es una aplicacion continua

α : I → Rn

α(t) = (α1(t), ..., αn(t)),

donde I ⊆ R es un intervalo abierto.

NOTA: Vamos a suponer en este tema que sobre Rn tenemos definida la estructura de espaciovectorial euclıdeo estandar.

Las curvas parametrizadas tambien son conocidas como funciones vectoriales continuas, y sedice que son derivables si lo son cada una de sus componentes. Supondremos que nuestras curvas

Page 62: Temario de Matemáticas II

56 Geometrıa diferencial de curvas

siempre son derivables de clase C∞, es decir, que admiten derivadas continuas de todos los ordenes.Asociados a una curva parametrizada derivable α : I → Rn podemos introducir una serie deelementos caracterısticos: el parametro de la curva t, su traza, definida como el conjunto imagenα(I) ⊂ Rn, y su vector velocidad o vector tangente definido como la aplicacion

α′ : I → Rn

α′(t) = (α′1(t), ..., α′n(t))

.

Si α es una aplicacion inyectiva, diremos que es una curva simple o sin autointersecciones.

Por lo general, nos interesaran las curvas para las que su vector tangente no se anule en ningunpunto.

Definicion 7.1.2. Una curva parametrizada derivable α es regular si α′(t) 6= 0, ∀ t ∈ I.

Observemos que, si la curva es regular, podemos considerar la recta tangente a α en cadapunto α(t), es decir, la recta que pasa por α(t) y tiene como vector director α′(t). Si la curva no esregular, llamaremos puntos singulares a los puntos t0 ∈ I tales que α′(t0) = 0.

Aunque en esta asignatura no lo trataremos, en ocasiones, y especialmente para el calculo delas integrales de lınea que se estudian en la asignatura Matematicas I no necesitamos ser tanexigentes con las curvas. Podemos permitir que sean derivables y/o regulares a trozos. Es decir,puede ocurrir que el intervalo I se pueda descomponer como una union finita de intervalos I =(t1, t2] ∪ (t2, t3] ∪ ... ∪ (tn, tn+1) de modo que la curva restringida al interior de cada uno de estosintervalos, α : (ti, ti+1) → R, ∀ 1 ≤ i ≤ n, sea derivable y/o regular. De este modo, y cuando lateorıa lo permita, podremos realizar el calculo en cada uno de estos subintervalos.

7.1.1. Longitud de arco. Parametro arco de una curva

Nos planteamos ahora el problema de medir la longitud de una curva, o mas bien de un arcode curva. Sea α : I → Rn una curva parametrizada, fijemos un intervalo cerrado [a, b] ⊂ I yconsideremos P([a, b]) el conjunto de todas las posibles particiones del intervalo [a, b]. Es decir,el conjunto de todas las subdivisiones finitas de dicho intervalo. Sea P una particion cualquiera,P = {a = t0 < t1 < ... < tm = b} ∈ P([a, b]) y consideremos las imagenes de los puntos de P por α:{α(t0), α(t1), ..., α(tm)}. Estos puntos determinan una poligonal inscrita en la curva cuya longitudviene dada por L(α, P ) =

∑mi=1 ‖α(ti)−α(ti−1)‖. Logicamente, cuanto mas fina sea la particion P ,

es decir, cuantos mas puntos consideremos en la particion, mas se ajustara la poligonal a la curva.Por tanto, parece razonable dar la siguiente definicion.

Definicion 7.1.3. Sea α : I → Rn una curva parametrizada y sea [a, b] ∈ I. Se define la longitudde la curva entre α(a) y α(b) como

Lba(α) = lım

|P | → 0

P ∈ P([a, b])

L(α, P ),

Page 63: Temario de Matemáticas II

7.1 Concepto de curva. Curvas parametrizadas 57

donde |P | = max{ti − ti−1, i = 1, ..., m}.

Esta definicion de longitud, aunque sea logica e intuitiva, es poco operativa. El siguiente resul-tado nos proporciona un metodo mas util para calcular la longitud de una curva.

Proposicion 7.1.4. Sea α : I → Rn una curva parametrizada y sea [a, b] ∈ I. Entonces la longitudde α entre α(a) y α(b) viene dada por

Lba(α) =

∫ b

a‖α′(t)‖dt.

Pueden existir varias curvas con la misma traza, es decir, hay varias maneras de recorrer unamismo trayectoria. Cada una de estas maneras sera para nosotros una curva distinta. Cuandopartiendo de una curva modifiquemos su expresion para obtener una nueva curva con la misma traza,diremos que hemos hecho un cambio de parametro y que hemos obtenido una reparametrizacionde la curva.

Definicion 7.1.5. Si α : I → Rn es una curva parametrizada, se denomina cambio de parametroa cualquier difeomorfismo (es decir, una aplicacion biyectiva de modo que tanto ella como su inversasean derivables) h : J → I, donde J es un intervalo abierto de R. Se dice entonces que la curvaβ = α ◦ h : J → Rn es una reparametrizacion de α (vease la Figura 7.1).

-

?

6 µI Rn

J

h h−1

α

β = α ◦ h

Figura 7.1: Reparametrizacion de una curva.

Es inmediato probar que si α es una curva regular, entonces cualquier reparametrizacion suyatambien lo sera. Ademas, con respecto a h′ solo caben dos opciones: o h′(t) > 0, ∀ t ∈ J , en cuyocaso se dice que el cambio de parametro conserva la orientacion, o h′(t) < 0, ∀ t ∈ J , en cuyocaso se dice que invierte la orientacion.

El siguiente corolario es inmediato de demostrar mediante el metodo del cambio de variablepara la integracion.

Corolario 7.1.6. La longitud de un arco de la traza o imagen de una curva es independiente de laparametrizacion considerada. Es decir, sea α : I → Rn una curva parametrizada, y sea β = α ◦ h :J → Rn una reparametrizacion de α. Entonces, dado [a, b] ∈ I se tiene que Lb

a(α) = Lh(b)h(a)(β).

Page 64: Temario de Matemáticas II

58 Geometrıa diferencial de curvas

En el caso de considerar curvas regulares, existe una reparametrizacion de especial importanciapor su simplicidad.

Definicion 7.1.7. Se dice que una curva parametrizada regular α : I → Rn esta parametrizadapor la longitud de arco si ‖α′(t)‖ = 1, ∀ t ∈ I.

Usualmente denotaremos por s al parametro de una curva parametrizada por la longitud dearco, y en consecuencia le llamaremos parametro arco. El motivo de estas denominaciones esque, en el caso de curvas parametrizadas por la longitud de arco (de ahora en adelante p. p. a. parasimplificar), la longitud de un arco de la traza viene dada, salvo una constante, por el parametroarco s. En efecto, si α : I → Rn es una curva p. p. a. y [a, b] ∈ I, entonces Lb

a(α) = b− a.

El siguiente resultado es uno de los teoremas centrales de la Geometrıa Diferencial de curvas.

Teorema 7.1.8. Toda curva parametrizada regular admite una reparametrizacion por la longitudde arco con un cambio de parametro que conserva la orientacion.

No siempre es facil, o factible, hallar tal reparametrizacion, pero nos basta con conocer suexistencia.

Desde un punto de vista fısico, la aceleracion de una curva p. p. a. no posee componentetangencial. Si existe aceleracion, esta sera siempre ortogonal a la velocidad.

7.2. Teorıa local de curvas planas

A lo largo de esta seccion consideraremos una curva plana regular α : I → R2 p. p. a. Suvector tangente es t(s) = α′(s) y es unitario. Por tanto, podemos completar una base ortonormalde R2 con otro vector unitario al que llamaremos normal. Lo definimos como sigue.

Definicion 7.2.1. El vector normal a una curva plana regular α : I → R2 p. p. a., es el vectorn(s) = J(t(s)), donde J = Rπ/2 es la rotacion positiva de angulo π/2 en R2.

Por tanto, para cada valor s ∈ I el conjunto {t(s),n(s)} es una base ortonormal de R2 que seconoce como diedro de Frenet de α.

La unica libertad que tiene la curva al moverse por el plano se traduce en el movimiento deldiedro de Frenet a lo largo de ella. Es decir, hay que estudiar como varıan t(s) y n(s), y para elloconsideramos sus derivadas t′(s) y n′(s). Como {t(s),n(s)} es una base ortonormal de R2, podemosexpresar ambos vectores como combinacion lineal de los elementos de la base. Un razonamientosencillo nos lleva a que

t′(s) = 〈t′(s),n(s)〉n(s) y n′(s) = 〈n′(s), t(s)〉t(s).Ademas, 〈t′(s),n(s)〉 = −〈t(s),n′(s)〉 = 〈α′′(s), J(α′(s))〉. Esta cantidad es una funcion en elparametro s que es fundamental en nuestro estudio.

Page 65: Temario de Matemáticas II

7.2 Teorıa local de curvas planas 59

Definicion 7.2.2. Se llama curvatura de una curva plana regular α : I → R2 p. p. a. a la funcionk : I → R definida por

k(s) := 〈α′′(s), J(α′(s))〉.

Resumiendo, hemos obtenido las siguientes dos relaciones

t′(s) = k(s)n(s)n′(s) = −k(s)t(s)

}. (7.1)

El sistema (7.1) se conoce como ecuaciones de Frenet de una curva plana.

Observemos que estas ecuaciones nos aseguran, en particular, que la aceleracion de una curva p.p. a. solo tiene componente normal, y que su modulo coincide con el valor absoluto de la curvatura,‖α′′(s)‖ = |k(s)|. El signo de la curvatura tambien nos proporciona informacion sobre la curva, nosindica el sentido de giro, es decir, nos explica como gira el vector tangente α′(s) = t(s) conformese recorre la curva. Ası, un cambio de orientacion de la curva implica un cambio en el signo de lacurvatura, pero no varıa su valor absoluto.

Hemos definido la curvatura de una curva p. p. a. En general, la curvatura de una curva deberıadepender unicamente de la traza, y por tanto deberıa ser invariante ante reparametrizaciones. Poreste motivo, y teniendo en cuenta el Teorema 7.1.8, definimos la curvatura de una curva planaregular α : I → R2 como la curvatura de su reparametrizacion por la longitud de arco,

kα(t) := kβ(h−1(t)).

Ya hemos dicho antes que no siempre es posible dar una expresion explıcita de la reparametrizacionde una curva por la longitud de arco. No obstante, esta no es necesaria para el calculo de la curvaturatal y como indica el siguiente resultado.

Proposicion 7.2.3. Sea α : I → R2 una curva parametrizada regular. Entonces,

kα(t) =〈α′′(t), J(α′(t))〉

‖α′(t)‖3.

Para acabar con esta seccion, veamos que una curva plana regular viene determinada, salvomovimientos rıgidos, por su funcion curvatura.

Teorema 7.2.4. Teorema fundamental de las curvas planas. Sea k : I → R una funcionderivable. Entonces, existe una curva plana regular α : I → R2 p. p. a. de modo que kα(s) = k(s),∀ s ∈ I. Ademas, si β : I → R2 es otra curva regular p. p. a. con curvatura kβ(s) = k(s), ∀ s ∈ I,entonces existe un movimiento rıgido directo M : R2 → R2, Mx = Ax + b tal que β = M ◦ α.

Notese que un movimiento rıgido directo en el plano no es mas que una traslacion, una rotaciono una composicion de ambas. Matematicamente hablando, un movimiento rıgido directo en el planoviene dado por una aplicacion M : R2 → R2, Mx = Ax + b, donde A es una matriz ortogonal deorden 2 tal que det(A) = 1 y b ∈ R2.

Page 66: Temario de Matemáticas II

60 Geometrıa diferencial de curvas

7.3. Teorıa local de curvas espaciales

La teorıa de curvas espaciales, en comparacion con la de curvas planas, es mucho mas compleja.Intuitivamente, una curva en el espacio tiene mas libertad de movimiento que una curva en el plano.Veremos que, entre otras diferencias, la curvatura no va a bastar para determinar una curva.

Sea α : I → R3 una curva espacial regular p. p. a. El vector tangente a α en cada punto,t(s) = α′(s), es unitario. Mediante un sencillo calculo se prueba que t′(s) ⊥ t(s). La curvatura sedefine ahora de la siguiente manera.

Definicion 7.3.1. La curvatura de una curva espacial regular p. p. a. α : I → R3 se define como

k(s) = ‖t′(s)‖ = ‖α′′(s)‖.

Observemos aquı una primera diferencia con respecto a la teorıa local de curvas planas: lacurvatura no tiene signo, siempre se verifica k(s) ≥ 0. Por tanto, la curvatura de una curva espacialno depende de la orientacion de la misma.

La curvatura nos permite caracterizar las curvas mas sencillas, las lıneas rectas.

Proposicion 7.3.2. Una curva regular p. p. a. α : I → R3 es una lınea recta si, y solo si, sucurvatura es identicamente nula, k(s) ≡ 0.

Es posible construir una base ortonormal de R3, a partir del vector tangente, en todos los puntosde la traza de α para los cuales k(s) 6= 0. Empezamos por definir el segundo vector de la base.

Definicion 7.3.3. Sea α : I → R3 una curva regular p. p. a. Para todo s ∈ I tal que k(s) 6= 0, sedefine el vector normal (unitario) a α en α(s) como

n(s) =t′(s)k(s)

=α′′(s)‖α′′(s)‖ .

En este caso, se define el plano osculador en α(s) como el plano determinado por los vectorest(s) y n(s).

Observemos que el plano osculador de una curva plana se mantiene invariante a lo largo de lacurva. De ahora en adelante supondremos que k(s) 6= 0 en todo punto.

Nos falta por determinar el tercer vector de la base ortonormal de R3. Lo haremos con ayudadel producto vectorial en R3.

Definicion 7.3.4. Sea α : I → R3 una curva regular p. p. a., y sean t(s) y n(s) los vectorestangente y normal en el punto α(s) para cualquier s ∈ I. Se define el vector binormal asociadoa α en α(s) como b(s) = t(s) ∧ n(s).

Page 67: Temario de Matemáticas II

7.3 Teorıa local de curvas espaciales 61

Por construccion, el vector binormal es ortogonal al plano osculador y, ademas, es unitariopuesto que ‖b(s)‖ = ‖t(s)‖‖n(s)‖ sin(π/2) = 1. Por tanto, para todo s ∈ I con k(s) 6= 0 elconjunto {t(s),n(s),b(s)} es una base ortonormal de R3 denominada triedro de Frenet.

Se definen el plano rectificante y el plano normal a una curva α en el punto α(s) como losplanos generados por t(s) y b(s) y por n(s) y b(s) respectivamente.

De forma similar al desarrollo de la Seccion 7.2, queremos estudiar como varıa el triedro deFrenet a lo largo de una curva. Para ello calcularemos t′(s), n′(s) y b′(s) y los expresaremos enfuncion de la base ortonormal {t(s),n(s),b(s)}. Por definicion del vector normal, t′(s) = k(s)n(s).Para hallar las otras dos expresiones necesitamos introducir una nueva funcion, la torsion.

Definicion 7.3.5. Se llama torsion de una curva regular α : I → R3 p. p. a. con k(s) 6= 0, ∀ s ∈ I,a la funcion τ : I → R definida por

τ(s) = 〈b′(s),n(s)〉.

Con un calculo un poco un poco mas complejo que en el caso de las curvas planas, pero asumible,llegamos a

t′(s) = k(s)n(s)n′(s) = −k(s)t(s) −τ(s)b(s)b′(s) = τ(s)n(s)

. (7.2)

El sistema (7.2) se conoce como ecuaciones de Frenet de una curva espacial.

La torsion nos ayuda a caracterizar las curvas planas en el espacio R3 con curvatura no nula.

Proposicion 7.3.6. Una curva α : I → R3 con k(s) 6= 0, ∀ s ∈ I, es plana si, y solo si, su torsiones nula.

De nuevo, y al igual que en la seccion anterior, se define la curvatura y la torsion de una curvaregular α : I → R3 como la curvatura y la torsion, respectivamente, de su reparametrizacion porla longitud de arco:

kα(t) := kβ(h−1(t)) y τα(t) := τβ(h−1(t)).

De nuevo no es necesario conocer la expresion explıcita de la reparametrizacion de una curva porsu longitud de arco para poder calcular su curvatura y su torsion. De hecho, el siguiente resultadonos muestra como hallar ambas funciones a partir de la expresion de la curva y de sus derivadas.

Proposicion 7.3.7. Sea α : I → R3 una curva parametrizada regular. Entonces,

kα(t) =‖α′(t) ∧ α′′(t)‖

‖α′(t)‖3y τα(t) = −det(α′(t), α′′(t), α′′′(t))

‖α′(t) ∧ α′′(t)‖2.

Page 68: Temario de Matemáticas II

62 Geometrıa diferencial de curvas

NOTA: Por det(α′(t), α′′(t), α′′′(t)) nos referimos al determinante de la matriz de orden 3 cuyascolumnas (o filas) son los vectores α′(t), α′′(t) y α′′′(t) en coordenadas con respecto a la baseestandar o canonica de R3.

Para acabar, veamos que en el caso de las curvas espaciales necesitamos de las dos funciones:la curvatura y la torsion, para determinar una curva salvo movimientos rıgidos del espacio.

Teorema 7.3.8. Teorema fundamental de las curvas espaciales. Sean k, τ : I → R dosfunciones derivables con k(s) > 0, ∀ s ∈ I. Entonces existe una curva espacial regular α : I → R3

p. p. a. de modo que kα(s) = k(s) y τα(s) = τ(s), ∀ s ∈ I. Ademas, si β : I → R3 es otra curvaregular p. p. a. con curvatura kβ(s) = k(s) y torsion τβ(s) = τ(s), ∀ s ∈ I, entonces existe unmovimiento rıgido directo M : R3 → R3, Mx = Ax + b, tal que β = M ◦ α.

Apendice: Regla de derivacion del producto escalar y del producto vectorial

Dadas dos aplicaciones derivables u,v : I → R3 con I un abierto de R, podemos considerar lasaplicaciones producto escalar

〈u,v〉 : I → R〈u,v〉(t) = 〈u(t),v(t)〉

y producto vectorialu ∧ v : I → R

(u ∧ v)(t) = u(t) ∧ v(t).

Entonces, ambas aplicaciones son derivables y satisfacen la regla del producto para la derivada:

〈u,v〉′(t) = 〈u′(t),v(t)〉+ 〈u(t),v′(t)〉

y(u ∧ v)′(t) = u′(t) ∧ v(t) + u(t) ∧ v′(t).