Geometría Analítica con Matlab/Texto completo

Introducción

editar

Fue el propósito de proyecto elaborar un software como soporte de aprendizaje en el estudio de cónicas rotadas; a este software se le ha llamado FORCUSC.

La idea nació al observar que programas de computación como Derive, Matlab, Mathematica, MathCad, Scientific WorkPlace, Magma, Calypso entre otros, a partir de la ecuación cartesiana permiten visualizar las gráficas de las cónicas, sin embargo a pesar de que algunos de ellos poseen excelentes herramientas para tener una magnífica gráfica, no muestras los ejes con respecto a los cuales la cónica presente la denominada ecuación normal, es decir la carente de términos de la forma xy; tampoco muestran la correspondiente ecuación normal ni calculan el ángulo de rotación.

La base del desarrollo del software ha sido el estudio de la matriz simétrica asociada a la ecuación cuadrática

 

, como habitualmente lo presentan los textos de Àlgebra Lineal. Los vectores propios de la matriz muestran los ejes del nuevo plano cartesiano, en el cual la cónica presenta la denominada ecuación normal.

Es importante tener en cuenta que la ecuación anterior, además de describir cónicas, también describe rectas, puntos o ningún punto. Este análisis se presenta en la sección tres (3) y, los resultados giran alrededor del signo del menor valor propio.

A pesar de la potencia de las herramientas gráficas del programa Derive, se encontró que realiza la gráfica de las rectas paralelas descritas por la ecuación  , pero no muestra la gráfica de la recta descrita por la ecuación  , cuya diferencia con la anterior es tan sólo en la constante  

Con el software FORCUSC no hay este tipo de dificultad. Ha sido diseñado para mostrar la gráfica, junto con los ejes de rotación de cualquier caso contenido en la ecuación cuadrática, con  , y brindar información sobre el ángulo de rotación así como los valores y vectores propios.

 

Para el diseño y creación del software FORCUSC, se consultó MARCHAND, Patrick. Graphics and GUIs with Matlab. 2nd. edition. New York: CRC Press, 1999, junto con las ayudas ofrecidas por el programa Matlab. En la sección 4, se presenta el código fuente respectivo. FORCUSC fue diseñando enteramente en GNU/Linux y actualmente se encuentra lista la versión 2.5 que corre como cualquier aplicativo de Matlab, agregando sus respectivas librerías al Path de Matlab, la versión compilada como aplicación independiente de instalación de Matlab se encuentra en etapa de compilado y pruebas.

En las sección dos y tres se presenta un desarrollo matemático sobre Álgebra Lineal elemental que comprende el estudio de valores y vectores propios, incluyendo específicamente el caso de matrices simétricas buscando la aplicación a la rotación en el caso cartesiano. Un hecho importante lo constituye el que, desde el software FORCUSC se puede acceder al presente documento como medio de consulta sobre los resultados allí presentados.

Etapas posteriores del proyecto FORCUSC buscarán implementar nuevos módulos que permitan desarrollar entre otros, el estudio de las superfícies cuádricas.

Matrices

editar

Matrices

editar

Luego de la fundamentación de la teoría de matrices al final del sigo XIX, se observó que muchas nociones matemáticas que fueron consideradas ligeramente diferentes de las matrices, eran en efecto, similares. Por ejemplo, objetos tales como puntos en el plano bidimensional, puntos en el espacio tridimensional, polinomios, funciones continuas, funciones diferenciables satisfacen las mismas propiedades aditivas y propiedades de multiplicación por escalares. Por lo cual se pensó que era más eficiente y productivo estudiar muchos tópicos a la vez, al analizar las propiedades comunes que ellos satisfacen; este hecho condufo a la definición axiomática de espacio vectorial. La primera publicación sobre el tema se debe al polaco Hermann Grassmann (1808 - 1887), en 1844; en su trabajo dejó planteados los conceptos que se refieren a dependencia lineal, bases y dimensión.

El italiano Giuseppe Peano (1858 - 1932) dio una axiomatización similar a la que actualmente se usa y que fue propuesta posteriormente por el alemán Hermann Weyl (1885 - 1955) ignorando el trabajo de Peano. El éxito de Weyl radicó en el manejo geométrico del espacio vectorial.

Espacio Vectorial

editar

Un espacio vectorial involucra cuatro (4) "objetos": dos (2) conjuntos V y F, y dos operaciones algebraicas llamadas adición vectorial y multiplicación escalar; V es un conjunto no vacío de objetos llamados vectores. F es un campo escalar, ya se el campo de los número reales, o bien el campo de los números complejos.

La adición vectorial (denotada como  ) es una operación entre elementos de V. La multiplicación escalar (denotada como  ) es una operación entre elementos de F y de V. Entonces, el conjunto V es llamado espacio vectorial sobre F cuando la adición vectorial y la multiplicación escalar satisfacen las propiedades que se enuncian a continuación:

Para la adición de vectores

 


Propiedades para la multiplicación escalar:

 


Si al módulo   mencionadao en (A4) se le denomina vector nulo y se denota por O, y teniendo en cuenta que cualquier escalar t multiplicado por él da nuevamente el vector nulo,  , se puede decir:

NOTA 1 Si x es un vector no nulo y  , entonces el escalar K es 0.

Esto resulta al suponer que  , entonces  , lo cual es absurdo.

Independencia Lineal

editar

Dados los vectores   y los escalares  , una expresión de la forma

 


es llamada uan combinación lineal de ellos.

Un conjunto de vectores se dice linealmente independiente, o que es un sistema libre si la única combinación lineal igual al vector nulo es aquella en que todos los escalares son cero. En caso contrario, se dice que es linealmente dependiente o que es un sistema ligado.

Subespacio

editar

Si V es un espacio vectorial sobre F y si  , entonces W es un subespacio de V si bajo las operaciones de V, W mismo forma un espacio vectorial sobre F.

Para establecer la estructura de subespacio no es necesario revisar todas las 10 condiciones definidas para determinar si un subconjunto es también un subespacio. Para tal fin se plantean dos caracterizaciones:

 
atención
'Caracterización 1: Sea   un conjunto no vacío. Entonces W es un subespacio de V si y solo si
 

Prueba

Sólo si se quiere probar que W es subespacio de V.

Con  , resulta (A1). Las propiedades asociativa y conmutativa [(A2), (A3)] las conserva el subconjunto W. Con   se obtiene  , y con ello se cumple (A4). Ahora, dado  , tomando   se concluye que el opuesto   y en consecuencia por (A1) satisface (A4). Si   y   se tiene (M5).

Las restantes propiedades (M2), (M3), (M4) son consecuencia por ser W subconjunto del espacio vectorial V.

Una segunda caracterización tiene en cuenta únicamente las condiciones clausurativas (A1) y (M1):

 
atención
'Caracterización 2: Sea   un conjunto no vacío. Entonces W es un subespacio de V si y solo si
 

Prueba

Sólo se requiere establecer que (A1), (M1) implican que W es subespacio de V.

Siendo W subconjunto de V, salvo las propiedades (A4) y (A5) de manera inmediata se satisfacen las restantes. (A4) y (A5) se obtienen de (A1), (M1) al escribir  , dado cualquier elemento  .

La caracterización 2 permite deducir que para un conjunto   de vectores del espacio V, el espacio formado con todas las combinaciones lineales de sus elementos  , es un subespacio vectorial de V. Este subespacio es llamado el espacio generado por W.

La dimensión de un espacio vectorial V se refiere al máximo número de vectores, o bien al mínimo número de vectores linealmente independientes necesario para generar V. Y se denomina base todo conjunto de vectores, linealmente independientes, que genera el espacio V.

Producto Interior

editar

Al considerar F el campo de los número reales o el de los complejos, al espacio vectorial se le asocia un producto interior denotado  , que a cada par de vectores asocia un único escalar, y cumple las propiedades.

 

En el caso del espacio vectorial real de la forma   (con  ), un producto punto es el correspondiente a la suma de los productos de las respectivas componentes. Es decir, dados los vectores

 


se toma

 .


Al utilizar la notación matricial, los vectores habitualmente se toman en columna y, en este caso el producto anterior se desarrolla como  , donde   indica la transpuesta de u.

En el caso de vectores con componentes complejas, el producto interno debe ser modificado para tener la definición de longitud, y la modificación habitual es conjugar el primer vector en el producto interno. Esto significa que x es reemplazado por  , y el producto interno de x y y resulta:

 


Y se toma el producto interno de x con él mismo, se tiene el cuadrado de su longitud:  .

Puesto que en el caso complejo   no siempre coincide con  , se debe tener en cuenta el orden de los vectores para el producto interno. Hay otra novedad: si x es cambiada por cx, entonces el producto interno de x y y es multiplicado por  .

Nótese que si se tomara en el caso complejo tal como se desarrolla el caso real, con el vector   aparecería por ejemplo el resultado

 ,


incumpliendo la segunda parte de la propiedad (P1).

Una norma para un espacio vectorial V, real o complejo, es la función   definida sobre V que satiface:

 .


En un espacio V con producto interior  , dos vectores x, y son ortogonales si  . En   el producto interios habitual es  . En el espacio  , como se restringió antes, el producto interior usual es  .

Si los dos vectores ortogonales tiene norma o longitud 1, se dice que son ortonormales.

Matrices

editar

Arthur Cayley

Suma y multiplicación

editar

Recuérdese que una matriz es un arreglo rectangular de número que pueden ser reales o complejos y se representa normalmente entre paréntesis. El orden o tamaño de una matrz está dado por el número de filas y el de columnas.

Los elementos de una matriz general de tamaño   se representan normalmente utilizando un doble subíndice; el primer subíndice, j, indica el número de fila y el segundo, k, el número de columna. Así pues, el elemento,   está en la segunda fila, tercera columna de la matriz M; se puede representar de forma abreviada como  . También se usa la notación  .

La suma de dos matrices sólo está definida si ambas tienen el mismo tamaño. Así, dadas   y  , entonces la suma   se define como la matriz  , en la que  ; es decir, para sumar dos matrices de igual tamaño basta con sumar los elementos correspondientes.

En el conjunto de todas las matrices de un determinado tamaño, la adición tiene las propiedades asociativa y conmutativa. Además hay una matriz única O, denominada matriz cero o nula, tal que para cualquier matriz A, se cumple   y, para la matriz dada A existe una matriz única B tal que  .

La multiplicación de una matriz A por un escalar t (número real o complejo), da una matriz formada por todos los términos de A multiplicados por el escalar t, conservando su posición inicial.

De esta manera, el conjunto de todas las matrices de orden  , con la operación suma y la multiplicación por escalares tiene estructura de espacio vectorial.

La multiplicación o producto AB de dos matrices, A y B, está definido sólo si el número de columnas del factor izquierdo, A, es igual al número de filas del factor derecho, B; si   es de tamaño   y   es de mañaño  , el producto   es de tamaño   y   está dado por

 

.

Es decir, el elemento de la fila j y la columna k des producto, es la suma de los productos de cada uno de los elementos de la fila j de factor izquierdo multiplicado por el correspondiente elemento de la columna k del factor derecho.

Para el caso de una matriz cuadrada, se adopta la notación   para representar el producto AA.

La multiplicación de matrices no es conmutativa, pero si cumple la propiedad asociativa. Esto es

 . (1.1


El caso particular de la multiplicación de una matriz de orden   por una matriz de orden  , es una matriz de orden   (vector columna). De acuerdo con la definición es

 


la cual puede expresarse en la forma

  (1.2a


es decir, es una combinación lineal de las columnas de la matriz de orden  , y los escalares corresponden a las componentes del vector columna.

Cuando se tiene la multiplicación de una matriz   de orden  , por otra formada por dos (o más) columnas (dos vectores columna), se puede plantear en la forma

 ,


o brevemente, denotanto X el vector columna   y Y el vector  

 . (1.2b


Matriz inversa

editar

La matriz unidad, es una matriz cuadrada en la cual todos los elementos son cero, excepto los de la diagonal principal, que son 1 y es el elemento neutro para la multiplicación de matrices. Si A y B son dos matrices cuadradas de forma que  , la matriz B se llama inversa de A y se denota  .

Si una matriz no posee inversa se dice singular; en caso contrario se le dice no singular o regular (es inversible).

Si se supone que dos matrices B, C cumplen

 


de  , se tiene que la inversa, si existe es única. En particular  .

Sobre dos matrices M y N, inversibles, si son de igual tamaño se cumple

 . (1.3


Esto se sigue de la asociatividad de la multiplicación:

 


y de manera análoga se obtiene  , verificándose la propiedad (1.3)

.

En el caso sencillo de una matriz A de orden 2

 ,


su inversa, si existe, es de la forma

 ,


con  .

Además de la matriz nula y la matriz identidad, se tienen otras matrices. Matriz escalar es la matriz obtenida de multiplicar la identidad I por un escalar (real o complejo).

La matriz A es involutiva si ella es su propia inversa; es decir si  . Una matriz A se dice idempotente si  .

La matriz transpuesta de una matriz A de orden   es la matriz de orden  , denotada   (transpuesta de A), que se obtiene permutando las filas por las columnas. La fila j de   es la columna j de A, y la columna j de   es la fila j de A. En particular la transpuesta de la matriz unidad es ella misma, esto es  . También  .

Con la multiplicación se cumple:

 , (1.4


y con esta propiedad se establece una relación entre la inversa de la transpuesta con la inversa de la matriz dada. Esto es:

 , (1.5


ya que  ; y de la misma forma  .

En el caso de tener sólo números reales, la matriz se llama ortogonal si cumple

 ,


que equvale a

  (1.6


lo cual significa que la inversa de la matriz, simplemente es la transpuesta.

Con esto se puede decir:

NOTA 2 Una matriz A es regular si y solo si   lo es. O también, A es singular si y solo si   lo es.

Una matriz real A es simétrica si ella es igual a su transpuesta; es decir si  . Una matriz B es antisimétrica (hemisimétrica) si  ; en este caso los elementos de la diagonal principal son nulos. Resulta del hecho  , y esto implica  .

Una matriz cuadrada A de orden n se llama unitaria si:

 ,


o sea, si

 . (1.7


La matriz   se denomina matriz conjugada de A y se obtiene tomando el conjugado de cada elemento. En el producto se cumple  

En el caso de tener sólo números reales, es el caso de la matriz ortogonal.

Los Cuatro Subespacios Fundamentales

editar

Asociado a una matriz A de orden   se tienen cuatro subespacios vectoriales fundamentales. Dos de ellos, subespacios de   y los otros dos de  .

La conexión entre funciones lineales y matrices surgió de la observación de Cayley que la composición de dos funciones lineales puede representarse mediante la multiplicación de dos matrices. En general una función o transformación lineal relaciona dos espacios vectoriales U y V sobre el mismo cuerpo F, cumpliendo:

 .


 .


Así que, dada una matriz A de orden  , la función   de   en   definida por   es una aplicación lineal

Espacio columna, espacio fila

editar

Sea A una matriz real de tamaño  

 .


El espacio columna de A, es el subespacio de   generado por las n columnas de A y coincide con el recorrido de la aplicación lineal (o transformación lineal)  . Este subespacio se simboliza por  . Es decir,

 


Observando el producto Ax, en la forma (1.2)

, se observa efectivametne que   es el espacio generado por las columnas de A. Su dimensión es el número de columnas linealmente independientes.

Ahora, si a cambio de la matriz A se considera su transpuesta  , el recorrido de la aplicación lineal   constituye el espacio columna de  , el cual equivale al espacio generado por las filas de A.

NOTA 3 En esta sección se habla en términos de matrices reales y espacio real, pero todos los resultados obtenidos son análogos en matrices complejas, basta reemplazar   por  .

En resumen, dada una matriz  , por el momento hay dos espacios vectoriales asociados a ella:

a)   el espacio determinado por las columnas de A (Espacio Columna). Es decir
 .
b)   el espacio determinado por las filas de A (espacio fila): 
 .


Luego de obtener una matriz escalonada a través de la eliminación gaussiana, se puede calcular el rango r de la matriz escalonada, que corresonde precisamente a la dimensión del espacio fila de A.

Dicho de otra forma, la dimensión del espacio fila de A corresponde al número de filas distintas de cero que tenga la nueva matriz escalonada.

Algunas veces se desea saber si dos matrices tienen o no el mismo espacio fila o el mismo rango. El siguiente teorema, conocido como Teorema de Rangos iguales, establece una solución. Se hace uso de la notación   para indicar que existe una matriz regular P tal que  . Análogamente   significa que existe una matriz regular Q, tal que  .

Para dos matrices A y B de orden  :

 . (1.8


 . (1.9


Prueba

Para verificar (1.8)

, primero se asume  , esto es, existe una matriz regular P tal que  . Para ver que  , se sigue de:

 


Ahora, para el recíproco, si   entonces los espacios vectoriales generados por las filas de A y las filas de B coinciden. Esto es

 ,


por lo tanto cada fila de B es una combinación de las filas de A y viceversa. Con base en este hecho se puede decir que es posible reducir A a B usando solamente operaciones de filas, y de esta manera  . La prueba de B se sigue, reemplazando A y B con   y  .

Espacio nulo, espacio nulo a izquierda

editar

A partir de la transformación lineal   de   en  , definida por  , con A una matriz de orden  , el conjunto   es llamado espacio nulo de  . También se le representa como   haciendo referencia a la matriz que genera la transformación.

Este espacio nulo es un subespacio vectorial del dominio  . Para ello se revisa que se cumplen las propiedades A1, M1 enunciadas en la sección 1.1, Caracterización 2:

  Sean  , con  . Entonces la imagen de la suma

 ,


ya que la multiplicación de matrices es distributiva respecto de la suma, y puesto que  , resulta que  .

  Sea  , y   cualquier escalar del cuerpo F. Entonces

 

.

Si se sigue el proceso de eliminación para simplificar un sistema de ecuaciones lineales, el sistema   se reduce a  , siendo U la matriz escalonada obtenida de A, al aplicar la eliminación gaussiana, y este proceso es reversible. En este caso. Los elementos de este espacio son las soluciones del sistema homogéneo

 . (1.10


Ya que el espacio nulo de A, es el conjunto de vectores que satisfacen  , es el mismo espacio nulo de U y, de las m restricciones impuestas por las m ecuaciones de  , solo r son independientes, que corresponden a las r filas de A linealmente independientes, o también por las r filas no nulas de U.

De esta manera, el espacio nulo  , también llamado el kernel de A, es de dimensión  . Una base puede construirse reduciendo a  , que tiene   variables libres correspondientes a las columnas de U que no contienen pivotes. Entonces, seguidamente, se da a cada variable libre el valor 1, a las otras variables libres el valor 0, y se resuelve   sustituyendo en reversa las variables (básicas) faltantes; los   vectores producidos de esta forma son una base para  .

Siendo   un subespacio vectorial, contiene el vector nulo  ; es decir,   satisface el sistema (1.1)

, y se dice habitualmente que   es solución trivial.

NOTA 4 La condición necesaria y suficientes para que   tenga solución distinta de la trivial es que la característica de A sea  
NOTO 5 Si la característica de   es  , el sistema tiene, exactamente   soluciones linealmetne independientes de forma que cada solución es combinación lineal de estas  , y cada una de estas combinaciones lineales es una solución.

Si ahora se halla el espacio nulo para el operador generado por  , entonces   con  , es llamado el espacio nulo izquierdo de A porque es el conjunto de todas las soluciones del sistema homogéneo izquierdo

 .


En resumen, dada una matriz  , hay dos espacios nulos asociados a ella:

  el espacio nulo de A.

Es decir:

 


  el espacio nulo izquierdo de A.

Es decir:

 


Matriz Orgotonal

editar

Ya en la sección 1.2.2 se estableció que una matriz es ortogonal si su inversa es su propia transpuesta. En función de sus líneas, acudiendo al producto escalar de vectores, se puede decir que una matriz ortogonal es simplemente una matriz cuadrada con columna (filas) ortonormales.

Si Q es matriz ortogonal y   sus columnas las cuales satisfacen:   y  , se puede visualizar de la siguiente manera:

 .


A partide de la conexión entre la norma y el producto interior para vectores reales o complejos, pueden establecerse dos propiedades sobre las matrices orgonales:

 
atención
  Una matriz ortogonal preserva longitudes. Esto significa
 . (1.11a


  Una matriz ortogonal preserva productos internos y ángulos:

 . (1.11b

Prueba de 1

De la definición de norma (sección 1.1.3),

 .


Prueba de 2

Dados dos vectores x,y al tomar el producto punto entre sus imágenes mediante Q

 .


Cuando A es una matriz ortogonal, la ecuación   se soluciona fácilmente ya que resulta  , de donde  .

Inversa y multiplicación de matrices ortogonales

editar

Sobre este tipo de matrices se tiene que su inversa (transpuesta), también es matriz ortogonal; así mismo el producto de dos matrices ortogonales es otra matriz ortogonal. Se procede a verificar estas afirmaciones:

 
atención
Si A es ortogonal, entonces   es ortogonal.

Basta ver  . Lo cual se deduce de aplicar (1.5)

y la propiedad asociativa
 ,


y puesto que A es ortogonal

 .


 
atención
Si A,B son ortogonales, entonces AB es ortogonal.

Se debe probar  . Aplicando (1.4)

y la propiedad asociativa
 ,


ahora por ser A, B ortogonales

 .


De forma similar, se obtiene  .

Matriz hermitiana

editar

Una matriz cuadrada   tal que   se llama hermitiana o autoadjunta. Este es el análogo complejo de simetría. Los elementos de la diagonal principal de una matriz hermitiana han de ser números reales, puesto que deben cumplir  . Si la matriz es además unitaria, significa que  , es decir es involutiva. Si todos los elementos son reales, es una matriz simétrica, como se ha mencionado anteriormente.

Con la notación  , se tiene que A es hermitiana si  . Si A es de orden   entonces   es de orden  .

Sobre una matriz hermitiana sucede:

 
atención
Si H es hermitiana no siempre   lo es.

Se deriva del hecho  , que puede no coincidir con H.

Así mismo,

 
atención
Si H, T son hermitianas, entonces no siempre el producto HT lo es.

Se debe a que  , que no siempre es igual a  .

Una matriz cuadrada   tal que   se llama hemi-hermitiana. Este es el análogo complejo de antisimetría. Los elementos de la diagonal principal de una matriz hemi-hermitiana han de ser números nulos o imaginarios puros. Es consecuencia del hecho  , puesto que  , y esto implica  .

Entonces, si una matriz hermitiana H, se multiplica por un escalar k, resulta:

 


También a una matriz hermitiana se le denomina matriz hermitica.

Valores y Vectores Propios

editar

Valores y Vectores Propios

editar

Se plantea una revisión del propiedades sobre determinantes, a partir de la definición propuesta en el libro de matrices de Frank Ayres, página 20, que hace uso del número de inversiones en una permutación.

Inicialmente, considérese una matriz de orden 3. Sea

 


y un producto de la forma

  (2.3


de tal manera que se tome un único elemento de cada línea (fila y columna). Los primeros subíndices se han tomado en el orden creciente 1, 2, 3, y con respecto a este orden los segundos subíndices forman el arreglo

  (2.2


con lo cual hay seis (6) posibles elecciones para los j's; estas son

123, 132, 213, 231, 321, 312.

Ahora, con relación al orcen creciente tomado para los primeros subíndices, en las elecciones o permutaciones posibles para los segundos subíndices, pueden haber las denominadas inversiones. En una permutación dada existe una inversión cuando un entero precede a otro menor que el. De esta forma, por ejemplo la permutación 321 contiene tres (3) inversiones.

A cada permutación se asocia un signo + o -, de acuerdo a si el número de inversiones presente es par o impar respectivamente. Para el caso de la matriz B anterior, se tienen los seis productos siguientes:

 

y los signos respectivos asociados a las permutaciones de los segundos subíndices, son:

+, -, -, +, -, +.

Con la información anterior, al tomar el determinante de B (notado   o |B|) como la suma de los seis (6) productos precedidos de los respectivos signos, resulta

  (2.3


Este desarrollo permite deducir de manera inmediata propiedades básicas aplicables a matrices cuadradas de cualquier tamaño.

NOTA 1 Para una matriz de orden 2, por ejemplo  , la permutación asociada al producto   contiene una inversión; en tal caso  .

Propiedades de Determinantes

editar

Las tres primeras propiedades se observan directamente de (2.3)

, y todas ellas las cumplen matrices cuadradas de cualquier tamaño.

 
atención
'D-1' Si B tiene una fila nula, entonces  

Se sigue del hecho que cada producto en (2.3)

contiene un cero de dicha fila nula.
 
atención
'D-2' Si B es triangular, entonces   es el producto de las entradas de la diagonal principal.

En particular si B es triangular inferior, el desarrollo (2.3)

inicialmente se reduce a los dos primeros sumandos pero, en el segundo de ellos el término   es nulo; por consiguiente
 .


De esta propiedad resulta inmediatamente,

 
atención
'D-3 El determinante de la matriz identidad es 1'

Para revisar el determinante cuando se intercambian dos líneas paralelas o, cuando dos de ellas son iguales, se puede reescribir (2.3)

en las formas alternativas:
 , (2.4a


  (2.4b


  (2.4c


De esta manera, se sigue:

 
atención
'D-4' Si dos filas de B son iguales, entonces  .

Puesto que se anulan los factores que involucran restas nulas.

 
atención
'D-5'La transpuesta de B tiene el mismo determinante de B:  .

En consecuencia al aplicar (2.4a)

a la matriz
  con  


resultando

 ,


y en términos de los  , queda

 ,


 ,


el cual coincide con (2.4a)

. Esto permite extender las propiedades en las filas a las columnas.

 
atención
'D-6' El determinante depende linealmente de la primera fila.

Cuando cada término de una fila es suma de otros dos, de la propiedad distributiva de la multiplicación respecto de la suma, aplicado a una de las tres expresiones (2.4a)

- (2.4c)

, el determinante es suma de dos determinantes como en la manera siguiente:

 . (2.5a


También, si una fila tiene un factor común,

 . (2.5b


De manera similar, tomando el desarrollo adecuado, se tiene:

 
atención
'D-7' El determinante cambia de signo cuando dos filas se intercambian.
 
atención
'D-8' La operación elemental de sustraer un múltiplo de una fila a otra no modifica el valor del determinante.

La siguiente propiedad se refiere a la multiplicación.

 
atención
'D-9' Para cualquier par de matrices A, B de orden 3, el determinante del producto AB es el producto de los determinantes:  

Una consecuencia de esta propiedad, junto con el hecho  , relaciona el determinante de la inversa:  . Es decir, si B es regular entonces  , la matriz inversa   está dada por

 ,


donde   es la matriz adjunta de B, constituida por los cofactores de esta.

Con lo anterior, se dice

 
atención
'D-10' B es inversible si y solo si  . También es equivalente a: B es singular si y solo si  .

Valores y Vectores Propios

editar

Dada una matriz cuadrada A (de valores reales o complejos), de orden n, se dice que   (real o complejo) es valor propio si existe un vector no nulo x tal que

 . (2.6


Al vector x anterior, se le denomina vector propio, y al par   se le dice par propio. =====Algunas Consecuencias de la definición (2.6)

=

Si se multiplica la ecuación (2.6)

por A:
  (2.6a


lo cual significa:

 
atención
'C-1' Si   es valor propio de A asociado al vector propio x, entonces   es valor propio de A asociado al vector propio Ax

Al multiplicar (2.6)

por cualquier escalar K
  (2-6b


que implica:

 
atención
'C-2' Si x es un vector propio de A asociado a  , cualquiera de sus vectores múltiplos kx,  , también es vector propio.

Retomando la ecuación (2.6a)

, con el par propio  :

 ,


y aplicando (2.6)

se obtiene
 , (2.6c


lo cual indica que   es valor propio de  , asociado al vector propio x. Si se multiplica sucesivamente por potencias de A, se deduce:

 
atención
'C-3' Si   es valor propio de A entonces   es valor propio de  , para todo  

También se tiene lo siguiente:

 
atención
'C-4' Un vector no nulo, no puede ser vector propio asociado a dos valores propios distintos.
Prueba

Supóngase que y es un vector propio asociado a los dos valores propios  . Entonces se cumple

 ,


de lo cual

 


o también

 

, y siendo y un vector no nulo, de la Nota 1 de la sección 1.1 se tiene  

 
atención
'C-5' Relación entre los valores propios de una matriz y su inversa.

Si A es no singular, y si   es un par propio de A, entonces   es un par propio de  .

Prueba

Si   es par propio de A, satisface

 ,


y siendo A no singular, al multiplicar por   se tiene   con lo cual  , ya que  . Con esto, se plantea la relación

 


que muestra precisamente que   es par propio de la matriz inversa  . De esta manera se obtiene:

NOTA 2 Si A es regular, ningún valor propio es nulo.
 
atención
'C-6' Para todo complejo   que no es valor propio de A, se tiene:

x es un vector propio de A si y solo si x es un vector propio de  .

Prueba

 : Si x es un vector propio, existe un complejo   tal que

 .


Siendo   distinto de cualquier valor propio de A entonces  , y sea el complejo   definido por

 .


Con este valor se tiene   y usando el hecho de que   es valor propio

 


de lo cual

 .


Ahora bien, si existiera un vector y no nulo tal que   la inversa   no existiría, pero en tal caso   contrariando precisamente el hecho que   no es valor propio. Por lo tanto   existe y resulta

 ,


mostrando que x es vector propio de la matriz   con valor propio asociado  .

 : Si x es un vector propio de  , existe un complejo   tal que

 .


Entonces

 ,


de donde

 ,


y como  

 ,


es decir, x es vector propio de A con valor propio asociado  .

 
atención
'C-7' Toda combinación lineal de vectores propios, correspondientes al mismo valor propio, es un vector propio asociado a dicho valor propio.
Prueba

Sean   vectores propios de a asociados al valor propio  , y sea

 


una combinación lineal distinta de cero. Entonces al aplica A

 ,


 .


Polinomio Característico
editar

El polinómio característico de una n-matriz A, es

  (2.7a


El grado de   es n y el término líder en   es  . Los coeficientes del polonómio están en función de las entradas de A.

La ecuación característica de A es

 , (2.7b


De la relación (2.6)

, se tiene que   es valor propio asociado al vector x si

 ,


y ya que  , la matriz   es singular, y por la propiedad D-10, se tiene:

NOTA 3   es valor propio para una matriz A si y solo si
 . (2.8


Por consiguiente, de (2-7a)

y (2.8)
se tiene que los valores propios de A son las soluciones de la ecuación característica; por lo tanto, A tiene n valores propios, y algunos de ellos pueden ser complejos (aún si las entradas de A son números reales), y algunos valores propios pueden ser repetidos.

Ahora, tomando el conjugado en (2.6)

,

 


permite concluír:

NOTA 4 Si A tiene solamente números reales, entonces sus valores propios complejos ocurren en pares conjugados.

Con el fin de expresar el determinante y la traza de una matriz en términos de sus valores propios, se acude a una relación dada en ------ entre las raíces y los coeficientes de un polinómio, para aplicarla por supuesto al polinomio característico.

 
consejo
Relación entre las raíces y los coeficientes de un polinómio.

Sea   un polinomio con coeficientes complejos,  , con grado   y

 , (2.9a


y sean   las raices de  , no necesariamente diferentes, es decir

 . (2.9b


Observe que  . Del desarrollo de alguno productos

 ,


 ,


 ,


 ,


inductivamente se sigue que

 .


para abreviar, sean

  la suma de las raices   tomando dos a la vez,

  la suma de los productos de las raíces   tomando tres a la vez,

  la suma de los productos de las raíces   tomando k a la vez,

     

  el producto de las raices  .

De lo anterior se sigue que

 , (2.9c


por lo tanto

 ,


y comparando con (2.9a)

, se surge la relación

 ,


de lo cual

 .


Estas últimas relaciones se conocen como fórmulas de Viète.

Para el caso del polinomio característico asociado a una n-matriz A: al aplicar (2.5b)

en cada una de las filas con  , se tiene   en la forma
 ,


y teniendo en cuenta la definición de determinante, el término   precisamente surge del producto que involucra los términos de la diagonal principal. Con esto, para el polinomio característico  , su coeficiente líder   es   y usando (2.9c)


 , (2.9d


en donde los coeficientes   están dados por las fórmulas de Viète.

A partir de la relación sobre  , junto con (2.9d)

evaluada en   se concluye:
NOTA 5 El determinante   es el producto de sus valores propios. Es decir,
 . (2.10a


Nuevamente la definición de determinante, el término   aparece solamente del producto   y en este caso tiene como coeficiente el valor  . Puesto que  , siguiendo (2.9d)

se tiene en función de la traza de A:
  (2.10b


A partir de esta relación: sobre una matriz nilpotente sucede:

 
atención
'C-8 Traza de una matriz nilpotente:

Si A es nilpotente   para algún k),  .

Prueba

De la propiedad C-3,

 ,


puesto que  , y como x no es vector nulo resulta  . Quiere decir que tan sólo 0 es valor propio, y ya que  , queda  .

Espectro de una Suma y Producto de Matrices
editar

El conjunto de todos los vectores propios asociados al mismo valor propio es denominado el espacio propio del valor  . El conjunto de todos los valores propios de una matriz A es denominado el espectro de A y se denota  .

Para dos matrices dadas A y B, se puede responder la inquietud:

¿Si   y   entonces  ?,

¿Si   y   entonces  ?.


Al considerar dos matrices sencillas

 ,


se tiene que   y también   pero,  . Para el producto, puesto que   inmediatamente la respuesta a la segunda inquietud también es negativa.

Sin embargo, para una matriz muy particular, de la forma

 ,


donde A, B, C y la matriz nula O son matrices cuadradas del mismo orden, se cumple que

  (2.11


ya que la presencia de ceros, al plantear todos los productos posibles en el desarrollo de   sólo quedan los que dan lugar a   simultáneamente con los que corresponden a  . Con esto se cuncluye que  .

=====Otras consecuencias de la definición (2.6)

=

A la lista inicial de propiedades dada en la sección 1.1.3.2.1[1], basadas exclusivamente en la definición (2.6)

sobre valor y vector propio, se agregan algunas otras teniendo en cuenta ahora el uso del determinante.
 
atención
'C-9 Cuando el espectro contiene el cero:

  si y solo si A es una matriz singular.

Prueba

 : Si 0 es valor propio de A, satisface  , es decir  . Así, A es singular.

 : Si A es singular,  , luego 0 es valor propio de A.

 
atención
'C-10' Matriz asociada a un polinomio

Si  , es cualquier polinomio, entonces se define   como la matriz

 .


Si   es un par propio para A, entonces   es un par propio para  .

prueba

Con la propiedad C-3, se tiene

 ,

 ,

 ,


confirmando que  .

NOTA 6 Si coinciden los espectros, no significa que coinciden los polinomios característicos. Por ejemplo para las matrices  , los respectivos polinomios característicos son
 .


 
atención
'C-11' Valores propios de una matriz triangular y de una matriz diagonal.

Dada la matriz triangular superior

 ,


la matriz  , es nuevamente una matriz triangular superior con diagonal principal

 ,


de esta manera los valores propios de la matriz triangular superior T, son justamente los elementos de su diagonal principal.

Para el caso de la matriz diagonal, siendo una matriz triangular superior, entonces sus valores propios son los elementos de la diagonal principal.

 
atención
'C-12 Valores propios de una matriz y su transpuesta.

Las matrices A y   tienen los mismos valores propios.

Prueba

Como una matriz y su transpuesta tienen el mismo determinante

 ,


luego si   entonces  , y recíprocamente.

 
atención
'C-13' Polinomio característico de un producto.

Considere dos n-matrices A y B, siendo la primera de ellas una matriz regular. Entonces AB y BA tienen el mismo polinomio característico.

Prueba

Reescribiendo el determinante  , junto con la propiedad D-9

 ,


quedando

 ,


de esa manera se obtiene el mismo polinomio característico.

Multiplicidad geométrica y algebraica
editar

Sea   un valor propio de A. Entonces, la multiplicidad algebraica de   es el número de veces que se repite como raíz del polinómio característico. Cuando la multiplicidad algebraica es 1,   es llamado valor propio simple.

La multiplicidad geométrica de   es la dimensión del espacio nulo  . En otras palabras, es el número máximo de vectores propios asociados con  , linealmente independientes.

Las dos multiplicaciones pueden ser distintas. Por ejemplo, al considerar la matriz

 ,


su polinomio característico es  , con lo cual el valor propio   se repite dos veces, así su multiplicidad algebraica es 2. En cuanto a su multiplicidad geométrica, al buscar una base para el espacio nulo  , al resolver el sistema

 ,


resulta la ecuación  , y de esta manera las soluciones son de la forma

 


mostrando que sólo hay un vector linealmente independiente, Es decir la multiplicidad geométrica es 1.

Para una matriz diagonal  , ya se conoce que los valores propios coinciden con los de su diagonal. Ahora, para el espacio propio asociado a uno de ellos. por ejemplo  , la k-ésima fila de la matriz   es nula. En consecuencia el sistema

 


tiene como solución vectores con componentes 0 salvo la k-ésima. Así la base contiene sólo un vector linealmente independiente, y con ello la multiplicidad geométrica es 1. Entonces, el espacio propio asociado a   es

{  i-ésima componente es 1 y si  , 0 en otro caso}


Matrices Simétricas

editar

En la sección 1.4 se planteó que una matriz ortogonal preserva longitudes y productos internos como se muestra en las relaciones (1.11a)

, (1.11b)

. A partir de ellas se obtienen conclusiones sobre valores y vectores propios.

Los valores propios de una matriz simétrica son reales
editar

Sea A una n-matriz simétrica y   un par propio; esto es

 .


Para establecer que el valor propio   es real, se sigue el desarrollo propuesto en ----. Entonces, se considera el valor propio   en la forma compleja

 , con  ,


con el propósito de concluir que  . Para ello se define la matriz

 


la cual es una matriz real, hecho que se observa al realizar el producto

 


ya que   es el real 2a, con lo que se suman matrices reales para dar lugar a B. Además B es matriz singular puesto que   lo es; de esta manera existe un vector x no nulo, tal que  . Ahora con  , queda

 ,


y siendo A simétrica también  , con ello

 ,

 ,

 .


y puesto que  , se concluye que  ; es decir, cada valor propio de la matriz simétria A es real.

Los vectores propios de una matriz simétrica asociada a distintos valores propios son ortogonales
editar

Sean   dos valores propios distintos de la matriz simétrica A, y sean x,y sus respectivos valores vectores propios. Entonces

 ,


de donde

 ,


y al tomar la transpuesta de la primera, siendo A simétrica, da   que al relacionarla con la segunda proporciona

 


y puesto que   implica que  , confirmando que los vectores propios son ortogonales.

Los valores propios de una matriz orgonal tienen valor absuoluto 1
editar

Sea Q una n-matriz ortogonal y   un par propio. Al tomar su norma en (2.6)


 ,


y por (1.11a)  , con lo cual

 ,


es decir  . Así, el especto   está contenido en la circunferencia de centro el origen y radio 1.

Matrices Hermitianas

editar

En la sección 1.4.2 se mencionó que una matriz A es hermitiana si    , es decir, cuando  . También, A es una matriz anti hermitiana cuando  , es decir, cuando  .

En la verificación de la naturaleza de los valores propios de una matriz hermitiana, se utilizan dos hechos sencillos:

 .


Para el primero,  . Con esto,

 
atención
'C-14' Si  , entonces para todo vector complejo x, el número   es real.

Para una prueba, a partir del complejo   al efectuar el desarrollo de  , resulta

 ,

 ,


con lo cual éste debe ser un real.

Cónicas Rotadas

editar

Cónicas Rotadas

editar

En esta sección se propone revisar en el plano, la rotación que sucede sobre una cónica, a través de los vectores propios asociados a la matriz de los coeficientes.

Se considera entonces una ecuación de la forma

 , (3.1a


bajo la condición

  y  . (3.1b


Los vectores propios por analizar están asociados a la matríz de los coeficientes

  (3.2a


la cual es simétrica; en consecuencia sus valores propios son reales y los respectivos vectores propios son ortogonales. Su determinante

 , (3.2b


y al número   se le denomina discriminante de la matriz M.

Valores y Vectores Propios

editar

Los valores propios se pueden obtener de la correspondiente ecuación característica, la cual es

 , (3.3


y de esta surge la relación

 . (3.4


Sus raíces dan los dos valores propios (reales puesto que M es simétrica):

 ,


o bien, en términos de la traza y el determinante

 .


De esta expresión junto con la condición (3.1b)

se concluye:
NOTA 1 los valores propios   jamás son iguales porque  .

Sea   el menor valor propio; este es

 . (3.5a


del cual resulta

 . (3.5b


Ahora, teniendo en cuenta que  , para todo real N

 ,


de lo cual:

NOTA 2  , con lo cual  . También  .

Ahora, de la relación con la traza de la matriz M, se tiene

 ,


de donde  .

Vector propio asociado al menor valor propio  
editar

De la relación (2.6)

los vectores propios X de la matriz M satisfacen
 ,


y con  , en función de las componentes

 


que da lugar a un sistema de ecuación equivalentes entre sí, de tal manera que resulta

  con  ,


para cualquier valor propio  . Entonces al considerar el valor propio  

 ,


obteniendo cada vector propio asociado a  

 , para todo  .


Tomando en particular el vector propio  

 , (3.6


el cual por la NOTA 2, tiene segunda componente negativa.

Vector propio asociado a  
editar

Puesto que el segundo valor propio   es distinto de   (NOTA 1), entonces siendo M una matriz simétria el vector propio   asociado a   es ortogonal a  .Así, se propone rotar   en el sentido antihorario el vector   quedando

 , (3.7


y por la NOTA 2, la primera componente es positiva. También  .

Siendo el propósito describir la rotación de la cónica, el ángulo correspondiente oscilará en el intervalo  , se elige el par de vectores propios siguiente:

  (3.8


Obsérvese que, de acuerdo a los signos de las componentes ya analizados, en el primer caso   está en el cuarto cuadrante del plano cartesiando,   está en el primer cuadrante y, en el segundo caso, los vectores están en el primero y segundo cuadrante respectivamente.

Ángulo de rotación
editar

Dados los vectores   su producto punto satisface

 


siendo   el ángulo formado por ellos. Entonces si   (en la dirección positiva del eje X), al tomar   y al reemplazar

 ,


el ángulo de rotación   queda definido por

  (3.9


Entonces, en el primer caso se presenta una rotación negativa y en el segundo, cuanbo  , la rotación es positiva.

Cambio de Coordenadas

editar

Antes de proceder a realizar un cambio de coordenadas, se revisan las opciones de signos de los valores propios.

Sobre los signos de los valores propios de la matria M
editar

Se plantea la pregunta:

¿Es posible que  ?

Supóngase que ambos valores propios son negativas; en tal caso  , es decir que   y siendo   entonces  . Con lo cual el determinante sería

 ,


NOTA 3 Sólo el valor propio   puede ser negativo.

Ahora, ¿es posible que el valor propio   sea nulo? En tal caso, el determinante   muestra que   y, del hecho

 


se tendría  , de lo cual  , contradiciendo la condición (3.1b)

. Así, se tiene

NOTA 4 El mayor valor propio   nunca se anula.

De la relación de los valores propios con la traza se puede decir:

NOTA 5 Si   y el valor propio  , entonces  .

Teniendo en cuenta que el valor propio   es el más pequeño se tiene:

NOTA 6 Si  , entonces   y  .
Matriz de rotación P
editar

La determinación de los vectores propios   permite replantear la ecuación cartesiana (3.1a)

en función de otras variables, con el fin de facilitar la identificación de la cónica que está describiendo. Así, se proponen las variables   y se define la transformación
  (3.10a


siendo P la matriz de orden 2, formada por los vectores propios normalizados

 ,


y por (3.6)

y (3.8)
se tiene  , con lo cual
 .


Matriz de rotación negativa

para el caso  ,

 . (3.10b


teniendo presente (3.6)

y (3.7)

.

Matriz de rotación positiva

Para el caso  , según (3.8)


 . (3.10c


En ambos casos se tiene en cuenta el resultado   (ver teoría), y al realizar la sustitución

 


en la ecuación de segundo grado dada al comienzo, escrita en la forma

 


se simplifica inicialmente en

 ,


y al desarrollar el primer producto

  (3.11


Está por resolver el producto   que contiene las coordenadas del centro de la cónica; se anulan cuando los coeficientes d y e son cero. Obsérvese que esta ecuación carece del término uv, indicando que la cónica correspondiente está en su forma normal.

Caso   (rotación negativa)
editar
 ,


obteniendo

  (3.12


y al reemplazarlo en la ecuación (3.11)


 

(3.13

Se procede a completar cuadrados:

CASO 1  .

Siendo cada valor propio distindo de 0, la expresión (3.13)

queda
  (3.14a


donde

 . (3.14b


Entonces, la ecuación (3.14a)

representa:
 


En los dos primeros casos, los centros están en

 . (3.14c


Las rectas coincidentes tienen ecuaciones

  (3.15


CASO 2  .

Por la NOTA 4, se presenta como única opción:  . Así, de la ecuación (3.13)

queda
  (3.16a


con

 , (3.16b


que representa

Una parábola, si  ,

con eje de simetría paralelo al eje y y vértice en el punto

 , (3.16c


Puede tenerse también

Dos rectas paralelas, si  ,

con ecuaciones

 . (3.16d


La ecuación (3.16a)

puede representar

Una recta, si  ,

Por último, puede representar

Ningún punto, si  .

Caso b<0 (rotación positiva)
editar

Ya que la matriz a considerar   difiere de la anterior   en el signo, los desarrollos y resultados presentados en la sección anterior son similares. De esta manera

  (3.17


al reemplazarlo en (3.11)

produce una ecuación ligeramente dintinta de (3.12)

 

(3.18

lo cual indica que se obtienen los resultados de la sección 3.2.3, con una diferencia:

las coordenadas del centro en el caso de la elipse y de la hipérbola, así como en el vértice para el caso de la parábola son los opuestos aditivos.
CASO 1  .

Siendo cada valor propio distinto de 0, la expresión (3.18)

queda
  (3.19a


donde

 , (3.19b


tal como el de (3.14b)


De esta manera, la ecuación (3.19a)

representa:
 


En los dos primeros casos sus centros están en

 . (3.19c


Las rectas coincidentes tienen ecuaciones

  (3.20


El caso del punto, sus coordenadas están dadas por (h,k).

CASO 2  .

Nuevamente, como en el baso b>0, por la Nota 4, se tiene la única opción:  . De la ecuación (3.18)

queda
  (3.21a


con   dado por (3.16b)

, la cual representa

Una parábola, si  ,

con eje de simetría paralelo al eje u y vértice en el punto

 , (3.21b


Puede tenerse también

Dos rectas paralelas, si  ,

con ecuaciones

 . (3.21c


y tal como (3.21a)

puede representar

Una recta, si  ,

con ecuación

  (3.21d


paralela al eje u. Por último, puede suceder que (3.21a)

represente

Ningún punto, si  .