Diferencia entre revisiones de «Geometría Analítica con Matlab»

Contenido eliminado Contenido añadido
Sin resumen de edición
mSin resumen de edición
Línea 1:
<h1>==[[Geometría Analítica con Matlab</h1>]]==
 
[[Geometría Analítica con Matlab/Matrices|Matrices]]
==Marco Teórico==
 
[[Geometría Analítica con Matlab/Valores y Vectores Propios|Valores y Vectores Propios]]
Luego de la fundamentación de la teoría de matrices al final del siglo XIX, se observó que muchas nociones matemáticas que fueron consideradas ligeramente diferentes de las matrices, eran en efecto, similares. Por ejemplo, objetos tales como puntos en el plano bidimensional, puntos en el espacion tridimensional, polinomios, funciones continuas, funciones diferenciables, satisfacen las mismas propiedades aditivas y propiedades de multiplicación por escalares. Por lo cual se pensó que eras más eficiente el productivo estudiar muchos tópicos a la vez, al analizar las propiedades comunes que ellos satisfacen; este hecho condujo a la definición axiomática de espacio vectorial. La primera publicación sobre el tema se debe al polaco Hermman Grassmann (1808 - 1887), en 1844; en su trabajo dejó planteados los conceptos que se refieren a dependencia lineal, bases y dimensión.
 
El italiano Giuseppe Peano (1858 - 1932) dió una axiomatización similar a la que actualmente se usa y que fue propuesta por el alemán Herman Weyl (1885 - 1955) ignorando el trabajo de Peano. El éxito de Wyel radicó en el manejo geométrico de espacio vectorial.
 
===Cónicas===
La parábola, elipse e hipérbola se llaman seccines cónicas o, simplemente cónicas. Si la ecuación
 
<center><math>Ax^{2}+Cy^{2}+Dx+Ey+F=0</math> (1)</center>
 
representa un lugar geométrico real, este debe ser una sección cónica con uno de sus ejes paralelo (o coincidente) con uno delos ejes coordenados, o bien uno de los casos excepcionales de un punto, dos rectas coincidentes, dos rectas paralelas o dos rectas que se cortan. Estos casos excepcionales se llaman también límite de las cónicas o cónicas degeneradas.
 
La Ecuación general de segunda grado,
 
<center><math>Ax^{2}+Bxy+Cy^{2}+Dx+Ey+F=0</math> (2)</center>
 
Cuando contiene un término xy, es decir, el caso en que <math>B \not= 0</math>, puede transformarse en una de la forma (1) acudiendo a una rotación de los ejes coordenados, para determinar el tipo de cónica al cual corresponde, o si se refiere a uno de los casos excepcionales de un punto o un par de rectas.
 
De manera breve, se recuerdan algunas ecuaciones en su forma ordinaria (o normal):
 
<i>Parábola</i> de vértice (h,k) y eje paralelo al eje X, es de la forma
<center><math>(y-k)^{2}=4p(x-h)</math></center>
siendo <math>|p|</math> la longitud del segmento del eje comprendido entre el foco y el vértice.
 
<i>Elipse</i> de vértice (h,k) y eje focal paralelo al eje X, es dada por
<center><math>\frac{(x-h)^2}{a^2}+\frac{(y-k)^2}{b^2}=1</math></center>
siendo <i>a</i> la longitud del semieje mayor, <i>b</i> es la del semieje menor, <i>c</i> es la distancia del centro a cada foco, y <i>a</i>, <i>b</i> y <i>c</i> están ligadas por la relación <math>a^2=b^2+c^2</math>.
 
<i>Hipérbola</i> de centro (h,k) y eje focal paralelo al eje X, está dada por
<center><math>\frac{(x-h)^2}{a^2}-\frac{(y-k)^2}{b^2}=1</math></center>
siendo <i>a</i> la longitud del semieje transverso, <i>b</i> es la del semieje conjugado, <i>c</i> es la distancia del centro a cada uno de los focos, y <i>a</i>, <i>b</i> y <i>c</i> satisfacen la relación <math>c^2=a^2+b^2</math>.
 
===Elementos de Álgebra Lineal===
 
Recuérdese que una matris es un arreglo rectangular de números que pueden ser realies o complejos y se representa normalmente entre paréntesis. El orden o tamaño de una matriz está dado por el número de filas y el de columnas.
 
Los elementos de una matriz general de tamaño <math>m\times n</math> se representan normalmente utilizando un doble subíndice; el primer subíndice, <i>j</i>, indica el número de fila y el segundo, <i>k</i>, el número de columna. Así pues, el elemento <math>m_{23}</math> están en la segunda fila, tercera columna de la matriz M; se puede representar de forma abreviada como <math>M=(m_{jk})</math>. También se usa la notación <math>M_{m\times n}</math>.
 
La multiplicación o producto AB de dos matrices, A y B, está definido sólo si el número de columnas del factor izquierdo, A, es igual al número de filas del factor derecho,B; si <math>A=(a_{jk})</math> es de tamaño <math>m\times n</math> y <math>B=(b_{jk})</math> es de tamaño <math>n\times p</math>, el producto <math>AB=C=(c_{jk})</math> es de tamaño <math>m\times p</math>, y <math>c_{jk}</math> es de tamaño <math>m\times p</math>, y <math>c_{jk}</math> está dado por
<center><math>c_{jk}=\sum _{h=1} ^{n} {a_{jh}b_{hk}}</math>.</center>
 
Es decir, el elemento de la fila j y la columna k del producto, es la suma de los productos de cada uno de los elementos de la fila j del factor izquierdo multiplicado por el correspondiente elemento de la columna k del factor derecho.
 
La matriz unidad, es una matriz cuadrada en la cual todos los elementos son ceros, excepto los de la diagonal principal, que son 1 y es el elemento neutro para la multiplicación de matrices. Si A y B sin dos matrices cuadradas de forma que <math>AB=BA=I</math>, la matriz B se llama inversa de A y se denota <math>B=A^{-1}</math>.
 
Si una matriz no posee inversa se dice <i>singular</i>; en caso contrario se le dice <i>no singular</i> o <i>regular</i> (es inversible).
 
Si se supone que dos matrices B, C cumple
{{Eqn|<math>AB=BA=I, \; \;AC=CA=I</math>}}
de <math>C=CI=C(AB)=(CA)B=IB=B</math>, se tiene que la inversa, si existe es única. En particular <math>I^{-1}=I</math>.
 
Sobre dos matrices M y N, inversibles, si son de igual tamaño se cumple:
<center><math>(MN)^{-1}=N^{-1}M^{-1}</math>.</center>
 
Esto se sigue de la asociatividad de la multiplicación:
<center><math>(MN)^{-1}(N^{-1}M^{-1})=((MN)N^{-1})M^{-1}=(M(NN)^{-1})M^{-1}</math></center>
<center><math>(MN)^{-1}(N^{-1}M^{-1})=(MI)M^{-1}=MM^{-1}=I</math>,</center>
y de manera análoga se obtiene <math>(M^{-1}N^{-1})(MN)=I</math>, verificándose la propiedad (1.3).
 
En el caso sencillo de uan matriz A de orden 2
<center><math>A=\left[ \begin{array}{lr}a &b \\ c &d \end{array} \right]</math>,</center>
su inversa, si existe, es de la forma
<center><math>A^{-1}=\frac{1}{ad-cb}\left[ \begin{array}{lr}d &-b \\-c &a \end{array} \right]</math>,</center>
con <math>ad-cb \not= 0</math>.
 
La matriz transpuestra de una matriz A de orden <math>m\times n</math> es la matriz de orden <math>n\times m</math>, denotada <math>A^{t}</math> (transpuesta de A), que se obtiene premutando las filas por las columnas. La fila j de <math>A^{t}</math> es la columna j de A, y la columna j de <math>A^{t}</math> es la fila j de A. En particular la transpuesta de la matriz unidad es ella misma, esto es <math>I^{t}=I</math>. También <math>(A^{t})^{t}=A</math>.
 
Con la multiplicación se cumple:
<center><math>(AB)^{t}=B^{t}A^{t}</math>,</center>
y con esta propiedad se establece una relación entre la inversa de la transpuesta con la inversa de la matriz dada. Esto es:
<center><math>(A^{-1})^{t}=(A^{t})^{-1}</math>,</center>
ya que <math>I=I^{t}=(A^{-1}A)^{t}=A^{t}(A^{-1})^{t}</math>; y de la misma forma <math>(A^{-1})^{t}A^{t}=I</math>.
 
En el caso de tener sólo números reales, la matriz se llama <i>ortogonal</i> si cumple
<center><math>AA^{t}=A^{t}A=I</math>,</center>
que equivale a
<center><math>A^{t}=A^{-1}</math>,</center>
lo cual significa que la inversa de la matriz, simplemente es la transpuesta.
 
Una matriz A es simétrica si ella es igual a su transpuesta. Es decir si <math>A^{t}=A</math>.
 
Una matriz cuadrada A de orden n se llama <i>unitaria</i> si:
<center><math>(\overline{A})^{t}A=A(\overline{A})^{t}=I</math>,</center>
o sea, si
<center><math>(\overline{A})^{t}=A^{-1}</math>.</center>
La matriz <math>\overline{A}</math> se denomina <i>matriz conjugada</i> de A y se obtiene tomando el conjugado de cada elemento. En el producto se cumple <math>\overline{AB}=\overline{A} \overline{B}</math>.
 
En el caso de tener sólo número reales, la matriz se llama <i>ortogonal</i> en lugar de unitaria.
 
===Valores y Vectores Propios===
 
Se plantea una revisión del propiedades sobre determinantes, a partir de la definición propuesta en el libro de matrices de Frank Ayres, página 20, que hace uso del número de inversiones en una permutación.
 
Inicialmente, considérese una matriz de orden 3. Sea
{{Eqn|<math>B=\left[\begin{array}{lcr}b_{11} &b_{12} &b_{13} \\b_{21} &b_{22} &b_{23} \\b_{31} &b_{32} &b_{33} \end{array}\right]</math>}}
y un producto de la forma
{{Eqn|<math>b_{1j_{1}}b_{2j_{2}}b_{3j_{3}}</math>|2.1}}
de tal manera que se tome un único elemento de cada línea (fila y columna). Los primeros subíndices se han tomado en el orden creciente 1, 2, 3, y con respecto a este orden los segundos subíndices forman el arreglo
{{Eqn|<math>j_{1}j_{2}j_{3}</math>|2.2}}
con lo cual hay seis (6) posibles elecciones para los j's; estas son
<center>123, 132, 213, 231, 321, 312.</center>
Ahora, con relación al orcen creciente tomado para los primeros subíndices, en las elecciones o permutaciones posibles para los segundos subíndices, pueden haber las denominadas inversiones. En una permutación dada existe una inversión cuando un entero precede a otro menor que el. De esta forma, por ejemplo la permutación 321 contiene tres (3) inversiones.
 
A cada permutación se asocia un signo + o -, de acuerdo a si el número de inversiones presente es par o impar respectivamente. Para el caso de la matriz B anterior, se tienen los seis productos siguientes:
<center><math>b_{11}b_{22}b_{33}, b_{11}b_{23}b_{32}, b_{12}b_{21}b_{32}, b_{12}b_{23}b_{31}, b_{13}b_{22}b_{31}, b_{31}b_{21}b_{32},</math></center>
y los signos respectivos asociados a las permutaciones de los segundos subíndices, son:
<center>+, -, -, +, -, +.</center>
 
Con la información anterior, al tomar el determinante de B (notado <math>\det B</math> o |B|) como la suma de los seis (6) productos precedidos de los respectivos signos, resulta
{{Eqn|<math>\det B=b_{11}b_{22}b_{33}-b_{11}b_{23}b_{32}-b_{12}b_{21}b_{33}+b_{12}b_{23}b_{31}-b_{13}b_{22}b_{31}+b_{13}b_{21}b_{32}.</math>|2.3}}
Este desarrollo permite deducir de manera inmediata propiedades básicas aplicables a matrices cuadradas de cualquier tamaño.
 
{{Res|'''NOTA 1''' ''Para una matriz de orden 2, por ejemplo <math>A=\left[\begin{array}{lcr}a &b \\c &d \end{array}\right]</math>, la permutación asociada al producto <math>bc</math> contiene una inversión; en tal caso <math>detA=ad-bc</math>.''
}}
====Propiedades de Determinantes====
Las tres primeras propiedades se observan directamente de {{Eqnref|2.3}}, y todas ellas las cumplen matrices cuadradas de cualquier tamaño.
{{Importante|'''D-1''' Si B tiene una fila nula, entonces <math>detB=0</math>}}
Se sigue del hecho que cada producto en {{Eqnref|2.3}} contiene un cero de dicha fila nula.
{{Importante|'''D-2''' Si B es triangular, entonces <math>detB</math> es el producto de las entradas de la diagonal principal.}}
En particular si B es triangular inferior, el desarrollo {{Eqnref|2.3}} inicialmente se reduce a los dos primeros sumandos pero, en el segundo de ellos el término <math>b_{23}</math> es nulo; por consiguiente
{{Eqn|<math>detB=b_{11}b_{22}b_{b33}</math>.}}
De esta propiedad resulta inmediatamente,
{{Importante|'''D-3''' El determinante de la matriz identidad es 1}}
Para revisar el determinante cuando se intercambian dos líneas paralelas o, cuando dos de ellas son iguales, se puede reescribir {{Eqnref|2.3}} en las formas alternativas:
{{Eqn|<math>detB=b_{11}(b_{22}b_{33}-b_{23}b_{32})-b_{12}(b_{21}b_{33}-b_{23}b_{31})+b_{13}(b_{21}b_{32}-b_{22}b_{31})</math>,|2.4a}}
{{Eqn|<math>detB=-b_{21}(b_{12}b_{33}-b_{13}b_{32})+b_{22}(b_{11}b_{33}-b_{13}b_{31})-b_{23}(b_{11}b_{32}-b_{12}b_{31})</math>|2.4b}}
{{Eqn|<math>detB=b_{31}(b_{12}b_{23}-b_{13}b_{22})-b_{32}(b_{11}b_{23}-b_{13}b_{21})+b_{33}(b_{11}b_{22}-b_{12}b_{21})</math>|2.4c}}
De esta manera, se sigue:
{{Importante|'''D-4''' Si dos filas de B son iguales, entonces <math>detB=0</math>.}}
Puesto que se anulan los factores que involucran restas nulas.
{{Importante|'''D-5'''La transpuesta de B tiene el mismo determinante de B: <math>detB^{t}=detB</math>.}}
En consecuencia al aplicar {{Eqnref|2.4a}} a la matriz
{{Eqn|<math>B^{t}=\left[\begin{array}{lcr}b^{*}_{11} &b^{*}_{12} &b^{*}_{13} \\b^{*}_{21} &b^{*}_{22} &b^{*}_{23} \\b^{*}_{31} &b^{*}_{32} &b^{*}_{33} \end{array}\right]</math> con <math>b^{*}_{jk}=b_{kj}</math>}}
resultando
{{Eqn|<math>detB^{t}=b^{*}_{11}(b^{*}_{22}b^{*}_{33}-b^{*}_{23}b^{*}_{32})-b^{*}_{12}(b^{*}_{21}b^{*}_{33}-b^{*}_{23}b^{*}_{31})+b^{*}_{13}(b^{*}_{21}b^{*}_{32}-b^{*}_{22}b^{*}_{31})</math>,}}
y en términos de los <math>b_{jk's}</math>, queda
{{Eqn|<math>detB^{t}=b_{11}(b_{22}b_{33}-b_{32}b_{23})-b_{21}(b_{12}b_{33}-b_{32}b_{13})+b_{31}(b_{12}b_{23}-b_{22}b_{13})</math>,}}
{{Eqn|<math>detB^{t}=b_{11}(b_{22}b_{33}-b_{32}b_{23})-b_{12}(b_{21}b_{33}-b_{31}b_{23})+b_{13}(b_{21}b_{32}-b_{31}b_{22})</math>,}}
el cual coincide con {{Eqnref|2.4a}}. Esto permite extender las propiedades en las filas a las colomnas.
{{Importante|'''D-6''' El determinante depende linealmente de la primera fila.}}
Cuando cada término de una fila es suma de otros dos, de la propiedad distributiva de la multiplicación respecto de la suma, aplicado a una de las tres expresiones {{Eqnref|2.4a}} - {{Eqnref|2.4c}}, el determinante es suma de dos determinantes como en la manera siguiente:
{{Eqn|<math>\left|\begin{array}{ccc}a_{11}+d_{11} &a_{12}+d_{12} &a_{13}d_{13} \\b_{21} &b_{22} &b_{23} \\b_{31} &b_{32} &b_{33}\end{array}\right|=\left|\begin{array}{lcr}a_{11} &a_{12} &a_{13} \\b_{21} &b_{22} &b_{23} \\b_{31} &b_{32} &b_{33}\end{array}\right|+\left|\begin{array}{lcr}d_{11} &d_{12} &d_{13} \\b_{21} &b_{22} &b_{23} \\b_{31} &b_{32} &b_{33}\end{array}\right|</math>.|2.5a}}
También, si una fila tiene un factor común,
{{Eqn|<math>\left|\begin{array}{ccc}kb_{11} &kb_{12} &kb_{13} \\b_{21} &b_{22} &b_{23} \\b_{31} &b_{32} &b_{33}\end{array}\right| =k \left|\begin{array}{lcr}b_{11} &b_{12} &b_{13} \\b_{21} &b_{22} &b_{23} \\b_{31} &b_{32} &b_{33}\end{array}\right|</math>.|2.5b}}
De manera similar, tomando el desarrollo adecuado, se tiene:
{{Importante|'''D-7''' El determinante cambia de signo cuando dos filas se intercambian.}}
{{Importante|'''D-8''' La operación elemental de sustraer un múltiplo de una fila a otra no modifica el valor del determinante.}}
La siguiente propiedad se refiere a la multiplicación.
{{Importante|'''D-9''' Para cualquier par de matrices A, B de orden 3, el determinante del producto AB es el producto de los determinantes: <math>det(AB)=detAdetB.</math>}}
Una consecuencia de esta propiedad, junto con el hecho <math>detI=1</math>, relaciona el determinante de la inversa: <math>detB^{-1}=\frac{1}{detB}</math>. Es decir, si B es regular entonces <math>detB\neq 0</math>, la matriz inversa <math>B^{-1}</math> está dada por
{{Eqn|<math>B^{-1}=\frac{1}{\left|B\right|}AdjB</math>,}}
donde <math>AdjB</math> es la matriz adjunta de B, constituida por los cofactores de esta.
 
Con lo anterior, se dice
{{Importante|'''D-10''' B es inversible si y solo si <math>detB\neq 0</math>. También es equivalente a: B es singular si y solo si <math>detB=0</math>.}}
====Valores y Vectores Propios====
Dada una matriz cuadrada A (de valores reales o complejos), de orden n, se dice que <math>\lambda</math> (real o complejo) es '''valor propio''' si existe un vector no nulo x tal que
{{Eqn|<math>Ax=\lambda x</math>.|2.6}}
Al vector x anterior, se le denomina '''vector propio''', y al par <math>(\lambda ,x)</math> se le dice '''par propio'''.
=====Algunas Consecuencias de la definición {{Eqnref|2.6}}=====
Si se multiplica la ecuación {{Eqnref|2.6}} por A:
{{Eqn|<math>A(Ax)=\lambda (Ax)</math>|2.6a}}
lo cual significa:
{{Importante|'''C-1''' Si <math>\lambda</math> es valor propio de A asociado al vector propio x, entonces <math>\lambda</math> es valor propio de A asociado al vector propio Ax}}
Al multiplicar {{Eqnref|2.6}} por cualquier escalar K
{{Eqn|<math>A(kx)=\lambda (kx)</math>|2-6b}}
que implica:
{{Importante|'''C-2''' Si x es un vector propio de A asociado a <math>\lambda</math>, cualquiera de sus vectores múltiplos kx, <math>k\neq 0</math>, también es vector propio.}}
Retomando la ecuación {{Eqnref|2.6a}}, con el par propio <math>(\lambda ,x)</math>:
{{Eqn|<math>A(Ax)=\lambda (Ax)</math>,}}
y aplicando {{Eqnref|2.6}} se obtiene
{{Eqn|<math>A^{2}x=\lambda ^{2}x</math>,|2.6c}}
lo cual indica que <math>\lambda ^{2}</math> es valor propio de <math>A^{2}</math>, asociado al vector propio x. Si se multiplica sucesivamente por potencias de A, se deduce:
{{Importante|'''C-3''' Si <math>\lambda</math> es valor propio de A entonces <math>\lambda ^{n}</math> es valor propio de <math>A^{n}</math>, para todo <math>n\in Z^{+}</math>}}
También se tiene lo siguiente:
{{Importante|'''C-4''' Un vector no nulo, no puede ser vector propio asociado a dos valores propios distintos.}}
{{res|Prueba}}
Supóngase que y es un vector propio asociado a los dos valores propios <math>\lambda_{1}, \;\lambda_{2}</math>. Entonces se cumple
{{Eqn|<math>Ay=\lambda_{1}y, \;Ay=\lambda_{2}y,</math>,}}
de lo cual
{{Eqn|<math>\lambda_{1}y=\lambda_{2}y</math>}}
o también
{{Eqn|<math>(\lambda_{1}-\lambda_{2})y=0</math>}},
y siendo y un vector no nulo, de la Nota 1 de la sección 1.1 se tiene <math>\lambda_{1}=\lambda_{2}</math>
{{Importante|'''C-5''' Relación entre los valores propios de una matriz y su inversa.}}
Si A es no singular, y si <math>(\lambda ,x)</math> es un par propio de A, entonces <math>\lambda^{-1} ,x</math> es un par propio de <math>A^{-1}</math>.
{{res|Prueba}}
Si <math>\lambda ,x</math> es par propio de A, satisface
{{Eqn|<math>Ax=\lambda x</math>,}}
y siendo A no singular, al multiplicar por <math>A^{-1}</math> se tiene <math>x=\lambda A^{-1}x</math> con lo cual <math>\lambda \neq 0</math>, ya que <math>x\neq 0</math>. Con esto, se plantea la relación
{{Eqn|<math>A^{-1}x=\frac{1}{\lambda}x</math>}}
que muestra precisamente que <math>(\lambda^{-1},x)</math> es par propio de la matriz inversa <math>A^{-1}</math>. De esta manera se obtiene:
{{res|'''NOTA 2''' Si A es regular, ningún valor propio es nulo.}}
{{Importante|'''C-6''' Para todo complejo <math>\alpha</math> que no es valor propio de A, se tiene:}}
x es un vector propio de A si y solo si x es un vector propio de <math>(A-\alpha I)^{-1}</math>.
{{res|Prueba}}
<math>\Rightarrow</math>: Si x es un vector propio, existe un complejo <math>\lambda</math> tal que
{{Eqn|<math>Ax=\lambda x</math>.}}
Siendo <math>\alpha</math> distinto de cualquier valor propio de A entonces <math>\lambda -\alpha \neq 0</math>, y sea el complejo <math>\delta</math> definido por
{{Eqn|<math>\delta =\frac{1}{\lambda - \alpha}</math>.}}
Con este valor se tiene <math>x=\delta (\lambda x-\alpha x)</math> y usando el hecho de que <math>\lambda</math> es valor propio
{{Eqn|<math>x=\delta (Ax -\alpha x)</math>}}
de lo cual
{{Eqn|<math>\delta (A-\alpha I)x</math>.}}
Ahora bien, si existiera un vector y no nulo tal que <math>(A-\alpha I)y=O</math> la inversa <math>(A-\alpha I)^{-1}</math> no existiría, pero en tal caso <math>Ay=\alpha y</math> contrariando precisamente el hecho que <math>\alpha</math> no es valor propio. Por lo tanto <math>(A-\alpha I)^{-1}</math> existe y resulta
{{Eqn|<math>(A-\alpha I)^{-1}x=\delta x</math>,}}
mostrando que x es vector propio de la matriz <math>(A-\alpha I)^{-1}</math> con valor propio asociado <math>\delta</math>.
 
<math>\Leftarrow</math>: Si x es un vector propio de <math>(A-\alpha I)^{-1}</math>, existe un complejo <math>\phi</math> tal que
{{Eqn|<math>(A-\alpha I)^{-1}x=\phi x</math>.}}
Entonces
{{Eqn|<math>x=\phi (A-\alpha I)x</math>,}}
de donde
{{Eqn|<math>x+\phi \alpha x=\phi Ax</math>,}}
y como <math>\phi \neq 0</math>
{{Eqn|<math>Ax=\frac{1}{\phi}(1+\phi \alpha)x</math>,}}
es decir, x es vector propio de A con valor propio asociado <math>\frac{1}{\phi}(1+\phi \alpha)</math>.
{{Importante|'''C-7''' Toda combinación lineal de vectores propios, correspondientes al mismo valor propio, es un vector propio asociado a dicho valor propio.}}
{{res|Prueba}}
Sean <math>x_{1},x_{2},\ldots ,x_{n}</math> vectores propios de a asociados al valor propio <math>\lambda</math>, y sea
{{Eqn|<math>v=\alpha_{1}x_{1}+\alpha_{2}x_{2}+\cdots + \alpha_{n}x_n</math>}}
una combinación lineal distinta de cero. Entonces al aplica A
{{Eqn|<math>Av=A(\alpha_1 x_1 +\alpha_2 x_2 +\cdots +\alpha_n x_n)=\alpha_1 Ax_1 +\alpha_2 Ax_2+\cdots +\alpha_n Ax_n</math>,}}
{{Eqn|<math>Av=\lambda(\alpha_1 x_1 +\alpha_2 x_2 +\cdots +\alpha_n x_n)=\lambda v</math>.}}
=====Polinomio Característico=====
El polinómio característico de una n-matriz A, es
{{Eqn|<math>p(\lambda)=det(A-\lambda I).</math>|2.7a}}
El grado de <math>p(\lambda)</math> es n y el término líder en <math>p(\lambda)</math> es <math>(-1)^n \lambda^n</math>. Los coeficientes del polonómio están en función de las entradas de A.
 
La ecuación característica de A es
{{Eqn|<math>p(\lambda)=0</math>,|2.7b}}
De la relación {{Eqnref|2.6}}, se tiene que <math>\lambda</math> es valor propio asociado al vector x si
{{Eqn|<math>(A-\lambda I)x=O</math>,}}
y ya que <math>x\neq O</math>, la matriz <math>A-\lambda I</math> es singular, y por la propiedad '''D-10''', se tiene:
{{res|'''NOTA 3''' <math>\lambda</math> es valor propio para una matriz A si y solo si {{Eqn|<math>det(A-\lambda I)=0</math>.|2.8}}}}
Por consiguiente, de {{Eqnref|2-7a}} y {{Eqnref|2.8}} se tiene que los valores propios de A son las soluciones de la ecuación característica; por lo tanto, A tiene n valores propios, y algunos de ellos pueden ser complejos (aún si las entradas de A son números reales), y algunos valores propios pueden ser repetidos.
 
Ahora, tomando el conjugado en {{Eqnref|2.6}},
{{Eqn|<math>\bar{A}\bar{x}=\bar{\lambda \bar{x}}</math>}}
permite concluír:
{{res|'''NOTA 4''' Si A tiene solamente números reales, entonces sus valores propios complejos ocurren en pares conjugados.}}
Con el fin de expresar el determinante y la traza de una matriz en términos de sus valores propios, se acude a una relación dada en ------ entre las raíces y los coeficientes de un polinómio, para aplicarla por supuesto al polinomio característico.
{{Consejo|Relación entre las raíces y los coeficientes de un polinómio.}}
Sea <math>f(x)</math> un polinomio con coeficientes complejos, <math>f(x)\in C[x]</math>, con grado <math>deg f(x)=n\geqslant 1</math> y
{{Eqn|<math>f(x)=a_n x^n +a_{n-1}x^{n-1}+\cdots +a_2 x^2 + a_1 x +a_0</math>,|2.9a}}
y sean <math>c_1 ,c_2 ,\ldots ,c_n</math> las raices de <math>f(x)</math>, no necesariamente diferentes, es decir
{{Eqn|<math>f(x)=a_n (x-c_1)(x-c_2)\cdots (x-c_n)</math>.|2.9b}}
Observe que <math>a_0 =f(0)</math>.
Del desarrollo de alguno productos
{{Eqn|<math>x-c_1 = x-c_1</math>,}}
{{Eqn|<math>(x-c_1)(x-c_2)=x^2 -(c_1 +c_2)x+c_1 c_2</math>,}}
{{Eqn|<math>(x-c_1)(x-c_2)(x-c_3)=x^3 -(c_1 +c_2 +c_3)x^2 +(c_1 c_2 +c_1 c_3 +c_2 c_3)x-c_1 c_2 c_3</math>,}}
{{Eqn|<math>(x-c_1)(x-c_2)(x-c_3)(x-c_4)=x^4 -(c_1 +c_2 +c_3 +c_4)x^3 +(c_1 c_2 +c_1 c_3 +c_1 c_4 +c_2 c_3 +c_2 c_4 +c_3 c_4)x^2-(c_1 c_2 c_3 +c_1 c_2 c_4 + c_1 c_3 C_4 +c_2 c_3 c_4)x+c_1 c_2 c_3 c_4</math>,}}
inductivamente se sigue que
{{Eqn|<math>(x-c_1)(x-c_2)\ldots (x-c_n)=x^n -(c_1 +c_2 +\ldots +c_n)x^{n-1}+(c_1 c_2+\ldots )x^{n-2}-(c_1 c_2 c_3 +\ldots )x^{n-3}+\ldots +(-1)^k (c_1 c_2 \cdots c_k +\ldots )x^{n-k}+\ldots +(-1)^n c_1 c_2 \cdots c_n</math>.}}
para abreviar, sean
{{caja|
<math>s_1</math> la suma de las raices <math>c_1,c_2,\ldots ,c_n</math> tomando dos a la vez,
 
<math>s_2</math> la suma de los productos de las raíces <math>c_1,c_2,\ldots ,c_n</math> tomando tres a la vez,
 
<math>s_3</math> la suma de los productos de las raíces <math>c_1,c_2,\ldots ,c_n</math> tomando k a la vez,
 
<center><math>\vdots</math> <math>\vdots</math> <math>\vdots</math></center>
 
<math>s_k</math> el producto de las raices <math>c_1,c_2,\ldots ,c_n</math>.}}
De lo anterior se sigue que
{{Eqn|<math>f(x)=a_n\left[ x^n-s_1x^{n-1}+s_2x^{n-2}-\cdots +(-1)^ks_kx^{n-k}+\cdots +(-1)^ns_n\right]</math>,|2.9c}}
por lo tanto
{{Eqn|<math>f(x)=a_nx^n-a_ns_1x^{n-1}+a_ns_2x^{n-2}-\cdots +(-1)^ka_ns_kx^{n-k}+\cdots +(-1)^na_ns_n</math>,}}
y comparando con {{Eqnref|2.9a}}, se surge la relación
{{Eqn|<math>a_{n-1}=-a_ns_1,\; a_{n-2}=a_ns_2,\; \cdots ,\; a_{n-k}=(-1)^ka_ns_k, \;\cdots ,\; a_0=(-1)^na_ns_n</math>,}}
de lo cual
{{Eqn|<math>s_1=-\frac{a_{n-1}}{a_n},\; s_2=\frac{a_{n-2}}{a_n},\;\cdots ,s_k=(-1)^k\frac{a_{n-k}}{a_n},\;\cdots ,s_n=(-1)^n\frac{a_0}{a_n}</math>.}}
Estas últimas relaciones se conocen como fórmulas de Viète.
 
Para el caso del polinomio característico asociado a una n-matriz A: al aplicar {{Eqnref|2.5b}} en cada una de las filas con <math>k=-1</math>, se tiene <math>det(A-\lambda I)</math> en la forma
{{Eqn|<math>det(A-\lambda I)=(-1)^n det \left[ \begin{array}{cccc}\lambda -a_{11} &0-a_{12} &\cdots &0-a_{1n} \\ 0-a_{21} &\lambda -a_{22} &\cdots &0-a_{2n} \\ \vdots &\vdots &\ddots &\vdots \\ 0-a_{n1} &0-a_{n2} &\cdots &\lambda -a_{nn}\end{array}\right] </math>,}}
y teniendo en cuenta la definición de determinante, el término <math>\lambda ^n</math> precisamente surge del producto que involucra los términos de la diagonal principal. Con esto, para el polinomio característico <math>p(\lambda)</math>, su coeficiente líder <math>a_n</math> es <math>(-1)^n</math> y usando {{Eqnref|2.9c}}
{{Eqn|<math>p(\lambda)=det(A-\lambda I)=(-1)^n\left[ \lambda^n-s_1\lambda^{n-1}+s_2\lambda^{n-2}+\ldots +(-1)^{n-1}s_{n-1}\lambda +(-1)^np(0)\right]</math>,|2.9d}}
en donde los coeficientes <math>s_m,\; (m=1,2,\ldots ,n-1)</math> están dados por las fórmulas de Viète.
 
A partir de la relación sobre <math>s_n</math>, junto con {{Eqnref|2.9d}} evaluada en <math>\lambda=0</math> se concluye:
{{res|'''NOTA 5''' El determinante <math>detA</math> es el producto de sus valores propios. Es decir,
 
{{Eqn|<math>detA=\lambda _1 \lambda _2 \cdots \lambda _n</math>.|2.10a}}}}
Nuevamente la definición de determinante, el término <math>\lambda^{n-1}</math> aparece solamente del producto <math>(\lambda -a_{11})(\lambda -a_{22})\cdots (\lambda -a_{nn})</math> y en este caso tiene como coeficiente el valor <math>-(a_{11}+a_{22}+\cdots +a_{nn})</math>. Puesto que <math>s_1=\lambda_1 +\lambda_2 +\cdots +\lambda _n</math>, siguiendo {{Eqnref|2.9d}} se tiene en función de la traza de A:
{{Eqn|<math>tr(A)=\lambda _1 +\lambda _2 +\cdots + \lambda _n</math>|2.10b}}
A partir de esta relación: sobre una matriz nilpotente sucede:
{{Importante|'''C-8''' Traza de una matriz nilpotente:
 
Si A es nilpotente <math>(A^k=O</math> para algún k), <math>tr(A)=0</math>.}}
{{res|Prueba}}
De la propiedad '''C-3''',
{{Eqn|<math>A^kx=\lambda ^kx</math>,}}
puesto que <math>A^k=O</math>, y como x no es vector nulo resulta <math>\lambda=0</math>. Quiere decir que tan sólo 0 es valor propio, y ya que <math>tr(A)=\lambda _1+\cdots +\lambda _n</math>, queda <math>tr(A)=0</math>.
=====Espectro de una Suma y Producto de Matrices=====
El conjunto de todos los vectores propios asociados al mismo valor propio es denominado el '''espacio propio''' del valor <math>\lambda</math>. El conjunto de todos los valores propios de una matriz A es denominado el '''espectro de A''' y se denota <math>\sigma (A)</math>.
 
Para dos matrices dadas A y B, se puede responder la inquietud:
{{Eqn|¿Si <math>\lambda \in \sigma (A)</math> y <math>\alpha \in \sigma (B)</math> entonces <math>\lambda + \alpha \in \sigma (A+B)</math>?,
 
¿Si <math>\lambda \in \sigma (A)</math> y <math>\mu \in \sigma (B)</math> entonces <math>\lambda \mu \in \sigma (AB)</math>?.}}
Al considerar dos matrices sencillas
{{Eqn|<math>A=\left[\begin{array}{lr}1 &0 \\0 &0\end{array}\right], \; \; B=\left[\begin{array}{lr}0 &0 \\0 &1\end{array}\right]</math>,}}
se tiene que <math>1\in \sigma (A)</math> y también <math>1\in \sigma (B)</math> pero, <math>2\notin \sigma (A+B)</math>. Para el producto, puesto que <math>AB=O</math> inmediatamente la respuesta a la segunda inquietud también es negativa.
 
Sin embargo, para una matriz muy particular, de la forma
{{Eqn|<math>T=\left[\begin{array}{lr}A &B \\O &C\end{array}\right]</math>,}}
donde A, B, C y la matriz nula O son matrices cuadradas del mismo orden, se cumple que
{{Eqn|<math>det(T-\lambda I)=det(A-\lambda I)det(C-\lambda I)</math>|2.11}}
ya que la presencia de ceros, al plantear todos los productos posibles en el desarrollo de <math>det(T-\lambda I)</math> sólo quedan los que dan lugar a <math>det(A-\lambda I)</math> simultáneamente con los que corresponden a <math>det(C-\lambda I)</math>. Con esto se cuncluye que <math>\sigma (T)=\sigma (A) \cup \sigma (C)</math>.
 
=====Otras consecuencias de la definición {{Eqnref|2.6}}=====
A la lista inicial de propiedades dada en la sección 1.1.3.2.1{{ref|1.1.3.2.1}}, basadas exclusivamente en la definición {{Eqnref|2.6}} sobre valor y vector propio, se agregan algunas otras teniendo en cuenta ahora el uso del determinante.
{{Importante|'''C-9''' Cuando el espectro contiene el cero:
 
<math>0\in \sigma (A)</math> '''si y solo si''' A es una matriz singular.}}
{{res|Prueba}}
<math>\Rightarrow</math>: Si 0 es valor propio de A, satisface <math>|A-0I|=0</math>, es decir <math>|A|=0</math>. Así, A es singular.
 
<math>\Leftarrow</math>: Si A es singular, <math>|A-0I|=|A|=0</math>, luego 0 es valor propio de A.
{{Importante|'''C-10''' Matriz asociada a un polinomio}}
Si <math>p(y)=a_0+a_1y+a_2y^2+\ldots +a_ky^k</math>, es cualquier polinomio, entonces se define <math>p(A)</math> como la matriz
{{Eqn|<math>p(A)=a_0I+a_1A+a_2A^2+\ldots +a_kA^k</math>.}}
Si <math>(\lambda ,x)</math> es un par propio para A, entonces <math>(p(\lambda ),x)</math> es un par propio para <math>p(A)</math>.
{{res|prueba}}
Con la propiedad '''C-3''', se tiene
{{Eqn|<math>p(A)x=a_0Ix+a_1Ax+a_2A^2x+\ldots +a_kA^kx</math>,
 
<math>p(A)x=a_0x+a_1\lambda x+a_2\lambda ^2x+\ldots +a_k\lambda ^kx</math>,
 
<math>p(A)x=(a_0+a_1\lambda +a_2\lambda ^2+\ldots +a_k\lambda ^k)x</math>,}}
confirmando que <math>p(A)x=p(\lambda )x</math>.
{{res|'''NOTA 6''' Si coinciden los espectros, no significa que coinciden los polinomios característicos. Por ejemplo para las matrices <math>A=\left[\begin{array}{lr}1 &0 \\0 &0\end{array}\right], \; \; B=\left[\begin{array}{lr}1 &0 \\0 &1\end{array}\right]</math>, los respectivos polinomios característicos son
 
{{Eqn|<math>p(\lambda )=\lambda ^2-\lambda, \; \; q(\lambda )=\lambda ^2-2\lambda +1</math>.}}}}
{{Importante|'''C-11''' Valores propios de una matriz triangular y de una matriz diagonal.}}
Dada la matriz triangular superior
{{Eqn|<math>T=\left[\begin{array}{cccc}t_{11} &t_{12} &\cdots &t_{1n} \\0 &t_{22} &\cdots &t_{2n} \\ \vdots &\vdots &\ddots &\vdots \\0 &0 &\cdots &t_{nn}\end{array}\right]</math>,}}
la matriz <math>T-\lambda I</math>, es nuevamente una matriz triangular superior con diagonal principal
{{Eqn|<math>t_{11}-\lambda ,t_{22}-\lambda ,\cdots ,t_{nn}-\lambda</math>,}}
de esta manera los valores propios de la matriz triangular superior T, son justamente los elementos de su diagonal principal.
 
Para el caso de la matriz diagonal, siendo una matriz triangular superior, entonces sus valores propios son los elementos de la diagonal principal.
{{Importante|'''C-12''' Valores propios de una matriz y su transpuesta.
 
Las matrices A y <math>A^t</math> tienen los mismos valores propios.}}
{{res|Prueba}}
Como una matriz y su transpuesta tienen el mismo determinante
{{Eqn|<math>|A-\lambda I|=|(A-\lambda I)^t|=|A^t -\lambda I^t|=|A^t-\lambda I|</math>,}}
luego si <math>\lambda \in \sigma(A)</math> entonces <math>\lambda \in \sigma(A^t)</math>, y recíprocamente.
{{Importante|'''C-13''' Polinomio característico de un producto.}}
Considere dos n-matrices A y B, siendo la primera de ellas una matriz regular. Entonces AB y BA tienen el mismo polinomio característico.
{{res|Prueba}}
Reescribiendo el determinante <math>det(\lambda I-AB)</math>, junto con la propiedad '''D-9'''
{{Eqn|<math>det(\lambda I-AB)=det(\lambda AA^{-1}-ABAA^{-1})=det(A(\lambda I-BA)A^{-1})=det(A)det(\lambda I-BA)det(A^{-1})</math>,}}
quedando
{{Eqn|<math>det(\lambda I-AB)=det(\lambda I-BA)</math>,}}
de esa manera se obtiene el mismo polinomio característico.
=====Multiplicidad geométrica y algebraica=====
Sea <math>\lambda</math> un valor propio de A. Entonces, la multiplicidad algebraica de <math>\lambda</math> es el número de veces que se repite como raíz del polinómio característico. Cuando la multiplicidad algebraica es 1, <math>\lambda</math> es llamado valor propio simple.
 
La multiplicidad geométrica de <math>\lambda</math> es la dimensión del espacio nulo <math>N(A-\lambda I)={x\in C^n|(A-\lambda I)x=O}</math>. En otras palabras, es el número máximo de vectores propios asociados con <math>\lambda</math>, linealmente independientes.
 
Las dos multiplicaciones pueden ser distintas. Por ejemplo, al considerar la matriz
{{Eqn|<math>A=\left[\begin{array}{lr}0 &1 \\0 &0\end{array}\right]</math>,}}
su polinomio característico es <math>p(\lambda )=\lambda ^2</math>, con lo cual el valor propio <math>\lambda =0</math> se repite dos veces, así su multiplicidad algebraica es 2. En cuanto a su multiplicidad geométrica, al buscar una base para el espacio nulo <math>N(A-0I)=N(A)</math>, al resolver el sistema
{{Eqn|<math>A\left[\begin{array}{c}x \\y\end{array}\right]=\left[\begin{array}{c}0 \\0\end{array}\right]</math>,}}
resulta la ecuación <math>y=0</math>, y de esta manera las soluciones son de la forma
{{Eqn|<math>\left[\begin{array}{c}x \\0\end{array}\right], \; x\in R</math>}}
mostrando que sólo hay un vector linealmente independiente, Es decir la multiplicidad geométrica es 1.
 
Para una matriz diagonal <math>D=diag(\lambda _1 ,\lambda _2 ,\ldots ,\lambda _n)</math>, ya se conoce que los valores propios coinciden con los de su diagonal. Ahora, para el espacio propio asociado a uno de ellos. por ejemplo <math>\lambda _k</math>, la k-ésima fila de la matriz <math>D-\lambda _kI</math> es nula. En consecuencia el sistema
{{Eqn|<math>(D-\lambda _kI)X=O,\; X\in R^n</math>}}
tiene como solución vectores con componentes 0 salvo la k-ésima. Así la base contiene sólo un vector linealmente independiente, y con ello la multiplicidad geométrica es 1. Entonces, el espacio propio asociado a <math>\lambda _k</math> es
{{Eqn|{<math>X \in R^n |</math> i-ésima componente es 1 y si <math>i=k</math>, 0 en otro caso} }}
====Matrices Simétricas====
En la sección 1.4 se planteó que una matriz ortogonal preserva longitudes y productos internos como se muestra en las relaciones {{Eqnref|1.11a}}, {{Eqnref|1.11b}}. A partir de ellas se obtienen conclusiones sobre valores y vectores propios.
=====Los valores propios de una matriz simétrica son reales=====
Sea A una n-matriz simétrica y <math>(\lambda ,x)</math> un par propio; esto es
{{Eqn|<math>Ax=\lambda x</math>.}}
Para establecer que el valor propio <math>\lambda</math> es real, se sigue el desarrollo propuesto en ----. Entonces, se considera el valor propio <math>\lambda</math> en la forma compleja
{{Eqn|<math>\lambda =a+bi</math>, con <math>a,b \in R</math>,}}
con el propósito de concluir que <math>b=0</math>. Para ello se define la matriz
{{Eqn|<math>B=(\lambda I-A)(\bar{\lambda} I-A)</math>}}
la cual es una matriz real, hecho que se observa al realizar el producto
{{Eqn|<math>B=|\lambda |^2I-(\lambda +\bar{\lambda})A+A^2</math>}}
ya que <math>\lambda +\bar{\lambda}</math> es el real 2a, con lo que se suman matrices reales para dar lugar a B. Además B es matriz singular puesto que <math>\lambda I-A</math> lo es; de esta manera existe un vector x no nulo, tal que <math>Bx=O \in R^n</math>. Ahora con <math>|\lambda |^2=a^2+b^2</math>, queda
{{Eqn|<math>x^tBx=x^t(aI-A)^2x+b^2x^tx</math>,}}
y siendo A simétrica también <math>(aI-A)^t=(aI-A)</math>, con ello
{{Eqn|<math>x^tBx=x^t(aI-A)^t(aI-A)x+b^2\| x\|^2</math>,
 
<math>x^tBx=\left[(aI-A)x\right] ^t(aI-A)x+b^2\| x\| ^2</math>,
 
<math>x^tBx=\| (aI-A)x\| ^2+b^2\| x\| ^2</math>.}}
y puesto que <math>x^tBx=0</math>, se concluye que <math>b=0</math>; es decir, cada valor propio de la matriz simétria A es real.
 
=====Los vectores propios de una matriz simétrica asociada a distintos valores propios son ortogonales=====
Sean <math>\lambda, \mu</math> dos valores propios distintos de la matriz simétrica A, y sean x,y sus respectivos valores vectores propios. Entonces
{{Eqn|<math>Ax=\lambda x, \; \; Ay=\mu y</math>,}}
de donde
{{Eqn|<math>y^tAx=\lambda y^tx, \; \; x^tAy=\mu x^ty</math>,}}
y al tomar la transpuesta de la primera, siendo A simétrica, da <math>x^tAy=\lambda x^ty</math> que al relacionarla con la segunda proporciona
{{Eqn|<math>\lambda x^ty=\mu x^ty,</math>}}
y puesto que <math>\lambda \neq \mu</math> implica que <math>x^ty=0</math>, confirmando que los vectores propios son ortogonales.
=====Los valores propios de una matriz orgonal tienen valor absuoluto 1=====
Sea Q una n-matriz ortogonal y <math>(\lambda ,x)</math> un par propio. Al tomar su norma en {{Eqnref|2.6}}
{{Eqn|<math>\| Qx\| =|\lambda |\| x\|</math>,}}
y por (1.11a) <math>\| Qx\| =\| x\|</math>, con lo cual
{{Eqn|<math>\| x\| =|\lambda|\| x\|</math>,}}
es decir <math>|\lambda | =1</math>. Así, el especto <math>\sigma (Q)</math> está contenido en la circunferencia de centro el origen y radio 1.
====Matrices Hermitianas====
En la sección 1.4.2 se mencionó que una matriz A es hermitiana si <math>A=A^H</math> <math>(A^H=\bar{A}^t)</math>, es decir, cuando <math>a_{ij}=\bar{a_{ji}}</math>. También, A es una matriz anti hermitiana cuando <math>A=-A^H</math>, es decir, cuando <math>a_{ij}=-\bar{a_{ji}}</math>.
 
En la verificación de la naturaleza de los valores propios de una matriz hermitiana, se utilizan dos hechos sencillos:
{{Eqn|<math>(AB)^H=B^HA^H, \; \; x^Hy\in C</math>.}}
Para el primero, <math>(AB)^H=(\bar{AB})^t=(\bar{A}\bar{B})^t=\bar{B}^t\bar{A}^t=B^HA^H</math>. Con esto,
{{Importante|'''C-14''' Si <math>A=A^H</math>, entonces para todo vector complejo x, el número <math>x^HAx</math> es real.}}
Para una prueba, a partir del complejo <math>x^HAx</math> al efectuar el desarrollo de <math>(x^HAx)^H</math>, resulta
{{Eqn|<math>(x^HAx)^H=x^HA^H(x^H)^H</math>,
 
<math>(x^HAx)^H=x^HAx</math>,}}
con lo cual éste debe ser un real.
===Ecuación de Segundo Grado===
En esta sección se propone revisar en el plano, la rotación que sucede sobre una cónica, a través de los vectores propios asociados a la matriz de los coeficientes.