Página principal

Regla de cramer


Descargar 87.74 Kb.
Fecha de conversión18.07.2016
Tamaño87.74 Kb.



TEMA 16
DICUSIÓN Y RESOLUCIÓN DE SISTEMAS DE ECUACIONES LINEALES.

TEOREMA DE ROUCHÉ.

REGLA DE CRAMER.

MÉTODO DE GAUSS-JORDAN.

ÍNDICE
1. INTRODUCCIÓN 2

2. SISTEMAS DE ECUACIONES LINEALES. GENERALIDADES 2

2.1. DEFINICIONES 2

2.2. NOTACIONES ABREVIADAS 3

2.3. SISTEMAS DE ECUACIONES LINEALES

HOMOGÉNEOS Y NO HOMOGÉNEOS 4

3. EQUIVALENCIA ENTRE SISTEMAS 5

3.1. FORMACIÓN DE SISTEMAS EQUIVALENTES 5



4. RANGO O CARACTERÍSTICA DE UNA MATRIZ 6

4.1. DEFINICIONES. 6

4.2. TEOREMA 8

5. SISTEMAS LINEALES CUADRADOS CON SOLUCIÓN ÚNICA 8

5.1. SISTEMA DE CRAMER 8

5.2. TEOREMAS. REGLA DE CRAMER. 8

6. DISCUSIÓN DEL SISTEMA GENERAL.

TEOREMA DE ROUCHÉ-FROBENIUS. 10

6.1. TEOREMA DE ROUCHÉ-FROBENIUS 10

6.2. DISCUSIÓN Y RESOLUCIÓN DEL SISTEMA GENERAL 11

7. MÉTODOS DE GAUSS Y DE GAUSS-JORDAN. 13

7.1. METODO DE REDUCCION DE GAUSS 13

7.2. MÉTODO DE ELIMINACIÓN DE GAUSS-JORDAN 15

8. APLICACIONES A LA GEOMETRÍA 15

9. BIBLIOGRAFÍA 19


  1. INTRODUCCION

Las ecuaciones nos permiten plantear y resolver sistemáticamente numerosos problemas que, por procedimientos meramente aritméticos, resultarían muy laboriosos.

Una vez traducido el problema a un sistema de ecuaciones, la resolución de éste se reduce a la resolución del sistema de ecuaciones.

Existen diversos métodos que nos permiten resolver de manera sistemática un sistema de ecuaciones. La aplicación de uno u otro depende básicamente de la complejidad del sistema en cuanto al número de ecuaciones y de incógnitas. Así, para resolver sistemas de dos o tres ecuaciones lineales con dos o tres incógnitas respectivamente, se utilizarán los métodos clásicos: sustitución, igualación y reducción. Sin embargo, estos métodos son poco adecuados a medida que aumenta el número de ecuaciones y de incógnitas.

Las técnicas de resolución de sistemas de ecuaciones lineales fueron

descubiertas en los siglos XVIII y XIX, hasta esta época solo se consideraban resoluble los sistemas con igual numero de ecuaciones que de incognitas, y si alguna ecuación no linealmente independiente se decía que el problema estaba mal planteado.

El avance en la resolución de ecuaciones lineales vino con el uso de determinantes (Cramer) y más tarde el de Matriz(Hamilton)




  1. SISTEMAS DE ECUACIONES LINEALES. GENERALIDADES.

2.1. DEFINICIONES.

Una ecuación lineal (o ecuación algebraica de primer grado) con n incógnitas es en general una igualdad del tipo

donde son elementos de un cuerpo conmutativo K( en general supondremos K=R).

Los elementos se denominan coeficientes y el b término independiente. Las letras son las incógnitas.

Se denomina sistema de m ecuaciones con n incógnitas y coeficientes en K a un conjunto de m ecuaciones lineales con las mismas n incógnitas y coeficientes en el citado cuerpo K:



[ 1 ]

donde denota el coeficiente de la incógnita el la i-ésima ecuación, , .

Una solución (o raíz) del sistema de ecuaciones lineales es cualquier n-upla tal que verifique todas y cada una de las ecuaciones, es decir, tal que:

Atendiendo al conjunto de sus soluciones un sistema lineal puedes ser:



  • Incompatible: si no tiene solución.

  • Compatible: si tiene solución. En este caso puede ocurrir que o bien el sistema tenga una única solución (determinado) o bien que tenga infinitas soluciones (indeterminado).

2.2. NOTACIONES ABREVIADAS.



  1. Si en el sistema anterior [ 1 ] consideramos los vectores-columna de coeficientes y el vector-columna de términos independientes:

j = 1,2,...,n

dicho sistema se expresa en forma vectorial:






  1. Si formamos una matriz mn tomando las n columnas tendremos la matriz de coeficientes del sistema:

Tomando la matriz columna de los términos independientes y otra matriz columna de incógnitas el sistema puede expresarse en forma matricial: .

A será denominada matriz de coeficientes y la matriz que se obtiene añadiendo el vector b, es decir, es la matriz ampliada del sistema de ecuaciones.
Ejemplo: Sea el sistema se tres ecuaciones con dos incógnitas:

Su representación matricial es: Ax = b donde




2.3. SISTEMAS DE ECUACIONES LINEALES HOMOGÉNEOS Y

NO HOMOGÉNEOS.

Sea un sistema de ecuaciones lineales Ax = b ( según notación matricial abreviada), se dice que dicho sistema es homogéneo si se verifica . En caso contrario () se dice que el sistema es no homogéneo.

Propiedades:


  1. Todo sistema lineal homogéneo es compatible pues admite al menos la solución trivial (0,0,...,0).

  2. Si es una solución para un sistema homogéneo, entonces también lo es para todo k.

  3. Si y son soluciones de un sistema homogéneo, también lo es .




  1. EQUIVALENCIAS ENTRE SISTEMAS.

Dos sistemas de ecuaciones lineales con el mismo número de incógnitas se dice que son equivalentes si tienes las mismas soluciones. De esta forma sean los sistemas de ecuaciones lineales

[ 1 ] [ 2 ]

se dice que los sistemas [ 1 ] y [ 2 ] son equivalentes si se verifica que es solución de [ 1 ] si y sólo si es solución de [ 2 ].

Evidentemente, los sistemas equivalentes han de tener el mismo número de incógnitas, aunque no necesariamente el mismo número de ecuaciones ( puede ser ).
3.1. FORMACIÓN DE SISTEMAS EQUIVALENTES.

Sea un sistema de ecuaciones lineales, podrá ser transformado en otro equivalente a él. El siguiente teorema muestra varios métodos de construcción de sistemas equivalentes:



Teorema:

Dado un sistema de ecuaciones lineales se tiene:



  1. Si multiplicamos una ecuación por un número real distinto de cero, se obtiene otro sistema equivalente al dado.

  2. Si sustituimos una ecuación por una combinación lineal formada por dicha ecuación sin anular y un número arbitrario de las restantes ecuaciones del sistema, entonces obtenemos otro sistema equivalente al dado.

  3. Si una ecuación es combinación lineal de otras ecuaciones del sistema, entonces el sistema que obtenemos al suprimir (o añadir) dicha ecuación es equivalente al dado.


Ejemplo: Los siguientes sistemas son equivalentes:

Como consecuencia del anterior teorema se obtienen las siguientes conclusiones: Teorema fundamental de la equivalencia.

Si se sustituye la i-ésima ecuación de un sistema por la que resulta al sumarla miembro a miembro , después de multiplicarla por un número arbitrario , con otras del mismo sistema que también fueron multiplicadas previamente por números cualesquiera, el nuevo sistema es equivalente al primero.

Corolario

Para resolver un sistema de ecuaciones lineales basta resolver un sistema equivalente en el que ninguna ecuación sea combinación lineal de las restantes.


4. RANGO O CARACTERÍSTICA DE UNA MATRIZ.
4.1. DEFINICIONES.

Sea A una matriz de orden , cualquier matriz que se obtenga de ella suprimiendo ciertas filas y ciertas columnas se llama submatriz de la matriz dada.

Denominamos menor de orden r de la matriz A al determinante de toda submatriz cuadrada que puede extraerse de A tomando los elementos situados en r filas y r columnas.

Decimos que el rango o característica de la matriz A es r y se denota rg(A)=r, si se cumplen las dos condiciones siguientes:



  1. De A puede extraerse un menor de orden r no nulo.

  2. Son nulos todos los menores de A de orden superior a r.

- Es suficiente con que sean nulos todos los menores de orden r+1 para que los sea cualquier menor de orden superior a r. En efecto, si puede extraerse un menor de orden r+2, al desarrollar éste por una línea quedaría expresado a partir de los adjuntos de esa línea que son salvo por el signo menores de orden r+1. Si todos ellos son nulos, lo será en consecuencia el de orden r+2.

- Si rg(A) = r, un menor de orden r no nulo se denomina menor principal.


Ejemplo: Calcular el rango de la matriz siguiente:

Veamos que todos los menores de orden 3 son cero:





, etc.

No calculamos los menores de orden 4 ( en este caso hay solo uno, |A|) pues ya sabemos que dan cero al ser nulos los de orden 3.

Sin embargo, , es un menor de orden 2 distinto de cero, luego es un menor principal de orden 2.

Luego por existir al menos un menor de orden 2 distinto de cero y ser cero todos los menores de orden 3 se dice que el rango de la matriz A es 2.



Consecuencias:

1. Si en una matriz A se intercambian entre sí dos filas (o columnas), se obtiene otra matriz B de igual rango que la primera.

2. Si una fila (o columna) de la matriz A está formada por ceros, el rango de A es igual al de la matriz B, que se obtiene a partir de A suprimiendo esa fila (o columna).

3. El rango de la matriz nula es 0, y es la única cuyo rango es 0.

4. Para toda matriz de orden se tiene: .

5. Sea la matriz A y su traspuesta A’, se tiene: rg(A) = rg(A’).

6. Para toda matriz de orden n, se tiene que det(A).
4.2. TEOREMA.

“El rango de una matriz A coincide con el número de sus filas o columnas linealmente independientes”.

Es decir, si rg(A)=r vamos a probar que de A pueden extraerse r columnas ( o filas) linealmente independientes, de modo que las n-r columnas ( o las m-r filas) restantes son combinaciones lineales de aquellas.
5. SISTEMAS LINEALES CUADRADOS CON SOLUCIÓN ÚNICA.
5.1. SISTEMA DE CRAMER.

Un sistema lineal con el mismo número de ecuaciones que de incógnitas (o sea, un sistema lineal ) es un sistema lineal cuadrado. La matriz de coeficientes, A, es, en este caso, una matriz cuadrada. Si dicha matriz es regular (| A|) el sistema se denomina sistema de Cramer.


5.2. TEOREMAS. REGLA DE CRAMER.

Teorema:

“ Todo sistema de Cramer es compatible determinado.”



Demostración:

Como la matriz A es regular, entonces es inversible. Siendo el sistema en forma matricial , entonces multiplicando por la izquierda por obtendríamos la solución única del sistema .




Teorema:

“ Si un sistema lineal cuadrado tiene solución única, entonces es un sistema de Cramer.”



Demostración:

Sea la única solución del sistema que puesto en forma vectorial es , entonces .

Si fuese tendríamos:

=(+(.

Luego sería otra solución del sistema. Pero como es única ha de ser es decir, . Hemos probado que los n vectores columna de A son linealmente independientes y por tanto |A|.

Regla de Cramer.

La solución única de un sistema de Cramer viene dada por:



j = 1,2,...,n

siendo el determinante que resulta al sustituir en |A| la columna j-ésima por la columna de términos independientes, es decir, =.



Demostración:

Supongamos el sistema expresado en forma vectorial donde los son los vectores columna de la matriz de coeficientes A.

= det( det(

=det()+...+(+...+det()=det(=|A|.

Nos hemos basado en las propiedades de los determinantes, en concreto en la linealidad respecto a la j-ésima columna y en que un determinante con dos columnas iguales es nulo.

Como |A|, despejando obtendremos la solución única del sistema



== j = 1,2,...,n.
La utilización práctica de la regla de Cramer puede resultar algo laboriosa sobre todo para valores grandes de n, pues se tienen que calcular n+1 determinantes de orden n. Igualmente, puede resultar algo inadecuada para sistemas en los cuales el |A| tiene un valor próximo a cero.
6. DISCUSIÓN DE UN SISTEMA LINEAL GENERAL. TEOREMA DE ROUCHE-FROBENIUS.
6.1. TEOREMA DE ROUCHE-FROBENIUS.

Consideremos el sistema lineal más general posible de m ecuaciones con n incógnitas:



S

y consideremos la matriz del sistema A, y la matriz ampliada B






Teorema de Rouché-Frobenius.

“ La condición necesaria y suficiente para que un sistema lineal general sea compatible es que la matriz de coeficientes y la matriz ampliada tengan igual rango.”

S compatible rg(A)=rg(B)

Demostración.



) Si el sistema es compatible existe al menos una n-upla solución que verifica con lo cual la última columna de la matriz ampliada B sería combinación lineal de las anteriores columnas, por tanto podríamos suprimir en B la última columna y el rango no varía , quedando así rg(A)=rg(B).

) Supongamos que rg(A)=rg(B)=r. Por definición de rango, en la matriz habrá un menor principal y las r columnas de A de las cuales se ha extraído serán linealmente independientes (podemos suponer que sean las r primeras, reordenando las incógnitas del sistema si fuese preciso). Como el rango de B es también r, la matriz ampliada tendrá a lo sumo r columnas linealmente independientes, que pueden ser las ; las restantes columnas de B, en especial la última , se pueden obtener como combinación lineal de aquellas r. Por tanto existen escalares tales que y de aquí obviamente. Resulta que la n-upla sería solución del sistema.
6.2. DISCUSIÓN Y RESOLUCIÓN DEL SISTEMA GENERAL.

Si rg(A)rg(B) el sistema no tiene solución (incompatible).

Si rg(A) = rg(B) = r, en la matriz B también hay a lo sumo r filas linealmente independientes que corresponden a las r ecuaciones principales del sistema ( supongamos que sean las r primeras tras reordenarlas si fuese necesario). Las n-r ecuaciones restantes son superfluas al ser combinaciones lineales de aquellas r primeras. El sistema reducido a sus ecuaciones principales quedaría simplificado al sistema equivalente:

Puede ocurrir:



A) r = n.

En este caso el sistema sería cuadrado y la matriz A tendría como determinante el menor principal , por lo que sería un sistema de Cramer que como sabemos es compatible determinado.



B) r < n.

Nos quedan menos ecuaciones que incógnitas. Eligiendo como incógnitas principales las correspondientes a las r columnas de las que se ha extraído (las r primeras) las demás n-r incógnitas no principales las podemos pasar al segundo miembro de las ecuaciones. Tendremos:



En este caso el determinante de la matriz de coeficientes es , luego proporciona una solución del sistema para cada valor arbitrario de las incógnitas no principales, luego la solución general viene dada por unas ecuaciones paramétricas con n-r parámetros, luego hay infinitas soluciones. Se dice que el sistema es indeterminado con n-r grados de libertad.




Resumen:

rg(A)rg(B) S incompatible.

rg(A) = rg(B) = r : r = n S compatible determinado.

r < n S compatible indeterminado.



7. MÉTODOS DE GAUSS Y DE GAUSS-JORDAN.
7.1. MÉTODO DE REDUCCIÓN DE GAUSS.

El método de reducción de Gauss consiste en transformar el sistema de ecuaciones dado en otro equivalente de forma que sean nulos todos los coeficientes que estén por debajo de la diagonal principal en la matriz de coeficientes. Así se obtiene un sistema triangular o escalonado.



  1. Caso sistema lineal cuadrado con solución única.

El método de reducción de Gauss (o de triangulación) es un método importante para resolver un sistema lineal que tenga solución única.

El sistema está completamente determinado por la matriz ampliada

El método consiste en aplicar transformaciones elementales a las filas:


  • Intercambio de filas.

  • Cambio de escala de una fila: multiplicar cualquier vector fila de la matriz por una constante no nula.

  • Pivotación: reemplazar cualquier vector fila de la matriz por la suma de sí mismo con un múltiplo de un vector fila diferente.

En cada paso el sistema obtenido es equivalente al anterior.

Sean dos ecuaciones lineales

Si fuese (si no haríamos intercambio de filas hasta encontrar un pivote no nulo), podemos tomar dicho elemento como pivote para conseguir hacer un cero en la otra ecuación. Así, si reemplazamos por nos quedaría donde ( j=2,...,n) .

Seguiríamos haciendo ceros en todas las filas que estén por debajo del pivote en esa misma columna. De esta manera mediante operaciones elementales con filas tratamos de llegar a reducir A a la forma triangular:



El sistema reducido (U |) se convierte en U siendo U matriz triangular superior (debajo de la diagonal principal hay ceros) equivalente a la matriz A (se obtuvo de ésta por transformaciones elementales sobre filas).

En caso de solución única los elementos de la diagonal principal son todos no nulos. Entonces, se obtiene la solución única del sistema mediante sustitución regresiva.


  1. Caso sistema lineal general.

Dado un sistema lineal general en este caso la matriz de partida es

Se reduce a la forma escalonada por filas:





  • Todas las filas con sólo ceros aparecen debajo de las filas con elementos distintos de cero.

  • El primer elemento de la primera fila es distinto de cero. En las demás, un primer elemento distinto de cero de cualquier fila aparece en una columna a la derecha del primer elemento distinto de cero de la fila anterior.

Al llegar a la forma escalonada puede ocurrir:

  1. Aparece una fila en la matriz ampliada con todos los elementos iguales a cero en la parte izquierda y el elemento de la derecha distinto de cero. Lleva a un sistema equivalente al de partida con una ecuación del tipo , con lo cual no hay solución (Sistema Incompatible).

  2. Una vez eliminadas las filas de ceros por corresponder a ecuaciones superfluas , nos queda el mismo número de ecuaciones que de incógnitas. Estaríamos en el apartado A), forma triangular superior, que resolvemos por sustitución regresiva hasta obtener solución única (Sistema Compatible Determinado).

  3. Si se llega a un sistema escalonado pero con menos ecuaciones que incógnitas, hay que pasar al segundo miembro tantas incógnitas como sean necesarias (tomándolas como parámetros) para que el sistema pueda ser resuelto por sustitución regresiva. El número de parámetros que aparecen en la solución general son los grados de libertad. El sistema admite infinitas soluciones (Sistema Compatible Determinado).

7.2. MÉTODO DE ELIMINACIÓN DE GAUSS-JORDAN.

El método de Gauss-Jordan es un avance del método de Gauss, que tiene como objetivo evitar la sustitución regresiva.

Se usan las transformaciones elementales para reducir la parte izquierda de la matriz ampliada a la forma diagonal con todos los pivotes iguales a 1, es decir, a la matriz identidad.

El sistema reducido equivalente queda de la forma (en caso de solución única esto es siempre posible) de donde la solución es directamente .

La técnica consiste en ejecutar el método de Gauss pero haciendo cada pivote 1 mediante una operación de cambio de escala y usar el pivote para crear ceros arriba y debajo de él en esa columna.


8. APLICACIONES A LA GEOMETRÍA
Una aplicación importante de la discusión y resolución de los sistemas de ecuaciones lineales es el estudio de las posiciones respectivas de rectas y planos en . Veamos los diferentes casos:

A.1. Posiciones respectivas de dos planos en .

Consideremos los planos y ’ de ecuaciones:



: Ax + By + Cz = D

’: A’x + B’y + C’z = D’

Las ecuaciones anteriores constituyen un sistema de dos ecuaciones con tres incógnitas. Formamos las matrices asociadas del sistema:

M = y N =

Las posibles combinaciones de rangos son:

a) rg(M) = rg(N) = 1 < 3 = nº incógnitas sistema compatible indeterminado. Por ser rg(M) = 1, los planos son paralelos, y al tener rg(N) = 1, las ecuaciones son proporcionales; por tanto, los planos coinciden, como corresponde a un sistema compatible indeterminado.

b) rg(M) = 1, rg(N) = 2 sistema incompatible.

Los planos son paralelos pero no tienen ningún punto en común (incompatibilidad): son paralelos estrictamente.

c) rg(M) = rg(N) = 2 < 3 = nº de incógnitas sistema compatible indeterminado.

Los rangos son iguales por lo que existe solución, los planos se cortan en una recta (la indeterminación del sistema obedece precisamente a este hecho).

Resumiendo:

CUADRO 1

Posiciones de dos planos

rg(M) = 1




rg(N) = 1:

Sistema compatible indeterminado

Planos coincidentes

rg(N) = 2:

Sistema incompatible

Planos paralelos (estrictamente)

rg(M) = 2

rg(N) = 2:

Sistema compatible indeterminado

Planos que se cortan (en una recta)


A.2. Posiciones respectivas de recta-plano en .

En este caso tenemos un sistema de tres ecuaciones (dos de la recta, tomándola como intersección de dos planos, y una del plano) con tres incógnitas:



con la restricción evidente de que rg () = 2, pues hemos visto en el caso A.1. que la intersección de dos planos es una recta cuando el rango de las matrices asociadas es dos.

Considerando ahora las matrices:

M = y N =

Haciendo un estudio análogo al del apartado anterior tenemos las siguientes posibilidades:

CUADRO 2


Posiciones recta-plano

rg(M) = 2




rg(N) = 2:

Sistema compatible indeterminado

La recta está contenida en el plano

rg(N) = 3:

Sistema incompatible

Recta y plano son paralelos(estrictamente)

rg(M) = 3

rg(N) = 3:

Sistema compatible determinado

La recta y el plano se cortan (en un punto)


A.3. Posiciones respectivas de dos rectas en .

Ahora tenemos un sistema de cuatro ecuaciones y tres incógnitas (viendo cada recta como intersección de dos planos):



con las restricciones:

rg()=rg()=2.

Las matrices a considerar son:

M = y N =
CUADRO 3

Posiciones de dos rectas

rg(M) = 2




rg(N) = 2:

Sistema compatible indeterminado

Rectas coincidentes

rg(N) = 3:

Sistema incompatible

Rectas paralelas estrictamente

rg(M) = 3

rg(N) = 3:

Sistema compatible determinado

Rectas que se cortan (en un punto)

rg(N) = 4:

Sistema incompatible

Rectas que se cruzan


9. BIBLIOGRAFÍA


  • Acta 2000. Editorial Rialp.

  • Ballesteros y otros: ”Matemáticas,2-COU”. Ed. Bruño.

  • Burgos de, J.: ”Curso de Álgebra y Geometría”. Ed. Alambra.

  • Etayo,J. – Colera, J.:. “Matemáticas. (Manuales de Orientación Universitaria)”.Ed. Anaya.

  • García García – Lopez Pellicer: ”Álgebra Lineal y Geometría”. Ed. Marfil.

  • Guzmán de, M. – Colera, J.: “Matemáticas I –COU”. Ed.Anaya.

  • Heinhold, J.: ”Álgebra Lineal y Geometría Analítica”. Ed. Reverté.

  • Gómez Gómez, J. y otros.: “Temario para la preparación de oposiciones. Matemáticas, volumen I”. Ed. Mad.





La base de datos está protegida por derechos de autor ©www.espanito.com 2016
enviar mensaje