¿Cómo se relacionan los determinantes de una matriz directa e inversa? Método matricial para resolver slough: un ejemplo de una solución que utiliza una matriz inversa

Álgebra matricial - Matriz inversa

matriz inversa

matriz inversa es una matriz que, cuando se multiplica tanto a la derecha como a la izquierda por una matriz dada, da la matriz identidad.
Denotemos la matriz inversa de la matriz. A a través de , entonces según la definición obtenemos:

Dónde mi- matriz de identidad.
Matriz cuadrada llamado no especial (no degenerado) si su determinante no es cero. De lo contrario se llama especial (degenerar) o singular.

El teorema se cumple: Toda matriz no singular tiene una matriz inversa.

La operación de encontrar la matriz inversa se llama apelar matrices. Consideremos el algoritmo de inversión de matrices. Sea una matriz no singular norte-ésimo orden:

donde Δ = det A ≠ 0.

Suma algebraica de un elemento matrices norte-ésimo orden A se llama determinante de una matriz tomada con cierto signo ( norte–1)ésimo orden obtenido al eliminar i-ésima línea y jª columna de la matriz A:

Creemos el llamado adjunto matriz:

¿Dónde están los complementos algebraicos de los elementos correspondientes de la matriz? A.
Tenga en cuenta que las sumas algebraicas de elementos de fila de matriz A se colocan en las columnas correspondientes de la matriz à , es decir, la matriz se transpone al mismo tiempo.
Dividiendo todos los elementos de la matriz. Ã por Δ – el valor del determinante de la matriz A, obtenemos como resultado la matriz inversa:

Observemos una serie de propiedades especiales de la matriz inversa:
1) para una matriz dada A su matriz inversa es el único;
2) si hay una matriz inversa, entonces marcha atrás a la derecha Y marcha atrás izquierda las matrices coinciden con él;
3) una matriz cuadrada singular (singular) no tiene matriz inversa.

Propiedades básicas de una matriz inversa:
1) el determinante de la matriz inversa y el determinante de la matriz original son recíprocos;
2) la matriz inversa del producto de matrices cuadradas es igual al producto de la matriz inversa de factores, tomado en orden inverso:

3) la matriz inversa transpuesta es igual a la matriz inversa de la matriz transpuesta dada:

EJEMPLO Calcula la inversa de la matriz dada.

1. Encuentra el determinante de la matriz original. Si , entonces la matriz es singular y no existe una matriz inversa. Si, entonces existe una matriz inversa y no degenerada.

2. Encuentre la matriz a la que se transpone.

3. Encuentra los complementos algebraicos de los elementos y compone la matriz adjunta a partir de ellos.

4. Formamos la matriz inversa usando la fórmula.

5. Comprobamos la exactitud del cálculo de la matriz inversa, en base a su definición:.

Ejemplo. Encuentra la matriz inversa de esto: .

Solución.

1) Determinante de la matriz

.

2) Encuentre los complementos algebraicos de los elementos de la matriz y componga la matriz adjunta a partir de ellos:

3) Calcular la matriz inversa:

,

4) Verificar:

№4Rango de matriz. Independencia lineal de las filas de la matriz.

Para resolver y estudiar una serie de problemas matemáticos y aplicados, el concepto de rango matricial es importante.

En una matriz de tamaño, al eliminar filas y columnas, puede aislar submatrices cuadradas de orden ésimo, donde. Los determinantes de tales submatrices se llaman menores del orden matricial .

Por ejemplo, a partir de matrices se pueden obtener submatrices de 1º, 2º y 3º orden.

Definición. El rango de una matriz es el orden más alto de los menores distintos de cero de esa matriz. Designación: o.

De la definición se sigue:

1) El rango de la matriz no excede la menor de sus dimensiones, es decir

2) si y sólo si todos los elementos de la matriz son iguales a cero, es decir

3) Para una matriz cuadrada de enésimo orden si y solo si la matriz no es singular.

Dado que enumerar directamente todos los posibles menores de la matriz, comenzando con el tamaño más grande, es difícil (consume mucho tiempo), utilizan transformaciones matriciales elementales que preservan el rango de la matriz.

Transformaciones matriciales elementales:

1) Descartando la fila (columna) cero.

2) Multiplicar todos los elementos de una fila (columna) por un número.

3) Cambiar el orden de las filas (columnas) de la matriz.

4) Sumar a cada elemento de una fila (columna) los elementos correspondientes de otra fila (columna), multiplicados por cualquier número.

5) Transposición matricial.

Definición. Una matriz obtenida a partir de una matriz mediante transformaciones elementales se llama equivalente y se denota A EN.

Teorema. El rango de la matriz no cambia durante las transformaciones de matrices elementales.

Utilizando transformaciones elementales, es posible reducir la matriz a la llamada forma escalonada, cuando no es difícil calcular su rango.

Una matriz se llama escalonada si tiene la forma:

Obviamente, el rango de una matriz escalonada es igual al número de filas distintas de cero, ya que hay un orden menor que no es igual a cero:

.

Ejemplo. Determinar el rango de una matriz mediante transformaciones elementales.

El rango de la matriz es igual al número de filas distintas de cero, es decir .

№5Independencia lineal de las filas de la matriz.

Dada una matriz de tamaño

Denotemos las filas de la matriz de la siguiente manera:

Las dos líneas se llaman igual , si sus elementos correspondientes son iguales. .

Introduzcamos las operaciones de multiplicar una cadena por un número y sumar cadenas como operaciones realizadas elemento por elemento:

Definición. Una fila se llama combinación lineal de filas de una matriz si es igual a la suma de los productos de estas filas por números reales arbitrarios (cualquier número):

Definición. Las filas de la matriz se llaman linealmente dependiente , si hay números que no son simultáneamente iguales a cero, de modo que una combinación lineal de filas de la matriz sea igual a la fila cero:

Dónde . (1.1)

La dependencia lineal de las filas de la matriz significa que al menos 1 fila de la matriz es una combinación lineal del resto.

Definición. Si una combinación lineal de filas (1.1) es igual a cero si y sólo si todos los coeficientes son , entonces las filas se llaman independiente linealmente .

Teorema del rango de la matriz . El rango de una matriz es igual al número máximo de sus filas o columnas linealmente independientes a través de las cuales se expresan linealmente todas las demás filas (columnas).

El teorema juega un papel fundamental en el análisis matricial, en particular, en el estudio de sistemas de ecuaciones lineales.

№6Resolver un sistema de ecuaciones lineales con incógnitas.

Los sistemas de ecuaciones lineales se utilizan ampliamente en economía.

El sistema de ecuaciones lineales con variables tiene la forma:

,

donde () son números arbitrarios llamados coeficientes para variables Y términos libres de las ecuaciones , respectivamente.

Entrada breve: ().

Definición. La solución del sistema es un conjunto de valores, tras la sustitución del cual cada ecuación del sistema se convierte en una verdadera igualdad.

1) El sistema de ecuaciones se llama articulación , si tiene al menos una solución, y no conjunto, si no tiene soluciones.

2) El sistema simultáneo de ecuaciones se llama cierto , si tiene una solución única, y incierto , si tiene más de una solución.

3) Dos sistemas de ecuaciones se llaman equivalente (equivalente ) , si tienen el mismo conjunto de soluciones (por ejemplo, una solución).

Este tema es uno de los más odiados entre los estudiantes. Peores, probablemente, sean las eliminatorias.

El truco es que el concepto mismo de elemento inverso (y no hablo solo de matrices) nos remite a la operación de multiplicación. Incluso en el plan de estudios escolar, la multiplicación se considera una operación compleja, y la multiplicación de matrices es generalmente un tema aparte, al que tengo dedicado un párrafo completo y una lección en video.

Hoy no entraremos en los detalles de los cálculos matriciales. Recordemos: cómo se designan las matrices, cómo se multiplican y qué se sigue de esto.

Revisión: multiplicación de matrices

Primero que nada, pongámonos de acuerdo sobre la notación. Una matriz $A$ de tamaño $\left[ m\times n \right]$ es simplemente una tabla de números con exactamente $m$ filas y $n$ columnas:

\=\underbrace(\left[ \begin(matrix) ((a)_(11)) & ((a)_(12)) & ... & ((a)_(1n)) \\ (( a)_(21)) & ((a)_(22)) & ... & ((a)_(2n)) \\ ... & ... & ... & ... \\ ((a)_(m1)) & ((a)_(m2)) & ... & ((a)_(mn)) \\\end(matrix) \right])_(n)\]

Para evitar mezclar accidentalmente filas y columnas (créanme, en un examen se puede confundir un uno con un dos, y mucho menos algunas filas), basta con mirar la imagen:

Determinación de índices para celdas de matriz.

¿Lo que está sucediendo? Si coloca el sistema de coordenadas estándar $OXY$ en la esquina superior izquierda y dirige los ejes para que cubran toda la matriz, entonces cada celda de esta matriz se puede asociar de forma única con las coordenadas $\left(x;y \right)$ - este será el número de fila y el número de columna.

¿Por qué el sistema de coordenadas está colocado en la esquina superior izquierda? Sí, porque es a partir de ahí que empezamos a leer cualquier texto. Es muy fácil de recordar.

¿Por qué el eje $x$ está dirigido hacia abajo y no hacia la derecha? Nuevamente, es simple: tome un sistema de coordenadas estándar (el eje $x$ va hacia la derecha, el eje $y$ sube) y gírelo para que cubra la matriz. Se trata de una rotación de 90 grados en el sentido de las agujas del reloj; vemos el resultado en la imagen.

En general, hemos descubierto cómo determinar los índices de los elementos matriciales. Ahora veamos la multiplicación.

Definición. Las matrices $A=\left[ m\times n \right]$ y $B=\left[ n\times k \right]$, cuando el número de columnas de la primera coincide con el número de filas de la segunda, son llamado consistente.

Exactamente en ese orden. Uno puede confundirse y decir que las matrices $A$ y $B$ forman un par ordenado $\left(A;B \right)$: si son consistentes en este orden, entonces no es del todo necesario que $B $ y $A$ esos. el par $\left(B;A \right)$ también es consistente.

Sólo se pueden multiplicar matrices coincidentes.

Definición. El producto de matrices coincidentes $A=\left[ m\times n \right]$ y $B=\left[ n\times k \right]$ es la nueva matriz $C=\left[ m\times k \right]$ ]$ , cuyos elementos $((c)_(ij))$ se calculan según la fórmula:

\[((c)_(ij))=\sum\limits_(k=1)^(n)(((a)_(ik)))\cdot ((b)_(kj))\]

En otras palabras: para obtener el elemento $((c)_(ij))$ de la matriz $C=A\cdot B$, necesitas tomar la fila $i$ de la primera matriz, el $j$ -ésima columna de la segunda matriz, y luego multiplique en pares los elementos de esta fila y columna. Sume los resultados.

Sí, esa es una definición muy dura. De ello se desprenden inmediatamente varios hechos:

  1. La multiplicación de matrices, en términos generales, no es conmutativa: $A\cdot B\ne B\cdot A$;
  2. Sin embargo, la multiplicación es asociativa: $\left(A\cdot B \right)\cdot C=A\cdot \left(B\cdot C \right)$;
  3. E incluso distributivamente: $\left(A+B \right)\cdot C=A\cdot C+B\cdot C$;
  4. Y una vez más distributivamente: $A\cdot \left(B+C \right)=A\cdot B+A\cdot C$.

La distributividad de la multiplicación tuvo que describirse por separado para el factor de suma izquierdo y derecho precisamente debido a la no conmutatividad de la operación de multiplicación.

Si resulta que $A\cdot B=B\cdot A$, tales matrices se llaman conmutativas.

Entre todas las matrices que se multiplican por algo allí, hay unas especiales: aquellas que, cuando se multiplican por cualquier matriz $A$, nuevamente dan $A$:

Definición. Una matriz $E$ se llama identidad si $A\cdot E=A$ o $E\cdot A=A$. En el caso de una matriz cuadrada $A$ podemos escribir:

La matriz identidad es una invitada frecuente a la hora de resolver ecuaciones matriciales. Y en general, un invitado frecuente en el mundo de las matrices. :)

Y debido a esta $E$, a alguien se le ocurrieron todas las tonterías que se escribirán a continuación.

¿Qué es una matriz inversa?

Dado que la multiplicación de matrices es una operación que requiere mucha mano de obra (hay que multiplicar un montón de filas y columnas), el concepto de matriz inversa tampoco resulta ser el más trivial. Y requiere alguna explicación.

Definición clave

Bueno, es hora de saber la verdad.

Definición. Una matriz $B$ se llama inversa de una matriz $A$ si

La matriz inversa se denota por $((A)^(-1))$ (¡no debe confundirse con el grado!), por lo que la definición se puede reescribir de la siguiente manera:

Parecería que todo es sumamente sencillo y claro. Pero al analizar esta definición, inmediatamente surgen varias preguntas:

  1. ¿Existe siempre una matriz inversa? Y si no siempre, ¿cómo determinar: cuándo existe y cuándo no?
  2. ¿Y quién dijo que existe exactamente una matriz así? ¿Qué pasa si para alguna matriz inicial $A$ hay toda una multitud de inversas?
  3. ¿Cómo son todos estos “reversos”? ¿Y cómo, exactamente, deberíamos contarlos?

En cuanto a los algoritmos de cálculo, hablaremos de esto un poco más adelante. Pero responderemos las preguntas restantes ahora mismo. Formulémoslos en forma de enunciados-lemas separados.

Propiedades básicas

Comencemos con cómo debería verse, en principio, la matriz $A$ para que $((A)^(-1))$ exista. Ahora nos aseguraremos de que ambas matrices sean cuadradas y del mismo tamaño: $\left[ n\times n \right]$.

Lema 1. Dada una matriz $A$ y su inversa $((A)^(-1))$. Entonces ambas matrices son cuadradas y del mismo orden $n$.

Prueba. Es sencillo. Sea la matriz $A=\left[ m\times n \right]$, $((A)^(-1))=\left[ a\times b \right]$. Dado que el producto $A\cdot ((A)^(-1))=E$ existe por definición, las matrices $A$ y $((A)^(-1))$ son consistentes en el orden que se muestra:

\[\begin(align) & \left[ m\times n \right]\cdot \left[ a\times b \right]=\left[ m\times b \right] \\ & n=a \end( alinear)\]

Esta es una consecuencia directa del algoritmo de multiplicación de matrices: los coeficientes $n$ y $a$ son de “tránsito” y deben ser iguales.

Al mismo tiempo, también se define la multiplicación inversa: $((A)^(-1))\cdot A=E$, por lo tanto las matrices $((A)^(-1))$ y $A$ son también consistente en el orden especificado:

\[\begin(align) & \left[ a\times b \right]\cdot \left[ m\times n \right]=\left[ a\times n \right] \\ & b=m \end( alinear)\]

Por lo tanto, sin pérdida de generalidad, podemos suponer que $A=\left[ m\times n \right]$, $((A)^(-1))=\left[ n\times m \right]$. Sin embargo, de acuerdo con la definición de $A\cdot ((A)^(-1))=((A)^(-1))\cdot A$, por lo tanto, los tamaños de las matrices coinciden estrictamente:

\[\begin(align) & \left[ m\times n \right]=\left[ n\times m \right] \\ & m=n \end(align)\]

Entonces resulta que las tres matrices - $A$, $((A)^(-1))$ y $E$ - son matrices cuadradas de tamaño $\left[ n\times n \right]$. El lema está probado.

Bueno, eso ya es bueno. Vemos que sólo las matrices cuadradas son invertibles. Ahora asegurémonos de que la matriz inversa sea siempre la misma.

Lema 2. Dada una matriz $A$ y su inversa $((A)^(-1))$. Entonces esta matriz inversa es la única.

Prueba. Vayamos por contradicción: dejemos que la matriz $A$ tenga al menos dos inversas: $B$ y $C$. Entonces, según la definición, se cumplen las siguientes igualdades:

\[\begin(align) & A\cdot B=B\cdot A=E; \\ & A\cdot C=C\cdot A=E. \\ \end(alinear)\]

Del Lema 1 concluimos que las cuatro matrices - $A$, $B$, $C$ y $E$ - son cuadrados del mismo orden: $\left[ n\times n \right]$. Por tanto, el producto se define:

Como la multiplicación de matrices es asociativa (¡pero no conmutativa!), podemos escribir:

\[\begin(align) & B\cdot A\cdot C=\left(B\cdot A \right)\cdot C=E\cdot C=C; \\ & B\cdot A\cdot C=B\cdot \left(A\cdot C \right)=B\cdot E=B; \\ & B\cdot A\cdot C=C=B\Rightarrow B=C. \\ \end(alinear)\]

Tenemos la única opción posible: dos copias de la matriz inversa son iguales. El lema está probado.

Los argumentos anteriores repiten casi palabra por palabra la prueba de la unicidad del elemento inverso para todos los números reales $b\ne 0$. La única adición significativa es tener en cuenta la dimensión de las matrices.

Sin embargo, todavía no sabemos nada sobre si toda matriz cuadrada es invertible. Aquí el determinante viene en nuestra ayuda: esta es una característica clave de todas las matrices cuadradas.

Lema 3. Dada una matriz $A$. Si su matriz inversa $((A)^(-1))$ existe, entonces el determinante de la matriz original es distinto de cero:

\[\izquierda| A\right|\ne 0\]

Prueba. Ya sabemos que $A$ y $((A)^(-1))$ son matrices cuadradas de tamaño $\left[ n\times n \right]$. Por tanto, para cada uno de ellos podemos calcular el determinante: $\left| A\right|$ y $\left| ((A)^(-1)) \derecha|$. Sin embargo, el determinante de un producto es igual al producto de los determinantes:

\[\izquierda| A\cdot B \right|=\left| A \right|\cdot \left| B \right|\Rightarrow \left| A\cdot ((A)^(-1)) \right|=\left| A \right|\cdot \left| ((A)^(-1)) \derecha|\]

Pero según la definición, $A\cdot ((A)^(-1))=E$, y el determinante de $E$ siempre es igual a 1, entonces

\[\begin(align) & A\cdot ((A)^(-1))=E; \\ & \izquierda| A\cdot ((A)^(-1)) \right|=\left| E\derecho|; \\ & \izquierda| A \right|\cdot \left| ((A)^(-1)) \right|=1. \\ \end(alinear)\]

El producto de dos números es igual a uno sólo si cada uno de estos números es distinto de cero:

\[\izquierda| A \right|\ne 0;\quad \left| ((A)^(-1)) \right|\ne 0.\]

Entonces resulta que $\left| A \right|\ne 0$. El lema está probado.

De hecho, este requisito es bastante lógico. Ahora analizaremos el algoritmo para encontrar la matriz inversa y quedará completamente claro por qué, con un determinante cero, en principio no puede existir ninguna matriz inversa.

Pero primero, formulemos una definición "auxiliar":

Definición. Una matriz singular es una matriz cuadrada de tamaño $\left[ n\times n \right]$ cuyo determinante es cero.

Por tanto, podemos afirmar que toda matriz invertible es no singular.

Cómo encontrar la inversa de una matriz

Ahora consideraremos un algoritmo universal para encontrar matrices inversas. En general, hay dos algoritmos generalmente aceptados, y hoy también consideraremos el segundo.

El que se discutirá ahora es muy efectivo para matrices de tamaño $\left[ 2\times 2 \right]$ y, parcialmente, de tamaño $\left[ 3\times 3 \right]$. Pero a partir del tamaño $\left[ 4\times 4 \right]$ es mejor no usarlo. Por qué, ahora lo entenderás todo tú mismo.

Sumas algebraicas

Prepararse. Ahora habrá dolor. No, no te preocupes: una hermosa enfermera con falda y medias de encaje no vendrá a ti para ponerte una inyección en el trasero. Todo es mucho más prosaico: te llegan las adiciones algebraicas y Su Majestad la “Union Matrix”.

Empecemos por lo principal. Sea una matriz cuadrada de tamaño $A=\left[ n\times n \right]$, cuyos elementos se llaman $((a)_(ij))$. Luego, para cada uno de esos elementos podemos definir un complemento algebraico:

Definición. Complemento algebraico $((A)_(ij))$ al elemento $((a)_(ij))$ ubicado en la $i$ésima fila y la $j$ésima columna de la matriz $A=\left[ n \times n \right]$ es una construcción de la forma

\[((A)_(ij))=((\left(-1 \right))^(i+j))\cdot M_(ij)^(*)\]

Donde $M_(ij)^(*)$ es el determinante de la matriz obtenida del $A$ original eliminando la misma $i$ésima fila y la $j$ésima columna.

De nuevo. El complemento algebraico de un elemento de matriz con coordenadas $\left(i;j \right)$ se denota como $((A)_(ij))$ y se calcula según el esquema:

  1. Primero, eliminamos la fila $i$ y la columna $j$-ésima de la matriz original. Obtenemos una nueva matriz cuadrada y denotamos su determinante como $M_(ij)^(*)$.
  2. Luego multiplicamos este determinante por $((\left(-1 \right))^(i+j))$ - al principio esta expresión puede parecer alucinante, pero en esencia simplemente estamos descifrando el signo delante de $M_(ij)^(*) $.
  3. Contamos y obtenemos un número específico. Aquellos. la suma algebraica es precisamente un número, y no una nueva matriz, etc.

La matriz $M_(ij)^(*)$ en sí misma se llama menor adicional del elemento $((a)_(ij))$. Y en este sentido, la definición anterior de complemento algebraico es un caso especial de una definición más compleja: la que vimos en la lección sobre el determinante.

Nota IMPORTANTE. En realidad, en matemáticas para “adultos”, las sumas algebraicas se definen de la siguiente manera:

  1. Tomamos $k$ filas y $k$ columnas en una matriz cuadrada. En su intersección obtenemos una matriz de tamaño $\left[ k\times k \right]$ - su determinante se llama menor de orden $k$ y se denota $((M)_(k))$.
  2. Luego tachamos estas $k$ filas y $k$ columnas “seleccionadas”. Una vez más se obtiene una matriz cuadrada: su determinante se llama menor adicional y se denota $M_(k)^(*)$.
  3. Multiplica $M_(k)^(*)$ por $((\left(-1 \right))^(t))$, donde $t$ es (¡atención ahora!) la suma de los números de todas las filas seleccionadas y columnas. Esta será la suma algebraica.

Mire el tercer paso: ¡en realidad hay una suma de $2k$ términos! Otra cosa es que para $k=1$ obtendremos solo 2 términos - estos serán los mismos $i+j$ - las “coordenadas” del elemento $((a)_(ij))$ para el cual estamos buscando un complemento algebraico.

Así que hoy usaremos una definición ligeramente simplificada. Pero como veremos más adelante será más que suficiente. Lo siguiente es mucho más importante:

Definición. La matriz aliada $S$ a la matriz cuadrada $A=\left[ n\times n \right]$ es una nueva matriz de tamaño $\left[ n\times n \right]$, que se obtiene de $A$ reemplazando $(( a)_(ij))$ por sumas algebraicas $((A)_(ij))$:

\\Rightarrow S=\left[ \begin(matrix) ((A)_(11)) & ((A)_(12)) & ... & ((A)_(1n)) \\ (( A)_(21)) & ((A)_(22)) & ... & ((A)_(2n)) \\ ... & ... & ... & ... \\ ((A)_(n1)) & ((A)_(n2)) & ... & ((A)_(nn)) \\\end(matriz) \right]\]

El primer pensamiento que surge al momento de darnos cuenta de esta definición es “¡cuánto habrá que contar!”. Tranquilo: tendrás que contar, pero no tanto. :)

Bueno, todo esto es muy bonito, pero ¿por qué es necesario? Pero por qué.

Teorema principal

Retrocedamos un poco. Recuerde, en el Lema 3 se afirmó que la matriz invertible $A$ siempre es no singular (es decir, su determinante es distinto de cero: $\left| A \right|\ne 0$).

Entonces, lo contrario también es cierto: si la matriz $A$ no es singular, entonces siempre es invertible. E incluso hay un esquema de búsqueda para $((A)^(-1))$. Échale un vistazo:

Teorema de la matriz inversa. Sea una matriz cuadrada $A=\left[ n\times n \right]$ y su determinante sea distinto de cero: $\left| A \right|\ne 0$. Entonces la matriz inversa $((A)^(-1))$ existe y se calcula mediante la fórmula:

\[((A)^(-1))=\frac(1)(\left| A \right|)\cdot ((S)^(T))\]

Y ahora, todo es igual, pero con letra legible. Para encontrar la matriz inversa, necesitas:

  1. Calcula el determinante $\left| A \right|$ y asegúrese de que no sea cero.
  2. Construya la matriz de unión $S$, es decir cuente 100500 sumas algebraicas $((A)_(ij))$ y colóquelas en su lugar $((a)_(ij))$.
  3. Transponga esta matriz $S$ y luego multiplíquela por algún número $q=(1)/(\left| A \right|)\;$.

¡Eso es todo! Se ha encontrado la matriz inversa $((A)^(-1))$. Veamos ejemplos:

\[\left[ \begin(matriz) 3 y 1 \\ 5 y 2 \\\end(matriz) \right]\]

Solución. Comprobemos la reversibilidad. Calculemos el determinante:

\[\izquierda| A\derecha|=\izquierda| \begin(matriz) 3 y 1 \\ 5 y 2 \\\end(matriz) \right|=3\cdot 2-1\cdot 5=6-5=1\]

El determinante es diferente de cero. Esto significa que la matriz es invertible. Creemos una matriz de unión:

Calculemos las sumas algebraicas:

\[\begin(align) & ((A)_(11))=((\left(-1 \right))^(1+1))\cdot \left| 2 \derecha|=2; \\ & ((A)_(12))=((\left(-1 \right))^(1+2))\cdot \left| 5 \derecha|=-5; \\ & ((A)_(21))=((\left(-1 \right))^(2+1))\cdot \left| 1 \derecha|=-1; \\ & ((A)_(22))=((\left(-1 \right))^(2+2))\cdot \left| 3\derecha|=3. \\ \end(alinear)\]

Tenga en cuenta: los determinantes |2|, |5|, |1| y |3| son determinantes de matrices de tamaño $\left[ 1\times 1 \right]$, y no módulos. Aquellos. Si hubiera números negativos en los determinantes, no es necesario eliminar el "menos".

En total, nuestra matriz de unión se ve así:

\[((A)^(-1))=\frac(1)(\left| A \right|)\cdot ((S)^(T))=\frac(1)(1)\cdot ( (\left[ \begin(array)(*(35)(r)) 2 & -5 \\ -1 & 3 \\\end(array) \right])^(T))=\left[ \begin (matriz)(*(35)(r)) 2 & -1 \\ -5 & 3 \\\end(matriz) \right]\]

OK, todo ha terminado. El problema esta resuelto.

Respuesta. $\left[ \begin(array)(*(35)(r)) 2 & -1 \\ -5 & 3 \\\end(array) \right]$

Tarea. Encuentra la matriz inversa:

\[\left[ \begin(array)(*(35)(r)) 1 & -1 & 2 \\ 0 & 2 & -1 \\ 1 & 0 & 1 \\\end(array) \right] \]

Solución. Calculamos nuevamente el determinante:

\[\begin(alinear) & \left| \begin(array)(*(35)(r)) 1 & -1 & 2 \\ 0 & 2 & -1 \\ 1 & 0 & 1 \\\end(array) \right|=\begin(matriz ) \left(1\cdot 2\cdot 1+\left(-1 \right)\cdot \left(-1 \right)\cdot 1+2\cdot 0\cdot 0 \right)- \\ -\left (2\cdot 2\cdot 1+\left(-1 \right)\cdot 0\cdot 1+1\cdot \left(-1 \right)\cdot 0 \right) \\\end(matrix)= \ \ & =\left(2+1+0 \right)-\left(4+0+0 \right)=-1\ne 0. \\ \end(align)\]

El determinante es distinto de cero: la matriz es invertible. Pero ahora va a ser realmente difícil: necesitamos contar hasta 9 (¡nueve, hijo de puta!) sumas algebraicas. Y cada uno de ellos contendrá el determinante $\left[ 2\times 2 \right]$. Voló:

\[\begin(matriz) ((A)_(11))=((\left(-1 \right))^(1+1))\cdot \left| \begin(matriz) 2 & -1 \\ 0 & 1 \\\end(matriz) \right|=2; \\ ((A)_(12))=((\left(-1 \right))^(1+2))\cdot \left| \begin(matriz) 0 & -1 \\ 1 & 1 \\\end(matriz) \right|=-1; \\ ((A)_(13))=((\left(-1 \right))^(1+3))\cdot \left| \begin(matriz) 0 y 2 \\ 1 y 0 \\\end(matriz) \right|=-2; \\ ... \\ ((A)_(33))=((\left(-1 \right))^(3+3))\cdot \left| \begin(matriz) 1 & -1 \\ 0 & 2 \\\end(matriz) \right|=2; \\ \end(matriz)\]

En resumen, la matriz de unión quedará así:

Por tanto, la matriz inversa será:

\[((A)^(-1))=\frac(1)(-1)\cdot \left[ \begin(matrix) 2 & -1 & -2 \\ 1 & -1 & -1 \\ -3 y 1 y 2 \\\end(matriz) \right]=\left[ \begin(array)(*(35)(r))-2 y -1 y 3 \\ 1 y 1 y -1 \ \2 & 1 & -2 \\\end(array) \right]\]

Eso es todo. Aquí está la respuesta.

Respuesta. $\left[ \begin(array)(*(35)(r)) -2 & -1 & 3 \\ 1 & 1 & -1 \\ 2 & 1 & -2 \\\end(array) \right ps

Como puede ver, al final de cada ejemplo realizamos una verificación. Al respecto, una nota importante:

No seas perezoso para comprobarlo. Multiplique la matriz original por la matriz inversa encontrada; debería obtener $E$.

Realizar esta verificación es mucho más fácil y rápido que buscar un error en cálculos posteriores cuando, por ejemplo, estás resolviendo una ecuación matricial.

Forma alternativa

Como dije, el teorema de la matriz inversa funciona muy bien para tamaños $\left[ 2\times 2 \right]$ y $\left[ 3\times 3 \right]$ (en el último caso, no es tan “genial” " ), pero para matrices más grandes comienza la tristeza.

Pero no te preocupes: existe un algoritmo alternativo con el que puedes encontrar tranquilamente la inversa incluso para la matriz $\left[ 10\times 10 \right]$. Pero, como suele ocurrir, para considerar este algoritmo necesitamos una pequeña introducción teórica.

Transformaciones elementales

Entre todas las posibles transformaciones matriciales, hay varias especiales: se llaman elementales. Hay exactamente tres de estas transformaciones:

  1. Multiplicación. Puedes tomar la $i$ésima fila (columna) y multiplicarla por cualquier número $k\ne 0$;
  2. Suma. Agregue a la $i$-ésima fila (columna) cualquier otra $j$-ésima fila (columna), multiplicada por cualquier número $k\ne 0$ (puede, por supuesto, hacer $k=0$, pero ¿qué ¿El punto? Nada cambiará).
  3. Reordenamiento. Tome las filas (columnas) $i$ésima y $j$ésima y intercambie lugares.

Por qué estas transformaciones se llaman elementales (para matrices grandes no parecen tan elementales) y por qué solo hay tres: estas preguntas están fuera del alcance de la lección de hoy. Por tanto, no entraremos en detalles.

Otra cosa es importante: tenemos que realizar todas estas perversiones en la matriz adjunta. Sí, sí: has oído bien. Ahora habrá una definición más: la última de la lección de hoy.

matriz adjunta

Seguramente en el colegio resolviste sistemas de ecuaciones mediante el método de la suma. Bueno, resta otra línea de una línea, multiplica alguna línea por un número, eso es todo.

Entonces: ahora todo será igual, pero de forma “adulta”. ¿Listo?

Definición. Sea una matriz $A=\left[ n\times n \right]$ y una matriz identidad $E$ del mismo tamaño $n$. Entonces la matriz adjunta $\left[ A\left| E\bien. \right]$ es una nueva matriz de tamaño $\left[ n\times 2n \right]$ que se ve así:

\[\izquierda[ A\izquierda| E\bien. \right]=\left[ \begin(array)(rrrr|rrrr)((a)_(11)) & ((a)_(12)) & ... & ((a)_(1n)) & 1 & 0 & ... & 0 \\((a)_(21)) & ((a)_(22)) & ... & ((a)_(2n)) & 0 & 1 & ... & 0 \\... & ... & ... & ... & ... & ... & ... & ... \\((a)_(n1)) & ((a)_(n2)) & ... & ((a)_(nn)) & 0 & 0 & ... & 1 \\\end(array) \right]\]

En resumen, tomamos la matriz $A$, a la derecha le asignamos la matriz identidad $E$ del tamaño requerido, las separamos con una barra vertical por belleza - aquí tienes el adjunto. :)

¿Cuál es el truco? Esto es lo que:

Teorema. Sea la matriz $A$ invertible. Considere la matriz adjunta $\left[ A\left| E\bien. \derecha]$. Si usa conversiones de cadenas elementales llévelo a la forma $\left[ E\left| Brillante. \right]$, es decir multiplicando, restando y reordenando filas para obtener de $A$ la matriz $E$ de la derecha, entonces la matriz $B$ obtenida de la izquierda es la inversa de $A$:

\[\izquierda[ A\izquierda| E\bien. \right]\a \left[ E\left| Brillante. \right]\Rightarrow B=((A)^(-1))\]

¡Es así de simple! En resumen, el algoritmo para encontrar la matriz inversa se ve así:

  1. Escribe la matriz adjunta $\left[ A\left| E\bien. \derecha]$;
  2. Realice conversiones de cadenas elementales hasta que aparezca $E$ en lugar de $A$;
  3. Por supuesto, también aparecerá algo a la izquierda: una determinada matriz $B$. Esto será lo contrario;
  4. ¡GANANCIA!:)

Por supuesto, es mucho más fácil decirlo que hacerlo. Así que veamos un par de ejemplos: para tamaños $\left[ 3\times 3 \right]$ y $\left[ 4\times 4 \right]$.

Tarea. Encuentra la matriz inversa:

\[\left[ \begin(array)(*(35)(r)) 1 y 5 y 1 \\ 3 y 2 y 1 \\ 6 y -2 y 1 \\\end(array) \right]\ ]

Solución. Creamos la matriz adjunta:

\[\left[ \begin(array)(rrr|rrr) 1 y 5 y 1 y 1 y 0 y 0 \\ 3 y 2 y 1 y 0 y 1 y 0 \\ 6 y -2 y 1 y 0 y 0 y 1 \\\end(array) \right]\]

Dado que la última columna de la matriz original está llena de unos, resta la primera fila del resto:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 1 y 5 y 1 y 1 y 0 y 0 \\ 3 y 2 y 1 y 0 y 1 y 0 \\ 6 y - 2 y 1 y 0 y 0 y 1 \\\end(array) \right]\begin(matrix) \downarrow \\ -1 \\ -1 \\\end(matrix)\to \\ & \to \left [ \begin(array)(rrr|rrr) 1 y 5 y 1 y 1 y 0 y 0 \\ 2 y -3 y 0 y -1 y 1 y 0 \\ 5 y -7 y 0 y -1 y 0 & 1 \\\end(array) \right] \\ \end(align)\]

No hay más unidades, excepto la primera línea. Pero no lo tocamos, de lo contrario las unidades recién eliminadas comenzarán a "multiplicarse" en la tercera columna.

Pero podemos restar la segunda línea dos veces de la última; obtenemos una en la esquina inferior izquierda:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 1 y 5 y 1 y 1 y 0 y 0 \\ 2 y -3 y 0 y -1 y 1 y 0 \\ 5 & -7 & 0 & -1 & 0 & 1 \\\end(array) \right]\begin(matrix) \ \\ \downarrow \\ -2 \\\end(matrix)\to \\ & \left [ \begin(array)(rrr|rrr) 1 y 5 y 1 y 1 y 0 y 0 \\ 2 y -3 y 0 y -1 y 1 y 0 \\ 1 y -1 y 0 y 1 y -2 & 1 \\\end(array) \right] \\ \end(align)\]

Ahora podemos restar la última fila de la primera y dos veces de la segunda; de esta manera ponemos a “cero” la primera columna:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 1 y 5 y 1 y 1 y 0 y 0 \\ 2 y -3 y 0 y -1 y 1 y 0 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right]\begin(matrix) -1 \\ -2 \\ \uparrow \\\end(matrix)\to \\ & \ a \left[ \begin(array)(rrr|rrr) 0 y 6 y 1 y 0 y 2 y -1 \\ 0 y -1 y 0 y -3 y 5 y -2 \\ 1 y -1 y 0 & 1 & -2 & 1 \\\end(array) \right] \\ \end(align)\]

Multiplica la segunda línea por −1, luego réstala 6 veces de la primera y suma 1 vez a la última:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 0 y 6 y 1 y 0 y 2 y -1 \\ 0 y -1 y 0 y -3 y 5 y -2 \ \ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right]\begin(matriz) \ \\ \left| \cdot \left(-1 \right) \right. \\ \ \\\end(matrix)\to \\ & \to \left[ \begin(array)(rrr|rrr) 0 & 6 & 1 & 0 & 2 & -1 \\ 0 & 1 & 0 & 3 & -5 & 2 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right]\begin(matrix) -6 \\ \updownarrow \\ +1 \\\end (matriz)\to \\ & \to \left[ \begin(array)(rrr|rrr) 0 & 0 & 1 & -18 & 32 & -13 \\ 0 & 1 & 0 & 3 & -5 & 2 \\ 1 & 0 & 0 & 4 & -7 & 3 \\\end(array) \right] \\ \end(align)\]

Todo lo que queda es intercambiar las líneas 1 y 3:

\[\left[ \begin(array)(rrr|rrr) 1 y 0 y 0 y 4 y -7 y 3 \\ 0 y 1 y 0 y 3 y -5 y 2 \\ 0 y 0 y 1 y - 18 y 32 y -13 \\\end(array) \right]\]

¡Listo! A la derecha está la matriz inversa requerida.

Respuesta. $\left[ \begin(array)(*(35)(r))4 & -7 & 3 \\ 3 & -5 & 2 \\ -18 & 32 & -13 \\\end(array) \right ps

Tarea. Encuentra la matriz inversa:

\[\left[ \begin(matriz) 1 y 4 y 2 y 3 \\ 1 y -2 y 1 y -2 \\ 1 y -1 y 1 y 1 \\ 0 y -10 y -2 y -5 \\\end(matriz) \right]\]

Solución. Redactamos nuevamente el adjunto:

\[\left[ \begin(array)(rrrr|rrrr) 1 y 4 y 2 y 3 y 1 y 0 y 0 y 0 \\ 1 y -2 y 1 y -2 y 0 y 1 y 0 y 0 \ \ 1 & -1 & 1 & 1 & 0 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\\end(array) \right]\]

Lloremos un poco, estemos tristes por lo mucho que nos toca contar ahora... y empecemos a contar. Primero, "pongamos a cero" la primera columna restando la fila 1 de las filas 2 y 3:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 y 4 y 2 y 3 y 1 y 0 y 0 y 0 \\ 1 y -2 y 1 y -2 y 0 y 1 y 0 y 0 \\ 1 y -1 y 1 y 1 y 0 y 0 y 1 y 0 \\ 0 y -10 y -2 y -5 y 0 y 0 y 0 y 1 \\\end(matriz) \right]\begin(matrix) \downarrow \\ -1 \\ -1 \\ \ \\\end(matrix)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 & 4 y 2 y 3 y 1 y 0 y 0 y 0 \\ 0 y -6 y -1 y -5 y -1 y 1 y 0 y 0 \\ 0 y -5 y -1 y -2 y -1 y 0 y 1 y 0 \\ 0 y -10 y -2 y -5 y 0 y 0 y 0 y 1 \\\end(array) \right] \\ \end(align)\]

Vemos demasiadas “desventajas” en las líneas 2 a 4. Multiplica las tres filas por −1 y luego quema la tercera columna restando la fila 3 del resto:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 y 4 y 2 y 3 y 1 y 0 y 0 y 0 \\ 0 y -6 y -1 y -5 y - 1 y 1 y 0 y 0 \\ 0 y -5 y -1 y -2 y -1 y 0 y 1 y 0 \\ 0 y -10 y -2 y -5 y 0 y 0 y 0 y 1 \\ \end(array) \right]\begin(matrix) \ \\ \left| \cdot \left(-1 \right) \right. \\ \izquierda| \cdot \left(-1 \right) \right. \\ \izquierda| \cdot \left(-1 \right) \right. \\\end(matriz)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 y 4 y 2 y 3 y 1 y 0 y 0 y 0 \\ 0 y 6 y 1 y 5 y 1 y -1 y 0 y 0 \\ 0 y 5 y 1 y 2 y 1 y 0 y -1 y 0 \\ 0 y 10 y 2 y 5 y 0 y 0 y 0 y -1 \\ \end (matriz) \right]\begin(matrix) -2 \\ -1 \\ \updownarrow \\ -2 \\\end(matrix)\to \\ & \to \left[ \begin(array)( rrrr| rrrr) 1 y -6 y 0 y -1 y -1 y 0 y 2 y 0 \\ 0 y 1 y 0 y 3 y 0 y -1 y 1 y 0 \\ 0 y 5 y 1 y 2 y 1 y 0 y -1 y 0 \\ 0 y 0 y 0 y 1 y -2 y 0 y 2 y -1 \\\end(array) \right] \\ \end(align)\]

Ahora es el momento de “freír” la última columna de la matriz original: resta la línea 4 del resto:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & -6 & 0 & -1 & -1 & 0 & 2 & 0 \\ 0 & 1 & 0 & 3 & 0 & -1 & 1 & 0 \\ 0 & 5 & 1 & 2 & 1 & 0 & -1 & 0 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(matriz ) \right]\begin(matrix) +1 \\ -3 \\ -2 \\ \uparrow \\\end(matrix)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 y -6 y 0 y 0 y -3 y 0 y 4 y -1 \\ 0 y 1 y 0 y 0 y 6 y -1 y -5 y 3 \\ 0 y 5 y 1 y 0 y 5 y 0 & -5 & 2 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(array) \right] \\ \end(align)\]

Lanzamiento final: “queme” la segunda columna restando la línea 2 de las líneas 1 y 3:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & -6 & 0 & 0 & -3 & 0 & 4 & -1 \\ 0 & 1 & 0 & 0 & 6 & -1 & -5 & 3 \\ 0 & 5 & 1 & 0 & 5 & 0 & -5 & 2 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end( matriz) \right]\begin(matrix) 6 \\ \updownarrow \\ -5 \\ \ \\\end(matrix)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 & 0 & 0 & 0 & 33 & -6 & -26 & -17 \\ 0 & 1 & 0 & 0 & 6 & -1 & -5 & 3 \\ 0 & 0 & 1 & 0 & -25 & 5 & 20 & -13 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(array) \right] \\ \end(align)\]

Y nuevamente la matriz identidad está a la izquierda, lo que significa que la inversa está a la derecha. :)

Respuesta. $\left[ \begin(matriz) 33 & -6 & -26 & 17 \\ 6 & -1 & -5 & 3 \\ -25 & 5 & 20 & -13 \\ -2 & 0 & 2 & - 1 \\\end(matriz) \right]$

OK, todo ha terminado. Haz la comprobación tú mismo, estoy jodido. :)

La matriz $A^(-1)$ se llama inversa de la matriz cuadrada $A$ si se cumple la condición $A^(-1)\cdot A=A\cdot A^(-1)=E$, donde $E $ es la matriz identidad, cuyo orden es igual al orden de la matriz $A$.

Una matriz no singular es una matriz cuyo determinante no es igual a cero. En consecuencia, una matriz singular es aquella cuyo determinante es igual a cero.

La matriz inversa $A^(-1)$ existe si y solo si la matriz $A$ no es singular. Si la matriz inversa $A^(-1)$ existe, entonces es única.

Hay varias formas de encontrar la inversa de una matriz y veremos dos de ellas. Esta página analizará el método de matriz adjunta, que se considera estándar en la mayoría de los cursos superiores de matemáticas. En la segunda parte se analiza el segundo método para encontrar la matriz inversa (el método de transformaciones elementales), que implica el uso del método de Gauss o el método de Gauss-Jordan.

Método de matriz adjunta

Sea la matriz $A_(n\times n)$. Para encontrar la matriz inversa $A^(-1)$, se requieren tres pasos:

  1. Encuentre el determinante de la matriz $A$ y asegúrese de que $\Delta A\neq 0$, es decir esa matriz A es no singular.
  2. Componga complementos algebraicos $A_(ij)$ de cada elemento de la matriz $A$ y escriba la matriz $A_(n\times n)^(*)=\left(A_(ij) \right)$ a partir del algebraico encontrado. complementos.
  3. Escribe la matriz inversa teniendo en cuenta la fórmula $A^(-1)=\frac(1)(\Delta A)\cdot (A^(*))^T$.

La matriz $(A^(*))^T$ a menudo se denomina adjunta (recíproca, aliada) a la matriz $A$.

Si la solución se realiza manualmente, entonces el primer método es bueno solo para matrices de órdenes relativamente pequeños: segundo (), tercero (), cuarto (). Para encontrar la inversa de una matriz de orden superior, se utilizan otros métodos. Por ejemplo, el método gaussiano, que se analiza en la segunda parte.

Ejemplo No. 1

Encuentre la inversa de la matriz $A=\left(\begin(array) (cccc) 5 & -4 &1 & 0 \\ 12 &-11 &4 & 0 \\ -5 & 58 &4 & 0 \\ 3 & - 1 & -9 & 0 \end(array) \right)$.

Dado que todos los elementos de la cuarta columna son iguales a cero, entonces $\Delta A=0$ (es decir, la matriz $A$ es singular). Dado que $\Delta A=0$, no existe una matriz inversa a la matriz $A$.

Respuesta: la matriz $A^(-1)$ no existe.

Ejemplo No. 2

Encuentre la inversa de la matriz $A=\left(\begin(array) (cc) -5 & 7 \\ 9 & 8 \end(array)\right)$. Realizar verificación.

Usamos el método de matriz adjunta. Primero, encontremos el determinante de la matriz $A$ dada:

$$ \Delta A=\izquierda| \begin(array) (cc) -5 y 7\\ 9 y 8 \end(array)\right|=-5\cdot 8-7\cdot 9=-103. $$

Dado que $\Delta A \neq 0$, entonces existe la matriz inversa, por lo tanto continuaremos con la solución. Encontrar complementos algebraicos

\begin(alineado) & A_(11)=(-1)^2\cdot 8=8; \; A_(12)=(-1)^3\cdot 9=-9;\\ & A_(21)=(-1)^3\cdot 7=-7; \; A_(22)=(-1)^4\cdot (-5)=-5.\\ \end(alineado)

Componemos una matriz de sumas algebraicas: $A^(*)=\left(\begin(array) (cc) 8 & -9\\ -7 & -5 \end(array)\right)$.

Transponemos la matriz resultante: $(A^(*))^T=\left(\begin(array) (cc) 8 & -7\\ -9 & -5 \end(array)\right)$ (la La matriz resultante a menudo se denomina matriz adjunta o aliada de la matriz $A$). Usando la fórmula $A^(-1)=\frac(1)(\Delta A)\cdot (A^(*))^T$, tenemos:

$$ A^(-1)=\frac(1)(-103)\cdot \left(\begin(array) (cc) 8 & -7\\ -9 & -5 \end(array)\right) =\left(\begin(array) (cc) -8/103 y 7/103\\ 9/103 y 5/103 \end(array)\right) $$

Entonces, se encuentra la matriz inversa: $A^(-1)=\left(\begin(array) (cc) -8/103 & 7/103\\ 9/103 & 5/103 \end(array )\derecha) $. Para comprobar la verdad del resultado, basta comprobar la verdad de una de las igualdades: $A^(-1)\cdot A=E$ o $A\cdot A^(-1)=E$. Comprobemos la igualdad $A^(-1)\cdot A=E$. Para trabajar menos con fracciones, sustituiremos la matriz $A^(-1)$ que no esté en la forma $\left(\begin(array) (cc) -8/103 & 7/103\\ 9/103 & 5/103 \ end(array)\right)$, y en la forma $-\frac(1)(103)\cdot \left(\begin(array) (cc) 8 & -7\\ -9 & -5 \end(matriz )\right)$:

$$ A^(-1)\cdot(A) =-\frac(1)(103)\cdot \left(\begin(array) (cc) 8 & -7\\ -9 & -5 \end( matriz)\right)\cdot\left(\begin(array) (cc) -5 y 7 \\ 9 y 8 \end(array)\right) =-\frac(1)(103)\cdot\left( \begin(array) (cc) -103 y 0 \\ 0 y -103 \end(array)\right) =\left(\begin(array) (cc) 1 y 0 \\ 0 y 1 \end(array )\derecha) =E $$

Respuesta: $A^(-1)=\left(\begin(array) (cc) -8/103 y 7/103\\ 9/103 y 5/103 \end(array)\right)$.

Ejemplo No. 3

Encuentre la matriz inversa para la matriz $A=\left(\begin(array) (ccc) 1 & 7 & 3 \\ -4 & 9 & 4 \\ 0 & 3 & 2\end(array) \right)$ . Realizar verificación.

Comencemos calculando el determinante de la matriz $A$. Entonces, el determinante de la matriz $A$ es:

$$ \Delta A=\izquierda| \begin(array) (ccc) 1 y 7 y 3 \\ -4 y 9 y 4 \\ 0 y 3 y 2\end(array) \right| = 18-36+56-12=26. $$

Como $\Delta A\neq 0$, entonces existe la matriz inversa, por lo tanto continuaremos con la solución. Encontramos los complementos algebraicos de cada elemento de una matriz dada:

$$ \begin(alineado) & A_(11)=(-1)^(2)\cdot\left|\begin(array)(cc) 9 & 4\\ 3 & 2\end(array)\right| =6;\; A_(12)=(-1)^(3)\cdot\left|\begin(array)(cc) -4 &4 \\ 0 & 2\end(array)\right|=8;\; A_(13)=(-1)^(4)\cdot\left|\begin(array)(cc) -4 y 9\\ 0 y 3\end(array)\right|=-12;\\ & A_(21)=(-1)^(3)\cdot\left|\begin(array)(cc) 7 y 3\\ 3 y 2\end(array)\right|=-5;\; A_(22)=(-1)^(4)\cdot\left|\begin(array)(cc) 1 y 3\\ 0 y 2\end(array)\right|=2;\; A_(23)=(-1)^(5)\cdot\left|\begin(array)(cc) 1 y 7\\ 0 y 3\end(array)\right|=-3;\\ & A_ (31)=(-1)^(4)\cdot\left|\begin(array)(cc) 7 y 3\\ 9 y 4\end(array)\right|=1;\; A_(32)=(-1)^(5)\cdot\left|\begin(array)(cc) 1 y 3\\ -4 y 4\end(array)\right|=-16;\; A_(33)=(-1)^(6)\cdot\left|\begin(array)(cc) 1 y 7\\ -4 y 9\end(array)\right|=37. \end(alineado) $$

Elaboramos una matriz de sumas algebraicas y la transponemos:

$$ A^*=\left(\begin(array) (ccc) 6 y 8 y -12 \\ -5 y 2 y -3 \\ 1 y -16 y 37\end(array) \right); \; (A^*)^T=\left(\begin(array) (ccc) 6 & -5 & 1 \\ 8 & 2 & -16 \\ -12 & -3 & 37\end(array) \right) . $$

Usando la fórmula $A^(-1)=\frac(1)(\Delta A)\cdot (A^(*))^T$, obtenemos:

$$ A^(-1)=\frac(1)(26)\cdot \left(\begin(array) (ccc) 6 & -5 & 1 \\ 8 & 2 & -16 \\ -12 & - 3 y 37\end(array) \right)= \left(\begin(array) (ccc) 3/13 y -5/26 y 1/26 \\ 4/13 y 1/13 y -8/13 \ \ -6/13 y -3/26 y 37/26 \end(array) \right) $$

Entonces $A^(-1)=\left(\begin(array) (ccc) 3/13 y -5/26 y 1/26 \\ 4/13 y 1/13 y -8/13 \\ - 6 /13 y -3/26 y 37/26 \end(array) \right)$. Para comprobar la verdad del resultado, basta comprobar la verdad de una de las igualdades: $A^(-1)\cdot A=E$ o $A\cdot A^(-1)=E$. Comprobemos la igualdad $A\cdot A^(-1)=E$. Para trabajar menos con fracciones, sustituiremos la matriz $A^(-1)$ que no esté en la forma $\left(\begin(array) (ccc) 3/13 & -5/26 & 1/26 \ \ 4/13 & 1/13 & -8/13 \\ -6/13 & -3/26 & 37/26 \end(array) \right)$, y en la forma $\frac(1)(26 )\cdot \left( \begin(array) (ccc) 6 & -5 & 1 \\ 8 & 2 & -16 \\ -12 & -3 & 37\end(array) \right)$:

$$ A\cdot(A^(-1)) =\left(\begin(array)(ccc) 1 y 7 y 3 \\ -4 y 9 y 4\\ 0 y 3 y 2\end(array) \right)\cdot \frac(1)(26)\cdot \left(\begin(array) (ccc) 6 & -5 & 1 \\ 8 & 2 & -16 \\ -12 & -3 & 37\ end(array) \right) =\frac(1)(26)\cdot\left(\begin(array) (ccc) 26 & 0 & 0 \\ 0 & 26 & 0 \\ 0 & 0 & 26\end (matriz) \right) =\left(\begin(array) (ccc) 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1\end(array) \right) =E $$

La verificación fue exitosa, la matriz inversa $A^(-1)$ se encontró correctamente.

Respuesta: $A^(-1)=\left(\begin(array) (ccc) 3/13 y -5/26 y 1/26 \\ 4/13 y 1/13 y -8/13 \\ -6 /13 y -3/26 y 37/26 \end(array) \right)$.

Ejemplo No. 4

Encuentre la matriz inversa de la matriz $A=\left(\begin(array) (cccc) 6 & -5 & 8 & 4\\ 9 & 7 & 5 & 2 \\ 7 & 5 & 3 & 7\\ -4 & 8 & -8 & -3 \end(array) \right)$.

Para una matriz de cuarto orden, encontrar la matriz inversa mediante sumas algebraicas es algo difícil. Sin embargo, estos ejemplos ocurren en los exámenes.

Para encontrar la inversa de una matriz, primero debes calcular el determinante de la matriz $A$. La mejor manera de hacerlo en esta situación es descomponiendo el determinante en una fila (columna). Seleccionamos cualquier fila o columna y encontramos los complementos algebraicos de cada elemento de la fila o columna seleccionada.

Por ejemplo, para la primera línea obtenemos:

$$ A_(11)=\left|\begin(array)(ccc) 7 y 5 y 2\\ 5 y 3 y 7\\ 8 y -8 y -3 \end(array)\right|=556; \; A_(12)=-\left|\begin(array)(ccc) 9 y 5 y 2\\ 7 y 3 y 7 \\ -4 y -8 y -3 \end(array)\right|=-300 ; $$ $$ A_(13)=\left|\begin(array)(ccc) 9 y 7 y 2\\ 7 y 5 y 7\\ -4 y 8 y -3 \end(array)\right|= -536;\; A_(14)=-\left|\begin(array)(ccc) 9 y 7 y 5\\ 7 y 5 y 3\\ -4 y 8 y -8 \end(array)\right|=-112. $$

El determinante de la matriz $A$ se calcula mediante la siguiente fórmula:

$$ \Delta(A)=a_(11)\cdot A_(11)+a_(12)\cdot A_(12)+a_(13)\cdot A_(13)+a_(14)\cdot A_(14 )=6\cdot 556+(-5)\cdot(-300)+8\cdot(-536)+4\cdot(-112)=100. $$

$$ \begin(alineado) & A_(21)=-77;\;A_(22)=50;\;A_(23)=87;\;A_(24)=4;\\ & A_(31) =-93;\;A_(32)=50;\;A_(33)=83;\;A_(34)=36;\\ & A_(41)=473;\;A_(42)=-250 ;\;A_(43)=-463;\;A_(44)=-96. \end(alineado) $$

Matriz de complementos algebraicos: $A^*=\left(\begin(array)(cccc) 556 & -300 & -536 & -112\\ -77 & 50 & 87 & 4 \\ -93 & 50 & 83 & 36\\ 473 & -250 & -463 & -96\end(array)\right)$.

Matriz adjunta: $(A^*)^T=\left(\begin(array) (cccc) 556 & -77 & -93 & 473\\ -300 & 50 & 50 & -250 \\ -536 & 87 & 83 y -463\\ -112 y 4 y 36 y -96\end(array)\right)$.

Matriz inversa:

$$ A^(-1)=\frac(1)(100)\cdot \left(\begin(array) (cccc) 556 & -77 & -93 & 473\\ -300 & 50 & 50 & -250 \\ -536 y 87 y 83 y -463\\ -112 y 4 y 36 y -96 \end(array) \right)= \left(\begin(array) (cccc) 139/25 y -77/100 & -93/100 & 473/100 \\ -3 & 1/2 & 1/2 & -5/2 \\ -134/25 & 87/100 & 83/100 & -463/100 \\ -28/ 25 y 25/1 y 25/9 y -24/25 \end(array) \right) $$

La comprobación, si se desea, se puede realizar del mismo modo que en los ejemplos anteriores.

Respuesta: $A^(-1)=\left(\begin(array) (cccc) 139/25 & -77/100 & -93/100 & 473/100 \\ -3 & 1/2 & 1/2 & -5/2 \\ -134/25 y 87/100 y 83/100 y -463/100 \\ -28/25 y 1/25 y 9/25 y -24/25 \end(array) \right) ps

En la segunda parte, consideraremos otra forma de encontrar la matriz inversa, que implica el uso de transformaciones del método gaussiano o del método Gauss-Jordan.

Métodos para encontrar la matriz inversa. Considere una matriz cuadrada

Denotemos Δ = det A.

La matriz cuadrada A se llama no degenerado, o no especial, si su determinante es distinto de cero, y degenerar, o especial, SiΔ = 0.

Una matriz cuadrada B es para una matriz cuadrada A del mismo orden si su producto es A B = B A = E, donde E es la matriz identidad del mismo orden que las matrices A y B.

Teorema . Para que la matriz A tenga matriz inversa es necesario y suficiente que su determinante sea distinto de cero.

La matriz inversa de la matriz A, denotada por A- 1, entonces B = A - 1 y se calcula mediante la fórmula

, (1)

donde A i j son complementos algebraicos de los elementos a i j de la matriz A.

Calcular A -1 usando la fórmula (1) para matrices de alto orden requiere mucha mano de obra, por lo que en la práctica es conveniente encontrar A -1 usando el método de transformaciones elementales (ET). Cualquier matriz A no singular se puede reducir a la matriz identidad E aplicando solo las columnas (o solo las filas) a la matriz identidad. Si las transformaciones perfectas sobre la matriz A se aplican en el mismo orden a la matriz identidad E, el resultado será una matriz inversa. Es conveniente realizar EP sobre las matrices A y E simultáneamente, escribiendo ambas matrices una al lado de la otra a través de una línea. Notemos una vez más que al buscar la forma canónica de una matriz, para encontrarla se pueden utilizar transformaciones de filas y columnas. Si necesitas encontrar la inversa de una matriz, debes usar solo filas o solo columnas durante el proceso de transformación.

Ejemplo 1. Para matriz encontrar A -1 .

Solución.Primero encontramos el determinante de la matriz A.
Esto significa que la matriz inversa existe y podemos encontrarla usando la fórmula: , donde A i j (i,j=1,2,3) son sumas algebraicas de elementos a i j de la matriz original.

Dónde .

Ejemplo 2. Utilizando el método de transformaciones elementales, encuentre A -1 para la matriz: A = .

Solución.Asignamos a la matriz original de la derecha una matriz identidad del mismo orden: . Usando transformaciones elementales de las columnas, reduciremos la “mitad” izquierda a la identidad, realizando simultáneamente exactamente las mismas transformaciones en la matriz derecha.
Para hacer esto, intercambie la primera y la segunda columna:
~ . A la tercera columna sumamos la primera, y a la segunda, la primera, multiplicada por -2: . De la primera columna restamos el segundo duplicado, y de la tercera, el segundo multiplicado por 6; . Agreguemos la tercera columna a la primera y a la segunda: . Multiplica la última columna por -1: . La matriz cuadrada obtenida a la derecha de la barra vertical es la matriz inversa de la matriz A dada. Entonces,
.