Inversa De Una Matriz

Inversa De Una Matriz

en particular en álgebra lineal, una matriz cuadrada A de orden n se dice que es invertible, no singular, no degenerada o regular si existe otra matriz cuadrada de orden n, llamada matriz inversa de A y representada como A−1, tal que:

A\cdot A^{−1} = A^{−1}\cdot A = I_{n} ,

donde In es la matriz identidad de orden n y el producto utilizado es el producto de matrices usual.

Una matriz no invertible se dice que es singular o degenerada. Una matriz es singular si y solo si su determinante es nulo.

La inversión de matrices es el proceso de encontrar la matriz inversa de una matriz dada.

Índice

1 Ejemplos

1.1 Matriz de dos filas

2 Propiedades de la matriz inversa

2.1 Demostración de la unicidad de la inversa

2.2 Demostración del criterio de inversibilidad de las matrices cuadradas

2.2.1 Suficiencia

2.2.2 Necesidad

3 Métodos de inversión de matrices

3.1 Solución analítica

3.1.1 Inversión de matrices 2×2

3.1.2 Inversión de matrices de órdenes superiores

3.2 Métodos numéricos

4 Grupo lineal

5 Véase también

6 Referencias

7 Enlaces externos

Ejemplos

Matriz de dos filas

Dada una matriz de 2×2 con determinante no nulo:

\mathbfĀ^{−1} = \begin{bmatrix} a & b \\ c & d \end{bmatrix}^{−1} = \frac{1}{\det(\mathbfĀ)} \begin{bmatrix} \,\,\,d & \!\!-b \\ -c & \,a \\ \end{bmatrix} = \frac{1}{ad - bc} \begin{bmatrix} \,\,\,d & \!\!-b \\ -c & \,a \\ \end{bmatrix}

Está definida siempre y cuando ad-bc \ne 0. Así por ejemplo la inversa de la matriz

\begin{bmatrix} 2 & 1 \\ 5 & 3 \end{bmatrix} \mapsto \begin{bmatrix} 2 & 1 \\ 5 & 3 \end{bmatrix}^{−1} = \begin{bmatrix} 3 & −1 \\ −5 & 2 \end{bmatrix}, ya que \begin{bmatrix} 2 & 1 \\ 5 & 3 \end{bmatrix} \begin{bmatrix} 3 & −1 \\ −5 & 2 \end{bmatrix}= \begin{bmatrix} 1 & 0 \\ 0 & 1 \end{bmatrix}

Dada una matriz de 3×3 con determinante no nulo:

\mathbfĀ^{−1} = \begin{bmatrix} a & b & c\\ d & e & f \\ g & h & i\\ \end{bmatrix}^{−1} = \frac{1}{\det(\mathbfĀ)} \begin{bmatrix} \, A & \, B & \,C \\ \, D & \, E & \, F \\ \, G & \, H & \, I\\ \end{bmatrix}^T = \frac{1}{\det(\mathbfĀ)} \begin{bmatrix} \, A & \, D & \,G \\ \, B & \, E & \,H \\ \, C & \,F & \, I\\ \end{bmatrix}

\begin{matrix} A = (ei-fh) & D = -(bi-ch) & G = (bf-ce) \\ B = -(di-fg) & E = (ai-cg) & H = -(af-cd) \\ C = (dh-eg) & F = -(ah-bg) & I = (ae-bd) \\ \end{matrix}

Propiedades de la matriz inversa

La inversa de una matriz, si existe, es única.

La inversa del producto de dos matrices es el producto de las inversas cambiando el orden:

\left (A \cdot B \right ) ^{−1} = {B}^{−1} \cdot Ā^{−1}

Si la matriz es invertible, también lo es su transpuesta, y el inverso de su transpuesta es la transpuesta de su inversa, es decir:

\left(A^{T}\right)^{−1} = \left(A^{−1}\right)^{T}

Y, evidentemente:

\left(A^{−1}\right)^{−1} = A

Una matriz es invertible si y sólo si el determinante de A es distinto de cero. Además la inversa satisface la igualdad:

{A^{−1}} = {1 \over {\begin{vmatrix} A \end{vmatrix}}} \operatorname{adj} (A) \

donde { {\begin{vmatrix} A \end{vmatrix}}} es el determinante de A y \operatorname{adj}(A) \ es la matriz de adjuntos de A. Demostración de la unicidad de la inversa

Supongamos que B y C son inversas de A

AB=BA=I

AC=CA=I

Multiplicando por C

(BA)C=IC=C

(BA)C=B(AC)=BI=B

De modo que B=C y se prueba que la inversa es única.

Demostración del criterio de inversibilidad de las matrices cuadradas

Se probará la doble implicación.

Suficiencia (\Rightarrow)

Suponiendo que existe B tal que AB = BA = I. Entonces al aplicar la función determinante se obtiene

\det\left(AB\right)=\det\left(BA\right)=\det\left(I\right)

usando la propiedad \det(I) = 1

\det\left(A\right)\det\left(B\right)=1

Por lo tanto, \det(A) es distinto de cero.

 \det\left(A\right)\neq0

Necesidad (\Leftarrow)

Suponiendo que el determinante de A es distinto de cero, sea a_{ij} es el elemento ij de la matriz A y sea A_{ij} la matriz A sin la fila i y la columna j (comúnmente conocida como j-ésimo menor de A).

Entonces

    \det(A)= \sum_{i=1}^n (−1)^{i+j}a_{ij}\det(A_{ij})

Sea k\neq j, entonces

    \sum_{i=1}^n (−1)^{i+j}a_{ik}\det(A_{ij})=0

Esta afirmación es válida por propiedades de los determinantes, pues la parte izquierda de la relación es el determinante de la matriz A con la columna j igual a la columna k y los demás términos iguales a los de A. Entonces

\delta_{jk}\det\left(A\right)= \sum_{i=1}^n (−1)^{i+j}\det\left(A_{ij}\right)a_{ik}

donde \delta_{jk} = 1 cuando j=k y \delta_{jk} = 0 cuando j\neq k. Entonces

\det\left(A\right)I = \left(\mbox{adj}(A)\right)A

Es decir que A tiene inversa izquierda

\frac{\left(\text{adj}(A)\right)^T}{\det\left(A\right)}

Como \left(\text{adj}(A)\right)^T = \text{adj}\left(A^T\right), entonces A^T también tiene inversa izquierda que es

\frac{\left(\text{adj}(A^T)\right)^T}{\det\left(A^T\right)}= \frac{\text{adj}(A)}{\det\left(A\right)}

Entonces

\frac{\text{adj}(A)}{\det\left(A\right)}A^T=I

luego, aplicando la transpuesta

A\frac{\left(\text{adj}(A)\right)^T}{\det\left(A\right)}=I

Que es lo que se quería demostrar

Métodos de inversión de matrices Solución analítica

Inversión de matrices 2×2

Calcular la matriz inversa en matrices de 2×2 puede ser muy sencillo. Se puede hacer de la siguiente manera:1

\mathbfĀ^{−1} = \begin{bmatrix} a & b \\ c & d \\ \end{bmatrix}^{−1} = \frac{1}{\det(\mathbfĀ)} \begin{bmatrix} \,\,\,d & \!\!-b \\ -c & \,a \\ \end{bmatrix} = \frac{1}{ad - bc} \begin{bmatrix} \,\,\,d & \!\!-b \\ -c & \,a \\ \end{bmatrix}

Esto es posible siempre y cuando ad - bc, el determinante de la matriz, no sea cero.

Ejemplo numérico:

C = \begin{bmatrix} 3 & 2 \\ 4 & −2 \\ \end{bmatrix} , \ C^{−1} = \begin{bmatrix} 1 & 2 \\ 3 & 4 \\ \end{bmatrix}^{−1} = \frac1{−2} \begin{bmatrix} 4 & −2 \\ −3 & 1 \\ \end{bmatrix}

Inversión de matrices de órdenes superiores

Para matrices de órdenes superiores puede utilizarse la siguiente fórmula:

{A^{−1}} = {1 \over {\begin{vmatrix} A \end{vmatrix}}} \ \operatorname{adj} (A) \

Donde { {\begin{vmatrix} A \end{vmatrix}}} es el determinante de A y \ \operatorname{adj}{(A)T} \ es la matriz de adjuntos de A.

Cuando la matriz tiene más de tres filas, está fórmula es muy ineficiente y conduce a largos cálculos. Hay métodos alternativos para calcular la matriz inversa que son bastante más eficientes.


Mis sitios nuevos:
Emprendedores
Politica de Privacidad