En este artículo se tratan los diferentes tipos de Matrices que son muy utilizados en el día a día de cualquier persona que trabaje con temas de matemáticas, ingeniería o incluso Excel, se consideran las Matrices Inversas Transpuestas Elementales y sus Operaciones que se pueden realizar entre ellas.
Si quieres más información de Álgebra Lineal y vectores sigue este enlace.
1. Matrices Inversas en Álgebra Lineal
Las matrices inversas de $\mathbf A$ es aquella que multiplicada por $\mathbf A$ produce la matriz identidad de $\mathbf I$ del mismo tamaño de $\mathbf A$. No todas las matrices tienen inversa y solo se encuentra definida para matrices cuadradas. El concepto es poderoso y simple porque permite resolver el sistema de ecuaciones $\mathbf A \cdot x=b$ con una simple multiplicación, así:
$\mathbf A \cdot x=b$
$\mathbf A^{-1} \mathbf A \cdot x=\mathbf A^{-1} \cdot b$
$\mathbf I \cdot x = \mathbf A^{-1} \cdot b$
$x = \mathbf A^{-1} \cdot b$
Hemos denotado la inversa de $\mathbf A$ como $\mathbf A^-1$ donde se cumplen las siguientes propiedades:
$\mathbf A_n \mathbf I_n = \mathbf I_n \mathbf A_n = \mathbf A_n$
$\mathbf A_n \mathbf A_n^{-1} = I_n$
Para calcular la inversa de una matriz puede recurrir a la solución de sistemas de ecuaciones o a determinantes, veamos ambos casos.
1.1. Procedimiento para encontrar la matriz inversa usando sistemas de ecuaciones
- Escriba la matriz aumentada del sistema $\mathbf A| \mathbf I$
- Reduzca el sistema para poner $\mathbf A$ en su forma reducida por reglones
- Se decide si $\mathbf A$ es invertible
La solución se define entonces según corresponda:
- Si la forma escalonada reducida por reglones de $\mathbf A$ es la matriz identidad, entonces la inversa se encuentra a la izquierda en el sistema resuelto
- Si en la reducción existe un reglón de ceros a la izquierda, la matriz $\mathbf A$ no es invertible
1.2. Procedimiento para encontrar la inversa usando determinantes
Para hallar la inversa usando determinantes basta recurrir a la siguiente multiplicación:
$\mathbf A^{-1} = \frac{1}{\det \mathbf A}\begin{bmatrix} a_{11} & -a_{12} \\ -a_{21} & a_{22} \end{bmatrix}$
Donde el determinante de una matriz cuadrada de tamaño 2 es:
$\det \mathbf A = a_{11}a_{22}-a_{12}a_{21}$
2. Matriz transpuesta
Además de las Matrices Inversas existen las Transpuestas y se define como $\mathbf A^t$ de una matriz $\mathbf A$ se obtiene al escribir las filas como columnas. Las matrices transpuestas tienen muchas propiedades útiles, a continuación se muestran estas propiedades:
${(\mathbf A^t)}^t=\mathbf A$
$(\mathbf A^t\mathbf B^t)=\mathbf A^t\mathbf B^t$
$(\mathbf A^t + \mathbf B^t)=\mathbf A^t + \mathbf B^t$
Si $\mathbf A$ es invertible, entonces $\mathbf A^t$ es invertible y ${(\mathbf A^t)}^{-1}={(\mathbf A^{-1})}^{t}$
Se dice que una matriz es simétrica si su transpuesta es igual a la matriz, note que sólo las matrices cuadradas pueden ser también simétricas.
3. Matrices elementales y matrices inversas
Como complemento a las Matrices Inversas y Transpuestas existe las matrices Elementales y sus Operaciones que se estudian en esta sección. Una operación elemental entre renglones puede representarse a través de una operación de multiplicación entre matrices, la matriz por la cual se multiplica se llama matriz elemental. Adicionalmente, una matriz inversa (o las operaciones de eliminación Gauss-Jordan) se puede representar como una multiplicación de matrices elementales, esto quiere decir que si una matriz es invertible se puede representar como una multiplicación de matrices elementales.
Matriz elemental | Efecto de multiplicación |
---|---|
Multiplicación | Multiplica el reglón $i$ de $\mathbf A$ por $c$ |
Suma | Multiplica el reglón $i$ de $\mathbf A$ por $c$ y lo suma al reglón $j$ |
Permutación | Permuta los reglones $i$ y $j$ de $\mathbf A$ |
La representación simbólica de estas operaciones y las matrices correspondientes se muestran a continuación.
3.1. Multiplicación de matrices
Representación | Matriz Elemental | Observación |
---|---|---|
$cR_i$ | $\begin{bmatrix} 1 & 0 & 0 \\ 0 & c & 0 \\ 0 & 0 & 1 \end{bmatrix}$ | Siendo $i$ el reglón 2 en este ejemplo |
3.2. Suma de matrices
Representación | Matriz Elemental | Observación |
---|---|---|
$R_j+cR_i$ | $\begin{bmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ c & 0 & 1 \end{bmatrix}$ | Siendo $i$ el reglón 1 y $j$ el reglón 3 en este ejemplo |
3.3. Permutación de matrices
Representación | Matriz Elemental | Observación |
---|---|---|
$P_{ij}$ | $\begin{bmatrix} 1 & 0 & 0 \\ 0 & 0 & 1 \\ c & 0 & 1 \end{bmatrix}$ | Siendo $i$ el reglón 2 y $j$ el reglón 3 en este ejemplo |
4. Factorización de Matrices en Álgebra Lineal
Factorización: $\mathbf A = \mathbf {LU}$
Suponga que una matriz $\mathbf A$ invertible puede reducir por renglones a una matriz triangular superior sin realizar permutaciones. Entonces existen matrices únicas $\mathbf L$ y $\mathbf U$ tales que $\mathbf L$ es triangular inferior con unos en la diagonal, $\mathbf U$ es una matriz triangular superior invertible y $\mathbf A = \mathbf L \mathbf U$. Para hallar la factorización se puede reducir la matriz $\mathbf A$ por renglones (sin dejar unos en la diagonal principal) y la matriz resultante será la matriz $\mathbf U$. De forma similar si se expresan las operaciones elementales sobre renglones como matrices y se multiplican estas matrices se obtiene la matriz $\mathbf L$.
Factorización: $\mathbf {PA} = \mathbf{LU}$
Sea $\mathbf A$ cualquier matriz $mxn$. Entonces existe una matriz de permutación $\mathbf P$ tal que $\mathbf{PA}=\mathbf{LU}$ donde $\mathbf L$ y $\mathbf U$ son como en la factorización $\mathbf{LU}$, en general $\mathbf P$, $\mathbf A$ y $\mathbf U$ no son únicas. Para hallar esta factorización se procede como en el caso anterior, pero las permutaciones que se requieran hacer para obtener una matriz triangular superior (proceso de reducción por reglones) se expresan en una matriz de permutación $\mathbf P$ haciendo uso de matrices elementales.