Los determinantes son herramientas operativas del álgebra de matrices y lineal que permite simplificar ciertas operaciones que se realizan como el cálculo de la matriz inversa y la determinación del rango de una matriz.

Siga este vínculo para obtener más información de álgebra lineal.

1. Determinantes de Matrices en Álgebra Lineal

Las siguientes son definiciones útiles acerca de los determinantes de matrices.

  • El determinante de una matriz cuadrada se expresa como $\det \mathbf A=|\mathbf A|$ note que aquí las barras no indican valor absoluto
  • Se llama $\text{menor} ij$ de una matriz cuadrada $\mathbf A$ representado con $M_{ij}$ a la matriz obtenida al eliminar el reglón $i$ y la columna $j$ de la matriz $\mathbf A$
  • El $\text{cofactor} ijij$ de una matriz cuadrada denotado por $A_{ij}$ esta dado por $A_{ij}=(-1)^{i+j}|M_{ij}|$

Con estas definiciones podemos expresar fácilmente el determinante de cualquier matriz utilizando una expresión conocida como expansión por cofactores, así:

$\det \mathbf A=\sum_{k=1}^n a_{1k}A_{1k}$

Esta expansión por cofactores también se puede llevar a cabo tomando cualquier fila o columna de la matriz. Note que esto lleva a que si cualquier fila o columna de la matriz sean sus componentes cero, entonces el determinante será cero también. Para algunas matrices el cálculo del determinante se puede simplificar, por ejemplo, para las matrices triangulares (superiores o inferiores) el determinante es solo el producto los componentes de su diagonal principal.

2. Propiedades de los determinantes

  • $\det \mathbf {AB}=\det \mathbf A \det \mathbf B$
  • Si una matriz $\mathbf A$ tiene factorización $\mathbf A=\mathbf L \mathbf U$ entonces $\det \mathbf{A} = \det \mathbf{U}$
  • Si una matriz $\mathbf A$ tiene factorización $\mathbf{PA=LU}$ entonces $\det \mathbf{A} = \frac {\det \mathbf{U}}{\det \mathbf P} = \pm \det \mathbf U$
  • $\det \mathbf A = \det \mathbf A^t$
  • Si una columna o fila de $\mathbf A$ se multiplica por un escalar $c$ entonces el determinante de la nueva matriz es $c| \mathbf A|$
  • Sea tres matrices $\mathbf{A,B,C}$, $\mathbf A$ y $\mathbf B$ son idénticas excepto por una columna $j$, y $\mathbf C$ es idéntica a $\mathbf A,\mathbf B$,  excepto que la columna de $\mathbf C$ es la suma de las columnas $j$ de $\mathbf A,\mathbf B$, entonces $\det \mathbf C = \det \mathbf A + \det \mathbf B$, la misma afirmación es cierta para un reglón $i$
  • El intercambio de dos reglones (o columnas) de una matriz, tiene el efecto de multiplicar su determinante por $−1$
  • Si una matriz tiene dos reglones (o columnas) iguales entonces su determinante es cero
  • Si una matriz tiene un reglón (o columna) igual a cero entonces su determinante es cero
  • Si una matriz tiene un reglón (o columna) múltiplo escalar de otro entonces su determinante es cero
  • Si una matriz se suma un múltiplo escalar de un reglón (o columna) a otro entonces su determinante no cambia
  • Si $\mathbf E$ es una matriz elemental que representa la operación de intercambio de dos filas, entonces $\det \mathbf E=-1$
  • Si $\mathbf E$ es una matriz elemental que representa la operación de suma de una fila con un múltiplo de otra fila, entonces $\det \mathbf E=-1$
  • Si $\mathbf E$ es una matriz elemental que representa la operación de multiplicación de una fila por un escalar cc, entonces $\det \mathbf E=c$

3. Determinantes y matrices inversas

Una de las propiedades más importantes de los determinantes se relaciona con la invertibilidad de una matriz, así: Una matriz es invertible, si su determinante es diferente de cero A continuación se explorará un concepto importante denominado adjunta de una matriz. Sea $\mathbf A$ una matriz y $\mathbf A_{ij}$ el cofactor de la matriz para los relgones $i$ y $j$; sea $\mathbf B$ otra matriz pero esta construida con los cofactores de la matriz $\mathbf A$ así:

$\begin{bmatrix} A_{11} & A_{12} & \dotsm & A_{1n} \\ A_{21} & A_{22} & \dotsm & A_{2n} \\ \vdots & \vdots & & \vdots \\ A_{n1} & A_{n2} & \dotsm & A_{nn} \end{bmatrix}$

Se denomina matriz adjunta de $\mathbf A$ a la matriz $\mathbf B^t$, es decir a la matriz de cofactores transpuesta. La adjunta se puede representar simbólicamente así:

$adj \mathbf A=\mathbf B^t$

La utilidad de la matriz adjunta tiene que ver con los siguientes dos resultados:

$(\mathbf A)(adj \mathbf A)=(\det \mathbf A)(\mathbf I)$

$\mathbf A^{-1}=\frac{1}{\det \mathbf A}adj \mathbf A$

Observe que el primer resultado pone en la diagonal principal el valor del determinante y el segundo resultado implica un cálculo para obtener la inversa de una matriz.

4. Regla de Cramer

La regla de Cramer es otro método que permite encontrar la solución a un sistema de ecuaciones simultáneas, con $n$ ecuaciones y $n$ incógnitas. El método actualmente está en desuso, pero tiene trascendencia historia. Sea el sistema de ecuaciones:

$\mathbf{Ax}=\mathbf b$

Donde se representara con $D$ el determinante de la matriz $\mathbf A$. Adicionalmente, se tienen $n$ matrices representadas como $\mathbf A_i$ donde cada matriz es la misma matriz $\mathbf A$ pero cambiando la columna $i$ por el vector $\mathbf b$, respectivamente se cuentan con los determinantes de cada una de estas matrices representados como $D_i$, entonces la solución al sistema de ecuaciones es:

$x_i=\frac{D_i}{D}$

5. Artículos de Interés