matrices


Matriz (matemática)

Contenido

* 1. Historia
  • 2. Introducción
  • 3. Definiciones
  • 4. Operaciones básicas
    • 4.1 Suma o adición
      • 3.1.1 Propiedades
    • 4.2 Producto por un escalar
      • 4.2.1 Ejemplo
      • 4.2.2 Propiedades
    • 4.3 Producto
      • 4.3.1 Propiedades
    • 4.4 Aplicaciones lineales
    • 4.5 Transpuesta
  • 5 Matrices cuadradas y definiciones relacionadas
  • 6 Las matrices en la Computación
  • 7. Véase también

1. Historia

El origen de las matrices es muy antiguo. Un cuadrado mágico, 3 por 3, se registra en la literatura china hacia el 650 a. C.
Es larga la historia del uso de las matrices para resolver ecuaciones lineales. Un importante texto matemático chino que proviene del año 300 a. C. a 200 a. C., Nueve capítulos sobre el Arte de las matemáticas (Jiu Zhang Suan Shu), es el primer ejemplo conocido de uso del método de matrices para resolver un sistema de ecuaciones simultáneas En el capítulo séptimo, "Ni mucho ni poco", el concepto de determinante apareció por primera vez, dos mil años antes de su publicación por el matemático japonés Seki Kowa en 1683 y el matemático alemán Gottfried Leibniz en 1693.

Los "cuadrados mágicos" eran conocidos por los matemáticos árabes, posiblemente desde comienzos del siglo VII, quienes a su vez pudieron tomarlos de los matemáticos y astrónomos de la India, junto con otros aspectos de las matemáticas combinatorias. Todo esto sugiere que la idea provino de China. Los primeros "cuadrados mágicos" de orden 5 y 6 aparecieron en Bagdad en el 983, en la Enciclopedia de la Hermandad de Pureza (Rasa'il Ihkwan al-Safa).[

Después del desarrollo de la teoría de determinantes por Seki Kowa y Leibniz, a finales del siglo XVII, Cramer presentó en 1750 la ahora denominada regla de Cramer. Carl Friedrich Gauss y Wilhelm Jordan desarrollaron la eliminación de Gauss-Jordan en el siglo XIX.

El término "matriz" fue acuñado en 1848, por J. J. Sylvester. En 1853, Hamilton hizo algunos aportes a la teoría de matrices. Cayley introdujo en 1858 la notación matricial, como forma abreviada de escribir un sistema de m ecuaciones lineales con n incógnitas. Grassmann, Frobenius y von Neumann están entre los matemáticos famosos que trabajaron sobre la teoría de matrices.

Olga Taussky-Todd (1906-1995), durante la II Guerra Mundial, usó la teoría de matrices para investigar el fenómeno de aeroelasticidad llamado fluttering.

2. INTRODUCCION

En matemáticas, una matriz es una tabla de números consistente en cantidades abstractas que pueden sumarse y multiplicarse. Las matrices se utilizan para describir sistemas de ecuaciones lineales, realizar un seguimiento de los coeficientes de una aplicación lineal y registrar los datos que dependen de varios parámetros. Las matrices se describen en el campo de la teoría de matrices. Pueden sumarse, multiplicarse y descomponerse de varias formas, lo que también las hace un concepto clave en el campo del álgebra lineal.

Por favor vea el video, definición de matriz antes de continuar:

Definiciones y notaciones

Una matriz es una tabla rectangular de números (llamados elementos o entradas de la matriz) ordenados en filas y columnas, donde una fila es cada una de las líneas horizontales de la matriz y una columna es cada una de las líneas verticales. A una matriz con m filas y n columnas se le denomina matriz m-por-n (escrito m×n), y a m y n dimensiones de la matriz. Las dimensiones de una matriz siempre se dan con el número de filas primero y el número de columnas después. Comúnmente se dice que una matriz m-por-n tiene un orden de m × n ("orden" tiene el significado de tamaño). Dos matrices se dice que son iguales si son del mismo orden y tienen los mismos elementos.
Al elemento de una matriz que se encuentra en la fila i-ésima y la columna j-ésima se le llama elemento i,j o elemento (i,j)-iésimo de la matriz. Se vuelve a poner primero las filas y después las columnas.
Casi siempre, se denotan a las matrices con letras mayúsculas mientras que se utilizan las correspondientes letras en minúsculas para denotar a los elementos de las mismas. Por ejemplo, al elemento de una matriz A que se encuentra en la fila i-ésima y la columna j-ésima se le denota como ai,j o a[i,j]. Notaciones alternativas son A[i,j] o Ai,j. Además de utilizar letras mayúsculas para representar matrices, numerosos autores representan a las matrices con fuentes en negrita para distinguirlas de otros tipos de variables. Así A es una matriz, mientras que A es un escalar.
Normalmente se escribe external image cebc92fd9e524ce466def32d17daecce.png para definir una matriz A m × n con cada entrada en la matriz A[i,j] llamada aij para todo 1 ≤ im y 1 ≤ jn. Sin embargo, la convención del inicio de los índices i y j en 1 no es universal: algunos lenguajes de programación comienzan en cero, en cuál caso se tiene 0 ≤ im − 1 y 0 ≤ jn − 1.
Una matriz con una sola columna o una sola fila se denomina a menudo vector, y se interpreta como un elemento del espacio euclídeo. Una matriz 1 × n (una fila y n columnas) se denomina vector fila, y una matriz m × 1 (una columna y m filas) se denomina vector columna.

Ejemplo

La matriz
external image d25cb26b9c61b65bd7537601318a61a1.png
es una matriz 4x3. El elemento A[2,3] o a2,3 es 7.
La matriz

es una matriz 1×9, o un vector fila con 9 elementos.

Por favor vea el video, La Utilidad de las matrices.

Operaciones básicas


Suma o adición (Si desea vea el video, haciendo clic aqui)

Dadas las matrices m-por-n A y B, su suma A + B es la matriz m-por-n calculada sumando los elementos correspondientes (i.e. (A + B)[i, j] = A[i, j] + B[i, j] ). Es decir, sumar cada uno de los elementos homólogos de las matrices a sumar. Por ejemplo:
external image 9ff25ac213c215770503361357632233.png

Propiedades

  • Asociativa
Dadas las matrices m×n A, B y C
A + (B + C) = (A + B) + C
  • Conmutativa
Dadas las matrices m×n A y B
A + B = B + A
  • Existencia de matriz cero o matriz nula
A + 0 = 0 + A = A
  • Existencia de matriz opuesta
con -A = [-aij]
A + (-A) = 0

Producto por un escalar (Si desea vea el video, haciendo clic aqui)

Dada una matriz A y un escalar c, su producto cA se calcula multiplicando el escalar por cada elemento de A (i.e. (cA)[i, j] = cA[i, j] ).

Ejemplo

external image 8951d4762a38dcb7a372bb6a5ee0d623.png

Propiedades

Sean A y B matrices y c y d escalares.
  • Clausura: Si A es matriz y c es escalar, entonces cA es matriz.
  • Asociatividad: (cd)A = c(dA)
  • Elemento Neutro: 1·A = A
  • Distributividad:
    • De escalar: c(A+B) = cA+cB
    • De matriz: (c+d)A = cA+dA

external image 200px-Matrix_multiplication_diagram.svg.png

Producto de Matrices(Si desea vea el video, haciendo clic aqui)external image magnify-clip.png Diagrama esquemático que ilustra el producto de dos matrices A y B dando como resultado la matriz AB.

Producto de matrices El producto de dos matrices se puede definir sólo si el número de columnas de la matriz izquierda es el mismo que el número de filas de la matriz derecha. Si A es una matriz m×n y B es una matriz n×p, entonces su producto matricial AB es la matriz m×p (m filas, p columnas) dada por: (AB)[i,j] = A[i,1] B[1,j] + A[i,2] B[2,j] + ... + A[i,n] B[n,j] para cada par i y j. Por ejemplo:

Propiedades

Si los elementos de la matriz pertenecen a un cuerpo, y puede definirse el producto, el producto de matrices tiene las siguientes propiedades:
  • Propiedad asociativa: (AB)C = A(BC).
  • Propiedad distributiva por la derecha: (A + B)C = AC + BC.
  • Propiedad distributiva por la izquierda: C(A + B) = CA + CB.
El producto de dos matrices generalmente no es conmutativo, es decir, AB ≠ BA. La división entre matrices, es decir, la operación que podría producir el cociente A / B, no se encuentra definida. Sin embargo, existe el concepto de matriz inversa, sólo aplicable a las matrices cuadradas.


Transpuesta (Si desea vea el video, haciendo clic aqui)

La transpuesta de una matriz m-por-n A es la matriz n-por-m AT (algunas veces denotada por At) formada al intercambiar las filas y columnas, i.e. external image eef4c29cef06c2cf6233ef2a90fa82df.png La transposición de matrices texternal image 8bb3f5434fdf4934cb2e9e065e7c80d4.pngiene las siguientes propiedades: external image 8bb3f5434fdf4934cb2e9e065e7c80d4.png


Matrices cuadradas y definiciones relacionadas

Una matriz cuadrada es una matriz que tiene el mismo número de filas que de columnas. El conjunto de todas las matrices cuadradas n-por-n junto a la suma y la multiplicación de matrices, es un anillo que generalmente no es conmutativo.
M(n,R), el anillo de las matrices cuadradas reales, es un álgebra asociativa real unitaria. M(n,C), el anillo de las matrices cuadradas complejas, es un álgebra asociativa compleja.
La matriz identidad In de orden n es la matriz n por n en la cual todos los elementos de la diagonal principal son iguales a 1 y todos los demás elementos son iguales a 0. :
external image 6e6e8e3765f6d3ea8323c7128c3b9842.png

La matriz identidad es el elemento unitario en el anillo de matrices cuadradas.
Los elementos invertibles de este anillo se llaman matrices invertibles o matrices no singulares. Una matriz A n por n es invertible si y sólo si existe una matriz B tal que AB = BA.=In
En este caso, B es la matriz inversa de A, identificada por A^(-1) (Se lee matriz A elevada a la menos 1).

Otras matrices cuadradas(Si desea vea el video, haciendo clic aqui)

Matriz ortogonal

Las matrices ortogonales, representan transformaciones en espacios vectoriales reales llamadas justamente, transformaciones ortogonales. Estas transformaciones son isomorfismos internos del espacio vectorial en cuestión. Suelen representar rotaciones y son usadas extensivamente en computación gráfica. Por sus propiedades también son usadas para el estudio de ciertos fibrados y en física se las usa en la formulación de ciertas teorías de campos.

Definición :Sea n un número entero y sea A una matriz cuadrada n por n, con entradas reales. Se dice que la matriz es ortogonal si:


external image 1c519722b8c345d0df2a588224bda7ee.png
donde external image fdbcb06eaad219f84ae69139135479af.png representa la matriz traspuesta de external image 7c46e7d54c6109d94d8982aa60d87b4a.png e external image a451c1a8e48f5769fa6eff6e3ee7b862.png representa la matriz identidad.

Ejemplos

Supongamos que la matriz de números reales
external image a150dbf7aad4bbe92648123c799df271.png
es ortogonal y su determinante es +1. Su transpuesta es igual a su inversa
external image 4d17fcd6877cbf39655950dede6d84f1.png
de modo que d=a y c= - b y la matriz M es de la forma
external image 1ec383b04853791062fc0f946fdeaa82.png
Finalmente,
external image eb88c3a378adab2f4d8ecd06043cfe0f.png
Así que los números a y b satisfacen además la propiedad que la suma de sus cuadrados vale 1. Por lo tanto, existe un número real θ para el cual

Concluimos que: toda matriz ortogonal de SO(2) puede escribirse como
external image 4fdb35e203bdd1359db23a26b0535c43.png
con θ real.

Matriz triangular

En álgebra lineal, una matriz triangular es un tipo especial de matriz cuadrada cuyos elementos por encima o por debajo de su diagonal principal son cero. Debido a que los sistemas de ecuaciones lineales con matrices triangulares son mucho más fáciles de resolver, las matrices triangulares son utilizadas en análisis numérico para resolver sistemas de ecuaciones lineales, calcular inversas y determinantes de matrices. El método de descomposición LU permite descomponer cualquier matriz invertible como producto de una matriz triangular inferior L y una superior U
.

Descripción :

Una matriz cuadrada de orden n se dice que es triangular superior si es de la forma:
external image b98ccbd91fe056acc4cf50cbabd102bf.png
Análogamente, una matriz de la forma:
external image f9529dcc722e2cc0ca76c7205f4adb9f.png
se dice que es una matriz triangular inferior.
Se suelen emplear las letras U y L, respectivamente, ya que U es la inicial de "upper triangular matrix" y L de "lower triangular matrix", los nombres que reciben estas matrices en inglés.

Ejemplos

external image 130df3b27c170a247b112ef87b7eabe9.png

es triangular superior y
external image f66ac6fdaaf98a925c5bdcaf1133fe3e.png
es triangular inferior.

Propiedades de las matrices triangulares

  • Una matriz triangular superior e inferior es una matriz diagonal.
  • El producto de dos matrices triangulares superiores (inferiores) es un matriz triangular superior (inferior).
  • La transpuesta de una matriz triangular superior es una matriz triangular inferior y viceversa.
  • El determinante de una matriz triangular es el producto de los elementos de la diagonal.
  • Una matriz triangular es invertible si y solo si todos los elementos de la diagonal son no nulos. En este caso, la inversa de una matriz triangular superior (inferior) es otra matriz superior (inferior).
  • Los valores propios de una matriz triangular son los elementos de la diagonal principal.

Matriz diagonal

En álgebra lineal, una matriz diagonal es una matriz cuadrada en que las entradas son todas nulas salvo en la diagonal principal, y éstas pueden ser nulas o no. Así, la matriz D = (di,j) es diagonal si:
external image b76a386760a46464e70bb6e37455e02b.png
Ejemplo:
external image 044d0e4519ad47ec66fe3a82b0d4450e.png
Toda matriz diagonal es también una matriz simétrica, triangular (superior e inferior) y (si las entradas provienen del cuerpo R o C) normal.
Otro ejemplo de matriz diagonal es la matriz identidad.


Operaciones matriciales :

Las operaciones de suma y producto de matrices son especialmente sencillas para matrices diagonales. Vamos a emplear aquí la notación de diag(a1,...,an) para una matriz diagonal que tiene las entradas a1,...,an en la diagonal principal, empezando en la esquina superior izquierda. Entonces, para la suma se tiene:
diag(a1,...,an) + diag(b1,...,bn) = diag(a1+b1,...,an+bn)
y para el producto de matrices,
diag(a1,...,an) · diag(b1,...,bn) = diag(a1b1,...,anbn).
La matriz diagonal diag(a1,...,an) es invertible si y sólo si las entradas a1,...,an son todas distintas de 0. En este caso, se tiene
diag(a1,...,an)-1 = diag(a1-1,...,an-1).
En particular, las matrices diagonales forman un subanillo del anillo de las matrices de n×n.
Multiplicar la matriz A por la izquierda con diag(a1,...,an) equivale a multiplicar la fila i-ésima de A por ai para todo i. Multiplicar la matriz A por la derecha con diag(a1,...,an) equivale a multiplicar la columna i-ésima de A por ai para todo i.

Autovalores, autovectores y determinante

  • Los autovalores de diag(a1,...,an) son a1,...,an.
  • Los vectores e1,...,en forman una base de autovectores.

Matriz singular

Una matriz cuadrada A nxn (de orden n) es singular si su determinante es nulo.
Algunos autores llaman a estas matrices degeneradas. En tal caso se dice que dicha matriz no tiene inversa.
Son equivalentes las siguientes afirmaciones:
  • A es no invertible.
  • El determinante de A es nulo ( det(A)=0 ), esto es, A es singular.
  • Ax=0 tiene infinitas soluciones.
Una matriz no singular es llamada comúnmente Invertible

Matriz idempotente

Una matriz idempotente es una matriz la cual es igual a su cuadrado y a la vez es simétrica, es decir:
A es idempotente si A x A = A, y simétrica.
Por ejemplo, la siguiente matriz es idempotente:
external image e0311ea5f560f5521b27c2d99025a07f.png
O sea: la matriz elevada al cuadrado va a ser la misma matriz sin elevarla.
Nota: su determinante va a valer 1 o 0
Obtenido de "http://es.wikipedia.org/wiki/Matriz_idempotente"

Matriz nilpotente

Una matriz external image 8e0fffeda8f465dffd596f2b9faa6ab4.png se dice nilpotente si existe external image 03fb00bac111ffad9dcbe228e73f28db.png tal que Nk = 0.
Si A es una matriz nilpotente entonces det(A)=0.

Demostración :

Si A es una matriz nilpotente de orden k, A^k=0. Por tanto det(A^k)=0, luego det(A)^k=0, y en consecuencia det(A)=0.
Obtenido de "http://es.wikipedia.org/wiki/Matriz_nilpotente"

Matriz involutiva

Una matriz involutiva es una matriz cuadrada (tiene igual número de filas que de columnas) tal que su cuadrado es igual a la matriz unidad, es decir:

A es involutiva si A x A = I
Por ejemplo, la siguiente matriz es involutiva:
external image 694407b56998f9b9ea91c1bb4718e35e.pngObtenido de "http://es.wikipedia.org/wiki/Matriz_involutiva"

Matriz conjugada

Una Matriz conjugada es el resultado de la sustitución de los elementos de una matriz A por sus conjugadas. Es decir, la parte imaginaria de los elementos de la matriz cambian su signo.

Ejemplo

Obtenido de "http://es.wikipedia.org/wiki/Matriz_conjugada"

Matriz hermitiana

Una matriz hermitiana (o hermítica) es una matriz cuadrada de elementos complejos que tiene la característica de ser igual a su propia traspuesta conjugada. Es decir, el elemento en la i-ésima fila y j-ésima columna es igual al conjugado del elemento en la j-ésima fila e i-ésima columna, para todos los índices i y j:
external image 00d2fa486795fe9b083bd8f1c7b1e6c6.png
o, escrita con la traspuesta conjugada A*:
external image 3ff19f92054084d5f363e9f3da9f6529.png
Por ejemplo,
external image 62c59b6563721eda4023ad15ecce65b5.png
es una matriz hermítica.

Propiedades

  1. Sea A = B + iC, donde A es hermitiana y B y C reales, entonces B es simétrica (B = Bt) y C antisimétrica (C = − Ct).
  2. La inversa de una matriz hermitiana es también hermitiana.
  3. En relación con la propiedad 3, los autovalores de estas matrices son reales.
  4. En una matriz hermitiana, los elementos de la diagonal principal son reales.
  5. La determinante de una matriz hermitiana es un número real.

Matriz antihermitiana

En algebra lineal, una Matriz antihermitiana es una matriz cuadrada cuya traspuesta conjugada es menos la matriz. Esto es si satisface a la relación:
A * = -A
o en su forma componente, si (A = ai,j):
external image 085b265ea1f38e78e14e271e22e22d30.png
Para todas las i y las j.

Ejemplo:

Por ejemplo, la siguiente matriz es una matriz antihermitiana:

external image 58d1bc851eac761ba57faf9f5e084493.png

Matriz normal

Sea A matriz compleja cuadrada, entonces es una matriz normal si y sólo si
A * A = AA *
donde A* es el conjugado transpuesto de A (también llamado hermitiano)

Ejemplos :

Esta matriz de orden 2 es normal. external image 92e522ff7d0018bac2905304063105e3.png
debido a que ..
external image 362fa690d52db4bf6aca6f0b4813cdbb.pngexternal image 8b5e5c3595961507afe696378a3bfe77.png

Matriz antisimétrica(Si desea vea el video, haciendo clic aqui)

Una matriz de nxm elementos:
external image 9918e1bd7ab288e8653cd40abb543874.png
es antisimétrica (o hemisimétrica), si es una matriz cuadrada (m = n) y aji = − aij para todo i, j =1,2,3,...,n. En consecuencia, aii = 0 para todo i. Por lo tanto, la matriz A asume la forma:
external image c7a63da22e348f9a3ff104e6dabcf717.png

EJEMPLO:
external image 5d9c8a0ff6f116855753fa09e2807346.png = external image 01ce69dbf3952ffbe741b34e714aaf45.png

La diagonal principal se conserva y todos los otros números son cambiados de signo al inverso.
Nótese que la matriz traspuesta de la matriz antisimetrica A es -A, y que la antisimetría es respecto a la diagonal principal.
Si n=m es impar el determinante de la matriz siempre sera 0.
Obtenido de "http://es.wikipedia.org/wiki/Matriz_antisim%C3%A9trica"

Matriz simétrica(Si desea vea el video, haciendo clic aqui)

Una matriz de external image 252d3754c0db62a55b9e25c870a524a5.png elementos:
external image 9918e1bd7ab288e8653cd40abb543874.png
es simétrica, si es una matriz cuadrada (m = n) y aij = aji para todo i, j =1,2,3,4,...,n. Nótese que la simetría es respecto a la diagonal principal y que A es también, la matriz traspuesta de sí misma; Por ejemplo: At = A.
Ejemplo, para n = 3:
external image e1fdd89a57621b5dd3df81cb097f5c47.png

Las matrices en la Computación

Las matrices son utilizadas ampliamente en la computación, por su facilidad y liviandad para manipular información. En este contexto, son la mejor forma para representar grafos, y son muy utilizadas en el cálculo numérico.

Vease también:

Mas información en el siguiente sitio: http://thales.cica.es/rd/Recursos/rd99/ed99-0289-02/ed99-0289-02.html