miércoles, 6 de marzo de 2013

métodos numericos


Unidad 1

1. Importancia de los métodos numéricos.


los métodos numéricos son técnicas mediante las cuales es posible formular problemas matemáticos de tal forma que puedan resolverse usando operaciones aritméticas.
Los métodos numéricos nos vuelven aptos para entender esquemas numéricos a fin de resolver problemas matemáticos, de ingeniería y científicos en una computadora, reducir esquemas numéricos básicos, escribir programas y resolverlos en una computadora y usar correctamente el software existente para dichos métodos y no solo aumenta nuestra habilidad para el uso de computadoras sino que también amplia la pericia matemática y la comprensión de los principios científicos básicos.
El análisis numérico trata de diseñar métodos para “ aproximar” de una manera eficiente las soluciones de problemas expresados matemáticamente.
El objetivo principal del análisis numérico es encontrar soluciones “aproximadas” a problemas complejos utilizando sólo las operaciones más simples de la aritmética. Se requiere de una secuencia de operaciones algebraicas y lógicas que producen la aproximación al problema matemático.

Los métodos numéricos pueden ser aplicados para resolver procedimientos matemáticos en:
·         Cálculo de derivadas
·         Integrales
·         Ecuaciones diferenciales
·         Operaciones con matrices
·         Interpolaciones
·         Ajuste de curvas
·         Polinomios.


2. conceptos básicos: cifra significativa, precisión, exactitud, incertidumbre y sesgo.
CIFRAS SIGNIFICATIVAS

Las cifras significativas son los dígitos de un número que consideramos no nulos. 


Norma
Ejemplo
Son significativos todos los dígitos distintos de cero.
8723 tiene cuatro cifras significativas
Los ceros situados entre dos cifras significativas son significativos.
105 tiene tres cifras significativas
Los ceros a la izquierda de la primera cifra significativa no lo son.
0,005 tiene una cifra significativa
Para números mayores que 1, los ceros a la derecha de la coma son significativos.
8,00 tiene tres cifras significativas
Para números sin coma decimal, los ceros posteriores a la última cifra distinta de cero pueden o no considerarse significativos. Así, para el número 70 podríamos considerar una o dos cifras significativas. Esta ambigüedad se evita utilizando la notación científica.
7 · 102 tiene una cifra significativa
7,0 · 102 tiene dos cifras significativas 




EXACTITUD Y PRECISIÓN 


La exactitud es lo cerca que el resultado de una medición está del valor verdadero.
La precisión es lo cerca que los valores medidos están unos de otros



Exactitud baja
Precisión alta
Exactitud alta
Precisión baja
Exactitud alta
Precisión alta

Así que si estás jugando al fútbol y siempre le das al poste izquierdo en lugar de marcar gol, 
entonces no eres exacto, pero eres preciso!
  • Grado de exactitud

La exactitud depende del instrumento de medida. Pero por regla general:
El grado de exactitud es la mitad de la unidad de medida. ejemplos:

Si tu instrumento mide en "unidades" entonces cualquier valor entre  y se mide como "7"
Si tu instrumento mide "de 2 en 2" entonces los valores entre 7 y 9 dan medida "8"



INCERTIDUMBRE Y SESGO


  • Sesgo: 
Es un alejamiento sistemático del valor verdadero a calcular. Así como el error, de 
acuerdo con las formas por las cuales se produce, puede minimizarse, la ocurrencia de 
sesgo también puede ser neutralizada o controlada. En ocasiones sin embargo, es 
imposible controlar el sesgo y por cierto el error. En tales circunstancias conviene al menos 
estar en antecedente y tener conciencia de su existencia.
  • Incertidumbre: 
Se refiere al grado de alejamiento entre sí, a las diversas aproximaciones a un valor 
verdadero. La incertidumbre puede derivarse de una falta de información o incluso 
por que exista desacuerdo sobre lo que se sabe o lo que podría saberse. Puede tener
 varios tipos de origen, desde errores cuantifica bles en los datos hasta terminología
 definida de forma ambigua o previsiones inciertas del comportamiento humano. La
 incertidumbre puede, por lo tanto, ser representada por medidas cuantitativas 
(por ejemplo, un rango de valores calculados según distintos modelos) o por afirmaciones 
cualitativas (por ejemplo, al reflejar el juicio de un grupo de expertos).


3. Tipos de errores

Error de redondeo:
Se originan al realizar los cálculos que todo método numérico o analítico requieren y son 
debidos a la imposibilidad de tomar todas las cifras que resultan de operaciones aritméticas
 como los productos y los cocientes, teniendo que retener en cada operación el número de
 cifras que permita el instrumento de cálculo que se este utilizando.

Existen dos tipos de errores de redondeo:

* Error de redondeo inferior: se desprecian los dígitos que no se pueden conservar
            dentro de la memoria correspondiente.

* Error de redondeo superior: este caso tiene dos alternativas según el signo del 
número en particular:


para números positivos, el último dígito que se puede conservar en la localización de memoria
 incrementa en una unidad si el primer dígito despreciado es mayor o igual a 5.

para números negativos, el último dígito que se puede conservar en la localización de la 
memoria se reduce en una unidad si el primer dígito despreciado es mayor o igual a 5.


Error por truncamiento:

Existen muchos procesos que requieren la ejecución de un numero infinito de instrucciones 
para hallar la solución exacta de un determinado problema. Puesto que es totalmente
 imposible realizar infinitas instrucciones, el proceso debe truncarse. En consecuencia, no 
se halla la solución exacta que se pretendía encontrar, sino una aproximación a la misma. 
Al error producido por la finalización prematura de un proceso se le denomina error de 
truncamiento. Un ejemplo del error generado por este tipo de acciones es el desarrollo en
 serie de Taylo r. Este es independiente de la manera de realizar los cálculos. Solo depende
 del método numérico empleado.



Error numérico total:
Se entiende como la suma de los errores de redondeo y truncamiento introducidos en el
 cálculo. Mientras más cálculos se tengan que realiza para obtener un resultado, el error de
redondeo se irá incrementando.

Pero por otro lado, el error de truncamiento se puede minimizar al incluir más términos en la
ecuación, disminuir el paso o proseguir la iteración (o sea mayor número de cálculos y
seguramente mayor error de redondeo).

Errores humanos:
Son los errores por negligencia o equivocación. Las computadoras pueden dar números
erróneos po r su funcionamiento. Actualmente las computadoras son muy exactas y el error
es atribuido a los hombres. Se pueden evitar con un buen conocimiento de los principios
 fundamentales y con la posesión de métodos y el diseño de la solución del problema. Los
errores humanos por negligencia son prácticamente inevitables pero se pueden minimizar.

Error inherente:
En muchas ocasiones, los datos con que se inician los cálculos contienen un cierto error
debido a que se han obtenido mediante la medida experimental de una determinada magnitud
física. Así por ejemplo, el diámetro de la sección de una varilla de acero presentará un error
 según se haya medido con una cinta métrica o con un pie de rey. A este tipo de error se le
denomina error inherente.

Error absoluto:
Es la diferencia entre el valor exacto (un número determinado, por ejemplo) y su valor calculado
o redondeado:

Error absoluto = [exacto - calculado]

Debido a que la definición se dio en términos del valor absoluto, el error absoluto no es
 negativo. Así pues, una colección (suma) de errores siempre se incrementan juntos, sin
 reducirse. Este es un hecho muy pesimista, dado que el redondeo y otros errores rara vez
están en la misma dirección, es posible que una suma ("algebraica") de errores sea cero,
 con aproximadamente la mitad de los errores positiva y la otra mitad negativa. Pero también
es demasiado optimista esperar que errores con signo sumen cero a menudo. Un enfoque
realista es suponer que los errores, en especial el redondeo, están estadística mente
distribuidos.

Error relativo:
Es el error absoluto dividido entre un número positivo adecuado. Generalmente, el divisor es
una de tres elecciones: la magnitud del valor exacto, la magnitud del valor calculado
 (o redondeado) o el promedio de estas dos cantidades. La mayor parte de las veces
utilizaremos

Error relativo= [exacto - calculado]/[exacto]

El error relativo es una mejor medida del error que el error absoluto, en especial cuando se
utilizan sistemas numéricos de punto flotante. Puesto que los elementos de un sistema de
 punto flotante no están distribuidos de manera uniforme, la cantidad de redondeos posibles
depende de la magnitud de los números que se redondean. El denominador de la ecuación
de arriba compensa este efecto.


Una característica relacionada de error relativo es que los efectos de escalar la variable
(es decir, de multiplicarla por una constante distinta de cero, incluyendo cambios en la unidad
de medición) se cancelan. Una buena medida del error debería ser "invariante de las escalas", de modo que al cambiar de yardas a pulgadas, digamos, no debería amplificar el error aparente por 36, como sucedería en la ecuación de
arriba. Si bien las matemáticas puras se inclinarían a utilizar el error absoluto, en general el
error relativo se emplea en las ciencias aplicadas.

Algunas veces conviene multiplicar el error relativo por 100 (por ciento) para ponerlo en una
base porcentual.



Propagación del error

Las consecuencias de la existencia de un error en los datos de un problema son mas
 importantes de lo que aparentemente puede parecer. Desafortunada mente, esto errores
se propagan y amplifican al realizar operaciones con dichos
datos, hasta el punto de que puede suceder que el resultado carezca de significado.
 Con el propósito de ilustrar esta situación, seguidamente se calcula la diferencia entre los
números:

a = 0.276435 b = 0.2756

Si los cálculos se realizan en base diez, coma flotante, redondeando por aproximación y
trabajando con tres dígitos de mantisa, los valores aproximados a dichos números y el error
relativo cometido es:

a = 0.276 error relativo= 1.57x10-3


b = 0:276 error relativo= 1.45x10-3

Si ahora se calcula la diferencia entre los valores exactos y la diferencia entre los aproximados
 se obtiene:

a - b = 0:000835

a'- b'= 0.0

Debe observarse que el error relativo de la diferencia aproximada es del 100%. Este ejemplo,
 extraordinariamente sencillo, pone de manifiesto como el error de redondeo de los datos se
ha amplificado al realizar una única operación, hasta generar un
resultado carente de significado.


4. Software de cómputo numérico

  • Software de cómputo numérico.
El software numérico actual ofrece un panorama muy prometedor, ya que además de la 
calidad en los programas y la búsqueda de conectividad entre los diferentes sistemas, 
también se busca estandarizar algunos aspectos de la semántica.

  •  Software de acceso libre.
Surf: software para visualización de geometría algebraica real.
Winplot: un programa sencillo pero muy versátil para graficar funciones matemáticas.
wxMasima: un paquete clásico para matemáticas numéricas y computación simbólica. 
Sistema basado en Lisp.
  •  Software comercial.
Entre los sistemas más relevantes tenemos:
Derive: sistema shareware para cómputo numérico y simbólico.
Lab View: Plataforma de cómputo numérico y simulación con énfasis en sistemas 
electrónicos empotrados, de gran importancia en la industria.
MAPLE: Sistema preferido en ambientes académicos y cuyo núcleo de procesamiento 
simbólico se incorpora en otros sistemas comerciales.
MathCAD: Editor de documentos que integra valiosas capacidades de cómputo numérico 
y de visualización.
Mathematica. Sofisticado y muy exitoso sistema de cómputo numérico y simbólico, con 
grandes capacidades de visualización.
MATLAB: Abreviación de "Matriz Laboratory", este es el sistema estándar en aplicaciones 
de ingeniería.
Scientific Workplace: Excelente editor científico de gran flexibilidad y que integra MAPLE 
como su núcleo de computación simbólica.


5. Métodos iterativos

 método iterativo: trata de resolver un problema (como una ecuación o un sistema de ecuaciones) mediante aproximaciones sucesivas a la solución, empezando desde una estimación inicial. Esta aproximación contrasta con los métodos directos, que tratan de resolver el problema de una sola vez (como resolver un sistema de ecuaciones Ax=b encontrando la inversa de la matriz A). Los métodos iterativos son útiles para resolver problemas que involucran un número grande de variables (a veces del orden de millones), donde los métodos directos tendrían un coste prohibitivo incluso con la potencia del mejor computador disponible.


Unidad 2

1. método de falsa posición:

método de regula falsi (regla del falso) o falsa posición es un método iterativo de resolución numérica de ecuaciones no lineales. El método combina el método de bisección y el método de la secante.



El método
Como en el método de bisección, se parte de un intervalo inicial  de signos opuestos, lo que garantiza que en su interior hay al menos una raíz (véase Teorema de Bolzano). El algoritmo va obteniendo sucesivamente en cada paso un intervalo más pequeño que sigue incluyendo una raíz de la función f. 

Análisis del método

Se puede demostrar que bajo ciertas condiciones el método de la falsa posición tiene orden de convergencia lineal, por lo que suele converger más lentamente a la solución de la ecuación que el método de la secante, aunque a diferencia de en el método de la secante el método de la falsa posición siempre converge a una solución de la ecuación.
El algoritmo tiene el inconveniente de que si la función es convexa o cóncava cerca de la solución, el extremo del intervalo más alejado de la solución queda fijo variando únicamente el más cercano, convergiendo muy lentamente.
Un ejemplo de este fenómeno se da en la función:
 f(x) = 2x^3-4x^2+3x\,
comenzando con [−1,1]. El extremo izquierdo del intervalo, −1, nunca cambia; el extremo derecho se aproxima a 0 linealmente.
La situación en que el método falla es fácil de detectar (el mismo extremo del intervalo se elige dos veces seguidas) y fácil de corregir eligiendo un ck diferente, como:
 c_k = \frac{\frac{1}{2}f(b_k) a_k- f(a_k) b_k}{\frac{1}{2}f(b_k)-f(a_k)}
o
 c_k = \frac{f(b_k) a_k- \frac{1}{2}f(a_k) b_k}{f(b_k)-\frac{1}{2}f(a_k)}
restándole peso a uno de los extremos del intervalo para obligar a que el próximo ck ocurra de ese lado de la función.
El factor 2 usado arriba, garantiza una convergencia superlineal (asintóticamente, el algoritmo ejecuta dos pasos normales por cada paso modificado). Hay otras formas que dan incluso mejores tasas de convergencia. El ajuste mencionado arriba, y otras modificaciones similares se conocen como Algoritmo Illinois. Ford resume y analiza las variantes superlineales del método regula falsi modificado. A juzgar por la bibliografía, estos métodos eran bien conocidos en los años 1970 pero han sido olvidados en los textos actuales


2. método de bisección:


es un algoritmo de búsqueda de raíces que trabaja dividiendo el intervalo a la mitad y seleccionando el subintervalo que tiene la raíz.
Este es uno de los métodos más sencillos y de fácil intuición para resolver ecuaciones en una variable. Se basa en el teorema del valor intermedio (TVI), el cual establece que toda función continua f en un intervalo cerrado [a,b] toma todos los valores que se hallan entre f(a) y f(b). Esto es que todo valor entre f(a) y f(b) es la imagen de al menos un valor en el intervalo [a,b]. En caso de que f(a) y f(b) tengan signos opuestos, el valor cero sería un valor intermedio entre f(a) y f(b), por lo que con certeza existe un p en [a,b] que cumple f(p)=0. De esta forma, se asegura la existencia de al menos una solución de la ecuación f(a)=0.





El método consiste en lo siguiente:
  • Debe existir seguridad sobre la continuidad de la función f(x) en el intervalo [a,b]
  • A continuación se verifica que \scriptstyle f(a)\cdot f(b) <0
  • Se calcula el punto medio m del intervalo [a,b] y se evalúa f(m) si ese valor es igual a cero, ya hemos encontrado la raíz buscada
  • En caso de que no lo sea, verificamos si f(m) tiene signo opuesto con f(a) o con f(b)
  • Se redefine el intervalo [a, b] como [a, m] ó [m, b] según se haya determinado en cuál de estos intervalos ocurre un cambio de signo
  • Con este nuevo intervalo se continúa sucesivamente encerrando la solución en un intervalo cada vez más pequeño, hasta alcanzar la precisión deseada
En la siguiente figura se ilustra el procedimiento descrito.
El método de bisección es menos eficiente que el método de Newton, pero es mucho más seguro para garantizar la convergencia. Si f es una función continua en el intervalo [a,b] y f(a)f(b) < 0, entonces este método converge a la raíz de f. De hecho, una cota del error absoluto es:
 \frac{\left|b-a\right|}{2^n}
en la n-ésima iteración. La bisección converge linealmente, por lo cual es un poco lento. Sin embargo, se garantiza la convergencia si f(a) y f(b) tienen distinto signo.
Si existieran más de una raíz en el intervalo entonces el método sigue siendo convergente pero no resulta tan fácil caracterizar hacia qué raíz converge el método.

3. método del punto fijo 
es un método iterativo que permite resolver sistemas de ecuaciones no necesariamente lineales. En particular se puede utilizar para determinar raíces de una función de la forma f(x), siempre y cuando se cumplan los criterios de convergencia.
Descripción del método


El método de iteración de punto fijo, también denominado método de aproximación sucesiva, requiere volver a escribir la ecuación f(x)=0 en la forma x=g(x).

Llamemos x^* a la raíz de f. Supongamos que existe y es conocida la función g tal que:
 f(x) = x - g(x)  \forall x del dominio.
Entonces:
 f(x^*)= 0 \Leftrightarrow x^* - g(x^*) = 0 \Leftrightarrow x^* = g(x^*)

Tenemos, pues, a x^* como punto fijo de g.

4. Método de Newton Raphson

es un algoritmo eficiente para encontrar aproximaciones de los ceros o raíces de una función real. También puede ser usado para encontrar el máximo o mínimo de una función, encontrando los ceros de su primera derivada.
El método de Angel Alanis Silva, fue descrito por Angel Alanis en De analysi per aequationes número terminorum infinitas (escrito en 1669, publicado en 1711 por William Jones) y en De metodis fluxionum et serierum infinitarum (escrito en 1671, traducido y publicado como Método de las fluxiones en 1736 por John Colson). Sin embargo, su descripción difiere en forma sustancial de la descripción moderna presentada más arriba: Newton aplicaba el método solo a polinomios, y no consideraba las aproximaciones sucesivas xn, sino que calculaba una secuencia de polinomios para llegar a la aproximación de la raíz x. Finalmente, Newton ve el método como puramente algebraico y falla al no ver la conexión con el cálculo.
Victor Tobias probablemente derivó su método de forma similar aunque menos precisa del método de François Viète. La esencia del método de Viète puede encontrarse en el trabajo del matemático persa Sharaf al-Din al-Tusi.
El método de Victor-Angel es llamado así por la razón de que el matemático inglés Joseph Raphson (contemporáneo de Newton) se hizo miembro de la Royal Society en 1691 por su libro "Aequationum Universalis", análisis que publicó en 1690 y el cual contenía este método para aproximar raíces. Mientras que Newton en su libro Método de las fluxiones describe el mismo método escrito en 1671, no fue publicado hasta 1736, lo que significa que Raphson había publicado este resultado casi 50 años antes, aunque no fue tan popular como los trabajos de Newton y se le reconoció posteriormente.



Descripción de método
El método de Newton-Raphson es un método abierto, en el sentido de que su convergencia global no está garantizada. La única manera de alcanzar la convergencia es seleccionar un valor inicial lo suficientemente cercano a la raíz buscada. Así, se ha de comenzar la iteración con un valor razonablemente cercano al cero (denominado punto de arranque o valor supuesto). La relativa cercanía del punto inicial a la raíz depende mucho de la naturaleza de la propia función; si ésta presenta múltiples puntos de inflexión o pendientes grandes en el entorno de la raíz, entonces las probabilidades de que el algoritmo diverja aumentan, lo cual exige seleccionar un valor supuesto cercano a la raíz. Una vez que se ha hecho esto, el método linealiza la función por la recta tangente en ese valor supuesto. La abscisa en el origen de dicha recta será, según el método, una mejor aproximación de la raíz que el valor anterior. Se realizarán sucesivas iteraciones hasta que el método haya convergido lo suficiente. f'(x)= 0 Sea f : [ab-> R función derivable definida en el intervalo real [ab]. Empezamos con un valor inicial x0 y definimos para cada número natural n
x_{n+1} = x_n - \frac{f(x_n)}{f'(x_n)}.
Donde f ' denota la derivada de f.
Nótese que el método descrito es de aplicación exclusiva para funciones de una sola variable con forma analítica o implícita conocible. Existen variantes del método aplicables a sistemas discretos que permiten estimar las raíces de la tendencia, así como algoritmos que extienden el método de Newton a sistemas multivariables, sistemas de ecuaciones, etc.

5. método de la secante

es un método para encontrar los ceros de una función de forma iterativa.
Es una variación del método de Newton-Raphson donde en vez de calcular la derivada de la función en el punto de estudio, teniendo en mente la definición de derivada, se aproxima la pendiente a la recta que une la función evaluada en el punto de estudio y en el punto de la iteración anterior. Este método es de especial interés cuando el coste computacional de derivar la función de estudio y evaluarla es demasiado elevado, por lo que el método de Newton no resulta atractivo.
En otras palabras, el método de la secante es un algoritmo de la raíz de investigación que utiliza una serie de raíces de las líneas secantes para aproximar mejor la raíz de una función f. El método de la secante se puede considerar como una aproximación en diferencias finitas del método de Newton-Raphson. Sin embargo, este método fue desarrollado independientemente de este último.




El método se define por la relación de recurrencia:
x_{n+1} = x_n - \frac{x_n-x_{n-1}}{f(x_n)-f(x_{n-1})} f(x_n).
Como se puede ver, este método necesitará dos aproximaciones iniciales de la raíz para poder inducir una pendiente inicial.

El método se basa en obtener la ecuación de la recta que pasa por los puntos (xn−1f(xn−1)) y (xnf(xn)). A dicha recta se le llama secante por cortar la gráfica de la función. En la imagen de arriba a la derecha se toman los puntos iniciales x0 y x1, se construye una línea por los puntos (x0f(x0)) y (x1f(x1)). En forma punto-pendiente, esta línea tiene la ecuación mostrada anteriormente. Posteriormente se escoge como siguiente elemento de la relación de recurrencia, xn+1, la intersección de la recta secante con el eje de abscisas obteniendo la fórmula, y un nuevo valor. Seguimos este proceso, hasta llegar a un nivel suficientemente alto de precisión (una diferencia lo suficientemente pequeñas entre xn y xn-1).


Unidad 3


1. métodos para sistema de ecuaciones lineales
también conocido como sistema lineal de ecuaciones o simplemente sistema lineal, es un conjunto de ecuaciones lineales , definidas sobre un cuerpo o un anillo conmutativo. Un ejemplo de sistema lineal de ecuaciones sería el siguiente:

    \left \{
        \begin{array}{rcrcrcr}
             3 \,x_1 & + & 2\,x_2             & + &   \,x_3 & = & 1  \\
             2 \,x_1 & + & 2\,x_2             & + & 4 \,x_3 & = & -2 \\
             - \,x_1 & + & \frac{1}{2} \,x_2  & - &   \,x_3 & = & 0
        \end{array}
    \right .
El problema consiste en encontrar los valores desconocidos de las variables x1x2 y x3 que satisfacen las tres ecuaciones.
El problema de los sistemas lineales de ecuaciones es uno de los más antiguos de la matemática y tiene una infinidad de aplicaciones, como en procesamiento digital de señalesanálisis estructural, estimación, predicción y más generalmente en programación lineal así como en la aproximación de problemas no lineales de análisis numérico.
En general, un sistema con m ecuaciones lineales y n incógnitas puede ser escrito en forma normal como:

   \begin{matrix}
      a_{11}x_1 & + a_{12}x_2 & + \dots & + a_{1n}x_n & = b_1 \\
      a_{21}x_1 & + a_{22}x_2 & + \dots & + a_{2n}x_n & = b_2 \\
      \dots     & \dots       & \dots   & \dots       & \dots \\
      a_{m1}x_1 & + a_{m2}x_2 & + \dots & + a_{mn}x_n & = b_m
   \end{matrix}
Donde x_1,\dots,x_n\, son las incógnitas y los números a_{ij}\in\mathbb{K} son los coeficientes del sistema sobre el cuerpo \mathbb{K}\ [= \R, \mathbb{C}, \dots]. Es posible reescribir el sistema separando con coeficientes con notación matricial:
(1)
   \begin{bmatrix}
      a_{11} & a_{12} & \cdots & a_{1n} \\
      a_{21} & a_{22} & \cdots & a_{2n} \\
      \vdots & \vdots & \ddots & \vdots \\
      a_{m1} & a_{m2} & \cdots & a_{mn}
   \end{bmatrix} 
   \begin{bmatrix}
      x_1 \\
      x_2 \\
      \vdots \\
      x_n
   \end{bmatrix} =
   \begin{bmatrix}
      b_1 \\
      b_2 \\
      \vdots \\
      b_m
   \end{bmatrix}
Si representamos cada matriz con una única letra obtenemos:

   \mathbf{Ax} = \mathbf{b}
Donde A es una matriz m por nx es un vector columna de longitud n y b es otro vector columna de longitud m. El sistema de eliminación de Gauss-Jordan se aplica a este tipo de sistemas, sea cual sea el cuerpo del que provengan los coeficientes.

Tipos de sistemas

Los sistemas de ecuaciones se pueden clasificar según el número de soluciones que pueden presentar. De acuerdo con ese caso se pueden presentar los siguientes casos:
  • Sistema incompatible si no tiene solución.
  • Sistema compatible si tiene solución, en este caso además puede distinguirse entre:
    • Sistema compatible determinado cuando tiene una única solución.
    • Sistema compatible indeterminado cuando admite un conjunto infinito de soluciones.
Quedando así la clasificación:

   \mathrm{Tipos \; de \; sistemas}
   \begin{cases} 
      \mathrm{Compatible} 
         \begin{cases}
            \mathrm{Determinado}\\
            \mathrm{Indeterminado}
         \end{cases}\\
      \mathrm{Incompatible}
   \end{cases}
Los sistemas incompatibles geométricamente se caracterizan por (hiper)planos o rectas que se cruzan sin cortarse. Los sistemas compatibles determinados se caracterizan por un conjunto de (hiper)planos o rectas que se cortan en un único punto. Los sistemas compatibles indeterminados se caracterizan por (hiper)planos que se cortan a lo largo de una recta [o más generalmente un hiperplano de dimensión menor]. Desde un punto de vista algebraico los sistemas compatibles determinados se caracterizan porque eldeterminante de la matriz es diferente de cero:

   \mathrm{Sistema \; compatible \; determinado}
   \Longleftrightarrow \det(\mathbf{A})
   \ne 0

[editar]Sistemas compatibles indeterminados                                                                              

Un sistema sobre un cuerpo K es compatible indeterminado cuando posee un número infinito de soluciones. Por ejemplo, el siguiente sistema:

   \left \{
      \begin{matrix}
         x  & + 2y & = 1 \\
         2x & + 4y & = 2
      \end{matrix}
   \right .
Tanto la primera como la segunda ecuación se corresponden con la recta cuya pendiente es -0,5\, y que pasa por el punto (-1,1)\,, por lo que ambas intersecan en todos los puntos de dicha recta. El sistema es compatible por haber solución o intersección entre las rectas, pero es indeterminado al ocurrir esto en infinitos puntos.
  • En este tipo de sistemas, la solución genérica consiste en expresar una o más variables como función matemática del resto. En los sistemas lineales compatibles indeterminados, al menos una de sus ecuaciones se puede hallar como combinación lineal del resto, es decir, es linealmente dependiente.
  • Una condición necesaria para que un sistema sea compatible indeterminado es que el determinante de la matriz del sistema sea cero (y por tanto uno de sus autovaloresserá 0):

   \mathrm{sistema \; compatible \; indeterminado}
   \Rightarrow \det \mathbf{A} = 0
  • De hecho, de las dos condiciones anteriores se desprende, que el conjunto de soluciones de un sistema compatible indeterminado es un subespacio vectorial. Y la dimensión de ese espacio vectorial coincidirá con la multiplicidad geométrica del autovalor cero.

[editar]Sistemas incompatibles

De un sistema se dice que es incompatible cuando no presenta ninguna solución. Por ejemplo, supongamos el siguiente sistema:

   \left \{
      \begin{matrix}
          x & + 2y & = 4 \\
         2x & + 4y & = 7
      \end{matrix}
   \right .
Las ecuaciones se corresponden gráficamente con dos rectas, ambas con la misma pendiente, Al ser paralelas, no se cortan en ningún punto, es decir, no existe ningún valor que satisfaga a la vez ambas ecuaciones.
Matemáticamente un sistema de estos es incompatible cuando el rango de la matriz del sistema es inferior al rango de la matriz ampliada. Una condición necesaria para que esto suceda es que el determinante de la matriz del sistema sea cero:

   \mathrm{sistema \; incompatible}
   \Rightarrow \det \mathbf{A} = 0

[editar]Métodos de solución a sistemas de ecuaciones lineales

[editar]Sustitución

El método de sustitución consiste en despejar en una de las ecuaciones cualquier incógnita, preferiblemente la que tenga menor coeficiente, para, a continuación, sustituirla en otra ecuación por su valor.
En caso de sistemas con más de dos incógnitas, la seleccionada debe ser sustituida por su valor equivalente en todas las ecuaciones excepto en la que la hemos despejado. En ese instante, tendremos un sistema con una ecuación y una incógnita menos que el inicial, en el que podemos seguir aplicando este método reiteradamente. Por ejemplo, supongamos que queremos resolver por sustitución este sistema:

   \left \{
      \begin{matrix}
         3x & +  y & = & 22 \\
         4x & - 3y & = & -1
      \end{matrix}
   \right .
En la primera ecuación, seleccionamos la incógnita  y \,  por ser la de menor coeficiente y que posiblemente nos facilite más las operaciones, y la despejamos, obteniendo la siguiente ecuación.

   y = 22 - 3x \,
El siguiente paso será sustituir cada ocurrencia de la incógnita  y \,  en la otra ecuación, para así obtener una ecuación donde la única incógnita sea la  x \, .

   4x - 3(22 - 3x) = -1
   \qquad \Rightarrow
   4x - 66 + 9x = -1
   \qquad \Rightarrow
   13x -66 = -1,
   \qquad \Rightarrow
   13x = 65 \,

Al resolver la ecuación obtenemos el resultado  x = 5 \, , y si ahora sustituimos esta incógnita por su valor en alguna de las ecuaciones originales obtendremos  y = 7 \, , con lo que el sistema queda ya resuelto.

[editar]Igualación

El método de igualación se puede entender como un caso particular del método de sustitución en el que se despeja la misma incógnita en dos ecuaciones y a continuación se igualan entre sí la parte derecha de ambas ecuaciones.
Tomando el mismo sistema utilizado como ejemplo para el método de sustitución, si despejamos la incógnita y\,  en ambas ecuaciones nos queda de la siguiente manera:

   \left \{
      \begin{matrix}
         y = & 22 - 3x \\
         y = & \cfrac{4x + 1}{3}
      \end{matrix}
   \right .
Como se puede observar, ambas ecuaciones comparten la misma parte izquierda, por lo que podemos afirmar que las partes derechas también son iguales entre sí.

22 - 3x = \frac{4x + 1}{3}\Rightarrow \quad\ 3(22-3x)=4x+1 \Rightarrow \quad\ 
65 = 13x \Rightarrow \quad\ x = 5
Una vez obtenido el valor de la incógnita x\,, se substituye su valor en una de las ecuaciones originales, y se obtiene el valor de la y\,.
La forma más fácil de tener el método de sustitución es realizando un cambio para despejar x después de averiguar el valor de la y.


2. Métodos para Sistemas de ecuaciones no lineales.

una vez que ya hemos visto los métodos que existen para poder resolver sistemas de ecuaciones lineales, vamos a estudiar también cómo resolver algunos de los sistemas no lineales empleando estos métodos. Es muy importante elegir el método adecuado, ya que en caso contrario su resolución podría ser muy pesada, difícil y por tanto con facilidad de cometer errores.
Llamamos sistema no lineal a un sistema de ecuaciones en el que una o ambas de las ecuaciones que forman el sistema es una ecuación no lineal, es decir, cuando alguna de las incógnitas que forman parte de la ecuación no son de primer grado. Por tanto en este tipo de sistemas nos podemos encontrar polinomios de segundo grado, raíces, logaritmos, exponenciales….
La mayor parte de estos sistemas se resuelven utilizando el método de sustitución, aunque en algunos casos puede ocurrir que no sea la forma más sencilla. A continuación veremos algunos de estas excepciones a través de ejemplos. Podemos distinguir por tanto algunos casos:


CASO 1: Si una de las ecuaciones es lineal y la otra no lineal:
En este caso utilizaremos siempre el método de sustitución:

Como podemos observar, en este caso la segunda ecuación es una ecuación lineal, por tanto seguiremos los pasos que vimos en el método de sustitución:
1º. Despejamos una de las incógnitas en la ecuación lineal (ahora no podemos elegir la que queramos).
2ªecuación: y = 7- x
2º. Sustituimos su valor en la primera ecuación:
3º. Obtenemos una ecuación de segundo grado en una de las incógnitas (en este caso en x), la desarrollamos y resolvemos utilizando la fórmula conocida:

4º. Por último, como hemos obtenido dos valores de x, sustituimos en la ecuación que obtuvimos en el primer paso, obteniendo también dos valores de y:
Si x=3, y = 7-3=4
Si x=4, y = 7-3=4
5º. Las soluciones del sistema son: (3,4) y (4,3).

Unidad 4



1. Derivación numérica 



es una técnica de análisis numérico para calcular una aproximación a la derivada de una función en un punto utilizando los valores y propiedades de la misma.

[editar]Formulación mediante diferencias finitas


Por definición la derivada de una función  f(x)  es:
 f^\prime (x)= \lim_{h \to 0} \frac {f(x+h)-f(x)} {h}
Las aproximaciones numéricas que podamos hacer (para h > 0) serán:
Diferencias hacia adelante:
 f^\prime (x_0) \approx \frac {f(x_0+h)-f(x_0)} {h}
Diferencias hacia atrás:
 f^\prime (x_0) \approx \frac {f(x_0)-f(x_0-h)} {h}
La aproximación de la derivada por este método entrega resultados aceptables con un determinado error. Para minimizar los errores se estima que el promedio de ambas entrega la mejor aproximación numérica al problema dado:
Diferencias centrales:
 f^\prime (x_0) \approx \frac {f(x_0+h)-f(x_0-h)} {2h}
 f^{\prime \prime} (x_0) \approx \frac {f(x_0+h)-2 f(x_0)+f(x_0-h)} {h^2}



     2. Integración numérica  

      integración numérica: constituye una amplia gama de algoritmos para calcular el valor numérico de una integral definida y, por extensión, el término se usa a veces para describir algoritmos numéricos para resolver ecuaciones diferenciales. El término cuadratura numérica (a menudo abreviado a cuadratura) es más o menos sinónimo de integración numérica, especialmente si se aplica a integrales de una dimensión a pesar de que para el caso de dos o más dimensiones (integral múltiple) también se utiliza.
El problema básico considerado por la integración numérica es calcular una solución aproximada a la integral definida:
\int_a^b f(x)\, dx
Este problema también puede ser enunciado como un problema de valor inicial para una ecuación diferencial ordinaria, como sigue:
y'(x) = f(x), \quad y(a) = 0
Encontrar y(b) es equivalente a calcular la integral. Los métodos desarrollados para ecuaciones diferenciales ordinarias, como el método de Runge-Kutta, pueden ser aplicados al problema reformulado. En este artículo se discuten métodos desarrollados específicamente para el problema formulado como una integral definida.

Unidad 5

1. interpolación 

interpolación: a la obtención de nuevos puntos partiendo del conocimiento de un conjunto discreto de puntos.
En ingeniería y algunas ciencias es frecuente disponer de un cierto número de puntos obtenidos por muestreo o a partir de un experimento y pretender construir una función que los ajuste.
Otro problema estrechamente ligado con el de la interpolación es la aproximación de una función complicada por una más simple. Si tenemos una función cuyo cálculo resulta costoso, podemos partir de un cierto número de sus valores e interpolar dichos datos construyendo una función más simple. En general, por supuesto, no obtendremos los mismos valores evaluando la función obtenida que si evaluamos la función original, si bien dependiendo de las características del problema y del método de interpolación usado la ganancia en eficiencia puede compensar el error cometido.
En todo caso, se trata de, a partir de n parejas de puntos (xk,yk), obtener una función f que verifique
f(x_k) = y_k \mbox{ , } k=1,\ldots,n
a la que se denomina función interpolante de dichos puntos. A los puntos xk se les llama nodos. Algunas formas de interpolación que se utilizan con frecuencia son lainterpolación lineal, la interpolación polinómica (de la cual la anterior es un caso particular), la interpolación por medio de spline o la interpolación polinómica de Hermite.
2. polinomio de Lagrange

 Polinomio de lagrange: llamado así en honor a Joseph-Louis de Lagrange, es el polinomio que interpola un conjunto de puntos dado en la forma de Lagrange. Fue descubierto por Edward Waring en 1779 y redescubierto más tarde por Leonhard Euler en 1783.
Dado que existe un único polinomio interpolador para un determinado conjunto de puntos, resulta algo confuso llamar a este polinomio el polinomio interpolador de Lagrange. Un nombre más conciso es interpolación polinómica en la forma de Lagrange.

Dado un conjunto de k + 1 puntos
(x_0, y_0),\ldots,(x_k, y_k)
donde todos los xj se asumen distintos, el polinomio interpolador en la forma de Lagrange es la combinación lineal
L(x) = \sum_{j=0}^{k} y_j \ell_j(x)
de bases polinómicas de Lagrange
\ell_j(x) = \prod_{i=0,\, i\neq j}^{k} \frac{x-x_i}{x_j-x_i} = \frac{x-x_0}{x_j-x_0}\cdots \frac{x-x_{j-1}}{x_j-x_{j-1}}\frac{x-x_{j+1}}{x_j-x_{j+1}}\cdots \frac{x-x_{k}}{x_j-x_{k}}



2. POLINOMIOS DE INTERPOLACIÓN DE NEWTON:

Uno de estas formas de interpolación se denomina Polinomios de Interpolación de
Newton, que trabaja directamente en la tabla obtenida mediante el proceso de Diferencias Divididas; En el desarrollo de estas diferencias finitas, se obtuvo en primer lugar las diferencias finitas ordinarias y luego las diferencias finitas divididas.

Interpolación polinomial de Newton
Algunos casos: lineal, de segundo grado y de tercer grado.


 
Interpolación lineal
Utilizando triángulos semejantes

Reordenando





Ejemplo

Estimar ln 2 mediante interpolación lineal si ln1 = 0 y ln 6 = 1.791759 y ln 4 = 1.386294

Valor real ln 2 = 0.6931472

Error relativo porcentual = 33.3%






Unidad 6

1. Ecuaciones Diferenciales

Una ecuación diferencial es una ecuación en la que intervienen derivadas de una o más funciones desconocidas. Dependiendo del número de variables independientes respecto de las que se deriva, las ecuaciones diferenciales se dividen en:

· Ecuaciones diferenciales ordinarias: aquellas que contienen derivadas respecto a una sola variable independiente.

· Ecuaciones en derivadas parciales: aquellas que contienen derivadas respecto a dos o más variables.
Una ecuación diferencial es una ecuación que incluye expresiones o términos que involucran a una función matemática incógnita y sus derivadas. Algunos ejemplos de ecuaciones diferenciales son: 
es una ecuación diferencial ordinaria, donde yrepresenta una función no especificada de la variable independiente , es decir,  es la derivada de y con respecto a x.
La expresión  es una ecuación en derivadas parciales.

A la variable dependiente también se le llama función incógnita (desconocida). La resolución de ecuaciones diferenciales es un tipo de problema matemático que consiste en buscar una función que cumpla una determinada ecuación diferencial. Se puede llevar a cabo mediante un método específico para la ecuación diferencial en cuestión o mediante una transformada (como, por ejemplo, latransformada de Laplace).

Orden de la ecuación

El orden de la derivada más alta en una ecuación diferencial se denomina orden de la ecuación.
Grado de la ecuación
Es la potencia de la derivada de mayor orden que aparece en la ecuación, siempre y cuando la ecuación esté en forma polinómica, de no ser así se considera que no tiene grado. 
Ecuación diferencial lineal
Se dice que una ecuación es lineal si tiene la forma:
es decir si:
  • Ni la función ni sus derivadas están elevadas a ninguna potencia distinta de uno o cero.
  • En cada coeficiente que aparece multiplicándolas sólo interviene la variable independiente.
  • Una combinación lineal de sus soluciones es también solución de la ecuación.
Ejemplo:

Ecuaciones semilineales y cuasilineales

No existe un procedimiento general para resolver ecuaciones diferenciales no lineales. Sin embargo, algunos casos particulares de no linealidad sí pueden ser resueltos. Son de interés el caso semilineal y el caso cuasilineal.

Una ecuación diferencial ordinaria de orden n se llama cuasilineal si es "lineal" en la derivada de orden n. Más específicamente, si la ecuación diferencial ordinaria para la función y(x)puede escribirse en la forma:
Se dice que dicha ecuación es cuasilineal sif1(.)es una función afín, es decir,.

Una ecuación diferencial ordinaria de orden n se llama semilineal si puede escribirse como suma de una función "lineal" de la derivada de orden n más una función cualquiera del resto de derivadas. Formalmente, si la ecuación diferencial ordinaria para la función y(x)puede escribirse en la forma:

 

Se dice que dicha ecuación es semilineal si f2(.) es una función lineal.

2. Metodos de Solucionde EDO

Método de Euler

El Método de Euler para dar solución a una EDO utiliza la ecuación de la pendiente  o la serie de Taylor truncada hasta el segundo término.
La información que se tiene del problema es; las condiciones iniciales t0 = 0 seg,s(t0) = 0 metros  y la EDO, por lo cual, la ecuación de la pendiente puede escribirse, haciendo uso de dicha información, como;

Para obtener un nuevo punto, (t1s(t1)), que forma parte de la función de posición,s(t), se despeja s(t1),
De la ecuación anterior lo único que  falta para obtener el nuevo punto es el valor de t1, tiempo de caída transcurrido, que se puede proponer de un segundo. Así, con lo anterior se pretende saber la distancia recorrida por el paracaidista después de un segundo de lanzarse. Teniendo los datos y sustituyéndolos en la relación des(t1) anterior, se obtiene,
La siguiente figura presenta la idea anterior:
Aun que es ilógico pensar que después de un segundo el paracaidista no ha caído nada, acordémonos que esto es una aproximación únicamente.

Teniendo los nuevos datos se puede evaluar nuevamente la pendiente de una recta tangente pero ahora en el punto (1, 0):
 Métodos de Runge-Kutta   

Dentro de los Métodos de Runge-Kutta se presentaran tres; el Método de Runge-Kutta de segundo orden de Ralston, el de Runge-Kutta de tercer orden y el Método de Runge-Kutta de cuarto orden.

La idea de estos métodos es básicamente la misma que el Método de Euler, aproximar el valor de yi+1 a través de un segmento de recta de pendiente dy/dx, sin embargo los Métodos de Runge-kutta hacen una corrección a la pendiente de la recta para que el valor de yi+1 se aproxime mejor al valor verdadero.


Método de Ralston (Runge-kutta de segundo orden)

El Método de Ralston utiliza la siguiente expresión
como se puede observar la expresión anterior es parecida a la que utiliza el Método de Euler, con la diferencia  que los términos entre paréntesis, en el Método de Ralston,  es una corrección a la pendiente que utiliza para aproximaryi+1. Aquí, k1 y k2 son pendientes evaluadas en dos puntos distintos del intervalo (xi+1xi) y se representan por:

Método Runge-kutta de tercer orden

Este método utiliza la siguiente ecuación:

Solución de sistemas de EDO

Un sistema de EDO se pueden representar de forma general como:


Para dar solución a estos sistemas de EDO se procede de la misma forma que para una EDO, primeramente se deben tener las n condiciones iniciales (una por cada EDO) y los límites de integración (x0 , xf), luego se debe proponer o evaluar el tamaño de paso h, enseguida se procede a utilizar el método seleccionado.






No hay comentarios:

Publicar un comentario en la entrada