LEER EL ARCHIVO Y ENTENDER CADA CONCEPTO
REVISAR EL EJEMPLO Y GENERAR 5 EJEMPLOS
1.1 . Importancia de los métodos numéricos.
Los métodos numéricos son técnicas mediante las
cuales es posible formular problemas de tal forma que sean resueltas con
operaciones aritméticas, Aunque hay muchos tipos de métodos numéricos todos
comparten una característica común, llevan cabo un buen número de tediosos
cálculos aritméticos.
·
STEVEN
C.CHAPRA, RAYMOND P. CANALE, Métodos Numéricos para Ingenieros con Aplicaciones
en Computadoras Personales, Edit. McGraw Hill, México, S.A de C.V.,
1987. PAG. 1
El objetivo principal del
análisis numérico es encontrar soluciones “aproximadas” a problemas complejos
utilizando sólo las operaciones más simples de la aritmética. Se requiere de
una secuencia de operaciones algebraicas y lógicas que producen la aproximación
al problema matemático.
Los métodos numéricos nos vuelven
aptos para entender esquemas numéricos a fin de resolver problemas matemáticos,
de ingeniería y científicos en una computadora, reducir esquemas numéricos
básicos, escribir programas y resolverlos en una computadora y usar
correctamente el software existente para dichos métodos y no solo aumenta
nuestra habilidad para el uso de computadoras sino que también amplia la
pericia matemática y la comprensi6n de los principios científicos básicos.
·
NAKAMURA,
Schoichiro, Métodos Numéricos Aplicados con Software, Edit. Prentice
Hall, México, 1992. PREFACIO..
Los métodos numéricos pueden ser aplicados para resolver
procedimientos matemáticos en:
· Cálculo
de derivadas
· Integrales
· Ecuaciones
diferenciales
· Operaciones
con matrices
· Interpolaciones
· Ajuste
de curvas
· Polinomios
1.2
Conceptos básicos: cifra significativa, precisión, exactitud, incertidumbre y
sesgo.
Cifra
significativa:
Podemos definir como aquella
que aporta información no ambigua ni superflua acerca de una determinada medida
experimental, son cifras significativas de un numero vienen determinadas por su
error. Son cifras que ocupan una posición igual o superior al orden o posición
de error.
1.- Los métodos numéricos obtienen resultados
aproximados. Por lo tanto, se debe desarrollar criterios para especificar que
tan precisos son los resultados obtenidos.
2.- Aunque ciertos números representan número
específicos, no se pueden expresar exactamente con un número finito de cifras.
Reglas de operaciones con cifras significativas.
Regla 1: los resultados experimentales se expresan con
una sola cifra dudosa, e indicando con + - la incertidumbre en la medida.
Regla 2: las cifras significativas se cuentan de
izquierda a derecha, a partir del primer dígito diferente de cero y
hasta el digito dudoso.
Regla 3: al sumar o restar dos números decimales, el
numero de cifras decimales del resultado es igual al de la cantidad con el
menor número de ellas.
Regla 4: al multiplicar o dividir dos números, el numero
de cifras significativas del resultado es igual al del factor con menos cifras.
Ejemplo:
-Valor
de Pi.
Precisión
y exactitud:
En ingeniería, ciencia, industria, estadística, exactitud
y precisión no son equivalentes. Es importante resaltar que la
automatización de diferentes pruebas o técnicas puede producir un aumento de la
precisión. Esto se debe a que con dicha automatización, lo que logramos es una
disminución de los errores manuales o su corrección inmediata.
Precisión: se refiere a
la dispersión del conjunto de valores obtenidos de mediciones repetidas de una
magnitud.
Exactitud: se refiere a
cuán cerca del valor real se encuentra el valor medido. En términos
estadísticos, la exactitud está relacionada con el sesgo de una
estimación. Cuanto menor es el sesgo más exacto es una estimación.
La precisión se refiere a
qué tan cercanos se encuentran, unos de otros, diversos valores calculados o
medidos
Cuando expresamos la exactitud de un resultado se expresa
mediante el error absoluto que es la diferencia entre el valor experimental y
el valor verdadero.
Precisión Numérica se refiere al
valor real con una cierta cantidad de dígitos que representan al valor.
≈
Exactitud Numérica se refiere al
valor real con todo los dígitos que representan al valor.
Incertidumbre:
Incertidumbre también se le
conoce como Imprecisión. Se refiere al grado de alejamiento entre sí, a las
diversas aproximaciones a un valor verdadero.
Situación bajo la cual se desconocen las probabilidades
de ocurrencia asociados a los diferentes resultados de un determinado
evento.
El error respecto del valor promedio.
EJEMPLO;
Supongamos que en una medición el resultado final ha proporcionado un valor
a=10.4, con una incertidumbre δa=0.4. Escribimos: a =10.6 ± 0.4 Si suponemos
que la incertidumbre tiene un comportamiento gaussiano el resultado indica que
(como ya veremos) el valor que estamos midiendo: tiene una probabilidad del 95%
de estar entre 9.8 y 11.4 (a 2 desviaciones típicas)
Sesgo:
Existe sesgo cuando la
ocurrencia de un error no aparece como un hecho aleatorio (al azar)
advirtiéndose que este ocurre en forma sistemática
Es un alejamiento sistemático del valor verdadero a
calcular.
1.3
Tipos de errores.
Todos los resultados de la aplicación de métodos
numéricos van acompañados de un error que es conveniente estimar.
Es conveniente tener
presente en todo momento cuáles son las fuentes de los errores, lo que puede
ser una ayuda definitiva a la hora de resolver eventuales problemas prácticos,
si bien es cierto que éstas actúan siempre juntas, haciendo muy difícil el
conocimiento detallado de la contribución de cada una en cada caso.
Los errores numéricos surgen
del uso de aproximaciones para representar operaciones y cantidades matemáticas
exactas.
Son tres que dan lugar a una clasificación de los errores
de acuerdo con ellas:
· Inherentes.
Asociado a la precisión de
los datos de imputa. (P. Ej. El uso de 0.333333 en lugar de 1/3.)
· Truncamiento.
Asociado a la substitución de procesos infinitos por
procesos finitos, tales como el truncamiento de series, el uso se sumas
limitadas para el cálculo de integrales o el uso de diferencias finitas para el
cálculo de derivadas. Los errores de truncamiento causan inexactitud de los
resultados.
Cuando se comparan unos métodos numéricos con
otros suelen estudiarse algunas propiedades asociadas con los errores, en estos
casos es al error de truncamiento al que se refiere, exponente, que
se expresa en función de algún parámetro conveniente, h, que tiende
a 0 (o a infinito ) cuando el error es nulo.
Es frecuente comparar:
Convergencia:
· Redondeo.
Asociado a la precisión limitada con la que se realizan
las operaciones (cifras significativas). Su mayor peligro radica en su
tendencia a acumularse.
CLASIFICACIÓN DE LOS ERRORES
Son aquellos errores cometidos por la persona al tomar
los datos de lecturas de instrumentos de medición, al pasar éstos datos a la computadora
o bien por verdaderas equivocaciones por el manejo de los datos.
Es aquel tipo de error en donde el número significativo
de dígitos después del punto decimal se ajusta a un número específico
provocando con ello un ajuste en el último dígito que se toma en cuenta.
ERRORES
POR TRUNCAMIENTO.
Para llevar a cabo operaciones de algunas funciones
matemáticas los compiladores ejecutan estas funciones utilizando series
infinitas de términos, pero es difícil llevar a cabo estos cálculos hasta el
infinito, por lo tanto la serie tendrá que ser truncada.
__
Donde
X = cantidad verdadera
__
X = cantidad aproximada
__
Ex = |X – X |
El error absoluto de una cantidad es igual al valor
absoluto de la diferencia entre la cantidad absoluta y su aproximación incluye
sus unidades fisicas.
El error relativo de una cantidad cualquiera es
igual al cociente de el error absoluto entre la cantidad verdadera,
generalmente expresado como porcentaje ya que no tiene unidades.
__
Erx = Ex
/ X @ Ex / X
Dos cantidades al ser medidas nos dan los siguientes
resultados:
Error
absoluto error
relativo
A = ( 100 + 1
)m Ea
=
1m Era
= Ea = 1m = 0.01 = 1%
X 100m
B = ( 8 + 0.8
)ft Eb
= 0.8ft Erb
= Eb = 0.8ft = 0.1 = 10%