lunes, 30 de junio de 2008

SERIES DE TIEMPO O TEMPORALES

En estadística, procesamiento de señales, y econometría, una serie temporal es una secuencia de puntos de datos, medidos típicamente a intervalos de tiempo sucesivos , y espaciados (con frecuencia) de forma uniforme. El análisis de series temporales comprende métodos que ayudan a interpretar este tipo de datos, extrayendo información representativa, tanto referente a los orígenes o relaciones subyacentes como a la posibilidad de extrapolar y predecir su comportamiento futuro.
De hecho uno de los usos más habituales de las series de datos temporales es su análisis para predicción y pronóstico. Por ejemplo de los datos climáticos, o de las acciones de bolsa, o las series pluviométricas.

Una serie de tiempo o serie temporal es una colección de observaciones tomadas a lo largo del tiempo cuyo objetivo principal es describir, explicar, predecir y controlar algún proceso. Las observaciones están ordenadas respecto al tiempo y sucesivas observaciones son generalmente dependientes. De hecho esta dependencia entre las observaciones jugará un papel importante en el análisis de la serie.

COMENTARIO
Las series de tiempo son observaciones que se hacen de un proceso o fenomeno en el cual se pude ver como este va cambiando con el transcurso del tiempo por lo tanto la informacion no se puede ordenar de mayor a menor de lo contrario se perderia la informacion que se quiere obtener ya que va cambiando.

CORRELACION

En probabilidad y estadística, la correlación indica la fuerza y la dirección de una relación lineal entre dos variables aleatorias. Se considera que dos variables cuantitativas están correlacionadas cuando los valores de una de ellas varían sistemáticamente con respecto a los valores homónimos de la otra: si tenemos dos variables (A y B) existe correlación si al aumentar los valores de A lo hacen también los de B y viceversa. La correlación entre dos variables no implica, por sí misma, ninguna relación de causalidad (Véase Cum hoc ergo propter hoc).

Fuerza, sentido y forma de la correlación [editar]
La relación entre dos variables cuantitativas queda representada mediante la línea de mejor ajuste, trazada a partir de la nube de puntos. Los principales componentes elementales de una línea de ajuste y, por lo tanto, de una correlación, son la fuerza, el sentido y la forma:
La fuerza mide el grado en que la línea representa a la nube de puntos: si la nube es estrecha y alargada, se representa por una línea recta, lo que indica que la relación es fuerte; si la nube de puntos tiene una tendencia elíptica o circular, la relación es débil.
El sentido mide la variación de los valores de B con respecto a A: si al crecer los valores de A lo hacen los de B, la relación es positiva; si al crecer los valores de A disminuyen los de B, la relación es negativa.
La forma establece el tipo de línea que define el mejor ajuste: la línea recta, la curva monotónica o la curva no monotónica.

Coeficientes de correlación [editar]
Existen diversos coeficientes que miden el grado de correlación, adaptados a la naturaleza de los datos. El más conocido es el coeficiente de Pearson (introducido en realidad por Francis Galton), que se obtiene dividiendo la covarianza de dos variables por el producto de sus desviaciones estándar.
Coeficiente de correlación de Pearson
Coeficiente de correlación de Spearman
Correlación canónica

El coeficiente de correlación de Pearson es un índice estadístico que mide la relación lineal entre dos variables cuantitativas. A diferencia de la covarianza, la correlación de Pearson es independiente de la escala de medida de las variables.
El cálculo del coeficiente de correlación lineal se realiza dividiendo la covarianza por el producto de las desviaciones estándar de ambas variables:

Siendo:
σXY la covarianza de (X,Y)
σX y σY las desviaciones típicas de las distribuciones marginales.
El valor del índice de correlación varía en el intervalo [-1, +1]:
Si r = 0, no existe ninguna correlación. El índice indica, por tanto, una independencia total entre las dos variables, es decir, que la variación de una de ellas no influye en absoluto en el valor que pueda tomar la otra.
Si r = 1, existe una correlación positiva perfecta. El índice indica una dependencia total entre las dos variables denominada relación directa: cuando una de ellas aumenta, la otra también lo hace en idéntica proporción.
Si 0 < r < 1, existe una correlación positiva.
Si r = -1, existe una correlación negativa perfecta. El índice indica una dependencia total entre las dos variables llamada relación inversa: cuando una de ellas aumenta, la otra disminuye en idéntica proporción.
Si -1 < r < 0, existe una correlación negativa


COMENTARIO
La correlacion indica la fuerza y direccion de relacion que tienen dos variables distintas cuantitativas.Hay correlación entre dos variables cuando éstas cambian de tal modo que los valores que toma una de ellas son, hasta cierto punto, predecibles a partir de los que toma la otra.

REGRESION

La regresión estadística o regresión a la media es la tendencia de una medición extrema a presentarse más cercana a la media en una segunda medición. La regresión se utiliza para predecir una medida basándonos en el conocimiento de otra.

La regresión es un método de análisis de los datos de la realidad económica que sirve para poner en evidencia las relaciones que existen entre diversas variables.

En estadística la regresión lineal o ajuste lineal es un método matemático que modeliza la relación entre una variable dependiente Y, las variables independientes Xi y un término aleatorio ε. Este modelo puede ser expresado como:
donde β0 es la intersección o término "constante", las βi son los parámetros respectivos a cada variable independiente, y p es el número de parámetros independientes a tener en cuenta en la regresión. La regresión lineal puede ser contrastada con la regresión no lineal.




COMENTARIO
La regresion es un metodo el cual sirve para medir que relacion existe entre dos o mas variables esto se hace con el conocimento que se tenga de una de estas variables.
Esto se logra regresando al pasado para estudiar a ambos fenomenos