Archivo de la categoría: HERBARIO

Estimación no paramétrica de funciones de densidad (Método Kernel)

La estimación no paramétrica de funciones de densidad, mediante el método Kernel, es una ingeniosa forma de estimar una función de densidad que no siga un modelo conocido (Normal, Binomial, Exponencial, etc). Tiene una enorme flexibilidad y lo que hace es construir una función de densidad girando en torno a los valores muestrales.

IMG_4416

El valor h, denominado normalmente la ventana, es un valor que representa el área de influencia que se le pretende dar a cada valor muestral. Su elección se le suele hacer depender de la dispersión de los valores. Posiblemente, para entender mejor la operatividad del estimador, es mejor pensar que h es igual a 1 y así ya aparecen en la expresión elementos más fáciles de controlar y asimilar.

Veamos cómo sería la construcción de este estimador en un ejemplo concreto, paso a paso:

IMG_4692

Arriba vemos los cinco puntos muestrales. En la imagen del medio vemos que hemos construido una Normal sobre cada valor muestral, una Normal con media cada uno de esos valores. Y con densidad, cada una de esas normales 1/n, en nuestro caso: 1/5, para darle el mismo peso a cada valor muestral y que, al final, la suma de las áreas sea 1.

En la imagen final integramos esas cinco funciones en una sola. Y nos queda una imagen como ésta. Esto es una estimación coherente de cómo debe de ser la distribución poblacional.

Este procedimiento tiene muchas aplicaciones. Una de ellas es en Análisis discriminante. Si tenemos varias muestras, una por cada población distinta, y no siguen la normalidad, podemos construir para cada muestra una función de densidad según este criterio y clasificar al nuevo individuo simplemente asignándolo a la población donde haya más valor de densidad, que querrá decir que por allí hay más influencia de esa población.

Test de Durbin-Watson

El Test de Durbin-Watson permite evaluar si existe autocorrelación en una Regresión lineal, sea simple o múltiple. Con ello se pretende ver si los valores presentan algún tipo de dependencia en cuanto al orden de obtención. Si fuera así se estaría incumpliendo una de las condiciones del modelo y cuando se incumplen las condiciones de un modelo de Regresión lineal (normalidad, homogeneidad de varianzas, independencia de los datos) las estimaciones de los parámetros del modelo (los coeficientes del modelo) no tienen los criterios de calidad que se suponen. Por ejemplo, la desviación estándar de esas estimaciones (el llamado error estándar) aumenta, etc.

El contraste de hipótesis (Ver el artículo La maquinaria de un contraste de hipótesis) tiene como Hipótesis nula que la autocorrelación es cero versus la alternativa que afirma que es distinta de cero:

IMG_4422

En el planteamiento del Test, por tradición, se suele hablar de la variable independiente tiempo, por eso aparece el signo «t», pero el planteamiento valdría para cualquier variable independiente o cualquier juego de variables independientes.

En una Regresión la noción de residuo es la diferencia entre el valor de la variable dependiente de un valor muestral y el valor estimado, el valor que le correspondería hipotéticamente a ese individuo, mediante el modelo contruido mediante esa Regresión. Supongamos que un individuo tiene un valor de y=8 y x=4 y el modelo de Regresión lineal simple es y=1.5x+1. A ese individuo con valor de «x» igual a 4 y con valor de «y» igual a 8, en el modelo le correspondería una estimación de la variable «y» de y=7. El residuo asociado a ese individuo sería 8-7=1.

En la tabla siguiente pueden verse los valores críticos de Durbin-Watson que permiten tomar la decisión de mantener la Hipótesis nula, pasar a la Hipótesis alternativa o permite estar en una zona de indecisión:

IMG_4421

Este Test lo que hace es evaluar si la disposición de los valores en función de las variables independientes es una disposición al azar o, por el contrario, si hay algún tipo de dependencia, algún tipo de conexión entre los valores.

Para ver el contexto en el que se aplica este importante test ver los artículos Regresión lineal simple y Regresión múltiple.