sábado, 20 de mayo de 2017

Tema 10 "Hipótesis estadísticas. Test de hipótesis"

¡Hola a todos! Hoy os traigo por fin el último tema del temario de la asignatura. ¡¡¡Allá vamos!!! 

"La enfermería es un arte, y si se pretende que sea un arte, requiere de una devoción tan exclusiva, una preparación tan dura, como el trabajo de un pintor o un escultor" Florence Nightingale


Test o contraste de hipótesis: sirven para controlar los errores aleatorios, son una herramienta en el proceso de inferencia estadística, además del cálculo de intervalo de confianza. La estrategia es la siguiente:

⇝ Establecemos a priori una hipótesis cerca del valor del parámetro
⇝ Realizamos la recogida de datos
⇝ Analizamos la coherencia de la hipótesis previa y los datos obtenidos

Y el test de hipótesis siempre va a contrastar la hipótesis nula, la que establece igualdad entre los grupos a comparar o la que no establece relación entre las variables de estudio.

Tipos de análisis estadísticos según el tipo de variables implicadas en el estudio


Errores de hipótesis 

  • El test de hipótesis ,mide la probabilidad de error que cometo si rechazo la hipótesis nula, todo depende de un error llamado
  • El error es la probabilidad de equivocarnos al rechazar la hipótesis nula 
  • El error  más pequeño al que podemos rechazar H0 es el error p
  • Habitualmente rechazamos H0 para un nivel ∝ máximo del 5% (p<0,05)
  • Por encima del 5% de error aceptamos la hipótesis nula, a esto lo llamamos significación estadística 


Test de hipótesis "Chi-Cuadrado"

La utilizamos para comparar variables cualitativas, tanto dependiente como independiente. A continuación un ejemplo:

TIPO DE TTO
POSITIVA
NEGATIVA
TOTAL
Silvederma
11
15
26
Blastoestimulina
16
10
26
Total
27
25
52

H0= Silvederma y Blastoestimulina son igual de eficaces
H1= Silvederma es más eficaz que Blastoestimulina
H2= Blastoestimulina es más eficaz que Silvederma

Variable independiente: Tratamiento (Blastoestimulina y Silvederma)
Variable dependiente: Eficacia (Positiva o Negativa)
Son variables cualitativas dicotómicas

A simple vista la Blastoestimulina parece más eficaz, pero no sabemos si ha sido cosa del azar. Tenemos que calcular los valores esperados:


+
-

S
(27x26/52) =13.5
(25x26/52)= 12.5
26
B
(27x26/52)= 13.5
(25x26/52)= 12.5
26

27
25
52

  •  Grupo Silvederma: 42.3% de respuestas
  •  Grupo Blastoestimulina: 61.5% de respuestas positivas
  • Riesgo relativo: 1,46

Calculamos la chi cuadrado:   
X2= (11-13,5)2/13,5 + (15-12,5)2/12,5 + (16-13,5)2/13,5 + (110-12,5)2/12,5 = 1,92
El valor de chi cuadrado corresponde a un valor de p, primero hay que comprobar los grados de libertad que tiene el estudio:

Grado de libertad (Gl) = (Nº de filas-1) x (Nº de columnas-1); Gl= 1
Consultamos la tabla, como el grado de libertad es igual a 1, la p va a estar entre 0,3 y 0,1. Aceptamos la hipótesis nula.
Diseño de experimentos:

  • Estadística descriptiva: tipos de variables, tablas y gráficas, medidas de posición central y de dispersión
  • Inferencia estadística: estimación (puntual y por intervalos) y contraste de hipótesis (métodos paramétricos y no paramétricos) 
Test "T de student" 
Una de las variables que se quiere comparar deber ser cuantitativa, y debe distribuirse normalmente. Las varianzas deben ser iguales y las muestras deben ver grandes (N>30). Para ver si la variable se distribuye normalmente, existen dos tests:

  • Test de Kolmogorov-Smirnov: si el tamaño muestral es superior a 50
  • Test de Shapiro-Wilks: si el tamaño muestral es inferior a 50
Si p>0,05 = normal (se usa paramétrico)

     Si p<0,05 = no normal (se usa no paramétrico)

Test de ANOVA

Es un test paramétrico, una de variables es cuantitativa, numérica y sigue una distribución normal. También llamado análisis de la varianza. La usamos cuando tenemos dos o más variables. Hay diferentes maneras para comparar la diferencia entre los distintos grupos, con histogramas, gráficos de cajas. Pero, esto no es significativo así que hacemos el test de hipótesis. P<0,05 (se rechaza la hipótesis nula) P>0,05 (aceptamos la hipótesis nula)

Relación entre variables y regresión

El término de regresión fue introducido por Galton en su libro “Natural inheritance” (1889) refiriéndose a “las de la regresión universal”.Su trabajo se centraba en la descripción de los rasgos físicos de los descendientes (una variable) a partir de los de sus padres (otra variable). Hoy en día el sentido de la regresión es de predicción de una medida basándonos en el conocimiento de otra.

Relación directa e indirecta
  • Para los valores de X por encima de la media tenemos valores de Y por encima y por debajo en proporciones similares (Incorrelación)
  • Para los valores de X mayores que la media le corresponden valores de Y mayores también.
  • Para los valores de X menores de la media le corresponden valores de Y menores también. Esto se llama relación directa (fuerte relación directa)
  • Para los valores de X mayores que la media le corresponden valore de Y menores. Esto es relación inversa o decreciente (cierta relación inversa)
Modelos de análisis de regresión

⇑ 1 variable explicativa (simple): lineal o no lineal
⇑ 2 variables explicativas (múltiple): lineal o no lineal

Regresión lineal simple: correlación y determinación

Se trata de estudiar la asociación lineal entre dos variables cuantitativas.Ejemplo: influencia de la edad en las cifras de tensión arterial sistólica.

Regresión lineal simple: una sola variable independiente
Regresión lineal múltiple: más de una variable independiente

Partimos de la ecuación de la recta y=ax + b (Ejemplo: TAS = a x edad + b)
Pendiente de la recta a=β1
Punto de inserción con el eje de coordenadas  b=βo 

β1 expresa la cantidad de cambios que se produce en la variable dependiente por unidad de cambio de la variable independiente
Βo expresa cual el valor de la variable dependiente cuando la independiente vale 0
  • Modelos lineales deterministas: la variable independiente determine el valor de la variable dependiente
  • Modelos lineales probabilísticos: para cada valor de la variable independiente existe una distribución de probabilidad de valores de la dependiente, con una probabilidad entre 0 y 1

La recta a determinar es aquella con la menor distancia de cada punto a ella
Y= ß1 X + ß0
Yi= ß1 X + ß0 + ei        

Y sería la media de la variable dependiente en un grupo con el mismo valor de la variable independiente Yi= y + ei. Y siempre es la variable independiente
Para construir un modelo de regresión lineal hace falta conocer: Punto de inserción con el eje de coordenadas = ß0 y la pendiente de la recta a = ß1

No hay modelo determinista: hay una nube de puntos y buscamos la recta que mejor explica el comportamiento de la variable dependiente en función de la variable independiente.

No hay comentarios:

Publicar un comentario