¡Hola a todos! Hoy os traigo por fin el último tema del temario de la asignatura. ¡¡¡Allá vamos!!!
"La enfermería es un arte, y si se pretende que sea un arte, requiere de una devoción tan exclusiva, una preparación tan dura, como el trabajo de un pintor o un escultor" Florence Nightingale
Test o contraste de hipótesis: sirven para controlar los errores aleatorios, son una herramienta en el proceso de inferencia estadística, además del cálculo de intervalo de confianza. La estrategia es la siguiente:
⇝ Establecemos a priori una hipótesis cerca del valor del parámetro
⇝ Realizamos la recogida de datos
⇝ Analizamos la coherencia de la hipótesis previa y los datos obtenidos
Y el test de hipótesis siempre va a contrastar la hipótesis nula, la que establece igualdad entre los grupos a comparar o la que no establece relación entre las variables de estudio.
Tipos de análisis estadísticos según el tipo de variables implicadas en el estudio
Errores de hipótesis
- El test de hipótesis ,mide la probabilidad de error que cometo si rechazo la hipótesis nula, todo depende de un error llamado ∝
- El error ∝ es la probabilidad de equivocarnos al rechazar la hipótesis nula
- El error ∝ más pequeño al que podemos rechazar H0 es el error p
- Habitualmente rechazamos H0 para un nivel ∝ máximo del 5% (p<0,05)
- Por encima del 5% de error aceptamos la hipótesis nula, a esto lo llamamos significación estadística
Test de hipótesis "Chi-Cuadrado"
La utilizamos para comparar variables cualitativas, tanto dependiente como independiente. A continuación un ejemplo:
TIPO DE TTO
|
POSITIVA
|
NEGATIVA
|
TOTAL
|
Silvederma
|
11
|
15
|
26
|
Blastoestimulina
|
16
|
10
|
26
|
Total
|
27
|
25
|
52
|
H0=
Silvederma y Blastoestimulina son igual de eficaces
H1=
Silvederma es más eficaz que Blastoestimulina
H2=
Blastoestimulina es más eficaz que Silvederma
Variable
independiente: Tratamiento (Blastoestimulina y Silvederma)
Variable
dependiente: Eficacia (Positiva o Negativa)
Son
variables cualitativas dicotómicas
A
simple vista la Blastoestimulina parece más eficaz, pero no sabemos si ha sido
cosa del azar. Tenemos que calcular los valores esperados:
|
+
|
-
|
|
S
|
(27x26/52)
=13.5
|
(25x26/52)=
12.5
|
26
|
B
|
(27x26/52)=
13.5
|
(25x26/52)=
12.5
|
26
|
|
27
|
25
|
52
|
- Grupo
Silvederma: 42.3% de respuestas
- Grupo Blastoestimulina: 61.5% de
respuestas positivas
- Riesgo
relativo: 1,46
Calculamos
la chi cuadrado:
X2=
(11-13,5)2/13,5 + (15-12,5)2/12,5 + (16-13,5)2/13,5
+ (110-12,5)2/12,5 = 1,92
El
valor de chi cuadrado corresponde a un valor de p, primero hay que comprobar los
grados de libertad que tiene el estudio:
Grado
de libertad (Gl) = (Nº de filas-1) x (Nº de columnas-1); Gl= 1
Consultamos
la tabla, como el grado de libertad es igual a 1, la p va a estar entre 0,3 y
0,1. Aceptamos la hipótesis nula.
Diseño de experimentos:
- Estadística descriptiva: tipos de variables, tablas y gráficas, medidas de posición central y de dispersión
- Inferencia estadística: estimación (puntual y por intervalos) y contraste de hipótesis (métodos paramétricos y no paramétricos)
Test "T de student"
Una de las variables que se quiere comparar deber ser cuantitativa, y debe distribuirse normalmente. Las varianzas deben ser iguales y las muestras deben ver grandes (N>30). Para ver si la variable se distribuye normalmente, existen dos tests:
- Test de Kolmogorov-Smirnov: si el tamaño
muestral es superior a 50
- Test de Shapiro-Wilks: si el tamaño muestral
es inferior a 50
Si p>0,05 = normal (se usa paramétrico)
Si p<0,05 = no normal (se usa no paramétrico)
Test de ANOVA
Es un test paramétrico,
una de variables es cuantitativa, numérica y sigue una distribución normal.
También llamado análisis de la varianza. La usamos cuando tenemos dos o más
variables. Hay diferentes maneras
para comparar la diferencia entre los distintos grupos, con histogramas,
gráficos de cajas. Pero, esto no es significativo así que hacemos el test de
hipótesis. P<0,05 (se rechaza
la hipótesis nula) P>0,05 (aceptamos la hipótesis nula)
Relación entre variables y regresión
El término de regresión
fue introducido por Galton en su libro “Natural inheritance” (1889)
refiriéndose a “las de la regresión universal”.Su trabajo se centraba
en la descripción de los rasgos físicos de los descendientes (una variable) a
partir de los de sus padres (otra variable). Hoy en día el sentido
de la regresión es de predicción de una medida basándonos en el conocimiento de
otra.
Relación directa e indirecta
- Para los valores de X
por encima de la media tenemos valores de Y por encima y por debajo en proporciones
similares (Incorrelación)
- Para los valores de X
mayores que la media le corresponden valores de Y mayores también.
- Para los valores de X
menores de la media le corresponden valores de Y menores también. Esto se llama
relación directa (fuerte relación
directa)
- Para los valores de X
mayores que la media le corresponden valore de Y menores. Esto es relación inversa o decreciente (cierta relación inversa)
Modelos de análisis de regresión
⇑ 1 variable explicativa (simple): lineal o no lineal
⇑ 2 variables explicativas (múltiple): lineal o no lineal
Regresión lineal simple: correlación y determinación
Se trata de estudiar la asociación
lineal entre dos variables cuantitativas.Ejemplo: influencia de la edad en las
cifras de tensión arterial sistólica.
Regresión
lineal simple: una sola variable independiente
Regresión
lineal múltiple: más de una variable independiente
Partimos de la ecuación
de la recta y=ax + b (Ejemplo: TAS = a x edad + b)
Pendiente de la recta
a=β1
Punto de inserción con
el eje de coordenadas b=βo
β1 expresa la cantidad
de cambios que se produce en la variable dependiente por unidad de cambio de la
variable independiente
Βo expresa cual el
valor de la variable dependiente cuando la independiente vale 0
- Modelos
lineales deterministas: la variable independiente determine el valor de la
variable dependiente
- Modelos
lineales probabilísticos: para cada valor de la variable independiente existe
una distribución de probabilidad de valores de la dependiente, con una probabilidad
entre 0 y 1
La recta a determinar
es aquella con la menor distancia de cada punto a ella
Y= ß1 X + ß0
Yi= ß1
X + ß0 + ei
Y sería la media de la
variable dependiente en un grupo con el mismo valor de la variable
independiente Yi= y + ei. Y siempre es la variable independiente
Para construir un
modelo de regresión lineal hace falta conocer: Punto de inserción con el eje de
coordenadas = ß0 y la pendiente de la recta a = ß1
No hay modelo
determinista: hay una nube de puntos y buscamos la recta que mejor explica el comportamiento
de la variable dependiente en función de la variable independiente.