domingo, 18 de abril de 2021

MUESTREO PROBABILISTICO

Tipos de muestreos

Ñaupas y otros (2018), señalan que una vez calculado el tamaño de la muestra, se procede a la selección de las unidades muestrales, para ello es necesario conocer los tipos de muestreo con los que se suele trabajar, hay dos tipos de muestreo el probabilístico y no probabilístico[1].

Muestreo probabilístico

Los métodos de muestras probabilísticos son aquellos que se basan en el principio de equiprobabilidad o azar. Es decir, aquellos en los que todos los individuos tienen la misma probabilidad de ser elegidos para formar parte de una muestra y, consiguientemente, todas las posibles muestras de tamaño n tienen la misma probabilidad de ser seleccionadas. Sólo estos métodos de muestreo probabilísticos nos aseguran la representatividad de la muestra extraída y son, por tanto, los más recomendables. Dentro de los métodos de muestreo probabilísticos encontramos los siguientes tipos:

Muestreo alzar simple

Aquí el procedimiento empleado es el siguiente: 1) se asigna un número a cada individuo de la población y 2) a través de algún medio mecánico (bolas dentro de una bolsa, tablas de números aleatorios, números aleatorios generados con una calculadora u ordenador, etcétera.) Se eligen tantos sujetos como sea necesario para completar el tamaño de muestra requerido. Este procedimiento, atractivo por su simpleza, tiene poca o nula utilidad práctica cuando la población que estamos manejando es muy grande.

Muestreo alzar sistemática

Este procedimiento exige, como el anterior, numerar todos los elementos de la población, pero en lugar de extraer n números aleatorios sólo se extrae uno. Se parte de ese número aleatorio i, que es un número elegido al azar, y los elementos que integran la muestra son los que ocupa los lugares i, i + k, i+2k, i+3k,..., i+(n-1)k, es decir se toman los individuos de k en k, siendo k el resultado de dividir el tamaño de la población entre el tamaño de la muestra: k= N/n. El número i que empleamos como punto de partida será un número al azar entre 1 y k.

El riesgo en este tipo de muestra está en los casos en que se dan periodicidades en la población ya que al elegir a los miembros de la muestra con una periodicidad constante (k) podemos introducir una homogeneidad que no se da en la población. Imaginemos que estamos seleccionando una muestra sobre listas de 10 individuos en los que los 5 primeros son varones y las 5 últimas mujeres, si empleamos una muestra aleatoria sistemática con k=10 siempre seleccionaríamos o sólo hombres o sólo mujeres, no podría haber una representación de los dos sexos.

Muestreo aleatorio estratificada

Trata de obviar las dificultades que presentan los anteriores ya que simplifican los procesos y suelen reducir el error muestral para un tamaño dado de la muestra. Consiste en considerar categorías típicas diferentes entre sí (estratos) que poseen gran homogeneidad respecto a alguna característica (se puede estratificar, por ejemplo, según la profesión, el municipio de residencia, el sexo, el estado civil, etcétera). Lo que se pretende con este tipo de muestras es asegurarse de que todos los estratos de interés estarán representados adecuadamente en la muestra. Cada estrato funciona independientemente, pudiendo aplicarse dentro de ellos la muestra aleatoria simple o el estratificado para elegir los elementos concretos que formarán parte de la muestra. En ocasiones las dificultades que plantean son demasiado grandes, pues exige un conocimiento detallado de la población. (Tamaño geográfico, sexos, edades, entre otros).

La distribución de la muestra en función de los diferentes estratos se denomina afijación, y puede ser de diferentes tipos:

Afijación Simple: a cada estrato le corresponde igual número de elementos muéstrales.

Afijación Proporcional: la distribución se hace de acuerdo con el peso (tamaño) de la población en cada estrato.

Afijación Óptima: se tiene en cuenta la previsible dispersión de los resultados, de modo que se considera la proporción y la desviación típica. Tiene poca aplicación ya que no se suele conocer la desviación.

Muestreo aleatorio por conglomerados

Los métodos presentados hasta ahora están pensados para seleccionar directamente los elementos de la población, es decir, que las unidades muéstrales son los elementos de la población.

En la muestra por conglomerados la unidad muestral es un grupo de elementos de la población que forman una unidad, a la que llamamos conglomerado. Las unidades hospitalarias, los departamentos universitarios, una caja de determinado producto, etcétera, son conglomerados naturales. En otras ocasiones se pueden utilizar conglomerados no naturales como, por ejemplo, las urnas electorales. Cuando los conglomerados son áreas geográficas suele hablarse de "muestras por áreas".

Consecuentemente, con este principio la muestra por conglomerados consiste en seleccionar aleatoriamente un cierto número de conglomerados (el necesario para alcanzar el tamaño muestral establecido) y en investigar después todos los elementos pertenecientes a los conglomerados elegidos.

 



[1] Ñaupas, H.; Valdivia, M.; Palacios, J.; Romero, H. (2018). Metodología de la investigación, Cuantitativa, Cualitativa y redacción de Tesis. Bogotá: ediciones de la U. 5ta. Edición, p. 339.

martes, 6 de abril de 2021

LA MUESTRA

 TAMAÑO DE LA MUESTRA

El tamaño de la muestra va estrechamente unido con la representatividad, no tiene fácil solución.  En un inicio hay que rechazar la idea, demasiado extendida, de que la muestra debe ser proporcional a la población. De hecho, a medida que aumenta ésta con una menor proporción podemos alcanzar la representatividad. Sin embargo, en igualdad de otras condiciones, los estadísticos calculados con muestras grandes son más precisos que los calculados con muestras pequeñas, pero una muestra representativa de 50 elementos es preferible a otra no representativa de 100 (Jiménez, 1983).

En la investigación no existe un tamaño ideal de la muestra. A efectos descriptivos, se considera una muestra grande cuando n > 30. Una muestra debe ser lo suficientemente grande como para ser representativa, pero el número de elementos necesarios para lograr la representatividad varía en un estudio a otra. Cuanto más homogénea es una población en las características objeto de estudio, más fácil resulta conseguir muestras representativas sin necesidad de que sean grandes. Es decir, el tamaño de la muestra está en relación directa con la desviación típica de las puntuaciones en las características de la variable a estudiar.

El tamaño de la muestra viene condicionado por el tanto por ciento de la característica que estamos estudiando. Cuando no se conoce es conveniente hacer algún pequeño estudio inicial con una muestra mucho menor para tener alguna idea de ese porcentaje. Por ejemplo: alumnos que se matriculan Seminario II y después no asisten o abandonan. Cuando tenemos una proporción de la característica del 50% estamos ante lo que se designa como el caso más desfavorable porque exige la muestra mayor.  Si no conocemos la proporción se asigna el 50% como la opción más segura en los cálculos de la muestra.

Según Fernández (1983) el tipo de datos que se desea recoger y el medio que para ello se va a emplear son condicionantes que influyen en la menor o mayor reducción de la muestra seleccionada. No es igual seleccionar, por ejemplo, aulas ya organizadas y recoger la información en días y horas lectivos que hacerlo a través de un cuestionario enviado por correo.

Otro autor sostiene que el tamaño de la muestra también depende del tipo de muestreo que se ha llevado a cabo. Por ejemplo: en las muestras estratificadas, el error es menor que en las no estratificadas, y también lo es el tamaño de la muestra necesario[1].

En lo referente a la finalidad del nivel de confianza que queramos que alcancen nuestros resultados también influye en el tamaño que debamos dar a la muestra. Entre +2 y -2 sigmas de la curva de distribución normal de Gauss, a partir de la media, está incluido el 95.5% de la población. Esto quiere decir que tenemos una probabilidad de que 955/1000 coincidan con los de la población total. Si queremos alcanzar una mayor certidumbre hemos de abarcar entre +3 y -3 sigmas, en cuyo caso el riesgo de que exista diferencia entre los estadísticos de la muestra y los parámetros de la población sean distintos será de 997/100, pero naturalmente tendremos que elevar el número de elementos de la muestra.

Otro dato determinante del tamaño de la muestra es el error de estimación. Es lógico pensar que no haya una coincidencia total entre los datos de la población y los de la muestra. Hemos de indicar el máximo error tolerable, que suele establecerse en el 5%. Pero si queremos rebajar ese error tendremos que aumentar el volumen de la muestra.

En consecuencia, señalamos que determinar el tamaño de la muestra es un tema complejo. Por tanto, el investigador habrá de tener en cuenta: la amplitud del universo (infinito o no), representatividad, las variables (tipo de datos, valores de la misma, homogeneidad/variabilidad de los datos), el tipo de muestreo, el proceso y medios de recogida de datos, los análisis estadísticos que se planifiquen, el error muestral, el error de estimación y el nivel de confianza con el que deseemos trabajar entre otras consideraciones. Con esta base se tendrán los referentes necesarios para determinar el tamaño de la muestra.



[1] Sierra Bravo, R. (1988). Técnicas de investigación Social. Teoría y Ejercicios. Madrid: Paraninfo, p. 226.

lunes, 5 de abril de 2021

Diseño cuasi-experimental

Diseños cuasi-experimentales

Si bien existen distintas clasificaciones de los diseños cuasi-experimentales, la mayoría de ellas coinciden en proponer dos grupos de diseños. De una parte, están los diseños transversales, y, de otra parte, están los diseños longitudinales (véase, por ejemplo: Arnau, 1997, 2003; Ato y Vallejo, 2007). En concreto, vamos a presentar aquí la clasificación propuesta por Arnau (2003).

a)     se caracterizan porque estudian el fenómeno en un momento temporal concreto, de manera que la variable de respuesta o variable dependiente se mide en un único momento temporal -como mucho tomaríamos otra medida de la variable de respuesta antes de la intervención o, lo que es lo mismo, tomaríamos una medida pre-test o pre-tratamiento-. Se trata de diseños en los que se comparan grupos.

b)     Los diseños longitudinales, por el contrario, se caracterizan porque en ellos se toman varias medidas de la variable de respuesta para los distintos individuos -que pueden ser uno solo o más de uno (aulas, escuelas, poblaciones)- a lo largo del tiempo. Su objetivo es estudiar los procesos de cambio en función del tiempo y explicarlos.

c)     Los diseños transversales se clasifican a su vez en función de la regla de asignación de los sujetos a los grupos. Así, se distingue entre los diseños con regla de asignación desconocida -el diseño de grupo control no equivalente y el diseño de grupos no equivalentes- y los diseños con regla de asignación conocida -el diseño de discontinuidad en la regresión-.

d)    Los diseños longitudinales se clasifican en:

·        Diseños de series temporales interrumpidas

·        Diseños de medidas repetidas

·        Diseños de cohortes y

·        Diseños en panel.

Vamos a presentar ahora una breve descripción de cada uno de estos diseños.
El diseño de grupo control no equivalente, en su forma básica, se caracteriza porque utiliza dos grupos: uno recibe el tratamiento, intervención o programa cuyo efecto se pretende estudiar, y otro no recibe tratamiento o recibe un tratamiento medianamente. Ato y Vallejo (2007). Así se dispone de un grupo experimental y un grupo control. En su forma más simple se toman medidas sólo después de la intervención -el diseño de grupo control no equivalente con medidas sólo pos test-. No obstante, en este caso, los problemas de control son tan grandes que muchos autores no incluyen este diseño en la categoría de cuasi-experimento, sino en la de pre-experimento. Si al diseño anterior se le añaden unas medidas pre-test, alcanzará la categoría de diseño cuasi-experimental. En este caso, las medidas pre-test permitirán, en primer lugar, valorar la equivalencia inicial de los grupos y, en segundo, controlarla en caso de que se dé la no equivalencia. Este diseño se denomina diseño de grupo control no equivalente con pre-test y pos-test.

El diseño de grupos no equivalentes es similar al diseño anterior, no obstante, en este caso, los grupos reciben tratamientos distintos. Además, se trata de grupos naturales, por lo que se tomarán medidas pre-test como elemento de control de la equivalencia de los mismos.

El diseño de discontinuidad según Trochin (2006) en la regresión se caracteriza porque, a diferencia de los anteriores, se conoce la variable de asignación de los sujetos a los grupos[1]. Esta variable de asignación es una medida pre-test.

La forma de proceder para formar los grupos es la siguiente: una vez tenemos la medida pre-test para todos los sujetos, éstos se ordenan en función de esa medida y se establece una puntuación de corte para asignar los sujetos a los grupos. Los sujetos con una puntuación por encima del punto de corte formarán parte de uno de los grupos y los sujetos con una puntuación por debajo del punto de corte pasarán a formar parte del otro grupo. Se trata de un diseño que goza de mucho prestigio porque incrementa las posibilidades interpretativas respecto a los otros diseños cuasi-experimentales, aproximándose incluso al diseño experimental. (Shadish, Cook y Campbell, 2002).

·        Los diseños de series temporales interrumpidas presentan como característica fundamental el registro de múltiples medidas previas y múltiples medidas posteriores a la introducción de un tratamiento o de un programa de intervención. Dentro de este grupo de diseños se distingue, a su vez, entre el diseño de series temporales simple y el diseño de series temporales con grupo control no equivalente. Arnau (1995). El primer diseño es aquél en el que se trabaja con un solo grupo de individuos, mientras que el segundo es aquél en el que se emplea un grupo experimental y un grupo control, con la finalidad de valorar de forma más rigurosa si los cambios producidos entre las fases pre y post-intervención son iguales en ambos grupos. Este segundo diseño tiene mayor validez interna que el primero.

·        Los diseños longitudinales de medidas repetidas son aquellos en los que se registran más de dos medidas repetidas en el tiempo con el propósito de conocer el proceso de crecimiento de una muestra de sujetos. En estos diseños lo que se hace es modelar los datos con ajustes de polinomios con el fin de estudiar las curvas de crecimiento. Este tipo de diseño también se denomina diseño longitudinal de múltiples observaciones. Un tipo especial de diseño longitudinal de medidas repetidas es el diseño de muestra dividida. En este diseño se trabaja con dos o más grupos de sujetos que se han formado en función de una variable de carácter social, biológica o psicológica, y se toman medidas para cada individuo en momentos temporales diferentes.

·        El diseño longitudinal de cohortes nos permite estimar los efectos de la edad, el periodo y la cohorte en un proceso de cambio. Una cohorte es un grupo o agregado de individuos, dentro de una población específica, que ha experimentado el mismo acontecimiento vital en un intervalo de tiempo determinado. Visser (1985) Aunque la variable más usada para delimitar la cohorte es la fecha de nacimiento, pueden utilizarse otras: los individuos casados en un período de tiempo establecido, los individuos que asistieron a la escuela en un determinado año, etc[2].

·        El diseño longitudinal en panel consiste, en la situación más simple, en medir dos variables de una misma muestra de sujetos a lo largo de una serie de tandas o momentos históricos. El objetivo es establecer, mediante la técnica de correlación cruzada en panel, la posible relación causal entre las variables medidas y el sentido de la causalidad. Se trata de un tipo de diseño que se utiliza mucho en el ámbito social para el estudio de intenciones políticas, preferencias, actitudes u opiniones.

 



[1] Trochim, W. M.  (2006). Los métodos de investigación de la base de conocimientos (2da. ed.). Disponible en http://www.atomicdog.com. Visitado en: abril 2013. 

[2] Visser, R. A. (1985). Análisis de datos longitudinales en la investigación conductual y social.  Leiden: DSWO Press.

 

sábado, 3 de abril de 2021

PLAN DE TABULACION

Plan de tabulación

En una investigación, el plan de tabulación “consiste en determinar que resultados de las variables se presentaran y que relaciones entre las variables del estudio necesitan ser analizados, con la finalidad de dar respuesta al problema, objetivos y las hipótesis del estudio”. En ese sentido, desde la perspectiva de Pineda y De Alvarado (2014) la elaboración de "datos presupone la preparación de un plan de tabulación que consiste en prever los cuadros que, atendiendo a los objetivos y las hipótesis, permiten la presentación de la información en forma clara y sistemática"[1].

Ahora bien, a continuación lo detallamos los pasos a seguir en la construcción del plan de tabulación planteadas por las autoras arriba señaladas:

  1. Detallar las variables identificadas y que serán objeto de estudio, según la definición de variables y los instrumentos elaborados.
  2. Determinar las variables que ameritan ser analizadas individualmente o presentadas en cuadros simples de una variable, según los objetivos y las hipótesis.
  3. Determinar las variables que deben cruzarse, según los objetivos y las hipótesis.
  4. Esquematizar, en los casos que lo ameriten, el cuadro para determinar la posibilidad de clasificación o categorías de análisis
  5. Hacer el listado de los cuadros que deberán presentarse.



[1] Pineda E; de Alvarado E. (2008). Metodología de investigación. Organización Mundial de la Salud. Tercera edición. OPS. Washington DC, p. 189.

ANALISIS E INTERPRETACION DE DATOS

  Análisis e interpretación de datos El análisis e interpretación de datos es un elemento indispensable en el proceso de investigación doc...