miércoles, 29 de diciembre de 2021

IMPORTANCIA DE NORMAS APA

Importancia de normas APA

En la actualidad, el estilo o normas APA en la investigación científica son reconocidas como los esquemas o patrones de trascendencia en el ámbito académico y científico internacional. Asimismo, el estilo o normas APA son la creación de American Psychological Association o la Asociación norteamericana de Psicología fue registrada en 1929. De modo que desde esta fecha se decidió establecer diferentes normas o reglas de escritura y que esta permita tener mayor referencia y que coadyuve a los diversos investigadores en sus estudios de diferentes áreas y que éstas puedan ser entendidas por todos por igual.

En consecuencia, el estilo o normas APA su uso ayudará al investigador implementar una serie de reglas de citación, referencias bibliográficas, presentación de tablas y figuras, así como el formato para el desarrollo de un trabajo de investigación, libros, artículos, entre otros, con la finalidad de lograr claridad en la comunicación escrita (APA, 2019). Es imprescindible utilizar citas de fuentes de información a efectos de brindar sustento a las ideas del tema a desarrollar.

ELEMENTOS DEL MARCO TEÓRICO

Elementos del marco teórico

Desde la perspectiva de Ñaupas (2018) citando a Valdivia señala que el “marco teórico en una investigación presenta tres componentes en su estructura y son las siguientes: los antecedentes (Marco histórico), definiciones operacionales (marco conceptual), y las bases científicas (marco teórico propiamente dicho)”. A continuación, trataremos de explicar cada uno de ellos.

a.    Antecedentes

En este ítem se encuentra constituido por el resultado obtenido en trabajos de investigación afines al que se pretende efectuar, aquí no se debe confundir antecedentes de la investigación con la historia del objeto de estudio[1]. Para ello, el investigador que elabora “los antecedentes, se halla familiarizado con el tema de estudio y posee información sobre otras investigaciones que se han realizado sobre él”. En ese sentido, los antecedentes responden al conocimiento previamente constituido, por lo que en cada investigación se apropia de parte de la estructura teórica ya existente. Asimismo, los antecedentes dan a conocer los trabajos de investigación que se han realizado hasta el momento que en que se inicia la investigación.

b.    Bases teóricas científicas

Según Ñaupas y otros (2018) este componente está constituidos por los principios, leyes y teorías que sustentan el conocimiento de las variables en estudio.

De manera que las bases científicas “son consecuencias, una indagación bibliográfica exhaustiva que realiza el tesista o el investigador sobre las variables del problema, el problema que se ha planteado, permite su conocimiento y comprensión con mayor profundidad”[2]. Además, “la construcción de las bases teórica científicas supone el uso de una estructura sistémica y lógica. Presume una identificación de fuentes sobre las cuales se podrá investigar y diseñar la investigación propuesta”. Vale la pena resaltar en que en este ítem se debe observar mucho cuidado en la redacción científica evitando el plagio o apropiación de ideas de otros autores.

c.    Definición de términos básicos

Aquí se resalta la precisión conceptual de los términos básicos que se utilizan en la investigación. Lo cual permite ubicarse en el trabajo, ya que se tendrá muy claro lo que se quiere investigar.



[1] Ñaupas, H.; Valdivia, M. R; Palacios, J.J.; Romero, H. E. (2018). Metodología de la investigación, Cuantitativa cualitativa y redacción de la Tesis: Bogotá, ediciones de la U, quinta edición, p. 232.

[2] Ídem 

domingo, 14 de noviembre de 2021

EL CUESTIONARIO

Estructura del cuestionario

Desde la perspectiva de Ñaupas y otros (2018) en un trabajo de investigación el cuestionario tiene las siguientes partes y son las siguientes[1]:

a.    El nombre de la institución:

Aquí es importante colocarlo para otorgarle responsabilidad al trabajo de aplicación del cuestionario.

b.    La presentación o introducción:

Es un párrafo importante que sirve para explicar por qué y para qué se esta aplicando el cuestionario; garantizando la confidencialidad y agradecimiento.

c.    Las preguntas demográficas sobre:

Se refiere a la localidad, institución donde trabaja el informante, edad, sexo, estado civil entre otros. Una recomendación importante, el cuestionario debe ser anónimo, es decir, no preguntar el nombre del informante para garantizar la confidencialidad, salvo que sea necesario como en la investigación cuasi experimental.

d.    Las instrucciones

Son necesarias sobre todo cuando el cuestionario va a ser enviado por correo para su solución a diferentes localidades. También es importante cuando se deja el cuestionario al informante para que lo resuelva después.

e.    Las preguntas de fondo:

Deben presentarse obedeciendo a un sistema, a un orden. Primero las preguntas inocentes, fácil de responder, es recomendable aquí aplicar la estrategia del avance del embudo. De lo general a los aspectos más específicos.



[1] Ñaupas, H.; Valdivia, M.; Palacios, J.; Romero, H. (2018). Metodología de la investigación, Cuantitativa, Cualitativa y redacción de Tesis. Bogotá: ediciones de la U. 5ta. Edición, p. 292.

LA MUESTRA

Muestra en una investigación

En el diccionario de la Lengua Española (RAE)[1] define la muestra, en su segunda acepción, como “parte o porción extraída de un conjunto por métodos que permiten considerarla como representativa de él”.

Tomando ésta como referente diremos que la muestra es una parte o subconjunto de una población normalmente seleccionada, de tal modo que ponga de manifiesto las propiedades de la población. Su característica más importante es la representatividad, es decir, que sea una parte típica de la población en la o las características que son relevantes para la investigación.

Desde la perspectiva de Ñaupas (2018), una muestra es “una porción de la población que por lo tanto tienen las características necesarias para la investigación, es suficientemente clara para que no haya confusión alguna”[2], en tal sentido, estos autores señalan que respecto un error que se cometen usualmente, esta es: expresar que la muestra está conformada por la población por estar este pequeña. De modo que esta expresión es completamente paradójica, ya que la siendo una porción de todo, no puede ser el todo.

En consecuencia, la muestra en una investigación es una fracción o parte representativa de una población o universo, que ha sido obtenida con la finalidad de investigar ciertas características del mismo. Por lo que, se entiende que la muestra es una parte seleccionada de una población o universo sujeto a estudio y que reúne las características de la totalidad por lo que permite la generalización de los resultados. Asimismo, añaden que se debe controlar el tamaño y la selección de la muestra.



[1] REAL ACADEMIA ESPAÑOLA: Diccionario de la lengua española, 23.ª ed., [versión 23.4 en línea]. <https://dle.rae.es> [Agosto de 2021].

[2] Ñaupas, H.; Valdivia, M.; Palacios, J.; Romero, H. (2018). Metodología de la investigación, Cuantitativa, Cualitativa y redacción de Tesis. Bogotá: ediciones de la U. 5ta. Edición, p. 334.

miércoles, 25 de agosto de 2021

LINEAS DE INVESTIGACIÓN

Líneas de investigación

En cuanto a las líneas de investigación, en cada facultad de  acuerdo con las políticas de investigación de la universidad establece un conjunto de áreas temáticas prioritarias de investigación científica, tecnológica e innovación, según Ñaupas (2018) “podría servir de inspiración para observar, descubrir y formular los problemas de investigación y fomentar la preocupación por la investigación científica y tecnológica a fin de lograr el desarrollo de la región o país y al mismo tiempo orientar sobre los variados campos de investigación”.

En ese sentido, “una línea de investigación es más que una brújula del investigador, si un investigador no tiene línea de investigación, será difícil identificar el tema y el problema de investigación. Por lo tanto, el señalamiento de las líneas de investigación es tarea de autoridades y docentes universitarios comprometidos con la investigación científica o tecnológica, en el convencimiento de que así promoveremos la investigación científica”[1].

El mencionado autor, considera un ejemplo de líneas y temas de investigación en Pedagogía y Ciencias de la Educación.

1.    La Pedagogía: ciencia eje de las ciencias de la educación

2.    Estudio de la filosofía de la educación: la teleología de la educación, fines, objetivos y metas educativas.

3.    Estudio de la Psicología de la Educación

4.    Estudio de la Economía de la Educación, etc.

Líneas de investigación en Derecho y Ciencias Políticas

1.      La Jurisprudencia y la Dogmática Jurídica

2.      Importancia de la Sociología del Derecho

3.      Derecho Constitucional Comparado

4.      Principios limitadores del poder punitivo del Derecho Penal, etc.



[1] Ñaupas, H.; Valdivia, M.; Palacios, J.; Romero, H. 2018. Metodología de la investigación, Cuantitativa, Cualitativa y redacción de Tesis. Bogotá: ediciones de la U. 5ta. Edición, p. 187.

domingo, 22 de agosto de 2021

LA EPISTEMOLOGÍA

QUE ES LA EPISTEMOLOGÍA

Epistemología proviene de dos voces griegas: episteme que significa conocimiento científico y logos es igual a tratado. Según Humberto Ñaupas y otros (2018), entiende que “la epistemología es la rama de la filosofía que se desprendió de la Gnoseología, dedicándose netamente al estudio del conocimiento científico o ciencia"[1].  

Asimismo, los mencionados autores señalan que la epistemología antes del Círculo de Viena había sido cultivada desde Platón hasta Bertrand Russell y los problemas que estudiaban eran referentes a la naturaleza y fines del conocimiento científico, la clasificación de la ciencia y la posibilidad de construir la ciencia a partir de la observación.

Posteriormente, epistemología está constituido por el renacimiento de la filosofía, encabezado por Karl Popper en Europa y Mario Bunge en Latinoamérica, estos estudiaron sobre la base del realismo y el refutacionismo. En ese sentido, desde la perspectiva de "Bunge se requería una epistemología que sea útil al enriquecimiento de la filosofía y de la ciencia, en efecto, una epistemología es útil si satisface las siguientes condiciones":

a.    Concierne a la ciencia propiamente dicha

b.  Se ocupa de problemas filosóficos que se presentan en el curso de la investigación científica, o en la reflexión acerca de los problemas, métodos, teoría de la ciencia.

c.    Propone soluciones claras a tales problemas

d.    Es capaz de distinguir la ciencia de la pseudociencia

e.    Es capaz de criticar programas y aún resultados erróneos.



[1] Ñaupas, H.; Valdivia, M.; Palacios, J.; Romero, H. 2018. Metodología de la investigación, Cuantitativa, Cualitativa y redacción de Tesis. Bogotá: ediciones de la U. 5ta. Edición, p. 72.

 

viernes, 20 de agosto de 2021

FUNCIONES DE JUSTIFICACIÓN DEL PROBLEMA

Funciones de justificación del problema

Las funciones que cumplen la justificación son:

a.    Describe cuales son los motivos para hacer el estudio propuesto

b.    Justifica los beneficios sociales e institucionales

c.    Explique cómo y por qué razón se investiga

d.    Demuestra la factibilidad de llevar a cabo la investigación.

De acuerdo a la visión de Ackoff (1967) y Miller (2002) la justificación responderá a las siguientes preguntas que a continuación desarrollamos:

a.    Conveniencia: ¿Por qué se eligió el tema? Y ¿Por qué es importante? ¿para qué sirve? ¿conviene su realización?

b.    Relevancia social: ¿Cómo se utilizarán los resultados y quienes serán los beneficiarios?

c.    Implicancias prácticas: ¿Cómo se relaciona la investigación con las prioridades locales, de la región y del país? ¿Ayuda resolver a los problemas prácticos?

d.   Valor teórico: ¿Qué conocimientos e información se obtendrá? ¿Cuál es la finalidad que se persigue con el conocimiento que brindará el estudio? ¿Cómo se diseminarán los resultados?

e.    Utilidad metodológica: ¿Crear nuevos instrumentos? ¿Mejores instrumentos?

En consecuencia, como hemos visto hasta ahora justificar el estudio y su validación significa que debe establecerse el propósito del estudio y ser lo suficientemente fuerte para justificarlo la realización de la investigación y, seguidamente presentamos la definición de algunas de ellas:

Justificación Práctica: 

En este ítem indica la aplicabilidad de la investigación, su proyección de la sociedad, quienes se benefician de ésta, ya sea un grupo social o una organización. Otros autores sostienen que una investigación tiene justificación práctica cuando su desarrollo ayuda resolver un problema o por lo menos pone estrategias que, de aplicarlas contribuirían a resolverlo, vale decir, explicar por qué es conveniente es llevar a cabo la investigación y cuáles son los beneficios que se derivaran de ella. 

Justificación Teórica: 

Está centrado en presentar las razones teóricas que justifican la investigación, vale decir, señala todos los conocimientos que brindará el estudio sobre el objeto investigado. Cabe precisar que en una investigación hay una justificación teórica cuando el propósito del estudio es generar reflexión y debate académico sobre el conocimiento existente, confrontar una teoría, contrastar resultados o hacer epistemología del conocimiento existente. Una vez justificada la investigación, es necesario plantear las limitaciones dentro de las cuales se realizará –por supuesto no todas las investigaciones tienen las mismas limitaciones, puesto que cada estudio es particular-.  

Justificación Metodológica: 

Aquí indica las razones que sustentan un aporte por la creación o utilización de modelos e instrumentos de investigación.

Justificación legal: 

Básicamente tratas las razones que sustenta el código según la ley vigente en relación a la investigación.

domingo, 18 de abril de 2021

MUESTREO PROBABILISTICO

Tipos de muestreos

Ñaupas y otros (2018), señalan que una vez calculado el tamaño de la muestra, se procede a la selección de las unidades muestrales, para ello es necesario conocer los tipos de muestreo con los que se suele trabajar, hay dos tipos de muestreo el probabilístico y no probabilístico[1].

Muestreo probabilístico

Los métodos de muestras probabilísticos son aquellos que se basan en el principio de equiprobabilidad o azar. Es decir, aquellos en los que todos los individuos tienen la misma probabilidad de ser elegidos para formar parte de una muestra y, consiguientemente, todas las posibles muestras de tamaño n tienen la misma probabilidad de ser seleccionadas. Sólo estos métodos de muestreo probabilísticos nos aseguran la representatividad de la muestra extraída y son, por tanto, los más recomendables. Dentro de los métodos de muestreo probabilísticos encontramos los siguientes tipos:

Muestreo alzar simple

Aquí el procedimiento empleado es el siguiente: 1) se asigna un número a cada individuo de la población y 2) a través de algún medio mecánico (bolas dentro de una bolsa, tablas de números aleatorios, números aleatorios generados con una calculadora u ordenador, etcétera.) Se eligen tantos sujetos como sea necesario para completar el tamaño de muestra requerido. Este procedimiento, atractivo por su simpleza, tiene poca o nula utilidad práctica cuando la población que estamos manejando es muy grande.

Muestreo alzar sistemática

Este procedimiento exige, como el anterior, numerar todos los elementos de la población, pero en lugar de extraer n números aleatorios sólo se extrae uno. Se parte de ese número aleatorio i, que es un número elegido al azar, y los elementos que integran la muestra son los que ocupa los lugares i, i + k, i+2k, i+3k,..., i+(n-1)k, es decir se toman los individuos de k en k, siendo k el resultado de dividir el tamaño de la población entre el tamaño de la muestra: k= N/n. El número i que empleamos como punto de partida será un número al azar entre 1 y k.

El riesgo en este tipo de muestra está en los casos en que se dan periodicidades en la población ya que al elegir a los miembros de la muestra con una periodicidad constante (k) podemos introducir una homogeneidad que no se da en la población. Imaginemos que estamos seleccionando una muestra sobre listas de 10 individuos en los que los 5 primeros son varones y las 5 últimas mujeres, si empleamos una muestra aleatoria sistemática con k=10 siempre seleccionaríamos o sólo hombres o sólo mujeres, no podría haber una representación de los dos sexos.

Muestreo aleatorio estratificada

Trata de obviar las dificultades que presentan los anteriores ya que simplifican los procesos y suelen reducir el error muestral para un tamaño dado de la muestra. Consiste en considerar categorías típicas diferentes entre sí (estratos) que poseen gran homogeneidad respecto a alguna característica (se puede estratificar, por ejemplo, según la profesión, el municipio de residencia, el sexo, el estado civil, etcétera). Lo que se pretende con este tipo de muestras es asegurarse de que todos los estratos de interés estarán representados adecuadamente en la muestra. Cada estrato funciona independientemente, pudiendo aplicarse dentro de ellos la muestra aleatoria simple o el estratificado para elegir los elementos concretos que formarán parte de la muestra. En ocasiones las dificultades que plantean son demasiado grandes, pues exige un conocimiento detallado de la población. (Tamaño geográfico, sexos, edades, entre otros).

La distribución de la muestra en función de los diferentes estratos se denomina afijación, y puede ser de diferentes tipos:

Afijación Simple: a cada estrato le corresponde igual número de elementos muéstrales.

Afijación Proporcional: la distribución se hace de acuerdo con el peso (tamaño) de la población en cada estrato.

Afijación Óptima: se tiene en cuenta la previsible dispersión de los resultados, de modo que se considera la proporción y la desviación típica. Tiene poca aplicación ya que no se suele conocer la desviación.

Muestreo aleatorio por conglomerados

Los métodos presentados hasta ahora están pensados para seleccionar directamente los elementos de la población, es decir, que las unidades muéstrales son los elementos de la población.

En la muestra por conglomerados la unidad muestral es un grupo de elementos de la población que forman una unidad, a la que llamamos conglomerado. Las unidades hospitalarias, los departamentos universitarios, una caja de determinado producto, etcétera, son conglomerados naturales. En otras ocasiones se pueden utilizar conglomerados no naturales como, por ejemplo, las urnas electorales. Cuando los conglomerados son áreas geográficas suele hablarse de "muestras por áreas".

Consecuentemente, con este principio la muestra por conglomerados consiste en seleccionar aleatoriamente un cierto número de conglomerados (el necesario para alcanzar el tamaño muestral establecido) y en investigar después todos los elementos pertenecientes a los conglomerados elegidos.

 



[1] Ñaupas, H.; Valdivia, M.; Palacios, J.; Romero, H. (2018). Metodología de la investigación, Cuantitativa, Cualitativa y redacción de Tesis. Bogotá: ediciones de la U. 5ta. Edición, p. 339.

martes, 6 de abril de 2021

LA MUESTRA

 TAMAÑO DE LA MUESTRA

El tamaño de la muestra va estrechamente unido con la representatividad, no tiene fácil solución.  En un inicio hay que rechazar la idea, demasiado extendida, de que la muestra debe ser proporcional a la población. De hecho, a medida que aumenta ésta con una menor proporción podemos alcanzar la representatividad. Sin embargo, en igualdad de otras condiciones, los estadísticos calculados con muestras grandes son más precisos que los calculados con muestras pequeñas, pero una muestra representativa de 50 elementos es preferible a otra no representativa de 100 (Jiménez, 1983).

En la investigación no existe un tamaño ideal de la muestra. A efectos descriptivos, se considera una muestra grande cuando n > 30. Una muestra debe ser lo suficientemente grande como para ser representativa, pero el número de elementos necesarios para lograr la representatividad varía en un estudio a otra. Cuanto más homogénea es una población en las características objeto de estudio, más fácil resulta conseguir muestras representativas sin necesidad de que sean grandes. Es decir, el tamaño de la muestra está en relación directa con la desviación típica de las puntuaciones en las características de la variable a estudiar.

El tamaño de la muestra viene condicionado por el tanto por ciento de la característica que estamos estudiando. Cuando no se conoce es conveniente hacer algún pequeño estudio inicial con una muestra mucho menor para tener alguna idea de ese porcentaje. Por ejemplo: alumnos que se matriculan Seminario II y después no asisten o abandonan. Cuando tenemos una proporción de la característica del 50% estamos ante lo que se designa como el caso más desfavorable porque exige la muestra mayor.  Si no conocemos la proporción se asigna el 50% como la opción más segura en los cálculos de la muestra.

Según Fernández (1983) el tipo de datos que se desea recoger y el medio que para ello se va a emplear son condicionantes que influyen en la menor o mayor reducción de la muestra seleccionada. No es igual seleccionar, por ejemplo, aulas ya organizadas y recoger la información en días y horas lectivos que hacerlo a través de un cuestionario enviado por correo.

Otro autor sostiene que el tamaño de la muestra también depende del tipo de muestreo que se ha llevado a cabo. Por ejemplo: en las muestras estratificadas, el error es menor que en las no estratificadas, y también lo es el tamaño de la muestra necesario[1].

En lo referente a la finalidad del nivel de confianza que queramos que alcancen nuestros resultados también influye en el tamaño que debamos dar a la muestra. Entre +2 y -2 sigmas de la curva de distribución normal de Gauss, a partir de la media, está incluido el 95.5% de la población. Esto quiere decir que tenemos una probabilidad de que 955/1000 coincidan con los de la población total. Si queremos alcanzar una mayor certidumbre hemos de abarcar entre +3 y -3 sigmas, en cuyo caso el riesgo de que exista diferencia entre los estadísticos de la muestra y los parámetros de la población sean distintos será de 997/100, pero naturalmente tendremos que elevar el número de elementos de la muestra.

Otro dato determinante del tamaño de la muestra es el error de estimación. Es lógico pensar que no haya una coincidencia total entre los datos de la población y los de la muestra. Hemos de indicar el máximo error tolerable, que suele establecerse en el 5%. Pero si queremos rebajar ese error tendremos que aumentar el volumen de la muestra.

En consecuencia, señalamos que determinar el tamaño de la muestra es un tema complejo. Por tanto, el investigador habrá de tener en cuenta: la amplitud del universo (infinito o no), representatividad, las variables (tipo de datos, valores de la misma, homogeneidad/variabilidad de los datos), el tipo de muestreo, el proceso y medios de recogida de datos, los análisis estadísticos que se planifiquen, el error muestral, el error de estimación y el nivel de confianza con el que deseemos trabajar entre otras consideraciones. Con esta base se tendrán los referentes necesarios para determinar el tamaño de la muestra.



[1] Sierra Bravo, R. (1988). Técnicas de investigación Social. Teoría y Ejercicios. Madrid: Paraninfo, p. 226.

lunes, 5 de abril de 2021

Diseño cuasi-experimental

Diseños cuasi-experimentales

Si bien existen distintas clasificaciones de los diseños cuasi-experimentales, la mayoría de ellas coinciden en proponer dos grupos de diseños. De una parte, están los diseños transversales, y, de otra parte, están los diseños longitudinales (véase, por ejemplo: Arnau, 1997, 2003; Ato y Vallejo, 2007). En concreto, vamos a presentar aquí la clasificación propuesta por Arnau (2003).

a)     se caracterizan porque estudian el fenómeno en un momento temporal concreto, de manera que la variable de respuesta o variable dependiente se mide en un único momento temporal -como mucho tomaríamos otra medida de la variable de respuesta antes de la intervención o, lo que es lo mismo, tomaríamos una medida pre-test o pre-tratamiento-. Se trata de diseños en los que se comparan grupos.

b)     Los diseños longitudinales, por el contrario, se caracterizan porque en ellos se toman varias medidas de la variable de respuesta para los distintos individuos -que pueden ser uno solo o más de uno (aulas, escuelas, poblaciones)- a lo largo del tiempo. Su objetivo es estudiar los procesos de cambio en función del tiempo y explicarlos.

c)     Los diseños transversales se clasifican a su vez en función de la regla de asignación de los sujetos a los grupos. Así, se distingue entre los diseños con regla de asignación desconocida -el diseño de grupo control no equivalente y el diseño de grupos no equivalentes- y los diseños con regla de asignación conocida -el diseño de discontinuidad en la regresión-.

d)    Los diseños longitudinales se clasifican en:

·        Diseños de series temporales interrumpidas

·        Diseños de medidas repetidas

·        Diseños de cohortes y

·        Diseños en panel.

Vamos a presentar ahora una breve descripción de cada uno de estos diseños.
El diseño de grupo control no equivalente, en su forma básica, se caracteriza porque utiliza dos grupos: uno recibe el tratamiento, intervención o programa cuyo efecto se pretende estudiar, y otro no recibe tratamiento o recibe un tratamiento medianamente. Ato y Vallejo (2007). Así se dispone de un grupo experimental y un grupo control. En su forma más simple se toman medidas sólo después de la intervención -el diseño de grupo control no equivalente con medidas sólo pos test-. No obstante, en este caso, los problemas de control son tan grandes que muchos autores no incluyen este diseño en la categoría de cuasi-experimento, sino en la de pre-experimento. Si al diseño anterior se le añaden unas medidas pre-test, alcanzará la categoría de diseño cuasi-experimental. En este caso, las medidas pre-test permitirán, en primer lugar, valorar la equivalencia inicial de los grupos y, en segundo, controlarla en caso de que se dé la no equivalencia. Este diseño se denomina diseño de grupo control no equivalente con pre-test y pos-test.

El diseño de grupos no equivalentes es similar al diseño anterior, no obstante, en este caso, los grupos reciben tratamientos distintos. Además, se trata de grupos naturales, por lo que se tomarán medidas pre-test como elemento de control de la equivalencia de los mismos.

El diseño de discontinuidad según Trochin (2006) en la regresión se caracteriza porque, a diferencia de los anteriores, se conoce la variable de asignación de los sujetos a los grupos[1]. Esta variable de asignación es una medida pre-test.

La forma de proceder para formar los grupos es la siguiente: una vez tenemos la medida pre-test para todos los sujetos, éstos se ordenan en función de esa medida y se establece una puntuación de corte para asignar los sujetos a los grupos. Los sujetos con una puntuación por encima del punto de corte formarán parte de uno de los grupos y los sujetos con una puntuación por debajo del punto de corte pasarán a formar parte del otro grupo. Se trata de un diseño que goza de mucho prestigio porque incrementa las posibilidades interpretativas respecto a los otros diseños cuasi-experimentales, aproximándose incluso al diseño experimental. (Shadish, Cook y Campbell, 2002).

·        Los diseños de series temporales interrumpidas presentan como característica fundamental el registro de múltiples medidas previas y múltiples medidas posteriores a la introducción de un tratamiento o de un programa de intervención. Dentro de este grupo de diseños se distingue, a su vez, entre el diseño de series temporales simple y el diseño de series temporales con grupo control no equivalente. Arnau (1995). El primer diseño es aquél en el que se trabaja con un solo grupo de individuos, mientras que el segundo es aquél en el que se emplea un grupo experimental y un grupo control, con la finalidad de valorar de forma más rigurosa si los cambios producidos entre las fases pre y post-intervención son iguales en ambos grupos. Este segundo diseño tiene mayor validez interna que el primero.

·        Los diseños longitudinales de medidas repetidas son aquellos en los que se registran más de dos medidas repetidas en el tiempo con el propósito de conocer el proceso de crecimiento de una muestra de sujetos. En estos diseños lo que se hace es modelar los datos con ajustes de polinomios con el fin de estudiar las curvas de crecimiento. Este tipo de diseño también se denomina diseño longitudinal de múltiples observaciones. Un tipo especial de diseño longitudinal de medidas repetidas es el diseño de muestra dividida. En este diseño se trabaja con dos o más grupos de sujetos que se han formado en función de una variable de carácter social, biológica o psicológica, y se toman medidas para cada individuo en momentos temporales diferentes.

·        El diseño longitudinal de cohortes nos permite estimar los efectos de la edad, el periodo y la cohorte en un proceso de cambio. Una cohorte es un grupo o agregado de individuos, dentro de una población específica, que ha experimentado el mismo acontecimiento vital en un intervalo de tiempo determinado. Visser (1985) Aunque la variable más usada para delimitar la cohorte es la fecha de nacimiento, pueden utilizarse otras: los individuos casados en un período de tiempo establecido, los individuos que asistieron a la escuela en un determinado año, etc[2].

·        El diseño longitudinal en panel consiste, en la situación más simple, en medir dos variables de una misma muestra de sujetos a lo largo de una serie de tandas o momentos históricos. El objetivo es establecer, mediante la técnica de correlación cruzada en panel, la posible relación causal entre las variables medidas y el sentido de la causalidad. Se trata de un tipo de diseño que se utiliza mucho en el ámbito social para el estudio de intenciones políticas, preferencias, actitudes u opiniones.

 



[1] Trochim, W. M.  (2006). Los métodos de investigación de la base de conocimientos (2da. ed.). Disponible en http://www.atomicdog.com. Visitado en: abril 2013. 

[2] Visser, R. A. (1985). Análisis de datos longitudinales en la investigación conductual y social.  Leiden: DSWO Press.

 

sábado, 3 de abril de 2021

PLAN DE TABULACION

Plan de tabulación

En una investigación, el plan de tabulación “consiste en determinar que resultados de las variables se presentaran y que relaciones entre las variables del estudio necesitan ser analizados, con la finalidad de dar respuesta al problema, objetivos y las hipótesis del estudio”. En ese sentido, desde la perspectiva de Pineda y De Alvarado (2014) la elaboración de "datos presupone la preparación de un plan de tabulación que consiste en prever los cuadros que, atendiendo a los objetivos y las hipótesis, permiten la presentación de la información en forma clara y sistemática"[1].

Ahora bien, a continuación lo detallamos los pasos a seguir en la construcción del plan de tabulación planteadas por las autoras arriba señaladas:

  1. Detallar las variables identificadas y que serán objeto de estudio, según la definición de variables y los instrumentos elaborados.
  2. Determinar las variables que ameritan ser analizadas individualmente o presentadas en cuadros simples de una variable, según los objetivos y las hipótesis.
  3. Determinar las variables que deben cruzarse, según los objetivos y las hipótesis.
  4. Esquematizar, en los casos que lo ameriten, el cuadro para determinar la posibilidad de clasificación o categorías de análisis
  5. Hacer el listado de los cuadros que deberán presentarse.



[1] Pineda E; de Alvarado E. (2008). Metodología de investigación. Organización Mundial de la Salud. Tercera edición. OPS. Washington DC, p. 189.

viernes, 2 de abril de 2021

DISEÑO NO EXPERIMENTAL

LOS DISEÑOS NO EXPERIMENTALES

No existe demasiado consenso acerca de cómo se han de clasificar los diseños no experimentales, por lo que vamos a presentar aquí algunas propuestas.

Kirk (1995) este investigador afirma que la investigación científica se lleva a cabo con los siguientes objetivos:

·         Explorar

·         Describir o clasificar

·         Establecer relaciones y

·         Establecer causalidad.

A lo largo de los años, los investigadores han desarrollado una variedad de estrategias de investigación para alcanzar estos objetivos: el experimento, el cuasi-experimento, la encuesta, el estudio de casos y la observación natural (p.5). Más adelante añade otras estrategias de investigación a esta lista: los estudios ex post facto, los estudios retrospectivos y prospectivos, los estudios estáticos y longitudinales, y los estudios de series de tiempo y de sujeto único. Si bien este autor no menciona de forma explícita los diseños no experimentales, podemos, por exclusión, incluir en esta categoría todas aquellas estrategias de investigación distintas del experimento y del cuasi-experimento.

Smith y Davis (2003)[1], siguiendo la propuesta de Kirk (1995), incluyen bajo la etiqueta de métodos no experimentales las siguientes estrategias de investigación: métodos descriptivos -se caracterizan porque se limitan a observar y documentar diversos aspectos de una situación o de un fenómeno que ocurre de forma natural (dentro de estos métodos incluyen los estudios de casos y la observación natural)-; la investigación cualitativa que según Creswell (1998) es un proceso de indagación para comprender un problema humano o social basado en un complejo, figura holística formado con palabras, recogiendo opiniones detalladas de los informantes y llevado a cabo en un ambiente natural (p. 2); los estudios correlacionales cuyo objetivo es establecer relaciones entre variables; los estudios ex post facto que se caracterizan porque las variables que se estudian se seleccionan después de que hayan ocurrido; y las encuestas.

Polit y Hungler (2000) diferencian dentro de los diseños no experimentales entre la investigación correlacional y la investigación descriptiva. La primera se caracteriza porque su objetivo es estudiar las asociaciones entre las variables implicadas en la investigación. Es decir, se interesa en estudiar si las variaciones registradas en una variable se relacionan con las variaciones registradas en otra. La segunda se caracteriza porque se limita a observar un fenómeno que ocurre de forma natural. Dentro de la investigación correlacional se diferencia entre los diseños retrospectivos y los diseños prospectivos. Los primeros son investigaciones en las que un determinado fenómeno actual se vincula con otros cuya incidencia tuvo lugar antes del inicio del estudio. Esto quiere decir que el investigador centra su atención en un resultado presente e intenta arrojar luz sobre los antecedentes que lo han causado. Muchos estudios epidemiológicos e investigaciones médicas tienen carácter retrospectivo. Los diseños prospectivos[2], por su parte, se inician con el registro de los presuntos factores causales y prosiguen a lo largo del tiempo hasta producirse el efecto esperado. En general, los estudios prospectivos son más costosos que los estudios retrospectivos, y ésta es la razón por la que se utilizan con menos frecuencia.



[1] Smith, R. A. y Davis, S. F. (2003). El psicólogo como detective: Una introducción a la realización de investigaciones en psicología (3ra.  ed.). Barcelona: NJ Pearson, p. 238.

[2] Polit, D. F. y Hungler, B. P. (2000). Investigación científica en ciencias de la salud (6ª ed.) Mexico: McGraw-Hill, p. 86.

 

 


ANALISIS E INTERPRETACION DE DATOS

  Análisis e interpretación de datos El análisis e interpretación de datos es un elemento indispensable en el proceso de investigación doc...