lunes, 27 de abril de 2009

Unidad 7

  • Boudon, R. y Lazarsfeld, P. (1978) “De los conceptos a los índices empíricos”.
  • Korn, F.; Lazarsfeld, P.; Barton, A.; Menzel, H. (1984) Conceptos y variables en la investigación social. Cap. 2.
  • Glasser y Strauss, op. cit.
  • Bordieu, P. (1999) “El orden de las cosas” y “Con dos jóvenes del norte de Francia”.
  • Blalock, H: (1999) Introducción a la investigación social.
Estrategias para la construcción de datos

7.1. a) La medición
Medición: Muestra compuesta por unidades de análisis. Operación que pone en correspondencia propiedades observables de los objetos con un lenguaje formal que permite realizar operaciones con ellos, tales como clasificarlos, ordenarlos, ponerlos en correspondencia, relacionarlos, etc. De todos los lenguajes formales que se pueden usar para medir, hay dos que se utilizan con frecuencia: la aritmética y la lógica.

Confiabilidad: 3 conceptos básicos: 1) Estabilidad: un instrumento de medición es confiable si su aplicación sucesiva al mismo objeto o sujeto da más o menos el mismo resultado, se reduce la confiabilidad a la consistencia de la medición, 2) Precisión: el instrumento de medición es más confiable cuanto más se aproximen el valor verdadero y el observado o mientras menor es el error, se aplica a cada observación o a cada persona. Si un instrumento es confiable desde el punto de vista de la precisión también lo será desde la consistencia. 3) Precisión de mediciones repetidas sobre un conjunto de personas: el instrumento es confiable si la varianza de los valores verdaderos es pequeña en relación con la varianza de los valores observados.

Validez: 1) Validez de contenido: que la medición corresponda a lo que se quiere medir, se deben operacionalizar los conceptos; 2) Validez de criterio: usar un instrumento para estimar algún parámetro y confrontar la estimación con información externa al instrumento mismo (no suele ser de aplicación frecuente en el campo de los estudios sociales); 3) Validez teórica: tomando los conceptos que conforman la teoría, se postulan una serie de indicadores cuya relación con los primeros es hipotética. El conjunto observado de relaciones entre los indicadores permite construir los índices que miden los conceptos.

b) Conceptos teóricos y operacionalización
Para la determinación de “variables” capaces de medir objetos complejos, hay que seguir un proceso típico que permite expresar los conceptos en término de índices empíricos. Este proceso se lo conoce como operacionalización y está compuesto de 4 fases:


1) Representación literaria del concepto: la actividad intelectual y el análisis que permiten establecen un instrumento de medida surgen de una representación literaria. El investigador esboza una construcción abstracta, una imagen. La fase creativa de su trabajo empieza cuando, después de observar una serie de fenómenos dispares, intenta descubrir en ellos un rasgo característico fundamental, y explicar así las regularidades constatadas. En esta instancia, el concepto no es más que una entidad concebida en términos vagos, que confiere un sentido a las relaciones entre fenómenos observados.

2) Especificación del concepto: comprende el análisis de las “componentes” de esa primera noción. Dichas componentes pueden ser deducidas analíticamente a partir del concepto general que las engloba, o empíricamente, a partir de la estructura de sus intercorrelaciones. Un concepto responde casi siempre aun conjunto complejo de fenómenos, u no a un fenómeno simple y directamente observable. La teoría de la medida atribuye a estos factores el nombre de “dimensiones”, la complejidad de los conceptos utilizados en sociología es tal que su traducción operativa exige una pluralidad de dimensiones.

3) Elección de los indicadores: selección de los indicadores de las dimensiones anteriormente definidas. Los indicadores provienen directamente de la experiencia de la vida cotidiana y varían considerablemente según el medio social del individuo estudiado. Puesto que la relación entre cada indicador y el concepto fundamental queda definida en términos de probabilidad y no de certeza, es necesario utilizar un gran número de indicadores. (Carpeta: el indicador es aquello que preguntamos, la información brindada por el informante. Es a lo que se le asigna un valor.)

4) Formación de los índices: esta fase consiste en sintetizar los datos elementales obtenidos en las etapas anteriores. Después de descomponer una variable en diversas dimensiones y una vez elegidos un determinado número de indicadores para cada dimensión, debemos construir una medida única a partir de tales informaciones elementales. Nos veremos obligados a establecer un índice general que tenga en cuenta la totalidad de los datos.

Intercambiabilidad de índices: índices que no están altamente correlacionados entre sí, producen resultados muy similares cuando se los relaciona con una variable externa. Esta intercambiabilidad de índices aparece frecuentemente en la investigación social empírica. Los hallazgos de la investigación social empírica son invariantes cuando se hacen sustituciones razonables de un índice por otro. Esta regla se basa en la práctica diversificada de la investigación. Para traducir un concepto bastante amplio pero no específico en un instrumento para la investigación empírica, habrá siempre un gran número de indicadores elegibles para un índice clasificatorio. Un número relativamente pequeño de tales ítems es más manuable. Si bien la regla de la intercambiabilidad de índices es una de las bases de la investigación social empírica, se paga un precio alto e inevitable por sus consecuencias beneficiosas: habrá siempre un cierto número de casos que quedará mal clasificado y, por lo tanto, nuestros hallazgos serán menos claros de lo que serían si pudiéramos obtener medidas precisas para las variables objeto de nuestro estudio. (Korn; Lazarsfeld; Barton; Menzel)

Blalock: En el diseño experimental existen dos tipos de variables: Variables “dependientes”: aquellas cuyo comportamiento deseamos comprender o controlar; Variables “independientes”: aquéllas que influyen en los valores de las variables dependientes, es decir, las posibles causas del comportamiento de aquellas.

Se hace imposible saber si todas las causas de una variable han sido controladas ya que es imposible enumerar todas las causas o influencias capaces de perturbar una relación. En consecuencia, para eliminar las fuentes posibles de error, se emplea el proceso de aleatorización según el cual se asignan a los sujetos “tratamientos” o manipulaciones experimentales exclusivamente por medio del azar.

La aleatorización no establece un control rígido sobre ningún factor. Se confía en que las leyes de la probabilidad produzcan distribuciones similares de todos los factores que intervienen en el experimento. Su principal ventaja es que toma en cuenta numerosos factores en forma simultánea sin que nos veamos obligados a saber cuales son. Sin embargo, el azar puede jugar una mala pasada, por lo tanto es conveniente mantener bajo control estricto el mayor número posible de variables, principalmente aquellas variables que sabemos que tiene importancia, seleccionando luego las restantes al azar. Cuando apelamos a la aleatorización, estamos admitiendo que no hemos podido mantener estrictamente constante todas las variables casuales, por ende tendremos algunas variaciones aisladas o no explicadas.

El propósito de seleccionar esas variables al azar es lograr que la dispersión resulte aproximadamente aleatoria en vez de aparecer sistemáticamente relacionada con las variables cuyo vínculo estamos estudiando (x ej.: violencia/frustración). La aleatorización es un proceso mucho más eficaz que mantener constantes todas las variables.

c) Selección de variables e indicadores
Boudon y Lazarsfeld: Ninguna ciencia aborda su objeto específico de estudio en su plenitud concreta. Todas las ciencias seleccionan determinadas propiedades de su objeto e intentan establecer entre ellas relaciones recíprocas. El descubrimiento de tales relaciones constituye el fin último de toda investigación científica. Sin embargo, en las ciencias sociales, la elección de las propiedades estratégicas constituye un problema esencial.

Estas propiedades reciben a veces el nombre de aspectos o atributos, pero es más frecuente el empleo del término matemático de “variables”. La atribución de determinadas propiedades al objeto se la denomina descripción, clasificación o medida.

Estas variables se subdividen en dimensiones que, a su vez, están determinadas, o sólo pueden ser medidas, por un conjunto de indicadores que provienen del la vida cotidiana y que varían considerablemente según el individuo estudiado. Por ejemplo: el número de enfermos curados puede ser tomado como indicador de la capacidad de un médico, sin embargo, son necesarios otros indicadores para determinar esta dimensión, ya que hay que tener en cuenta que las probabilidades de curación son distintas en cada una de las especialidades médicas. Similar es el caso si consideramos el número de libros de una biblioteca pública para determinar el nivel cultural del conjunto de lectores donde también se debe considerar la calidad de las obras, etc.

Blalock: Dificultad en la investigación social: en el mundo una gran cantidad de variables guardan estrecha interrelación. Esto significa que sus causas y efectos son arduos de desentrañar, y que puede haber casi tantas teorías y explicaciones como personas que las formulen. En estas circunstancias, tanto la planificación de la investigación como la acción se tornan dificultosas y puede llegar a predominar parcialidades individuales y diferencias ideológicas.

Ejemplo de la complejidad que deben enfrentar los científicos sociales: “Ciclo de la pobreza”: bajos ingresos, mala instrucción, ocupaciones mal remuneradas, altos niveles de desempleo, bajos índices de motivación y rendimiento en las escuelas, familias disociadas, altas tasas de criminalidad y morbilidad, visión general pesimista de la vida, etc. Todos estos factores están causalmente relacionados, y siempre que uno se encuentra con una gran cantidad de factores muy relacionados entre sí se torna posible escoger unos pocos factores favoritos como causas básicas o variables explicatorias. Esto deja un amplio campo de operación al juicio personal y a las preferencias ideológicas individuales. Ej: “el ciclo de la pobreza” podría ser explicado de manera bien diferente por un conservador que por un liberal, ya que ambas interpretaciones asignan diferente gravitación a los factores causales que se consideran operativos. Ambas contienen algo de verdad.

El principal problema que enfrenta el científico social es decidir, de manera objetiva, que variables y explicaciones tienen mayor peso. El proceso de investigación consiste siempre en una serie de soluciones de compromiso. Al inclinarse a favor de una variable o diseño de investigación, el estudioso se ve forzado a desechas otros.

7.2. a) Los datos en los estudios cualitativos y b) Dimensiones del fenómeno y generación de conceptos
Taylor y Bodgan Cap. 6: La mayor parte de los estudios cualitativos se orientan hacia el desarrollo o verificación de la teoría sociológica. El propósito de los estudios teóricos consiste en comprender o explicar rasgos de la vida social que van más allá de las personas y escenarios estudiados en particular. En estos estudios los investigadores señalan lo que es importante. Utilizan los datos descriptivos para ilustrar sus teorías y conceptos y para convencer a los lectores de que lo que ellos dicen es verdad.

Glaser y Strauss (“The discovery of grounded theory: strategies for qualitative research”) distinguen dos tipos de teorías: las sustantivas (se relacionan con un área sustancial o concreta de indagación) y las formales (se refieren a áreas conceptuales de indagación), en la investigación cualitativa la mayor parte de los estudios se han centrado en áreas sustanciales simples. Mediante el estudio de diferentes áreas sustanciales, el investigador puede ampliar una teoría sustancial y convertirla un formal.

Los sociólogos cualitativos deben dirigir su atención al desarrollo o generación de teorías y conceptos sociales (Teoría fundamentada). La investigación cualitativa, al igual que la cuantitativa, también puede y debe ser utilizada con el fin de desarrollar y verificar o poner a prueba proposiciones sobre la naturaleza o la vida social (procedimiento de la inducción analítica). Por este motivo, resulta útil diferenciar la generación de teoría, por una parte, de la verificación de la teoría, por otra, con los respectivos recursos de la teoría fundada (método de constante comparación y muestreo teórico) y la inducción analítica.

Aproximaciones predominantes al análisis cualitativo de los datos:
1) Si el analista quiere convertir datos cualitativos en una forma cuantitativa de tal manera que él pueda testear provisionalmente una hipótesis, primero codifica los datos y luego los analiza. El investigador hace un esfuerzo para “codificar todos los datos relevantes que pueden ser relacionados a un tema” y luego sistemáticamente reúne, evalúa y analiza esos datos de tal manera que puedan construir una prueba para una proposición determinada. Esta aproximación bloquea el desarrollo de teoría porque ha sido diseñada para el testeo provisional y no para el descubrimiento de hipótesis.
2) Si el analista quiere solamente generar ideas teóricas (nuevas categorías y sus propiedades, hipótesis e hipótesis interrelacionadas), no puede confinarse a la práctica de codificar primero y analizar después los datos, ya que al generar teoría él está constantemente rediseñando y reintegrando sus nociones teóricas a medida que revisa su material. El analista se limitará a inspeccionar sus datos en búsqueda de nuevas propiedades de sus categorías teóricas y escribirá sobre esas propiedades.
3) Método de constante comparación: combina por un procedimiento de constante comparación el procedimiento de codificación y el desarrollo de teoría, es decir, los puntos 1 y 2. El investigador simultáneamente codifica y analiza datos para desarrollar conceptos. Mediante la comparación continua de incidentes específicos de los datos, el investigador refina esos conceptos, identifica sus propiedades, explora sus interrelaciones y los integra en una teoría coherente. El propósito de éste método es generar teoría más sistemáticamente que lo que permite la 2º aproximación, por medio de la codificación explícita y procedimientos analíticos, es decir, desarrolla una teoría fundada.

Este método de análisis comparativo debe ser usado juntamente con el muestreo teórico, ya sea para recoger nuevos datos o en datos cualitativos previamente recogidos o compilados. En él el investigador selecciona nuevos caso a estudiar según su potencial para ayudar a refinar o expandir conceptos y teorías ya desarrolladas. La recolección de datos y análisis se realizan al mismo tiempo.

La sistematización de la inspección de datos y el rediseño de una teoría en desarrollo (2º aproximación) por éste método, no suplanta las habilidades y sensibilidades requeridas para generar teoría. El método de la constante comparación ha sido diseñado para ayudar al analista que posee esas habilidades a generar una teoría integrada, consistente, plausible, cercana a los datos y fácilmente operacionalizable para ser testeada en investigaciones cuantitativas (teoría fundamentada).

Este método, a diferencia de los métodos de análisis cuantitativo, no está diseñado para garantizar que dos analistas trabajando independientemente con los mismos datos logren el mismo resultado: esta diseñado para permitir con disciplina la creativa generación de teoría. Al generar teoría fundamentada, los investigadores no tratan de probar sus ideas, sino sólo de demostrar que son plausibles. El criterio clave para evaluar las teorías consiste en examinar si se “ajustan” (las categorías deben ser fácilmente aplicables a los datos que se estudian y surgir de ellos) y “funcionan” (las categorías deben ser significativamente apropiadas y capaces de explicar la conducta de estudio). En última instancia, los lectores deben juzgar la credibilidad de los estudios cualitativos.

4 etapas:
a) Comparación de incidentes aplicables a cada categoría: el analista comienza por codificar cada incidente en sus datos dentro de tantas categorías de análisis como sea posible. La codificación puede consistir solamente en anotar categorías en los márgenes. Mientras se codifica un incidente para cada categoría, compárela con los incidentes previos en el mismo y en diferentes grupos codificados en la misma categoría. Esta comparación constante de los incidentes comienza rápidamente a generar propiedades teóricas de la categoría. Cuando las categorías y sus propiedades emergen, el analista descubre dos clases: aquellas que él ha construido por sí mismo; y aquellas que han sido abstraídas del lenguaje de la situación de investigación.
b) Integración de categorías y sus propiedades: este proceso comienza con memos y posibles conferencias costas. Cuando la codificación continúa, la comparación constante cambia unidades, desde la comparación de incidente con incidente a la comparación de incidentes con propiedades de una categoría que resultó de la anterior comparación de incidentes. La comparación constante hace que el conocimiento acumulado perteneciente a una propiedad de una categoría comience rápidamente a ser integrado, es decir, relacionado de muchas maneras diferentes, resultando en un conjunto unificado. La categoría se va integrando con otras categorías de análisis. Así la teoría se desarrolla, cuando categorías diferentes y sus propiedades tienden a integrarse a través de la constante comparación que fuerza al analista a hacer algunos sentidos teóricamente relacionados de cada comparación. Si los datos son recogidos mediante muestreo teórico al mismo tiempo que ellos son analizados, entonces la integración de la teoría es más probable que surja por sí misma.
c) Delimitación de la teoría: cuando la teoría se desarrolla, varios elementos del método de constante comparación comienza a limitar. La delimitación ocurre en dos niveles: la teoría y las categorías. Primero, la teoría se solidifica, las modificaciones se van haciendo cada vez menores cuando el analista compara el siguiente incidente de una categoría a sus propiedades. Las posteriores modificaciones tiene principalmente el sentido de clarificar la lógica, extraer propiedades no relevantes, integrar detalles elaborados de propiedades en el esquema mayor de categorías interrelacionadas y reducción (del conjunto total de categorías y sus propiedades, el analista puede formular la teoría a partir de un conjunto más pequeño de alto nivel).
d) Escribir la teoría.
4) La inducción analítica: es un procedimiento para verificar teoría y proposiciones basado en datos cualitativos. Al igual que el método de constante comparación combina la 1º y 2º aproximación, pero de una manera distinta. La inducción analítica se ha concentrado en generar y probar una teoría integrada, limitada, precisa, aplicable universalmente de causas que dan cuenta de una conducta específica. Su finalidad consiste en identificar proposiciones universales y leyes causales. Es un método cualitativo riguroso para arribar a un ajuste perfecto entre los datos y las explicaciones de los fenómenos sociales.
Pasos de la inducción analítica:
a) Desarrollar una definición aproximada del fenómeno a explicar;
b) Formular una hipótesis para explicar dicho fenómeno (puede basarse en los datos de otra investigación);
c) Estudiar un caso para ver si la hipótesis se ajusta;
d) Si la hipótesis no explica el caso, reformularla o redefinir el fenómeno;
e) Buscar activamente caso negativos que refuten la hipótesis;
f) Cuando se encuentren casos negativos, idem d);
g) Continuar hasta que se ha puesto a prueba adecuadamente la hipótesis examinando una amplia gama de casos.

La inducción analítica, en contraste con la teoría fundamentada, ayuda a los investigadores a plantear la cuestión potencial de generalización de resultados. Si los investigadores pueden demostrar que han examinado una suficiente gama de casos de un fenómeno, y buscado casos negativos, están en condiciones de defender mejor la naturaleza general de lo que hayan hallado.

No hay comentarios: