paul f. lazarsfeld el análisis de relaciones estadísticasdos relaciones parciales y un factor...

6
dada una relación original entre una de las variables indepen- dientes y la dependiente, si hay interacción una de las rela- ciones parciales será mayor que la original. 4.2.2. dar cuenta de la variación de una variable dependiente; cuando las variables independientes juntas producen la má- xima variación en la dependiente; es entonces posible una predicción inequlvoca en cuanto al comportamiento de la variable dependiente. 5. El intento de alcanzar una explicación para los casos des- viados, en lugar de tomarlos como "error" desde el comienzo, es UI! arma valiosa para desarrollar el análisis a posterior; de las hipótesis: Muchos casos falsificadores pueden ser explicados por a) introducción de nuevas variables en la hipótesis; b) errores por defecto de los instrumentos de medición. Fundación Bariloche, 1967. Bibliografía básica sobre análisis multivariable Paul F. Lazarsfeld, "lnterpretaci6n de relaciones estadisticas como procedi- mientos de investigaci6n", Publicado en castel1ano en el Boletín del Instituto de Sociología, Cuaderno 20. Paul F. Lazarsfeld y Morris Rosenberg (eds.), The Lan guage. of Social Free Press, Glencoe, m., 1955, todos los · textos incluidos en ]0. segunda parte. Existe una versión francesa con teJetos ad ioi onales : Paul F. La zarsfeld y Raymond Boudan (eds.), L'analyse empiriqu6 de la causalité, Mouton, París, 1966. Herbert Hyman, Suroo!{ Design and Analysis, Free Press, Clencoe, Ill., 1955. Hayward Alker, Mathematics and Politics, Ma crnillan, Nueva York, 1965. Johan Galtung, Teoría y método de la investigaci6n social, EUDEBA, Euenos Aires, 1966, tomo n, capitulo 5. Herbert SilllOn, Models 01 Man, Wiley, Nueva York, 1951, capítulo 2. James S. Coleman, IntToduction to Mathemctlcal Soclology, Free Pres s, Nueva York, 1964, capitulos 5 y 6. Raymorid Baudao. Vanalyse mathématiQlIe des faits socidux, Plan, París, 1967, parte J. 26 1 Paul F. Lazarsfeld El análisis de relaciones estadísticas Traducción de Lila Mora y Ara uj a Título original: "The Analysis of Statistical Relations", parte IV del articulo and Inference in Social Research" publicado en: Daniel Lerner (ed.), Evidence arul In'erence, The Free Press, Glencoe, Ill., 1959.

Upload: others

Post on 13-Mar-2020

3 views

Category:

Documents


1 download

TRANSCRIPT

Page 1: Paul F. Lazarsfeld El análisis de relaciones estadísticasdos relaciones parciales y un factor adicional, que es el producto de las llamadas relaciones marginales entre el factor

dada una relación original entre una de las variables indepen­dientes y la dependiente, si hay interacción una de las rela­ciones parciales será mayor que la original. 4.2.2. dar cuenta de la variación de una variable dependiente; cuando las variables independientes juntas producen la má­xima variación en la dependiente; es entonces posible una predicción inequlvoca en cuanto al comportamiento de la variable dependiente.

5. El intento de alcanzar una explicación para los casos des­viados, en lugar de tomarlos como "error" desde el comienzo, es UI! arma valiosa para desarrollar el análisis a posterior; de las hipótesis: Muchos casos falsificadores pueden ser explicados por a) introducción de nuevas variables en la hipótesis; b) errores por defecto de los instrumentos de medición.

Fundación Bariloche, 1967.

Bibliografía básica sobre análisis multivariable

Paul F. Lazarsfeld, "lnterpretaci6n de relaciones estadisticas como procedi­mientos de investigaci6n", Publicado en castel1ano en el Boletín del Instituto de Sociología, Cuaderno 20.

Paul F . Lazarsfeld y Morris Rosenberg (eds.), The Language. of Social Researc1~ Free Press, Glencoe, m., 1955, todos los· textos incluidos en ]0. segunda parte. Existe una versión francesa con teJetos adioionales : Paul F. Lazarsfeld y Raymond Boudan (eds.), L'analyse empiriqu6 de la causalité, Mouton, París, 1966.

Herbert Hyman, Suroo!{ Design and Analysis, Free Press, Clencoe, Ill., 1955.

Hayward Alker, Mathematics and Politics, Macrnillan, Nueva York, 1965.

Johan Galtung, Teoría y método de la investigaci6n social, EUDEBA, Euenos Aires, 1966, tomo n, capitulo 5.

Herbert SilllOn, Models 01 Man, Wiley, Nueva York, 1951, capítulo 2.

James S. Coleman, IntToduction to Mathemctlcal Soclology, Free Press, Nueva York, 1964, capitulos 5 y 6.

Raymorid Baudao. Vanalyse mathématiQlIe des faits socidux, Plan, París, 1967, parte J.

26

1

Paul F. Lazarsfeld

El análisis de relaciones estadísticas Traducción de Lila Mora y Arauja

Título original: "The Analysis of Statistical Relations", parte IV del articulo ~~Evidence and Inference in Social Research" publicado en: Daniel Lerner (ed.), Evidence arul In'erence, The Free Press, Glencoe, Ill., 1959.

Page 2: Paul F. Lazarsfeld El análisis de relaciones estadísticasdos relaciones parciales y un factor adicional, que es el producto de las llamadas relaciones marginales entre el factor

En las secciones precedentes hemos hecho referencia a una serie de relaciones entre dos variables. Para la presente finalidad po­demos suponer que todas eIJas eran atributos dicotómicos, y que estarnos interesados solamente en una pregunta: ¿están los dos atributos relacionados o no? Para nuestra respuesta tene­mos que formar una tabulaci6n cruzada como la siguiente:

atributo x pre~en(~ ausente

presente Pxy Pl1y Py atributo y

Pxy Py ausente Pxy

Px p;¡ 1

El simbolismo es simple por ejemplo, P x, es la producción de

.personas que son y pero no son x. Si x e y no están relacionadas, entonces

f i ,- '

Pxy Px)' -=-Pi}' P"y

Esto significa que la presencia de x es relativamente de igual frecuencia entre aquellas personas que son y y aqueIJas que no son y. La condición precedente puede ser expresada en términos <lel llamado producto cruzalÚJ .

[xy 1 = Pxy Pxy - P'Xy J'x)'

Si [XY] = O (desaparece) entonces x e y no están relacionadas. {En el presente contexto no son relevantes problemas de mues­!reo.)

29

Page 3: Paul F. Lazarsfeld El análisis de relaciones estadísticasdos relaciones parciales y un factor adicional, que es el producto de las llamadas relaciones marginales entre el factor

Ahora supongamos que se introduce un tercer atributo t. En­tonces podemos desarrollar las dos operaciones correlativas de mezcla y de elaboraci6n. Un ejemplo numérico de mezcla se ve en el siguiente esquema:

l presente l ausente grupo total x x

;[f8:,o;tf8 :: 4 12 16 16

f ..... ,- _.,

En las dos tablas de la izquierda las variables x e y no están rela­cionadas. Pero si mezclamos los dos grupos originalmente separa­dos según t, encontramos que las personas que son y tendrán mayor probabilidad de ser x que aquellas que no son y.

La elaboración es la operación inversa a la mezcla. Consiste' en descomponer el grupo de la derecha en dos subgrupos y estudiar la relación de x e y separadamente para' las personas. que son t y las que no lo son. La elaboración, claramente, no es una operación única. Podríamos obtener el cuadro de la derecha, por ejemplo, mezclando los dos subgrupos siguientes:

t presente t ausente e;rupo tota1

X x x ;¡ x ;¡

'ffiB' HíB" y 10 (' 16 ., G G y 3 S 8 Si 3 5 8 Y (i lO 16

8 8 .:<t "+ 8 8 IG 16

Hay una diferencia importanie entre este esquema y el prece­dente. Ambos atrihutos, X e y, estaban anteriormente relacionados con t. Ni [xt] ni [yt] eran iguales a cero. En el nuevo esquema. encontramos que la proporción de x e y es igual para las per­sonas que son t y las que no lo son:

[~] = O Y [yt] = O.

30

Llamaremos a las relaciones de las tablas de la izquierda de los esquemas relaciones parciales (dependiendo de t) y las simbo-

lizaremos por [xy;t] y [xy;t], respectivamente. La elaboración consiste entonces en estudiar cómo [XV] depende en [xy;t] y [xy;tl, bajo condiciones variables. de [xt] e [yt]. Un desarrollo algebraico del problema lleva a la fórmula general.

Fórmula (1):

[xy;t] [xy ] = _--=-'p:...:..c:_ +

, [xy;t]

P-, [xt] • [ty 1

+ -'-'n"--'~­P, P,

La relación original puede ser descripta como la suma de las dos relaciones parciales y un factor adicional, que es el producto de las llamadas relaciones marginales entre el factor de prueba y cada una de las dos variables originales. Esta elaboración conduce a dos formas principales. En un caso, cualquiera de las dos rela­ciones parciales puede desaparecer; asi, la fórmula (1) se re­duce a

Fórmula (2a):

[xy] = _.c..[x""'t]'-.",::[t""y=-] _ P • p-, ,

o bien el factor t de prueba puede no estar relacionado con x (eso significa que [xt]:= O), y entonces tenemos

Fórmula (2b):

(xy) =

una forma que resultará de interés sólo si una de estas dos relaciones parciales es marcadamente, más fuerte que la otra. Llamaremos a esta forma P (énfasis sobre los parciales), mien-

31

Page 4: Paul F. Lazarsfeld El análisis de relaciones estadísticasdos relaciones parciales y un factor adicional, que es el producto de las llamadas relaciones marginales entre el factor

·_._-_._- --------.....,--

tras que la fórmula (2a) será llamada forma M (énfasis sobre lo que los estadísticos llaman "marginales").

A esta distinción formal agregaremos ahora otra sustantiva: el orden temporal de las tres variables. Suponiendo que x es anterior " y, entonces t puede ser situada entre x e y en el tiempo, o puede preceder a ambos. En el primer caso hablamos de una variable de prueba interviniente, en el último caso de una ante­cedente. De este modo tenemos 4 posibilidades principales:

Posición de t Antecedente Interviniente

Forma esladistica

P PA PI

M MA MI

Ahora estamos en condiciones de pasar al punto decisivo. Sostenemos que hay esencialmente cuatro operaciones que pue­den ser practicadas con dos variables originales y una de prueba. No introduce diferencias el hecho de que esto se realice con datos reales o que tome la forma de análisis teórico. Si una relación entre dos variables es analizada a la luz de una tercera, sólo podrá ocurrir alguna de esas cuatro operaciones o combi­naciones, prescindiendo de que sean llamadas interpretación, comprensión, teoría, o alguna otra cosa.

Recurriendo a algunos ejemplos concretos se aclarará lo que significan esos cuatro tipos de elaboración. En el caso del tipo FA, habitualmente llamamos a la variable de prlleb~ f "na "condición". No es difícil imaginarse ejemplos generales. aun-

. que en la práctica son bastante raros y para el investigador constituye una gran felicidad descubrirlos. Por ejemplo, el efec­to de la propaganda de un film es mayor entre las personas de menos educación que entre las altamente educadas. La depre­sión tuvo peores efectos en las familias autoritarias que en las de otros tipos.

Pueden hacerse tres observaciones generales acerca de este tipo de descubrimiento o razonamiento: (a) Corresponde a la frecuente secundaria estímulo-disposición-respuesta. siendo x el estimulo y el antecedente Tladisposici6n. (b) El tipo mismo pOai-i¡, ' ser llamado más apropiadamente tipo de especificaciÓn. Uno de los dos parciales será necesariamente mayor que la re-

32

lación original. Especificamos, por decir aSÍ, las circunstancias bajo las cuales la relación original se mantiene con más fuerza. ( e) Hábituiilhiimte vamos mas allá y nos preguntamos por qué la relación es más fuerte en un lado de la variable dicotómica de prueba que en el otro. Esto podría entonces introducirnos en uno de los otros tipos de análisis. Durkheim usa los tipos PA al discutir por qué las personas casadas se suicidan menos que las solteras. Introduce como variable de prueba "una tendencia nerviosa al suicidio, que la familia, por su influencia, neutraliza " impide desarrollar". Esto es exactamente el tipo PA. No toma­mos todo esto como una explicación convincente, porque la in­troducción de la hipotética variable de prueba (tendencia al suicidio) parece algo tautológica. Más bien queremos conocer por qué las familias hacen que no se desarrolle esta tendencia, lo que lleva al tipo MI, como veremos más adelante.

El tipo PI también se puede ejemplificar fácilmente. Estudie­mos la relación entre éxito en el trabajo (y), y haber pasado o no por una éscuela de método progresivo (x,l. Encontraremos que los niños que se educaron bajo el método progresivo, si entran en una situación de trabajo autoritaria (t) , realizan su trabajo ron menor eficacia que los otros; en cambio, si entran en una ?tmósfera democrática, su éxito en el trabajo es mayor.

La relación entre tipo de educación y éxito en el trabajo es elaborada por un factor de prueba interviniente, la atmósfera de trabajo. Llamamos a dicho factor de prueba una "contin­gen~fa". Eu muchos estudios predictivos, el valor predicho de­pende de circunstancias subsiguientes que no están relacionadas con el predictor. Un ejemplo es la relación entre status ocupa­cional y participaci6n en la vida de una comunidad. Los em­pleados de oficina participan más si están insatisfechos, mientras que los trabajadores manuales participan más si están satisfechos con su trabajo.

El tipo MA es usado principalmente cuando se trata de recti­ficar lo que habitualmente llamamos una relaci6n . espuria. S~ ha descubierto que cuantas más bombas de incendio llegan' a un incendio (:t), mayor es el daño (y) . Como las bombas de in­cendio son usadas para reducir los daños, la relación resulta sorprendente y requiere elaboración. Como factor (t) de prue­ba se introduce el tamaño del incendio. Los parciales entonces

33

Page 5: Paul F. Lazarsfeld El análisis de relaciones estadísticasdos relaciones parciales y un factor adicional, que es el producto de las llamadas relaciones marginales entre el factor

;;: i'} ":~ ~ 1""" !..;'

r:Ti "\l~~an '-~ c~;~ y el resultado ~,;;~;~~:japarece C0l110 el producto de dos relaciones marginales; a mayor tamaño del incendio, más cantidad de bombas, y tambi6n mayor daño,

Cuando encontramos una relación que resulta psicológica­mente confusa, nos detenemos habitualmente en ese punto; pero

,,:$ t. f ~ este mismo modo de elaboración es también usado bajo circuns· , , ,", '," tancias psicológicas diferentes, Es mayor la cantidad de personas

'1 que se suicida durante el verano que durante el invierno, Durk-·,'.t:~j: .j heim sugiere, como un factor t de e1aboración, que las actividades

sociales se incrementan durante el verano, Nuestro conocimiento general nos dice que x (la estación ) está verdaderamente rela­donada con t en esta forma.

Nuestro interés pasa inmediatamente a la relación [ty]: el hecho supuesto de que una mayor intensidad de la vida social lleva a más suicidios, Por supuesto, ~L!l!!~"),, , __ e?llJjr.~_~é?, de Durkheim . sea correcta o no dependerá de ulla desaparición de lós)iiira:iles: :Óürkheim debéi-ia demostrar que, sise mantiene constante1a intensidad de la vida social, la estación no influye en los suicidios. Como él no posee datos sobre este punto, busca otras situaciones en las que puede suponer que la intensidad de la vida social varía, Encuentra que se produce mayor cantidad de suicidios durante el día que durante la noche, y vuelve a explicar este hecho con la ayuda del mismo factor de prueba, Esto nos conduce al problema general de la probabilidad de la inferencia, que no desarrollaremos aquí.

Tomaremos ahora el tipo MI, para el que usaremos el término inte~~~~~=:~~€::.a!!~reñ~r~~ñtl·e . ";;xpíic:;;é:i6,,:' . '~ .¡' iri't~Úi~ta-cT6ñ, en este contexto está relacionada con .la, secuencia , teIl:1:p',oral enfre x, y f. En una interpretación. t es una variable interviniente situadá' ¿"he x e y en la secuencia temporal.

Los ejemplos del tipo MI son numerosos, La vida en una co­munidad rural (x) por comparación con la vida en la ciudad se relaciona con una baja tasa de suicidio (y), La mayor intimidad de la vida (t) es introducida como variable interviniente, Si te­r,emos una buena medida de cohesión, debemos encontrar indu­dablemente que para las comunidades hay correlación positiva entre ser rural y no urbana (x) y su grado de cohesión (t), y que la mayor cohe.ión (t) se correlaciona con más bajas tasas de sui­cidio (y), Pero, obviamente, algunas comunidades rurales tendrán

34

menos cohesión que algunas comunidades urbanas, Si la cohe­sión se mantiene constante como artificio estadístico, entonces 10. relación parcial entre la variable rural-urbano y la tasa de suici­dio deberá desaparecer,

Otro ejemplo puede ser útil para ilustrar la diferencia entre el tipo MA y el tipo MI. Se descubrió durante la guerra que las mujeres casadas que trabajaban en fábricas tenían una tasa de ausentismo en el trabajo más alta que las mujeres solteras, Se­ñalamos aquí un número de posibles elaboraciones:

a, Factor de pr11{Jba: más responsabilidades en el hogar. Esta es una variable interviniente. Si al introducirla las dos .rela­ciones parciales -entr¡:testado civil y ausentismo- desapare­cen, tenemos una elaboración del tipo MI. Iuterpretamos la relación mostrando que la variable intervinie nte conecta las dos variables originales,

b. Factor de prueba: estado de salud medido muy gruesamente según la edad; las mujeres mayores tienen más probabilidad

. de estar casadas y son fisicamente más débiles, ambas cosas como resultado de su edad, La edad es una variable ante­cedente. Cuando la edad se mantiene constante, y la relación entre estado civil y ausentismo desaparece, tendremos una ex· plicación, y probablemente llamaremos a esto un efecto es­purio: el tipo MA.

Este último caso sugiere otro punto importante, Después de haber explicado la relación original, nuestra atención podría tras· ladarse a [ty] , el hecho de que la gente mayor muestra una tasa más alta de ausentismo. Esto, a su vez, puede llevar a nu evas elaboraciones: ¿se da realmente que las mujeres mayores son más débiles ffsicamente, ya sean casadas o solteras? ¿O es que las mujeres mayores han nacido en una época en que el trabajo no era todavía tan importante para la mujer y, por lo tanto, tienen una moral más baja en el trabajo? En otras palabras, una vez que IH elaboraci6n ha sido completada, como buenos científicos vol­veremos inmediatamente a una nueva; pero el proceso analítico básico será siempre el mismo.

35

Page 6: Paul F. Lazarsfeld El análisis de relaciones estadísticasdos relaciones parciales y un factor adicional, que es el producto de las llamadas relaciones marginales entre el factor

Un último punto puede ser dilucidado, al menos en un cierto grado, por este análisis. Podemos sugerir una definición precisa de la relación causal entre dos atributos. Si tenemos una relación entre x e y, }' si para cualquier factor de prueba antecedEmte ra relación parcial entre x e y no desaparece, entonces la rela­ción original puede ser lIainada causal. Aquí no se hace· dife­rencia respecto de si las operaciones necesarias son realmente llevadas a cabo o si resultan plausibles por razonamiento gene­ral. En un experimento controlado tenemos dos grupos seme­jantes: la exposición experimental corresponde a la variable x, y el efecto observado a y. La igualación nos asegura que para cualquier t antecedente tendremos [xt] = O. Si entonces [xy] = 0, siempre podemos, a la luz de los análisis precedentes, estar seguros de que existe una relación causal entre la exposición x y el efecto y. Esto tiene una repercusión especial sobre el siguiente tipo de discusión. Se ha encontrado que en las áreas densamente pobladas la tasa de criminalidad es más al ta que en las áreas poco pobladas. Algunos autores sostienen que esto podría no ser con­siderado como una relación causal genuina, pero tal objeción se utiliza a menudo en dos sentidos muy diferentes. nan por sen­tada una variable interviniente, por ejemplo la creciente irrita­ción que resulta de las condiciones de la vida multitudinaria. Tal interpretación no disminuye el carácter causal de la relación ori· ginal. Por otro lado, el argumento podría ser: las áreas suma­mente pobladas son más baratas y por ello atraen a la gente po­bre y de baja moral. Aquí el carácter de los habitantes es ante­cedente a las características del área. En este caso la relación original es realmente explicada como una relación espuria y no debería ser llamada causal.

Finalmente, podemos vincular la presente discusión con algu­nas observaciones realizadas en la sección anterior. La explica­ción consiste en el aspecto formal de la elaboración y en algunos ordenamientos sustantivos de las variables. Aquí hemos enfati­zado el ordenamiento por secuencia temporal. Pero no todas las variables pueden ser ordenadas de esta manera. Vemos que po­demos distinguir órdenes de complejidades, por ejemplo variables que caracterizan a personas, colectivos y conjuntos de colectivos. Pueden introducirse otros principios de ordenamiento, por ejem­plo grado de generalidad, ejemplificado por el caso de una opi-

36

Dión específica, una actitud amplia y un sistema de valores bá­sicos. Lo que se necesita es combinar el formalismo de elabora­ción con una clasificación de las variables según diferentes prin­cipios de ordenamiento. Esto cubriría una gran parte de lo que debemos conocer en la actualidad acerca de la lógica de la ex­plicación y la inferencia en el análisis de datos.

37