DOI: https://doi.org/10.7203/relieve.23.2.9476

Comportamiento de las correlaciones producto-momento y tetracórica-policórica en escalas ordinales: un estudio de simulación


Resumen


El análisis estadístico multivariante de escalas de respuesta tipo Likert, dado su empleo generalizado, resulta un tema controvertido en la comunidad científica, principalmente desde la especificación del problema de la medida. Este trabajo tiene como objeto estudiar cómo afectan diversas condiciones de estas escalas ordinales al cálculo de los coeficientes de correlación producto-momento y tetracórico-policórico. Para ello, se aplica un estudio de simulación en el que se generaron 90 bases de datos con 10 ítems cada una, controlando las siguientes variables: número de categorías de respuesta, distribución simétrica o asimétrica de los datos, tamaño de la muestra y nivel de relación entre los ítems. Así, se obtuvieron 90 matrices (10x10) que incluyeron la diferencia entre la correlación producto-momento y tetracórica-policórica. El análisis gráfico y de varianza muestran cómo el coeficiente de correlación producto-momento infravalora la relación entre las variables de manera importante principalmente cuando el número de opciones de respuesta de la escala ordinal es pequeño y la relación entre las variables grande. Por su parte, las estimaciones de ambos coeficientes son muy similares cuando la relación de partida entre las parejas de variables es pequeña y/o cuando el número de opciones de respuesta de las variables es mayor que 5. Se concluye realizando una recomendación al investigador aplicado sobre el coeficiente de correlación más apropiado en función del tipo de datos disponibles, y se discuten los resultados con estudios previos que alcanzan algunas conclusiones similares.

Palabras clave


Simulación; Análisis multivariado; Análisis de correlación; Correlación producto-momento; Correlación tetracórica; Correlación policórica; Medida; Escala de actitud

Texto completo:

PDF PDF (English)

Referencias


  1. Abad, F. J. (2011). Medición en ciencias sociales y de la salud. Madrid: Síntesis.

  2. Bandalos, D. L., & Enders, C. K. (1996). The Effects of Nonnormality and Number of Response Categories on Reliability. Applied Measurement in Education, 9(2), 151-160. doi: https://doi.org/10.1207/s15324818ame0902_4

  3. Birkett, N. J. (1986). Selecting the number of response categories for a Likert-type scale. En Proceedings of the American Statistical Association (pp. 488-492). USA.

  4. Burga León, A. (2012). La unidimensionalidad de un instrumento de medición: perspectiva factorial. Revista de Psicología, 24(1), 53-80.

  5. Cain, M.K., Zhang, Z. & Yuan, K.H. (en prensa). Univariate and multivariate skewness and kurtosis for measuring nonnormality: Prevalence, inflluence and estimation. Behavior Research Methods. doi: https://doi.org/10.3758/s13428-016-0814-1

  6. Chan, J. C. (1991). Response-Order Effects in Likert-Type Scales. Educational and Psychological Measurement, 51(3), 531-540. doi: https://doi.org/10.1177/0013164491513002

  7. Choi, J., Peters, M., & Mueller, R. O. (2010). Correlational analysis of ordinal data: from Pearson’s r to Bayesian polychoric correlation. Asia Pacific education review, 11(4), 459-466. doi: https://doi.org/10.1007/s12564-010-9096-y

  8. Cicchetti, D. V., Shoinralter, D., & Tyrer, P. J. (1985). The Effect of Number of Rating Scale Categories on Levels of Interrater Reliability : A Monte Carlo Investigation. Applied Psychological Measurement, 9(1), 31-36. doi: https://doi.org/10.1177/014662168500900103

  9. Cohen, J. (1969). Statistical power analysis for the behavioral sciences. New York: Academic Press.

  10. Corder, G. W., & Foreman, D. I. (2009). Nonparametric statistics for non-statisticians: a step-by-step approach. San Francisco: Wiley. doi: https://doi.org/10.1002/9781118165881

  11. Cox, E. P. (1980). The Optimal Number of Response Alternatives for a Scale: A Review. Journal of Marketing Research, 17(4), 407-422. doi: https://doi.org/10.2307/3150495

  12. Ferreyra, M. F., & Backhoff-Escudero, E. (2016). Validez del Generador Automático de Ítems del Examen de Competencias Básicas (Excoba). RELIEVE, 22(1). doi: https://doi.org/10.7203/relieve.22.1.8048

  13. Freiberg Hoffmann, A., Stover, J. B., de la Iglesia, G., & Fernández Liporace, M. (2013). Correlaciones policóricas y tetracóricas en estudios factoriales exploratorios y confirmatorios. Ciencias Psicológicas, 7(2), 151-164.

  14. García Cueto, E., Muñiz Fernández, J., & Hernández Baeza, A. (2000). Comportamiento del modelo de respuesta graduada en función del número de categorías de la escala. Psicothema, 12(2), 288-291.

  15. Gilley, W. F., & Uhlig, G. E. (1993). Factor Analysis and Ordinal Data. Education, 114(2), 258.

  16. González-González, H., Álvarez-Castillo, J.-L., & Fernández-Caminero, G. (2015). Desarrollo y validación de una escala de medida de la empatía intercultural. RELIEVE, 21(2). doi: https://doi.org/10.7203/relieve.21.2.7841

  17. Holgado–Tello, F. P., Chacón–Moscoso, S., Barbero–García, I., & Vila–Abad, E. (2008). Polychoric versus Pearson correlations in exploratory and confirmatory factor analysis of ordinal variables. Quality & Quantity, 44(1), 153-166. doi: https://doi.org/10.1007/s11135-008-9190-y

  18. Hopkins, W. G. (2000). A new view of statistics. Recuperado a partir de http://www.sportsci.org/resource/stats/

  19. Lara, S. A. D. (2014). ¿Matrices Policóricas/Tetracóricas o Matrices Pearson? Un estudio metodológico. Recuperado 16 de junio de 2016, a partir de http://www.redalyc.org/articulo.oa?id=333430869006

  20. Lévy Mangin, J.-P. (2006). Modelización con estructuras de covarianzas en ciencias sociales: temas esenciales, avanzados y aportaciones especiales. España: Netbiblo.

  21. López González, E. (2012). Sugerencias para el análisis de escalas con métrica delicada. Revista Iberoamericana de Evaluación Educativa, 5(1), 84-105.

  22. Lozano, L. M., García-Cueto, E., & Muñiz, J. (2008). Effect of the Number of Response Categories on the Reliability and Validity of Rating Scales. Methodology, 4(2), 73-79. doi: https://doi.org/10.1027/1614-2241.4.2.73

  23. Marcus-Roberts, H. M., & Roberts, F. S. (1987). Meaningless Statistics. Journal of Educational and Behavioral Statistics, 12(4), 383-394. doi: https://doi.org/10.3102/10769986012004383

  24. Muñiz, J. (1998). La medición de lo psicológico. Psicothema, 10(1), 1-21.

  25. Matell, M. S., & Jacoby, J. (1972). Is there an optimal number of alternatives for Likert-scale items? Effects of testing time and scale properties. Journal of Applied Psychology, 56(6), 506-509. doi: https://doi.org/10.1037/h0033601

  26. Maydeu-Olivares, A., Kramp, U., García-Forero, C., Gallardo-Pujol, D., & Coffman, D. (2009). The effect of varying the number of response alternatives in rating scales: Experimental evidence from intra-individual effects. Behavior Research Methods, 41(2), 295-308. doi: https://doi.org/10.3758/BRM.41.2.295

  27. Morales Vallejo, P. (2000). Medición de actitudes en psicología y educación: construcción de escalas y problemas metodológicos. Madrid: Universidad Pontificia Comillas.

  28. Morales Vallejo, P., Urosa, S., & Blanco, A. (2003). Construcción de escalas de actitudes tipo likert: una guía práctica. Madrid: La Muralla.

  29. Morata-Ramírez, M. de los Á., & Holgado-Tello, F. P. (2013). Construct Validity of Likert Scales through Confirmatory Factor Analysis: A Simulation Study Comparing Different Methods of Estimation Based on Pearson and Polychoric Correlations. International Journal of Social Science Studies, 1(1), 54-61. doi: https://doi.org/10.11114/ijsss.v1i1.27

  30. Muthen, B., & Kaplan, D. (1992). A comparison of some methodologies for the factor analysis of non-normal Likert variables: A note on the size of the model. British Journal of Mathematical and Statistical Psychology, 45(1), 171-189. doi: https://doi.org/10.1111/j.2044-8317.1992.tb00975.x

  31. Myers, N.D., Ahn, S., Lu, M., Celimli, S., & Zopluoglu, C. (2017). Reordering and reflecting factors for simulation studies with exploratory factor analysis. Structural Equation Modeling, 24(1), 112-128. doi: https://doi.org/10.1080/10705511.2016.1230721

  32. Nunnally, S. W. (2010). Construction Methods and Management (8 edition). Upper Saddle River, N.J: Pearson.

  33. Oliden, P. E., & Zumbo, B. D. (2008). Coeficientes de fiabilidad para escalas de respuesta categórica ordenada. Psicothema, 20(4), 896-901.

  34. Olmos Migueláñez, S., Martínez Abad, F., Torrecilla Sánchez, E. M., & Mena Marcos, J. (2014). Análisis psicométrico de una escala de percepción sobre la utilidad de Moodle en la universidad. RELIEVE, 20(2), art. 1. doi: https://doi.org/10.7203/relieve.20.2.4221

  35. Panter, A. T., Swygert, K. A., Grant Dahlstrom, W., & Tanaka, J. S. (1997). Factor analytic approaches to personality item-level data. Journal of Personality Assessment, 68(3), 561-589. doi: https://doi.org/10.1207/s15327752jpa6803_6

  36. Pearse, N. (2011). Deciding on the Scale Granularity of Response Categories of Likert type Scales: The Case of a 21-Point Scale. Electronic Journal of Business Research Methods, 9(2), 159-171.

  37. Pearson, K. (1900). Mathematical Contributions to the Theory of Evolution. VII. On the Correlation of Characters not Quantitatively Measurable. Philosophical Transactions of the Royal Society of London. Series A, Containing Papers of a Mathematical or Physical Character, 195, 1-405. doi: https://doi.org/10.1098/rsta.1900.0022

  38. Pearson, K. (1910). On a New Method of Determining Correlation, when One Variable is Given by Alternative and the Other by Multiple Categories. Biometrika, 7(3), 248-257. doi: https://doi.org/10.2307/2345385

  39. Preston, C. C., & Colman, A. M. (2000). Optimal number of response categories in rating scales: reliability, validity, discriminating power, and respondent preferences. Acta Psychologica, 104(1), 1-15. doi: https://doi.org/10.1016/S0001-6918(99)00050-5

  40. Richaud, M. C. (2005). Desarrollos del analisis factorial para el estudio de item dicotomicos y ordinales. Interdisciplinaria, 22(2), 237-251.

  41. Saris, W. E., & Coenders, G. (1995). Categorization and measurement quality. The choice between Pearson and Polychoric correlations. En W. Saris & A. Munnich, The multitrait-multimethod approach to evaluate measurement instruments (pp. 125-145). Budapest: Eotvos University Press. Recuperado a partir de http://dare.uva.nl/record/1/113406

  42. Serrano Angulo, J., Cebrián Robles, D. & Serrano Puerto, J. (2015). Control de calidad de datos obtenidos de cuestionarios en escalas Lickert. En AIDIPE, Investigar con y para la sociedad (pp. 167-176). Cádiz: Bubok Publishing S.L.

  43. Shafel, J., Brooke, L. N., & Gillmor, S. C. (2012). Effects of the Number of Response Categories on Rating Scales (pp. 1-24). Presentado en Anual conference of the American Educational Research Association, Vancouver.

  44. Siegel, S. (1970). Estadística no paramétrica: aplicada a las ciencias de la conducta. México: Trillas.

  45. Stevens, S. S. (1946). On the Theory of Scales of Measurement. Science, 103(2684), 677-680. doi: https://doi.org/10.1126/science.103.2684.677

  46. Ulitzsch, E., Holtmann, J., Schultze, M., & Eid, M. (2017). Comparing Multilevel and Classical Confirmatory Factor Analysis Parameterizations of Multirater Data: A Monte Carlo Simulation Study. Structural Equation Modeling, 24(1), 80-103. doi: https://doi.org/10.1080/10705511.2016.1251846

  47. Weijters, B., Cabooter, E., & Schillewaert, N. (2010). The effect of rating scale format on response styles: The number of response categories and response category labels. International Journal of Research in Marketing, 27(3), 236-247. doi: https://doi.org/10.1016/j.ijresmar.2010.02.004

  48. Weng, L.-J. (2004). Impact of the Number of Response Categories and Anchor Labels on Coefficient Alpha and Test-Retest Reliability. Educational and Psychological Measurement, 64(6), 956-972. doi: https://doi.org/10.1177/0013164404268674


Enlaces refback

  • No hay ningún enlace refback.




https://ojs.uv.es/public/site/images/aliaga/scopus_170 https://ojs.uv.es/public/site/images/aliaga/esci_225 https://ojs.uv.es/public/site/images/aliaga/sello-calidad-revistas-2016_697_01