covid
Buscar en
Revista Latinoamericana de Psicología
Toda la web
Inicio Revista Latinoamericana de Psicología Estudio comparativo del acuerdo y consistencia intercalificadores en el test ges...
Información de la revista
Vol. 48. Núm. 3.
Páginas 175-182 (septiembre - diciembre 2016)
Compartir
Compartir
Descargar PDF
Más opciones de artículo
Visitas
7352
Vol. 48. Núm. 3.
Páginas 175-182 (septiembre - diciembre 2016)
ORIGINAL
Open Access
Estudio comparativo del acuerdo y consistencia intercalificadores en el test gestáltico visomotor de Bender 2.a edición
Comparative study of inter-rater agreement and consistency in the Bender visual motor gestalt test, 2.nd edition
Visitas
7352
César Merino Sotoa,
Autor para correspondencia
sikayax@yahoo.com.ar

Autor para correspondencia.
, Gustavo Calderón De la Cruza, Eduardo Manzanares Medinab
a Instituto de Investigación de Psicología, Universidad de San Martín de Porres, Lima, Perú
b Universidad Peruana de Ciencias Aplicadas, Lima, Perú
Este artículo ha recibido

Under a Creative Commons license
Información del artículo
Resumen
Texto completo
Bibliografía
Descargar PDF
Estadísticas
Tablas (3)
Tabla 1. Estadísticos descriptivos para los puntajes del Bender–II
Tabla 2. Consistencia (correlación Pearson) entre e intragrupos para el Bender-II
Tabla 3. Acuerdo (coeficiente ICC) entre e intragrupos para el Bender-II
Mostrar másMostrar menos
Resumen

El estudio tiene por objetivo contrastar la efectividad de calificadores sin entrenamiento específico en el test gestáltico visomotor de Bender, 2.a edición (Bender-II), usando un método para calificar el grado de exactitud de los dibujos reproducidos propio de este instrumento (sistema de calificación global). Algunos estudios previos han demostrado buenos niveles de confiabilidad intercalificador, pero no se verificó el efecto de la falta de entrenamiento específico. En el estudio participaron 75 niños divididos en dos grupos (34 y 41) de edad y cuatro calificadores (dos estudiantes y dos egresados, todos de psicología). Después de aplicar el test individualmente, los calificadores recibieron la instrucción de puntuar los dibujos usando únicamente el manual como guía, sin interactuar entre ellos. Se hicieron comparaciones intragrupo e intergrupos. Aunque los resultados indicaron algunas diferencias moderadas entre los grupos, principalmente se hallaron niveles altos de acuerdo y consistencia; y comparado con los estudios previos, las diferencias generalmente no fueron sustanciales. Se concluye que el puntaje visomotor del Bender-II puede alcanzar buenos niveles de confiabilidad.

Palabras clave:
Test de Bender
Confiabilidad
Acuerdo
Habilidad visomotora
Evaluación
Abstract

This study aims to test the effectiveness of raters without specific training in the Global Scoring System, a method used to score the level of accuracy of the drawings reproduced in the Bender gestalt test, 2.nd edition (Bender -II). Some previous studies have shown good reliability in inter-rater levels, but the effect of the lack of specific training was not verified. The participants were 75 children, divided into two groups (34 and 41, both between 8 and 11 years old), and four raters (two students and two graduates in psychology). After applying the test individually, the raters were instructed to rate the reproduced designs using the manual as a guide only, with no interaction between them. A within and between-group comparisons analysis was performed. Although the results showed some moderate differences in the group comparisons, high levels of agreement and consistency were mainly found. When compared with previous studies, the differences were generally not substantial. It can be concluded that the Bender-II visual-motor score can achieve good levels of reliability.

Keywords:
Bender test
Reliability
Agreement
Visual-motor skill
Assessment
Texto completo

El test gestáltico visomotor de Bender –TGB– (Bender, 1938) ha tenido muchos cambios que han afectado su funcionalidad y estructura, esto hace que los trabajos de validez y confiabilidad no sean necesariamente generalizables entre una y otra versión del mismo (Merino, 2011). Dos de las últimas versiones que han aparecido dentro de la literatura científica y práctica profesional son la segunda edición – Bender-II– (Brannigan & Decker, 2003) y la modificación del sistema evolutivo de calificación –Koppitz-II– (Reynolds, 2007). Ambas versiones proponen nuevos sistemas de calificación, alejándose de los sistemas tradicionales que ponían énfasis en el error en las reproducciones (Merino, 2011; Merino, Allen & Decker, 2013). El Bender-II presenta el sistema de calificación global (SCG), propio de este instrumento y aplicable a la evaluación de la copia y recuerdo en el Bender-II. Este método permite representar la continuidad de la habilidad visomotora en los puntajes de los ítems (Merino et al., 2013), mediante el escalamiento de ordinal para calificar cada ítem, y el enfoque global u holístico que debe aplicar el calificador. Esto difiere sustancialmente de las versiones anteriores como el sistema de Koppitz (1984) para niños, o de Lacks (1999) para adultos. Los lectores pueden dirigirse a otras fuentes (e.g., Brannigan, Decker & Madsen, 2004; Merino et al., 2013) para hallar más información relevante sobre estas diferencias. Otros métodos que mantienen este enfoque de continuidad también se han desarrollado para versiones del TGB modificadas localmente (e.g., en Brasil, el sistema de puntuación gradual; Sisto, Noronha & Santos, 2006); sin embargo, aún no son de uso generalizado.

La presente investigación se enfocará en el Bender-II, una herramienta que aparentemente aún es poco utilizada en investigaciones independientes alrededor del mundo. Efectivamente, puede considerarse que en la literatura científica actual aún hay pocos estudios sobre generalización de la validez y confiabilidad del Bender-II. Los principales estudios de las propiedades psicométricas del Bender-II se han realizado en su manual (Brannigan & Decker, 2003), donde se encuentra un fuerte respaldo del Bender-II para la diferenciación de grupos con discapacidades cognitivas, su concurrencia con otras medidas de visomotricidad y sus correlatos con el rendimiento académico. En las investigaciones posteriores realizadas con la muestra de estandarización americana (Decker, 2007; Decker, Allen & Choca, 2006; Decker, Englund, Carboni & Brooks, 2011) y en las investigaciones independientes en muestras hispanas (Merino, 2012; Merino & Allen, 2012, 2013), anglosajonas (Volker et al., 2010), y en el Medio Oriente (Uluç, Gülüm & Çalişir, 2012), se puede hallar un continuo respaldo favorable a la validez y confiabilidad del Bender-II.

En la evaluación de la confiabilidad intercalificadores, un aspecto crucial es la estimación de la confiabilidad y acuerdo intercalificadores, pues la diferente interpretación que cada evaluador hace del sistema de calificación añade una fuente de variación de error a los puntajes (Cone, 1999; Feldt & Brennan, 1989). Aunque los estudios que evaluaron la consistencia y/o el acuerdo intercalificador del Bender-II reportaron elevados coeficientes (correlaciones lineales e intraclase) para el puntaje total (p. ej. Merino, 2012; Merino & Allen, 2013; Volker et al., 2010) y niveles aceptables para la mayoría de los ítems (Merino, 2012), estos estudios generalmente se caracterizaron por tener calificadores entrenados previamente en el Bender-II. Esta preparación asegura que el diseño del estudio de confiabilidad homogeneice la experiencia en el material (en esta situación, el SCG), pero puede no representar una condición natural en el uso del Bender-II durante la práctica profesional.

En otras palabras, cuando los profesionales o investigadores adquieren un nuevo instrumento, parece más probable que se autoinstruyan en el uso de los materiales y procedimientos de aplicación y calificación. Esta instrucción autodidacta representa la suma de la experiencia propia y los entrenamientos previos en otros instrumentos pueden servir para transferir las habilidades adquiridas hacia el nuevo instrumento. La interacción entre la experiencia, el juicio, el apego a estándares de uso de pruebas (por ejemplo, International Test Commission, 2000), y quizás el ensayo y error juicioso, pueden conducir a que el usuario maneje satisfactoriamente el instrumento. Cuando esto ocurre, uno puede preguntarse si se pueden obtener puntajes de buena calidad, es decir, que contengan poco error o sesgo. Es posible que la edición del manual no sea suficiente para asegurar un aprendizaje exitoso del método holístico de calificación.

En el manual, Brannigan y Decker (2003) afirmaron que el SCG requiere poco entrenamiento para lograr alta consistencia, y que sería suficiente el aprendizaje de las instrucciones del manual, específicamente como práctica autodidacta. Como evidencia de ello, los autores solicitaron que un evaluador calificara 66 protocolos extraídos aleatoriamente de la muestra de estandarización americana, y sus puntajes en copia y recuerdo fueron comparados con un experto en el uso del Bender- II. Se obtuvieron coeficientes de correlación iguales a 0.85 y 0.92 (respectivamente), lo que respaldó la posición de los autores. Sin embargo, esta estimación solo respaldó la consistencia entre los calificadores pero no el acuerdo entre los mismos, pues la correlación lineal solo es sensible a los cambios en la monoticidad de las respuestas pero no al cambio efectivo o exacto en las puntuaciones. Adicionalmente, un documento de trabajo publicado posteriormente al manual (Brannigan et al., 2004) extendió la práctica de calificación del SCG con un ejemplo detallado, que incluía explicaciones comparativas. Se podría argumentar que esta guía adicional sirvió para complementar la necesidad de obtener mayor información publicada en el manual un año antes, y proporcionar una mayor práctica y comprensión de este nuevo método de calificación. Finalmente, los estudios previos sobre la confiabilidad de la calificación en muestras independientes (Merino, 2012; Merino & Allen, 2013; Volker et al., 2010) obtuvieron elevados coeficientes de consistencia, pero los calificadores recibieron sesiones de entrenamiento; por lo tanto, estos resultados son experimentalmente diferentes.

El presente estudio tiene por finalidad evaluar la calificación del Bender-II mediante calificadores sin entrenamiento en el instrumento y su sistema de calificación. El estudio diferenciará la evaluación de la consistencia y del acuerdo, aspectos conceptualmente distintos (Cone, 1999; Esquivel et al., 2006; Von Eye & Mun, 2005), y que tiene relevancia psicométrica y práctica para el profesional e investigador. La consistencia y el acuerdo entre calificadores representan dos formas de describir la precisión de los puntajes, pero se refieren a dos modelos diferentes que pueden ser confundidos, y no necesariamente coexistir en la misma magnitud (Cone, 1999; Liao, Hunt & Chen, 2010). Mientras la consistencia entre los calificadores apunta hacia el ordenamiento diferenciado de los sujetos (o estímulos), el acuerdo se refiere a la exactitud o concordancia de los puntajes entre los calificadores (Cone, 1999; Liao et al., 2010), y puede ser recomendado que ambos índices se reporten conjuntamente (Fleenor, Fleenor & Grossnickle, 1996) para obtener una clara figura de la similaridad entre observadores. Aunque esta diferenciación no fue reconocida en los estudios originales del Bender-II (Brannigan & Decker, 2003), algunos reportes independientes sobre la precisión de sus puntajes (Merino, 2012; Merino & Allen, 2013) han reportado índices diferenciados de consistencia y acuerdo, pero en un contexto diferente al del presente estudio.

MétodoParticipantes

Los participantes fueron los niños a quienes se les administró el Bender-II y los calificadores. Lo niños provinieron independientemente de dos instituciones educativas estatales de educación básica regular, ubicados en Lima Metropolitana (Perú); fueron 34 niños en el grupo 1 (15 mujeres) y 41 niños (21 mujeres) en el grupo 2. El rango de edad de ambos grupos estuvo entre 9 y 11 años. Este rango pertenece al segundo nivel de edad de aplicación de las pruebas aplicadas en el presente estudio (es decir, entre 8 años a más; ver sección Instrumentos). Las instituciones de donde provienen los niños fueron elegidas por su disponibilidad para participar en el estudio, y de acuerdo con el juicio de los autores del presente estudio, no parecieron representar instituciones con características especiales de gestión o muy diferenciadas del resto de instituciones educativas en Lima. Para evaluar a los participantes se contó con la autorización del director del centro educativo y de los padres de familia, a quienes se les informó que la evaluación era con fines de investigación.

Por otra parte, los calificadores fueron de la carrera de psicología, pertenecientes a una universidad privada de Lima Metropolitana. Fueron cuatro sujetos distribuidos en el grupo 1 y grupo 2 anteriores, que se encargaron de administrar el Bender-II y calificarlos posteriormente en sus grupos, y dentro del marco del presente estudio. En el grupo 1 los calificadores fueron dos recientes egresados de psicología, que laboraban en instituciones educativas y con experiencia en el uso de pruebas visomotoras anteriores (y exceptuando también) al Bender-II. En el grupo 2 se incluyeron dos estudiantes de Psicología de quinto ciclo, con alguna experiencia en una versión antigua del TGB (e.g., Koppitz, 1984). Los cuatro calificadores tuvieron un rendimiento promedio o mayor que el promedio durante sus estudios.

Instrumento

Test gestáltico visomotor de Bender, segunda edición –Bender-II–, (Brannigan & Decker, 2003). Es la nueva versión del BGT que consta de 16 diseños, aplicable de 4 a 85 años de edad; un conjunto diferente de diseños se administra para el nivel de edad desde 4 a 8 años, y otros diseños para el rango de edad de 8 a 85 años. Evalúa la habilidad visomotora, y mediante pruebas complementarias examina otras habilidades cognitivas relacionadas con la visomotricidad. Por lo tanto, su aplicación consiste en una fase copia (visomotricidad), de recuerdo (memoria visual constructiva: el evaluado vuelva a reproducir los diseños que pueda recordar), motora (control motor: trazos continuos uniendo los puntos extremos) y perceptual visual (discriminación visual: identificación de figuras). La calificación de las reproducciones en la copia y el recuerdo se realiza con el SCG, el cual consiste en calificar cada uno de los diseños desde una escala de 0 (ausencia de forma en el dibujo) hasta 4 (dibujo casi perfecto). Este método enfatiza la calidad global del diseño y forma parte del propio instrumento. En el manual (Brannigan & Decker, 2003), la consistencia interna varía entre 0.86 a 0.95; y la correlation test-retest entre 0.80 y 0.88, para la fase de copia; y de 0.80 a 0.86, para la fase de recuerdo. Los estudios iniciales de validación en muestras hispanas (Merino, 2012; Merino & Allen, 2012, 2013) han reportado satisfactorias propiedades psicométricas en niños. La información detallada y comparativa del Bender-II respecto a sus características puede hallarse en Merino et al. (2013) o Brannigan et al. (2004).

Procedimiento

Después de recibir la autorización de la institución educativa y de los padres de familia de los niños, se inició la aplicación del Bender-II. Los niños que aprobaron participar voluntariamente, fueron citados para la sesión individual de evaluación con el Bender-II. Se usó la traducción previa de las instrucciones y procedimiento de uso (Merino, 2012), las instrucciones de aplicación descritas en el manual (Brannigan & Decker, 2003) se mantuvieron intactas. La aplicación del Bender-II se hizo de manera individual, en una sola sesión de evaluación, y dentro de un aula de clases vacía. Los examinadores fueron los mismos que participaron en la calificación de los diseños reproducidos. El procedimiento para la calificación fue entregar a los calificadores los protocolos con la instrucción de que revisaran el manual para guiarse en la calificación de los dibujos, y que las posibles dudas deberían resolverlas en el mismo documento, sin interactuar entre ellos ni solicitar asesoría del investigador principal del presente estudio. No se dieron más instrucciones respecto a la calificación y se enfatizó que evitaran alguna interacción durante el proceso de calificación. La calificación de los protocolos les tomó aproximadamente dos semanas y media a cada calificador.

Análisis de datos

Para el análisis estadístico, primero se hicieron análisis preliminares y se obtuvieron la consistencia interna (Cronbach, 1951) y sus intervalos de confianza (Dominguez & Merino, 2015); también se compararon los puntajes promedio de los calificadores en los grupos 1 y 2, mediante la prueba t de comparación de medias dependientes, y la propuesta de Dunlap, Cortina, Vaslow y Burke (1996) para estimar la magnitud de las diferencias. Esta toma en cuenta la correlación entre las medias en su formulación:

Para los análisis principales, se aplicaron varios procedimientos para estimar y examinar las diferencias en la consistencia y acuerdo los puntajes (copia y recuerdo) del Bender-II. En cada análisis se hizo énfasis en la significación práctica para valorar con más información las diferencias (Ledesma, Macbeth & Cortada, 2008). Se estimó la consistencia mediante correlaciones Pearson, y el acuerdo mediante coeficientes de correlación intraclase (ICC); este último se hizo con el método de dos factores aleatorios (McGraw & Wong, 1996). Luego, se evaluaron las diferencias en la consistencia (correlaciones Pearson) y en el acuerdo (ICC), ambos en un marco de comparación intragrupo (diferencia entre el acuerdo del puntaje copia y recuerdo en un mismo grupo) e intergrupo (diferencia entre los grupos 1 y 2 respecto puntajes de copia y recuerdo). En el análisis intergrupo para la diferencia entre correlaciones, se usó la prueba Z para dos grupos independientes (Chen & Popovich, 2002); y en el análisis intragrupos, se aplicó una prueba de contraste para dos grupos dependientes sin elementos comunes, ZPF (Raghunathan, Rosenthal & Rubin, 1996). En ambas comparaciones intergrupo e intragrupo, se usó el estimador q para ver la magnitud del efecto (Cohen, 1992), tomando en cuenta los siguientes niveles: trivial (< ±0.20), baja (≥ ±2.10), moderada (≥ ±0.50), alta (≥ ±0.80).

Para examinar las diferencias en el acuerdo (coeficientes ICC), se usó la prueba de contraste para muestras independientes (comparación intergrupo; Alsawalmeh & Feldt, 1992) y dependientes (comparación intragrupo; Alsawalmeh & Feldt, 1994), ejecutada por un programa ad hoc (Merino, 2013). La magnitud del efecto de estas comparaciones se realizó transformando los coeficientes ICC a valores estandarizados, mediante la transformación a z de Fisher propuesta por Konishi (1985), un método que aproxima bien los coeficientes ICC a valores normalizados (Donner & Zou, 2002):

En la fórmula, k es el número de calificadores en el cálculo de ICC, N es el tamaño de la muestra. Como nota procedimental, el contraste entre ICC intragrupo requiere la correlación entre los puntajes; por lo tanto, esta correlación conjunta entre copia y memoria dentro de cada grupo 1 y 2, fue estimada promediando las correlaciones entre ambos puntajes en cada evaluador. De este modo, en el grupo 1 la correlación copia-recuerdo en el calificador E fue 0.477 y en el calificador G fue 0.538; entonces, el promedio fue 0.50. En el grupo 2, la correlación copia-recuerdo en el calificador F fue 0.246 y en el calificador D fue 0.354; entonces, el promedio fue 0.30. El contraste entre ICC se hizo también con el estudio de Merino (2012), quien obtuvo coeficientes ICC en una muestra entrenada de calificadores. Los niveles de acuerdo elegidos para describir los resultados cualitativamente, fueron los elaborados por Cicchetti (1994), que parecen ser los más popularizados en la literatura actual (Hallgren, 2012). Estos niveles son: < 0.40: pobre; ≥ 0.40: aceptable; ≥ 0.60: bueno; ≥ 0.75: excelente.

ResultadosAnálisis preliminar

Los resultados descriptivos aparecen en la tabla 1. Se observa que en el grupo 1, las diferencias entre los calificadores en copia (t[33]=6.87, r=0.90) y recuerdo (t[33]=3.34, r=0.95) fueron estadísticamente significativas, pero de baja (d=0.526) y trivial (d=0.181) magnitud. Por otro lado, en el grupo 2 las diferencias en el puntaje copia fueron estadísticamente significativas (t[40]=2.57, r=0.92) pero trivial en magnitud (d=0.160), mientras que en recuerdo no se detectó significación estadística (t[40]=0.36, r=0.87, d=0.02). Los resultados descriptivos entre el grupo 1 y 2 no son comparables pues la muestra de protocolos en ambos fue diferente para cada uno. Sobre la consistencia interna por el método α (Cronbach, 1951), se hallaron coeficientes superiores a 0.70, aunque más bajos en el grupo 2 comparado con el grupo 1 (tabla 1). Los intervalos de confianza (90%) fueron estimados con el método Bonnett (2002).

Tabla 1.

Estadísticos descriptivos para los puntajes del Bender–II

  MDEα [IC 90%]Estadísticos de distribución
  SimetríaCurtosisSw
  As.a  Cu.b 
Grupo 1 (n=34)
Copia
35.08  5.43  0.78 [0.66, 0.86]  -0.27  -0.69  -0.50  -0.645  0.96 
37.88  4.73  0.75 [0.61, 0.84]  -0.19  -0.47  -0.85  -1.080  0.96 
Recuerdo
15.38  6.14  0.26  0.64  1.92  2.440  0.96 
16.58  6.92  0.63  1.56  2.38  3.028  0.95 
Grupo 2 (n=41)
Copia
38.73  4.08  0.71 [0.57, 0.80]  -0.40  -0.55  -0.32  -0.875  0.96 
38.10  4.17  0.71 [0.57, 0.80]  -0.25  -0.35  -0.58  -1.572  0.97 
Recuerdo
17.00  7.00  0.133  0.184  -0.50  -1.379  0.98 
17.20  6.77  0.047  0.065  -0.20  -0.556  0.98 

Grupo 1: calificadores-examinadores egresados; Grupo 2: calificadores-examinadores estudiantes. E, G, D y F: letras para diferenciar a los calificadores.

a

coeficiente de asimetría.

b

coeficiente de curtosis.

Consistencia intergrupo e intragrupo

Excepto para el puntaje de recuerdo en el grupo 2, en ambos grupos de calificadores la consistencia de los puntajes fue elevada (correlaciones Pearson ¿ 0.90) para los puntajes copia y recuerdo (tabla 2). En el contraste intergrupos, únicamente se detectaron diferencias en el puntaje recuerdo (p<.05), la misma que puede considerarse pequeña; en cambio, en el puntaje copia, el tamaño de la diferencia intergrupos fue trivial (p>.05). Al examinar el contraste intragrupos (entre copia y recuerdo), en el grupo 1 se detectaron diferencias moderadas (p>.05), y en el grupo 2 el tamaño de la diferencia fue pequeña; en ambos, las diferencias no fueron estadísticamente significativas (p>.10).

Tabla 2.

Consistencia (correlación Pearson) entre e intragrupos para el Bender-II

  Grupo 1 (n=34)  Grupo 2 (n=41)  Diferencias entre grupo 
Puntajes
Copia [IC 95%]  0.90 [0.80, 0.94]  0.92 [0.85, 0.95]  Z=-0.48
q=0.11 
Recuerdo [IC 95%]  0.95 [0.90, 0.97]  0.87 [0.76, 0.92]  Z=2.06*
q=0.49 
Diferencias intragrupo  Zpf=-1.50
q=0.35 
Zpf=1.11
q=0.25 
 

q: estimación de magnitud del efecto; Z: prueba de diferencia de correlaciones independientes; Zpf: prueba de diferencia de correlaciones dependientes.

*

p<.05.

Comparando la consistencia promedio de copia (0.91) con la obtenida (correlación promedio=0.906) del estudio en Merino (2012), no se halló una diferencia estadísticamente significativa (Z=-0.108, p>.05, q=0.02). De manera similar, su correlación promedio en recuerdo (0.90; Merino, 2012) con el promedio obtenido del presente estudio (0.91) para este mismo puntaje, tampoco fue sustancialmente diferente (Z=-0.263, p>.50, q=0.05). Finalmente, la consistencia entre los calificadores no se pudo comparar con los resultados de Merino (2012), pues ahí se usó una modificación del coeficiente ICC para consistencia, no correlaciones Pearson.

Acuerdo intergrupo e intragrupo

En la tabla 3, el contraste intergrupos mostró diferencias estadísticas únicamente en el puntaje recuerdo, donde la discrepancia puede considerarse grande; mientras que en el puntaje copia, la diferencia puede considerarse moderada aunque estadísticamente no significativa. En el contraste intragrupo, se halló que en el grupo 1 hay diferencias más allá del error de muestreo, y de magnitud grande; en cambio, en el grupo 2, la discrepancia no fue estadísticamente significativa y fue de baja magnitud. El nivel de acuerdo es excelente en todos los coeficientes de la tabla 3.

Tabla 3.

Acuerdo (coeficiente ICC) entre e intragrupos para el Bender-II

  Grupo 1 (n=34)  Grupo 2 (n=41)  Diferencias intergrupo 
Puntajes
Copia [IC 95%]  0.93 [0.825, 0.971]  0.87 [0.77, 0.93]  F(39, 20)=1.85
q=0.64 
Recuerdo [IC 95%]  0.77 [0.078, 0.927]  0.91 [0.83, 0.95]  F(35, 22)=2.55*
q=1.01 
Diferencias intragrupo  F(38, 22)=3.28**
q=1.27 
F(42, 23)=1.44
q=0.38 
 

q: estimación de magnitud del efecto.

*

p<.05.

**

p<.01.

Al comparar los coeficientes ICC obtenidos con los del estudio de Merino (2012), que fue 0.85 en copia y recuerdo, para el puntaje copia se hallaron diferencias más allá del error de muestreo en el grupo 1 (F[42,18]=2.14, p<.05, q=0.80), pero no en el grupo 2 (F[43,21]=1.15, p>.05, q=0.15). En el puntaje recuerdo, no hubo diferencias de importancia estadística y práctica en el grupo 1 (F[37,21]=1.44, p>.05, q=0.38) y en el grupo 2 (F[44,20]=1.66, p>.05, q=0.54).

Discusión

Los resultados del presente estudio demuestran que se pueden obtener buenos niveles de consistencia entre los puntajes, que en general están alrededor de 0.90. Esta magnitud generalmente se sugiere para que un instrumento psicológico pueda utilizarse en la descripción individual, y tomar decisiones en conjunto de otras mediciones relevantes (Nunnally & Bernstein, 1995). Se detectaron diferencias triviales en la consistencia del puntaje copia que llevan a esperar que estas tengan poco valor práctico, de tal modo que la posición de un examinado puede ser casi exactamente igual en los puntajes provenientes de dos examinadores sin experiencia en el uso del Bender-II. Por otro lado, en el puntaje de recuerdo se observaron diferencias pequeñas, sugiriendo que las discrepancias sí podrían hallarse en este puntaje usando los criterios del SCG. Estas discrepancias no triviales (pero bajas) deben valorarse en el contexto del uso del Bender-II, pues la varianza de error tiene consecuencias más serias cuando se requiere tomar decisiones individuales sobre los niños evaluados, en contraste con el uso del Bender-II en la investigación básica o aplicada (International Test Commission ITC, 2000).

Esta pequeña inconsistencia representa la falta de linealidad entre las calificaciones, especialmente en alguna parte de la distribución de puntajes de recuerdo, pero en este estudio no se verificó la ubicación de esta discrepancia. Por otro lado, desde el enfoque ANOVA (mediante la ICC), el acuerdo intercalificadores en evaluadores sin entrenamiento puede alcanzar niveles que en la literatura metodológica son considerados como altos (por ejemplo, ¿ 0.75; Cicchetti, 1994); para el puntaje copia, estas magnitudes en el presente estudio superaron el valor 0.85 en la muestra y 0.75 en la población. Para el puntaje de recuerdo, el grado de acuerdo entre los dos grupos tuvo fuertes discrepancias, así como en la diferencia intragrupo para uno de los grupos.

Se puede conjeturar que las discrepancias en el puntaje de recuerdo pueden ocurrir en las zonas bajas de puntuación, donde parece ser más difícil la aplicación del SCG. Efectivamente, el dibujo reproducido con baja puntuación (p. ej. 1 o 2) puede representar un diseño bien recordado pero pobremente diseñado, problema que confundiría al usuario ya que el criterio del SCG apunta hacia la calidad de la reproducción, sin tomar en cuenta el contexto de memorización. En esta situación, el usuario sin entrenamiento podría hallar que el criterio que elige es razonable, mientras que otro usuario podría elegir otro. Para explorar esto, se requieren estudios que planteen esta hipótesis, y dar el paso adicional para identificar la ubicación del desacuerdo. Procedimientos como el método gráfico Bland-Altman (Bland & Altman, 1999; Bland & Altman, 1986) pueden ayudar a diferenciar el tipo de sesgo ocurrido, además de detectar si el sesgo es proporcional a la magnitud de los puntajes. Estos métodos proporcionan información que serviría para mejorar el diseño de los estudios de confiabilidad y la enseñanza de pruebas psicológicas proclives al error de medición entre calificadores/observadores. Aun con la discrepancia ocurrida en el puntaje de recuerdo, su magnitud no es baja sino sobre 0.75, y tomando en cuenta la falta de conocimiento previo sobre el Bender-II, no parece ser un inconveniente para afirmar que el nivel de acuerdo es aceptable para propósitos prácticos. Algunos estudios han reportado correlaciones intercalificadores de 0.90 (Friedman, Fuerth & Forsythe, 1980).

Un aporte adicional del presente estudio es la propuesta de un indicador de magnitud del efecto basado en el trabajo de Donner y Zou (2002) y Konishi (1985), que produce una estadístico estandarizado basado en la transformación z de los coeficientes ICC. Esta transformación tiene buenas propiedades estadísticas y es adaptable a varias situaciones (Sánchez-Bruno & Borges del Rosal, 2005), por ejemplo como la del presente estudio. La racionalidad del este método descansa en el proceso básico de estandarización del estadístico de diferencias de ICC transformados a unidades z Konishi (1985) y la comparación de ellos propuesto por Cohen (1992). Sin embargo, los límites para establecer cualitativamente la magnitud de las diferencias (trivial, bajo, moderado y alto) están abiertos a debate.

Respecto a las limitaciones en el presente estudio, solo dos calificadores participaron en cada grupo, lo cual es una situación característica que podría representar la práctica profesional de psicólogos o equipos de trabajo en una institución educativa. Esto condiciona a que el psicólogo sea el único que administre y califique los instrumentos, y que posiblemente cuente con otro colega o asistente que participe del proceso. Por lo tanto, la limitación de contar únicamente con dos calificadores en cada grupo tendría la ventaja de ser ecológicamente válido.

Otra posible limitación es el tamaño de la muestra de dibujos en cada grupo, que es comparativamente pequeño frente a los estudios de pruebas visomotoras comerciales; por ejemplo, en el estudio de validación de la prueba Beery-Buktenica del desarrollo de la integracion visomotora; Beery, 2000), se reportan muestras de alrededor de 130. Sin embargo, en el Bender-II, el tamaño muestral varía entre 30 y 100 (Brannigan & Decker, 2003; Merino & Allen, 2013; Uluç et al., 2012; Volker et al., 2010).

Aunque nuestro estudio obtiene un excelente poder estadístico en el nivel de correlación mínima esperada para el Bender-II (0.80, prueba de una cola, n promedio=37, correlación nula de 0.0); frente a un razonable r nulo de 0.60, el poder alcanzado es 77% para un poder estadístico de 80%, el mínimo n es 40, un valor cercano a una de las muestras de estudio. En conjunto, las limitaciones del estudio plantean la necesidad de un estudio de replicación completa o parcial, en el que se consideren calificadores con otras características (experiencia de trabajo o docente, por ejemplo) y quizás un mayor tamaño muestral (de calificadores y protocolos).

Se concluye que, en personas sin entrenamiento en el Bender-II se puede conseguir altos coeficientes de consistencia y acuerdo entre calificadores usando el SCG del Bender-II para el puntaje copia, y ligeramente bajo para el puntaje de recuerdo. Sin embargo, si se requiere asegurar más precisión en la obtención de los puntajes, entonces una o dos sesiones de entrenamiento son necesarias para maximizar la varianza verdadera alrededor del puntaje obtenido, lo que es particularmente más importante para obtener el puntaje de la subprueba de recuerdo, que parece ser más complejo al aplicar el SCG.

Conflicto de intereses

Los autores declaran no tener ningún conflicto de intereses.

Referencias
[Alsawalmeh and Feldt, 1992]
Y.M. Alsawalmeh, L.S. Feldt.
Test of the hypothesis that the intraclass coefficient is the same for two measurement procedures.
Applied Psychological Measurement, 16 (1992), pp. 195-205
[Alsawalmeh and Feldt, 1994]
Y.M. Alsawalmeh, L.S. Feldt.
Testing the equality of two related intraclass reliability coefficients.
Applied Psychological Measurement, 18 (1994), pp. 183-190
[Bender, 1938]
L.A. Bender.
A visual motor gestalt test and its clinical use.
American Orthopsychiatric Association, (1938),
[Beery, 2000]
K. Beery.
Prueba Beery-Buktenica del desarrollo de la integración visomotriz VMI.
El Manual Moderno, (2000),
[Bland and Altman, 1999]
J.M. Bland, D.G. Altman.
Measuring agreement in method comparison studies.
Statistical Methods in Medical Research, 8 (1999), pp. 135-160
[Bland and Altman, 1986]
J.M. Bland, D.G. Altman.
Statistical method for assessing agreement between two methods of clinical measurement.
[Bonett, 2002]
D.G. Bonett.
Sample size requirements for testing and estimating coefficient alpha.
Journal of Educational and Behavioral Statistics, 27 (2002), pp. 335-340
[Brannigan and Decker, 2003]
G.G. Brannigan, S.L. Decker.
Bender visual-motor gestalt test.
2.a. ed., Riverside Publishing, (2003),
[Brannigan et al., 2004]
G.G. Brannigan, S.L. Decker, D.H. Madsen.
Innovative features of the Bender-Gestalt II and expanded guidelines for the use of the global scoring system.
2.nd ed., Riverside Publishing, (2004),
[Chen and Popovich, 2002]
P.Y. Chen, P.M. Popovich.
Correlation: Parametric and nonparametric measures.
Sage, (2002),
[Cicchetti, 1994]
D.V. Cicchetti.
Guidelines, criteria, and rules of thumb for evaluating normed and standardized assessment instruments in psychology.
Psychological Assessment, 6 (1994), pp. 284-290
[Cohen, 1992]
J. Cohen.
A power primer.
Psychological Bulletin, 112 (1992), pp. 155-159
[Cone, 1999]
J.D. Cone.
Observational assessment: Measure development and research issues.
Handbook of research methods in clinical psychology, 2.nd ed., pp. 183-223
[Cronbach, 1951]
L.J. Cronbach.
Coefficient alpha and the internal structure of test.
Psychometrika, 16 (1951), pp. 297-334
[Decker, 2007]
S.L. Decker.
Measuring growth and decline in visual-motor processes using the Bender Gestalt II.
Psychoeducational Assessment, 26 (2007), pp. 3-15
[Decker et al., 2006]
S.L. Decker, R. Allen, J.P. Choca.
Construct validity of the Bender-Gestalt II: Comparison with Wechsler Intelligence Scale for Children-III.
Perceptual and Motor Skills, 102 (2006), pp. 133-141
[Decker et al., 2011]
S.L. Decker, J.A. Englund, J.A. Carboni, J.H. Brooks.
Cognitive and developmental influences in visual-motor integration skills in young children.
Psychological Assessment, 23 (2011), pp. 1010-1016
[Dominguez and Merino, 2015]
S. Dominguez, C. Merino.
¿Por qué es importante reportar los intervalos de confianza del coeficiente alfa de Cronbach?.
Revista Latinoamericana de Ciencias Sociales, Niñez y Juventud, 13 (2015), pp. 1326-1328
[Donner and Zou, 2002]
A. Donner, G. Zou.
Testing the equality of dependent intraclass correlation coefficients.
Journal of the Royal Statistical Society (Series D), 51 (2002), pp. 367-379
[Dunlap et al., 1996]
W.P. Dunlap, J.M. Cortina, J.B. Vaslow, M.J. Dunlap.
Meta-Analysis of experiments with matched groups or repeated measures designs.
Psychological Methods, 1 (1996), pp. 170-177
[Esquivel et al., 2006]
C. Esquivel, V. Velasco, E. Martínez, E. Barbachano, G. Gonzáles, C. Castillo.
Coeficiente de correlación intraclase vs.correlación de Pearson de la glucemia capilar por reflectometría y glucemia plasmática.
Medicina Interna de México, 22 (2006), pp. 165-171
[Feldt and Brennan, 1989]
L.S. Feldt, R. Brennan.
Reliability.
Educational measurement, 3.rd ed., pp. 105-146
[Fleenor et al., 1996]
J.W. Fleenor, J.B. Fleenor, W.F. Grossnickle.
Interrater reliability and agreement of performance ratings: A methodological comparison.
Journal of Business and Psychology, 10 (1996),
[Friedman et al., 1980]
R. Friedman, J.H. Fuerth, A.B. Forsythe.
A brief screening battery for predicting school achievement at ages seven and nine years.
Psychology in Schools, 17 (1980), pp. 340-346
[Hallgren, 2012]
K.A. Hallgren.
Computing inter-rater reliability for observational data: An overview and tutorial.
Tutorials in Quantitative Methods for Psychology, 8 (2012), pp. 23-34
[International Test Commission, 2000]
International Test Commission (ITC; 2000). Guidelines on test use: Spanish version. Translation authorized by the Colegio Oficial de Psicólogos. ITC: Autor.
[Konishi, 1985]
S. Konishi.
Normalizing and variance stabilizing transformation for intraclass correlations.
Annals of Institute of Statistical Mathematical, 37 (1985), pp. 87-94
[Koppitz, 1984]
E. Koppitz.
El test gestáltico vismotor para niños.
10.a ed., Guadalupe, (1984),
[Lacks, 1999]
P. Lacks.
Bender Gestalt screening for brain dysfunction.
2.a ed., John Wiley y Sons., (1999),
[Ledesma et al., 2008]
R. Ledesma, G. Macbeth, N. Cortada.
Tamaño del efecto: revisión teórica y aplicaciones con el sistema estadístico Vista.
Revista Latinoamericana de Psicología, 40 (2008), pp. 425-439
[Liao et al., 2010]
S.C. Liao, E.A. Hunt, W. Chen.
Comparison between inter-rater reliability and inter-rater agreement in performance assessment.
Annals Academy of Medicine, 39 (2010), pp. 613-618
[McGraw and Wong, 1996]
K.O. McGraw, S.P. Wong.
Forming inferences about some intraclass correlation coefficients.
Psychological Methods, 1 (1996), pp. 30-46
[Merino, 2011]
C. Merino.
El Test gestáltico de Bender: Evolución y nuevas versiones. Trabajo presentado en el III Congreso Internacional de Psicología.
Universidad Autónoma del Perú, (2011),
[Merino, 2012]
C. Merino.
Fiabilidad en el test gestáltico de Bender-II, en una muestra independiente de calificadores.
Revista de Investigación Educativa, 30 (2012), pp. 223-234
[Merino, 2013]
(2013). ICC compare: Un programa MS Excel para probar la igualdad de coeficientes de correlación intraclase. Manuscrito inédito.
[Merino and Allen, 2012]
Merino, C., & Allen, R. A. (2012). A factor-analytic study for the Bender gestalt test, 2.nd edition: Internal structure and measurement model. Cartel presentado en el 30 International Congress of Psychology, Cape Town, South Africa.
[Merino and Allen, 2013]
C. Merino, R.A. Allen.
Confiabilidad intercalificadores y validez de constructo del Test Gestáltico Visomotor de Bender (segunda versión).
Interdisciplinaria, 30 (2013), pp. 253-264
[Merino et al., 2013]
Merino, C., Allen, R. A., & Decker, S. L. (2013). Test gestáltico visomotor de bender – 2a versión. Liberabit, 12(2), 275-278.
[Nunnally and Bernstein, 1995]
J. Nunnally, I. Bernstein.
Teoría psicométrica.
3.a ed., McGraw-Hill., (1995),
[Raghunathan et al., 1996]
T.E. Raghunathan, R. Rosenthal, D.B. Rubin.
Comparing correlated but nonoverlapping correlations.
Psychological Methods, 1 (1996), pp. 178-183
[Reynolds, 2007]
C. Reynolds.
Koppitz developmental scoring system for the Bender gestalt test (KOPPITZ-2).
Pro-Ed, (2007),
[Sánchez-Bruno and Borges del Rosal, 2005]
A. Sánchez-Bruno, A. Borges del Rosal.
Transformación z de Fisher para la determinación de intervalos de confianza del coeficiente de correlación de Pearson.
Psichotema, 17 (2005), pp. 148-153
[Sisto et al., 2006]
F. Sisto, A. Noronha, A. Santos.
Teste gestaltico visomotor de Bender–Sistema de Pontuaçao Gradual (B-SPG).
Vetor, (2006),
[Uluç et al., 2012]
S. Uluç, I.V. Gülüm, M. Çalişir.
Inter-rater reliability of the Bender visual motor gestalt coordination test (2a ed.) for global, koppitz and recall scoring systems [Hindu].
Klinik Psikiyatri, 15 (2012), pp. 71-79
[Volker et al., 2010]
M.A. Volker, C. Lopata, R.K. Vujnovic, A.M. Smerbeck, J.A. Toomery, J.D. Rodgers, et al.
Comparison of the Bender Gestalt-II and VMI-V in samples of typical children and children with high-functioning autism spectrum disorders.
Journal of Psychoeducational Assessment, 28 (2010), pp. 187-200
[Von Eye and Mun, 2005]
A. Von Eye, E.Y. Mun.
Analyzing rater agreement: Manifest variable methods.
Lawrence Erlbaum, (2005),
Copyright © 2016. Fundación Universitaria Konrad Lorenz
Descargar PDF
Opciones de artículo