job-task-analysis

¿Qué es un KSAO?

Los KSAOs (Conocimientos, Habilidades, Capacidades y Otras Características) son una forma de definir los atributos humanos necesarios para tener éxito en un trabajo. Son esenciales en Recursos Humanos y Desarrollo Organizacional, influyendo en procesos críticos como el reclutamiento, la selección y la compensación.

Este artículo introduce los KSAOs y explica su impacto en las evaluaciones laborales, como pruebas de preselección o exámenes de certificación/licencia.

 ¿Necesitas ayuda para desarrollar una evaluación basada en principios psicométricos sólidos como el análisis de puesto y KSAOs? O tal vez solo una plataforma de software que facilite el proceso. ¡Contáctanos!

¿Qué es un KSAO? Conocimientos, Habilidades, Capacidades y Otras Características

KSAO es un acrónimo que representa cuatro componentes esenciales:

Conocimientos – Comprensión de conceptos, hechos e información necesarias para un puesto. Ejemplo: Un desarrollador de software necesita conocimientos de lenguajes como Python o Java.

hr-interview-pre-employment

 Habilidades – Competencias adquiridas para realizar tareas específicas. Ejemplo: Un contador necesita habilidades en análisis financiero y manejo de hojas de cálculo.

Capacidades – Rasgos naturales o desarrollados que determinan el desempeño en ciertas tareas. Ejemplo: Un cirujano necesita capacidad de mantener la calma bajo presión y precisión manual.

Otras características – Rasgos personales que pueden influir en el desempeño laboral. Ejemplo: Un representante de servicio al cliente debe tener una actitud positiva y excelentes habilidades de comunicación.

Ejemplos de KSAOs en diferentes roles

Enfermero/a registrado/a

  • Conocimientos: Terminología médica, protocolos de atención, farmacología.
  • Habilidades: Administración de inyecciones, manejo de equipos médicos, registro de datos.
  • Capacidades: Resistencia emocional, pensamiento crítico, resistencia física.
    Otras características: Compasión, trabajo en equipo, atención al detalle.

Gerente de marketing

  • Conocimientos: Investigación de mercado, tendencias de marketing digital, comportamiento del consumidor.
  • Habilidades: Análisis de datos, creación de contenido, gestión de campañas.
  • Capacidades: Pensamiento estratégico, multitarea, resolución creativa de problemas.
  • Otras características: Liderazgo, adaptabilidad, habilidades de comunicación.

Ingeniero/a de software

  • Conocimientos: Lenguajes de programación, metodologías de desarrollo de software.
  • Habilidades: Depuración de código, diseño de algoritmos, pruebas de software.
  • Capacidades: Razonamiento lógico, atención al detalle, gestión del tiempo.
  • Otras características: Innovación, trabajo en equipo, enfoque en la resolución de problemas.

¿Por qué los KSAOs son importantes en Recursos Humanos, Reclutamiento y Selección?

 Impulsan el reclutamiento – Proporcionan un marco claro para emparejar candidatos con puestos.
Definen expectativas laborales – Reducen la confusión y alinean a empleados y empleadores.
Mejoran la toma de decisiones de contratación – Permiten evaluar candidatos con base en criterios objetivos.
Optimización del entrenamiento y desarrollo – Ayudan a identificar brechas de habilidades y mejorar la capacitación.
Cumplimiento legal y equidad – Reducen el riesgo de decisiones de contratación sesgadas o discriminatorias.
Estructuración de compensaciones – Justifican los niveles salariales con base en requisitos laborales específicos.

¿Cómo se relacionan los KSAOs con la evaluación?

Las evaluaciones de certificación y selección deben basarse en evidencia y documentación de validez.

Ejemplo: Si desarrollas un examen de certificación para fabricantes de widgets, no puedes simplemente escribir 100 preguntas al azar. Primero necesitas un análisis de puesto

El análisis de puesto identifica las tareas y habilidades esenciales mediante grupos focales o encuestas a expertos en el área.

 Los resultados permiten definir los KSAOs clave, asegurando que las evaluaciones reflejen las competencias necesarias y cumplan con estándares internacionales.

Sin KSAOs bien definidos, los exámenes y procesos de selección carecen de validez y pueden ser impugnados.

Conclusión: El valor de los KSAOs

Integrar los KSAOs en la contratación, desarrollo y evaluación de empleados aporta validez, precisión y eficiencia, beneficiando a la empresa y su talento.

Si eres un profesional de RRHH o evaluación de talento, comprender los KSAOs te ayudará a tomar mejores decisiones.

¿Quieres asesoría para desarrollar exámenes que cumplan con estándares psicométricos internacionales? ¡Contáctanos!

Generalized-partial-credit-model

¿Qué es una rúbrica?

Una rúbrica es un conjunto de reglas que convierte respuestas no estructuradas en evaluaciones (como ensayos) en datos estructurados que pueden ser analizados psicométricamente. Ayuda a los educadores a evaluar trabajos cualitativos de manera coherente y justa.

¿Por qué necesitamos rúbricas?

La medición es un esfuerzo cuantitativo. En psicometría, buscamos medir conocimientos, logros, aptitudes o habilidades. Las rúbricas ayudan a convertir datos cualitativos (como ensayos) en puntuaciones cuantitativas. Mientras que la retroalimentación cualitativa sigue siendo valiosa para el aprendizaje, los datos cuantitativos son esenciales para las evaluaciones.

Por ejemplo, un profesor puede calificar un ensayo con una rúbrica (0 a 4 puntos) y, al mismo tiempo, proporcionar comentarios personalizados para ayudar a mejorar al estudiante.

¿Cuántas rúbricas necesito?

La cantidad de rúbricas que necesitas depende de lo que estés evaluando:

  • Matemáticas: A menudo, una sola rúbrica es suficiente, ya que las respuestas son correctas o incorrectas.
  • Escritura: Es más complejo. Puedes evaluar múltiples habilidades, como gramática, estructura argumentativa y ortografía, cada una con su propia rúbrica.

Ejemplos de rúbricas

Rúbrica de ortografía para un ensayo

Puntos Descripción
0 El ensayo contiene 5 o más errores ortográficos
1 El ensayo contiene de 1 a 4 errores ortográficos
2 El ensayo no contiene errores ortográficos

Rúbrica de argumentación para un ensayo

Instrucción: “Tu escuela está considerando eliminar los deportes organizados. Escribe un ensayo para la junta escolar con tres razones para mantenerlos, respaldadas con explicaciones.”

Puntos Descripción
0 No se proporcionan razones claras con explicaciones
1 Una razón con una explicación clara
2 Dos razones con explicaciones claras
3 Tres razones con explicaciones claras

Rúbrica de respuestas en matemáticas

Puntos Descripción
0 No responde o no muestra comprensión del problema
1 Comprensión parcial o respuesta correcta sin trabajo de apoyo
2 Respuesta correcta con trabajo de apoyo explicando el proceso

¿Cómo califico pruebas con una rúbrica?

Tradicionalmente, las puntuaciones de rúbrica se suman al puntaje total. Este método se alinea con la teoría clásica de los tests, utilizando estadísticas como el coeficiente alfa (fiabilidad) y la correlación de Pearson (discriminación).

Sin embargo, la teoría de respuesta al ítem (IRT) ofrece un enfoque más avanzado. Técnicas como el modelo de crédito parcial generalizado permiten analizar profundamente los datos de rúbricas, mejorando la precisión de las puntuaciones (Muraki, 1992 aquí y aquí).

Ejemplo: En un ensayo calificado de 0 a 4 puntos:

  • Un estudiante promedio (Theta = 0) probablemente obtendría 2 puntos.
  • Un estudiante de mejor desempeño (Theta = 1) probablemente obtendría 3 puntos.

Un ejemplo de esto se muestra a continuación. Imagina que tienes un ensayo que se califica en una escala de 0 a 4 puntos. Este gráfico muestra la probabilidad de obtener cada nivel de puntuación en función del puntaje total (Theta).

Alguien con un desempeño promedio (Theta = 0.0) tiene más probabilidades de obtener 2 puntos (línea amarilla). Una persona con Theta = 1.0 probablemente obtendrá 3 puntos.

Observa que las curvas intermedias siempre tienen forma de campana, mientras que las de los extremos tienden a un asíntota superior de 1.0. Es decir, cuanto más hábil es el estudiante, mayor es la probabilidad de que obtenga 4 de 4 puntos, pero esa probabilidad nunca puede superar el 100%, obviamente.

¿Cómo puedo implementar una rúbrica de calificación de manera eficiente?

La eficiencia mejora con plataformas de evaluación en línea que admiten rúbricas. Busca plataformas con:
– Psicometría integrada
– Múltiples rúbricas por ítem
– Soporte para calificación por múltiples evaluadores
– Funciones de anonimato

Estas herramientas agilizan la calificación, mejoran la coherencia y ahorran tiempo.

¿Qué pasa con la calificación automatizada de ensayos?

La calificación automatizada de ensayos (AES) utiliza modelos de aprendizaje automático entrenados con datos evaluados por humanos. Aunque AES no es perfecta, puede reducir significativamente el tiempo de calificación cuando se combina con supervisión humana.

Por supuesto, también puedes usar modelos de lenguaje (LLMs) para calificar ensayos, pero esto carece de precisión y validez, ya que no tienes evidencia concreta, como si hubieras calificado 10,000 ensayos con evaluadores humanos y luego analizaras los datos.

Reflexiones finales

Las rúbricas son herramientas esenciales para los educadores, ya que ofrecen formas estructuradas, justas y coherentes de evaluar trabajos complejos de los estudiantes. Ya sea que estés calificando ensayos, problemas matemáticos o proyectos, implementar rúbricas claras mejora tanto la calidad de la evaluación como los resultados de aprendizaje de los estudiantes.

¿Listo para mejorar tus evaluaciones? Solicita una demostración de nuestra plataforma en línea con un módulo de calificación de ensayos integrado.

Introducción

El fraude en pruebas es un fenómeno extremadamente común. Todos hemos visto artículos sobre trampas en exámenes. Sin embargo, existen muy pocas herramientas defendibles para ayudar a detectarlo. Una vez vi un seminario web de un proveedor de pruebas en línea que promocionaba con orgullo sus informes sobre seguridad en pruebas… pero resultó que todo lo que ofrecían era una simple exportación de las respuestas de los estudiantes para que se pudieran leer de forma subjetiva y formular conjeturas.

El objetivo de SIFT es proporcionar una herramienta que implemente índices estadísticos reales basados en investigaciones científicas sobre la detección estadística de fraude en pruebas. Es lo suficientemente fácil de usar para alguien sin un doctorado en psicometría o experiencia en análisis forense de datos. SIFT ofrece más índices de colusión y análisis que cualquier otro software, convirtiéndose en el estándar de la industria desde el día de su lanzamiento. La ciencia detrás de SIFT también se implementa en nuestra plataforma de pruebas en línea de clase mundial, FastTest, que admite pruebas adaptativas por computadora conocidas por aumentar la seguridad en los exámenes.

¿Interesado? ¡Descarga una versión de prueba gratuita de SIFT!

¿Qué es el Fraude en Pruebas?

Desde que existen las pruebas, las personas han intentado hacer trampa. Siempre que haya un sistema con incentivos o consecuencias, la gente intentará manipularlo. El verdadero culpable es el sistema en sí, no la prueba. Culpar a la prueba es como dispararle al mensajero.

En la mayoría de los casos, el sistema cumple una función útil. Las evaluaciones de K-12 brindan información sobre el plan de estudios y los maestros, las pruebas de certificación identifican a profesionales calificados, y así sucesivamente. Para preservar la integridad del sistema, debemos minimizar el fraude en las pruebas.

Cuando se trata de fraude en pruebas, el viejo dicho es cierto: “más vale prevenir que curar”. Aunque recomiendo implementar medidas preventivas para disuadir el fraude, algunos casos siempre ocurrirán. SIFT está diseñado para ayudar a encontrar esos casos. Además, el simple hecho de saber que se realiza este tipo de análisis puede disuadir a algunos examinados.

¿Cómo Puede SIFT Ayudar en la Detección Estadística de Fraude en Pruebas?

Al igual que otros programas psicométricos, SIFT no interpreta los resultados por ti. Por ejemplo, software para análisis de ítems como Iteman y Xcalibre no te dicen qué ítems retirar o cómo revisarlos; proporcionan resultados para que los analistas los interpreten. SIFT ofrece una amplia gama de resultados para ayudar a identificar:

  • Copiado
  • Asistencia del supervisor (proctor)
  • Centros de pruebas sospechosos
  • Uso de bancos de respuestas (brain dumps)
  • Baja motivación del examinado

TÚ decides qué es importante para detectar fraude en pruebas y buscas la evidencia relevante. Se proporciona más información en el manual, pero aquí hay un adelanto.

Análisis Forense de Datos de Seguridad en Pruebas con SIFT

SIFT calcula varios índices para evaluar posibles fraudes:

  • Índices de Colusión: SIFT calcula estos índices para cada par de estudiantes, resumiendo la cantidad de señales de alerta.

  • Detección de Bancos de Respuestas (Brain Dumps): Compara las respuestas de los examinados con contenido conocido de bancos de respuestas, especialmente si ha sido sembrado intencionalmente por la organización.

  • Análisis de Examinados Adyacentes: Identifica estudiantes en la misma ubicación con respuestas sospechosamente similares.

  • Datos de Tiempos de Respuesta: Evalúa el tiempo dedicado a cada pregunta para detectar irregularidades.

Un ejemplo: un maestro podría tener calificaciones sospechosamente altas sin dedicar mucho tiempo por pregunta. ¿Es trampa? Posiblemente. Pero quizás el maestro tenía un grupo de estudiantes avanzados. Otro maestro podría mostrar calificaciones altas con tiempos de respuesta notablemente más cortos, lo que podría deberse a asistencia no autorizada.

Análisis a Nivel de Grupo

SIFT agrupa estadísticas a nivel de grupo. Esto ayuda a identificar patrones sospechosos en grupos de estudiantes, centros de pruebas o incluso profesores específicos.

La Historia de SIFT

Comencé a desarrollar SIFT en 2012. ASC vendía anteriormente un programa llamado Scrutiny!, pero dejamos de ofrecerlo debido a problemas de compatibilidad con las versiones más recientes de Windows. A pesar de eso, continuamos recibiendo solicitudes.

Decidido a crear una herramienta mejor, me propuse desarrollar SIFT. Quería incluir el análisis de Scrutiny! (el índice de Bellezza & Bellezza) y mucho más. Después de años de desafíos empresariales y horas incontables de trabajo, SIFT fue lanzado en julio de 2016.

La versión 1.0 de SIFT incluye:

  • 10 Índices de Colusión (5 probabilísticos, 5 descriptivos)
  • Análisis de Tiempos de Respuesta
  • Análisis a Nivel de Grupo
  • Herramientas adicionales para la detección de fraude en pruebas

Aunque no abarca todos los análisis existentes en la literatura, SIFT supera a otras opciones disponibles para los profesionales.

¿Sugerencias? ¡Nos encantaría saber de ti!

En el mundo laboral actual, la experiencia técnica por sí sola ya no garantiza el éxito profesional. Las habilidades blandas—como la inteligencia emocional, la comunicación efectiva y la capacidad de trabajar en equipo—son clave para fomentar la colaboración, la innovación y la adaptabilidad en entornos de trabajo dinámicos.

Las empresas están adoptando un enfoque más integral en la selección de talento, lo que ha convertido la evaluación de habilidades blandas en una herramienta esencial para medir y desarrollar estas competencias. Evaluarlas no solo es útil de manera individual, sino que también complementa y mejora la validez de las pruebas cognitivas.

En este artículo, exploraremos la importancia de las habilidades blandas, su impacto en el crecimiento profesional y estrategias para evaluarlas y desarrollarlas, basándonos en investigaciones recientes y la opinión de expertos. Si estás listo para implementar estas evaluaciones, puedes adquirir pruebas predefinidas de empresas como ioPredict o utilizar los servicios de desarrollo de pruebas y la plataforma de evaluación en línea de ASC para diseñar y aplicar tus propias pruebas.

¿Qué son las habilidades blandas?

Las habilidades blandas abarcan un conjunto amplio de competencias interpersonales e intrapersonales. A diferencia de las habilidades técnicas, que son medibles y específicas, las habilidades blandas incluyen aspectos como:Improving Employee Retention - Strategies for Success

  • Comunicación: Capacidad de expresar ideas de manera clara y escuchar activamente.
  • Trabajo en equipo: Colaboración efectiva con personas de distintos perfiles y antecedentes.
  • Adaptabilidad: Manejo positivo del cambio y la incertidumbre.
  • Inteligencia emocional: Reconocimiento y gestión de las propias emociones y comprensión de las emociones ajenas.
  • Resolución de problemas: Abordaje de desafíos con pensamiento crítico y creatividad.

Estas competencias ayudan a los profesionales a navegar entornos laborales complejos y adaptarse a las exigencias del mercado actual.

¿Por qué son fundamentales las habilidades blandas?

Mayor colaboración en el trabajo

Las empresas dependen cada vez más del trabajo en equipo, lo que hace imprescindible la comunicación efectiva y la cooperación. Un estudio de McKinsey & Company (2021) reveló que los equipos con sólidas habilidades colaborativas son un 25% más productivos.

Adaptabilidad en un mundo en constante cambio

Adaptabilidad en un mundo en constante cambio

En un entorno marcado por la disrupción tecnológica y el trabajo remoto, la capacidad de adaptación se ha convertido en un factor determinante para el éxito profesional. El Foro Económico Mundial (2020) identificó la adaptabilidad como una de las habilidades clave en la Cuarta Revolución Industrial.

Liderazgo e inteligencia emocional

Ser un buen líder va más allá del conocimiento técnico: implica inspirar y guiar equipos. La inteligencia emocional es un componente fundamental del liderazgo efectivo. Según Daniel Goleman, los líderes con alta inteligencia emocional generan mayor compromiso y retención de talento en sus equipos (Goleman, 1998).

Mejora en la relación con clientes

En roles de atención al cliente, habilidades como la empatía y la escucha activa son esenciales. Un estudio de Salesforce (2022) mostró que el 70% de los clientes son más leales a empresas donde se sienten comprendidos y valorados.

Enfoques para la Evaluación de Habilidades Blandas

La evaluación de habilidades blandas requiere herramientas y metodologías que simulen escenarios reales y analicen las respuestas conductuales de los candidatos o empleados. Algunas de las estrategias más utilizadas incluyen:FastTest - Situational Judgment Test SJT example

  • Pruebas de juicio situacional (SJT):Presentan escenarios laborales realistas y piden a los participantes que elijan la mejor respuesta, evaluando su toma de decisiones e inteligencia interpersonal.
  • Entrevistas por Competencias: Preguntas estructuradas que exploran experiencias pasadas y cómo los candidatos manejaron distintas situaciones.
  • Feedback 360°: Evaluaciones que recopilan opiniones de colegas, supervisores y subordinados sobre la efectividad interpersonal del evaluado.
  • Pruebas de personalidad e inteligencia emocional: Herramientas como el modelo de los Cinco Grandes evalúan rasgos que influyen en la comunicación y adaptabilidad.
  • Simulaciones laborales: Ejercicios de rol que reproducen desafíos cotidianos del puesto de trabajo.

Preguntas de ejemplo para evaluar habilidades blandas en entrevistas

  • Comunicación: “Cuéntame sobre una ocasión en la que tuviste que explicar una idea compleja a alguien sin conocimientos en el tema. ¿Cómo te aseguraste de que lo entendiera?”
  • Trabajo en equipo: “Describe una experiencia en la que trabajaste en equipo. ¿Cuál fue tu rol y cómo manejaste los desacuerdos?”
  • Adaptabilidad: “Cuéntame sobre un momento en el que enfrentaste un cambio importante en tu trabajo. ¿Cómo lo manejaste?”
  • Resolución de problemas: “Menciona un desafío complicado que hayas enfrentado en el trabajo. ¿Cómo identificaste la causa raíz y lo resolviste?”
  • Inteligencia emocional: “Dame un ejemplo de una situación en la que notaste que las emociones de alguien estaban afectando su desempeño. ¿Cómo lo abordaste?”

Desarrollo de habilidades blandas

Las habilidades blandas pueden desarrollarse con práctica deliberada, retroalimentación y formación específica. Algunas estrategias efectivas incluyen:

  • Aprendizaje continuo: Talleres, cursos en línea y seminarios sobre comunicación, inteligencia emocional y liderazgo. Plataformas como Coursera y LinkedIn Learning ofrecen recursos valiosos.
  • Feedback y autoevaluación: La retroalimentación de colegas y supervisores ayuda a identificar áreas de mejora.
  • Ejercicios de simulación: Los juegos de roles y pruebas de juicio situacional permiten practicar habilidades en contextos reales.
  • Programas de mentoría: Aprender de mentores experimentados facilita el desarrollo de habilidades interpersonales.
  • Mindfulness y regulación emocional: Técnicas como la meditación mejoran la autorregulación emocional, la empatía y el manejo del estrés (Harvard Medical School, 2018).

Cómo medir el impacto de las habilidades blandas

Aunque las habilidades blandas pueden parecer intangibles, su impacto se refleja en métricas clave:

  • Retención de empleados: Las empresas que invierten en capacitación en habilidades blandas reducen la rotación de personal (LinkedIn Workplace Learning Report, 2023).
  • Desempeño en equipo: Los equipos con comunicación y colaboración efectiva logran mayores tasas de éxito en proyectos (MIT Sloan Management, 2017).
  • Satisfacción del cliente: Una mejor interacción con los clientes mejora la lealtad y la reputación de la empresa.

Conclusión

Las habilidades blandas ya no son un complemento, sino un pilar del éxito profesional. Implementar estrategias de evaluación adecuadas permite a las empresas identificar y potenciar estas competencias, promoviendo la innovación y el crecimiento sostenible.

 

La evaluación de RH es una parte fundamental del ecosistema de RH, que se utiliza para seleccionar a los mejores candidatos con pruebas previas al empleo, evaluar la formación, certificar habilidades y más. Pero existe una gran variedad en cuanto a calidad, así como una amplia gama en el tipo de evaluación para la que está diseñada. Esta publicación desglosará los diferentes enfoques y lo ayudará a encontrar la mejor solución.

Las plataformas de evaluación de RH ayudan a las empresas a crear evaluaciones efectivas, ahorrando así recursos valiosos, mejorando la experiencia y la calidad de los candidatos, proporcionando información más precisa y procesable sobre el capital humano y reduciendo el sesgo de contratación. Pero encontrar soluciones de software que puedan ayudarlo a cosechar estos beneficios puede ser difícil, especialmente debido a la explosión de soluciones en el mercado. Si no sabe qué herramientas lo ayudarán a desarrollar y entregar sus propias evaluaciones de RH, esta guía es para usted.

¿Qué es la evaluación de RH?

La evaluación de RH es un proceso integral que utilizan los profesionales de recursos humanos para evaluar diversos aspectos de las capacidades, habilidades y desempeño de los empleados actuales y potenciales. Este proceso abarca una amplia gama de herramientas y metodologías diseñadas para brindar información sobre la idoneidad de una persona para un puesto, sus necesidades de desarrollo y su potencial de crecimiento futuro dentro de la organización.

hr assessment software presentation

El objetivo principal de la evaluación de RH es tomar decisiones informadas sobre la contratación, el desarrollo de los empleados y la planificación de la sucesión. Durante la fase de contratación, las evaluaciones de RH ayudan a identificar candidatos que poseen las competencias necesarias y se adaptan a la cultura de la organización.

Existen varios tipos de evaluaciones utilizadas en RH. Aquí hay cuatro áreas principales, aunque esta lista no es de ninguna manera exhaustiva.

  1. Pruebas previas al empleo para seleccionar candidatos
  2. Evaluaciones posteriores a la capacitación
  3. Exámenes de certificación o de certificación (pueden ser internos o externos)
  4. Evaluaciones de 360 ​​grados y otras evaluaciones de desempeño

 

Pruebas previas al empleo

Encontrar buenos empleados en un mercado saturado es una tarea abrumadora. De hecho, según Harvard Business Review, el 80 % de la rotación de personal se atribuye a malas decisiones de contratación. Las malas contrataciones no solo son caras, sino que también pueden afectar negativamente la dinámica cultural en la fuerza laboral. Esta es un área en la que el software de evaluación de RR.HH. demuestra su valor.

Existen diferentes tipos de evaluaciones previas al empleo. Cada una de ellas logra un objetivo diferente en el proceso de contratación. Los principales tipos de evaluaciones previas al empleo incluyen:

Pruebas de personalidad: A pesar de que rápidamente se han abierto camino en RH, este tipo de pruebas previas al empleo son ampliamente malinterpretadas. Las pruebas de personalidad responden a preguntas del espectro social. Uno de los principales objetivos de estas pruebas es cuantificar el éxito de ciertos candidatos en función de rasgos de comportamiento.

Pruebas de aptitud: A diferencia de las pruebas de personalidad o las pruebas de inteligencia emocional que tienden a ubicarse en el espectro social, las pruebas de aptitud miden la resolución de problemas, el pensamiento crítico y la agilidad. Este tipo de pruebas son populares porque pueden predecir el desempeño laboral más que cualquier otro tipo, ya que pueden aprovechar áreas que no se pueden encontrar en los currículums o las entrevistas de trabajo.

Pruebas de habilidades: los tipos de pruebas se pueden considerar una medida de la experiencia laboral; van desde habilidades de alto nivel hasta habilidades de bajo nivel, como mecanografía o Microsoft Excel. Las pruebas de habilidades pueden medir habilidades específicas, como la comunicación, o medir habilidades generalizadas, como la aritmética.

Pruebas de inteligencia emocional: este tipo de evaluaciones son un concepto nuevo, pero están adquiriendo importancia en la industria de RH. Dado que una inteligencia emocional (IE) sólida se asocia con beneficios como una mayor productividad en el lugar de trabajo y un buen liderazgo, muchas empresas están invirtiendo mucho en el desarrollo de este tipo de pruebas. A pesar de que se pueden administrar a cualquier candidato, se recomienda reservarlas para personas que buscan puestos de liderazgo o para quienes se espera que trabajen en contextos sociales.

Pruebas de riesgo: como sugiere el nombre, este tipo de pruebas ayudan a las empresas a reducir los riesgos. Las evaluaciones de riesgo ofrecen garantías a los empleadores de que sus trabajadores se comprometerán con la ética laboral establecida y no se involucrarán en ninguna actividad que pueda causarles daño a ellos mismos o a la organización. Existen diferentes tipos de pruebas de riesgo. Las pruebas de seguridad, que son populares en contextos como la construcción, miden la probabilidad de que los candidatos participen en actividades que puedan causarles daño. Otros tipos comunes de pruebas de riesgo incluyen pruebas de integridad.

 

Evaluaciones posteriores a la capacitación

Esto se refiere a las evaluaciones que se realizan después de la capacitación. Puede ser una prueba sencilla después de un módulo de aprendizaje electrónico, hasta un examen de certificación después de meses de capacitación (consulte la siguiente sección). A menudo, es algo intermedio. Por ejemplo, puede realizar un curso de capacitación por la tarde, después del cual realiza una prueba formal que se requiere para hacer algo en el trabajo. Cuando era estudiante de secundaria, trabajé en un depósito de madera e hice exactamente esto para convertirme en un conductor de montacargas aprobado por OSHA.

 

Exámenes de certificación o certificado

A veces, el proceso de examen puede ser de alto riesgo y formal. En ese caso, se trata de un certificado o certificación, o, a veces, de un examen de licencia. Más información sobre eso aquí. Esto puede ser interno a la organización o externo.

Certificación interna: la credencial la otorga la organización de capacitación y el examen está específicamente vinculado a un determinado producto o proceso que la organización ofrece en el mercado. Hay muchos ejemplos de este tipo en la industria del software. Puede obtener certificaciones en AWS, SalesForce, Microsoft, etc. Uno de nuestros clientes fabrica máquinas de resonancia magnética y otras máquinas de imágenes médicas; los candidatos están certificados sobre cómo calibrarlas o repararlas.

Certificación externa: la credencial la otorga una junta externa o una agencia gubernamental y el examen es para toda la industria. Un ejemplo de esto son los exámenes SIE que ofrece FINRA. Un candidato puede ir a trabajar a una compañía de seguros u otra compañía de servicios financieros, que lo capacita y lo patrocina para que tome el examen con la esperanza de que la compañía obtenga una ganancia si el candidato aprueba y luego vende sus pólizas de seguro como agente. Pero la compañía no patrocina el examen; FINRA lo hace.

 

Evaluaciones de 360 ​​grados y otras evaluaciones de desempeño

El desempeño laboral es uno de los conceptos más importantes en RH y también uno que a menudo es difícil de medir. John Campbell, uno de mis asesores de tesis, era conocido por desarrollar un modelo de desempeño de 8 factores. Algunos aspectos son subjetivos y otros se miden fácilmente con datos del mundo real, como la cantidad de dispositivos fabricados o la cantidad de automóviles vendidos por un vendedor de automóviles. Otros implican evaluaciones de estilo encuesta, como pedir a los clientes, socios comerciales, compañeros de trabajo, supervisores y subordinados que califiquen a una persona en una escala de Likert. Se necesitan plataformas de evaluación de RH para desarrollar, entregar y calificar dichas evaluaciones.

 

Los beneficios de utilizar un software de evaluación de nivel profesional

Ahora que ya comprende bien qué son las pruebas previas al empleo y otras pruebas de RH, analicemos los beneficios de integrar un software de evaluación previa al empleo en su proceso de contratación. Estos son algunos de los beneficios:

Ahorra recursos valiosos

Unlike the lengthy and costly traditional hiring processes, pre-employment assessment software helps companies increase their ROI by eliminating HR snugs such as face-to-face interactions or geographical restrictions. Pre-employment testing tools can also reduce the amount of time it takes to make good hires while reducing the risks of facing the financial consequences of a bad hire.

A diferencia de los largos y costosos procesos de contratación tradicionales, el software de evaluación previa al empleo ayuda a las empresas a aumentar su retorno de la inversión al eliminar inconvenientes de RH, como interacciones cara a cara o restricciones geográficas. Las herramientas de evaluación previa al empleo también pueden reducir la cantidad de tiempo que lleva realizar buenas contrataciones y, al mismo tiempo, reducir los riesgos de enfrentar las consecuencias financieras de una mala contratación.

Apoya las decisiones de contratación basadas en datos

Los datos gobiernan el mundo moderno, y la contratación no es diferente. Es mejor dejar que algoritmos complejos analicen los números y lo ayuden a decidir qué talento es el adecuado, en lugar de contratar basándose en una corazonada o métodos menos precisos como una entrevista no estructurada. El software de evaluación previa al empleo lo ayuda a analizar evaluaciones y generar informes/visualizaciones para ayudarlo a elegir a los candidatos adecuados de un gran grupo de talentos.

Mejora de la experiencia del candidato 

La experiencia del candidato es un aspecto importante del crecimiento de una empresa, especialmente si se considera el hecho de que el 69% de los candidatos admiten no postularse para un trabajo en una empresa después de tener una experiencia negativa. Una buena experiencia del candidato significa que tiene acceso al mejor talento del mundo.

Eliminación del sesgo humano

Los procesos de contratación tradicionales se basan en el instinto. No son efectivos porque es fácil que los candidatos brinden información falsa en sus currículums y cartas de presentación. Pero el uso de software de evaluación previa al empleo ha ayudado a eliminar este obstáculo. Las herramientas han nivelado el terreno de juego y solo los mejores candidatos son considerados para un puesto.

 

Qué tener en cuenta al elegir herramientas de evaluación de RH

Ahora que tiene una idea clara de qué son las pruebas previas al empleo y los beneficios de integrar el software de evaluación previa al empleo en su proceso de contratación, veamos cómo puede encontrar las herramientas adecuadas.

A continuación, se detallan los aspectos más importantes que debe tener en cuenta al elegir el software de evaluación previa al empleo adecuado para su organización.

Facilidad de uso

Los candidatos deben ser su principal prioridad cuando busque un software de evaluación previa al empleo. Esto se debe a que la facilidad de uso se relaciona directamente con una buena experiencia del candidato. Un buen software debe tener módulos de navegación simples y una fácil comprensión.

A continuación, se incluye una lista de verificación para ayudarlo a decidir si un software de evaluación previa al empleo es fácil de usar:

  • ¿Los resultados son fáciles de interpretar?
  • ¿Cómo es la interfaz de usuario y la experiencia de usuario?
  • ¿Qué métodos utiliza para automatizar tareas como la gestión de candidatos?
  • ¿Tiene buena documentación y una comunidad activa?

 

Entrega de pruebas y supervisión remota

Un buen software de evaluación en línea debe contar con buenas funcionalidades de supervisión en línea. Esto se debe a que la mayoría de los trabajos remotos aceptan solicitudes de todo el mundo. Por lo tanto, es recomendable elegir un software de pruebas previas al empleo que tenga capacidades de supervisión remota seguras. Estas son algunas de las cosas que debe buscar en la supervisión remota:

  • ¿La plataforma admite procesos de seguridad como autenticación basada en IP, bloqueo del navegador y señalización de IA?
  • ¿Qué tipos de supervisión en línea ofrece el software? ¿En tiempo real en vivo, revisión de IA o grabación y revisión?
  • ¿Le permite traer su propio supervisor?
  • ¿Ofrece análisis de pruebas?

 

Seguridad de pruebas y datos, y cumplimiento normativo

La capacidad de defensa es lo que define la seguridad de las pruebas. Existen varias capas de seguridad asociadas con la seguridad de las pruebas previas al empleo. Al evaluar este aspecto, debe considerar qué hace el software de pruebas previas al empleo para lograr el mayor nivel de seguridad. Esto se debe a que las violaciones de datos son extremadamente costosas.

La primera capa de seguridad es la prueba en sí. El software debe admitir tecnologías y marcos de seguridad como el bloqueo del navegador, el marcado de IP y la autenticación basada en IP.

La otra capa de seguridad está del lado del candidato. Como empleador, usted tendrá acceso a la información privada del candidato. ¿Cómo puede asegurarse de que los datos de su candidato estén seguros? Esa es razón suficiente para evaluar las pautas de cumplimiento y protección de datos del software.

Un buen software de pruebas previas al empleo debe cumplir con certificaciones como la GDPR. El software también debe ser flexible para adaptarse a las pautas de cumplimiento de diferentes partes del mundo.

Preguntas que debe plantearse:

  • ¿Qué mecanismos emplea el software para eliminar la infidelidad?
  • ¿Su función de supervisión remota es fiable y segura?
  • ¿Cumplen las directrices de cumplimiento de seguridad, como ISO, SSO o GDPR?
  • ¿Cómo protege el software los datos de los usuarios?

 

Psicometría

La psicometría es la ciencia de la evaluación, que ayuda a obtener puntuaciones precisas a partir de pruebas defendibles, además de hacerlas más eficientes, reducir el sesgo y ofrecer una serie de otros beneficios. Debe asegurarse de que su solución admita el nivel necesario de psicometría. Algunas sugerencias:

 

Experiencia de usuario

Una buena experiencia de usuario es un factor indispensable a la hora de buscar un software empresarial. Un software de pruebas previas al empleo de última generación debe crear mapas de experiencia de usuario teniendo en cuenta tanto a los candidatos como al empleador. Algunas formas de saber si un software ofrece una experiencia de usuario perfecta incluyen:

  • Interfaz fácil de usar
  • Sencillo y fácil de interactuar
  • Bancos de elementos fáciles de crear y gestionar
  • Panel de control claro con análisis y visualizaciones avanzados

Personalizar los mapas de experiencia de usuario para que se ajusten a las expectativas de los candidatos atrae talento de alta calidad.

 

Escalabilidad y automatización

Dado que una única publicación de empleo atrae a aproximadamente 250 candidatos, la escalabilidad no es algo que deba pasar por alto. Por lo tanto, un buen software de pruebas previas al empleo debe tener la capacidad de manejar cualquier tipo de carga de trabajo, sin sacrificar la calidad de la evaluación.

También es importante que verifique las capacidades de automatización del software. El proceso de contratación tiene muchas tareas repetitivas que se pueden automatizar con tecnologías como el aprendizaje automático, la inteligencia artificial (IA) y la automatización robótica de procesos (RPA).

Estas son algunas preguntas que debe considerar en relación con la escalabilidad y la automatización:

 

Informes y análisis

iteman item analysis

Un buen software de evaluación previa al empleo no lo dejará colgado después de ayudarlo a desarrollar y entregar las pruebas, sino que le permitirá obtener información importante de las evaluaciones.

Los informes analíticos se pueden utilizar para tomar decisiones basadas en datos sobre qué candidato es adecuado y cómo mejorar su experiencia. A continuación, se incluyen algunas consultas que se pueden realizar sobre informes y análisis.

  • ¿El software tiene un buen panel de control?
  • ¿En qué formato se generan los informes?
  • ¿Qué información clave pueden obtener los clientes potenciales del proceso de análisis?
  • ¿Qué tan buenas son las visualizaciones?

 

Atención al cliente y soporte técnico

El soporte técnico y al cliente no es algo que deba pasarse por alto. Un buen software de evaluación previa al empleo debe contar con un sistema de soporte omnicanal que esté disponible las 24 horas del día, los 7 días de la semana. Esto se debe principalmente a que algunas situaciones requieren una respuesta rápida. Estas son algunas de las preguntas que debe plantearse al evaluar el soporte técnico y al cliente:

  • ¿Qué canales de soporte ofrece el software? ¿Qué tan rápido es su soporte?
  • ¿Qué tan buena es su página de preguntas frecuentes/recursos?
  • ¿Ofrecen medios de soporte en varios idiomas?
  • ¿Tienen administradores dedicados para ayudarlo a aprovechar al máximo sus pruebas?

 

Conclusión

Encontrar el software de evaluación de RR.HH. adecuado es un proceso largo, pero rentable a largo plazo. Esperamos que el artículo arroje algo de luz sobre los aspectos importantes que se deben tener en cuenta al buscar dichas herramientas. Además, no olvide adoptar un enfoque pragmático al implementar dichas herramientas en su proceso de contratación.

¿No sabe cómo utilizar las herramientas de prueba previa al empleo para mejorar su proceso de contratación? No dude en ponerse en contáctenos y lo guiaremos en todo el proceso, desde el desarrollo del concepto hasta la implementación. Ya sea que necesite pruebas listas para usar o una plataforma integral para crear sus propios exámenes, podemos brindarle la orientación que necesita. También ofrecemos versiones gratuitas de nuestro software líder en la industria FastTest y Assess.ai. Visite nuestra página Contáctenos para comenzar.

Si está interesado en profundizar en las evaluaciones de liderazgo, es posible que desee consultar esta publicación de blog. Para obtener más información y un ejemplo de cómo las evaluaciones de RH pueden fallar, consulte nuestra publicación de blog llamada Prácticas de contratación y litigios de seguridad pública. La publicación de blog titulada Mejorar la retención de empleados con evaluaciones: estrategias para el éxito explora cómo el uso estratégico de las evaluaciones a lo largo del ciclo de vida del empleado puede mejorar la retención, crear equipos más fuertes e impulsar el éxito empresarial al alinear los objetivos organizacionales con el desarrollo y el compromiso de los empleados.

El escalamiento vertical es el proceso de colocar las puntuaciones de las evaluaciones educativas que miden el mismo dominio de conocimiento pero en diferentes niveles de habilidad en una escala común (Tong y Kolen, 2008). El ejemplo más común es colocar las evaluaciones de Matemáticas o Lenguaje para K-12 en una sola escala para todos los grados. Por ejemplo, puede tener un currículo de matemáticas de grado 4, grado 5, grado 6… en lugar de tratarlos a todos como islas, consideramos todo el recorrido y vinculamos los grados en un solo banco de ítems. Si bien se puede encontrar información general sobre el escalamiento en ¿Qué es el escalamiento de pruebas?, este artículo se centrará específicamente en el escalamiento vertical.

¿Por qué escalamiento vertical?

Una escala vertical es increíblemente importante, ya que permite inferencias sobre el progreso del estudiante de un momento a otro, por ejemplo, de los grados de primaria a secundaria, y puede considerarse como un continuo de desarrollo de los logros académicos del estudiante. En otras palabras, los estudiantes avanzan a lo largo de ese continuo a medida que desarrollan nuevas habilidades, y su puntaje en la escala se altera como resultado (Briggs, 2010).

Esto no solo es importante para los estudiantes individuales, porque podemos hacer un seguimiento del aprendizaje y asignar intervenciones o enriquecimientos apropiados, sino también en un sentido agregado. ¿Qué escuelas están creciendo más que otras? ¿Son mejores ciertos maestros? ¿Quizás haya una diferencia notable entre los métodos de instrucción o los planes de estudio? Aquí, estamos llegando al propósito fundamental de la evaluación; al igual que es necesario tener una báscula de baño para controlar el peso en un régimen de ejercicios, si un gobierno implementa un nuevo método de instrucción de matemáticas, ¿cómo sabe que los estudiantes están aprendiendo de manera más efectiva?

El uso de una escala vertical puede crear un marco interpretativo común para los resultados de las pruebas en todos los grados y, por lo tanto, proporcionar datos importantes que sirvan de base para la enseñanza individual y en el aula. Para que sean válidos y fiables, estos datos deben recopilarse en base a escalas verticales construidas adecuadamente.

Las escalas verticales se pueden comparar con las reglas que miden el crecimiento de los estudiantes en algunas áreas temáticas de un momento de prueba a otro. De manera similar a la altura o el peso, se supone que las capacidades de los estudiantes aumentan con el tiempo. Sin embargo, si tiene una regla de solo 1 metro de largo y está tratando de medir el crecimiento de niños de 3 a 10 años, deberá unir dos reglas.

Construcción de escalas verticales

La construcción de una escala vertical es un proceso complicado que implica tomar decisiones sobre el diseño de la prueba, el diseño de la escala, la metodología de la escala y la configuración de la escala. La interpretación del progreso en una escala vertical depende de la combinación resultante de dichas decisiones de escala (Harris, 2007; Briggs y Weeks, 2009). Una vez que se establece una escala vertical, es necesario mantenerla en diferentes formas y en el tiempo. Según Hoskens et al. (2003), el método elegido para mantener las escalas verticales afecta a la escala resultante y, por lo tanto, es muy importante.

Un modelo de medición que se utiliza para colocar las habilidades de los estudiantes en una escala vertical está representado por la teoría de respuesta al ítem (IRT; Lord, 2012; De Ayala, 2009) o el modelo de Rasch (Rasch, 1960). Este enfoque permite comparaciones directas de los resultados de la evaluación basados ​​en diferentes conjuntos de ítems (Berger et al., 2019). Por lo tanto, se supone que cada estudiante debe trabajar con un grupo seleccionado de ítems que no son similares a los ítems tomados por otros estudiantes, pero aún así sus resultados serán comparables con los de ellos, así como con los suyos propios de otros momentos de evaluación.

La imagen a continuación muestra cómo los resultados de los estudiantes de diferentes grados pueden conceptualizarse mediante una escala vertical común. Suponga que fuera a calibrar los datos de cada grado por separado, pero tiene ítems de anclaje entre los tres grupos. Un análisis de enlace podría sugerir que el Grado 4 está 0,5 logits por encima del Grado 3, y el Grado 5 está 0,7 logits por encima del Grado 4. Puede pensar en las curvas de campana superpuestas como se ve a continuación. Un theta de 0,0 en la escala de Grado 5 es equivalente a 0,7 en la escala de Grado 4, y 1,3 en la escala de Grado 3. Si tiene un enlace fuerte, puede poner los ítems/estudiantes de Grado 3 y Grado 4 en la escala de Grado 5… así como todos los demás grados utilizando el mismo enfoque.

Vertical-scaling

Diseño de pruebas

Kolen y Brennan (2014) nombran tres tipos de diseños de pruebas que apuntan a recopilar datos de respuesta de los estudiantes que deben calibrarse:

  • Diseño de grupo equivalente. A los grupos de estudiantes con distribuciones de habilidades presumiblemente comparables dentro de un grado se les asigna aleatoriamente la tarea de responder preguntas relacionadas con su propio grado o con un grado adyacente;
  • Diseño de elementos comunes. Utilizar elementos idénticos para estudiantes de grados adyacentes (sin requerir grupos equivalentes) para establecer un vínculo entre dos grados y alinear bloques de elementos superpuestos dentro de un grado, como poner algunos elementos de Grado 5 en la prueba de Grado 6, algunos elementos de Grado 6 en la prueba de Grado 7, etc.;
  • Diseño de pruebas de escalamiento. Este tipo es muy similar al diseño de ítems comunes pero, en este caso, los ítems comunes se comparten no solo entre grados adyacentes; hay un bloque de ítems administrado a todos los grados involucrados además de los ítems relacionados con el grado específico.

Desde una perspectiva teórica, el diseño más coherente con una definición de dominio del crecimiento es el diseño de pruebas de escalamiento. El diseño de ítems comunes es el más fácil de implementar en la práctica, pero solo si la administración de los mismos ítems a grados adyacentes es razonable desde una perspectiva de contenido. El diseño de grupos equivalentes requiere procedimientos de administración más complicados dentro de un grado escolar para garantizar muestras con distribuciones de capacidad equivalentes.

Diseño de escala

El procedimiento de escalamiento puede utilizar puntuaciones observadas o puede basarse en IRT. Los procedimientos de diseño de escala más utilizados en configuraciones de escala vertical son los de escala Hieronymus, Thurstone e IRT (Yen, 1986; Yen y Burket, 1997; Tong y Harris, 2004). En todas estas tres metodologías se elige una escala provisional (von Davier et al., 2006).

  • Escala de Hieronymus. Este método utiliza una puntuación total de respuestas correctas para las pruebas con puntuación dicotómica o una puntuación total de puntos para los ítems con puntuación politómica (Petersen et al., 1989). La prueba de escala se construye de manera que represente el contenido en un orden creciente en términos del nivel de la prueba, y se administra a una muestra representativa de cada nivel o grado de la prueba. La variabilidad y el crecimiento dentro y entre niveles se establecen en una prueba de escala externa, que es el conjunto especial de ítems comunes.
  • Escala de Thurstone. Según Thurstone (1925, 1938), este método crea primero una escala de puntuación provisional y luego normaliza las distribuciones de las variables en cada nivel o grado. Supone que las puntuaciones en una escala subyacente se distribuyen normalmente dentro de cada grupo de interés y, por lo tanto, utiliza un número total de puntuaciones correctas para pruebas con puntuación dicotómica o un número total de puntos de ítems con puntuación politómica para realizar el escalamiento. Por lo tanto, el escalamiento de Thurstone normaliza e iguala linealmente las puntuaciones brutas y, por lo general, se realiza dentro de grupos equivalentes.
  • Escala de IRT. Este método de escalamiento considera las interacciones persona-ítem. Teóricamente, el escalamiento IRT se aplica a todos los modelos IRT existentes, incluidos los modelos IRT multidimensionales o los modelos de diagnóstico. En la práctica, solo se utilizan modelos unidimensionales, como los modelos de Rasch y/o de crédito parcial (PCM) o los modelos 3PL (von Davier et al., 2006).

Calibración de datos

Cuando se han tomado todas las decisiones, incluido el diseño de la prueba y el diseño de la escala, y se administran las pruebas a los estudiantes, los ítems deben calibrarse con un software como  Xcalibre  para establecer una escala de medición vertical. Según Eggen y Verhelst (2011), la calibración de ítems dentro del contexto del modelo de Rasch implica el proceso de establecer el ajuste del modelo y estimar el parámetro de dificultad de un ítem basado en los datos de respuesta por medio de procedimientos de estimación de máxima verosimilitud.

Se emplean dos procedimientos, la calibración concurrente y la calibración grado por grado, para vincular los parámetros de dificultad de los ítems basados ​​en la IRT a una escala vertical común en varios grados (Briggs y Weeks, 2009; Kolen y Brennan, 2014). En la calibración concurrente, todos los parámetros de los ítems se estiman en una sola ejecución mediante la vinculación de ítems compartidos por varios grados adyacentes (Wingersky y Lord, 1983). Por el contrario, en la calibración grado por grado, los parámetros de los ítems se estiman por separado para cada grado y luego se transforman en una escala común a través de métodos lineales. El método más preciso para determinar las constantes de enlace minimizando las diferencias entre las curvas características de los elementos de enlace entre las calificaciones es el método de Stocking y Lord (Stocking y Lord, 1983). Esto se logra con software como  IRTEQ.

Resumen del escalamiento vertical

El escalamiento vertical es un tema extremadamente importante en el mundo de la evaluación educativa, especialmente en la educación primaria y secundaria. Como se mencionó anteriormente, esto no solo se debe a que facilita la instrucción para estudiantes individuales, sino que es la base para la información sobre la educación a nivel agregado.

Existen varios enfoques para implementar el escalamiento vertical, pero el enfoque basado en IRT es muy convincente. Una escala IRT vertical permite la representación de la capacidad de los estudiantes en múltiples grados escolares y también la dificultad de los ítems en una amplia gama de dificultades. Además, los ítems y las personas se encuentran en la misma escala latente. Gracias a esta característica, el enfoque IRT admite la selección intencionada de ítems y, por lo tanto, algoritmos para pruebas adaptativas computarizadas (CAT). Estos últimos utilizan estimaciones preliminares de la capacidad para elegir los ítems más apropiados e informativos para cada estudiante individual (Wainer, 2000; van der Linden y Glas, 2010). Por lo tanto, incluso si el conjunto de ítems es de 1000 preguntas que abarcan desde el jardín de infantes hasta el grado 12, puede realizar una sola prueba a cualquier estudiante en el rango y se adaptará a ellos. Mejor aún, puede realizar la misma prueba varias veces al año y, como los estudiantes están aprendiendo, recibirán un conjunto diferente de ítems. Como tal, la CAT con una escala vertical es un enfoque increíblemente adecuado para la evaluación formativa de K-12.

Lectura adicional

Reckase (2010) afirma que la literatura sobre escalamiento vertical es escasa desde la década de 1920 y recomienda algunos estudios de investigación contemporáneos orientados a la práctica:

Paek y Young (2005). Este estudio de investigación abordó los efectos de los valores a priori bayesianos en la estimación de las ubicaciones de los estudiantes en el continuo cuando se utiliza un método de vinculación de parámetros de ítems fijos. Primero, se realizó una calibración dentro del grupo para un nivel de grado; luego, se fijaron los parámetros de los ítems comunes en esa calibración para calibrar el siguiente nivel de grado. Este enfoque obliga a que las estimaciones de los parámetros sean las mismas para los ítems comunes en los niveles de grado adyacentes. Los resultados del estudio mostraron que las distribuciones a priori podrían afectar los resultados y que se deben realizar controles cuidadosos para minimizar los efectos.

Rekase y Li (2007). Este capítulo del libro describe un estudio de simulación de los impactos de la dimensionalidad en el escalamiento vertical. Se emplearon modelos IRT tanto multidimensionales como unidimensionales para simular datos para observar el crecimiento en tres constructos de rendimiento. Los resultados mostraron que el modelo multidimensional recuperó las ganancias mejor que los modelos unidimensionales, pero esas ganancias se subestimaron principalmente debido a la selección de ítems comunes. Esto enfatiza la importancia de usar ítems comunes que cubran todo el contenido evaluado en los niveles de grado adyacentes.

Li (2007). El objetivo de esta tesis doctoral fue identificar si los métodos de IRT multidimensionales podrían usarse para el escalamiento vertical y qué factores podrían afectar los resultados. Este estudio se basó en una simulación diseñada para hacer coincidir los datos de evaluación estatal en Matemáticas. Los resultados mostraron que el uso de enfoques multidimensionales era factible, pero era importante que los ítems comunes incluyeran todas las dimensiones evaluadas en los niveles de grado adyacentes.

Ito, Sykes y Yao (2008). Este estudio comparó la calibración de grupos de grado concurrentes y separados mientras se desarrollaba una escala vertical para nueve grados consecutivos que rastreaban las competencias de los estudiantes en Lectura y Matemáticas. El estudio de investigación utilizó el software BMIRT implementando la estimación de Monte Carlo de cadena de Markov. Los resultados mostraron que las calibraciones simultáneas y por separado de los grupos de grado habían proporcionado resultados diferentes para Matemáticas que para Lectura. Esto, a su vez, confirma que la implementación de la escala vertical es muy difícil y que las combinaciones de decisiones sobre su construcción pueden tener efectos notables en los resultados.

Briggs y Weeks (2009). Este estudio de investigación se basó en datos reales utilizando respuestas a los ítems del Programa de Evaluación de Estudiantes de Colorado. El estudio comparó las escalas verticales basadas en el modelo 3PL con las del modelo Rasch. En general, el modelo 3PL proporcionó escalas verticales con mayores aumentos en el desempeño de un año a otro, pero también mayores aumentos dentro de la variabilidad de grado que la escala basada en el modelo Rasch. Todos los métodos dieron como resultado curvas de crecimiento con menor ganancia junto con un aumento en el nivel de grado, mientras que las desviaciones estándar no fueron muy diferentes en tamaño en diferentes niveles de grado.

Referencias

Berger, S., Verschoor, A. J., Eggen, T. J., & Moser, U. (2019, October). Development and validation of a vertical scale for formative assessment in mathematics. In Frontiers in Education (Vol. 4, p. 103). https://www.frontiersin.org/journals/education/articles/10.3389/feduc.2019.00103/full

Briggs, D. C., & Weeks, J. P. (2009). The impact of vertical scaling decisions on growth interpretations. Educational Measurement: Issues and Practice, 28(4), 3–14.

Briggs, D. C. (2010). Do Vertical Scales Lead to Sensible Growth Interpretations? Evidence from the Field. Online Submissionhttps://files.eric.ed.gov/fulltext/ED509922.pdf

De Ayala, R. J. (2009). The Theory and Practice of Item Response Theory. New York: Guilford Publications Incorporated.

Eggen, T. J. H. M., & Verhelst, N. D. (2011). Item calibration in incomplete testing designs. Psicológica 32, 107–132.

Harris, D. J. (2007). Practical issues in vertical scaling. In Linking and aligning scores and scales (pp. 233–251). Springer, New York, NY.

Hoskens, M., Lewis, D. M., & Patz, R. J. (2003). Maintaining vertical scales using a common item design. In annual meeting of the National Council on Measurement in Education, Chicago, IL.

Ito, K., Sykes, R. C., & Yao, L. (2008). Concurrent and separate grade-groups linking procedures for vertical scaling. Applied Measurement in Education, 21(3), 187–206.

Kolen, M. J., & Brennan, R. L. (2014). Item response theory methods. In Test Equating, Scaling, and Linking (pp. 171–245). Springer, New York, NY.

Li, T. (2007). The effect of dimensionality on vertical scaling (Doctoral dissertation, Michigan State University. Department of Counseling, Educational Psychology and Special Education).

Lord, F. M. (2012). Applications of item response theory to practical testing problems. Routledge.

Paek, I., & Young, M. J. (2005). Investigation of student growth recovery in a fixed-item linking procedure with a fixed-person prior distribution for mixed-format test data. Applied Measurement in Education, 18(2), 199–215.

Petersen, N. S., Kolen, M. J., & Hoover, H. D. (1989). Scaling, norming, and equating. In R. L. Linn (Ed.), Educational measurement (3rd ed., pp. 221–262). New York: Macmillan.

Rasch, G. (1960). Probabilistic Models for Some Intelligence and Attainment Tests. Copenhagen: Danmarks Paedagogiske Institut.

Reckase, M. D., & Li, T. (2007). Estimating gain in achievement when content specifications change: a multidimensional item response theory approach. Assessing and modeling cognitive development in school. JAM Press, Maple Grove, MN.

Reckase, M. (2010). Study of best practices for vertical scaling and standard setting with recommendations for FCAT 2.0. Unpublished manuscript. https://www.fldoe.org/core/fileparse.php/5663/urlt/0086369-studybestpracticesverticalscalingstandardsetting.pdf

Stocking, M. L., & Lord, F. M. (1983). Developing a common metric in item response theory. Applied psychological measurement, 7(2), 201–210. doi:10.1177/014662168300700208

Thurstone, L. L. (1925). A method of scaling psychological and educational tests. Journal of educational psychology, 16(7), 433–451.

Thurstone, L. L. (1938). Primary mental abilities (Psychometric monographs No. 1). Chicago: University of Chicago Press.

Tong, Y., & Harris, D. J. (2004, April). The impact of choice of linking and scales on vertical scaling. Paper presented at the annual meeting of the National Council on Measurement in Education, San Diego, CA.

Tong, Y., & Kolen, M. J. (2008). Maintenance of vertical scales. In annual meeting of the National Council on Measurement in Education, New York City.

van der Linden, W. J., & Glas, C. A. W. (eds.). (2010). Elements of Adaptive Testing. New York, NY: Springer.

von Davier, A. A., Carstensen, C. H., & von Davier, M. (2006). Linking competencies in educational settings and measuring growth. ETS Research Report Series, 2006(1), i–36. https://files.eric.ed.gov/fulltext/EJ1111406.pdf

Wainer, H. (Ed.). (2000). Computerized adaptive testing: A Primer, 2nd Edn. Mahwah, NJ: Lawrence Erlbaum Associates.

Wingersky, M. S., & Lord, F. M. (1983). An Investigation of Methods for Reducing Sampling Error in Certain IRT Procedures (ETS Research Reports Series No. RR-83-28-ONR). Princeton, NJ: Educational Testing Service.

Yen, W. M. (1986). The choice of scale for educational measurement: An IRT perspective. Journal of Educational Measurement, 23(4), 299–325.

Yen, W. M., & Burket, G. R. (1997). Comparison of item response theory and Thurstone methods of vertical scaling. Journal of Educational Measurement, 34(4), 293–313.

classroom students exam

Si está entregando pruebas de alto riesgo en formas lineales, o está pilotando un banco para prueba adaptativa computarizada/prueba lineal sobre la marcha, se enfrenta al problema de cómo equiparar las formas entre sí. Es decir, ¿cómo podemos traducir de manera defendible una puntuación en el Forma A a una puntuación en el Forma B? Si bien el concepto es simple, la metodología puede ser compleja y existe un área completa de investigación psicométrica dedicada a este tema. Hay varias formas de abordar esta cuestión, y la equiparación teoría de respuesta al ítem (TRÍ) es la más sólida.

¿Por qué necesitamos la equiparación?

La necesidad es obvia: ajustar las diferencias en dificultad para garantizar que todos los examinados reciban una puntuación justa en una escala estable. Supongamos que usted toma el Forma A y obtiene una puntuación de 72/100, mientras que su amigo toma el Forma B y obtiene una puntuación de 74/100. ¿Su amigo es más inteligente que usted, o su formulario tenía preguntas más fáciles? Bueno, si los diseñadores de la prueba incorporaron cierta superposición, podemos responder a esta pregunta empíricamente.

Supongamos que los dos formularios se superponen en 50 ítems, llamados ítems de anclaje o ítems de ecuador. Ambos formularios se entregan a una muestra grande y representativa. Estos son los resultados.

Forma Puntuación media en 50 Ítems superpuestos Puntuación media en 100 ítems en total
A 30 72
B 30 74

Because the mean score on the anchor items was higher, we then think that the Form B group was a little smarter, which led to a higher total score.

Now suppose these are the results:

FormA Puntuación media en 50 Ítems superpuestos Puntuación media en 100 ítems en total
A 32 72
B 32 74

Ahora, tenemos evidencia de que los grupos tienen la misma capacidad. La puntuación total más alta en el Forma B debe deberse entonces a que los ítems únicos en ese forma son un poco más fáciles.

¿Cómo calculo una equiparación?

Puede equiparar las formas con la teoría clásica de los test (TCT) o la teoría de respuesta al ítem (TRÍ). Sin embargo, una de las razones por las que se inventó la TRÍ fue que la equiparación con TCT era muy débil. Los métodos TCT incluyen Tucker, Levine y equipercentil. Sin embargo, ahora nos centraremos en la TRÍ.

La equiparación de TRÍ

Existen tres enfoques generales para la equiparación de TRÍ. Todos ellos se pueden lograr con nuestro software líder en la industria  Xcalibre, aunque la igualación de conversión requiere un software adicional llamado IRTEQ.

  1. Conversión
  2. Calibración concurrente
  3. Calibración de anclaje fijo

Conversión

Con este enfoque, debe calibrar cada forma de su prueba usando TRÍ, completamente por separado. Luego evaluamos la relación entre los parámetros TRÍ en cada forma y usamos eso para estimar la relación para convertir las puntuaciones del examinado. En teoría, lo que hace es alinear los parámetros TRÍ de los elementos comunes y realizar una regresión lineal, para luego poder aplicar esa conversión lineal a las puntuaciones.

Pero NO haga simplemente una regresión lineal regular. Hay métodos específicos que debe utilizar, incluidos media/media, media/sigma, Stocking & Lord y Haebara. Afortunadamente, no tiene que realizar todos los cálculos usted mismo, ya que hay software gratuito disponible para hacerlo por usted:  IRTEQ.

Calibración concurrentecommon item linking irt equating

El segundo enfoque consiste en combinar los conjuntos de datos en lo que se conoce como una matriz dispersa. Luego, se ejecuta este único conjunto de datos a través de la calibración TRÍ, y se colocarán todos los ítems y los examinados en una escala común. El concepto de una matriz dispersa se representa típicamente en la figura a continuación, que representa el enfoque de diseño de la prueba de anclaje no equivalente (NEAT).

El software de calibración TRÍ equiparará automáticamente los dos formas y usted podrá utilizar los puntajes resultantes.

Calibración de anclaje fijo

El tercer enfoque es una combinación de los dos anteriores; utiliza el concepto de calibración independiente, pero sigue utilizando el proceso de calibración TRÍ para realizar la equiparación en lugar de un software independiente.

Con este enfoque, primero calibraría sus datos para el Forma A. Luego, buscaría todos los parámetros de los ítems TRÍ para los elementos comunes y los ingresaría en su software de calibración TRÍ cuando calibre el Forma B.

Puede indicarle al software que “arregle” los parámetros de los ítems para que esos en particular (de los elementos comunes) no cambien. Luego, todos los parámetros de los ítems para los ítems únicos se fuerzan en la escala de los ítems comunes, que, por supuesto, es la escala subyacente del Forma A. Esto también fuerza las puntuaciones de los estudiantes del Forma B en la escala del Forma A.

¿Cómo se comparan estos enfoques de equiparación de TRÍ entre sí?
concurrent calibration irt equating linking

La calibración concurrente es posiblemente la más fácil, pero tiene el inconveniente de que fusiona las escalas de cada formulario en una nueva escala en algún lugar intermedio. Si necesita informar las puntuaciones de cualquiera de los formas en la escala original, debe utilizar los métodos de conversión o de anclaje fijo. Esta situación ocurre comúnmente si está haciendo comparaciones entre períodos de tiempo.

Suponga que entregó el Forma A el año pasado y ahora está tratando de hacer comparaciones con el Forma B. No puede simplemente crear una nueva escala y, por lo tanto, anular todas las puntuaciones que informó el año pasado. Debe mapear el Forma B en el Forma A para que las puntuaciones de este año se informen en la escala del año pasado y las puntuaciones de todos sean consistentes.

¿A dónde voy desde aquí?

Si desea realizar la equiparación TRÍ, necesita un software de calibración TRÍ. Los tres enfoques lo utilizan. Recomiendo encarecidamente  Xcalibre, ya que es fácil de usar y crea automáticamente informes en Word para usted. Si desea obtener más información sobre el tema de la equiparación, la referencia clásica es el libro de Kolen y Brennan (2004; 2014). Hay otros recursos más disponibles en Internet, como este manual gratuito de CCSSO. Si desea obtener más información sobre TRÍ, recomiendo los libros de de Ayala (2008) y Embretson & Reise (2000). Hay una introducción disponible en nuestra publicación de blog.

El 14 de junio de 2022, ASC organizó un seminario web como parte de su serie AI In Assessment (IA en Evaluación). Esta edición es una entrevista con el padre de las pruebas adaptativas computarizadas (CAT, por sus siglas en inglés), el profesor David J. Weiss.

Obtenga más información sobre su trayectoria en el mundo de la psicología, la educación y la evaluación, desde su interés inicial en medir las diferencias individuales hasta la exposición temprana a las computadoras, pasando por las aplicaciones iniciales de la teoría de respuesta al ítem en el desarrollo del enfoque CAT como parte de un equipo de investigación en la Universidad de Minnesota. También analiza su investigación reciente y sus expectativas para el futuro de la IA en Evaluación.

 

 

Prof. David J. Weiss

El Dr. David J. Weiss es ampliamente reconocido como el padre de la CAT y fue uno de los primeros en aplicar computadoras para la administración de evaluaciones. Su impacto en el campo de la psicometría y la evaluación ha sido inmenso:

Profesor en la Universidad de Minnesota y director de larga trayectoria del programa de Métodos Psicométricos, donde supervisó 37 doctorados.

– Fundador de la revista Applied Psychological Measurement.

– Fundador de la revista Journal of Computerized Adaptive Testing (JCAT).

– Co-fundador de Assessment Systems Corporation (assess.com).

– Co-fundador de Insurance Testing Corporation.

– Co-fundador de la International Association for Computerized Adaptive Testing (iacat.org).

– Autor de cientos de artículos científicos, informes y presentaciones en conferencias.

automated item generation AI

Los estudios de simulación son un paso esencial en el desarrollo de una prueba adaptativa computarizada (CAT, por sus siglas en inglés) que sea defendible y satisfaga las necesidades de su organización u otras partes interesadas. Hay tres tipos de simulaciones: Monte Carlo, Datos Reales (post hoc) e Híbridas.

La simulación de Monte Carlo es el enfoque de propósito más general y el que se usa con más frecuencia al principio del proceso de desarrollo de una CAT. Esto se debe a que no requiere datos reales, ni sobre los elementos de la prueba ni sobre los examinados, aunque los datos reales son bienvenidos si están disponibles, lo que la hace extremadamente útil para evaluar si la CAT es factible para su organización antes de invertir dinero en seguir adelante.

Comencemos con una descripción general de cómo funciona la simulación de Monte Carlo antes de volver a ese punto.

Cómo funciona una simulación de Monte Carlo: una descripción general

En primer lugar, ¿qué queremos decir con simulación CAT? Bueno, una CAT es una prueba que se administra a los estudiantes a través de un algoritmo. Podemos usar ese mismo algoritmo en examinados imaginarios o en examinados reales del pasado y simular qué tan bien se desempeña una CAT en ellos.

Lo mejor de todo es que podemos cambiar las especificaciones del algoritmo para ver cómo afecta a los examinados y al desempeño de la CAT.

Cada enfoque de simulación requiere tres cosas:

  1. Parámetros de los ítems de la teoría de respuesta al ítem (TRI), aunque ahora se están desarrollando nuevos métodos CAT, como los modelos de diagnóstico.
  2. Puntuaciones del examinado (theta) de la TRI.
  3. Una forma de determinar cómo responde un examinado a un ítem si el algoritmo CAT dice que se le debe entregar.

El enfoque de simulación de Monte Carlo se define por la forma en que aborda el tercer requisito: genera una respuesta utilizando algún tipo de modelo matemático, mientras que los otros dos enfoques de simulación buscan respuestas reales de examinados anteriores (enfoque de datos reales) o una combinación de los dos (híbrido).

El enfoque de simulación de Monte Carlo solo utiliza el proceso de generación de respuestas. Los parámetros de los ítems pueden provenir de un banco de ítems reales o generarse.

Asimismo, los thetas de los examinados pueden provenir de una base de datos de datos anteriores o generarse.

¿Cómo funciona el proceso de generación de respuestas?

Bueno, difiere según el modelo que se use como base para el algoritmo CAT. Aquí, supongamos que estamos usando el modelo logístico de tres parámetros. Empecemos por suponer que tenemos un examinado falso con un theta verdadero de 0,0. El algoritmo CAT busca en el banco y dice que debemos administrar el ítem #17 como el primer ítem, que tiene los siguientes parámetros de ítem: a = 1,0, b = 0,0 y c = 0,20.

Bueno, simplemente podemos introducir esos números en la ecuación para el modelo de tres parámetros y obtener la probabilidad de que esta persona responda correctamente este ítem.

Item response function - IRF 1.0 0.0 0.2

La probabilidad, en este caso, es 0,6. El siguiente paso es generar un número aleatorio del conjunto de todos los números reales entre 0,0 y 1,0. Si ese número es menor que la probabilidad de respuesta correcta, el examinado “obtiene” el ítem correcto. Si es mayor, el examinado obtiene el ítem incorrecto. De cualquier manera, el examinado es calificado y el algoritmo CAT continúa.

Para cada ítem que se presente para ser utilizado, utilizamos este mismo proceso. Por supuesto, el theta verdadero no cambia, pero los parámetros del ítem son diferentes para cada ítem. Cada vez, generamos un nuevo número aleatorio y lo comparamos con la probabilidad para determinar una respuesta correcta o incorrecta.

El algoritmo CAT procede como si un examinado real estuviera al otro lado de la pantalla de la computadora, respondiendo realmente a las preguntas, y se detiene cuando se satisface el criterio de terminación. Sin embargo, el mismo proceso se puede utilizar para “entregar” exámenes lineales a los examinados; En lugar de que el algoritmo CAT seleccione el siguiente elemento, simplemente lo procesamos secuencialmente a través de la prueba.

Un camino hacia la investigación

Para un solo examinado, este proceso no es mucho más que una curiosidad. Donde se vuelve útil es a un nivel agregado de gran escala. Imagine el proceso anterior como parte de un ciclo mucho más grande. Primero, establecemos un grupo de 200 elementos extraídos de elementos utilizados en el pasado por su programa. A continuación, generamos un conjunto de 1000 examinados extrayendo números de una distribución aleatoria.

Finalmente, recorremos cada examinado y administramos una CAT utilizando el algoritmo CAT y generando respuestas con el proceso de simulación de Monte Carlo. Luego, tenemos datos extensos sobre cómo se desempeñó el algoritmo CAT, que se pueden usar para evaluar el algoritmo y el banco de elementos. Los dos más importantes son la longitud de la CAT y su precisión, que son una compensación en la mayoría de los casos.

Entonces, ¿cómo es esto útil para evaluar la viabilidad de la CAT?

Bueno, puede evaluar el rendimiento del algoritmo CAT configurando un experimento para comparar diferentes condiciones. Supongamos que no tiene elementos anteriores y ni siquiera está seguro de cuántos elementos necesita. Bueno, puede crear varios bancos de elementos falsos diferentes y administrar una CAT al mismo conjunto de examinados falsos.

O puede saber qué banco de elementos se utilizará, pero necesita establecer que una CAT superará las pruebas lineales que utiliza actualmente. Hay una amplia gama de preguntas de investigación que puede hacer y, dado que se están generando todos los datos, puede diseñar un estudio para responder a muchas de ellas. De hecho, uno de los mayores problemas a los que puede enfrentarse es que puede dejarse llevar y comenzar a crear demasiadas condiciones.

¿Cómo hago realmente un estudio de simulación de Monte Carlo?

Afortunadamente, existe un software que hace todo el trabajo por usted. La mejor opción es CATSim, que proporciona todas las opciones que necesita en una interfaz de usuario sencilla (tenga cuidado, esto hace que sea aún más fácil dejarse llevar). La ventaja de CATSim es que recopila los resultados por usted y presenta la mayoría de las estadísticas de resumen que necesita sin que tenga que calcularlas. Por ejemplo, calcula la duración promedio de la prueba (número de elementos utilizados por un CAT de duración variable) y la correlación de thetas del CAT con thetas reales. Existe otro software que es útil para generar conjuntos de datos utilizando la simulación de Monte Carlo (consulte SimulCAT), pero no incluye esta importante característica.

adaptive testing simulation

Confectioner-confetti

El análisis de ítems es la evaluación estadística de las preguntas de la prueba para garantizar que sean de buena calidad y corregirlas si no lo son. Este es un paso clave en el ciclo de desarrollo de la prueba; después de que los ítems se han entregado a los examinados (ya sea como piloto o en uso completo), analizamos las estadísticas para determinar si hay problemas que afecten la validez y confiabilidad, como ser demasiado difíciles o sesgados. Esta publicación describirá los conceptos básicos de este proceso. Si desea más detalles e instrucciones sobre el uso del software, también puede consultar nuestros videos tutoriales en nuestro canal de YouTube y descargar nuestro software psicométrico gratuito.


Descargue una copia gratuita de Iteman: software para análisis de ítems

¿Qué es el análisis de ítems?

El análisis de ítems se refiere al proceso de analizar estadísticamente los datos de evaluación para evaluar la calidad y el desempeño de los ítems de la prueba. Este es un paso importante en el ciclo de desarrollo de la prueba, no solo porque ayuda a mejorar la calidad de la prueba, sino porque proporciona documentación para la validez: evidencia de que la prueba funciona bien y que las interpretaciones de las puntuaciones significan lo que usted pretende. Es una de las aplicaciones más comunes de la psicometría, mediante el uso de estadísticas de ítems para marcar, diagnosticar y corregir los ítems de bajo rendimiento en una prueba. Cada ítem que tiene un bajo rendimiento está perjudicando potencialmente a los examinados.Iteman Statistics Screenshot

El análisis de ítems se reduce a dos objetivos:

  1. Encontrar los ítems que no funcionan bien (dificultad y discriminación, por lo general)
  2. Descubrir POR QUÉ esos elementos no funcionan bien, para que podamos determinar si los revisamos o los retiramos

Existen diferentes formas de evaluar el desempeño, como por ejemplo si el ítem es demasiado difícil/fácil, demasiado confuso (no discriminatorio), mal codificado o tal vez incluso sesgado hacia un grupo minoritario.

Además, existen dos paradigmas completamente diferentes para este análisis: la teoría clásica de los pruebas (TCP) y la teoría de respuesta al ítem (TRI). Además de eso, los análisis pueden diferir en función de si el ítem es dicotómico (correcto/incorrecto) o politómico (2 o más puntos).

Debido a las posibles variaciones, el análisis de ítems es un tema complejo. Pero eso ni siquiera entra en la evaluación del desempeño en las pruebas. En esta publicación, cubriremos algunos de los conceptos básicos de cada teoría, a nivel de ítem.

 

Cómo hacer un análisis de ítems

1. Prepare sus datos para el análisis de ítems

La mayoría del software psicométrico utiliza una matriz de persona x elemento. Es decir, un archivo de datos donde los examinados son filas y los elementos son columnas. A veces, es una matriz dispersa donde faltan muchos datos, como en las pruebas lineales sobre la marcha. También deberá proporcionar metadatos al software, como los identificadores de los elementos, las respuestas correctas, los tipos de elementos, etc. El formato para esto variará según el software.

2. Ejecutar datos a través de un software de análisis de ítems

Para implementar el análisis de ítems, debe utilizar un software dedicado diseñado para este propósito. Si utiliza una plataforma de evaluación en línea, le proporcionará resultados para el análisis de ítems, como valores P de distractores y biseriales puntuales (si no, no es una plataforma de evaluación real). En algunos casos, puede utilizar software independiente. CITAS proporciona un enfoque simple basado en hojas de cálculo para ayudarlo a aprender los conceptos básicos, completamente gratis. Aquí se encuentra una captura de pantalla de los resultados de CITAS. Sin embargo, los profesionales necesitarán un nivel superior a este. Iteman  y  Xcalibre  son dos programas de software especialmente diseñados por ASC para este propósito, uno para TCP y otro para TRI.

CITAS output with histogram

3. Interpretar los resultados del análisis de ítems

El software de análisis de ítems generará tablas de números. A veces, serán tablas feas de estilo ASCII de la década de 1980. A veces, serán hermosos documentos de Word con gráficos y explicaciones. De cualquier manera, debe interpretar las estadísticas para determinar qué ítems tienen problemas y cómo solucionarlos. El resto de este artículo profundizará en eso.

 

Análisis de ítems con la teoría clásica de pruebas

La teoría clásica de tests ofrece un enfoque simple e intuitivo para el análisis de ítems. No utiliza nada más complicado que proporciones, promedios, recuentos y correlaciones. Por este motivo, es útil para exámenes a pequeña escala o para su uso con grupos que no tienen experiencia psicométrica.

Dificultad del ítem: dicotómica

La TCP cuantifica la dificultad del ítem para ítems dicotómicos como la proporción (valor P) de examinados que lo responden correctamente.

Varía de 0,0 a 1,0. Un valor alto significa que el ítem es fácil y un valor bajo significa que el ítem es difícil. No hay reglas estrictas porque la interpretación puede variar ampliamente para diferentes situaciones. Por ejemplo, se esperaría que una prueba realizada al comienzo del año escolar tuviera estadísticas bajas ya que a los estudiantes aún no se les ha enseñado el material. Por otro lado, un examen de certificación profesional, al que alguien ni siquiera puede presentarse a menos que tenga 3 años de experiencia y un título relevante, ¡puede hacer que todos los ítems parezcan fáciles a pesar de que son temas bastante avanzados! A continuación se ofrecen algunas pautas generales:

    0.95-1.0 = Demasiado fácil (no sirve de mucho para diferenciar a los examinados, que es realmente el propósito de la evaluación)

    0.60-0.95 = Típico

    0.40-0.60 = Duro

    <0.40 = Demasiado difícil (considere que una pregunta de opción múltiple de 4 opciones tiene un 25 % de probabilidad de acertar)

Con Iteman, puede establecer límites para marcar automáticamente los ítems. El límite del valor P mínimo representa lo que considera el punto de corte para que un ítem sea demasiado difícil. Para una prueba relativamente fácil, puede especificar 0,50 como mínimo, lo que significa que el 50 % de los examinados han respondido correctamente al ítem.

Para una prueba en la que esperamos que los examinados tengan un desempeño deficiente, el mínimo puede reducirse a 0,4 o incluso a 0,3. El mínimo debe tener en cuenta la posibilidad de adivinar; si el ítem es de opción múltiple con cuatro opciones, existe una probabilidad del 25 % de adivinar la respuesta al azar, por lo que el mínimo probablemente no debería ser 0,20. El valor P máximo representa el punto de corte para lo que considera un ítem demasiado fácil. La consideración principal aquí es que si un ítem es tan fácil que casi todos lo responden correctamente, no está brindando mucha información sobre los examinados. De hecho, los ítems con un P de 0,95 o más suelen tener correlaciones biseriales puntuales muy deficientes.

Tenga en cuenta que debido a que la escala está invertida (un valor más bajo significa una mayor dificultad), esto a veces se conoce como facilidad del ítem.

La media del ítem (politómica)

Se refiere a un ítem que se califica con 2 o más niveles de puntos, como un ensayo calificado con una rúbrica de 0 a 4 puntos o un ítem tipo Likert que se califica en una escala de 1 a 5.

  • 1 = Totalmente en desacuerdo
  • 2 = En desacuerdo
  • 3 = Neutral
  • 4 = De acuerdo
  • 5 = Totalmente de acuerdo

La media de los ítems es el promedio de las respuestas de los ítems convertidas a valores numéricos de todos los examinados. El rango de la media de los ítems depende de la cantidad de categorías y de si las respuestas de los ítems comienzan en 0. La interpretación de la media de los ítems depende del tipo de ítem (escala de calificación o crédito parcial). Un buen ítem de escala de calificación tendrá una media de ítem cercana a la mitad del máximo, ya que esto significa que, en promedio, los examinados no respaldan categorías cercanas a los extremos del continuo.

Deberá realizar los ajustes necesarios para su propia situación, pero aquí se incluye un ejemplo para el ítem de estilo Likert de 5 puntos.

    1-2 es muy bajo; la gente está bastante en desacuerdo en promedio

    2-3 es bajo a neutral; la gente tiende a estar en desacuerdo en promedio

    3-4 es neutral a alto; la gente tiende a estar de acuerdo en promedio

    4-5 es muy alto; la gente está bastante de acuerdo en promedio

Iteman también proporciona límites de señalización para esta estadística. El límite de la media mínima del ítem representa lo que usted considera el punto de corte para que la media del ítem sea demasiado baja. El límite de la media máxima del ítem representa lo que usted considera el punto de corte para que la media del ítem sea demasiado alta.

Se debe tener en cuenta la cantidad de categorías para los ítems al establecer los límites de los valores mínimos/máximos. Esto es importante ya que todos los ítems de un tipo determinado (por ejemplo, 3 categorías) pueden estar marcados.

Discriminación de ítems: dicotómica

En psicometría, la discriminación es ALGO BUENO, aunque la palabra suele tener una connotación negativa en general. El objetivo de un examen es discriminar entre los examinados; los estudiantes inteligentes deberían obtener una puntuación alta y los no tan inteligentes, una puntuación baja. Si todos obtienen la misma puntuación, no hay discriminación y el examen no tiene sentido. La discriminación de ítems evalúa este concepto.

TCP utiliza la correlación biserial puntual entre ítem y total (Rpbis) como su estadística principal para esto.

La correlación biserial puntual de Pearson (r-pbis) es una medida de la discriminación o fuerza diferenciadora del ítem. Varía de −1,0 a 1,0 y es una correlación de las puntuaciones del ítem y las puntuaciones totales brutas. Si considera una matriz de datos puntuada (ítems de opción múltiple convertidos a datos 0/1), esta sería la correlación entre la columna del ítem y una columna que es la suma de todas las columnas del ítem para cada fila (la puntuación de una persona).

Un buen ítem es capaz de diferenciar entre los examinados de alta y baja capacidad, pero tiene un biserial de puntos más alto, pero rara vez por encima de 0,50. Un biserial de puntos negativo es indicativo de un ítem muy malo porque significa que los examinados de alta capacidad están respondiendo incorrectamente, mientras que los examinados de baja capacidad lo están respondiendo correctamente, lo que por supuesto sería extraño y, por lo tanto, generalmente indica que la respuesta correcta especificada es en realidad incorrecta. Un biserial de puntos de 0,0 no proporciona ninguna diferenciación entre los examinados de baja puntuación y los de alta puntuación, esencialmente “ruido” aleatorio. A continuación se presentan algunas pautas generales sobre la interpretación. Tenga en cuenta que estas suponen un tamaño de muestra decente; si solo tiene una pequeña cantidad de examinados, ¡se marcarán muchas estadísticas de ítems!

    0,20+ = Buen ítem; los examinados más inteligentes tienden a responder el ítem correctamente

    0,10-0,20 = Ítem aceptable; pero probablemente lo revise

    0.0-0.10 = Calidad marginal del ítem; probablemente debería revisarse o reemplazarse

    <0.0 = Ítem terrible; reemplácelo

***Una señal de alerta importante es si la respuesta correcta tiene un Rpbis negativo y un distractor tiene un Rpbis positivo

El límite mínimo de correlación ítem-total representa la discriminación más baja que está dispuesto a aceptar. Este suele ser un número positivo pequeño, como 0,10 o 0,20. Si el tamaño de su muestra es pequeño, es posible que se pueda reducir. El límite máximo de correlación ítem-total es casi siempre 1,0, porque normalmente se desea que el Rpbis sea lo más alto posible.

La correlación biserial también es una medida de la discriminación o fuerza diferenciadora del ítem. Varía de −1,0 a 1,0. La correlación biserial se calcula entre el ítem y la puntuación total como si el ítem fuera una medida continua del rasgo. Dado que la correlación biserial es una estimación de la r de Pearson, será mayor en magnitud absoluta que la correlación biserial puntual correspondiente.

La correlación biserial supone de manera más estricta que la distribución de la puntuación es normal. La correlación biserial no se recomienda para rasgos en los que se sabe que la distribución de puntuaciones no es normal (por ejemplo, patología).

Discriminación de ítems: politómica

La correlación r de Pearson es la correlación producto-momento entre las respuestas de los ítems (como valores numéricos) y la puntuación total. Varía de −1,0 a 1,0. La correlación r indexa la relación lineal entre la puntuación de los ítems y la puntuación total y supone que las respuestas de los ítems forman una variable continua. La correlación r y el Rpbis son equivalentes para un ítem de 2 categorías, por lo que las pautas para la interpretación permanecen inalteradas.

El límite mínimo de correlación ítem-total representa la discriminación más baja que está dispuesto a aceptar. Dado que la correlación r típica (0,5) será mayor que la correlación Rpbis típica (0,3), es posible que desee establecer el límite inferior más alto para una prueba con ítems politómicos (0,2 a 0,3). Si el tamaño de su muestra es pequeño, es posible que se pueda reducir. El límite máximo de correlación ítem-total es casi siempre 1,0, porque normalmente se desea que el Rpbis sea lo más alto posible.

El coeficiente eta es un índice adicional de discriminación calculado mediante un análisis de varianza con la respuesta al ítem como variable independiente y la puntuación total como variable dependiente. El coeficiente eta es la relación entre la suma de cuadrados entre grupos y la suma total de cuadrados y tiene un rango de 0 a 1. El coeficiente eta no supone que las respuestas al ítem sean continuas y tampoco supone una relación lineal entre la respuesta al ítem y la puntuación total.

Como resultado, el coeficiente eta siempre será igual o mayor que la r de Pearson. Tenga en cuenta que se informará la correlación biserial si el ítem tiene solo 2 categorías.

Análisis de claves y distractores

En el caso de muchos tipos de ítems, conviene evaluar las respuestas. Un distractor es una opción incorrecta. Queremos asegurarnos de que no haya más examinados seleccionando un distractor que la clave (valor P) y también de que ningún distractor tenga una mayor discriminación. Esto último significaría que los estudiantes inteligentes están seleccionando la respuesta incorrecta y los no tan inteligentes están seleccionando lo que se supone que es correcto. En algunos casos, el ítem es simplemente malo. En otros, la respuesta simplemente está registrada incorrectamente, tal vez por un error tipográfico. A esto lo llamamos un clave incorrecta del ítem. En ambos casos, queremos marcar el ítem y luego analizar las estadísticas de distractores para averiguar qué está mal.

Iteman Psychometric Item Analysis

Ejemplo

A continuación, se muestra un ejemplo de salida para un elemento de nuestro software  Iteman, que puede descargar de forma gratuita. También puede interesarle este video. Se trata de un elemento con un rendimiento muy bueno. A continuación, se muestran algunas conclusiones clave.

  • Este es un ítem de opción múltiple de 4 opciones
  • Estaba en una subpuntuación llamada “Subpuntuación de ejemplo”
  • Este ítem fue visto por 736 examinados
  • El 70 % de los estudiantes lo respondió correctamente, por lo que fue bastante fácil, pero no demasiado fácil
  • El Rpbis fue de 0,53, que es extremadamente alto; el ítem es de buena calidad
  • La línea para la respuesta correcta en el gráfico de cuantiles tiene una pendiente positiva clara, que refleja la alta calidad de discriminación
  • La proporción de examinados que seleccionaron las respuestas incorrectas estuvo bien distribuida, no fue demasiado alta y tuvo valores Rpbis negativos. Esto significa que los distractores son suficientemente incorrectos y no confunden.

 

Análisis de ítems con teoría de respuesta al ítem

La teoría de respuesta al ítem (TRI) es un paradigma muy sofisticado de análisis de ítems y aborda numerosas tareas psicométricas, desde el análisis de ítems hasta la equiparación y las pruebas adaptativas. Requiere tamaños de muestra mucho más grandes que la TCP (100-1000 respuestas por ítem) y una amplia experiencia (normalmente un psicometría con doctorado). La estimación de máxima verosimilitud (MLE) es un concepto clave en la TRI que se utiliza para estimar los parámetros del modelo para una mayor precisión en las evaluaciones.

La TRI no es adecuada para exámenes a pequeña escala, como los cuestionarios en el aula. Sin embargo, se utiliza prácticamente en todos los exámenes “reales” que realizarás en tu vida, desde los exámenes de referencia de K-12 hasta las admisiones universitarias y las certificaciones profesionales.

Si no has utilizado la TRI, te recomiendo que consultes primero esta publicación del blog.

Dificultad de los ítems

La TRI evalúa la dificultad de los ítems dicotómicos como un parámetro b, que es algo así como una puntuación z para el ítem en la curva de campana: 0,0 es promedio, 2,0 es difícil y -2,0 es fácil. (Esto puede diferir un poco con el enfoque de Rasch, que reescala todo). En el caso de los ítems politómicos, hay un parámetro b para cada umbral o paso entre puntos.

Discriminación de ítems

La TRI evalúa la discriminación de ítems por la pendiente de su función de respuesta al ítem, que se denomina parámetro a. A menudo, los valores superiores a 0,80 son buenos y los inferiores a 0,80 son menos efectivos.

Análisis de claves y distractores

Xcalibre-poly-output

En el caso de preguntas politómicas, los múltiples parámetros b proporcionan una evaluación de las diferentes respuestas. En el caso de preguntas dicotómicas, el modelo TRI no distingue entre las respuestas correctas. Por lo tanto, utilizamos el enfoque TCP para el análisis de distractores. Esto sigue siendo extremadamente importante para diagnosticar problemas en preguntas de opción múltiple.

Ejemplo

A continuación se muestra un ejemplo de cómo se ve el resultado de un programa de análisis TRI (Xcalibre). También te puede interesar este video.

  • Aquí tenemos un ítem politómico, como un ensayo calificado de 0 a 3 puntos
  • Está calibrado con el modelo de crédito parcial generalizado
  • Tiene una fuerte discriminación clásica (0,62)
  • Tiene una mala discriminación TRI (0,466)
  • La puntuación bruta promedio fue 2,314 de 3,0, por lo que es bastante fácil
  • Hubo una distribución suficiente de las respuestas en los cuatro niveles de puntos
  • Los parámetros límite no están en secuencia; este ítem debe revisarse

 

Resumen

Este artículo es una descripción general muy amplia y no hace justicia a la complejidad de la psicometría y el arte de diagnosticar/revisar ítems. Te recomiendo que descargues algún software de análisis de ítems y comiences a explorar tus propios datos.

Para lecturas adicionales, recomiendo algunos de los libros de texto comunes. Para obtener más información sobre cómo escribir/revisar ítems, consulta Haladyna (2004) y trabajos posteriores. Para la teoría de respuesta a los ítems, recomiendo enfáticamente Embretson & Riese (2000).