Escalas GRS vs BARS: cómo elegir la que reduce sesgos en evaluación de desempeño

¿Estás calificando desempeño… o solo defendiendo una intuición difícil de explicar? Cuando llegan promociones, bonos o decisiones sensibles, la escala deja de ser un detalle técnico y se vuelve un problema real.
Aquí vas a entender por qué algunas escalas amplifican sesgos, otras los reducen, y cómo elegir un formato que te permita decidir con evidencia (no con impresiones).
En este articulo:
Qué miden realmente las escalas de desempeño (y por qué importa el instrumento)
Antes de hablar de escalas, aclaremos el objeto.
El desempeño no es una sola cosa. En la práctica suele mezclar:
-
Desempeño de tarea: lo técnico, lo formal, lo que "debía hacer".
-
Desempeño contextual: lo que hace que el trabajo funcione en equipo (iniciativa, cooperación, responsabilidad).
Si tu sistema solo mide resultados, se te escapa el "cómo". Si solo mide conductas, puedes perder el "qué". Un enfoque moderno de performance management apunta a integrar medición y desarrollo de forma continua (no solo anual). Para que eso funcione, la escala debe estar dentro de un sistema más amplio de evaluación de desempeño laboral, donde criterios, evidencia, feedback y seguimiento conversen entre sí.
El instrumento que uses para medir —la escala— determina qué información entra al sistema y cuánto espacio le das al criterio subjetivo del evaluador. Esa es la decisión técnica que este artículo te ayuda a tomar.
Desempeño de tarea vs desempeño contextual: qué debe capturar la escala
No toda escala captura los dos tipos de desempeño con la misma precisión. Las escalas puramente numéricas tienden a fusionar ambas dimensiones en un solo número, lo que hace casi imposible saber qué parte del desempeño está fallando y qué parte está funcionando.
Las escalas conductuales, como veremos más adelante, permiten separar dimensiones y asignar conductas observables a cada una. Eso cambia radicalmente la calidad de la conversación de desarrollo que viene después.
Validez y fiabilidad: los dos criterios que toda escala de desempeño debe cumplir

Si la evaluación va a influir en decisiones reales (promociones, bonos, planes de desarrollo), necesitas dos bases:
Validez de contenido y validez predictiva
Hay varias formas de validez, pero en desempeño laboral estas dos son críticas:
-
Validez de contenido: que la escala refleje el trabajo real, con conductas o resultados relevantes al puesto.
-
Validez de criterio/predictiva: que el puntaje se relacione con desempeño observable o resultados futuros (según el diseño del sistema).
Fiabilidad interevaluador: el estándar mínimo que pocas escalas alcanzan
Un instrumento puede sonar "razonable" y aun así ser inconsistente.
-
Si dos evaluadores ven lo mismo y puntúan distinto, la medición se vuelve frágil.
-
Si hoy calificas "4" y mañana "2" sin cambios reales, tampoco sirve.
Y acá va una verdad incómoda: sin fiabilidad, la validez se cae. No por teoría; por lógica. Una medición inconsistente no puede ser válida ni precisa, sin importar cuánto esfuerzo se haya puesto en diseñar la escala.
La fiabilidad interevaluador es el estándar más difícil de alcanzar en evaluación de desempeño y, al mismo tiempo, el que más impacta la percepción de justicia dentro de la organización. Por eso, cuando los resultados se usan para promociones, bonos o decisiones sensibles, la escala debería conectarse con una calibración del desempeño que alinee criterios entre áreas antes de comunicar los resultados.
Escala GRS (Graphic Rating Scale): por qué es la más usada y cuáles son sus sesgos críticos

Qué es una GRS y cómo funciona
La Graphic Rating Scale es la clásica escala 1–5 con etiquetas genéricas tipo "No cumple / Cumple / Sobresaliente".
¿Por qué se usa tanto?
-
Porque es fácil de implementar.
-
Porque se entiende rápido.
-
Porque se puede aplicar masivamente sin construir mucho.
Su popularidad es completamente racional desde el punto de vista operativo. El problema no aparece en la implementación, sino en los datos que produce.
Los tres sesgos que amplifica: efecto halo, lenidad/severidad y tendencia central
El problema no es que la GRS sea "mala". El problema es que, por diseño, deja demasiado espacio a interpretaciones. El evaluador no tiene que probar nada. Puede "sentir" el 4.
Los errores más típicos:
-
Efecto halo: una impresión global positiva o negativa "contamina" todas las dimensiones de la evaluación. Si el evaluador tiene una buena impresión general de la persona, tiende a calificarla alta en todas las dimensiones, independientemente de la evidencia específica.
-
Lenidad/severidad: evaluadores que tienden sistemáticamente a poner todo alto o todo bajo. No es malicia; es un patrón cognitivo que aparece cuando la escala no exige anclar la calificación en comportamientos observables.
-
Tendencia central: quedarse en el medio para evitar conflicto. Es la respuesta natural cuando el evaluador no tiene evidencia clara o quiere evitar conversaciones difíciles.
Cuando una organización escala esto a cientos de personas, el sistema empieza a medir estilo de evaluador más que desempeño real. Los datos dejan de ser comparables entre equipos, lo que hace imposible una calibración honesta. En organizaciones con muchos evaluadores, un software de calibración de evaluaciones con IA puede ayudar a detectar patrones de lenidad, severidad o inconsistencia antes de que se transformen en decisiones injustas.
Si quieres profundizar en esos errores, conviene revisar los principales sesgos en la evaluación de desempeño, porque muchos aparecen justamente cuando la escala no exige evidencia observable.
Escala BARS (Behaviorally Anchored Rating Scale): qué es, por qué reduce el sesgo y cómo se construye

Qué es una BARS y en qué se diferencia de GRS
Las Behaviorally Anchored Rating Scales anclan cada punto de la escala con ejemplos de conductas observables.
En vez de "4 = sobresaliente", una BARS se parece más a: "4 = resuelve dudas complejas con ejemplos, verifica comprensión y deja acuerdos claros".
La diferencia no es estética. Es estructural: la BARS obliga al evaluador a comparar lo que vio con una descripción de conducta concreta. Ese anclaje es lo que reduce el margen de interpretación.
Su lógica viene de la Critical Incident Technique (CIT): recolectar incidentes reales de conducta efectiva e inefectiva, y convertirlos en anclajes claros para cada nivel de la escala.
Pero para que esos incidentes existan, la organización necesita registrar evidencia durante el ciclo. Un buen registro de desempeño evita que la evaluación dependa solo de memoria, simpatía o impresiones recientes.
Por qué BARS reduce el sesgo de halo (y dónde no es magia)
En teoría, al obligarte a comparar con conductas específicas, reduces el margen de interpretación y el halo.
La evidencia empírica, sin embargo, es más honesta si la contamos completa:
-
Hay estudios que muestran menos halo con formatos conductuales frente a escalas gráficas.
-
También hay estudios donde BARS no supera consistentemente a otros formatos en todas las métricas (por ejemplo, lenidad o fiabilidad interevaluador).
La idea correcta es esta: BARS tiende a mejorar claridad y discriminación, pero sus resultados dependen mucho de cómo se construye, del trabajo de análisis del puesto y del entrenamiento de quienes evalúan. Una BARS mal construida o usada sin marco común puede producir resultados tan variables como una GRS.
Cómo se construye una BARS: proceso paso a paso
Muchos procesos siguen una secuencia basada en CIT y el enfoque original de Smith y Kendall:
-
Definir dimensiones de desempeño relevantes para el puesto.
-
Recolectar incidentes críticos: conductas reales observadas en la organización, tanto efectivas como inefectivas.
-
Depurar duplicados y ambigüedades del banco de incidentes.
-
Retranslación: otro grupo independiente reasigna los incidentes a dimensiones. Se filtran los que no alcanzan acuerdo estadístico suficiente.
-
Escalamiento: expertos valoran numéricamente cuán efectiva es cada conducta dentro de su dimensión.
-
Selección final de anclajes por nivel de la escala, a partir de los incidentes que pasaron retranslación y tienen valores de escalamiento consistentes.
El proceso es riguroso. Y ese rigor tiene un costo que veremos a continuación.
El gran problema de BARS: la pérdida de información en el proceso de construcción
Si BARS vive de conductas, perder conductas duele. Y suele doler mucho.
En la práctica, durante depuración y retranslación se descarta una cantidad enorme de incidentes. Ese descarte no siempre significa "mala calidad"; muchas veces significa:
-
Incidentes redundantes pero valiosos para contexto.
-
Conductas difíciles de ubicar en una sola dimensión.
-
Ejemplos reales que no alcanzan acuerdo estadístico.
Por qué el embudo de retranslación descarta información valiosa
El proceso de retranslación actúa como un embudo muy estrecho: solo pasan los incidentes sobre los que hay acuerdo entre evaluadores independientes. Esto asegura rigor estadístico, pero también elimina conductas que son válidas y relevantes, simplemente porque son más difíciles de clasificar o porque describen comportamientos matizados.
Ese "embudo" explica por qué BARS puede volverse costosa, lenta y frustrante en organizaciones donde RRHH necesita velocidad. El costo de construir BARS completas por rol —con paneles, recolección de incidentes, retranslación y escalamiento— es significativo. Y cuantos más roles distintos tenga la organización, más se multiplica ese costo.
La innovación ACB: cómo agrupar conductas para mantener rigor sin el costo de BARS completa

Qué son los Aspectos de Comportamiento Básico (ACB)
Aquí aparece una propuesta que resuelve el problema del descarte: agrupar incidentes en Aspectos de Comportamiento Básico (ACB) para conservar más información conductual y sintetizarla de forma usable.
Qué cambia con ACB:
-
En vez de elegir "un incidente" por nivel de la escala, se agrupan varios incidentes afines en un aspecto conductual.
-
Luego, esos aspectos se combinan para construir anclajes más robustos que representan una gama de comportamientos, no un caso único.
-
El instrumento final puede mantener calidad psicométrica sin que el proceso se vuelva una trituradora de ejemplos valiosos.
Resultados psicométricos de instrumentos construidos con ACB
Un trabajo que describe este enfoque muestra el proceso de conversión desde escalas tipo Likert hacia BARS y la construcción con participación masiva, incluyendo la lógica de agrupar conductas antes de descartar información útil. Los instrumentos construidos bajo esta lógica reportan buena calidad psicométrica manteniendo mayor riqueza conductual que los construidos con el proceso BARS tradicional.
Si tu organización quiere el rigor conductual pero no puede pagar el costo completo de BARS tradicional, ACB es un camino serio para explorar.
Escalas híbridas: la alternativa práctica entre GRS y BARS
Qué significa "híbrida" en evaluación de desempeño
Muchas empresas están en este punto: "quiero algo más justo que una GRS, pero no tengo presupuesto para BARS por rol". La salida práctica no es resignarse. Es hibridar.
Una GRS mejorada puede incorporar descriptores conductuales por nivel, aunque no haya pasado por todo el proceso BARS. No tiene todo el rigor psicométrico de una BARS completa, pero reduce ambigüedad y ayuda a que el evaluador "aterrice" la calificación en algo observable.
Cómo construir una escala híbrida por familia de cargo
Ejemplo práctico (dimensión: colaboración):
GRS típica:
-
1–5: No cumple / Regular / Cumple / Muy bueno / Sobresaliente
Híbrida conductual:
-
1: evita coordinar, no comparte información clave con el equipo.
-
3: coordina lo necesario, responde cuando se le solicita.
-
5: anticipa dependencias, alinea acuerdos proactivamente y destraba bloqueos de otros.
Construir este tipo de escala por familias de cargo —en lugar de por rol individual— permite escalar el rigor conductual sin multiplicar el costo del proceso por cada posición de la organización.
Aplicación en evaluación 360°: por qué la escala importa el doble
En contextos de evaluación 360°, el problema no es solo el sesgo individual. Es la comparabilidad entre fuentes. Antes de llegar a ese punto, también conviene definir bien el diseño del proceso: no es lo mismo una evaluación 90°, 180°, 270° o 360°. Esa decisión cambia quién evalúa, qué evidencia entra y cuánto riesgo de variabilidad tendrá el sistema. Puedes profundizarlo en esta guía sobre tipos de evaluación de desempeño.
Si la escala es ambigua, un par puntúa "duro", el jefe puntúa "blando" y la autoevaluación se dispara en una dirección completamente distinta.
Una base conductual y un marco común ayudan a bajar esa variabilidad "por estilo" y a subir la variabilidad "por desempeño real". El resultado: datos 360° que sirven para tomar decisiones, no solo para generar informes que nadie usa.
Por qué el entrenamiento de evaluadores determina el éxito de cualquier escala
Puedes tener la mejor escala del mundo y aun así fallar si el evaluador no observa, no registra, evalúa por memoria o confunde "me cae bien" con "rinde bien".
La investigación sobre entrenamiento de evaluadores muestra que el Frame-of-Reference (FOR) Training mejora la precisión de las calificaciones porque alinea a los evaluadores en una misma definición mental de "buen desempeño". FOR se ha estudiado en revisiones cuantitativas y meta-analíticas con resultados consistentes.
Si quieres bajar esto a metodologías concretas, revisa cómo funcionan los entrenamientos RET, FOR y BO para reducir sesgos en la evaluación de desempeño.
La conclusión práctica es directa: ninguna escala —ni GRS, ni BARS, ni híbrida— produce datos confiables si quienes evalúan no comparten un marco de referencia común sobre qué conductas cuentan como evidencia de cada nivel. El instrumento y el entrenamiento son dos partes del mismo sistema.
Cómo elegir entre GRS, BARS y escalas híbridas: criterios concretos de decisión

La decisión no es ideológica. Es contextual. Estas son las preguntas que determinan qué formato tiene sentido para tu organización:
¿Qué tan alta es la apuesta de la evaluación?
Si la evaluación define promociones, compensaciones significativas o decisiones de salida, necesitas más rigor y defensabilidad. Una GRS genérica no te da argumento si la decisión es cuestionada. BARS o híbridas con anclajes conductuales sí lo hacen.
¿Cuánta variación hay entre evaluadores?
Si tienes discrepancias grandes entre evaluadores del mismo equipo para las mismas personas, el problema es de instrumento o de calibración, probablemente ambos. Anclajes conductuales y procesos de calibración posteriores son la respuesta.
¿Cuántos roles distintos debes evaluar?
Mientras más roles distintos, más difícil es hacer BARS completas para todos. Híbridas por familias de cargo suelen ser el paso intermedio más inteligente: capturan el rigor conductual sin multiplicar el costo del proceso.
El sistema también puede medir resultados además de conductas. Para el “qué” —objetivos y metas— existen sistemas complementarios de Administración por Objetivos. Pero eso es otro eje de diseño, independiente de la escala de conducta.
El objetivo no es evaluar mejor, es decidir mejor
La mayoría de las organizaciones no tiene un "problema de evaluación". Tiene un problema de confianza en la evaluación.
Y esa confianza se construye con:
-
Definiciones claras del desempeño real, diferenciadas por dimensión.
-
Escalas que reduzcan ambigüedad y anclen la calificación en conductas observables.
-
Evidencia conductual, no impresiones acumuladas al final del año.
-
Evaluadores entrenados con un marco de referencia común.
-
Seguimiento continuo, no memoria de fin de año.
La escala no vive sola. Vive en un sistema que debe producir acción: feedback que sirva, calibración que funcione, planes de desarrollo que se ejecuten.Ningún instrumento resuelve eso por sí solo, pero el instrumento equivocado puede hacer que todo lo demás sea inútil.
Preguntas frecuentes sobre GRS, BARS y escalas de evaluación de desempeño
¿BARS siempre es mejor que GRS?
No siempre. Tiende a mejorar claridad y reducir algunos errores como el efecto halo en varios contextos, pero la evidencia muestra resultados mixtos en otras métricas y depende del diseño y el rigor del proceso de construcción.
¿Cuánto cuesta implementar BARS?
Depende del número de roles y del rigor del proceso (paneles, recolección de incidentes, retranslación, escalamiento). El costo sube rápido cuando se hace por rol individual en vez de por familias de cargo.
¿Qué sesgo es el más común en GRS?
En la práctica suelen aparecer efecto halo, lenidad/severidad y tendencia central, especialmente en escalas genéricas y ciclos anuales con poco seguimiento continuo.
¿Sirve cambiar de escala de 5 puntos a 4 puntos?
Puede disminuir tendencia central al eliminar el punto medio, pero también elimina la opción legítima de "promedio". Si lo haces, necesitas anclajes más claros y entrenamiento para evitar que las distorsiones se trasladen a otros puntos de la escala.
¿Qué es ACB y por qué importa?
Es un enfoque para agrupar incidentes conductuales en Aspectos de Comportamiento Básico, reduciendo el descarte en retranslación y manteniendo riqueza conductual. Los instrumentos construidos bajo esta lógica reportan buena calidad psicométrica con un proceso más viable para organizaciones con recursos limitados.
¿Puedo hacer una "BARS light" sin psicometría?
Puedes hacer una escala híbrida con descriptores conductuales. Ayuda considerablemente. Lo que no conviene es llamarla BARS si no pasó por un proceso de construcción y validación mínimo: retranslación y escalamiento son los dos pasos que le dan su valor diferencial.
¿El entrenamiento FOR realmente cambia algo?
Sí. La evidencia cuantitativa muestra mejoras en precisión y alineación cuando los evaluadores comparten un marco común de referencia sobre qué constituye buen desempeño. No es un complemento opcional: es parte del sistema.
¿Qué debería priorizar si estoy empezando?
Un primer salto razonable:
-
Definir dimensiones claras por familia de cargo.
-
Agregar anclajes conductuales por nivel (escala híbrida).
-
Entrenar evaluadores con un marco de referencia común.
-
Implementar calibración y seguimiento durante el ciclo, no solo al final.


