Revista de la Educación Superior
Sitio de ANUIES Cartas al Director
Directorio de ANUIES
Numero Anteriores
Por Autor
Búsuqeda
Inicio

Revista de la Educación Superior
Vol. XXXII(3), No. 127, Julio-Septiembre de 2003.
ISSN: 0185-2760


Julio - Septiembre
..................................... Contenido
Consejo Editorial
Análisis Temático

Edna Luna Serrano
Universidad Autónoma de Baja California
eluna@uabc.mx
Maria Consuelo Vañlle Espinoza
Guadalupe Tinajero Villavicencio


Evaluación de la docencia: paradojas de un proceso institucional

Resumen

La importancia de la evaluación estriba en el mejoramiento del desempeño docente en el proceso de enseñanza-aprendizaje del alumno. Se presenta el caso de la instrumentación, con sus características y problemas que enfrentó la evaluación docente en la Universidad Autónoma de Baja California con base en la opinión de sus alumnos a través de los Cuestionarios de Evaluación Docente

Palabras clave: Evaluación, docentes, alumnos, CEDA.

Abstract

The relevance of evaluation is found in the improvement of teaching in the teaching-learning process of the student. The implementation case at the Universidad Autónoma de Baja California is presented, with the characteristics and problems encountered when teachers were evaluated based on student opinion through Teaching Evaluation Questionnaires (CEDAs).

Key words: Evaluation, teachers, students, CEDA.

La evaluación de la docencia universitaria se reconoce como una actividad compleja, entre otras razones, debido a que múltiples factores inciden en el proceso enseñanza-aprendizaje. Su relevancia estriba en la posibilidad de mejorar el desempeño de los docentes para la formación profesional de los estudiantes. Dos de los elementos que se aprecian como indispensables para quienes realizan la evaluación son la capacidad técnica, y la autoridad y legitimidad académica. De ahí la importancia de contar con experiencias sistemáticas de evaluación que respondan a las necesidades específicas de las universidades en México. El presente trabajo se propone analizar el proceso de instrumentación del sistema de evaluación de la docencia con base en la opinión de los alumnos llevado a cabo en la Universidad Autónoma de Baja California (UABC), con el propósito de dar cuenta de los principales logros, dificultades y retos que se enfrentan al desarrollar un sistema confiable, válido y útil para mejorar las prácticas docentes en la universidad.

Antecedentes

A partir de 1990 se concretaron diversas acciones de evaluación institucional; la que atañe a los docentes es el Programa de Estímulos al Desempeño Académico. Con su aplicación se apoyó de manera directa la política de deshomologación salarial, dirigida a incrementar la remuneración del personal académico al margen del salario tabular base. Con la implantación de los programas de compensación salarial se institucionaliza un reto de siempre, la evaluación de la docencia.
En México se acepta el uso generalizado de los cuestionarios de evaluación de la docencia por los alumnos en las instituciones de educación superior (IES); sin embargo, la investigación sobre el tema se considera incipiente (García, 2000). Son pocos los trabajos que dan cuenta del proceso de construcción de los cuestionarios, lo que permitiría conocer sobre su pertinencia, y mucho menos se conocen las características del sistema que los administra en términos de la confiabilidad de los procedimientos para recolectar información y el uso de los resultados.
Por décadas, la discusión se ha centrado en la confiabilidad y validez de los puntajes de opinión de los estudiantes como una medida de la efectividad docente; por un lado se puede decir que son confiables, estables y relativamente válidos (Marsh y Dunkin, 1997). Sin embargo, en los últimos años se han hecho investigaciones sobre los procedimientos de aplicación, interpretación y utilización de los resultados; con ello se ha demostrado que un procedimiento incorrecto puede invalidarlos (v. gr. Theall y Franklin, 1990). Así, aspectos básicos del tema, como la definición de los propósitos de la evaluación, las estrategias de aplicación de los cuestionarios y el uso de los resultados han cobrado relevancia en la discusión actual.
La literatura señala que el sistema que administra los cuestionarios, en principio, debe determinar y hacer explícitos los propósitos de la evaluación. Es fundamental precisar qué tipo de información se va a obtener y qué se va a hacer con ella. Al mismo tiempo, se requiere tener claridad sobre las necesidades de los docentes, los estudiantes y administrativos, en muchos de los casos contradictorias, por lo que es importante que se equilibren de manera justa y pertinente los intereses de los tres actores. Los procedimientos administrativos de acopio de la información deben incorporar los controles necesarios para asegurar que la información generada sea confiable y válida. Existen pruebas de que los puntajes se modifican si se contestan dentro o fuera del salón de clases, si el maestro permanece en el salón, si explica la importancia de la evaluación para su promoción o permanencia en la institución (Centra, 1976; Marsh, Overall y Kesler, 1979). En el procesamiento de la información, uno de los aspectos más importantes es el anonimato de los evaluadores ya que los estudiantes deben tener confianza en que los puntajes no afectarán su relación con el instructor (Arreola, Lawrence y Alemoni, 1990).
Un uso inadecuado de los resultados puede provenir de las necesidades institucionales que responden a políticas poco claras. En muchas universidades se ha promovido la práctica generalizada de efectuar evaluaciones con fines de control o compensación salarial y de retroalimentación al mismo tiempo. La literatura señala las inconveniencias de este proceder; muestra el conflicto que tienen los maestros en discutir aspectos de su quehacer docente en una situación de evaluación administrativa (Centra, 1993). La dificultad en obtener información relevante para mejorar la enseñanza con instrumentos de uso administrativo, dado que para perfeccionar la docencia se requiere de información a nivel micro del proceder docente, mientras que para la toma de decisiones administrativas a nivel macro. En este sentido, al plantear la evaluación de manera inseparable al control, se confunden funciones completamente heterogéneas que no pueden realizarse de manera simultánea con un mismo procedimiento, dado que responden a situaciones paradigmáticas y epistemológicas distintas (Ardoino, 2000).
En la implantación del sistema que administra los cuestionarios se precisa considerar una serie de elementos prácticos. La oportunidad y frecuencia de la evaluación significa acordar los momentos para llevar a cabo la aplicación de los cuestionarios; la decisión respecto a la etapa del semestre (al inicio, a la mitad, al final) en la cual aplicar el cuestionario y el número de veces depende de los propósitos de la evaluación y de las necesidades de los docentes. El tamaño del grupo es un factor determinante para la confiabilidad de los resultados, por lo tanto, es fundamental clarificar las acciones a seguir cuando los grupos tienen tamaños muy variables; los casos extremos son los grupos menores a diez estudiantes, porque el coeficiente de confiabilidad resulta muy por abajo de lo considerado útil (Centra, 1973).
La confidencialidad de los puntajes es abordada a la luz de los intereses de los docentes y de los estudiantes. A los docentes, el sistema debe asegurar información detallada y disponible sólo para el profesor preocupado por el diagnóstico y retroalimentación de su desempeño. Los alumnos deben sentir plena confianza en que su relación con el profesor no se verá afectada por las opiniones que ellos emiten. En este orden de ideas, la confianza en el uso adecuado de los resultados es una característica fundamental del sistema (Theall y Franklin, 1990).

Contexto inmediato: el caso de la UABC

La Universidad Autónoma de Baja California (UABC), en la actualidad ofrece 65 programas de licenciatura y 49 de posgrado (tres de doctorado, 26 de maestría y 20 de especialidad) distribuidos en las diferentes áreas del conocimiento. La evaluación de la enseñanza en licenciatura, a partir de la opinión de los estudiantes, inició de manera sistemática en 1988 con el propósito de identificar las áreas del quehacer docente que requerían preparación pedagógica; con la información recabada se pretendía orientar los programas de formación docente. La instancia responsable del diseño del cuestionario de evaluación de la docencia por los alumnos y del programa para procesar la información fue la Dirección General de Asuntos Académicos (DGAA); la aplicación y análisis de los cuestionarios estuvo a cargo de las unidades académicas. En esta etapa se delegó en cada escuela o facultad la responsabilidad de analizar los puntajes; asimismo, el uso de los resultados se dejó a discreción de los directivos de las unidades académicas. Se esperaba que los directivos de cada unidad académica reportaran a la DGAA los aspectos con menor puntación sobre los cuales requerían que se ofertaran cursos de formación docente. Sin embargo, gran parte del trabajo en los primeros años estuvo dirigido a introducir en la cultura de evaluación a directivos, académicos y estudiantes; en este sentido,
convencer a los involucrados de los beneficios de la evaluación1.
Un cambio que desvió la intención original de la evaluación de la docencia en licenciatura fue la introducción, a partir de 1990, de los programas de compensación salarial en la UABC, donde se estipuló como uno de los indicadores de evaluación el puntaje de los estudiantes; no obstante, su incorporación no fue posible debido a la insuficiencia de información. Los puntajes otorgados por los estudiantes se integraron como uno de los rubros que componen el programa de estímulo en 1994, y sólo para aquellos docentes que contaban con sus reportes de evaluación semestral.
A partir de ese año se computarizó la captura de los puntajes y se delegó en la DGAA la responsabilidad de procesar la información y elaborar un reporte semestral de cada maestro. A partir de esta fecha, los reportes se destinan por un lado, a cada unidad académica para conocimiento de los docentes y directivos, y por otro, a la Secretaría General para ser integrados en el expediente del programa de estímulos de cada profesor2. De esta manera, las unidades académicas continúan con la responsabilidad de aplicar los cuestionarios y capturar la información, y una dependencia central tomó el control del manejo de la información para asegurar, de alguna manera, que la institución cuente con los reportes necesarios que demanda el programa de estímulos al desempeño académico.
La aplicación de los cuestionarios se automatizó a partir del año 2000, como una medida para mejorar la administración del sistema; la DGAA gira instrucciones a las unidades académicas para que los estudiantes de licenciatura acudan en un periodo establecido (hacia el final del semestre) a contestar el cuestionario a un centro de cómputo. Si bien el sistema computarizado ofrece una mayor confianza tanto a los docentes como a los estudiantes en el manejo de la información, también impuso el reto de lograr que los usuarios asistan en el periodo estipulado a contestar el cuestionario; hasta la fecha, el lapso de tiempo se ha ampliado de un mes a tres meses, como una medida para lograr un mayor número de respuesta por parte de los estudiantes. Un dato que ilustra el nivel de participación es el primer semestre del 2002, en el cual 17,035 alumnos (73% de la población de licenciatura) evaluaron a sus profesores.
Este trabajo parte de la convicción de la importancia de hacer partícipes a los actores principales de la evaluación de la docencia, los docentes, en el proceso de construcción de los cuestionarios para su evaluación. La metodología seguida replica la estrategia desarrollada para el diseño de cuestionarios para posgrado (Luna y Rueda, 2001).

Propósito

El propósito de investigación fue la construcción de instrumentos de evaluación docente para el nivel de licenciatura que contemplen: a) las recomendaciones hechas por los docentes; b) la especificidad de cada área de conocimiento. Así como, determinar la jerarquía de las dimensiones de evaluación con base en la opinión de los docentes.

Metodología

El diseño del trabajo corresponde a un estudio de caso y se abordó desde la perspectiva de los métodos combinados la cual sostiene que, tanto la investigación cualitativa como cuantitativa, se refuerzan si se trabajan como complementarias (Brymann, 1984). Se desarrolló en dos etapas: en la primera se elaboró un cuestionario base que se propuso a la consideración de los profesores, propiciando su participación; en la segunda, se reconstruyó el cuestionario al incorporar las principales sugerencias de los docentes y se determinó la jerarquía de las dimensiones de evaluación para la muestra en general y por áreas de conocimiento.
El estudio se llevó a cabo con una muestra representativa por bloques aleatorios de la población de docentes de las licenciaturas de la UABC. Para ubicar el universo objeto de estudio se identificó a los maestros de carrera que tienen horas asignadas frente a grupo, descartando a los profesores que gozan de alguna licencia, año sabático, formación docente; para los profesores de asignatura, el criterio de selección fue que impartieran un mínimo de 10 horas clase. La información corresponde al primer periodo semestral del año 2001. En la muestra se distinguieron los siguientes factores: área de conocimiento y tipo de nombramiento. Se encuestó a 263 docentes, 18 % de la población total, 147 de carrera (22 %) y 116 de asignatura (15 %); la Tabla 1 muestra la distribución de las submuestras.

Tabla 1
Población de docentes de carrera y de asignatura, así como número y porcentaje de encuestados


En la primera etapa se diseñó el cuestionario “Evaluación de la docencia: teoría” de acuerdo con las dimensiones y reactivos que tanto la literatura anglosajona como hispana marcan como relevantes (Landshere, 1980; Shatz y Best, 1986; Tejedor, 1990; Centra, 1993; Feldman, 1997; Luna y Rueda, 2001; Rueda, 2001). Las dimensiones que incluye son: a) estructuración de objetivos y contenidos; b) claridad en la instrucción; c) organización de la clase; d) dominio de la asignatura; e) estrategias de instrucción; f) cualidades de interacción; g) evaluación del aprendizaje y h) aspectos formales del cumplimiento docente. Para determinar su contenido se consideraron las sugerencias hechas por la Dirección General de Asuntos Académicos (DGAA), dada su experiencia en este tipo de evaluación. Asimismo, se consultó a los estudiantes mediante un estudio piloto para evaluar la claridad del cuestionario.
La segunda etapa consistió en proporcionar a los docentes el cuestionario diseñado para que señalaran los comentarios y sugerencias a cada reactivo y dimensión de evaluación y de esta manera dar respuesta a las preguntas de investigación: 1) cuáles aspectos incluir en el cuestionario y 2) cuáles se deben excluir. Asimismo, se incluyó un cuadro de ponderación de las dimensiones y se les solicitó que, con base en su experiencia, asignaran el nivel de importancia a cada una de las dimensiones que cubre la actividad docente. El cuestionario se reconstruyó incorporando las sugerencias de mayor frecuencia de los docentes. Por último, se puso a disposición de los profesores el cuestionario reconstruido para su valoración.
El cuestionario se aplicó en dos modalidades; primero, en línea, dando un mes a partir de la fecha de envío para recuperar los cuestionarios; en las áreas donde no se cumplió con el número especificado en las submuestras se procedió a hacer la aplicación de manera presencial. En ambas modalidades el procedimiento general fue: a) solicitar la revisión de cada reactivo y escribir al calce su aceptación o rechazo así como sus comentarios y sugerencias, especificando los aspectos no evaluados que consideren importante incluir, y b) contestar el formato diseñado para asignar un nivel jerárquico a las dimensiones que componen el cuestionario.

Resultados

El análisis cualitativo de las respuestas a los cuestionarios se basó en técnicas de análisis de contenido, la codificación se derivó de las cláusulas textuales que responden a las preguntas de investigación (qué incluir y qué excluir del cuestionario de evaluación de la docencia con base en la opinión de los alumnos), de acuerdo con las siguientes reglas: 1) exhaustividad, todos los elementos relevantes de la muestra deben quedar incluidos en las categorías y 2) exclusividad mutua, el contenido no puede ser ubicado en más de un lugar; y 3) generalidad y especificidad, las categorías generales se relacionaron con las dimensiones y las específicas con los reactivos.
La información se reunió en una base de datos con el fin de clasificarla de acuerdo con el área de conocimiento del profesor, categoría administrativa (de carrera o asignatura) y tipo de respuesta, de aceptación o rechazo, para cada reactivo y dimensión. Se elaboró una tabla por reactivo y dimensión que reúne las cláusulas textuales a partir de las cuales se derivaron las categorías de sugerencias, y se computó su frecuencia.
La mayor frecuencia de las respuestas de los docentes se concentraron en aceptar los reactivos y las dimensiones, ya sea sin comentarios o explicitando las razones de su acuerdo. El análisis que a continuación se describe se basa en los comentarios de aceptación condicional y rechazo a los reactivos. Las categorías de sugerencias que se identificaron fueron: 1) cuestionar el lenguaje del reactivo, agrupa todos los comentarios que discuten los términos utilizados, y en algunas ocasiones señalan de manera precisa las palabras a modificar, así como las razones; 2) cuestionar el contenido implícito del reactivo, reúne las sugerencias de eliminar los términos que asumen una actitud pasiva de parte de los estudiantes; y 3) cuestionar la evaluación, incluye los comentarios que descalifican a los alumnos como evaluadores, así como los que desaprueban la inclusión de aspectos que a juicio de los profesores no dependen de ellos.
En la categoría “cuestionar el lenguaje del reactivo”, los docentes discutieron la pertinencia de incluir expresiones con significados precisos, que no se presten a confusión, como en los siguientes casos: “¿los contenidos del curso fueron congruentes con los objetivos?”; “¿utilizó recursos didácticos para facilitar la comprensión de los temas?”; “¿presentó los fundamentos teóricos y metodológicos de los contenidos desarrollados en clase?”; se solicitó aclarar el significado de congruencia y recursos didácticos, así como dar ejemplos. En “¿la bibliografía utilizada fue adecuada para cubrir los temas del curso?”, se sugirió sustituir bibliografía por fuentes de información para incluir a las nuevas tecnologías. Estos comentarios provienen de los docentes de los programas de las diferentes áreas del conocimiento estudiadas, con una frecuencia que oscila por área entre 2 y 10.
En general, en la categoría “cuestionar el contenido implícito del reactivo”, los profesores señalaron cuidar no incluir vocablos que promuevan un comportamiento pasivo de parte de los estudiantes. Incluye a los reactivos: “¿explicó con claridad los temas?”; “¿resolvió las dudas y problemas planteados en clase?”; y “¿ayudó a los estudiantes dentro de clase?”; las argumentaciones según el caso fueron: no siempre el profesor es quien expone el tema y no promover una pedagogía centrada en la enseñanza, en la transmisión del conocimiento. Asimismo puntualizaron que ayudar no es resolver, es orientar al estudiante para que él construya las soluciones. Las sugerencias proceden de los maestros de los diversos programas estudiados, con una frecuencia que oscila entre 2 y 7 por área.
En la categoría “cuestionar la evaluación”, los docentes por un lado, desacreditaron a los estudiantes como evaluadores en los reactivos: “¿los tiempos asignados a los temas fueron adecuados?” donde argumentaron que el alumno no conoce lo extenso de cada tema ni lo que es suficiente para los propósitos de un curso, y en “¿los contenidos presentados en clase estuvieron secuenciados de manera lógica?” señalaron sus dudas en relación con la preparación del alumno para evaluar ese aspecto; estas opiniones proceden de los maestros de las diferentes áreas con un rango de frecuencia que fluctúa entre 3 y 13. Por otro lado, los maestros discutieron los reactivos que evalúan elementos que a su juicio no atañen a la materia, tal es el caso de: “¿tomó en cuenta los conocimientos previos de los estudiantes al inicio de cada tema” donde los argumentos fueron que los huecos en el conocimiento previo no son responsabilidad directa del docente y no dependen de la asignatura, dado que cada profesor debe cumplir un programa, este comentario lo realizaron los profesores de todas las áreas con un rango de frecuencias de 2 a 15 comentarios.
El cuestionario base se modificó de acuerdo con los siguientes criterios: a) se revisaron los reactivos con frecuencia de sugerencias entre dos y cuatro, sin necesariamente realizar cambios en los mismos; y b) se atendieron las observaciones con frecuencia de cinco o más en función del área de procedencia. De esta manera, se realizaron las siguientes modificaciones al cuestionario original: se modificó la redacción de algunos reactivos con el propósito de hacerlos más precisos; se eliminaron los términos que de manera implícita promueven un comportamiento pasivo de parte de los estudiantes en el proceso de aprendizaje y se sustituyeron con el fin de propiciar un papel activo en la regulación de su instrucción; asimismo, se suprimió el reactivo que valora el tiempo dedicado a cada tema por considerarlo que no procedía su evaluación por parte de los alumnos; por

lleven a postular valoraciones específicas. El cuestionario modificado de acuerdo con las sugerencias de los docentes se presenta a continuación.

Cuestionario de evaluación de la docencia: teoría

El (la) maestro (a):
1. ¿Entregó a los estudiantes el programa del curso al inicio del mismo? Si ( ) No( )
2. ¿Asistió con regularidad a sus clases? Si ( ) No( )
3. ¿Explicó los requisitos para aprobar el curso al inicio del mismo? Si ( ) No( )
Escala de calificación para el siguiente conjunto de preguntas
1. Nunca 2. Algunas veces 3. Casi siempre 4. Siempre

4. ¿Los contenidos del curso apoyaron el logro de los objetivos?
5. ¿Las fuentes de información (por ejemplo: bibliografía, sitios en red) fueron adecuadas para cubrir los temas del curso?
6. ¿Explicó con claridad cuáles son los aspectos importantes del curso?
7. ¿Los temas fueron tratados de manera clara?
8. ¿Los materiales de apoyo (por ejemplo: diapositivas, diagramas, programas) utilizados para facilitar la comprensión de los temas fueron adecuados?
9. ¿Las tareas y actividades desarrolladas facilitaron el aprendizaje de los temas?
10. ¿Se trataron los principios teóricos o metodológicos de los contenidos desarrollados en clase?
11. ¿Ayudó a resolver las dudas y problemas planteados en clase?
12. ¿Relacionó el contenido de la materia con otras materias?
13. ¿Mostró dominio de la materia?
14. ¿Los contenidos trabajados en clase estuvieron secuenciados de manera lógica?
15. ¿Tomó en cuenta los conocimientos previos de los estudiantes al inicio de cada tema?
16. ¿Utilizó ejemplos para definir algún concepto o principio general?
17. ¿Indicó algunas aplicaciones de los conocimientos para el trabajo profesional?
18. ¿Escuchó los puntos de vista de los alumnos?
19. ¿Motivó a los alumnos para ser responsables de su proceso de aprendizaje?
20. ¿La evaluación fue acorde con los contenidos trabajados en el curso?

Con base en una escala en la que 1 es la calificación más baja y 10 la más alta, califique:

21. Evaluación global del desempeño del profesor (a) 1 2 3 4 5 6 7 8 9 10
22. Evaluación de mi desempeño como estudiante en esta materia 1 2 3 4 5 6 7 8 9 10


El análisis cuantitativo se realizó con el propósito de determinar la jerarquía de las dimensiones de evaluación del trabajo académico y las tendencias de opinión de los docentes de los diversos programas agrupados por área de conocimiento. Los cálculos se realizaron mediante técnicas de análisis de conglomerados. La información se derivó del cuadro de ponderación y el procedimiento seguido consistió en: a) elaborar matrices de frecuencia de orden 8 jerarquías por 8 dimensiones por área de conocimiento y para la muestra total, con el propósito de determinar el número de opiniones en la jerarquía de cada dimensión; b) normalizar las matrices de frecuencia al dividir los componentes de cada matriz entre el número de individuos encuestados. Los resultados permitieron identificar la jerarquía de las dimensiones por área y para la muestra al reconocer el número máximo de votación de cada dimensión respecto a las jerarquías; de esta manera, se identificó a dominio del contenido como la dimensión más importante y como las de menor importancia a estrategias de instrucción, cualidades de interacción y evaluación del aprendizaje tanto en la jerarquización general como en las particulares por área (Tabla 2); c) construir matrices de diferencia al tomar el valor absoluto de los componentes de la matriz de frecuencia normalizada por área de conocimiento menos los componentes de la matriz de frecuencia normalizada de la opinión
general; la suma de todos los componentes de estas matrices de diferencia permitió determinar la similitud de opinión de los profesores de una área respecto a la muestra total (Gráfica); de esta manera se identificaron las tendencias de opinión entre los docentes de los programas por áreas de conocimiento, encontrando que los profesores de Ciencias Sociales y Administrativas son los que más difieren con relación a las opiniones del total de la muestra.

Tabla 2
Jerarquización de la dimensiones de evaluación para la muestra general y por área de conocimiento



Gráfica
Diferencias de opinión de los profesores por área de conocimiento respescto al total de la muestra


Discusión y conclusiones

Al analizar la historia de las prácticas de evaluación de la docencia por los alumnos en la UABC es posible dar cuenta de los logros, las dificultades, así como de los retos que se tienen al implantar un sistema de evaluación. La reconstrucción del proceso de implantación del sistema de evaluación de la docencia por los alumnos en la UABC hace evidente que introducir en la cultura de la evaluación a una comunidad académica es un trabajo a largo plazo, sujeto a factores de orden político y económico. La evaluación de la docencia en licenciatura inició con el propósito de mejorar la enseñanza; sin embargo, posteriormente, se introdujo como un indicador importante en los programas de compensación salarial en porcentaje, uno de los efectos positivos de este hecho es el haber fomentado la sistematización del proceso de evaluación. Más de 17,000 estudiantes (73% de la población de la población total de la UABC) evaluaron a sus maestros en el primer periodo del semestre 2002, dado que se convirtió en una demanda institucional el solicitar reportes regulares sobre los resultados de la evaluación. Esto hizo necesario hacer eficiente el proceso de captura y procesamiento de la información, lo cual se ha logrado a través de la automatización del sistema. Por otro lado, la asociación de la evaluación de la docencia por los alumnos a los programas de estímulo académico ha ocasionado una gran discrepancia entre el discurso de las autoridades y lo que pasa en la práctica. En el discurso se maneja un doble propósito, por un lado, el de retroalimentar al docente para mejorar la enseñanza, y por otro, el de control administrativo vía el programa de estímulos; sin embargo, en los hechos, el principal uso de los resultados es el de control, dado que no se cuenta con los mecanismos de retroalimentación, ni con las estrategias de ayuda que posibiliten a los docentes transformar su quehacer de enseñanza a partir de la información que proporcionan los puntajes. Cabe tener presente el hecho documentado de que la mejora en la enseñanza es mínima cuando se reduce la retroalimentación a sólo entregar los resultados de los puntajes. En este sentido, uno de los grandes desafíos de la institución es el de instrumentar las condiciones necesarias para el uso de los resultados con el propósito de mejorar las actividades de docencia. Para ello, es necesario conceptualizar la evaluación de la docencia como una actividad compleja que involucra: aspectos instrumentales relacionados con los métodos y técnicas de evaluación, componentes políticos que inducen un conjunto de acciones, así como estrategias de análisis de los resultados de la evaluación. En este sentido, analizar los hechos de la evaluación como prácticas sociales, que no se reducen a los elementos puramente técnicos o sociales, sino que representan la posibilidad de un proceso de transformación del cual forman parte agentes sociales concretos que mantienen entre sí relaciones específicas, cuyo producto debería de orientar el mejoramiento de la calidad de la enseñanza.
En relación con el sistema que administra los cuestionarios, la literatura recomienda resolver situaciones elementales relacionadas con la confiabilidad y validez de los resultados, entre ellas destacan: tomar en consideración el tamaño del grupo, los puntajes obtenidos en grupos pequeños (menos de diez) son poco confiables; si se van a realizar comparaciones, estas deben realizarse entre los profesores que comparten características similares, agruparlos por disciplina o materia, ya que se sabe que los estudiantes otorgan puntajes diferenciales en función del área de conocimiento. En este sentido, uno de los retos de la institución es que el sistema cuente con los mecanismos necesarios para asegurar resultados equitativos, pertinentes y útiles para los actores principales de los procesos de enseñanza y aprendizaje, los docentes y los estudiantes.
Los maestros postularon propiciar un papel más activo y responsable por parte de los estudiantes en su proceso de formación, en este sentido, la teoría implícita en el cuestionario se orientó hacia la aproximación constructivista del aprendizaje; asimismo, se incorporó el uso de las nuevas tecnologías, lo cual puede fomentar una pedagogía innovadora. Por último, se suprimieron los reactivos que, a juicio de los docentes, los estudiantes no están en condiciones de evaluar por falta de información. La jerarquización general así como todas las jerarquías por área de conocimiento ubicaron como la dimensión de evaluación más importante a dominio del contenido, lo cual concuerda con lo obtenido en estudios anteriores con los docentes de posgrado (Luna y Rueda, 2001).
Desde la perspectiva de los profesores, el principal uso de los cuestionarios debería ser para el mejoramiento de las actividades de docencia; sin embargo, para ellos es muy clara la función de control que estos tienen en la actualidad, y sancionaron los componentes del cuestionario que pudieran estar fuera de su control o ser difíciles de evaluar por los alumnos. En este sentido, persiste la necesidad de contar con procedimientos e instrumentos de evaluación independientes para cada propósito de evaluación.

Referencias

ARDOINO, J. (2000). “Consideraciones teóricas sobre la evaluación en educación”, en M. Rueda, y F. Díaz (Eds.), Evaluación de la docencia. Perspectivas actuales, México, Paidós Educador.
ARREOLA, R. A., y Aleamoni, L. M. (1990). “Practical decisions in developing and operating a facuculty evaluation system”, en M. Theall, J. Franklin (Eds.), Student ratings of instruction: Issues for improving practice, No 43, New Directions for Teaching and Learning, San Francisco, Jossey Bass.
BRYMAN, A. (1984). “The debate about quantitative and qualitative research: a question of method or epistemology?”, The British Journal of Sociology, XXXV, 1.
CENTRA, J. A. (1973). Item reliability, the factor structure rating, comparison with alumni ratings. Student Instructional (Report, no. 3). Princeton, N.J., Educational Testing Service.
CENTRA, J. A. (1976). “The influence of different directions on student ratings of Instruction”, Journal of Educational Measurement, 13.
CENTRA, J. A. (1993). Reflective faculty evaluation: enhancing teaching and determining faculty effectiveness, San Francisco, The Jossey-Bass Higher and Adult Education Series.
FELDMAN, K. A. (1997). “Identifying exemplary teachers and teaching: evidence from student ratings”, en R. Perry y J. Smart (Eds.), Effective teaching in higher education: Research and practice, Nueva York, Agathon Press.
GARCÍA, G. J. (2000). “Las dimensiones de la efectividad docente, validez y confiabilidad de los cuestionarios de evaluación de la docencia: una síntesis de la investigación internacional”, en M. Rueda y F. Díaz-Barriga (Eds.), Evaluación de la docencia. Perspectivas actuales, México, Paidós Educador.
LANDSHEERE, G. (1980). “La evaluación de los enseñantes”, en M. Debesse y G. Mialaret (Eds.), La función docente, Barcelona, Oikos-tau.
LUNA S., E., y Rueda B. M. (2001). “Participación de académicos y estudiantes en la evaluación de la docencia”, Perfiles Educativos, (23) 93.
MARSH, H. W., et al. (1979). “Multidimensionality of students’ evaluation of teaching effectiveness”, American Educational Research Journal, 16.
MARSH, H.W., y Dunkin, M. J. (1997). “Student’s evaluations of university teaching: A multidimensional perspective”, en R. Perry y J. Smart (Eds.), Effective teaching in higher education: Research and practice, Nueva York, Agathon Press.
RUEDA B., M. (2001). “Una propuesta de cuestionario dirigido a los docentes para evaluar la función docente en la universidad”, en M. Rueda y F. Díaz-Barriga (Eds.), Evaluación de la docencia. Perspectivas actuales, México, Paidós Educador.
SHATZ, A. M., y Best, B. J. (1986). “Selection of items for course evaluation by faculty and students”, Psychological Reports, (58).
TEJEDOR, F. J. (1990). “La evaluación del profesorado en la universidad de Santiago”, Revista Española de Pedagogía, XLVIII, 186.
THEALL, M., y Franklin J. (1990). “Student ratings in the context of complex evaluation systems”, en M. Theall, and J. Franklin (Eds.), Student ratings of instruction: Issues for improving practice, No. 43, New Directions for Teaching and Learning, San Francisco, Jossey Bass.

PIES
1 Reconstruir parte de la historia del sistema de evaluación en licenciatura en la UABC fue posible gracias a la información proporcionada por Julio César Reyes y Lourdes Loza, ex-jefes de departamento de la misma dirección, quienes coordinaron en los primeros años la implantación del sistema. «volver«.

2Información proporcionada por la Lic. Aída León, jefe de departamento de la DGAA.«volver«

María Isabel Arbesú García
Javier Loredo Enríquez
Miguel Monroy Farías
Alternativas Innovadoras en la Evaluación de la Docencia

se aceptan colaboraciones