Archivos para junio, 2010

Educación Competitiva

Publicado: junio 27, 2010 en Opinión, Pensamiento Escrito

Más Información = Más Competencia = Mejor Mercado

Durante las últimas semanas se ha puesto mucho en discusión el famoso semáforo del Ministerio de Educación. Se trata de un simple mapa de Chile hecho con ayuda de Google Maps en la que están marcados en cuatro colores distintos los establecimientos educacionales. en verde, aquellos que obtuvieron resultados SIMCE significativamente mayores al promedio nacional. En amarillo, los puntajes similares a éste y en rojo los establecimientos con puntajes significativamente menores. La diferencia es significativa en base a pruebas de hipótesis con estándares definidos por SIMCE. Un cuarto color indica aquellos establecimientos sin resultados, es decir, aquellos cuyas pruebas fueron rendidas por 5 alumnos o menos, lo que hace que sus resultados no permitan hacer pruebas de significancia estadística correctas.

La lógica del semáforo es muy simple: hacer que las escuelas compitan dentro del llamado “Mercado de la Educación”. Dentro de una lógica de mercado, un producto es más demandado cuando éste es mejor, y satisface las necesidades de los compradores. Una de las fallas de mercado que siempre se intenta corregir de alguna manera es la inequidad del acceso a la información. El mercado perfecto no funcionará si todos los individuos de un sistema económico no tienen la misma información, pues no existiría una competencia justa, y los compradores podrían elegir un producto sólo por no saber que hay otro mejor a la vuelta de la esquina.

Bajo esta lógica, una mejor información de los padres y apoderados a través de este mapa implicaría que éstos podrían cambiar a sus hijos de establecimiento por uno mejor que esté cerca de sus domicilios (puesto que en general los padres eligen establecimiento según la comuna en la que viven) o seleccionar de mejor manera la escuela para sus hijos que recién entran al mundo escolar. La información vía internet va acompañada además con información impresa a cargo cada uno de los establecimientos, para atenuar el efecto de la escasa accesibilidad a internet en los grupos socioeconómicos más necesitados. Así, todos los padres y apoderados tendrán esta información. El fin último de todo esto no es que se llenen los mejores colegios, sino más bien incentivar a los malos a mejorar para recuperar su matrícula.

Estadísticamente Injusto

Ignacio Walker

Toda esta campaña es muy loable, y no se puede decir que el señor ministro no tiene buenas intenciones al respecto, pero debo decir que esto tiene muchas fallas. Algunas son fallas técnicas, y se pueden solucionar fácilmente. En una columna para La Tercera, Ignacio Walker, presidente de la Comisión de Educación del Senado, hace  un interesante análisis de este tipo de problemas, del cual me apoyaré e intentaré sumar falencias identificadas por mí y otros columnistas.

En primer lugar, como se basa en un promedio de los últimos resultados, no toma en cuenta la evolución de la escuela. Hay establecimientos marcados en rojo que incluso han recibido reconocimientos del ministerio por su rápido y constante avance, mientras otros en verde están descendiendo hace tiempo, y muchos amarillos se quedaron estancados hace años. Además, a veces hay establecimientos que en un año pudieron haber tenido un director o un profesor en el curso y sacaron un puntaje muy alto, cuando históricamente han obtenido puntajes pésimos, y probablemente vuelvan a sacarlos pues no se basa en acciones sistemáticas sino en la contingencia actual del colegio y la persona de turno.

Por otro lado, los rangos caracterizan muy tajantemente. ¿Qué pasa con los establecimientos que están en el límite superior del nivel rojo? ¿La diferencia es significativa con aquel que está en el límite inferior amarillo? Probablemente una diferencia de 1 punto no lo es. Claro, el mapa intenta evitar esto, pues haciendo clic en el botón de color aparecen en detalle los resultados. Aún así, siendo realistas, muy poca gente hará el análisis meticuloso, pues la lógica de los colores es justamente facilitar el trabajo dejándo sólo tres tipos de establecimientos.

Otro tema es que no toma en cuenta a los establecimientos pequeños a causa de las dificultades metodológicas, asociadas,y no siempre éstos son tan pequeños como parece, pues lo determina cuántos alumnos tomaron la prueba. Muchas veces el ausentismo en el establecimiento el día del SIMCE es alto (como experiencia propia, una vez fui a tomar un SIMCE  me encontré con que asistió apenas la mitad del curso, con la razón de que “no era una prueba importante”).

Otro problema es que no toma en cuenta las diferencias entre las distintas pruebas, y las promedia como si estuvieran en una correlación perfecta. Aunque los resultados entre lenguaje, matemáticas y comprensión del medio están bastante correlacionados, no es absoluto, y hay establecimientos que obtienen buenos resultados en lenguaje y muy malos en matemáticas, y viceversa, por lo que quedarían como establecimientos amarillos. ¿Tiene sentido?

El problema más grave, sin embargo, es que no controla por nivel socioeconómico, sino sólo por un puntaje absoluto. Como vimos en el artículo anterior, los puntajes SIMCE están altamente determinados por la vulnerabilidad de los alumnos, por lo que el semáforo es injusto con establecimientos muy efectivos que superan las barreras de la pobreza y hacen que sus alumnos aprendan. A la inversa, hay establecimientos de barrio alto que no son tan efectivos, pero obtienen buenos puntajes porque los alumnos traen todo el capital cultural necesario desde sus casas. Lo más curioso de todo esto es que en las bases de datos SIMCE existe un indicador llamado “Diferencia con Establecimientos Similares”, que controla por GSE y tiene 3 categorías, igual que el semáforo. Entonces ¿por qué no se les ocurrió usar este indicador bueno que ya existía y en vez de eso se dieron el tiempo de crear un indicador malo?

¿Mercado de la Educación?

Los problemas anteriores son absolutamente técnicos, y muy fáciles de solucionar con el profesional adecuado a cargo. Sin embargo, existen problemas que vienen desde la raíz, de una corriente de pensamiento que llegó en los ’80 para quedarse. Me refiero a la lógica del mercado de la educación.

Esta lógica de hacer que las escuelas compitan comenzó a implementarse gracias a los llamados “Golden Chicago Boys”, quienes incorporaron los principios de economía dentro de todo lo que pudieron, incluyendo el sistema educativo. Instalaron un modelo bastante peculiar de Vouchers, donde el establecimiento recibe una suma de dinero específica por cada alumno que asista a clases. Esto incentivaría a los establecimientos a tener buenos resultados para atraer matrícula, y además mantener esfuerzos por evitar la deserción escolar y el ausentismo a clases.

A pesar de que el sistema funcionó parcialmente para el segundo punto (e incluso en muchos establecimientos los inspectores van a buscar a los niños a sus casas para que no se ausenten), la calidad de la educación no ha mejorado para nada gracias a este sistema. El problema es que la idea de hacer competir a las escuelas es extraña, pues la educación no puede funcionar con una lógica de mercado, ya que la demanda por educación no es igual a la demanda de una marca de queso.

En primer lugar,el cambio de establecimiento no es como el cambio del queso. Cuando el queso empieza a salir malo, uno lo bota o se come lo que queda, y la próxima vez que haga las compras simplemente eligirá otra marca disponible. Sin embargo, cambiarse de escuela es un proceso lento y mucho más complejo. Salirse del colegio implica debilitar e incluso perder una serie de redes sociales que se han establecido a lo largo de los años (tanto para los niños como para los padres), por lo que hay un trabajo extra de rehacer las redes. Por otro lado, implica una búsqueda de establecimientos que es tediosa, y en muchos casos un proceso de selección debido a una capacidad limitada de los establecimientos. Todo esto hace que el supuesto “mercado educativo” sea muy poco flexible y, por lo tanto, la competencia no dé los frutos esperados. Los establecimientos pueden seguir teniendo bajos resultados y aún así mantener una matrícula estable.

“Sabemos eso, pero el semáforo no apunta a esto, sino a la selección de establecimientos por nuevos padres” dirá usted.  Sin embargo, la selección de establecimientos no siempre se debe a los resultados académicos. Muchas veces hay temas de convivencia escolar y formación valórica que están sobre esto. Además, factores prácticos como el arancel o el domicilio se hacen muy importantes, sobre todo en los estratos más pobres, en que los recursos son escasos donde la movilización es más compleja por temas económicos o de aislamiento.

Por último, y un factor que hace que la competencia no sólo sea inútil, sino además dañina en algunos casos, es que incentiva la selección. Cuando un queso está dando mal sabor, el productor pensará en su preparación y seleccionará mejores ingredientes, para así volver a mejorar sus ventas. En muchos establecimientos ocurre lo mismo, y seleccionan a los mejores alumnos para un mejor resultado, dejando a quienes más necesitan educación de calidad en los peores establecimientos.

Martin Carnoy

Martin Carnoy, doctorado en economía en Stanford y antiguo compañero de nuestros Chicago Boys, pero experto en educación, expone en una entrevista para El Mostrador excelentes argumentos para afirmar que la competencia en educación es “una locura”. La experiencia internacional muestra que los mejores resultados educativos se logran en países donde la educación está en manos del Estado, como Finlandia o Cuba. Su afirmación más interesante es que no existe en estos países una asociación entre educación e ideología política, y que una educación centralizada no es acto del comunismo o del fascismo, sino simplemente de un estado comprometido con la igualdad de oportunidades y con un imperativo moral de educación de calidad.

Cambiar la mentalidad es un proceso lento, pero no imposible. Los problemas técnicos del semáforo pasan a segundo plano si logramos entender que se deben enfocar los recursos y los esfuerzos en los establecimientos que más los necesitan, y no sólo en los mejores.

Anuncios

¿Los seis mitos del SIMCE?

Publicado: junio 18, 2010 en Críticas

Educación 2020 es un movimiento que ha ido tomando fuerzas desde su nacimiento a fines del 2008. Quizás sea su discurso de acabar con los rodeos teóricos y políticos y comenzar a realizar medidas prácticas lo que ha atraído la atención de tanta gente. Personalmente, adhiero a su causa, aunque no siempre estoy de acuerdo con sus medidas.

Hace unas semanas publicaron en su página web un artículo a propósito de los recientes resultados de la prueba SIMCE 2009. Dentro de este artículo enumera seis “mitos” sobre la prueba, los cuales intenta desmentir. Fue este mismo artículo el que me motivó a abrir este blog, pues discrepo con varios de estos mitos, y de alguna forma necesitaba decirlo. A continuación muestro los mitos y su discusión. Juzgue usted mismo.


Mito 1: Malos resultados son consecuencia de un mal entorno familiar.

Respuesta E2020: Falso. Esto acaba estigmatizando y condenando a los niños de bajos recursos. El rol del sistema educativo es, precisamente, romper con las desigualdades de cuna. Hay escuelas donde el 90% de los alumnos es vulnerable y logran 300 puntos en el Simce. Es decir, sí se puede.

La evidencia empírica demuestra que hay una correlación importante entre la vulnerabilidad de los niños y los resultados SIMCE. Se puede ver claramente que a mayor vulnerabilidad, peores resultados. Lo más interesante es que no es que los establecimientos más vulnerables consigan menores resultados, pues la dispersión es muy alta en los estratos más pobres. Más bien son los resultados de los establecimientos menos vulnerables los que se concentran en puntajes altos. En otras palabras, los niños de clases sociales altas están en ventaja, pues tienen muy pocas probabilidades de sacar malos resultados.
¡Claro que se puede y que hay establecimientos pobres con altos puntajes! Pero desconocer esta realidad no ayuda a desestigmatizar, sino al contrario, evita entender que son los niños más vulnerables son aquellos que necesitan un mayor esfuerzo por parte del sistema educativo, y que este esfuerzo ya ha dado frutos en algunas escuelas del país.


Mito 2: Escuelas particulares subvencionadas son mejores que las municipales.
Respuesta E2020: Falso. Si dos escuelas, una particular subvencionada y otra municipal, tienen niveles iguales de vulnerabilidad, no hay diferencia por dependencia. Incluso, hay escuelas municipales que lo hacen mejor que las subvencionadas en contextos de alta vulnerabilidad.

Debo admitir que en principio pensé que E2020 se equivocaba. Sorprendentemente en el grupo de establecimientos más vulnerables los establecimientos municipales consiguen resultados considerablemente más altos que los particulares subvencionados. Sin embargo, para el resto de los grupos se muestran resultados algo más bajos en los municipales. No es correcto decir que no hay diferencia entre las dependencias. Para los grupos A y C sí las hay, y son importantes.


Mito 3: El Simce nos permite tener una fotografía de la calidad de la educación que entrega un establecimiento.
Respuesta E2020: Falso. El Simce es una prueba que mide el estado actual sólo si se compara con la trayectoria pasada. Así, es más importante como han sido los resultados en los últimos cinco años que sólo la cifra actual. Un colegio con 250 puntos tiene “un mal Simce” si anualmente baja 15 puntos, y un colegio con 200 puntos tiene un “buen Simce” si todos los años aumenta en 15 puntos, porque es la trayectoria lo relevante.

Están equivocados amigos míos. Cualquier evaluación de aprendizajes se puede leer de muchas maneras, pero SIMCE principalmente usa dos. La primera, tal como ustedes dicen, es ver la evolución de los puntajes. Existe en las bases públicas una variable que indica si el crecimiento o decrecimiento del puntaje de un colegio es estadísticamente significativo. Sin embargo, también es importante ver si los resultados son mejores o peores que los de otras escuelas similares, es decir, del mismo GSE y bajo la misma dependencia administrativa. La calidad de la escuela siempre es comparativa, pero no sólo consigo misma en el tiempo, sino también con las otras en el presente.


Mito 4: El Simce mide la calidad de las escuelas y liceos.
Falso. Es una prueba que mide sólo la calidad de los aprendizajes y no considera otras variables como infraestructura del colegio, calidad de la gestión escolar, el liderazgo del director o el nivel de perfeccionamiento de los profesores, por lo que sólo es un indicador parcial de la calidad de las escuelas y liceos. Además, para elegir un colegio, hay que tomar como referencia el puntaje Simce, pero también considerar la convivencia escolar, disciplina y el proyecto educativo.

Absolutamente de acuerdo. Es importante entender que los aprendizajes son sólo un indicador de muchos de la calidad de un establecimiento, sobre todo en una sociedad como la chilena, en la que la escuela ha pasado a ser un segundo hogar para los niños y el mercado laboral exige además de conocimientos buenas habilidades sociales. No sacamos nada teniendo habilidades cognitivas de alto nivel si no van acompañadas de impecables habilidades disciplinarias y sociales.


Mito 5: Exijo saber el puntaje Simce de mi hijo

Respuesta E2020: Falso. El puntaje Simce es un indicador del nivel del curso donde está el niño. La prueba Simce no es posible desagregarla por alumno, porque cuando se lleva a cabo a cada curso se le aplican tres pruebas distintas a tres grupos de alumnos distintos y el puntaje es el resultado de la sumatoria de estos tres grupos. Así, el Simce entrega un puntaje que agrega a todos los alumnos a través de un promedio.

Primero que nada, me gustaría saber quien diablos escribió este mito. ¿Es eso un mito? Más bien parece un imperativo. ¿Puede un imperativo ser verdadero o falso? Fuera de eso… ¿Hablan en serio? ¡Esa respuesta es una vil mentira!
Los puntajes por alumno sí existen, sólo que no son públicos, y sólo pueden ser utilizados con fines de investigación, previa aprobación del SIMCE. Además son confidenciales, y para los investigadores los alumnos no están identificados por sus nombres.
Por otro lado, se aplican tres pruebas distintas, pero no por eso no son comparables. Sólo son tres formas de la misma prueba (medida utilizada recurrentemente por profesores para evitar la copia) y el puntaje por establecimiento es un promedio simple de los puntajes de cada alumno que rindió la prueba. De hecho, los niveles de logro son individuales, y se determinan según un rango de puntajes en el que cada alumno es categorizado.


Mito 6: Desde este año el Simce será público

Falso. El Simce se aplica desde el año 1997 e inicialmente la prueba era rendida alternadamente por los alumnos de 4º básico, 8º básico y 2 Medio. Desde el año 2006 se evalúa a todos años a los niños de 4º básico y alternadamente a los de 8º básico y 2 Medio.
Los resultados del Simce siempre han sido públicos y están disponibles en www.simce.cl. Además todos los colegios son informados de su puntaje, por lo que el apoderado puede pedir dicha información.

Es verdad que los resultados siempre han sido públicos, pero creo que aquí hay una confusión. Al menos lo que yo entendí en el discurso del 21 de Mayo es que pretenden informar los resultados individuales de los niños (¡que sí existen!) a los padres y apoderados. Sólo espero que no se les ocurra hacerlos públicos, sino que los envíen en sobres sellados mediante correo certificado, de manera de evitar la selección por parte de las escuelas.
De todas maneras, dudo mucho de que esta medida sirva de algo, pero de eso ya hablaré en otro momento.