El ranking académico de universidades del mundo por la Universidad Jiao Tong de Shanghai o el ranking de Shanghai (nombre común del Ranking Académico de Universidades del Mundo en inglés , o ARWU ) es un ranking de las principales universidades del mundo, establecido por investigadores de la Universidad Jiao-tong de Shanghai en China .
Estas instituciones se clasifican según un índice único calculado sobre la base de seis criterios cuantitativos, en particular el número de publicaciones en las dos revistas científicas Nature y Science , el número de investigadores entre los más citados, el número de Nobel científicos premios y medallas de Campos otorgados a exalumnos y personal universitario, y un criterio de productividad relacionado con el tamaño del profesorado si se conoce.
El método de clasificación y su relevancia son fuertemente criticados y en particular la afirmación de que estos criterios son relevantes y objetivos. Ningún criterio de ranking evalúa la calidad de la docencia o el nivel de los estudiantes de posgrado, lo que resulta paradójico en un ranking de instituciones donde una de las dos vocaciones primarias, junto a la investigación, es la docencia y la formación profesional para estudiantes que en su mayoría no pretenden Hacer una investigacion. Además, el ranking favorece a las instituciones más antiguas y grandes y las ciencias duras (especialmente la medicina y la biología) en detrimento de las ciencias sociales y el derecho. No se tienen en cuenta las limitaciones de los establecimientos ni sus recursos.
Esta clasificación es particularmente publicitada en Francia, y tuvo un gran impacto en las políticas públicas francesas: en la medida en que la clasificación de un establecimiento aparecía fuertemente ligada a su tamaño, el argumento del "ascenso en la clasificación" se ha invocado a menudo en apoyo de las estrategias de reagrupación o fusión de muchas instituciones universitarias en la década de 2010.
A principios de la década de 2000, la Universidad Jiao-tong de Shanghai buscó desarrollar un plan estratégico para justificar los fondos públicos proporcionados para que alcanzara el nivel de las mejores universidades internacionales. El profesor Nian Cai Liu, químico que trabaja para esta universidad, estableció un primer ranking de universidades en 2003, para evaluar la brecha que existía entre las universidades chinas y las que iban a servir como modelos. Teniendo solo dos colaboradores, se pasa luego al más simple, teniendo en cuenta solo datos accesibles por Internet y considerados objetivos: el número de premios Nobel y medallas Fields (de matemáticas), el número de investigadores más citados en su disciplina, el número de publicaciones en las revistas científicas Nature y Science y el número de artículos que figuran en dos bases de datos de artículos científicos, uno sobre humanidades y otro sobre ciencias puras. Después de su publicación en 2003, el ranking fue primero ignorado y luego criticado, pero tendría un impacto global significativo. A partir de 2009 también se publica una clasificación por disciplina. Desde 2009, el equipo de clasificación de la Universidad de Jiao-tong se ha convertido en una empresa consultora independiente, ShanghaiRanking.
Los diseñadores del ranking publicaron el método de cálculo en 2005, que dijeron "utiliza criterios objetivos cuidadosamente seleccionados" , "se basa en datos internacionales comparables que cualquiera puede verificar" y "no implica ninguna medición subjetiva" , una serie de afirmaciones que han sido objeto de serias críticas. Este método incluye los siguientes criterios ponderados:
Criterios | Indicadores | Ponderación |
---|---|---|
Calidad de la enseñanza | Número de premios Nobel y medallas Fields entre los egresados | 10% |
Calidad institucional | Número de premios Nobel y medallas Fields entre investigadores | 20% |
Número de investigadores más citados en sus disciplinas durante los últimos diez años | 20% | |
Publicaciones | Artículos publicados en Nature and Science durante los últimos cinco años | 20% |
Artículos indexados en Science Citation Index y Social Sciences Citation Index | 20% | |
Tamaño de la institución | Rendimiento académico en relación al tamaño de la institución | 10% |
Los datos brutos utilizados por los autores del ranking siguen siendo confidenciales. Los propios creadores del ranking subrayan algunas de sus limitaciones, entre las que destaca el sesgo a favor de grandes instituciones como las de los países de habla inglesa , así como las dificultades para definir indicadores adecuados para clasificar a las universidades especializadas en ciencias sociales .
Las críticas a la clasificación se refieren principalmente a la elección de los criterios utilizados y al método de cálculo para mostrar su carácter arbitrario e irrelevante. En un artículo publicado en abril de 2009, JC. Billaut, D. Bouyssou y Ph. Vincke analizan el funcionamiento del ranking de Shanghai, con sus conocimientos como especialistas en el apoyo de decisiones multicriterio . De ahí surge una crítica muy bien argumentada a los criterios que se utilizan (que los autores califican de "irrelevantes" ), así como paradojas en el método utilizado, concluyendo los autores que "el ranking de Shanghai, a pesar de la gran cobertura mediática que recibe cada año, no es una herramienta relevante para juzgar la "calidad" de las instituciones académicas, orientar la elección de estudiantes o familias, o promover reformas del sistema de educación superior " .
Sobre el uso del número de premios Nobel para medir la calidad de la institución, el ranking cuenta el premio para la institución a la que pertenece su destinatario en el momento del anuncio del premio, pero esto se debe a un descubrimiento que puede ser muy antiguo y puede haber sido realizado en otra institución. La forma en que la clasificación da cuenta de los premios antiguos favorece a los países con un panorama académico muy estable e instituciones antiguas (en particular, se han discutido las afiliaciones de los ganadores del Premio Nobel franceses utilizadas para la clasificación). Finalmente, el ranking ignora (salvo en los rankings temáticos por materias) otros premios tan prestigiosos como el Premio Nobel, como el Premio Turing en informática o la Medalla Bruce en astronomía. Por lo tanto, el número de premios Nobel y medallas Fields en una institución parece medir viejas reputaciones y no nos permite estimar la calidad actual de la investigación o la enseñanza en esta institución. Por tanto, no podemos considerar que el ranking tenga en cuenta la calidad actual de la formación de los estudiantes.
En cuanto al criterio de los investigadores cuyo trabajo es "más citado" en un período de 10 años, el método utilizado no tiene suficientemente en cuenta la movilidad de los investigadores senior, que probablemente hayan cambiado de institución durante su carrera, y está distorsionado por la importante prejuicios culturales que afectan a las citas (los italianos citan a los italianos, etc.). Por lo tanto, este criterio solo mide de manera muy imperfecta la capacidad de una institución para producir actualmente investigación de alto impacto.
En cuanto a las publicaciones en Nature and Science , es la importancia otorgada a estas dos revistas por sí sola lo que ha sido criticado, al igual que el método de ponderación de los coautores.
Para todos los criterios relacionados con las publicaciones, conviene recordar que la correcta atribución de un artículo a una determinada institución es un ejercicio difícil ya que los autores no indican su afiliación de forma estandarizada en sus artículos. La elección de las bases de datos utilizadas favorece los artículos publicados en revistas internacionales y en el campo de las ciencias en detrimento de las ciencias humanas (los diseñadores de la clasificación buscan corregir este sesgo asignando un coeficiente de 2 a las publicaciones de humanidades y ciencias sociales) . El ranking cuenta el número total de artículos publicados sin ponderar esos artículos por su impacto. Además, no se contabilizan libros, capítulos de obras colectivas o incluso artículos de divulgación científica. En resumen, los críticos señalan que el criterio de publicación se basa en un enfoque restrictivo de la publicación científica.
El criterio de productividad toma en cuenta el número de equivalentes a tiempo completo del cuerpo académico de cada institución si se pudiera determinar. Para Francia, estos son los datos disponibles en datos abiertos en el sitio web del Ministerio de Educación Superior .
Los autores del estudio crítico resumen su valoración de la siguiente manera: “Los criterios se eligieron principalmente en base a la disponibilidad en Internet de información que les permita estar informados, que cada uno de ellos está vinculado de forma muy aproximada con lo que se supone que debe medir y que su evaluación involucra parámetros arbitrarios y microdecisiones indocumentadas. No se examina el impacto de estos elementos en el resultado final. Los datos iniciales utilizados no se hacen públicos y, por tanto, no pueden verificarse ” .
La mayoría de los criterios se obtienen contando precios o publicaciones, que favorecen a las grandes instituciones, por lo que “lo grande se hace hermoso ” . Philippe Mahrer explica que los países con muchas escuelas pequeñas o universidades están en desventaja en el ranking, así como las universidades, los centros de investigación o las escuelas que trabajan en red, como suele ser el caso en Europa. Este último punto es particularmente denunciado (y destacado) por el premio Nobel de física Albert Fert .
El caso particular de las ciencias humanasLas bases de datos utilizadas para el establecimiento de la lista de clasificación de revistas en todos los idiomas. En ciencias exactas , habiendo casi desaparecido las revistas en idiomas distintos del inglés, las revistas revisadas se publican, por tanto, de forma abrumadora en inglés, independientemente de su país de publicación (Norteamérica, Europa, Japón). Entre estos, la naturaleza y la ciencia se benefician en las ciencias exactas de una notoriedad inigualable. En humanidades y ciencias sociales , en cambio, la promoción del trabajo también se realiza en congresos o en revistas no anglosajonas, por múltiples motivos (coste, accesibilidad, relevancia, impacto, etc.). De hecho, la publicación de trabajos en ciencias humanas, por tanto, no se realiza principalmente en revistas internacionales en lengua inglesa y, como tal, es menos tenida en cuenta en esta clasificación. Para paliar esta falta de consideración de las ciencias humanas y sociales, la clasificación asigna un doble peso, en el recuento de publicaciones, a las publicaciones referenciadas en el Social Science Citation Index .
Otro tipo de crítica se refiere a la forma aparentemente arbitraria en la que se agregan las puntuaciones normalizadas de los diferentes criterios utilizando una suma ponderada para calcular un único índice, lo que permite la clasificación. A pesar de todo el rigor, la normalización de las puntuaciones cambia cada año sin que los pesos de los criterios se modifiquen en consecuencia. Billaut, Bouyssou y Vincke explican cómo esto demuestra que "los autores del ranking han caído en estas trampas elementales vinculadas a la estandarización" hasta el punto de "que no se puede concluir que mejorar en un criterio permita subir en el ranking" . El método de cálculo de la clasificación es tal que una institución débil en un criterio particular incluso tendría interés en ascender en la clasificación, de modo que una institución clasificada justo antes de ella mejore en este criterio.
Además, calcular el promedio ponderado de los criterios que representan la producción (los cinco primeros) y la productividad (el último) conduce necesariamente a un resultado sin sentido, como si estuviéramos tratando de calcular la riqueza de un país haciendo un promedio del PIB y el PIB per cápita. .
Los autores del ranking no definen qué es una universidad (hasta el punto de que el Collège de France , que no otorga ningún diploma, forma parte del ranking por un tiempo), ni qué es una "universidad de clase mundial" . Ignoran las limitaciones, muy diferentes de un país a otro, que pueden sufrir las instituciones, y los recursos que consumen (excepto el tamaño del “cuerpo académico”, pero solo si se conoce). No se discute el objetivo mismo de hacer tal clasificación, y se olvidan las buenas prácticas: las instituciones evaluadas no cuentan con los datos que les permitan comprender cómo fueron, y los autores no anticipan cómo las instituciones de quién pueden adaptar su comportamiento en respuesta a el sistema de evaluación. Por ejemplo, dado que las puntuaciones para la mayoría de los criterios de clasificación son sensibles al tamaño de la institución, formar una agrupación de instituciones podría hacer posible ascender automáticamente en la clasificación, sin cambiar la naturaleza o la calidad de la investigación (ver caso de Francia a continuación).
La influencia real del ranking de Shanghai en las elecciones de los estudiantes es tema de debate, aunque podría ser un criterio determinante para evaluar la relevancia de dicho ranking. Según Philippe Mahrer, director del Colegio de Ingenieros , este ranking tiene poca notoriedad en China, incluso entre los estudiantes. Al contrario, según la Embajada de Francia en China: "[este ranking] efectivamente encuentra un eco importante entre los estudiantes chinos, para quienes el prestigio de la universidad es determinante porque forma parte de los criterios de contratación profesional en China".
De hecho, el ranking es considerado sobre todo por las administraciones, los equipos docentes y los ministerios (que lo han convertido en un método de evaluación de las universidades) mientras que la orientación de los estudiantes, y en particular hacia las universidades de ciencias sociales, tiene en cuenta muchos factores, a menudo personal.
Francia tiene un puñado de universidades en el top 100 del ranking, alrededor de 20 en el top 500 y alrededor de 35 en el ranking completo, extendido a 1000 universidades desde el año 2018. Paris-Saclay ingresa al 14 ° sitio e en 2020.
Un premio Nobel obtenido por un profesor universitario francés puede valer la mitad del valor de un premio Nobel obtenido por un profesor universitario estadounidense o británico. De hecho, la investigación francesa se lleva a cabo generalmente en unidades de investigación mixtas que asocian a los académicos con el CNRS , el ranking de Shanghai atribuye el 50% de las ganancias a la universidad y el 50% al organismo del CNRS. Pero dado que el CNRS y otras organizaciones de investigación francesas no aparecen en el ranking de Shanghai, esto significa que "la mitad del precio beneficio no beneficia a nadie y se evapora por completo" ( Albert Fert ). Respecto al 60% de la nota, que depende del recuento de artículos y del número de citas, “el principio general es el mismo que para los precios. (…) En el caso de las publicaciones de un laboratorio universitario que asocie la universidad y una entidad como el CNRS, aproximadamente el 50% del beneficio generalmente se quedará en la universidad y el 50% se evaporará al no beneficiar a nadie ”. Este último punto concierne en particular a la lista de los investigadores más citados: es por eso que en 2019 una instrucción del Ministro de Educación Superior pide a los investigadores involucrados que corrijan este efecto mencionando como afiliación principal el sitio de la universidad que alberga su laboratorio.
Como la clasificación de un establecimiento es sensible a su tamaño, a menudo se ha deducido que una forma de ascender en la clasificación era agrupar los establecimientos, utilizando medios constantes.
Por lo tanto, este argumento de la clasificación ascendente suele aparecer en primer plano en las presentaciones relacionadas con las nuevas agrupaciones universitarias.
El ranking está muy publicitado en Francia, a diferencia de algunos países como Estados Unidos o Reino Unido, cuyos establecimientos están, sin embargo, muy bien clasificados, y empuja a Francia a tomar decisiones que van en contra del "espíritu" del servicio público ”, como el creación de agrupaciones universitarias a veces artificiales, en una lógica de competencia y racionalización económica, con el claro objetivo de ascender en los rankings, pero sin que los efectos de esta política sean inmediatamente detectables.
Ya en 2005, el ministro de Educación Nacional del gobierno de Dominique de Villepin , Gilles de Robien , declaró que “para enfrentar la competencia internacional [tenemos que] ascender en el ranking, [y así] volver a ser capaces de atraer a extranjeros talento " . En su carta de misión a Valérie Pécresse , entonces ministra de Educación Superior e Investigación , Nicolas Sarkozy exigió "la mejora del rango de nuestros establecimientos de educación superior en los rankings internacionales, con el objetivo de clasificar al menos a dos instituciones francesas entre las 20 y 10 mejores entre las 100 ” , lo que reafirmó diciendo que “ nuestro objetivo es tener diez universidades francesas entre las cien mejores de este ranking en 2012 ” (en 2012 eran tres; todavía eran cinco en 2020). La clasificación fue una de las principales motivaciones para la creación de los Polos de Investigación y Educación Superior (PRES). Valérie Pécresse , de hecho, justificó su influencia de la siguiente manera: “Cuando eligen su futura universidad, los estudiantes estadounidenses, australianos, chinos e indios miran este ranking. Es la globalización. No podemos evitarlo y, por tanto, debemos ganar plazas, lo que no es contrario al requisito de excelencia de la universidad francesa ” .
En 2013, durante una nueva publicación del ranking, la ministra de Educación Superior Geneviève Fioraso pareció indicar un cambio muy leve de perspectiva frente al ranking: "Sin descuidar los efectos de imagen y visibilidad que producen estos rankings, me enfoco más sobre el éxito de los estudiantes, la introducción del inglés para atraer extranjeros, el incentivo para incrementar la cooperación europea ”. Pero afirmó que "somos pastillas vistas desde Shanghai" para justificar los reagrupamientos de universidades.
En 2018, para el CEO de CNRS Antoine Petit , es necesario que la investigación francesa ofrezca investigadores estrella, porque “podemos decir que seguimos con este sistema de retribución [para los investigadores] pero luego hay que dejar de decir que vamos a ganar lugares en el ranking de Shanghai. Es lo uno o lo otro, nos toca a nosotros decidir ” .
La Universidad de Aix-Marsella fue creada en 2012 al fusionar las tres universidades de Marsella "para alcanzar el puesto 26 en el famoso ranking de Shanghai" según Valérie Pecresse, pero sin éxito. En 2020, el establecimiento Paris-Saclay , creado al reunir "el 13% del potencial de investigación francés" en una sola universidad con el objetivo muy claro incluido en el anexo al decreto de "estar entre las instituciones universitarias más grandes del mundo" , alcanzó el 14 º lugar.
Tráfico de publicaciones académicasEn una columna abierta, Yves Gingras señala que ciertas instituciones ofrecen a sus investigadores bonificaciones de publicación y está indignado de que ciertos investigadores estén monetizando afiliaciones falsas en instituciones que buscan ascender en la clasificación.
El ranking, del cual las universidades estadounidenses ocupan el primer lugar, se ha convertido en un elemento del poder blando estadounidense. Pero el ensayista Ryan Craig cree que las clasificaciones distraen a las universidades estadounidenses de sus estudiantes: “No verás nada sobre la calidad del aprendizaje, ni tampoco sobre el trabajo. Peor aún: todos los datos se manipulan fácilmente. Puede inflar artificialmente su grupo de candidatos para mejorar su índice de selectividad o su número de donantes ” .
El ranking es ignorado por los estudiantes chinos, que prefieren a los grandes anglosajones, pero ha tenido una influencia importante en la educación superior china, siendo el objetivo de los líderes chinos desde la década de 1990 elevar un sistema universitario inicialmente inspirado por los soviéticos a otro modelado. en los campus estadounidenses. De hecho, China avanza cada año en su propio ranking.
Las principales alternativas al ranking de Shanghái son los rankings de universidades mundiales de Times Higher Education (THE-WUR) y los rankings de universidades mundiales (o "ranking de universidades mundiales", QS WUR) (consulte el artículo Premios universitarios para más detalles) . La iniciativa U-Multirank fue lanzada por la Comisión Europea ante el riesgo de que el ranking de Shanghai marginara a las instituciones europeas, y busca ubicar a cada institución según cinco criterios principales: enseñanza y aprendizaje, investigación, transferencia de conocimiento, orientación internacional, y compromiso regional.