Hoe rankings ten onrechte het beleid van de RUG bepalen

Rankings van universiteiten zijn al langer populair in Amerika, maar ook bij Europese universiteiten, zoals de RUG, hebben ze in de afgelopen jaren gewonnen aan populariteit. Regelmatig verschijnt er weer een persbericht waarin geroemd wordt dat de RUG weer binnen de top 100 van een bepaalde ranking terecht is gekomen. Wij namen deze zogenaamd prestigieuze rankings onder de loep en kwamen tot de conclusie dat ze beslist geen voorwaarde zijn voor kwaliteit.

door Christine van der Veer

Op de site van de RUG worden ten minste tien verschillende rankings benoemd waar de RUG in voorkomt. Een van die rankings is de ‘Academic Ranking of World Universities’, de meest invloedrijke en meest stabiele lijst uit 2003 die ook wel de Shanghai ranking wordt genoemd. Hierbij staat de RUG op dit moment op plaats 72. De verklarende tekst bij de rankings luidt: ‘De RUG is er trots op tot de mondiale top te behoren met een top 100-klassering in onder andere de ‘Shanghai’ ARWU ranking en de World University Rankings’.

Maar is onze plaats op dergelijke lijstjes iets om trots op te zijn? In het kader van de gewenste internationalisering en het aantrekken van internationale studenten is het begrijpelijk dat de RUG zich goed wil profileren. Als je als student uit een ander land een universiteit kiest om voor een bepaalde periode te gaan studeren, dan kunnen deze rankings bepalend zijn.

Toch vragen wij ons ten zeerste af of het een goede ontwikkeling is dat deze internationale metingen als graadmeter gebruikt worden voor het kiezen van een universiteit. Wij zijn van mening dat juist de universiteit – als kritisch orgaan – niet zonder meer mee zou moeten gaan in deze trend van meten en becijferen.

Als Democratische Academie Groningen staan wij voor kwalitatieve waarden in het onderwijs. We denken daarom dat de RUG zich expliciet kritisch zou moeten opstellen ten opzichte van de rankings. Dit gebeurt nu te weinig.

Rankings als drijfveer

In haar beleid heeft ook de RUG te maken met de toenemende druk van rankings. Toegegeven: Sibrand Poppema, voorzitter van het College van Bestuur, heeft in een artikel in de Universiteitskrant bekend dat hij, net als wij, van mening is dat het belang van rankings nogal overgewaardeerd is. Jammer genoeg komt dit niet terug in bestuurlijke beslissingen.

Wanneer we kijken naar ontwikkelingen binnen de RUG kunnen we er niet onderuit dat het internationale systeem van rankings een belangrijke drijfveer is voor keuzes die gemaakt worden. De focus op internationalisering (denk bijvoorbeeld aan het Yantai-project) maar ook de toegenomen publicatiedruk voor onze onderzoekers zijn een rechtstreeks resultaat van de concurrentiestrijd met andere universiteiten.

Er lijkt een dubbele boodschap te zijn: in woord zijn de rankings niet belangrijk, maar ze spelen wel degelijk een belangrijke rol als onderliggende drijfveer van beslissingen. Frappant is dan ook dat in een nieuwsbericht op de site van de RUG over de herbenoeming van Poppema, de rankings worden aangehaald als indicatie dat het goed gaat met de universiteit.

De rankings zijn dus zogenaamd niet belangrijk, behalve wanneer het uitkomt. Wanneer deze drijfveer expliciet benoemd en onderuitgehaald zou worden, zouden ook andere ontwikkelingen binnen de universiteit kritisch onder de loep genomen kunnen worden.

Ten koste van pluraliteit en kwaliteit

Wat is er nou precies mis met de rankings? Ook al kan hun focus verschillen, ze hebben gemeenschappelijk dat ze hun scores uiteindelijk allemaal baseren op aantallen. Hierbij kan het gaan om publicaties, citaties, prijzen, geldstromen, onderzoekers, studenttevredenheid (in cijfers!) en  reputatie. Wij denken om verschillende redenen dat dit een gevaarlijke ontwikkeling is.

Allereerst gaan de metingen die gebruikt worden voor de rankings voorbij aan de waarde van de pluraliteit binnen de universiteit. De RUG heeft veel verschillende faculteiten en disciplines met allemaal hun eigen vormen van onderzoeken en lesgeven. Een student opleiden tot filosoof vereist volstrekt andere lesmiddelen – denk aan lesmethode, tijd, maar ook studentenaantallen – dan het bijbrengen van  tandheelkundige kennis.

In metingen waarbij voor alle studies dezelfde criteria gebruikt worden, wordt er volledig voorbij gegaan aan deze verschillen. Dit heeft tot gevolg dat de pluraliteit van de universiteit in het geding komt: alles wordt langs dezelfde meetlat gelegd. De kleine studies waar weinig ‘winst’ wordt gemaakt zullen al snel aan het kortste eind trekken.

Daarbij komt de focus op aantallen de kwaliteit van het onderzoek zeker niet ten goede. Een goede illustratie hiervan is de meting van het aantal publicaties, wat in vele rankings een criterium is. Wat gebeurt er wanneer een universiteit wordt afgerekend op het aantal publicaties? Juist, zij probeert onderzoekers te stimuleren zo snel en zoveel mogelijk te publiceren.

Onderzoekers worden als producenten behandeld: zolang ze maar genoeg ‘research output’ leveren, mogen ze blijven. Het wordt aantrekkelijk om veel – vaak ook soortgelijke – artikelen te publiceren, in plaats van een boek waar lang over nagedacht is en waarvoor iemand goed de diepte is ingedoken. Dat niemand blij wordt van het publiceren om het publiceren is evident: het werkt fraude in de hand, net zo goed als onnauwkeurigheid en herhaling.

Hetzelfde is het geval met citatiescores, die ook een belangrijk score-onderdeel van de rankings zijn. Het aantal keren dat een onderzoek aangehaald wordt zou borg moeten staan voor de kwaliteit van dat onderzoek. Wij denken echter dat dit bepaald niet zo hoeft te zijn. Er zijn uiteenlopende redenen waarom artikelen vaak aangehaald worden.

Misschien dat dit gebeurt omdat – ik noem maar wat – het zo slecht is, of omdat invloedrijke wetenschappers deals met elkaar hebben gesloten in de trant van ‘als jij mij citeert, citeer ik jou ook.’ Met enkel meten kun je dergelijke beweegredenen, die niks met kwaliteit te maken hebben, niet ondervangen. Er wordt waardering toegekend aan datgene waar de universiteit juist niet om zou moeten gaan: aan snelheid – en dus onnauwkeurigheid – en uiterlijkheden.

Een voorbeeld van wat er mis kan gaan is de ‘Times Higher Education Ranking’ van 2010. Op deze ranking behaalde de Universiteit van Alexandrië de 147ste plek. Hiermee eindigde zij boven de universiteiten van Delft, Rotterdam, Amsterdam en Groningen. Op het eerste gezicht een bewonderenswaardige prestatie, ware het niet dat na nader onderzoek bleek dat de hoge cijfers betreffende het aantal citaties vooral te danken was aan ene Mohamed El Naschie. Deze Egyptische ingenieur had 320 artikelen gepubliceerd in een tijdschrift waarvan hij zelf redacteur was.

Voor dergelijke voorvallen hoeven we niet eens zo ver te kijken. Ook Diederik Stapel, van Groningse bodem, zwichtte onder de druk om maar zoveel mogelijk te publiceren. Wanneer kwantiteit de eis is, is de verleiding groot om losjes om te springen met de inhoud. Hierbij is het te makkelijk, denken wij, om met de vinger naar deze onderzoekers te wijzen. Onmogelijke eisen die van bovenaf gesteld worden spelen dergelijke fraudezaken in de hand.

Onderwijs op één

Concluderend kunnen we stellen dat rankings ervoor zorgen dat universiteiten steeds meer éénheidsworst worden om maar bij te kunnen blijven. Daarnaast werken ze verkeerde prioriteiten in de hand. Universiteiten gaan meer investeren in marketing (goed voor de citatie- en reputatiescores), en minder in onderwijs.

Binnen de RUG is de post van een ‘Hoofd Internationale Strategie en Relaties’, die in 2016 in het leven is geroepen, hier een goede illustratie van. In de vacature hiervoor stond: ‘De kandidaat heeft een uitgesproken visie op hoe het internationale profiel en de zichtbaarheid van een top-100 universiteit kan worden vergroot.’

Geld dat op andere plekken goed gebruikt had kunnen worden, ging naar het spekken van iemand die de RUG nog beter op de kaart ging zetten. Sinds wanneer is internationale zichtbaarheid een vereiste voor een universiteit? Natuurlijk, het is belangrijk dat de universiteit een ‘universiteit van de wereld’ is, maar dat zou vooral moeten blijken uit dat wat er gedoceerd wordt. Kwaliteit vóór kwantiteit, inhoud vóór zichtbaarheid.

Wij, studenten van DAG, denken dat de focus op rankings ons onderwijs zeer zeker niet ten goede komt. We zijn erg blij dat Poppema het hierin met ons eens is, maar het blijkt nog niet uit het beleid van de RUG. De rankings blijven een – soms onzichtbare, maar belangrijke – drijfveer achter het handelen van de universiteit. De kritische houding van de RUG zou daarom niet alleen moeten blijken uit haar woorden, maar ook uit haar daden.

Christine van der Veer is afgestudeerd in Filosofie en Midden-Oostenstudies en huidig masterstudente geestelijke verzorging en filosofie. Namens DAG neemt zij deel aan de werkgroep ‘Waartoe is de Universiteit’.

 

One thought on “Hoe rankings ten onrechte het beleid van de RUG bepalen

  1. Pingback: DAG-leak: hooglerarenbrief ontleed | Democratische Academie Groningen

Reacties zijn gesloten.