università | ricerca

"Le università italiane bocciate da professori poco informati", di Alessandro Schiesaro

Davvero la migliore università italiana (Bologna, al 183° posto) vale un po’ meno, per restare in Europa, di quella irlandese di Cork e a stento scavalca Dundee? Così proclama la classifica delle 300 migliori università del mondo appena pubblicata da una società di consulenza internazionale, la QS, che si è messa in proprio dopo aver a lungo lavorato per il Times di Londra. Prendersela con le classifiche che non vanno bene è uno sport poco simpatico, e non c’è dubbio che anche questa fotografi in parte alcuni problemi reali del nostro sistema universitario.
Il 10% del punteggio, per esempio,
è attribuito sulla base del numero di studenti e docenti stranieri, entrambi punti dolenti per l’Italia, come ha messo in evidenza anche il recente rapporto Ocse: nessun ateneo italiano figura tra i primi 300 quanto a internazionalizzazione del corpo docente, e solo due, il Politecnico di Torino (260) e la Bocconi (270) vi rientrano per gli studenti. È altrettanto vero che la cultura della valutazione della ricerca è arrivata tardi in Italia e si sta diffondendo in modo diseguale, mentre in Paesi dove la valutazione è al centro dell’attività, da molto tempo gli atenei ragionano più spesso in termini di competizione globale.
Vale però la pena di capire meglio com’è costruita questa classifica, se non altro perché ormai i rankings creano una loro realtà virtuale e influenzano in qualche misura la mobilità studentesca, oltre che il morale di chi nelle università lavora e studia. Ben il 40% della valutazione QS è basata sulla “reputazione accademica” di ciascuna istituzione, misurata tramite un sondaggio in cui a studiosi prescelti tra gli abbonati a riviste scientifiche viene chiesto d’identificare le 10 università del proprio Paese e fino a 30 atenei stranieri che spiccano per l’attività di ricerca nei campi di specifica competenza. Il numero complessivo delle risposte, oltre 30mila, è sicuramente elevato, ma l’affidabilità del metodo è molto dubbia, anche perché QS ammette che la mediana di risposte ottenute in relazione a ciascun Paese è bassissima: la metà dei Paesi, 70 su 140, viene infatti valutata sulla base di non più di 27 questionari.
Il vero problema è che cosa i questionari riescono effettivamente a valutare: a meno di non volersi mettere a fare in proprio un lavoro immane, le risposte, specie quelle che riguardano gli atenei stranieri, sono inevitabilmente connotate da uno spettro di conoscenze limitato, che facilmente finisce per premiare i soliti noti (e bravi) al vertice, ma è assai poco affidabile se si pretende di mettere in fila una per una centinaia di università e decine di migliaia di docenti. Quanti professori se la sentono di attestare seriamente, anche solo per le proprie discipline, che l’ateneo X, in una certa disciplina, si merita il 25° posto nel mondo e non il 26°? Sempre a un questionario, rivolto ai datori di lavoro, viene affidato un altro 10% della valutazione. Anche se la Bocconi sale in questo caso al 15° posto e il Politecnico di Milano al 51°, i dubbi non vengono fugati dalla constatazione che tra i 16mila “employer” interpellati solo l’1,5% dichiara una competenza specifica sull’Italia, a fronte del 2,4% titolato a discutere del rapporto tra sistema universitario e mercato del lavoro in Kazakhstan.
Resta invece in ombra un altro criterio: quello dell’impatto della produzione scientifica indicato dal numero di citazioni. QS sostiene che il peso limitato attribuito a questo criterio, il 20%, di contro a quello reputazionale è perché gli indici di citazione favoriscono la ricerca in campo scientifico e penalizzano quella nei settori delle scienze umane e sociali. Verissimo, certo, com’è vero peraltro che il sondaggio è un’esclusiva QS mentre gli indici di citazione, quando non sono liberi, vengono elaborati da altre strutture, e sarebbe difficile rivenderli come merce propria: la classifica di Shanghai, peraltro, opera su indici bibliometrici parametrati alla grandezza dell’istituzione, offrendo risultati meno impressionistici.
Il rischio principale di classifiche metodologicamente discutibili è soprattutto quello di minare la credibilità della valutazione, rischio tanto più grave in un Paese come l’Italia che, si è detto, alla valutazione si affaccia in ritardo e con notevole scetticismo. È quindi bene non confondere operazioni sostanzialmente divulgative con la vera valutazione della ricerca, quella sì laboriosa e costosa, ma anche ben diversamente affidabile. È quella che si fa da molti anni, per esempio, in Gran Bretagna, e cui ora attende l’Anvur. Solo da questo tipo di analisi si possono ricavare indicazioni tarate sul piano metodologico e quindi davvero significative.

Il SOle 24 Ore 09.09.11