Bibliometria în discuție

de Andrei Marga

De aproape un deceniu s-au introdus și în România metode cantitative de evaluare a prestației în cercetarea științifică. Revistele și editurile sunt, fiecare, cotate și ierarhizate, iar performanțele autorilor sunt evaluate după efectivul de lucrări, locul în care au fost publicate, citări și alte criterii de acest fel. Sistemul a apărut în SUA, în contextul în care s-a trecut la noi organizări universitare – „universitatea antreprenorială” și „universitatea de cercetare științifică (research university)” – pe fondul chestionării competitivității și al trecerii la un nou management. China a contribuit la universalizarea sistemului elaborând „clasificarea Shanghai” a universităților, în vederea fundamentării politicii de avansare rapidă a universităților chineze printre cele mai performante din lume. Uniunea Europeană nu s-a putut sustrage tendinței, în pofida numeroaselor voci ce pretind elaborarea unui sistem propriu, european de evaluare a prestației în cercetarea științifică din universități și institute. În fiecare dintre țări se caută evaluarea cu ajutorul metodelor cantitative și aproape în fiecare universitate europeană  importantă întâlnim astăzi un soi de exasperare vis-a-vis de birocrația pe care sistemul o aduce cu sine.

Provenit din SUA și răspîndit cu ajutorul Chinei, sistemul se aplică mecanic în multe țări, ignorându-se două aspecte fundamentale. Pe de o parte, piețe universitare atât de uriașe precum cea americană și cea chineză au totdeauna capacitatea de a corecta în mod natural unilateralitățile fatale ale unui sistem de evaluare, oricare ar fi. Celelalte țări nu au această piață și nici nu pot face corecția în mod natural. Pe de altă parte, sensul sistemului în SUA și China este acela de a stimula cercetarea științifică cu consecințe tehnologice, înainte de toate, încât nu este vorba neapărat de evaluarea cercetării  în întreaga ei diversitate. Cine aplică sistemul fără conștiința sensului său ajunge la soluții mecanice.

Sistemul nu poate fi decât salutat în intențiile lui – aceea de a supune unei evaluări obiective prestația în cercetarea științifică și aceea de a scoate criteriile de evaluare în afara universităților și institutelor de cercetare, spre beneficiarii potențiali ai acestora. Numai că aceste intenții au fost contrabalansate, cum se văd bine lucrurile la noi, de o întreagă patologie a măsurării performanței. Mai multe maladii sunt deja perceptibile și răspândite. Bunăoară, publicarea a devenit scop în sine, încât nu mai contează, nici măcar în mult discutatele publicații ISI, contribuția în cunoaștere, ci publicarea caatare. Nu se înțelege că publici când ai ceva de comunicat – o soluție nouă la o problemă veritabilă. De pildă, sunt oameni care se bat cu pumnul în piept câte publicații ISI au, dar, între timp, industriile corespunzătoare domeniului respectiv s-au prăbușit sau nu au nevoie de articolele lor. Și în România se cumpără publicarea de articole. Adesea, se adaugă nume la autorii efectivi, pentru a le face acelor nume listă de publicații, sau pur și simplu se publică – așa cum spunea un recunoscut specialist clujean – considerații triviale. La noi, unii fac experimente, publică ceva date, le vând apoi în altă parte, unde există capacitatea prelucrării teoretice și se face consacrarea eventualei descoperiri.

Dar nu patologia publicațiilor, care este mult mai bogată, o discut din nou aici, ci principiul de la baza actualei măsurători a performanței în cercetarea științifică. Mă las stimulat de excelenta carte a lui Stefan Collini, What are Universities for? (Penguin Books, London, 2012), care întărește curentul european al căutării alternativei la evaluarea pur cantitativă a prestației științifice și, pe un plan mai larg, la actuala degradare a universităților labile. Aș menționa aici nu numai reacții devenite istorie, grație protestului studențimii europene, precum cea a lui Konrad Paul Liessmann (Theorie der Unbildung. Die Irrtümer der Wissensgesellschaft, 2006) sau cea a lui Richard Münch (Globale Eliten, lokale Autoritäten, 2009), ci și viziuni întregi, precum cea a Vaticanului (vezi Zenon Kardinal Grocholewski, Uberlegungen zur Standortbestimmung der Theologie im Bologna Prozess und im Europäischen Hochschulraum, 2010).

Cum argumentează Stefan Collini? Cunoscutul profesor de la Cambridge University formulează două contraargumente la adresa „metodei bibliometrice”, cum numește el măsurarea cantitativă a publicațiilor. Unul privește inadecvarea bibliometriei existente la domeniul științelor sociale și al umanioarelor, al doilea privește „daunele” pe care metoda bibliometrică la aduce vieții intelectuale. Să le detaliem.

In diferite universități și institute de cercetare se aplică o tabelizare complicată pentru a stabili valoarea unei cercetări întreprinse de cineva. Indiciile sunt eminamente cantitative. Incercarea care se face este aceea de a capta cumva chiar descoperirea științifică într-o abordare cantitativă. Efortul este de salutat câtă vreme există conștiința că metoda poate da accidente: de pildă, o descoperire s-ar putea să nu fie punctată la maximum, datorită citărilor puține, locului în care se publică etc., alte texte trecând înaintea ei, chiar dacă aduc prea puține cunoștințe noi. In fapt, se observă bine, persoane mediocre trec, în virtutea „metodei bibliometrice”, drept savanți, în vreme ce un descoperitor efectiv poate rămâne nesesizat.

Stefan Collini face însă o observație mai profundă. Diferitele grupuri de discipline, argumentează el, prestează diferite feluri de cunoștințe. De exemplu, științele experimentale aduc „descoperiri (new findings)”, în vreme ce științele socio-umane aduc „interpretări”. Publicațiile în acestea din urmă sunt adesea „expresia unei înțelegeri adâncite, pe care un anumit individ a dobândit-o citind mai mult, discutând și reflectând asupra unei probleme care a fost <cunoscută> într-un anumit sens de multe generații” (p.123). Bibliometria nu ia în seamă astfel de diferențe între prestațiile diferitelor științe, ci le asimilează pe toate, a priori, „descoperirii”. Stefan Collini ar fi putut face mai convingător argumentul său dacă ar fi înaintat pe terenul unei analize a tipurilor de cunoștință pe care le asigură științele (căci, alături de „descoperiri” și „interpretări”, mai sunt „soluțiile strategice”, pe care le oferă științele strategic-analitice, „recomandările de acțiune”, pe care le dau științele dramaturgice, „conștiința de sine”, pe care o prilejuiesc științele reflecției critice etc.) și a intereselor conducătoare de cunoaștere aferente. Argumentul său, al diferențierii inevitabile a tipurilor de cunoștință,  rămâne însă redutabil, de netrecut.

Stefan Collini interoghează, pe bună dreptate, obiectivitatea „metodei bibliometrice”. Ar fi salvator –  spune, la rândul său, profesorul englez – să dispunem de o metodă ce dă rezultate obiective, dar, din momentul în care nu se interesează de prestația cognitivă a diferitelor științe, această metodă nu poate fi socotită obiectivă. Ea provine dintr-un interes de a schimba finanțarea cercetării științifice și de a o pune pe aceasta în slujba unor scopuri ce țin de contextul politic. Impulsul este „financiar și managerial” (p.122). Pe nesimțite, această metodă face ca persoane insuficient calificate, care au capacitatea de a manipula „informații”, dar nu pe aceea de „a judeca (judge)” performanțe (p.125), să ajungă să-i evalueze pe cei calificați. Cu acest pas încep „daunele (harms)” pe care „metoda bibliometrică” actuală la aduce vieții intelectuale. Aceste „daune” continuă cu inducerea unui anumit „ethos, ce va avea un efect pernicios asupra altor judecăți pe care suntem chemați, în mod continuu, să le facem asupra vieții academice” (p.127).

Autorul oportunei cărți What are Universities for ? se întreabă de ce unii universitari și cercetători aplică conformist metoda bibliometrică actuală. El oferă trei explicații: unii nu cunosc disciplinele și nu-și dau seama de eroarea epistemologică în care se află, alții consideră că politicile universitare ale guvernelor viitoare vor favoriza  evaluarea cantitativistă a publicațiilor, iar alții se adaptează, dintr-un cras oportunism, situației. Dincoace de explicații, fapt este – argumentează Stefan Collini – că avem nevoie de o metodă de evaluare a performanțelor în cercetarea științifică care să fie capabilă nu numai să “măsoare (measure) rezultate, ci și să le „judece (judge)”.