Ideea factorului de impact i-a venit lui Eugene Garfield pentru a selecta revistele care să fie indexate în Genetic Citations Index, realizat în colaborare cu NIH, deoarece simplul număr al articolelor publicate era prea puțin relevant. Acest proces a fost generalizat mai tîrziu la Science Citations Index, pentru a selecta revistele care urmau să fie urmărite. Scopul acestor Index-uri era de a oferi cercetătorilor o imagine a ceea ce se știe despre un anume topic pornind de la un articol considerat fundamental și urmărind un arbore de citări. Începînd cu 1969 a început să apară și JCR (Journal Citation Report), care ierarhizează revistele după factorul de impact. folosit de biblioteci pentru a decide politica de abonamente. Cîtă vreme banii erau mulți și revistele puține și (relativ) ieftine nu au apărut probleme majore. În zilele noastre, însă, o dată cu tendința masivă de concentrare a revistelor științifice ( 3 mega corporații: Elsevier, Springer, Wiley controlează peste 42% din totalul titlurilor) prețurile la abonamente au explodat, grevînd drastic bugetele (și așa mutilate) ale bibliotecilor (iată un articol foarte bun pe această temă). Astfel între reviste a început o bătălie crîncenă pentru factorul de impact. Unele au acționat mai rudimentar, impunînd (uneori explicit) autorilor să citeze articole apărute în respectiva revistă, publicînd articole de sinteză care citează toate articolele apărute în precedenții  doi ani ( ex. Journal of Gerontology A cf. http://arxiv.org/abs/1010.0278-în semn de protest revista Folia Phoniatrica et Logopedica a publicat articolul disponibil aici care a crescut factorul de impact de la 0.66 la 1.44. ISI nu a apreciat gluma așa că revista a fost exclusă din JCR pe anii 2008 și 2009), sau mai rafinat: negocieri directe cu compania Thomson Scientific (care a cumpărat ISI de la Garfield în 1992)-reducînd numărul de articole „citabile” se reduce numitorul fracției, păstrînd numărătorul, deci crește factorul de impact (v. http://dx.crossref.org/10.1371%2Fjournal.pmed.0030291-editorii revistei PLoS Medicine au putut vedea cum factorul de impact a variat de la 3 la 11 ), articole de tip review sau istorice, cel mai flagrant caz fiind cel al articolului “A short history of SHELX,”care conține fraza cheie : “This paper could serve as a general literature citation when one or more of the open-source SHELX programs (and the Bruker AXS version SHELXTL) are employed in the course of a crystal-structure determination.” Astfel Acta Chrystallographica Section A, a ajuns pe locul 2 în JCR (la toate categoriile), respingerea de către editor (adică înainte de a fi trimise pentru referat) pe baza unor criterii care nu țin de valoare-cum ar fi cît de recente sînt articolele citate.  Asemenea exemple sînt considerate de suporterii ISI ca simple excepții (spre exemplu de Garfield) care nu viciază procesul de ierarhizare al revistelor. Evident la nivel individual, dacă un cercetător mai bun este depășit (la angajare, la obținerea unor contracte etc.), doar pentru că are articole în Progress in Crystal Growth and Characetrization  of Materials aflată pe locul 2 la categoria Cristalografie, în timp ce concurentul său mai slab are un articol în Acta Crystallographica A, este un lucru extrem de neplăcut.

Toate aceste „excepții” pălesc în fața revistei International Journal of Nonlinear Sciences and Numerical Simulations, care s-a aflat pe locul întîi al categoriei Applied Mathematics în anii 2006-2009 (și pe doi în 2005). Cum a reușit? Metodele au fost diverse :  citarea în Proceeding-uri de conferințe, organizate de editorul-șef Ji Huan-He (de la Univ. Donghua din Shanghai, fostă Institutul de Industrie Textilă), citarea în alte reviste la care He este editor, mai ales de revista Chaos, Solitons and Fractals. Aceasta din urmă (editată de Elsevier), fondată și condusă pînă în 2009 de Mohammed Al-Nashie, un bogat și foarte vanitos inginer egiptean, a aplicat aceeași rețetă pentru a ajunge pe locul I la secțiunea Mathematical Physics. Poate că aceste lucruri ar fi rămas mai puțin notorii dacă Al-Nashie nu s-ar fi apucat să acuze de nerespectarea priorității sale unii fizicieni (adevărați). În urma scandalului declanșat s-a văzut că El-Nashie și-a atribuit afilieri false (cea mai gogonată fiind Cambridge), a practicat auto-citarea și citarea încrucișată cu Ji Huan-He etc. Toate faptele lor fac obiectul unui blog: El-Nashie Watch (ultima ispravă este ideea lui el-Nashie să candideze la președinția Egiptului).  Scandalul fiind prea mare, Elsevier i-a făcut vînt lui el-Nashie de la CS&F, cele două reviste surori scăzînd în JCR pe anul 2010 (evident că nu au fost excluse -CS&F este o revistă decentă, dacă excludem el-nashiesmele).

Reacțiile la folosirea factorului de impact și a altor măsuri bibliometrice (precum h-indexul) la  clasificarea cercetătorilor, instituțiilor sau chiar a domeniilor nu au întîrziat să apară. mai întîi ca articole de opinie în reviste științifice (spre exemplu în British Medical Journal, Chronicle of Higher Education- disponibil aici, Notices of AMS, etc.) apoi în publicații maninstream (Wall Street Journal, etc.). Prima obiecție adusă factorului de impact este că nu respectă repartiția citărilor pe fiecare articol în parte. Astfel pentru prestigioasa revista Nature 25% din articole aduc 89% din citări și aceeași situație se repetă pentru toate revistele cu factor de impact mare. Prin urmare este cel puțin superficial să fie evaluat un articol (și implicit autorii săi) doar după factorul de impact al revistei în care a apărut. Aceste argumente au fost ignorate de factorii (politici și administrativi) de decizie, exemplele cele mai flagrante fiind Franța și România. Dacă pentru România anumite argumente pot fi invocate, cazul Franței este deosebit de rău: piticul Cinabru și forțele care îl susțin distrug unul dintre cele mai performante și în același timp echitabile sisteme de cercetare din lume cu unul controlat aproape total de puterea politică și birocrație (putem să-i spunem modelul românesc). Unul din aspectele centrale ale „reformei” franceze este introducerea criteriilor bibliometrice. Alte exemple se găsesc în articolul din CHE.

Asociațiile profesionale au luat și ele atitudine: organizați editorilor europeni de știință, Uniunea Matematică Internațională , Academia de Științe a Franței, etc. Raportul Academiei de Științe se axează pe corecta utilizare a datelor bibliometrice: acestea pot fi folosite pentru o triere inițială a postulanților ( pentru un post, grant etc.) deoarece evaluatorii sînt prea ocupați pentru a citi (de cele mai multe ori fără a fi plătiți) cu atenție sute de dosare conținînd poate mii de articole, însă în nici un caz nu pot fi folosite nici măcar pentru triere, la tinerii cercetători (cu mai puțin de 10-15  ani de experiență), iar pentru domeniul matematicii pure este recomandată folosirea unor baze de date alternative, se pare unice domeniului : Mathematical Reviews (realizată de Societatea Americană de Matematică) și Zentralblatt MATH (editată de analogul european).

În România ideile franceze se aplică la criteriile de eligibilitate pentru competițiile de granturi, faza de evaluare propriu-zisă fiind relativ puțin contaminată de bibliometrie (practic evaluatori dau note după propria lor opinie). Din păcate exemplele pozitive se opresc aici. Unul dintre principalii indicatori de succes este factorul de influență (un fel de factor de impact ponderat cu factorul de impact al revistelor care citează) al revistelor care publică rezultatele. De asemenea s-au elaborat criterii minimale pentru concursurile didactice. Spre deosebire de competițiile de granturi, aici elaborarea de criterii minimale bibliometrice arată doar lipsa de încredere în comisiile de concurs, dar și dorința de a perpetua totuși niște baronii universitare (este totuși destul de simplu să apelezi la evaluatori străini, cel puțin pentru partea științifică a dosarului, dacă tot apelăm la ei pentru contractele de cercetare).

 

Update: Niște luări de poziție foarte interesante și la comentariile din josul  articolului (destul de subțire) apărut în Observator Cultural.

Advertisements