Si el h-index no alcanza, y el JIF no anda bien (journal impact factor), podemos probar con el NIF (normalized impact factor), o el SNIF (simpliefied normalized impact factor)... en cualquier momento se demuestra que dado un investigador con un cierto número mínimo de papers y de citas, existe un índice (inventado o por inventar) que lo deja en el top de la lista de los líderes. Aquí, el SNIF.
Si dudan de que vamos a llegar a tener un índice por investigador, empiecen por leerse Assessing scientific research performance and impact with single indices: tienen el h, el g, el M, el R..., y muchas de sus variantes. Observen el simple truco de definir h(j), elevando a la j el número de citas, que ya nos garantiza infinitos.
2 comentarios:
Tengo dos cosas para comentar:
1) Como "hecha la ley, hecha la trampa", una vez que se comienza a usar un índice, todos saben qué conviene hacer para ascender en la escala. Lo que sugiero es que no se use siempre el mismo. Que se sortee antes de cada concurso, de cada pedido de promoción, de cada presentación a subsidios, qué índice se va a usar.
Incluso se puede hacer un sorteo por televisión, junto al de la lotería nacional. Eso además le daría una posición en los medios a la ciencia, la gente empezaría a ver la ciencia como algo más cercano, más palpable. Se puede también hacer que la gente apueste por qué índice va a salir, y con un porcentaje de la plata recaudada aumentar un poquito alguna beca. Ya me imagino los comentarios: "ciencia? Ah, sí, yo le puse jif a la cabeza y pagerank a los premios".
2) A toda la cientometría le está faltando un teorema de Arrow. Estoy empezando a sospechar que con 3 ó 4 axiomas con los que todos acordaríamos (por ejemplo, que si uno tiene más citas revista a revista, paper a paper, entonces salga más alto en el ranking, etc.) el único índice que los podría cumplir es uno constante.
1) dónde hay que firmar?
2) y si escribimos eso como un paper? en realidad, ya está demostrado, hay que asignar las cosas, y usar arrow de una!
Publicar un comentario