The first is the "ecological" crisis of physics as an academic discipline: the rate of production of new physics Ph.D.s has for some time greatly exceeded the rate at which professorial jobs for them arise. The classical Malthusian resolutions of such a dilemma are war, disease, emigration, misery and "vice", i.e., birth control. Physicists have not taken to slaughtering each other to secure faculty positions (outside of Dorothy Sucher's very amusing mystery novel, Dead Men Don't Give Seminars), nor are there many illnesses which reduce our numbers. There are deep institutional incentives which keep us from limiting our reproduction, but physicists who go into industry, as opposed to academia, do not train up new physicists in turn, so they are effectively sterile, and one might regard this as the analog of Malthusian vice.
But what about emigration? That would correspond to entering a new field, where there was less competition. But, once you have gotten all the way through a Ph.D. in one field, retraining yourself in another, starting from the basics, is a deep pain on many levels. (...) Much easier, emotionally and practically, to decide that the skills and ideas you have acquired, at so much cost, are actually just what's needed to make progress in the other field, the one which seems so attractive. In fact, if those ideas are fairly new ones, which seem very powerful and have been received with a lot of excitement in the field, it is very natural to want to push them even further, to see just how far they can go. ("Too much of a good thing is wonderful".) If they seem to succeed in the new area —either because they really work, or because the people applying them don't know enough about the area to recognize failure (as has been suggested) —then the usual processes of social learning will lead to more "emigration" into the new area. Thus, in part, the rise of "complex systems" within statistical physics, and the many conversations I recall with colleagues on the theme that the appropriate domain of physics was whatever could be studied using our methods, not just "matter and motion".
Incidentally, a very similar story could be told of the rise of "cultural studies" in literature departments: responding to over-crowding in the original problem-area by deciding that existing, but still newish and cool, tools and ideas should be applied over a much broader domain. Network analyses of super-heroes (1, 2) or of EuroVision are, as it were, our equivalent of the proverbial deconstructions of Batman. But one could argue that classical deconstruction itself was much more like string theory.
El palo que le pega a econofísica en durísimo, pero la mirada es más general y abarca otras cosas.
Ya dije varias veces que para mí el affaire Sokal no dice lo que nos dicen que dice, y que podemos buscar más de un ejemplo similar en las "ciencias serias" (los hermanos B., el paper del Nonlinear Analysis, Elin,...). En particular, el último párrafo es una buena deconstrucción del argumento de que las ciencias humanas y sociales son un verso de por sí, y presenta el verso como consecuencia del crecimiento de la población de científicos, junto al fenómeno de manada.
Uno podría creer ingenuamente que con más científicos se resolverán más problemas, pero la realidad es que se resolverán más rápido los problemas fáciles. Los problemas difíciles e importantes seguirán ahí esperando a los buenos científicos, que a su vez tendrán el camino más difícil, dada la competencia con el mayor número de científicos. Para "llegar" (entiéndase acceder a un cargo... rentado), tendrá que seguir a la manada, porque si se queda atrás puede olvidarse para siempre.
Si al cóctel le agregamos el publish and perish, las presiones institucionales para mostrar mejoras en los indicadores de producción ("cuando un índice se vuelve un objetivo, deja de ser un indicador", gracias Peste) -ya sea en patentes, publicaciones, número de alumnos aprobados, y varios etcéteras-, tenemos el fracaso asegurado.
Y ni hablar de aquel científico brillante, el que sí está condenado al éxito, pero que de pronto descubre que este juego es divertido y le gusta... es una baja doblemente importante.
¿Entonces? ¿Menos científicos es la solución? ¡Desde ya que no! Pero el ideal de menos chantas es difícil de alcanzar. Y como si fuera poco, cada día se observan más grupos tratando de chantas a los que no hacen los que ellos hacen (un poco la guerra entre strings y no-strings, que con menos virulencia se da entre otros campos también). Y desde ya, no voy a ser yo el que pida menos chantas, que alguna vez me seleccionaron un paper en la web de econofísica que linkeaba al principio...
De paso, y aunque no tiene mucho que ver con el tema, se que entre los bloggers que se dedican a la divulgación científica no estoy considerado de ciencias, y no me quieren mucho. Es más, hasta me han acusado de pseudo/anti/.../a-científico. Es lógico. Creo que este tipo de ideas (en parte negativas pero realistas) sobre cómo funciona la ciencia sólo se pueden adquirir desde adentro: viendo casos, escuchando y leyendo a colegas, participando en concursos (oposiciones, in spain), leyendo publicaciones científicas y no de divulgación, viéndose uno reflejado como en un espejo en determinados momentos, y muchos más etcéteras. Y ojo que esto es en relación a la ciencia de todos los días, sin necesidad de meternos en los fraudes y pequeñas miserias que -encima- están presentes por todos lados.
9 comentarios:
Excelente post. Con respecto a la mencion que haces de las String Wars, me parece que el parrafo que empieza "Uno podría creer ingenuamente que con más científicos..." es un buen resumen de los objetivos del libro de Smolin, que no eran tanto realmente acusar a los cuerdistas de chantas (un rol en el que lamentablemente parece haber quedado encasillado, aunque la verdad que se la busco) sino mas bien llamar la atencion sobre las consecuencias negativas del groupthink para los que quieren dedicarse a los problemas dificiles e importantes.
El post de Shalizi es verdaderamente excelente, de una lucidez enorme. Me parece que me voy a aficionar a este tipo.
Otro problema de la ciencia es el que ejemplifica (aunque siempre es de mala educación señalar) el siguiente trabajo
http://www.mathnet.or.kr/mathnet/thesis_file/09_06-034.pdf
que me llegó anteayer y tengo que recensar para Mathematical Reviews. Es una sucesión de resultados que se siguen trivialmente de las definiciones, relativos a un problema artificial y carente de toda motivación. ¿Qué hacer en esta situación?
Cuando has visto estas cosas, ya no puedes entenderte con algunos cuyos ojos nunca se han posado en un solo artículo de investigación (ni les parece que haga falta) y se imaginan que la ciencia es un cuento de hadas.
Lo más normal es que estos te llamen pseudocientífico ;)
Eso simplemente quiere decir que no te ajustas a sus preconcepciones puramente imaginarias, como por ejemplo
La estadística son numerajos a los que no hay que hacer tanto caso
que me han dicho a mí.
gracias alejandro, tendría que leer el libro de smolin, esa impresión la tenía por woit, con sus quejas de que la mayoría de cargos/financiación van para este tema.
pedro, te doy una mano y tenés el review hecho: "the author gives many results wich follows trivially from the definitions..." y podés traducir el resto solito.
Claro, si empezamos así, bien pueden cerrar la mitad de las revistas de matemáticas y reducir mucho la cantidad de páginas de la otra mitad. Y ni hablar de qué se hace con la gente.
Ayer con un amigo mirábamos un paper en una buena revista y llegamos a la conclusión de que si el autor no fuese X, jamás le hubiesen publicado eso ahí. Generalizar el problema a un caso un poco más interesante nos podría llevar una tarde, como mucho dos, y nos costaría el tiempo normal escribirlo y sentarnos a esperar que lo publiquen (por supuesto, en alguna revista de las que X es editor, para no caer en las de segunda línea).
¿cómo hacerle entender a alguien que eso está lejos de ser la excepción, y es más bien la regla a gente sin formación científica? pero peor aún, ¿qué consecuencias puede tener que lo entendieran?
Shalizi es muy bueno, de proba y estadística no te va a enseñar nada que no sepas, pero el enfoque físico que le da a las cosas es interesante aún para nosotros los matemáticos (por ej, este curso está muy bueno
http://www.stat.cmu.edu/~cshalizi/754/ ) otra cosa divertida son algunos de sus papers, tema que da para otro post
JP dixit:
¿cómo hacerle entender a alguien que eso está lejos de ser la excepción, y es más bien la regla a gente sin formación científica? pero peor aún, ¿qué consecuencias puede tener que lo entendieran?
El estado actual de las cosas es en gran medida consecuencia de usar indicadores cuantitativos para algo que es esencialmente cualitativo. Y, peor aun, de creer que estos indicadores miden algo realmente cuantificable. Una vez que estos indicadores (llámense índice de impacto de revistas, h-index, o lo que pitos fuera) se han hecho populares -y cada vez lo son más- la pendiente hacia abajo es inexorable.
Es razonable que si el trabajo de alguien -que por otra parte se ha entrenado durante toda su vida para hacerlo- depende de publicar mucho, hasta las ideas más elementales y las cuentas más rutinarias terminen apareciendo en letras de molde. En última instancia, la ciencia está hecha por seres humanos que necesitan (necesitamos) satisfacer determinadas necesidades materiales para subsistir.
Entre los matemáticos circula una broma prejuiciosa: Contratar un matemático es barato porque sólo necesita papel, lápiz y tacho de basura. Pero contratar un filósofo es más barato, porque le alcanza con papel y lápiz. Es lamentable, pero al menos los científicos "duros" ya estamos tirando los tachos.
JP: contestando a tu pregunta, sería primero muy bueno que lo entendiéramos nosotros y que actuáramos en consecuencia. Si logramos implantar la idea de que medir todo con estándares cuantitativos es nefasto, habremos ganado una buena batalla.
estoy de acuerdo, matías, y está claro que no es una medida fácil de implementar.
hoy estuve por postear un mail que recibí de una editorial (T&F) sobre cómo habían aumentado el IF de la mayoría de sus journals; se me ocurrió guglear la frase que ponían en el mail, sacando el nombre de la editorial, y me aparecieron páginas de otras editoriales hablando de lo mismo...
[desde ya que se 'todos aumentan' es como 'todo queda igual', y tampoco analizan por qué aumenta (¿más/menos páginas/artículos; autocitas inducidas...?), da para un post aparte todo eso]
Hola, no conocía el blog (gracias Peste). Respecto de la guerra de los cuerdistas, el articulo de Schorer contiene un punto de vista interesante.
Como bién dice tu post, el peligro es que la (natural) mediocridad de una comunidad hiperinflada ahogue a los tipos especiales, aquéllos capaces de aportar algo realmente nuevo. Imagino que si Newton hubiera tenido que ganar su cargo permanente en Cambridge del modo en el que se hace ahora, otra hubiera sido la historia.
Respecto de las medidas cuantitativas, supongo que tienen su valor si se las toma como lo que son, es decir meros indicadores de algo cuya existencia debe verificarse por separado. Un tipo con 5000 citas ciertamente merece atención, pero solo la necesaria para ver si esas citas se deben a algún aporte verdaderamente original, o solamente a saber seleccionar el tema de moda para la proxima publicación.
hola severian, un gusto verte por acá.
'manejar' los indicadores es cada vez más un arte. Para darte un ejemplo concreto, en estos momentos hay un concurso para jtp con media docena de profesores concursando, 20 doctores, y 20 doctorandos... para 12 cargos.
Si no se consideran nro. de publicaciones, citas, impact factor de las revistas, títulos, avance en el doctorado, el concurso se vuelve arbitrario: el jurado decide sin considerar ningún parámetro objetivo de quién debe entrar; si sólo se aplica una fórmula que mira estos factores, el jurado es innecesario (una planilla excel te da el orden con sólo cargar los datos de los candidatos). Una mirada global a todo eso, ponderando si más publicaciones compensan menos citas o el IF de un journal sería lo ideal, pero no es nada sencillo.
Una de las debilidades de nuestro país es que no nos gustan las responsabilidades. En los concursos académicos eso se manifiesta en que nadie quiere ser identificado con la decision que se toma. Por eso se hacen los ordenes de méritos de acuerdo a cierto indicador, que resalta al candidato seleccionado por sobre los demas. En otras palabras "yo no lo seleccioné, fueron los números" (algo asi como el conocido "yo no lo vote" en versión académica).
Lo ideal, a mi entender, sería que el llamado a concurso incluyera un perfil del candidato buscado, lo bastante definido como para orientar la busqueda. Luego los jurados harían un orden de mérito que no tendrían por qué justificar de ninguna manera, salvo firmando con su nombre y apellido al pié de una nota que diga que "de acuerdo a su leal saber y entender" esos son los candidatos adecuados.
Si de ese modo el cncurso lo gana un animal, quien lo elije compartira la responsabilidad de sus animaladas. Con los sistemas hoy imperantes, parece que nadie es el responsable salvo Excel (o Bill Gates).
En nuestro burocratiquísimo país un sistema purmente numérico no evita el acomodo sino que lo favorece. Hagamos como se hace en muchas universidades de muy buen nivel en otros países, un sistema donde quede claro desde el principio que se decide mas o menos a dedo, y donde quienes lo hacen deben rendir cuentas del desempeño de su candidato.
No sé, es solo una idea....
es cierto, severian, es más fácil contar papers (o citas, o if de las revistas) y lavarse las manos de una evaluación más meditada (con una fuerte componente subjetiva) sobre qué candidato debería ganarle a otro. Por otra parte, es bueno que al menos haya concursos. No sé vos en qué área andás, tampoco todas las facultades manejan igual las cosas.
Publicar un comentario