25.1.09
23.1.09
1458.- A vos te va a gustar
-A vos te va a gustar esto, odd sex change punto com.
-Eh?? Y eso??
-Dale, entrá, vas a ver que tengo razón!
-Uh, buenísimo!
-Eh?? Y eso??
-Dale, entrá, vas a ver que tengo razón!
-Uh, buenísimo!
21.1.09
1457.- Lo que?
Copio del editorial de EPL:
Quo vadis EPL?
With effect of January 1st, 2007 "Europhysics Letters" was renamed, the new branding being "EPL". Along with this formal change went a new vision and definition for the aims of EPL over a time horizon of five years. These goals are i) to increase the number of submissions from 1387 articles in 2006 to over 3000 articles, ii) to decrease the acceptance rate for manuscripts from 46% in 2006 to about 33% and, allowing for a two-year delay, iii) to raise the impact factor from 2.2 in 2006 to 3.5 by increasing visibility and prestige.(...)
16.1.09
1456.- Dos cortitas
i.- Los papers de Paul Erdos online (vía God Plays Dice)
ii.- Academia.edu (bueno... eso: otra red social para armarle el grafo, medir los grados de cada uno, mirar los contactos, etc., con el extra de que cada nodo está pesado con la cantidad de papers que tiene)
ii.- Academia.edu (bueno... eso: otra red social para armarle el grafo, medir los grados de cada uno, mirar los contactos, etc., con el extra de que cada nodo está pesado con la cantidad de papers que tiene)
1455.- Dos por uno
Terence Tao escribió hace un mes este post sobre los test multiple choice (desde ahora, MC).
No veo nada criticable en su razonamiento, incluso alguna vez planeamos armar una página web que armara test aleatoriamente sobre ciertos temas para autoevaluarse, pero escuchamos un rotundo ¡no! Básicamente, el argumento es que los MC son caca, malo, y más variantes vacías de lo mismo...
* * *
Mi experiencia con los MC es limitada, rendí sólo dos exámenes de esos (¿alguno más en el secundario?, creo que no). Tampoco armé nunca un MC, y sólo en dos oportunidades tomé exámenes MC (armados por otros). En cambio, ví a profesores de otras disciplinas (sociales, económicas) utilizándolo como herramienta de corte: en sus cursos aprobaba un porcentaje prefijado, fácil de obtener a posteriori del examen (para que aprobara, digamos, el 75%, variaban el número de respuestas correctas que se pedían; o eliminaban las que todo el mundo contestaba bien/mal, y luego puntuaban las otras según la dificultad...) Pero ví a varios amigos -estudiantes de medicina- rendir decenas de estos exámenes, incluso con 80 ó 100 preguntas en una hora u hora y media, y me convencieron de que no era una forma tan mala de evaluar.
Claro, la pregunta en todo caso es ¿evaluar exactamente qué?
* * *
Creo que los exámenes MC son son como la ley del dos por uno.
La presunción de inocencia crea una paradoja respecto a la detención de alguien antes del juicio. Si es inocente, no debería estar detenido; si es culpable, sólo después de la sentencia se sabe cuánto tiempo debería estarlo. ¿Cómo mantenerlo preso, entonces, sin vulnerar sus derechos?
La herramienta que encontró el sistema es el dos por uno: el tiempo que uno está preso antes de la sentencia vale por dos, con lo cual se la cumple a cuenta, y por paga por anticipado, recibe un descuento. Ah, si era inocente... mala suerte, no queda como crédito a futuro.
[Se podría pensar que el tiempo descontado al culpable lo paga al inocente, lo cual es bastante desagradable, pero esto es así sólo si hay tantos inocentes como culpables detenidos y por plazos similares. En realidad, ambos casos revelan sólo los errores del sistema al demorar un juicio, ya sea al encarcelar un inocente, o al reducirle la condena al culpable.]
El MC para el buen alumno es similar al sistema judicial para un inocente: no tiene nada que ofrecerle si por azar marca el casillero equivocado (o es encarcelado). En cambio, al que no sabe, o al culpable, le puede dar una mano.
Ambos sistemas tienden a beneficiar al malo y castigar al bueno.
* * *
¿Qué podría evaluar entonces un MC, desde el que lo toma? Coincidimos en que no evalúa con exactitud los conocimientos de un alumno, ni el resultado es un indicador perfecto de sus capacidades: pero su mayor ventaja es que sí es un buen indicador al nivel de la población.
Dado cualquier problema, las respuestas correctas que obtengamos nos dan una buena muestra del conocimiento general (si la cantidad de alumnos es grande, claro, pero vía la estadística sabemos que 'grande' no es necesariamente 'miles', sino que bastan 'decentas' o, como mucho algunos 'cientos').
Tomar un problema a mil personas y que sólo un diez por ciento lo resuelva (digamos, con una en cuatro de resolverlo si elegían al azar) es un gran indicador de su dificultad. O de lo mal que está esa población, si el problema era tan elemental que esperábamos que todos supieran hacerlo (ej: área de un triángulo sencillo). No importan los individuos aislados que lo resuelvan ni los que no: globalmente, detectamos un problema sobre el que se debe trabajar. A la inversa, un problema resuelto mayoritariamente nos permite detectar un conocimiento común que se puede obviar.
Tao no mira este aspecto de los MC, que creo que es uno de los más valiosos desde el punto de vista del docente: es una herramienta eficaz y económica para evaluar grandes poblaciones.
No veo nada criticable en su razonamiento, incluso alguna vez planeamos armar una página web que armara test aleatoriamente sobre ciertos temas para autoevaluarse, pero escuchamos un rotundo ¡no! Básicamente, el argumento es que los MC son caca, malo, y más variantes vacías de lo mismo...
Mi experiencia con los MC es limitada, rendí sólo dos exámenes de esos (¿alguno más en el secundario?, creo que no). Tampoco armé nunca un MC, y sólo en dos oportunidades tomé exámenes MC (armados por otros). En cambio, ví a profesores de otras disciplinas (sociales, económicas) utilizándolo como herramienta de corte: en sus cursos aprobaba un porcentaje prefijado, fácil de obtener a posteriori del examen (para que aprobara, digamos, el 75%, variaban el número de respuestas correctas que se pedían; o eliminaban las que todo el mundo contestaba bien/mal, y luego puntuaban las otras según la dificultad...) Pero ví a varios amigos -estudiantes de medicina- rendir decenas de estos exámenes, incluso con 80 ó 100 preguntas en una hora u hora y media, y me convencieron de que no era una forma tan mala de evaluar.
Claro, la pregunta en todo caso es ¿evaluar exactamente qué?
Creo que los exámenes MC son son como la ley del dos por uno.
La presunción de inocencia crea una paradoja respecto a la detención de alguien antes del juicio. Si es inocente, no debería estar detenido; si es culpable, sólo después de la sentencia se sabe cuánto tiempo debería estarlo. ¿Cómo mantenerlo preso, entonces, sin vulnerar sus derechos?
La herramienta que encontró el sistema es el dos por uno: el tiempo que uno está preso antes de la sentencia vale por dos, con lo cual se la cumple a cuenta, y por paga por anticipado, recibe un descuento. Ah, si era inocente... mala suerte, no queda como crédito a futuro.
[Se podría pensar que el tiempo descontado al culpable lo paga al inocente, lo cual es bastante desagradable, pero esto es así sólo si hay tantos inocentes como culpables detenidos y por plazos similares. En realidad, ambos casos revelan sólo los errores del sistema al demorar un juicio, ya sea al encarcelar un inocente, o al reducirle la condena al culpable.]
El MC para el buen alumno es similar al sistema judicial para un inocente: no tiene nada que ofrecerle si por azar marca el casillero equivocado (o es encarcelado). En cambio, al que no sabe, o al culpable, le puede dar una mano.
Ambos sistemas tienden a beneficiar al malo y castigar al bueno.
¿Qué podría evaluar entonces un MC, desde el que lo toma? Coincidimos en que no evalúa con exactitud los conocimientos de un alumno, ni el resultado es un indicador perfecto de sus capacidades: pero su mayor ventaja es que sí es un buen indicador al nivel de la población.
Dado cualquier problema, las respuestas correctas que obtengamos nos dan una buena muestra del conocimiento general (si la cantidad de alumnos es grande, claro, pero vía la estadística sabemos que 'grande' no es necesariamente 'miles', sino que bastan 'decentas' o, como mucho algunos 'cientos').
Tomar un problema a mil personas y que sólo un diez por ciento lo resuelva (digamos, con una en cuatro de resolverlo si elegían al azar) es un gran indicador de su dificultad. O de lo mal que está esa población, si el problema era tan elemental que esperábamos que todos supieran hacerlo (ej: área de un triángulo sencillo). No importan los individuos aislados que lo resuelvan ni los que no: globalmente, detectamos un problema sobre el que se debe trabajar. A la inversa, un problema resuelto mayoritariamente nos permite detectar un conocimiento común que se puede obviar.
Tao no mira este aspecto de los MC, que creo que es uno de los más valiosos desde el punto de vista del docente: es una herramienta eficaz y económica para evaluar grandes poblaciones.
14.1.09
13.1.09
1453.- Comparando listas
Se me ocurrió ver si los ganadores del Premio Abel ganaron el Steele o no, y salvo los ganadores del año pasado (Thompson y Tits), los demás lo habían ganado. La razón, claro, es que el premio es para yanquis y/o gente que trabaja ahí.
Bueno, eso provoca ciertos fenómenos extraños...
* * *
Sir Michael Francis Atiyah e Isadore M. Singer ganaron el Abel en 2004.
Gracias a su teorema del índice, Atiyah-Singer suena como esos dúos tipo Ginger Rogers y Fred Astaire, Tom y Jerry, Calderón-Zygmund, o Fresco y Batata. De hecho, salvo "Tom y Jerry", google tira más resultados para Atiyah-Singer que para cualquiera de los otros. Incluso más que para Calderón-Zygmund, quién diría... [me avisa gente que sabe que A-S reconocían que Calderón había demostrado algunos casos particulares de su teorema del índice, eso puede justificar en parte]
Lo de "Tom y Jerry" no me extraña, estos dos le ganan también a "Cauchy-Riemann" (200 a 100 mil), pero pierden por el mismo margen contra "Cauchy-Schwarz" (300 a 200 mil). Razonable, "Cauchy-Schwarz" es demasiado básico, mientras que "Cauchy-Riemann" es complejo. "Tom y Jerry" es un digno puesto intermedio en dificultad, aunque no comprendo cómo "Starsky y Hutch" sólo tienen 50 mil, según este análisis deberían ser de posgrado... aunque buscando como "Starsky-Hutch" superan el millón.
* * *
Pseudo-estadísticas aparte, Sir Michael Francis Atiyah no ganó el Steele, pero Isadore M. Singer sí. Textualmente, se lo dieron en el año 2000 porque sus:
Reglas son reglas. Sir Michael, súbdito de la Corona, no puede recibir el premio de la ex-colonia, pese a que su h-index es el doble que el de Isadore, a que tiene el doble de publicaciones, y a que saca muchos más resultados si lo escolargugleamos. Nada grave, pero es curioso.
Bueno, eso provoca ciertos fenómenos extraños...
Sir Michael Francis Atiyah e Isadore M. Singer ganaron el Abel en 2004.
Gracias a su teorema del índice, Atiyah-Singer suena como esos dúos tipo Ginger Rogers y Fred Astaire, Tom y Jerry, Calderón-Zygmund, o Fresco y Batata. De hecho, salvo "Tom y Jerry", google tira más resultados para Atiyah-Singer que para cualquiera de los otros. Incluso más que para Calderón-Zygmund, quién diría... [me avisa gente que sabe que A-S reconocían que Calderón había demostrado algunos casos particulares de su teorema del índice, eso puede justificar en parte]
Lo de "Tom y Jerry" no me extraña, estos dos le ganan también a "Cauchy-Riemann" (200 a 100 mil), pero pierden por el mismo margen contra "Cauchy-Schwarz" (300 a 200 mil). Razonable, "Cauchy-Schwarz" es demasiado básico, mientras que "Cauchy-Riemann" es complejo. "Tom y Jerry" es un digno puesto intermedio en dificultad, aunque no comprendo cómo "Starsky y Hutch" sólo tienen 50 mil, según este análisis deberían ser de posgrado... aunque buscando como "Starsky-Hutch" superan el millón.
Pseudo-estadísticas aparte, Sir Michael Francis Atiyah no ganó el Steele, pero Isadore M. Singer sí. Textualmente, se lo dieron en el año 2000 porque sus:
five papers with Michael F. Atiyah on the Index Theorem for elliptic operators (which appeared in 1968-71) and his three papers with Atiyah and V.K. Patodi on the Index Theorem for manifolds with boundary (which appeared in 1975-76) are among the great classics of global analysis.
Reglas son reglas. Sir Michael, súbdito de la Corona, no puede recibir el premio de la ex-colonia, pese a que su h-index es el doble que el de Isadore, a que tiene el doble de publicaciones, y a que saca muchos más resultados si lo escolargugleamos. Nada grave, pero es curioso.
11.1.09
1452.- Caffarelli
Luis Caffarelli -matemático argentino radicado en Yanquilandia desde que se fue a hacer un postdoc hace una punta de años- obtuvo el premio Leroy P Steele de la AMS por Lifetime Achievement (hay dos versiones más, Mathematical Exposition y Seminal Contribution to Research).
La lista de ganadores anteriores impresiona, y permite -mejor que cualquier cosa que se diga- valorarlo. Vayan unos nombres como ejemplo: Artin, A Borel, Gelfand, Jacobson, Eilenberg, Fritz John, Lax, Saunders Mac Lane, Niremberg, Shimura, Tate, Weil, Zariski, Zygmund. Si incluímos los ganadores de las otras variantes, se agregan varios nenes: Calderón, Gromov, Knuth, Langlands,...
8.1.09
1451.- Fe de ratas (y de erratas)
Suscribirse a:
Entradas (Atom)