Destacada

Divulgamiento y Confinación – El Musical

Ayer fue Trivulgando, un evento de divulgación nacional que se nos va haciendo mayor. Por la situación actual, este año había una temática subyacente a todas las ponencias: la pandemia, y cómo esta ha influido en la sociedad, la ciencia y la divulgación.

Para poner la nota farandulera final, nos llamaron a Inma Pérez y un servidor, así que.. ¿qué mejor idea que hacer un recorrido por los diferentes aspectos de la Covid?

2020 ha sido muy especial. Y se merecía una canción. ¿O un musical?

Destacada

El P-Valor

En ciencia, la significación, o decir que algo es “Significativo” es un término mucho más preciso que en el lenguaje natural. Es una medida de la probabilidad de que un resultado sea por azar, y se utiliza constantemente para valorar los resultados de nuestros experimentos. Esta significación nos permite, por ejemplo, decir que un fármaco es más efectivo que el placebo, saber con seguridad que hemos detectado el bosón de Higgs, o decir que los carteros tienen un testículo sustancialmente más caliente que otro (si, no sabemos de donde salió la financiación, pero…).

Y para cuantificar la significación, nace el concepto de p-value, o «valor p» en castellano. Se trata de uno de los conceptos más utilizados en la ciencia moderna, a la vez que uno de los peor interpretados y entendidos. El p-valor cuantifica la probabilidad de que un resultado sea por azar. Si esta probabilidad es menor que un cierto umbral (normalmente 0.05), se considera que este resultado es «significativo», y por tanto se da por bueno.

Este procedimiento es justo el que se ha puesto en tela de juicio más de una vez, e incluso la prestigiosa revista Nature ha concluido que casi la mitad de los estudios que lo utilizan lo malinterpretan, abogando por intentar que progresivamente caiga en desuso.

Pero en la época de nuestro John Moretropier, era un campo recién explorado a manos de grandes matemáticos, primero de Fisher y luego Pearson, Neymann y muchos otros. Y dado su entusiasmo ante tamaño descubrimiento, escribió la siguiente oda a la significación estadística: el p-valor.

Mi Modelito Sabanero: Una oda a GPT-3

Ayer fue #CienciaPasión2020. Como #CienciaVisión, un escaparate del humor, la música y el amor por la ciencia a todos los niveles, a los que @InmaPToro y un servidor tuvieron a bien invitarnos. El objetivo: cantar una noticia del año. La nuestra: GPT-3

Pero antes, queremos agradecer de CORAZÓN a la peñita maravillosa que organizan todas estas MARAVILLAS de iniciativas y que nos llaman pa mamarrachear al compás: @bynzelman@maitecicleta@hayquehacerla@PutoMikel@Nebesu_@ConchiLillo@manolux4444@sassyscience_@garirius@Victagua (fijo que me dejo alguien)

Y ahora paso a comentar algo que me han preguntado en varias ocasiones: ¿De qué co**es va la letra de la canción? Este «modelito» sabanero no es otro que GPT-3, un modelo de deep learning para el lenguaje natural que desde su publicación ha revolucionado el campo. ¡Vamos por frases!

«Con mi burrito sabanero voy entrenando mi modelo,
red neuronal del lenguaje natural».

Son redes neuronales (una de las bases de la inteligencia artificial) especializadas en comprender y entender el lenguaje de los seres humanos -> el «lenguaje natural».

«Con tensorflow voy programando, el modelo voy compilando,
capa tras capa vi’apilando, el modelo voy compilando
GPT, GPT, se llama GPT-3″

Tensorflow es la librería más usada para programar redes neuronales. Aunque yo soy más de PyTorch. Pero a día de hoy es el estándar de programación y en producción. Casi todos los grandes avances se pueden encontrar preparados para Tensorflow.

En estos modelos de deep learning, las neuronas se estructuran por «capas», grupos de neuronas que se conectan con otras capas. En nuestro caso, palabras. Si las neuronas fueran alumnos que aprenden, las capas serían filas, como comentaba en Famelab.

Y GPT-3 es el sucesor de GPT-2 y 1, modelos de redes neuronales creados para modelar el lenguaje natural, basados en una arquitectura llamada «transformer». Y que fueron un bombazo por artículos como este, completamente escritos por una Int. Artificial.

«Libro tras libro descargando, la wikipedia escrapeando,
todas las palabras en vectores a la entrada y a la salida»

GPT-3 se entrenó utilizando millones de libros de dominio público, artículos científicos y la wikipedia al completo. Referencias: https://arxiv.org/abs/2005.14165

«Atención, atención, mecanismo de atención»

Imagen

La gran innovación de los transformers es el «mecanismo de atención», una herramienta que se construye en las redes neuronales, que permite a la red centrarse en unas entradas más que en otras, les presta más «atención».

El mecanismo de auto-atención (self-attention) se presentó en el paper «Attention is all you need», en el NeurIPS 2017, paper que, por cierto, también aparece en el vídeo: https://proceedings.neurips.cc/paper/2017/hash/3f5ee243547dee91fbd053c1c4a845aa-Abstract.html

«Tuki tuki tuki tuki,
tuki tuki tuki ta
ajusta bien el modelo que lo vamos a entrenar»

Tremendo cumbión. Pues eso, a preparar un modelo de red «tó polluo», que si no, no funciona.

«Tuki tuki tuki tuki,
tuki tuki tuki ta,
a ver si pasa el test de Turing, que lo vamos a petar»

El test de Turing es un test diseñado por Alan Turing, que permitiría decir cuando una máquina es inteligente. Esto sucedía en un entorno experimental en el que humanos interactuaban vía texto en conversación con otros humanos, o podría ser con máquinas. Si un ser humano era incapaz de discernir si estaba hablando con una máquina o con otro ser humano, se dice que ese algoritmo ha pasado el Test de Turing.

«Con mi burrito sabanero vi’entrenando mi transformer
En arXiv, en arXiv, puedes encontrarme allí
en github, en github puedes encontrarme allá»

http://arXiv.org es una web donde muchos científicos publican sus avances antes de enviarlos a revistas. Son conocidos como pre-prints, y aunque todavía no han pasado el proceso de revisión, es una forma muy rápida (y gratuita) de acceder al conocimiento que se está produciendo.

Y Github, pues eso.. @github Un servidor de Git, un sistema de control de versiones donde los desarrolladores de software centralizar el control de los cambios que hacen a su código. Allí están centralizados en «repositorios», lugares desde donde después se puede distribuir el código y contribuir a una ciencia más abierta.

«Muy pronto los veremos integraos en una aplicación
dentro del Office generando textos con gran precisión
y en robots, en robots, robots de conversación»

La aplicación directa: integrar los modelos para generar, aumentar productividad e interactúar con humanos. Ya hay modelos similares que se están implementando en aplicaciones como Photoshop para ayudar en la productividad de imagen. Y para el lenguaje natural, herramientas como DeepL translate ya tienen una gran difusión para traducir textos. Es sólo cuestión de tiempo que se integren en los paquetes de software más usados.

«Y con lo caro que se ha puesto el precio del kilovatio
y lo que gasta en entrenarlo, Endesa se está forrando.
GPU, GPU, la factura de la luz»

El consumo energético: ésta es la cara B de todo el boom del Deep Learning. El consumo de las GPU, o las unidades de procesamiento gráfico que se utilizan en redes neuronales es mucho más elevado que el de los procesadores normales. Se dice que entrenar GPT-3 consumió tanto como conducir un coche de la tierra a la luna, y volver.

«Perrea con Ada Lovelace, lo baila Alan Turing,
lo está bailando Hinton perreando a LeCun.
Perreamos tan a ritmo nos cargamos la ley de Moore»

Ada Lovelace (1815-1852) se considera la primera programadora de la historia. Fue hija del poeta inglés Lord Byron, y de la también matemática y activista social Anna Isabella Byron. Fue educada, entre otras, por la matemática Mary Somerville. Tuvo una buena relación con Charles Babbage, a quien ayudó a diseñar el funcionamiento teórico de la «máquina diferencial», describiendo en sus «Notas» con un lenguaje muy técnico cómo funcionaría esta máquina, distinguiendo con claridad los conceptos de datos y procesamiento. Pero para más datos, este hilo es genial:

De Alan Turing, poco se puede decir que no se haya dicho ya. Padre de la Inteligencia Artificial, descifró Enigma (la máquina de los Nazis) y fue condenado al ostracismo por su propio gobierno al descubrir su homosexualidad. Acabó suicidándose.

Por último, Hinton y LeCun son considerados «padres» de la explosión del deep learning.

Con esto, y un bizcocho… ¡A PERREAR, PERREAR LA INTELIGENCIA ARTIFICIAL!

Gracias a los que habéis llegado hasta aquí, y a los que habéis hecho posible esta canción, este hilo y esta alegría que llevo dentro desde #cienciapasion2020 !!!

Circuitos y Sistemas – El confinamiento

Este año impartía la segunda parte de la asignatura de Circuitos y Sistemas, en la E.T.S. de Ingeniería de Telecomunicación de la Universidad de Málaga. Dada la situación actual, con una pandemia y confinamiento mediante, no se podía realizar de modo presencial. Así que había dos opciones: conectarse a meet/zoom o generar contenido más elaborado en forma de vídeos docentes.

Al final (pobre ignorante) opté por esta segunda opción, para dejar que los alumnos y demás interesados pudieran acceder al contenido bajo demanda, y creé el canal de youtube UMA-CYS-GISE, acrónoimo de «Circuitos y Sistemas» – Grado en Ingeniería de Sistemas Electrónicos.

El resultado es una serie de vídeos cubriendo los temas que me habrían tocado en su momento, comenzando por el análisis de la respuesta en frecuencia de un circuito electrónico, y pasando por diferentes temas como los filtros de diferentes tipologías y órdenes, los diagramas de bode, implementaciones electrónicas y el análisis de cuadripolos.

El enlace a la lista completa está aquí:

LISTA DE REPRODUCCIÓN – TEMARIO

Podcast Efecto Moiré – Episodio 1

En el marco del programa de formación para docentes de la UMA, estoy haciendo un curso de edición de Video y Podcast para su uso docente. Como práctica, he preparado un programa de introducción a las redes neuronales, que se utilizará como introducción en la práctica 5 de la asignatura Tratamiento digital de Voz e Imagen, del grado de Ingeniero de Telecomunicación, especialidad en sistemas de telecomunicación.

Podéis escuchar el primer episodio, sobre las redes neuronales en el siguiente enlace:

Este es el enlace para descargar: https://www.ivoox.com/47414116. Pero os dejo el archivo para escuchar aquí:

Ir a descargar

Y también hemos preparado un vídeo inspiracional:

¡Las máquinas nos quitan el trabajo! (de nuevo)

Siempre es un placer que me inviten a saraos, pero ya que lo hagan como «invited speaker» son palabras mayores. Y eso es lo que me pidieron para el XX ENEM Granada. Que llegara y soltara una sarta de mis chominaicas. Y encima de las tablas, frente a cientos de estudiantes y post-estudiantes de matemáticas de todo el país.

¿Nervios? Muchísimos. Es un público muy exigente, al que le tenía que hablar de inteligencia artificial, una de las ramas más importantes de la aplicación de matemáticas, y puede que donde muchos encuentren trabajo en el futuro. Pero a la vez, apenas se pasa de puntillas durante la carrera, y según confirmé después, la mayor parte de lo que aprenden lo hacen por su cuenta.

¿El reto? Hablar de machine learning a gente que tiene unos conocimientos y una base de matemáticas significativamente superior a la mía. Pero también desde una perspectiva divulgativa.

No sé si lo conseguí o no. Lo mejor es que me llevo una experiencia nueva, me atreví con mates (que no me había dado por ahí), hice incluso simulaciones computacionales para visualizar las redes neuronales, y me lo pasé genial.

No puedo hacer otra cosa que agradecer a la organización, especialmente a Sara, por invitarme, por las fotos y por tratarme TAAAAN bien. A los asistentes, por su atención y por luego llenarme de preguntas, a las cuales a veces ni siquiera sabía yo responder (he hecho mis deberes después, así es como se aprende más). Y por invitarme a la cena, que ya sabéis como somos los músicos, vamos a los saraos por la comida na más.

Un proyecto teutón

Esta semana he llegado a Munich. Concretamente a la Ludwig-Maximilien Universität München, gracias a la convocatoria nacional de ayudas para la movilidad internacional de jóvenes investigadores «José Castillejo». Al margen de los problemas con la carrera científica en España, sólo puedo estar agradecido tanto al ministerio de Ciencia como -sobre todo- a mi grupo de investigación por haber conseguido esta ayuda para venir aquí a realizar un proyecto muy, pero que muy, interesante.

¡Oh! ¡Qué intriga! ¿Qué proyecto es? Pues, para volver al redil del Alzheimer, me vengo a Múnich porque es uno de los centros de referencia europeos de la Dominantly Inherited Alzheimer Network (DIAN), una iniciativa destinada a estudiar el Alzheimer hereditario. Al diferencia de lo que mucha gente cree, esta variedad de Alzheimer afecta tan solo a un 1%, pero sus efectos son devastadores. La afección se debe a ciertas variedades de los genes PSEN1, PSEN2 o APP que pasan de padres a hijos con un 50% de probabilidad, provocando que se desarrolle la enfermedad de Alzheimer muy temprano, entre los 30 y los 50 años. Podéis saber más sobre el Alzheimer hereditario en uno de los vídeos divulgativos de DIAN.

Y aquí estoy, dispuesto a aplicar todo lo aprendido durante estos años en uno de los análisis más complejos que voy a realizar, esta vez incluyendo datos de diferentes modalidades de imagen (PET-FDG, PET-PIB y MRI). Probaremos diferentes modelos convolucionales, residuales y otros tipos de arquitecturas de deep learning para tratar de encontrar una descomposición de los datos que permita una interpretación médica del progreso de la enfermedad.

¿Habrá suerte? Espero que sí. Solo queda trabajar.

La movilidad internacional y el sistema científico español

Hoy me han comunicado que gracias a un real decreto RDA/34097GROMENAGÜER, con el objetivo de favorecer la movilidad internacional, van a reducirme un 20% mi salario a partir del 4º mes que esté fuera. Siempre ayudando a la investigación. Así que me he puesto a escribir y me ha salido un hilo de twitter que reproduzco aquí:

Barber’s Science en la clausura de @GranadaCiencia

¡Pelotazo! Con apenas un mes de vida, Barber’s Science se codeó con los grandes de la divulgación en el evento de clausura de Granada, ciudad de la ciencia y la innovación. ¡Todo un grandísimo honor!

Pero empecemos por el principio. ¿Qué es @granadaciencia? En 2017 el ministerio ortorgó a la ciudad de Granada el nombramiento de “Ciudad de la Ciencia y la Innovación” por ser un referente de la investigación multidisciplinar. Para celebrarlo, el ayuntamiento, universidad, CSIC y demás instituciones científicas, elaboraron un programa de actividades de divulgación para compartir toda esta experiencia con la ciudadanía.

Ha sido un año lleno de actividades de divulgación, en la feria del libro, feria de la ciencia, charlas en el LemonRock, etc, con un grandísimo éxito. Y es aquí, justo cuando se clausura el curso y el ciclo de actividades, que nos llama Oscar (cómo no) para participar en el evento final. ¡Y nosotros ilusionadísimos!

Y pa muestra un botón:

Hicimos las tres obras de «John Moretropier» que habíamos preparado: Canción del Silicio, El enlace más fuerte y Mendeleiev. Personalmente me dejó muy buen sabor de boca, y pude conocer a auténticos referentes en la divulgación como el grandísimo Daniel Guirado!

Fue una tarde muy intensa y muy emocionante. Y aquí, algunas fotos, cortesía de @SaseAmaro:

Pint of Science Granada 2019

Era la primera vez para muchas cosas, y ha sido mágica. En primer lugar porque de un absurdo reto en twitter he montado un cuarteto de armonía vocal, o BarberShop Quartet que parece que está despegando a pasos agigantados. En segundo lugar porque era mi primera charla divulgativa de más de 15 minutos, y estaba muy nervioso por, entre otras cosas, pasarme o quedarme corto, o aburrir soberanamente al personal.

Comenzando la presentación

Parece que ninguno de mis temores se cumplió. Al parecer la charla gustó bastante, empezando con una estructura similar a mi primer monólogo en Famelab (el bueno), pero con mayor profundidad, con ayuda de imágenes, y explicando numerosas aplicaciones.. ¡E incluso hablando de arquitecturas más complejas como Autoencoders o GANs! En fin, desde aquí quiero agradecer muchísimo a todos los que asistieron, a los que vinieron a apoyar muy fuertemente (GRACIAS), y muy en especial a la organización de Pint of Science Granada, en especial a María, Óscar y Sara, extensible a todos los que lo hicieron posible.

Bebiendo agua como un cosaco para que se me pasara la bocaseca de los nervios. #bocasecaman

Y, pese al éxito individual que supuso la charla, y que me demostró que también soy capaz de estar hablando tres cuartos de hora de redes neuronales sin ser muy pelmazo, hay un punto que me picó ya la vena/ego artístico-farandulero: Barber’s Science.

Primero fue la canción del silicio. Luego, literalmente dada mi «afición a la farándula», María me pidió preparar algo para el intermedio. Mi primera opción fue llevar un piano y cantar esa y alguna otra canción absurdocientífica. Pero llevar un piano al Realejo esconde cierta imposibilidad logística que me hizo echarme atrás. Y recordé que uno de mis mayores sueños era cantar en un cuarteto Barbershop. Así que dije: «tengo un mes, ¿por qué no?». Y así se hizo. Gracias a Ángel, Diego y Alberto, que me siguieron en esta aventura, y que finalmente han hecho posible Barber’s Science, un nuevo proyecto de divulgación mediante la música, y que a día de hoy ya tiene varias actuaciones confirmadas. Todo un éxito y un placer poder juntar, por fin y ante el público, la música y la ciencia, algo que llevaba muchísimo tiempo queriendo hacer.

Y esto ha sido toda mi aventura en el Pint of Science. Algo maravilloso que recordar. GRACIAS.