Entrevistamos a Mateo Valero, referente internacional en innovación, director de BSC, Doctor Ingeniero de Telecomunicación por la ETSIT, profesor y catedrático del Departamento de Arquitectura de Computadores de la UPC.
Fotos: BSC
Mucha gente cree que estamos viviendo un tiempo muy singular; podríamos decir que estamos ante un cambio de paradigma en la manera de vivir y relacionarnos, donde los avances tecnológicos tienen gran protagonismo… ¿Cómo se vive este proceso desde el campo científico?
Efectivamente, estamos viviendo un momento sin precedentes en la historia de la humanidad, marcado por una revolución tecnológica en la que las máquinas, el mundo de los datos y la inteligencia artificial están cambiando nuestra forma de ver y de interaccionar con todo lo que nos rodea, y están teniendo un impacto directo en nuestro día a día, en el mundo laboral, en la forma de investigar, en cómo nos relacionamos con nuestros seres queridos… Esta nueva situación nos plantea grandes desafíos y oportunidades que tenemos que ser capaces de gestionar correctamente para que este cambio de paradigma sirva para vivir más y mejor. Podríamos decir que estamos frente a una de las grandes revoluciones de la historia de la humanidad, si no la mayor.
“Estamos viviendo un momento sin precedentes en la historia de la humanidad, marcado por una revolución tecnológica en la que las máquinas, el mundo de los datos y la inteligencia artificial están cambiando nuestra forma de ver y de interaccionar con todo lo que nos rodea”
Todo empezó con el invento del transistor en 1947. Desde entonces, su proceso de fabricación ha permitido reducir su tamaño drásticamente, de forma que hoy en día tenemos chips que, en ocho centímetros cuadrados de silicio proveniente de la arena de las playas, contienen más de cien mil millones de transistores (del tamaño de cinco nanómetros por cada lado) y que conmutan a más de 2 GHz (más de dos mil millones de veces por segundo). Utilizando esta increíble tecnología como base, se han construido todo tipo de circuitos electrónicos (procesadores, aceleradores, memorias, redes de comunicaciones…) y una ingente cantidad de software que, juntos, han cambiado la sociedad de una manera no prevista. Cada poco tiempo se nos comunican resultados que nos sorprenden muchísimo hasta a las personas que nos dedicamos a ello. El transistor, sin duda, es la base de todo este cambio. Y nunca un instrumento cambió tanto el mundo en un tiempo tan corto. “La culpa no fue del chachachá, sino que fue del transistor.”
Y parte de esta revolución es posible gracias a los supercomputadores, que son los computadores más rápidos del mundo, construidos con millones de procesadores y aceleradores de muy alta velocidad y gran capacidad de memoria, conectados por una red de interconexión muy rápida que les permite intercambiar bits a muy alta velocidad y con una latencia reducida, de forma que pueden trabajar conjuntamente en la ejecución de un mismo programa, y así reducir drásticamente su tiempo de ejecución en comparación con el tiempo que necesitaría un único procesador. Estas capacidades de cálculo y sus enormes memorias asociadas están permitiendo a los supercomputadores el análisis masivo de datos para hacer frente a grandes retos de la sociedad, como la lucha contra el cambio climático, la búsqueda de nuevas fuentes de energía, de nuevos materiales y de nuevos fármacos contra el cáncer, o la explosión reciente de la inteligencia artificial. Los supercomputadores como el MareNostrum 5, que estamos instalando ahora en el Barcelona Supercomputing Center-Centro Nacional de Supercomputación (BSC-CNS), son instrumentos importantes que tienen la ciencia y la ingeniería para construir un mundo mejor. Son máquinas que permiten soñar a científicos e ingenieros, y resolver problemas que hasta hace poco les parecían imposibles.
Los avances tecnológicos asustan. La puesta a disposición de algunas aplicaciones que utilizan la inteligencia artificial y la popularización del ChatGPT son muestra de ello. ¿Cuál es su opinión al respecto y cómo nos podemos tranquilizar?
La inteligencia artificial no es nueva, sino que convive con nosotros desde hace ya varias décadas, aunque no ha sido hasta estos últimos años cuando ha irrumpido bruscamente gracias a un incremento sin precedentes de las capacidades de computación y el uso masivo de datos. Un ejemplo de la evolución de estos computadores cada vez más potentes y únicos es la saga Marenostrum en el BSC: uno de los miles de chips que formarán parte del nuevo supercomputador MareNostrum 5 tendrá menos de 10 cm2 de silicio, contendrá más de 100.000 millones de transistores en su interior y tendrá el doble de la potencia que tenía todo el supercomputador MareNostrum 1 que instalamos en 2005, que ocupaba toda la capilla de Torre Girona y que era el cuarto más rápido del mundo. Parece inverosímil, pero así ha avanzado, en este campo de la alta velocidad, el diseño de chips en menos de veinte años.
“Hoy en día, la investigación en inteligencia artificial, en particular el aprendizaje automático, está permitiendo dar saltos sin precedentes en campos tan diversos como la medicina, el acceso a la educación o a la formación, la seguridad en el transporte, etc.”
Hoy en día, la investigación en inteligencia artificial, en particular el aprendizaje automático, está permitiendo dar saltos sin precedentes en campos tan diversos como la medicina, el acceso a la educación o a la formación, la seguridad en el transporte, etc. Pero en paralelo a estas grandes oportunidades que nos brinda la inteligencia artificial, se nos plantean también grandes desafíos. El mismísimo Alan Turing, considerado como uno de los padres de la inteligencia artificial, se preguntaba en la década de 1950 si las máquinas podrían llegar a pensar y también por las cuestiones morales de la tecnología moderna. Un peligro al que nos enfrentamos, por ejemplo, es que la inteligencia artificial sea manejada por unas pocas empresas tecnológicas y sirva más al interés privado que al bien público. En estos momentos, es fundamental dotar a la sociedad de las herramientas que le permitan estar bien informada y formar parte del debate público necesario para regularizar el uso de estas nuevas tecnologías, y poder avanzar así hacia una sociedad más justa y democrática.
Su trayectoria en materia de supercomputación y en la configuración de grandes centros centralizados como el BSC-CNS lo convierte en una voz autorizada en este sector. ¿Cree que la investigación se seguirá realizando en centros de supercomputación centralizada o también veremos una descentralización de la supercomputación, aprovechando que las redes de nueva generación y que la miniaturización de chips y componentes lo permiten?
Esta pregunta es muy amplia y da lugar a extendernos en la respuesta. Los supercomputadores son únicos para ejecutar aplicaciones y programas que requieren gran cantidad de datos y de operaciones sobre esos datos. Para ir rápido, los cálculos se han de poder dividir en miles o millones de partes de forma que se puedan asignar a los diferentes procesadores para que colaboren todos en la ejecución del programa. Ahora bien, no basta con definir una aplicación por la cantidad de datos y por el número de operaciones que necesita. Otro parámetro muy importante es saber si la aplicación necesita que los diferentes procesadores deban intercambiar información entre ellos cada muy poco tiempo o no necesitan esa comunicación, es decir, los cálculos son independientes. Por ejemplo, hay un proyecto europeo, llamado Destination Earth, cuyo objetivo es hacer una simulación de la tierra, los mares, el aire y los polos, con mallas cuyos puntos están distanciados un kilómetro frente a los modelos actuales en los que las mallas tienen los puntos separados diez kilómetros. Este modelo requiere muchísimos datos para almacenar millones y millones de valores de presión, temperatura, velocidad del viento, humedad, etc., en cada uno de los miles de millones de puntos de las mallas necesarias para hacer los cálculos. Necesita ejecutar muchísimas operaciones, en función del número de puntos y de las variables de cada punto. Pero para que el modelo de simulación vaya rápido, los diferentes procesadores se han de comunicar datos cada muy poco tiempo. Es por eso por lo que los supercomputadores, además de tener muchos procesadores y memorias grandes, poseen una red de interconexión que permite esa rapidez extrema en la comunicación de los resultados parciales entre los procesadores. Esta aplicación necesita ser ejecutada en un supercomputador.
Ahora bien, hay otras aplicaciones, como algunas derivadas del acelerador de partículas del CERN (Conseil Européen pour la Recherche Nucléaire), que utilizan muchísimos datos generados en los choques entre partículas y sobre los que hay que hacer un ingente número de operaciones, pero con la particularidad de que estos cálculos son independientes y pueden ejecutarse en procesadores que no necesitan intercambiar resultados parciales. Estas aplicaciones pueden ser ejecutadas en procesadores que no están interconectados. En este tipo de aplicaciones, se estableció hace unos años el proyecto SETI (Search for ExtraTerrestrial Intelligence) de la Universidad de California en Berkeley, en el que los ciudadanos que lo quisieran podían ofrecer sus computadores personales para ser utilizados durante los muchos ratos libres para ejecutar gratis estas aplicaciones en lo que se denomina de paralelismo masivo. Y claro, en una ciudad como Barcelona hay más procesadores en las casas que en el MareNostrum, por lo que la capacidad de cálculo en las casas es mayor. También la memoria total es mayor en los domicilios. Sin embargo, si queremos ejecutar una aplicación como la del Destination Earth, la alta latencia en la comunicación asociada a internet hará que esa simulación no avance.
“No podemos permitirnos ni como país ni como sociedad dejar estas tecnologías en manos de empresas privadas extranjeras, ya que supondría una pérdida en la formación de talento que revertiría también sobre nuestras empresas y la generación de riqueza”
Otra parte de la pregunta es si vale la pena o no tener centros de supercomputación públicos como el BSC cuando hay centros privados como los de Alibaba, Amazon, Google o Microsoft que pueden llegar a ofrecer el mismo tipo de servicio. Hay tres respuestas a esa pregunta en favor de los centros públicos como el BSC. La primera es que el coste para hacer lo mismo es diez veces superior en los centros privados. La segunda es que hemos de tener en cuenta la privacidad de los datos (muchos de ellos muy sensibles, como los relativos a pacientes, por lo que no pueden moverse) y además son enormes cantidades, por lo que moverlos de un lugar a otro requiere mucho tiempo y una vez entregados a una compañía, quedas atado a ella. Pero la tercera respuesta, y más importante, es que estaríamos haciendo un flaco favor al país: pagaríamos más, no podríamos mover grandes cantidades de datos y, lo que es más importante, no podríamos formar a centenares de profesionales que hacen investigación o gestionan el supercomputador, y que, una vez ya formados, marchan a otros lugares para seguir con sus carreras de investigación o de gestión. Los centros de supercomputación, como el BSC, producen riqueza en España.
No podemos permitirnos ni como país ni como sociedad dejar estas tecnologías en manos de empresas privadas extranjeras, ya que supondría una pérdida en la formación de talento que revertiría también sobre nuestras empresas y la generación de riqueza. Muchos de esos profesionales vienen de otros países. En el caso del BSC, actualmente somos más de novecientas personas, casi el 40% pertenecientes a más de cincuenta países. Todo este conjunto de máquinas e investigadores consiguen también mucho dinero de las empresas y de Europa, que se reduciría sustancialmente si no tuviéramos el supercomputador.
Finalmente, quiero destacar que los supercomputadores evolucionan hacia sistemas cada vez más complejos y heterogéneos, donde los cálculos se descentralizan no espacialmente, sino dentro de un mismo supercomputador. Los supercomputadores tienen distintas partes especializadas en varias funciones, del mismo modo que el cerebro tiene distintas regiones, como el hipocampo para el aprendizaje y la memoria, o el hipotálamo para nuestras funciones vitales. Así, MareNostrum 5 tendrá distintas partes con hardware específico para cada aplicación, como por ejemplo una parte de propósito general para dar respuesta a las cuestiones más tradicionales de la ciencia, una parte de GPU que servirá para avanzar en modelos de inteligencia artificial, y otra parte de computación cuántica. Y en el futuro, los supercomputadores tendrán más procesadores especializados, como los neuromórficos y los de la computación cuántica. El motivo es intentar que las diferentes aplicaciones o partes de las aplicaciones se ejecuten en el mejor hardware posible con el objetivo de ahorrar energía y aumentar la velocidad de ejecución. Esta característica está presente desde hace varios años en los teléfonos móviles avanzados, que contienen varios procesadores dedicados a funciones específicas además de las de cálculo general, tales como las partes gráficas, de comunicaciones, de encriptado, etc.
La evolución tecnológica cobra su máximo exponente cuando permite mejorar la vida de las personas. Pero actualmente la implementación y el desarrollo tecnológico tienen dos caras: una que permite hacer el bien común y otra que facilita el abuso y la desigualdad. ¿En un futuro cercano tendría sentido pensar en delegar la vigilancia del cumplimiento ético y de buenas prácticas a los centros de supercomputación?
Los supercomputadores manejan grandes cantidades de datos y generan otros muchos. La inteligencia artificial también utiliza cantidades masivas de datos en sus modelos. Y dependiendo de la aplicación, pueden surgir problemas éticos si estas aplicaciones no han sido debidamente diseñadas. ¿De quién son los datos? ¿Cómo los adquirimos? ¿Cómo los usamos? ¿Cómo los protegemos? ¿Cómo damos los resultados y qué finalidad tienen? Hay diferentes casos. Por ejemplo, los modelos de cambio climático usan ingentes cantidades de datos que son públicos y los resultados que producen también lo son, y no hay ningún problema ético. Los problemas aparecen cuando los datos pertenecen a las personas, en particular los que se refieren a la intimidad y privacidad. Y ahí distinguiremos dos tipos amplios de aplicaciones: aquellas que buscan mejorar la sociedad, como las investigaciones orientadas a crear un gemelo digital del cuerpo humano, y aquellas que abusan de los datos personales, como las redes sociales. En el caso de la medicina de precisión, los proyectos tienen que pasar, además de una evaluación científica, un filtro potente de evaluación ética, realizado por estrictos comités éticos. Los datos que se usan deben ser anonimizados y los resultados deben validarse muy estrictamente de forma que sean éticos y legales. Resaltaré aquí que, desde mi punto de vista, la contribución más grande que han hecho a la ciencia la inteligencia artificial y los supercomputadores es la de predecir cómo se pliega una proteína a partir de su secuencia de aminoácidos. A partir de los resultados obtenidos por un equipo de Google, DeepFold ha permitido a más de 50.000 investigadores de todo el mundo empezar un nuevo tipo de investigaciones que permitirán avanzar significativamente el estado de la medicina. Por cierto, este problema era considerado merecedor del Premio Nobel, por lo que se da la paradoja de que investigadores de la computación, usando supercomputadores y la inteligencia artificial, pueden conseguir el Premio Nobel de Medicina, y lo mismo puede pasar en otras disciplinas como la Literatura.
“Resulta fundamental que la sociedad forme parte activa del debate necesario para el proceso de regulación de las tecnologías digitales, incluyendo la inteligencia artificial”
Por desgracia, no ocurre lo mismo con las redes sociales. Toman nuestros datos y los usan para hacer grandes negocios sugiriendo qué debemos comprar o a dónde tenemos que viajar y con quién. Y lo que es peor, con sus mensajes, muchos de ellos mentiras o bulos (fakes), quieren influir en nuestra forma de pensar, tal como ha ocurrido a la hora de votar en algunas elecciones en ciertos países. Estas redes nos han hecho sus esclavos sin que haya habido ninguna guerra. Negocian con nuestros datos y a nuestras espaldas. Facebook es el peor veneno que ha creado la humanidad. Estamos ante una situación muy grave. Y ahora surgen nuevos problemas de diversa índole con la aparición de softwares como el ChatGPT. Estas plataformas adquieren gratis todo tipo de información escrita, hablada y grabada en vídeos, y a partir de ella generan, sin ningún tipo de control ni conocimiento, resultados que pueden hacer un daño irreversible a la humanidad.
Así pues, resulta fundamental que la sociedad forme parte activa del debate necesario para el proceso de regulación de las tecnologías digitales, incluyendo la inteligencia artificial. Hay múltiples aristas de debate, desde las deep fakes y las noticias falsas, con la desinformación que ello conlleva y sus consecuencias en el sistema democrático, hasta el impacto en el terreno laboral. Los fines y los usos de la inteligencia artificial deben ser analizados por los ciudadanos, y para esto necesitan estar bien informados de las ventajas y los inconvenientes. Queda claro que hay muchos aspectos de las aplicaciones de los sistemas basados en la inteligencia artificial que están bien regulados y siguen procedimientos muy estrictos. Por otro lado, las redes sociales son un caballo de Troya que laminan los usos sociales y cambian los valores sociales de Europa en favor de otros que nos son ajenos y además han convertido en dependientes a grandes sectores de la población.
La computación cuántica está avanzando… ¿Nos puede explicar cuál es el estado actual y cuáles cree que serán las aplicaciones que tendrán un mayor impacto sobre las personas a nivel social?
Como hemos dado a entender anteriormente, la tecnología ha permitido reducir de forma constante el tamaño de los transistores desde su invención en 1947 hasta nuestros días. El primer microprocesador, el Intel 4004, diseñado en 1971, contenía 2.300 transistores con un tamaño de diez micras por lado. Hoy en día estamos haciendo circuitos en los que el tamaño de los transistores es de 3 nanómetros. Esto quiere decir que en la superficie que ocupaba uno de los transistores del Intel 4004 se pueden integrar hoy más de diez millones de transistores: increíble, pero cierto. Estos transistores cada vez más pequeños han permitido hacer supercomputadores que han superado la velocidad de 1018 operaciones por segundo sobre números reales codificados con 64 bits. Comparados con los computadores individuales de antes de la Segunda Guerra Mundial que construía Konrad Zuse en Alemania, los supercomputadores actuales son más de 1018 veces más rápidos. Y esa velocidad se consigue juntando más de un millón de procesadores en los actuales supercomputadores y haciendo que cada procesador individual vaya más de 1011 veces más rápido que los procesadores de Zuse.
“Hoy existen numerosos prototipos de ordenadores cuánticos, fabricados tanto en empresas como en grupos de investigación de todo el mundo”
Pero ocurren dos cosas: por una parte, estamos muy cerca de la posibilidad de hacer transistores más pequeños, y, por otra parte, que la velocidad de los supercomputadores no permite resolver en un tiempo razonable algunas aplicaciones críticas. En cuanto a la primera, no se cree que se puedan miniaturizar los transistores a un tamaño inferior a 1 nanómetro; es decir, donde hay hoy un transistor, se podrán integrar nueve. El número de átomos de silicio a esas dimensiones produce fenómenos cuánticos que prohíben el diseño de transistores estables.
Así pues, aparece la computación cuántica como posible solución. Es una investigación que avanza muy lentamente porque los problemas con los que se encuentra, especialmente de ingeniería, son muy complicados. Hoy existen numerosos prototipos de ordenadores cuánticos, fabricados tanto en empresas como en grupos de investigación de todo el mundo. En estos momentos hay diferentes tecnologías disponibles, que están en investigación para ver cuál será la mejor. Además, estos prototipos son imperfectos a pesar de que se está trabajando intensamente para desarrollar herramientas de corrección cuántica de errores. Todo esto limita los algoritmos cuánticos que se pueden utilizar, aunque la investigación es muy activa. Por ejemplo, se está estudiando si los ordenadores cuánticos podrán dar una ventaja computacional para entender mejor la química o la ciencia de los materiales, así como sus aplicaciones para resolver problemas matemáticos complejos, como los relacionados con algoritmos de inteligencia artificial. Lo que es importante es que el BSC tendrá dos computadores cuánticos conectados al MareNostrum 5 que permitirán desarrollar aplicaciones híbridas que se ejecutarán en parte en el computador tradicional y en parte en el cuántico.
Cada día tenemos un mundo más complejo. Usted que siempre ha hecho aportaciones y ha participado en el mundo de la educación, ¿considera que los programas educativos y la forma de educar desde el inicio hasta la especialización son adecuados, o habría que hacer reformas significativas?
Es fundamental adecuar la enseñanza al terreno laboral. En estos momentos hay una gran demanda y necesidad de captación de talento en campos de la ciencia y la ingeniería, con perfiles cada vez más especializados para los que muchas veces no hay formaciones específicas. En este sentido, desde el BSC estamos poniendo muchos esfuerzos para poder ayudar a las universidades en esta labor. Por ejemplo, estamos trabajando con universidades de toda España en el contexto del PERTE (Proyectos Estratégicos para la Recuperación y la Transformación Económica) Chip para el diseño de los futuros planes de estudios de grado en el diseño de chips, un campo estratégico y que requiere de un perfil de profesionales que hoy no tenemos. También lideramos en Europa el diseño y la puesta en marcha del currículum de máster europeo en computación de alto rendimiento (HPC) y sus aplicaciones, y hemos puesto en marcha un programa académico pionero para dotar a nuestros estudiantes de doctorado de las herramientas necesarias en supercomputación.
Además, también es importantísimo poner el foco en edades más tempranas, y sobre todo en las niñas para reducir la brecha de género. En 2018 pusimos en marcha en el BSC el programa “Somos Investigadoras”, gracias al cual en 2022 pasaron más de 8.000 estudiantes de primaria con la finalidad de despertar vocaciones científicas entre las más jóvenes y formar al profesorado de primaria en el pensamiento computacional.
¿Qué opinión le merece la colaboración entre el sector público y el privado y entre la universidad y la empresa en España?
Siempre digo que el lema del BSC es hacer ciencia excelente, publicando en las mejores revistas científicas del mundo, pero también relevante, es decir, que tenga un impacto real en la sociedad, mejorando nuestra forma de vida o facilitando el desarrollo tecnológico clave para el desarrollo económico y social. Creo que esta visión ha sido la clave del éxito del BSC, que ha pasado de tener menos de setenta trabajadores en 2004 a más de novecientos en julio de 2023, lo que era impensable cuando pusimos en marcha el centro.
La investigación genera riqueza, y en el BSC buscamos generar riqueza a varios niveles. El año pasado usamos casi 43 millones de euros de los proyectos activos que hemos conseguido en un ambiente competitivo para contratar investigadores y personal de servicio. Más del 80% de nuestra gente se paga gracias a los proyectos que conseguimos. Por una parte, tenemos importantes acuerdos con empresas líderes a nivel mundial, como Intel, IBM o Lenovo, así como con empresas españolas, como Repsol, Iberdrola, CaixaBank o SEAT. Para poner cifras, solo en 2022 la colaboración del BSC con estas empresas generó un retorno de cerca de diez millones de euros, cifras que están muy por encima de la media de los centros de investigación españoles. Por otra parte, con la finalidad de explotar en el mercado los conocimientos y las tecnologías que desarrollamos, hemos creado un total de once spin-offs, con un balance de treinta herramientas tecnológicas y patentes transferidas, más de 160 puestos de trabajo creados y 23 millones de euros recaudados en rondas de financiación en los últimos seis años. También me gustaría destacar que el BSC ha sido la tercera institución española en captar fondos europeos del programa H2020, por delante de cualquier universidad española o centro de investigación y en la mayoría de los casos con empresas, lo que demuestra su posición de liderazgo en captación de fondos competitivos, que en 2022 han representado más del 80% de su financiación total. Todas estas capacidades sitúan al BSC como un caso de éxito en el mapa no solo nacional, sino también internacional.
“Hemos creado un total de once spin-offs, con un balance de treinta herramientas tecnológicas y patentes transferidas, más de 160 puestos de trabajo creados y 23 millones de euros recaudados en rondas de financiación en los últimos seis años”
Más a nivel global, creo que la evolución de la colaboración universidad-empresa ha sido positiva en los últimos quince años. Ha crecido la contratación por parte de las empresas de servicios cientificotécnicos y proyectos de I+D en universidades y centros de investigación. También se han articulado los mecanismos para la generación de spin-offs como forma de transferencia de tecnología hacia el mercado, lo que es fundamental para incrementar el impacto social de los conocimientos producidos en las universidades y los centros de investigación, y la generación de riqueza. Dicho esto, queda todavía mucho camino por recorrer. Es importante, por ejemplo, que se incentiven entre el personal investigador las actividades de transferencia de tecnología, así como también estructuras profesionalizadas que pongan en contacto a nuestros investigadores con el sector empresarial.
El desconocimiento de la tecnología está generando una brecha digital entre generaciones y entre clases sociales. ¿Qué cree que se puede hacer para acelerar la formación e incrementar las competencias digitales y el conocimiento colectivo, en definitiva, para democratizar el conocimiento tecnológico y trasladarlo a la mayor parte posible de población?
La brecha digital es una realidad que se vio muy a las claras con la pandemia de covid-19, cuando gran parte de la población se vio obligada al uso de la tecnología para contactar con familiares y amigos y desempeñar sus trabajos o, a nivel educativo, cuando los estudiantes se vieron obligados a aprender en las mismas pantallas que utilizaban para seguir a sus influencers favoritos. Esta situación extrema hizo patente una brecha digital que ya existía y de la que ahora no hay vuelta atrás si la sociedad no hace un esfuerzo para eliminarla.
Hace unos pocos meses, la Fundación Española para la Ciencia y la Tecnología publicaba que, mientras que el 61% de la población española se muestra confiada en poder aprovechar las nuevas oportunidades digitales, prácticamente una de cada cinco personas no se siente capacitada para aprovechar las posibilidades que ofrece. Es necesario que los gobiernos y las empresas establezcan políticas que faciliten la educación digital y el acceso igualitario a la tecnología, hoy en día desigual en función de factores socioeconómicos, de género, generacionales o geográficos, entre otros, y que privan a una parte muy importante de la población de recursos esenciales para desarrollarse y generar riqueza. Nosotros proponemos formar en aspectos tecnológicos a profesores y alumnos de primaria y secundaria. También para nosotros es fundamental explicar en los medios de comunicación y otros canales la necesidad y la importancia de la investigación y del conocimiento tecnológico para avanzar hacia una sociedad más justa y mejor informada.
Insistiendo en estos aspectos de tipo social y de la configuración de un nuevo y mejor modelo de vida para las personas, ¿cree que la comunidad científica, con sus esfuerzos de divulgación, realiza aportaciones suficientes, o debería participar de alguna otra forma para humanizar la transformación digital?
En general, a la sociedad le interesa la ciencia y la tecnología, y este interés es creciente, aunque muchos de los que llamamos nativos digitales no entienden ni conocen lo que están usando. Deberíamos cambiar este concepto por el de ciudadano responsable en el mundo digital.
Este interés por la ciencia y la tecnología se refleja muy bien en el BSC. Nuestro centro acoge cada año más de 20.000 visitas de ciudadanos, asociaciones, colegios o empresas que se interesan por el superordenador MareNostrum y la ciencia que hacemos sobre cambio climático, medicina personalizada o ingeniería, o por cómo investigamos para construir los ordenadores del futuro. Por la capilla ya han pasado más de 300.000 personas desde el primer MareNostrum en 2004. Para los investigadores la divulgación científica es un reto y una obligación, sobre todo para aquellos que trabajamos con fondos públicos. Además, ¿cómo podemos pedirle a la sociedad que forme parte del debate sobre el uso de la inteligencia artificial si la comunidad científica no da herramientas al respecto? Para conseguir estos esfuerzos por parte de la comunidad científica, es importante que este tipo de actividades se reconozcan en los procesos de evaluación, sobre lo que se está avanzando en los últimos tiempos.
Conceptos como los de metaverso, la identidad digital soberana y las tecnologías digital twins (gemelos digitales) están apareciendo sin apenas marcos reguladores ni leyes. ¿Hace falta más celeridad en la legislación de la tecnología en España y Europa?
El metaverso y los gemelos digitales son apuestas para acelerar la investigación y también para cambiar nuestro concepto de realidad. La ciencia y el desarrollo tecnológico siempre han ido por delante de las leyes y la regulación, aunque la velocidad de los avances tecnológicos que estamos viviendo está haciendo aún más patente esta realidad. Aunque Europa y España están realizando importantes esfuerzos al respecto, como el Mercado Digital Europeo y el AI Act, entre otras iniciativas, creo que queda mucho camino por recorrer si queremos asegurar la soberanía tecnológica y al mismo tiempo no nos queremos quedar atrás en comparación con otros bloques económicos, y esto debería de ser una prioridad para todos.
Dicho esto, debería quedar claro que solo con la pura regulación de la tecnología, sin tener su propiedad o una cómoda soberanía tecnológica, nos quedaremos con el cuarto árbitro en un partido que Europa no jugará.
Estamos viendo y asistiendo a la eclosión y el crecimiento socioeconómico en zonas como el Sudeste Asiático o países como China, probablemente gracias a su gran desarrollo tecnológico. ¿Cree que Europa aún está a tiempo de no ser dependiente a nivel tecnológico de China y los Estados Unidos? ¿Europa tiene los recursos suficientes para competir a nivel tecnológico global?
He hablado antes del MareNostrum 5, que estamos instalando en estos momentos. Pues bien, ni este ni ningún supercomputador europeo tiene procesadores y aceleradores diseñados o construidos en Europa. Esta situación no debe continuar. Desde siempre, el BSC ha intentado empujar y convencer a Europa de que no nos podemos permitir esta dependencia tecnológica. Por ejemplo, los futuros coches autónomos basarán su autonomía, entre otras cosas, en la existencia de chips de muy alta velocidad. Europa ni los diseña ni los fabrica, por lo que vamos a estar totalmente vulnerables si no tenemos acceso a ellos. Poco a poco, el BSC ha convencido a la Unión Europea de cambiar esta situación.
Reducir la dependencia tecnológica de Europa frente a las compañías norteamericanas y asiáticas que dominan este mercado es uno de los objetivos estratégicos de la Comisión Europea, que a través de la iniciativa Chip Act busca posicionar a Europa en la producción de semiconductores. Europa dedicará 43.000 millones de euros a esta actividad. También España está haciendo importantes esfuerzos al respecto a través del PERTE Chip, de cuyo comité de expertos tengo el honor de formar parte. El gobierno de Pedro Sánchez, y en particular la vicepresidenta de Gobierno Nadia Calviño, apoyaron un plan, que el exsecretario de Estado Roberto Sánchez plasmó en la realidad, para dedicar 12.400 millones de euros en una iniciativa única en España en consonancia con la europea del Chip Act. Los chips dominan el mundo, por lo que confiar en tecnología extranjera para nuestras infraestructuras más trascendentales puede ser un problema desde un punto de vista geopolítico. Y no se trata solo de tener tecnología europea, sino también de garantizar que esta sea competitiva.
“Reducir la dependencia tecnológica de Europa frente a las compañías norteamericanas y asiáticas que dominan este mercado es uno de los objetivos estratégicos de la Comisión Europea, que a través de la iniciativa Chip Act busca posicionar a Europa en la producción de semiconductores”
Europa tiene que garantizar su soberanía tecnológica y para ello debe fabricar sus propios procesadores basados en hardware abierto. Sin ninguna duda, esto mejorará nuestra competitividad y nuestro rendimiento económico, pero además permitirá crear aplicaciones que se ajusten a los principios éticos, legales, socioeconómicos y culturales europeos. El proyecto de chip europeo, basado en el estándar de código abierto RISC-V que aplica la lógica del software libre al mundo de los microprocesadores, permitirá que podamos producir chips en Europa y que no dependamos de empresas americanas y asiáticas, que cobran más de cincuenta veces lo que vale desarrollarlos, además de la importancia geopolítica que esto comporta. El BSC es un referente europeo en el diseño de chips y juega un importante papel en proyectos europeos como el European Processor Initiative, cuyo objetivo es el diseño y desarrollo de microprocesadores europeos.
Para potenciar el diseño de chips en España, tengo un lema que voy anunciando y defendiendo en cada reunión que tenemos: “Sin universidades, no hay chips”. Y por ello tenemos una asociación en la que colaboramos 23 universidades españolas (abierta además a cualquier otra universidad europea o latinoamericana) para coordinar las enseñanzas relacionadas con el diseño de chips basados en la idea del RISC-V, que es un entorno abierto que define un juego de instrucciones que todo el mundo puede utilizar sin pagar royalties a nadie. RISC-V es en hardware lo que Linux fue en software. Con ambos conceptos, tenemos un espacio único y abierto para que todos, en especial los académicos, podamos colaborar en el diseño de software y hardware abierto. La verdad es que esto es increíble y era muy difícil de imaginar hace unos años. Si España produce buenos ingenieros en el diseño de chips basados en el RISC-V, se crearán muchas empresas nuevas y empresas extranjeras se instalarán en España para producir chips. Este fenómeno está pasando en la India y a mí me gustaría que mi querida Barcelona fuera la ciudad de diseño de chips, la design city europea.
No deberíamos acabar la entrevista sin que nos haga un resumen del Barcelona Supercomputing Center…
El Barcelona Supercomputing Center es el centro español de supercomputación. Como todo centro de supercomputación, posee computadores muy rápidos, supercomputadores, para dar servicio tanto a los investigadores externos como a los pertenecientes al BSC.
TODO EMPEZÓ EN TELECOMUNICACIÓN
En junio de 2023 hizo 49 años que acabé la carrera de ingeniero de Telecomunicación en Madrid, con 21 años, y me vine a Barcelona para firmar mi primer y único contrato con la Universitat Politècnica de Catalunya (UPC). Toda mi vida he sido profesor de la UPC a dedicación completa. Empecé a dar clases de telecos en la calle Baix de Sant Pere hasta que, en 1978, nos trasladamos al Campus Nord de la UPC, a unos barracones de uralita que se habían construido en tres meses.
NACE LA FACULTAD DE INFORMÁTICA
En abril de 1980 presenté mi tesis doctoral y tuve la suerte de encontrarme con el profesor Tomás Lang, chileno, doctor por Stanford, que había sido contratado por la recién creada Facultad de Informática. Me propuso un contrato y me fui a Informática. Durante los casi dos años que convivimos antes de que se volviera a ir, esta vez a UCLA, aprendí la base de la arquitectura de los computadores de altas prestaciones (la temática era nueva para mí, ya que esas asignaturas no se impartían en Teleco en Madrid) y la metodología para hacer investigación de alta calidad.
LIDERAZGO DEL DEPARTAMENTO DE ARQUITECTURA DE COMPUTADORES
Quedé como único profesor con dedicación total en el Departamento de Arquitectura de Computadores, si bien había cuatro más que trabajaban a tiempo completo en empresas y venían a impartir unas horas de clase. Al abrir el primer ciclo de la carrera de la Facultad, se empezaron a necesitar profesores. Empecé a contratar ingenieros de Telecomunicaciones, ya que no había informáticos, a los que también les dirigí las tesis doctorales. Y luego, a su vez, los nuevos doctores tenían sus doctorandos. En aquella época todos los doctorandos tenían ilusión por ser profesores de la UPC y además tenían plazas disponibles porque la Facultad crecía en número de alumnos: sobrepasamos los 2.000 en muy pocos años y necesitábamos muchos profesores. Empezaron a salir licenciados en Informática y comenzamos a contratar a los mejores. Por entonces, la UPC se estaba reorganizando en departamentos transversales a los centros, por lo que propuse que el Departamento de Arquitectura de Computadores diera clases en Informática y Telecomunicaciones. Fue una gran idea el tener profesores de ambas carreras.
EN BUSCA DE UN SISTEMA DE INVESTIGACIÓN SOSTENIBLE
Enseguida me di cuenta de que el sistema universitario no es escalable para favorecer la existencia de doctorandos que hagan sus tesis doctorales. Ya no teníamos ni un doctorando en promedio por cada doctor y, además, las plazas disponibles eran cada vez menos, ya que estábamos llegando a una saturación de alumnos. El Ministerio era incapaz de dotar sus proyectos con suficientes plazas para doctorandos. El sistema de la investigación no era sostenible.
Por ello pensé que deberíamos conectar con la sociedad, con las empresas, para poder obtener recursos que nos permitieran tener doctorandos para así poder seguir haciendo la investigación de élite en Arquitectura de Computadores. Conseguimos que empresas como Intel, IBM o Hewlett-Packard nos financiaran algunos becarios. Pero eso no bastaba.
EMPIEZA LA INVESTIGACIÓN DEL DISEÑO DE COMPUTADORES Y MULTIPROCESADORES
Al dedicarnos a investigar en el diseño de computadores, teníamos muy claro que la velocidad de cada procesador iba aumentando con el tiempo y que cada vez más se construían sistemas que contenían varios procesadores. Eran los sistemas multiprocesadores. Y en nuestro departamento, por esa mezcla de telecos e informáticos, sabíamos cómo se diseñaban y cómo se programaban. Por otra parte, en la UPC hay departamentos de Ingeniería que podían ser los usuarios de esas máquinas.
Dicho y hecho. En 1983 había ganado la cátedra y “como regalo” mis colegas me sugirieron “muy educadamente” que fuera decano de la Facultad de Informática, ya que “ya lo tenía todo hecho en la Universidad”.
UNA REALIDAD GRACIAS A LA COLABORACIÓN ENTRE INSTITUCIONES
En 1985 me planté en Madrid en el Ministerio de Industria, del que era titular Joan Majó. Le pedí diez millones de pesetas para comprar una máquina con 64 procesadores y me dijo que sí. Por otra parte, convencí al Gobierno de España, al Govern de la Generalitat y a la UPC para crear el primer centro de investigación español, centrado en los computadores paralelos. Y así se hizo, y fueron sus patrones. Se denominó CEPBA (Centro Europeo de Paralelismo de Barcelona) y fue todo un éxito. Se inauguró formalmente en 1991, aunque ya venía funcionando desde 1985. La entrada de España en la Unión Europea nos permitió conseguir proyectos muy competitivos y con ello dinero que servía para financiar proyectos y contratar doctorandos. Empezamos a esculpir nuestra máxima, que continúa siendo válida en el BSC: “La investigación debe ser excelente, pero sobre todo debe ser relevante”. El objetivo de la investigación debe ser resolver problemas de la sociedad, y con el BSC teníamos muy buenos doctorandos y colaborábamos con muchísimas empresas.
Un hito importante es que IBM nos propuso crear un centro conjunto que denominamos CIRI (CEPBA-IBM Research Institute). Funcionó durante el periodo 2000-2004 hasta que se creó el BSC. IBM nos ayudó muchísimo a que fuera una realidad.
El BSC es, pues, una continuación de la colaboración entre las tres instituciones que crearon el CEPBA hace más de treinta años. Y hoy día, la colaboración se ha prorrogado, gracias a acuerdos parlamentarios, hasta finales de 2029. Todo un récord de colaboración entre instituciones. El BSC es un lugar de encuentro y colaboración entre las instituciones y entre la investigación y la sociedad. Se creó para acoger 60 personas y en julio de 2021 superamos la barrera de los 900. Hacemos ciencia excelente y relevante, como lo explica el hecho de que el 80% de nuestra gente se pague con los proyectos que llegan de la Comunidad Europea, de las empresas y de las instituciones públicas. Solo hay 12 funcionarios, que son profesores de la UPC, y más del 35% proviene de 53 países.
Para más información: https://www.bsc.es