“El HPC y la simulación numérica deberían ser una política de Estado”

Antonio Russo, ex CPA-CONICET del CCAD, analiza las implicancias para nuestro país de tener un desarrollo deficiente y centralizado, en materia de supercomputación.

Recientemente, Chile anunció la creación de un nuevo Laboratorio Nacional de Supercomputación que integra a 44 instituciones científicas y académicas del país hermano. Esta es una muy buena oportunidad, no sólo para celebrar el ingreso de un país Latinoamericano al mundo de la supercomputación a gran escala, sino también para preguntarse por qué Argentina no tiene algo similar ¿De qué nos estamos perdiendo?, ¿cuál es la importancia de este tipo de sistemas?
Hace algún tiempo, un grupo de integrantes del Centro de Computación de Alto Desempeño (CCAD, UNC), encabezado por Antonio Russo, propuso crear una red semejante a la que se inaugurará en Chile, llamada Centro Federal Argentino de Supercomputación (CFAS). Lamentablemente, la iniciativa nunca llegó a materializarse y, en la actualidad, Antonio -quien se había repatriado- partió a tierras Europeas para trabajar como Especialista en Sistemas de HPC dentro de la Ecole Polytechnique Fédérale de Lausanne (EPFL), en Suiza. A raíz de esta noticia, conversamos con él acerca de las implicancias para nuestro país de tener un desarrollo deficiente y centralizado, en materia de supercomputación.

– ¿En qué consistía el proyecto CFAS?
– Nuestra idea era crear un gran centro de supercomputación en Córdoba y 4 o 5 medianos, diseminados por todo el territorio nacional que funcionaran como una red, con una misma estructura y con compras unificadas. Además esto permitiría aprovechar la rotación de las máquinas. Por ejemplo, cuando el centro más grande renovara una máquina a los 3 años de haberla adquirido para no perder competitividad, se podría dividir esa máquina aún vigente y con potencia de cálculo, en otras más pequeñas para los centros de proximidad. De esta manera se completaría su vida útil que es de unos 5 años, o sea, podría usarse durante dos años más.

– ¿Por qué lo pensaron como una red y no como un gran centro que condensara todo?
– En gran medida lo que se buscaba solucionar era la necesidad de trasladarse físicamente a un centro cualquiera, en un país tan extenso. Para que eso no ocurra, la gente debería poder conectarse desde diferentes lugares. El tema es que existe un gran problema de conectividad en Argentina y desde Chaco, por ejemplo, no sería fácil conectarse con un centro de Córdoba. Entonces la solución que habíamos diseñado era tener un gran centro en Córdoba, nacional, que pueda hacer simulaciones a gran escala al que se pudiera acceder cuando se necesitara mucha potencia de cálculo. Ahora, en el proceso de simulación numérica, los científicos van preparando sus códigos, van ejecutando trabajos que requieren menor potencia de cálculo y van probando; cuando están listos ejecutan los trabajos de simulación más grande que casi siempre dan origen a una publicación científica o, en el mejor de los casos, a una patente. Es decir que al lado de grandes supercomputadoras, es necesario tener clusters medianos locales, en diferentes lugares, para que estén más cerca de los diversos usuarios. De esta manera podrían no sólo acceder a una capacidad de cálculo determinada, sino también tener contacto con los ingenieros que administran esas máquinas y obtener soporte específico y de calidad. Lamentablemente no se hizo.

– ¿Por qué en Córdoba y no, por ejemplo, en Buenos Aires, donde ya hay quizás, una mayor infraestructura?
– Creo que uno de los principales problemas que tiene Argentina en todo sentido es que no hemos sabido ejercer el federalismo, y esto buscaba equilibrar un poco la balanza. Si uno mira a donde están todos los grandes laboratorios, los grandes centros de investigación y los clusters de cálculo, en nuestro país, actualmente, está todo en Buenos Aires -o AMBA, más precisamente-. A excepción de Córdoba que, un poco, balancea la cosa. Esto no es así en todos lados: hay Estados Federales que funcionan bien y eso está en la base de la discusión. Para dar un ejemplo, en Suiza, donde vivo actualmente, el único motivo por el que tengo que ir a Berna, la capital, es para ir a la Embajada Argentina. En Córdoba, o en cualquier otra provincia del país, tenemos que pasar sistemáticamente por la capital: para pedir subsidios de investigación, para aprobar los proyectos, etc. Yo creo que hay que ejercer el federalismo y una buena manera de hacerlo es descentralizar funciones por todas las provincias. En el caso de Suiza, por ejemplo, sus dos principales Centros de Súper Cálculo se ubican en dos cantones latinos, el de Ticino y el de Vaud, en vez de estar en la capital o en Zurich que es la ciudad mas importante. La supercomputadora mas potente del mundo no se encuentra ni en el estado de New York ni en el estado de California sino en Tennessee. Creo que son buenas prácticas a imitar.

– Más allá de este punto que señalás, ¿cómo es el estado de la supercomputación en Argentina?
Somos el único país del G20 que no tiene computación de Alto Desempeño; porque no hay una sola máquina digna de ese nombre. Si sumamos toda la potencia de cálculo que hoy tenemos instalada en todos los centros del país, no llegamos ni a un tercio de la potencia de la última máquina del TOP500.
Hay que destacar que los profesionales argentinos son de primer nivel, hacen milagros con muy pocos recursos, o sea que cuando a algún gobierno se le ocurra invertir en este tipo de tecnologías, vamos a ser líderes mundiales, porque tenemos gente ultra-capacitada. Pero hasta ahora los gobiernos, de todos los colores políticos, no han puesto nunca un centavo en esto.

– ¿Qué consecuencias tiene esto en el Sistema de Ciencia y Tecnología de Argentina?
– El principal problema que trae aparejado es que los investigadores tienen que apoyarse, muchas veces, en la capacidad de cálculo de otros países. Pero eso trae otro inconveniente: las investigaciones de estos investigadores que están simulando afuera, se orientan a temas que les interesan a estos países. Están investigando sobre temas que importan muy poco a la sociedad argentina; no son temas prioritarios para nuestro desarrollo como país. Y eso hay que entenderlo, la ciencia y la tecnología están íntimamente ligadas al desarrollo económico y social de un país. Argentina es un país que, hoy por hoy, termina investigando gratis para países desarrollados. Podemos seguir con ese modelo o construir un modelo soberano, autónomo y que nos permita desarrollarnos, para lo cual deberían empezar a hacerse las cosas de otra manera e invertir en capacidad de cálculo.

– Imagino que este no es el único ámbito que se ve perjudicado por no tener un sistema de Computación de Alto Desempeño…
– Claro que no. En primer lugar, yo creo que es imposible ejercer la soberanía en este siglo, sin poder de computación. Si una entidad -ya sea un Estado, una empresa o un individuo- no tiene poder de cálculo, está aislado de la sociedad. Y esto se ve de una manera muy simple en la diversidad de posibilidades que brinda un smartphone en relación a una calculadora, por ejemplo. Una empresa con capacidad de cómputo va a poder optimizar los costos en todas sus áreas, ofrecer a sus colaboradores mejores condiciones de trabajo y servir a sus clientes con precios más competitivos. A nivel país, lo que representa eso, en gran medida, es la informática paralela, o sea, es la simulación numérica en ámbito científico. Te doy un ejemplo simple. El cálculo del pronóstico meteorológico, sumamente necesario en un país que produce commodities, como el nuestro; influye directamente en la capacidad productiva del complejo agroindustrial. Y esto depende enteramente de la capacidad de cálculo, porque mientras mayor es tu capacidad de cálculo, menor es el mallado que podés hacer. Si vos podés calcular tu pronóstico dividiendo el territorio argentino en cuadrados de 50 km² -porque tu capacidad de cálculo no te permite calcular más que eso- seguramente vas a obtener pronósticos menos precisos y fiables que si tenés la capacidad para dividir el territorio en cuadrados de 1 km² . Ahora, un boletín meteorológico de calidad, beneficia no solo a los productores rurales, sino al sistema logístico, a la industria que produce maquinarias para trabajar los campos, a los contratistas que ofrecen sus servicios, etc. Es decir que el valor agregado de tu economía crece exponencialmente.
Los beneficios pueden verse en innumerables áreas. Personalmente conozco y te puedo mencionar, además del área de meteorología, el área de simulaciones de perforaciones petrolíferas: antes se perforaba para ver si había o no petróleo, ahora se hacen simulaciones y se perfora solamente en los sitios que más probabilidades tienen, bajando enormemente los costos. En lo que es producción industrial, se puede simular el comportamiento de un nuevo automóvil o de un avión. En la producción de fármacos se pueden simular las interacciones entre diferentes moléculas sin tener que invertir tiempo y dinero realizando los experimentos. Entonces, es una cuestión fundamental, más allá de cualquier división ideológica, tener capacidad de cómputo. Si nosotros queremos participar en el concierto de las naciones, queremos comerciar, intercambiar bienes y servicios, necesitamos tener los instrumentos que nos permitan generar valor y adquirir bienes. Hoy nadie puede producir bienes de calidad a un precio competitivo si no tiene poder de cómputo.
Es decir que el HPC y la simulación numérica deberían ser una política de Estado de todos los países del planeta, independientemente de su situación económica.

– Pero ¿qué inversión se necesita? ¿Argentina está en condiciones de afrontarla?
– Para empezar, está demostrado que el beneficio de la inversión que se requiere tanto en equipamiento como en recursos humanos, se multiplica, en el peor de los casos por 12 y en el mejor por 40 o hasta 45. Es decir que un Estado que hace una inversión de, supongamos, 100 millones de dólares en computación de alto desempeño, en 5 años (que es la vida útil de un equipo) recupera entre 1200 millones y 4000 millones de dólares. Es decir que no hay mejor inversión y la prueba está en que todos los países industrializados invierten masivamente en esto. No invierten más porque no disponen de más personal capacitado. En eso Argentina tiene una ventaja comparativa que es la gente capacitada, con niveles de salario relativamente bajos a nivel internacional; es decir que la única inversión que le falta es la de equipos y datacenters. Si no me equivoco, hoy Cordoba podría albergar en el nuevo datacenter de la UNC una supercomputadora que esté entre las 500 más potentes del planeta invirtiendo entre 15 y 20 millones de dólares que, en el caso de Argentina, representa aproximadamente el 0,01 % del gasto público anual. Argentina tiene todo lo que hace falta.

Nueva Compra Comunitaria: 25 discos 8 TiB

Esta nueva compra comunitaria habilitará un nuevo NAS para Mendieta Fase 2, que reemplazará un viejo equipo Chembro de la época de la Supercomputadora Cristina. Aportaron desde trece Proyectos de Investigación de usuarias y usuarios de todo el país.

Luego de un proceso de casi 4 meses terminó una nueva compra comunitaria del Centro de Computación de Alto Desempeño (CCAD, UNC). En este tipo de compras las y los usuarios aportan lo que pueden, en este caso, discos HDD 8 TiB, con un costo aproximado de 340 USD por unidad. Esto permite, por un lado, aumentar el sentido de pertenencia de las y los usuarios y, por el otro, eficientizar el gasto de cada uno de los pequeños subsidios individuales que cada investigadora o investigador posee. Compramos 8000 USD -o sea $1.000.000-, que sería poco menos que imposible para los flacos subsidios actuales de un Grupo de Investigación.

Jenga de 21 HDDs, por Marcos Mazzini

Se compraron 25 discos rotacionales de 8 TiB de 10000 RPM con interfaz SAS3, que serán conectados a uno de los dos JBOD  adquiridos por el Dr. Cristian Giuppone (OAC-UNC, IATE-CONICET), que están prontos a llegar.

Las y los aportantes fueron:

  • 1, Mariana Cécere, OAC-UNC, IATE-CONICET, PICT 2016-2480.
  • 4, Cecilia Giménez.
  • 8, Daniel A. García, IIBYT-CONICET,
  • 2, María Angélica Perillo.
  • 1, Orlando Vito Billoni, GTMC-FaMAF-UNC.
  • 1, Sergio Ribone, FCQ-UNC, PICT 2019-3461.
  • 1, Paola Quaino, Universidad Nacional del Litoral, PICT 2017-1342.
  • 1, Mario del Pópolo, Universidad Nacional de Cuyo, Proyectos SIIP 06/M107 y M074.
  • 1, Gustavo Belletti, Universidad Nacional del Litoral, PICT 2019-3392.
  • 1, Carlos Bederián y Nicolás Wolovick, FaMAF-UNC, Subsidio SeCyT.
  • 1, José Luis Borioni, FCQ-UNC, Subsidio SeCyT.
  • 2, María Eugenia Budén, FCQ-UNC, PICT 2021-0376.
  • 1, Emilio Donoso, ICATE-CONICET, Universidad Nacional de San Juan, Proyecto PUE22920180100059CO.

Con los 24 discos más 1 de respuesto, tendremos un almacenamiento de 192 TiB totales y 145 TiB usables, una vez que Carlos Bederián y Marcos Mazzini los instalen y configuren en RAID60.

Agradecemos la paciencia de Alejandro Jabo de Multitech, que estuvo contando disco por disco, transferencia por transferencia, para que tuviéramos estos 25 discos.

 

*Por Nicolás Wolovick, Director del CCAD

Serafín al servicio de Y-TEC.

La empresa de investigación y desarrollo para la industria energética contrató los servicios del Centro de Computación de Alto Desempeño (CCAD) de la Universidad Nacional de Córdoba.

Speedup de la solución

El CCAD comenzó a brindar servicios de alto desempeño a Y-TEC, la empresa de tecnología de YPF y el CONICET. Esta compañía es la principal empresa de investigación y desarrollo para la industria energética de Argentina y contrató los servicios del CCAD con el fin de desplegar en Serafin su plataforma de modelado y simulación de estimulación hidráulica y mecánica de rocas, Y-FRAC®, y aplicarla al estudio de los reservorios de interés. Esta plataforma está especialmente diseñada para correr en paralelo en clusters de alto desempeño.
El servicio brindado desde el CCAD a Y-TEC implica un doble desafío, en términos de infraestructura y también de know how. Por un lado, esta simulación involucró hasta ahora un máximo de 32 de los 60 nodos que componen a Serafín, siendo la simulación más grande que corrió dicha supercomputadora, con un total de 2048 cores. Además, a lo largo del trabajo de adaptación se consiguió que el escalado en términos de cores, se viera reflejado también en un aumento proporcional de la velocidad de cálculo (ver Gráfico). Esto demuestra que, efectivamente, Serafín funciona como un todo, no como una colección de computadoras desconectadas, y esto es gracias a su red de interconexión de alta velocidad y baja latencia.
Por otro lado, la complejidad de los procesos que se llevaron a cabo requirió la instalación de diversas bibliotecas como PETSc, y la solución de bugs. En esta etapa de depuración, el CPA-CONICET Carlos Bederián colaboró estrechamente con el equipo de desarrollo de Y-TEC para que su plataforma de simulación alcanzara un funcionamiento óptimo.

 


La implementación del stack MPI realizada por el Open MPI Project incluye la posibilidad de utilizar el estandar Open UCX para comunicaciones de alta velocidad y baja latencia. En esta plataforma, que hace uso de todas las capacidades del hardware subyacente, algunas cosas cambian. En este caso había un problema en el código de Y-FRAC que impedía el buen funcionamiento bajo esta combinación OpenMPI+UCX. El campo tag utilizado en las comunicaciones está limitado a 24 de los 32 bits que tiene en la definición del estándar. El CPA-CONICET Carlos Bederián, ató cabos y pudo asesorar al personal de Y-TEC para subsanar este inconveniente. El software estaba usando tags por fuera del rango de 24 bits lo cual producía resultados incorrectos.


Esta satisfactoria experiencia abre una etapa de fructífera cooperación entre una empresa nacional de base científica y un centro de cómputos de una Universidad Nacional, pública, ubicada en la provincia de Córdoba. Pero, además, muestra que el CCAD es un centro con una altísima capacidad no sólo de cómputo, sino también de adaptabilidad a diversas demandas, tanto del sector científico como empresarial e industrial.

Serafín se amplía y vuelve a romper récords.

El CCAD recibirá el mayor monto otorgado por el SNCAD en esta convocatoria para ampliar el cluster Serafín que sigue rompiendo marcas en horas core entregadas

El Sistema Nacional de Computación de Alto Desempeño (SNCAD) otorgó al Centro de Cómputación de Alto Desempeño (CCAD, UNC) un subsidio por U$S 50.000 para la ampliación del Cluster Serafín, siendo el mayor monto otorgado a proyectos en esta convocatoria. Junto a una contrapartida de U$S 10.000 que aportará la Secretaría de Ciencia y Técnica de la Universidad de Córdoba (SeCyT-UNC) para Sistemas Nacionales, el dinero asignado se utilizará para la adquisición de 2 nuevos chasis con 8 nodos. Estos se añadirán a los 60 nodos que posee Serafín en la actualidad.


Dicha ampliación implicará un incremento de 14% de poder de cómputo. “Esperamos poder ejecutar rápidamente y pedir 8 nodos más para llenar las bocas del switch infiniband. Con esto ya terminaríamos de armar Serafín que sigue batiendo records”, comenta Nicolas Wolovick, director del CCAD. Durante mayo, con 2.282.244 horas core, se sobrepasó la marca que se había alcanzado en abril en cantidad de horas core entregadas.
Finalmente, Wolovick señala que “AMD LatAm sigue apostando a Serafín como computadora insignia de su línea EPYC y por lo tanto realizará el mismo descuento sobre los procesadores. Este descuento redunda en un 50% más de desempeño por el mismo monto.”

Resolución del Financiamiento de SNCAD

Proyectos aprobados

 

Rompiendo marcas

En el mes de abril Serafín produjo una cantidad récord de horas/core en el CCAD y, además, alcanzó su máximo porcentaje de uso.

Nombres por arquitectura del procesador. rome: Serafín, knl: Eulogia, bdw Mulatona, ivb: Mendieta Fase 2. Gráfico realizado en Julia por Juan Perotti.

El pasado mes de abril, Serafín obtuvo dos nuevas marcas. Por un lado, produjo 2.224.896 horas/core de cómputo, marcando un record absoluto de producción de un cluster en el Centro de Computación de Alto Desempeño de la Universidad Nacional de Córdoba. A manera de referencia en relación a la importancia de esta producción, sirve la comparación con la Iniciativa de Proyectos Acelerados de Cálculo (IPAC), lanzada cada año por el Ministerio de Ciencia, Tecnología e Innovación de la Nación.
En esta iniciativa, se otorgan a la comunidad científica y tecnológica, recursos computacionales de los centros integrales adheridos al Sistema Nacional de Computación de Alto Desempeño, a través de dos tipos de proyectos. En la última convocatoria se brindaron 3 Proyectos de avances decisivos con supercómputo (PADS), de 1.000.000 de horas de CPU cada uno y 6 Proyectos de cálculo (PDC), de entre 300.000 y 500.000 horas de CPU, por año, cada uno.
Es decir que Serafín, con este ritmo de trabajo, sería capaz de dar respuesta a 2 de los 3 PADS y, de yapa, a un PDC en un mes. “Esto demuestra la tremenda capacidad del nuevo cluster de la UNC, que está disponible para todo el sistema de ciencia y técnica del país. Pero también pone en evidencia la rapidez con la que avanza la supercomputación y el poder de cómputo de los nuevos clusters, que siguen al pie de la letra la ley de Moore; por lo que siempre debemos trabajar para seguir creciendo en este sentido”, señala Nicolás Wolovick, director del CCAD.
También abril marcó un récord en cuanto a su uso ya que se ocupó el 90% de su capacidad. El 10% restante no pudo ser aprovechado por no coincidir las necesidades y con la pequeña capacidad restante. Por su parte, Eulogia mantiene un 75% y Mulatona un 62% de ocupación promedio. “Hay que remarcar que Serafín entrega el doble de horas/core que Eulogia, pero en la práctica es mucho más, ya que los 64 núcleos de la arquitectura Knights Landing (knl) de Eulogia, rinden mucho menos que la arquitectura Zen2 (rome) de Serafín. Estimamos que es aproximadamente el doble, debido a un reloj mucho más elevado y a un ancho de banda a memoria mucho mayor”, explica Wolovick.

 

Las leyendas indican la arquitectura del procesador de los clusters y es lo que las indentifica: rome-Serafín, knl-Eulogia, bdw-Mulatona y ivb-Mendieta Fase 2.

Charla abierta «Accediendo al CCAD»

Este miércoles 20 de Abril, de 15:30 a 18:30 Marcos Mazzini del CCAD dará una charla inicial e introductoria para quienes nunca han utilizado un cluster de cómputo o sistemas LINUX, en el marco de las «Friends of Friends Hybrid Meeting 2022» organizado por el Observatorio Astronómico de Córdoba (OAC, UNC). La participación es abierta y será presencial o remota.
Temas:
Fundamentos básicos de Linux
Iniciación en el uso de la consola, conexión a un sistema remoto y uso del sistema de colas
Shell, comandos, filesystem, procesos, conexion SSH, sistema de colas SLURM.
Requisitos: No es necesario experiencia previa con sistemas Linux
Inscripciones en la página N° 7 del formulario

El CCAD recibió la visita de la Universidad Nacional de Hurlingham

Fue en el marco de un proyecto de vinculación entre el Instituto de Tecnología e Ingeniería de la UNAHUR y el Centro de Cómputos de Alto Desempeño de la UNC


El pasado jueves 31 de marzo, un equipo del Instituto de Tecnología e Ingeniería de la Universidad Nacional de Hurlingham visitó Córdoba para conocer en profundidad los Data Centers del CCAD de la Universidad Nacional de Córdoba y de la Empresa Provincial de Energía de Córdoba (EPEC). Visitar dichos centros, modernos y de alta capacidad, les permitió interiorizarse sobre algunos aspectos de la instalación de Cómputo de Alto Desempeño, como parte de un proyecto de vinculación tecnológica.

Participaron del encuentro Carlos Bederián del CCAD-UNC; Mathias Molina de la UNC; Gustavo Medrano, Director del Instituto de Tecnología e Ingeniería y Fernando Puricelli, Director de Tecnicatura Universitaria y Licenciatura en Informática, ambos de la UNAHUR; Adolfo Ivan Lelli y Sonia Dona de EPEC; Javier Proyector, ex-alumno FaMAF-UNC, Presidente de TA Telecomunicaciones y Gerardo Piermattei, Ignacio Arrieta y Gabriel Balegno, de TA Telecomunicaciones.

Reunión Virtual Abierta de Usuarios CCAD

El próximo lunes 4 de abril, a las 10 hs, se llevará a cabo la Reunión Virtual Abierta de Usuarios CCAD, destinada a usuarios/as actuales y potenciales. Para participar, deben inscribirse previamente en el siguiente formulario: Reunión virtual abierta de usuarias/os CCAD 2022 (google.com)

Actualización

Se inscribieron 162 personas y se conectaron alrededor de 100 personas a la charla inicial y luego hubo en las 4 salas en paralelo alrededor de 25 personas en cada una. Se obtuvo muy buen feedback de las y los usuarios que nos servirá para implementar mejoras.

Materiales

Serafín: supercomputación y conexiones neuronales

Científicos pertenecientes a un instituto mendocino, describen el funcionamiento de una proteína clave para la sinapsis neuronal, utilizando simulaciones numéricas realizadas en el CCAD.

Di Bartolo y Masone. Foto: Gentileza UNCuyo

Existen redes federales, que esquivan los centros y posibilitan poderosas conexiones. En este caso, Serafín del Centro de Computación de Alto Desempeño de la Universidad Nacional de Córdoba (CCAD – UNC), estuvo al servicio del grupo mendocino liderado por Diego Masone, perteneciente al Instituto de Histología y Embriología de Mendoza “Dr. Mario H. Burgos” (IHEM, CONICET-UNCUYO). Esta vez, la analogía que explica el funcionamiento del cerebro comparándolo con el de una computadora, alcanzó otro nivel y la metáfora se convirtió en herramienta: nuestra supercomputadora permitió describir uno de los mecanismos moleculares de una proteína clave para la sinapsis neuronal.
Es que el CCAD, como sabemos, tiene una enorme potencia para apuntalar y maximizar las capacidades de los grupos de investigación de las diversas áreas y disciplinas científicas, poniendo a disposición tecnología de alto nivel a un costo realista en relación a los recursos disponibles. En ese sentido, el propio Masone asegura que «las simulaciones numéricas asociadas a este trabajo fueron sumamente costosas en términos de tiempo de cálculo. Sólo fueron posibles con el tiempo de supercomputación que teníamos en Serafín, de otra manera ni siquiera nos hubiésemos planteado abordar un problema de esta envergadura«.
Es por esto que, a pesar de sus limitaciones, Serafín constituye una herramienta indispensable para el desarrollo de una ciencia argentina federal. De ahí la importancia de que el CCAD siga creciendo, en equipamiento y recursos.

La investigación
El pasado 23 de febrero el trabajo de Lautaro Di Bartolo -becario del CONICET- y Diego Masone -investigador del CONICET-, del IHEM (CONICET-UNCUYO), salió publicado en la prestigiosa revista internacional Chemical Science. Ahí, los científicos describieron uno de los mecanismos mediante los cuales una proteína llamada Sinaptotagmina 1 regula la sinapsis, es decir, el proceso mediante el que las neuronas se comunican entre sí.
Tal como aseguran en una nota desde el CONICET, “este estudio representa un avance para entender el funcionamiento de esta familia de proteínas, con aplicaciones directas en medicina. Una mejor descripción de estos mecanismos permitirá pensar en soluciones para el tratamiento de neuropatologías degenerativas como el Alzheimer. ‘Si uno tiene un problema muy complicado que resolver no hay manera de dar con una solución factible si primero no se entiende el mecanismo del problema. Cuando entendamos con claridad, y a nivel molecular, cómo es el proceso completo de la sinapsis neuronal, sólo entonces podremos pensar en tratarla con objetivos médicos’, concluye Masone”.

Di Bartolo y Masone. Foto: Gentileza UNCuyo

El software
Para realizar las simulaciones numéricas, no sólo se utilizó Software Libre Científico, si no que además se creó un plugin específico para las necesidades de esta investigación. Lautaro Di Bartolo, bajo la supervisión de Masone, usó PLUMED, un módulo que permite insertar código que implementa variables complejas dentro de la simulación realizada en el motor de dinámica molecular GROMACS, a fin de poder estudiar mejor los mecanismos involucrados. El plugin MEMFUSION que diseñaron, programaron y optimizaron fue aceptado dentro de PLUMED, por lo que ahora se encuentra libremente disponible para que pueda utilizarse en otros trabajos científicos.

Para conocer más sobre la investigación:
https://www.conicet.gov.ar/describen-el-funcionamiento-de-una-proteina-clave-para-la-sinapsis-neuronal/

https://www.unidiversidad.com.ar/como-una-supercomputadora-ayudo-a-cientificos-de-la-uncuyo-a-conocer-un-mecanismo-del-cerebro

https://soundcloud.com/fundacionmedife/dr-diego-masone-instituto-de (A partir del minuto 4:22)

https://www.uncuyo.edu.ar/prensa/ciencia-argentina-describen-como-funciona-una-proteina-clave-para-la-sinapsis-neuronal23

Actualización

El 29 de abril agregaron dos nuevos CVs a PLUMMED relacionados a Membrane Fusion.