Manuel Romero

CSO @MAISA


Ponencias

  • Entrenamiento de LLMs: Impacto de la calidad de los datos | Hackathon SomosNLP 2024

En este taller comentamos cómo es posible ajustar (hacer fine-tuning) a LLMs con una configuración de hardware humilde gracias a las últimas técnicas de PEFT como QLoRA y librerías de optimización.

  • Fine-tuning de grandes modelos de lenguaje (LLMs) | Hackathon SomosNLP 2023
  • Ask Me Anything | Hackathon SomosNLP 2023

  • Recorrido por el ecosistema de Hugging Face | Hackathon SomosNLP 2022

En este taller Manuel Romero nos mostrará todos las herramientas que Hugging Face provee para colaborar a la democratización de la IA: Tokenizers, Datasets, Model Hub y Spaces. Además, nos enseñará cómo aprovechar todas esas herramientas para crear nuestro modelo (y base de datos) desde cero y ponerlo en producción.

SomosNLP logo

Biografía

Manuel Romero es ingeniero informático. Ha trabajado varios años como desarrollador backend y como Senior ML Engineer en Narrativa. A continuación trabajó como ML Engineer en Clibrain. Actualmente es CSO en MAISA. Es el principal contribuidor del Hub de ML más importante con casi 500 modelos de IA. Ha participado y participa en iniciativas como BigScience y BigCode donde entrenan modelos de lenguaje para hacerlos públicos. Manuel trabaja actualmente en Narrativa, startup especializada en la generación automática de contenido por medio de Inteligencia Artificial que desarrolla soluciones de generación de contenidos para medios de comunicación y diferentes empresas.

Última actualización: 1 de marzo de 2024