BAISH (Buenos Aires AI Safety Hub) es una comunidad interesada en la investigación de la inteligencia artificial segura, creada por estudiantes y profesionales de Exactas-UBA. Para conocer más sobre los alcances de BAISH, el DC conversó con sus dos fundadores, Eitan Sprejer y Luca de Leo.

Con el propósito de propiciar la formación, apoyar proyectos estudiantiles y conectar el talento de estudiantes con oportunidades de investigación en temáticas vinculadas a la seguridad de la inteligencia artificial (IA), BAISH fue fundada en el año 2024 en Buenos Aires.

La organización busca conformar una red regional para investigadores, estudiantes avanzados y entusiastas, fomentando la investigación presencial y colaborativa. 

Después de trabajar activamente en el exterior vinculado a proyectos de incubación de emprendimientos de seguridad en IA, observé que había varias comunidades sobre AI Safety tanto en Estados Unidos como en Inglaterra y otros países del mundo, pero ninguna en Argentina. A partir de ese momento tenía muchas ganas y el deseo de poder fundar una comunidad del estilo en nuestro país”, remarca Luca De Leo, estudiante avanzado de Ciencias de la Computación de Exactas-UBA (hasta 2022), investigador y facilitador en seguridad de IA.

Fue cuando Luca conoció a Eitan Sprejer -Licenciado en Física de Exactas-UBA e investigador part-time director de BAISH- que convirtieron ese anhelo en una realidad concreta. “Desde la mitad de mi carrera en Física, tengo mucho interés en la ciencia de datos e IA. Algo que es cada vez más común en nuestra disciplina. Y me interesaba sobre la conexión de la IA con las personas, con lo social. Cuando nos conocimos con Luca me invitó a participar de un BootCamp que se llama ML4Good que se hizo en Brasil, que reunía a personas motivadas con experiencia en programación que quisieran contribuir al campo de la AI Safety. Ese fue el puntapié inicial para armar nuestra propia comunidad en Argentina”, comenta Eitan Sprejer, quien también es facilitador de diversos cursos en la temática. Y complementa, que la visión de BAISH “se centra en que la IA sea una tecnología que beneficie a la humanidad y poder mitigar los riesgos asociados a su desarrollo, y creemos que una forma de lograrlo es conectar talento local con espacios de formación e investigación en seguridad de la IA”.

Ambos comenzaron de a poco con la fundación y evolución del grupo inicial de Buenos Aires AI Safety Hub; crearon un grupo de comunicación con canales específicos en las redes sociales y también se fueron vinculando presencialmente y convocando a diferentes miembros a través de la discusión de papers, cursos, hackatones y talleres técnicos en la temática. Desde ese primer momento, Luca y Eitan decidieron enfocarse en tres áreas clave dentro de la investigación de seguridad en IA: Interpretabilidad de cadena de razonamiento, Evaluaciones de LLMs e Interpretabilidad mecánica de redes neuronales.

El crecimiento de BAISH en estos dos años de vida ha sido exponencial: cuenta con +120 miembros activos, una red de +200 estudiantes e investigadores conectados -mediante grupos virtuales- junto con un staff permanente de 12 voluntarios (la mayor parte son estudiantes de Ciencias de la Computación-UBA) y 3 asesores externos (entre ellos el profesor del DC Sergio Abriola). Y además recibe el apoyo de dos organizaciones referentes como Coefficient Giving y Kairos-Program Pathfinder.

Programas de investigación y mentoría para estudiantes

Para facilitar el ingreso de estudiantes a la investigación en seguridad en IA, BAISH ha diseñado una “escalera de formación” que acompaña desde los primeros pasos hasta oportunidades de trabajo o investigación más avanzadas.

En el nivel inicial, la comunidad organiza actividades abiertas a todas las personas interesadas: encuentros mensuales de networking con estudiantes e investigadores y club  de lectura de papers, donde cada semana se analiza un trabajo reciente de investigación o un concepto clave de AI Safety. Estos encuentros son espacios informales pero profundos, pensados para que estudiantes de Ciencias de la Computación, Ciencias de Datos y disciplinas afines puedan familiarizarse con la literatura técnica y debatir con otros pares.

Un paso más allá en este pipeline son los cursos estructurados en colaboración con organizaciones globales como BlueDot, adaptados para el formato presencial en Buenos Aires. Estos cursos intensivos cubren fundamentos y técnicas de seguridad en IA y están diseñados especialmente para quienes estén buscando desarrollar proyectos propios u orientar su carrera hacia la investigación técnica”, puntualiza Sprejer.

Además, BAISH impulsa programas de pasantías y becas de investigación, como el programa AISAR, un programa de pasantía de investigación part-time de 6 meses que permite a estudiantes ya formados adentrarse en proyectos reales de investigación técnica, con mentoría y financiamiento parcial. Este programa concluyó con el Workshop AISAR, donde becarios presentaron avances de sus proyectos y compartieron estas experiencias con la comunidad académica de Exactas-UBA y expertos del área.

La idea detrás de estos programas es no solo compartir conocimientos, sino también conectar talento local con oportunidades internacionales, con el objetivo de que estudiantes argentinos puedan colaborar con equipos de investigación de todo el mundo y, eventualmente, trabajar profesionalmente en el campo de la seguridad de IA”, agrega De Leo.

Desafíos globales de seguridad en IA

Claramente cuando se habla de seguridad en IA (AI Safety), el foco va más allá de cuestiones éticas tradicionales como sesgos o justicia algorítmica. Para los fundadores de BAISH, las preocupaciones más urgentes hoy tienen que ver con riesgos sistémicos asociados a la creciente capacidad de los modelos de inteligencia artificial.

Uno de los temas más complejos que enfrentan investigadores en este campo es el potencial de estos modelos para asistir en el desarrollo de tecnologías peligrosas, incluyendo sistemas de armas o herramientas que facilitan la producción de agentes químicos, biológicos o radiológicos (del tipo CBRNe) sin el debido control. Si bien estos sistemas aún están lejos de ser autónomos con intenciones propias, su capacidad de automatizar y acelerar procesos puede ser aprovechada por actores maliciosos, con impactos difíciles de prever”, advierte Sprejer y aclara que ésta es más bien una visión personal antes que institucional.

Relacionado con este tema, existe una real preocupación y discusión en torno al desarrollo de lo que se conoce como IA General (AGI), un sistema con capacidades cognitivas comparables o superiores a las humanas. “Aunque aún no hay consenso sobre cuándo podría alcanzarse, investigaciones recientes sugieren que las métricas de rendimiento en tareas que usualmente realizan humanos (meter time horizon length) y que serían reemplazadas por estos modelos, están mejorando rápidamente, lo que nos plantea preguntas sobre cómo asegurar que sistemas cada vez más potentes sean controlables, alineados con valores humanos y seguros antes de su despliegue generalizado”, comenta De Leo.

Asimismo, ambos fundadores de BAISH coinciden en que otro aspecto sumamente relevante es la automatización del desarrollo de software, donde la IA ya juega un rol central: genera código, sugiere soluciones y acelera procesos de ingeniería. Aunque esto puede aumentar productividad, también crea nuevos desafíos de seguridad: el código generado puede tener vulnerabilidades inadvertidas o puertas traseras que no están explícitamente visibles para los desarrolladores. En este sentido, los facilitadores de cursos en la temática promueven metodologías de programación asistida por IA que incluyan controles rigurosos de validación y verificación, y la enseñanza de prácticas de ingeniería que no solo aceleren la producción de código, sino que también aseguren su robustez y seguridad frente a amenazas.

Próximas oportunidades para estudiantes e investigadores de Exactas

Para aquellas personas que les interese profundizar en todos estos temas, BAISH propone varias actividades abiertas para sumarse ahora:

Encuentros mensuales de networking: eventos sociales para que cualquier persona interesada en seguridad de IA se conecte con la comunidad.

Club del paper: sesiones semanales de análisis detallado y discusión de trabajos académicos clave del área, incluyendo papers publicados bajo la órbita de BAISH.

Cursos intensivos de Tecnical AI Safety: enfocados en interpretabilidad de redes neuronales, cadena de razonamiento y evaluación de grandes modelos de lenguaje, con inicio próximo.

Talleres, hackatones y charlas.

Todas estas actividades son 100%  libres, gratuitas y abiertas a la comunidad, y resultan oportunidades ideales para personas interesadas en adentrarse en la investigación de seguridad en IA, conectarse con la comunidad y construir una base sólida para futuros proyectos académicos o profesionales”, destacan ambos fundadores del Hub.

Más información en el sitio web: https://www.baish.com.ar/es

APP para sumarse: https://safetytalent.org/ 

 

Curso Technical AI Safety

Del lunes 9 al sábado 14 de marzo de 2026 se llevará a cabo el curso Technical AI Safety de BlueDot Impact. 

BlueDot Impact es una organización internacional que desde 2022 formó a más de 7.000 personas en el área de seguridad en sistemas de inteligencia artificial. El curso Technical AI Safety cubre las principales técnicas del campo: alineamiento de modelos, interpretabilidad, detección de comportamientos maliciosos y contribuciones al área de investigación. Los participantes que completen el programa reciben una certificación oficial de BlueDot Impact.

La actividad está orientada a estudiantes y graduados con formación técnica en computación, matemáticas o aprendizaje automático, de cualquier departamento o facultad. Se espera una cohorte de entre 10 y 15 participantes, con proceso de selección.

Aplicación al curso