Análisis de riesgos de ciberseguridad en entornos académicos y de investigación que utilizan IA


Fecha:


Horario:

10:00 - 14:00




Descripción

El taller aborda de forma práctica cómo la adopción de Inteligencia Artificial en universidades y centros de investigación modifica el modelo tradicional de gestión de riesgos. Los participantes aprenderán a identificar activos críticos (datasets, modelos, repositorios, GPU clusters, APIs y notebooks colaborativos), mapear amenazas específicas contra sistemas de IA (data poisoning, model stealing, prompt injection, fugas de propiedad intelectual y ataques a la cadena de suministro científico) y evaluar impactos en proyectos académicos y financiamiento.


Se trabajará sobre un caso guiado para construir una matriz de riesgos y posteriormente diseñar controles técnicos y organizacionales: arquitectura segura para laboratorios de investigación, segregación de entornos, protección de modelos, control de accesos para estudiantes e investigadores y uso responsable de herramientas de IA generativa.


El objetivo es permitir la innovación científica sin comprometer la integridad de resultados, la confidencialidad de datos y la reputación institucional.

Conferencistas

Requisitos

Equipo de cómputo e Internet.

  • Duración:  4hrs.
  • Límite de participantes: 30
     

Redes de colaboración

-->