Fecha:
Horario:
Descripción
El taller aborda de forma práctica cómo la adopción de Inteligencia Artificial en universidades y centros de investigación modifica el modelo tradicional de gestión de riesgos. Los participantes aprenderán a identificar activos críticos (datasets, modelos, repositorios, GPU clusters, APIs y notebooks colaborativos), mapear amenazas específicas contra sistemas de IA (data poisoning, model stealing, prompt injection, fugas de propiedad intelectual y ataques a la cadena de suministro científico) y evaluar impactos en proyectos académicos y financiamiento.
Se trabajará sobre un caso guiado para construir una matriz de riesgos y posteriormente diseñar controles técnicos y organizacionales: arquitectura segura para laboratorios de investigación, segregación de entornos, protección de modelos, control de accesos para estudiantes e investigadores y uso responsable de herramientas de IA generativa.
El objetivo es permitir la innovación científica sin comprometer la integridad de resultados, la confidencialidad de datos y la reputación institucional.
Conferencistas
Requisitos
Equipo de cómputo e Internet.
- Duración: 4hrs.
- Límite de participantes: 30