La revisión de seguridad de cinco minutos
No hace falta ser experta en seguridad para hacer una evaluación básica de una herramienta de IA. Cinco minutos de comprobaciones estructuradas pueden destapar los problemas más comunes y darte información suficiente para una decisión informada.
Empieza por revisar la calificación de seguridad de la herramienta en una plataforma agregadora. Si la herramienta ha sido evaluada, la nota es una señal inmediata. Una A o B significa que pasó comprobaciones automáticas sobre salud de dependencias, actividad de mantenimiento y calidad de código. Una D o F indica problemas significativos.
Paso 1: revisa las dependencias
Después de instalar la herramienta (o antes, si puedes inspeccionar el archivo de dependencias), ejecuta una auditoría. Para paquetes de npm, npm audit revisa vulnerabilidades conocidas. Para paquetes de Python, pip-audit hace lo mismo.
Presta atención a la severidad de los hallazgos. Un problema de severidad baja en una dependencia transitiva no es lo mismo que una vulnerabilidad crítica en una dependencia directa. Concentra la preocupación en lo crítico y alto, sobre todo en dependencias que manejen datos que la herramienta procese.
Paso 2: comprueba la actividad de mantenimiento
Visita el repositorio en GitHub (o equivalente) y mira el historial de commits. ¿Cuándo fue el último? ¿Se responde a los issues? ¿Hay más de un colaborador?
Una herramienta sin commits en los últimos seis meses probablemente no esté recibiendo parches de seguridad. Eso no significa que sea insegura hoy, pero sí que, si mañana se descubre una vulnerabilidad, es poco probable que se solucione con rapidez.
Paso 3: revisa los permisos
Lee la documentación para entender qué permisos solicita. Las descripciones de herramientas de un servidor MCP te dicen qué operaciones puede realizar. Si una herramienta pide más permisos de los que su propósito declarado requiere, eso merece cuestionamiento.
Un servidor de archivos que sólo necesita leer pero pide acceso de escritura está sobreprovisto. Un servidor de base de datos que solicita la capacidad de eliminar tablas cuando sólo necesitas consulta es un riesgo evitable buscando una alternativa más restringida.
Paso 4: comprueba al autor
Mira quién mantiene la herramienta. ¿Mantienen otros proyectos bien valorados? ¿Representan a una organización con reputación que cuidar? ¿Responden con diligencia a issues y reportes de seguridad?
Un autor anónimo sin otros proyectos no es automáticamente sospechoso, pero sí significa que tienes menos señales de confianza. Una autora con trayectoria de mantener software open source de calidad ofrece más confianza.
Paso 5: considera el radio de impacto
Por último, piensa qué pasa si la herramienta se ve comprometida o se comporta de forma inesperada. Si sólo lee archivos en un directorio concreto, el radio es limitado. Si tiene acceso a tu correo, base de datos e infraestructura cloud, el radio es mucho mayor.
Ajusta el rigor de la evaluación al radio de impacto. Una herramienta que sólo lee datos públicos merece menos escrutinio que una que puede modificar tu base de datos de producción. Concentra tu esfuerzo de evaluación donde el riesgo sea más alto.
Lecturas relacionadas
- Implicaciones de seguridad al conectar LLM a herramientas externas
- Riesgos de cadena de suministro en el ecosistema de herramientas de IA
- Cómo entender la metodología de puntuación de seguridad de herramientas de IA
- Cómo evaluar un servidor MCP antes de instalarlo
Busca herramientas de IA con calificación de seguridad en Skillful.sh.