Un informe de Cisco y la Universidad de Pensilvania reveló preocupantes vulnerabilidades en el chatbot de IA de DeepSeek. El modelo R1, sometido a pruebas con 50 órdenes maliciosas, no logró bloquear ninguna, mostrando una tasa de fallo del 100 %.
DJ Sampath, vicepresidente de producto en Cisco, calificó los resultados como alarmantes y señaló que la empresa china parece haber priorizado costos sobre seguridad. DeepSeek, que busca ofrecer IA de alto nivel a bajo costo, enfrenta ahora serias dudas sobre su confiabilidad.
Los expertos utilizaron la base de datos HarmBench, que prueba los límites de la IA en cibercrimen y contenido dañino. Mientras que modelos como Llama 3.1 de Meta mostraron fallos parciales, R1 falló por completo. Polyakov, CEO de Adversa AI, destacó que DeepSeek fue aún más vulnerable a manipulaciones, generando respuestas detalladas sobre temas sensibles.
Además, la incapacidad del chatbot para resistir ataques de “jailbreak” genera riesgos en sistemas críticos. La falta de innovación en seguridad y el uso de medidas copiadas de competidores refuerzan la percepción de que DeepSeek no está preparado para enfrentar amenazas reales.
Hasta el momento, la empresa no ha emitido respuestas oficiales, dejando incertidumbre sobre el futuro de su modelo de inteligencia artificial.