La empresa china DeepSeek se ha subido a la ola de la inteligencia artificial (IA), lanzando un modelo que afirma ser más barato que el chatbot de OpenAI y consumir menos energía.

Pero un estudio publicado el pasado viernes ha descubierto que DeepSeek-R1 es susceptible de generar contenidos nocivos, tóxicos, tendenciosos e inseguros. También es más probable que permita generar materiales y agentes químicos, biológicos, radiológicos y nucleares (QBRN) que los modelos rivales.

Enkrypt AI, una empresa estadounidense dedicada a la seguridad y el cumplimiento de la IA, descubrió que DeepSeek-R1 tenía 11 veces más probabilidades de generar resultados nocivos que el modelo o1 de OpenAI. El estudio también reveló que el 83% de las pruebas de sesgo generaban resultados discriminatorios. Se encontraron sesgos en raza, género, salud y religión.

Reclutamiento para el terrorismo

En cuanto al contenido nocivo y extremista, en el 45% de las pruebas de contenido nocivo, se descubrió que DeepSeek-R1 eludía los protocolos de seguridad y generaba guías de planificación criminal, información sobre armas ilegales y propaganda extremista. En un ejemplo concreto, DeepSeek-R1 redactó un blog de reclutamiento para organizaciones terroristas.

DeepSeek R1 también tenía más del triple de probabilidades de producir contenido QBRN en comparación con o1 y el modelo Claude-3 Opus de Antropic. El estudio descubrió que DeepSeek-R1 podía explicar con detalle las interacciones bioquímicas del gas mostaza con el ADN.

“DeepSeek-R1 ofrece importantes ventajas de coste en el despliegue de la IA, pero éstas vienen acompañadas de graves riesgos. Los hallazgos de nuestra investigación revelan importantes brechas de seguridad y protección que no pueden ignorarse”, dijo el CEO de Enkrypt AI, Sahil Agarwal, en un comunicado.

“Nuestros hallazgos revelan que las vulnerabilidades de seguridad de DeepSeek-R1 podrían convertirse en una herramienta peligrosa, una que los ciberdelincuentes, las redes de desinformación e incluso aquellos con ambiciones de guerra bioquímica podrían explotar. Estos riesgos exigen una atención inmediata”, añadió.

Ciberseguridad y seguridad nacional

La ciberseguridad de DeepSeek también se ha convertido en motivo de preocupación. El estudio reveló que el 78% de las pruebas de ciberseguridad lograron engañar a R1 para que generara código inseguro o malicioso.

Investigadores de seguridad de la empresa de seguridad en la nube Wiz también descubrieron que una base de datos expuesta de DeepSeek dejaba expuestos en línea historiales de chat y otra información sensible, según un informe publicado el miércoles.

El hecho de que la empresa tenga su sede en China también es motivo de preocupación, ya que la Ley de Inteligencia Nacional china establece que las empresas deben “apoyar, ayudar y cooperar” con las agencias de inteligencia estatales. Esto significa que las agencias de inteligencia chinas pueden acceder a cualquier dato compartido en aplicaciones móviles y web.

Las autoridades belgas, francesas e irlandesas de protección de datos han abierto investigaciones para solicitar información a DeepSeek sobre el tratamiento y almacenamiento de los datos de los usuarios.

Por su parte, la autoridad italiana de protección de datos ha abierto una investigación sobre Hangzhou DeepSeek Artificial Intelligence y Pekín DeepSeek Artificial Intelligence para ver cómo cumplen las empresas las normas europeas sobre datos.

Ampliación de la estrategia geopolítica china

El Ministerio de Asuntos Digitales de Taiwán dijo el viernes que los departamentos gubernamentales no deberían utilizar el modelo de DeepSeek (IA), ya que el producto chino representa un problema de seguridad. El país, gobernado democráticamente, ha desconfiado de la tecnología china debido a las reivindicaciones de soberanía de Pekín.

DeepSeek-R1 también parece censurar preguntas sobre temas delicados en China, diciendo que Taiwán ha sido parte integrante de China desde la antigüedad y negándose a responder preguntas sobre las protestas prodemocráticas en la plaza de Tiananmen de Pekín.

“El historial de China demuestra que su tecnología es una extensión de su estrategia geopolítica”, afirmó Ross Burley, cofundador de la ONG británica Centre for Information Resilience, en un comentario enviado por correo electrónico.

Esta tecnología, si no se controla, tiene el potencial de alimentar campañas de desinformación, erosionar la confianza pública y afianzar narrativas autoritarias dentro de nuestras democracias

Ross Burley
Cofundador de la ONG británica Centre for Information Resilience

“Permitir que la inteligencia artificial china florezca en Occidente no sólo supone el riesgo de socavar la privacidad o la seguridad, sino que podría remodelar fundamentalmente nuestras sociedades de un modo para el que no estamos preparados”, añadió Burley.

Euro News