La Autoridad de Protección de Datos italiana ha bloqueado el servicio de la Compañía de Inteligencia Artificial de Deepseek China (IA) en el país. Esta falta de información sobre el uso de los datos personales de los usuarios. El desarrollo se produce días después de que la autoridad de Italia lo garantice, ha enviado una serie de preguntas a Deepseek, cuestionando sus prácticas de procesamiento de datos y dónde obtuvo sus datos de capacitación.
Italia acaba de cerrar la puerta a Deepseek
En particular, quería saber que los datos personales se recopilaron de su plataforma web y aplicación móvil. También esas fuentes, de modo que es genial, con qué base genial y si se almacenan en China.
En una declaración emitida el 30 de enero de 2025, la garantía dijo que tomó esta decisión después de que Deepseek proporcionó información que dijo que eran «completamente insuficientes».
Sin embargo, las entidades detrás del servicio, Hangzhou Deepseek Intelligence y Beijing Deepseek Intelligence «, declararon que no operan en Italia y que la ley europea no se aplica a ellos», agregó.
Por lo tanto, el cuerpo de vigilancia ha declarado que bloqueará el acceso a Deepseek con efectos inmediatos y está abriendo simultáneamente una investigación.
En 2023, la Autoridad de Protección de Datos también emitió una prohibición temporal de Operai Chatgpt. Una restricción planteada a fines de abril, después de que la Compañía de Inteligencia Artificial (IA) intervino para resolver los problemas de privacidad de los datos planteados. Posteriormente, Openai recibió una multa de 15 millones de euros por la forma en que trató los datos personales.
La noticia de la prohibición de Deepseek llega en un momento en que la compañía ha estado disfrutando de la ola de popularidad esta semana. Esto con millones de personas que se adhieren al servicio y colocan sus aplicaciones móviles en la parte superior de las tablas de descarga.
Además de convertirse en un objetivo de «ataques maliciosos a gran escala», los legisladores y usuarios habituales llamaron la atención. Esto se debe a su política de privacidad, censura alineada con China, publicidad y problemas de seguridad nacional que puede poner. La compañía implementó una corrección desde el 31 de enero para resolver ataques a sus servicios.
Un sistema peligroso
Una evaluación más profunda del modelo de razonamiento de Deepsek, Deepseek-R1, por la IA Hiddenlayer Security Company, ha revelado que no solo es vulnerable a inyecciones rápidas. Pero también que su razonamiento de pensamiento de cadena (cot) puede conducir a que se escapen de información inadvertida.
Sin embargo, la compañía dijo que el modelo también «reveló varias instancias que sugieren que se incorporaron datos de Operai. Esto plantea preocupaciones éticas y legales sobre el suministro de datos y la originalidad del modelo.
La revelación sigue al descubrimiento de una vulnerabilidad en el Operai Chatgpt-4o, apodado Time Bandit. Esto permite que un atacante elude las barreras de seguridad de LLM, poniendo preguntas a Chatbot de una manera que lo haga perder su conciencia temporal. Desde entonces, Operai ha mitigado el problema.