Es una advertencia muy seria. Solo hay una forma de controlar lo que está compartiendo con inteligencia artificial y no es tan fácil como parece. Esta es exactamente la razón por la cual se ha lanzado una nueva advertencia para aquellos que usan Gmail. Esto se debe a que la inteligencia artificial ha llegado a todas partes. Por lo tanto, varios usuarios están siendo atrapados en el medio de un mundo que aún no controlan y eventualmente hacen algunas acciones que ni siquiera se han dado cuenta.
Con la reciente actualización de Google para agregar definiciones de IA predefinidas a las aplicaciones superiores del espacio de trabajo: First Gmail, aquellos que desean salvaguardar sus datos están buscando controles fáciles. Pero en este momento, este es un gran problema. El sitio 9to5Google ha revelado que «debido a que Gemini ahora está disponible para los suscriptores de Google Workspace, los administradores han descubierto que la capacidad de deshabilitar las nuevas características de IA está oculta detrás de una conversación con el soporte de Google».
El escape de datos a través de los motores AI ahora es la primera noticia. Esto gracias a Deepseek, la respuesta de China a Gemini y Chatgpt. Y si bien este ejemplo es claramente severo, con datos de usuarios y el examen para ir a China por defectos y controles de seguridad débiles, Gemini también ha sido el objetivo de las críticas.
Todos los usuarios pueden estar en riesgo
Pero la pregunta no es solo con los usuarios de sistemas, sino también con los usuarios finales. Cuando estamos utilizando herramientas de IA, por ejemplo, para hacer los resúmenes de lo que recibimos en Gmail, estamos dando esta información a los sistemas de inteligencia artificial.
La seguridad armónica ha lanzado la advertencia de que las herramientas generativas de IA «tienen riesgos significativos relacionados con la seguridad de los datos. A pesar de su potencial, muchas organizaciones dudan en adoptar completamente herramientas de IA. Esto se debe a las preocupaciones sobre el intercambio inadvertido de datos confidenciales y su posible uso para entrenar estos sistemas. Las organizaciones corren el riesgo de perder su ventaja competitiva si exponen datos confidenciales. Pero al mismo tiempo, también corren el riesgo de perder si no adoptan lo genial y se quedan atrás.
Todo el ecosistema de IA que ahora se suma a las plataformas y servicios críticos que utilizamos necesita un conjunto claro de controles y políticas. En cambio, está evolucionando en tiempo real con poca consistencia. Como dice 404Media, mientras que algunos usuarios «adorarán» la nueva funcionalidad de IA, «otros querrán escapar de ellos lo antes posible.