A IA generativa está avançando rápido, e o DeepSeek surge como uma nova alternativa chinesa com capacidades promissoras. Mas, antes de embarcar nessa tendência, é essencial analisar os riscos de privacidade e sigilo de dados que acompanham o uso dessa tecnologia.
Privacidade em Risco?
Muitos modelos de IA utilizam dados de fontes públicas para treinamento, mas nem sempre há transparência sobre o que é coletado e como esses dados são armazenados. O DeepSeek, sendo um produto chinês, traz preocupações adicionais por estar sujeito às leis e diretrizes da China, o que impacta diretamente a privacidade dos usuários.
O Que Isso Significa na Prática?
1. Os dados coletados ficam armazenados na China.
Isso significa que qualquer empresa ou usuário que utilize o DeepSeek pode ter suas informações mantidas em servidores sob jurisdição chinesa.
2. As empresas responsáveis pelo DeepSeek são obrigadas a fornecer dados ao governo chinês caso seja exigido.
A legislação local permite que o Estado solicite acesso a informações armazenadas, independentemente da origem dos dados.
3. A política de privacidade do DeepSeek
A politica de privacidade deixa claro que os dados inseridos são utilizados para treinamento do modelo e podem ser compartilhados com terceiros para fins comerciais e outros usos.
4. Risco de Exposição de dados sensíveis
Dependendo do tipo de dado inserido, ele pode se tornar público por meio do aprendizado da IA generativa. Como esses modelos armazenam padrões de texto e podem gerar respostas baseadas em informações ingeridas anteriormente, há o risco de que conteúdos sensíveis sejam compartilhados inadvertidamente com outros usuários da plataforma.
5. Influência do Governo Chinês na Proteção de Dados
A PIPL (Lei de Privacidade e Proteção de Dados da China) se assemelha à LGPD e à GDPR, mas com forte influência do governo chinês. Enquanto outras legislações priorizam a proteção do usuário, a PIPL impõe que empresas garantam que seus dados não comprometam a segurança nacional, deixando margem para interpretações.
Possíveis Problemas
- Ausência de garantias sobre retenção e uso dos dados: Não há clareza sobre como as informações são armazenadas e se podem ser utilizadas para treinar futuros modelos sem consentimento.
- Desafios para compliance: Empresas que seguem normas como LGPD, GDPR ou CCPA podem enfrentar conflitos regulatórios ao permitir que dados estratégicos sejam processados sob leis chinesas.
- Risco de vazamento ou acesso por terceiros: Se informações sensíveis forem inseridas sem controles, há o perigo de exposição involuntária.
O Que Fazer Para se Proteger?
- Evite inserir dados sigilosos ou confidenciais em qualquer IA generativa.
- Opte por plataformas que operem no território brasileiro ou estejam sujeitas à LGPD. Isso garante que a empresa tenha controle total sobre segurança e conformidade, além de estar protegida por leis locais que impedem acessos não autorizados.
- Implemente políticas internas sobre o uso de IA generativa. As empresas devem definir regras claras sobre quais dados podem ou não ser utilizados nessas ferramentas, garantindo conformidade e segurança.
- Considere bloquear o acesso a IAs públicas caso não seja possível garantir o sigilo das informações. Isso pode ser feito por meio de firewalls e ferramentas de web filtering, que permitem restringir o uso dessas plataformas dentro do ambiente corporativo.
Conclusão
O DeepSeek pode ser uma ferramenta poderosa, mas sua ligação direta com o governo chinês e suas políticas de privacidade levantam preocupações, assim como já ocorre com outras plataformas. Antes de adotar qualquer IA generativa, é essencial entender onde os dados serão armazenados, sob quais leis estarão protegidos e se a confidencialidade da informação pode realmente ser garantida. Além disso, o treinamento e a conscientização dos usuários e operadores da IA são fundamentais, pois eles são a principal interface entre os dados e as plataformas de IA generativa. Sem diretrizes e boas práticas bem estabelecidas, o risco de exposição indevida de informações cresce significativamente.
Parcerias com empresas como a Penso permitem que organizações tomem decisões informadas, garantindo segurança, conformidade e estratégias eficazes para a inovação tecnológica. Com uma trajetória sólida e um portfólio abrangente de soluções, a Penso está preparada para auxiliar sua empresa na navegação pelo complexo cenário da tecnologia da informação.