Blog
- Home
- Governança Jurídica
- Sua Equipe Já Usa IA. Quem é Responsável Quando Ocorrer um Vazamento de Dados?
Sua Equipe Já Usa IA. Quem é Responsável Quando Ocorrer um Vazamento de Dados?
No dia a dia da sua empresa, neste exato momento, é provável que um colaborador esteja utilizando uma ferramenta de inteligência artificial (IA) para otimizar uma tarefa. Ele pode estar refinando um texto, analisando uma planilha ou gerando ideias para uma apresentação. A inovação é ágil e não espera por regulamentação.
Mas isso levanta uma questão urgente que muitos gestores ainda não responderam:
Quais informações da sua empresa estão sendo inseridas nessas plataformas? Dados estratégicos? Informações confidenciais de clientes?
A eficiência é bem-vinda, mas ela não pode vir às custas da segurança. A ausência de regras claras sobre o uso da IA é hoje um dos maiores e mais silenciosos riscos jurídicos para os negócios, com potencial para gerar passivos trabalhistas e graves violações à LGPD.
O Ponto Cego: A Inovação Sem Diretrizes
Muitos empresários acreditam que a responsabilidade por um vazamento de dados causado por IA é do colaborador que utilizou a ferramenta de forma inadequada. A realidade jurídica, contudo, é outra.
Sem uma política interna clara, que instrua, limite e estabeleça as regras para o uso dessas tecnologias, a empresa não pode, em regra, aplicar uma medida disciplinar (como uma justa causa) por um vazamento de dados. A responsabilidade primária de orientar, treinar e fiscalizar é da gestão.
Se a empresa não fornece diretrizes, ela assume tacitamente o risco da operação.
Gerenciamento: Risco Trabalhista e Risco de LGPD
Quando a gestão se omite, ela expõe a empresa a um risco duplo:
-
- O Passivo Trabalhista: A empresa perde a autoridade moral e legal para cobrar o colaborador. Na Justiça do Trabalho, a ausência de normas claras e treinamento comprovado sobre o que constitui um “dado sensível” ou “mau uso” torna a punição por um vazamento extremamente frágil, podendo ser revertida.
-
- A Violação da LGPD: Se dados de clientes ou funcionários (dados pessoais) são inseridos em uma plataforma externa de IA sem o devido tratamento ou consentimento, a empresa (na figura de Controladora) está violando diretamente a Lei Geral de Proteção de Dados, ficando sujeita a multas e sanções.
A Solução é Governança, Não Proibição
Nosso papel, como advogados, não é proibir o uso da tecnologia, mas sim criar um ambiente seguro para que ela possa ser utilizada em favor do negócio. A inovação precisa de governança.
O caminho para isso é a advocacia preventiva, que se estrutura em três pilares:
-
- Diagnóstico e Mapeamento de Risco: Analisamos quais ferramentas estão sendo usadas e quais dados estão em risco.
-
- Política de IA e Revisão Contratual: Desenvolvemos uma política interna clara sobre o uso da IA. Mais do que isso, analisamos a necessidade de aditivos aos contratos de trabalho, formalizando as obrigações de sigilo e as consequências do descumprimento.
-
- Treinamento e Conformidade: Orientamos as equipes sobre as novas regras. Apenas ter a regra não basta; é preciso garantir que ela foi comunicada de forma inequívoca.
A Responsabilidade Protege o Negócio
A inteligência artificial é uma ferramenta poderosa, mas, como toda ferramenta, seu resultado depende de quem a opera e das regras estabelecidas.
Empresas que se antecipam e estruturam uma governança jurídica para a IA não estão apenas evitando custos futuros com multas e processos. Elas estão protegendo seus ativos mais valiosos: seus dados estratégicos, a confiança de seus clientes e a segurança de sua própria equipe.
Na Advocacia Lopes & Borghi, atuamos para que a sua empresa possa inovar com eficiência e, acima de tudo, com responsabilidade.

