Notícia nº 57

Proteção de Dados na Inteligência Artificial ganha protagonismo em 2025

Relatório da IBM aponta que violações envolvendo IA elevaram custos médios em mais de US$ 670 mil, reforçando a importância de governança e conformidade regulatória.

O uso de ferramentas de inteligência artificial vem crescendo de forma acelerada nas empresas, muitas vezes sem supervisão adequada das áreas de TI. Esse fenômeno, conhecido como shadow AI, tem exposto organizações a riscos significativos de segurança e privacidade.

Segundo o Relatório IBM de 202520% dos vazamentos de dados registrados no ano foram causados pelo uso não supervisionado de IA por funcionários, o que elevou os prejuízos médios em mais de US$ 670 mil por incidente. Além disso, 13% das violações envolveram modelos legítimos de IA — utilizados via APIs ou plug-ins —, resultando em comprometimento de dados em 60% dos casos e em interrupções operacionais em 31%.

Especialistas reforçam que a proteção de dados precisa ser incorporada desde a concepção dos sistemas de IA, e não como um processo adicional. “Nossa empresa assume princípios de governança, desde políticas internas até o consentimento dos usuários”, destaca Giovanni La Porta, CEO da Vortice.ai.

No Brasil, a Autoridade Nacional de Proteção de Dados (ANPD) tem atuado de forma mais rigorosa para assegurar a conformidade regulatória. Exemplo disso foi a suspensão da política de privacidade da Meta, que previa o uso de dados pessoais para treinar modelos de IA, sob pena de multa diária de R$ 50 mil em caso de descumprimento.

Lei Geral de Proteção de Dados (LGPD) é peça fundamental nesse processo, garantindo princípios como finalidade, adequação, transparência e segurança, além de assegurar aos titulares direitos como acesso, correção, portabilidade e exclusão de informações. Complementarmente, o Projeto de Lei 2.338/2023, que propõe o marco legal da IA no Brasil, reforça a necessidade de desenvolvimento tecnológico pautado por ética, segurança e transparência.

Empresas de tecnologia também avançam com soluções voltadas à rastreabilidade e confiabilidade. A ferramenta Deep Reflection, por exemplo, assegura rastreamento integral dos dados e autenticidade das informações, oferecendo ao usuário total controle sobre a criação, edição ou exclusão de seus conteúdos digitais.

Com a expansão da IA no Brasil e no mundo, o desafio está em equilibrar inovação e responsabilidade. Adotar políticas claras, tecnologias confiáveis e conformidade legal é o caminho para garantir a proteção de dados e fortalecer a confiança de usuários e organizações.

Entre os executivos brasileiros que adotaram IA generativa93% afirmaram ter obtido retorno positivo em pelo menos um caso de uso, especialmente em áreas como produtividade individual (74%)marketing e vendas (73%) e atendimento ao cliente (72%).

Outro dado relevante é que quase metade dos líderes (43% no Brasil e 48% na América Latina) se declarou disposta a realocar verbas de outras áreas para ampliar investimentos em IA, confirmando a prioridade estratégica da tecnologia nos próximos anos. Além disso, os entrevistados estimam que metade ou mais do orçamento de IA futuro será destinado a agentes inteligentes, consolidando o papel dessas soluções na transformação digital.

De acordo com especialistas, os resultados reforçam que a IA deixou de ser uma promessa distante para se tornar uma ferramenta concreta de geração de valor. O estudo completo, intitulado The ROI of AI 2025, pode ser acessado no site oficial do Google Cloud.

CONTATO

Email: contato@iima.com.br | Telefone: (11) 3392-4111

Endereço: Rua do Bosque, 1589 – Conjs. 809 e 810
Barra Funda - São Paulo/SP | CEP 01136-001

SiteLock