A Inteligência Artificial está moldando o futuro dos negócios, enquanto enfrenta desafios de segurança e privacidade. Este artigo oferece insights sobre regulamentações, práticas éticas e soluções para aproveitar ao máximo a IA de forma responsável.
*Leandro Zilli
VISÃO GERAL
A Inteligência Artificial é uma das tecnologias emergentes mais impactantes inseridas no nosso dia a dia. Veja que ela é presente em diversas áreas, com maior destaque nos setores de Marketing e Vendas, assim como os assistentes presentes nos smartphones como a Siri (Apple), Alexa (Amazon), Cortana (Microsoft) e o Google Assistente (Google).
Conforme a Inteligência Artificial evolui, fica evidente a sua capacidade de utilização e como ela permite que sistemas complexos sejam presentes e capazes de apoiar em diversas áreas no que tange a automação de processos e tomadas de decisão.
Fica evidente que quando se trata de Inteligência Artificial, existe uma relação próxima do uso de dados (pessoais ou não) em grandes quantidades, visto que é uma prática comum e base essencial quanto ao treinamento, aperfeiçoamento e evolução desta ferramenta.
Sendo assim é indispensável a compreensão quanto a sua utilização e a devida preocupação com questões de segurança e privacidade.
AÇÕES PARA MITIGAR RISCOS
Devido à grande adesão e como já mencionado, integração no dia a dia das pessoas e das empresas, questões que remetem a regulação da Inteligência Artificial já são presentes em todo o mundo.
Aqui no Brasil, por exemplo, temos iniciativas como o Marco Legal da Inteligência Artificial (PL 2338/2023) que segundo o art. 1 “Esta Lei estabelece normas gerais de caráter nacional para o desenvolvimento, implementação e uso responsável de sistemas de inteligência artificial (IA) no Brasil, com o objetivo de proteger os direitos fundamentais e garantir a implementação de sistemas seguros e confiáveis, em benefício da pessoa humana, do regime democrático e do desenvolvimento científico e tecnológico” e iniciativas da ANPD como o “Projeto Piloto de Sandbox de Inteligência Artificial e Proteção de Dados” que é uma iniciativa de colaboração entre reguladores, entidades reguladas e demais partes interessadas, objetivando o teste de inovações regulatórias em um espaço controlado através de metodologias estruturadas. Esta iniciativa da ANPD foi mencionada como uma iniciativa exemplar no Relatório de Governança de Inteligência Artificial publicado pelo Fórum Econômico Mundial.
Nesse contexto fica evidente que em um projeto de Inteligência Artificial questões de Segurança da Informação, Avaliação de Riscos e Privacidade de Dados devem ser considerados em todas as etapas.
A Segurança da Informação irá contribuir definindo controles a serem implementados, sendo um processo em conjunto com a Avaliação de Riscos. Quanto a Privacidade de Dados, a adoção do privacy by design servirá como uma estratégia fundamental na análise de riscos e considerações quanto a privacidade dos titulares dos dados. Estes 3 componentes irão atuar em todo o ciclo de vida: desenvolvimento, implantação e melhoria contínua da Inteligência Artificial.
Toda organização que deseja implementar soluções de Inteligência Artificial de forma consciente e que deseja mitigar qualquer tipo de risco que possa comprometer sua reputação e principalmente o relacionamento com clientes e parceiros, deve levar em consideração essa “tríade” citada acima.
Veja mais: Safeway LGPD Quick Assessment
O Encarregado de Proteção de Dados (DPO) e o CISO ou responsável pela Segurança da Informação na organização, são entidades que devem fazer parte desse processo e atuar como parte fundamental quanto a aplicação de questões pertinentes as suas áreas como aos princípios de privacidade, entendimento do ambiente regulatório (além da LGPD, áreas da Saúde ou Sistema Financeiro, por exemplo) e aderência a normas ou frameworks de Segurança da Informação, promovendo a correta aplicação dos controles e a estruturação da governança de dados na implementação da Inteligência Artificial.
Uma atividade que irá colaborar em todos os sentidos quanto a este tema é o RIPD (Relatório de Impacto a Privacidade de Dados), que conforme citado no Artigo 5º, XVII da LGPD (Lei Geral de Proteção de Dados Pessoais – lei nº 13.709, de 14 de agosto de 2018) é definido como “documentação do controlador que contém a descrição dos processos de tratamento de dados pessoais que podem gerar riscos às liberdades civis e aos direitos fundamentais, bem como medidas, salvaguardas e mecanismos de mitigação de risco”, não sendo obrigatória a sua execução em cada operação de tratamento de dados pessoais, podendo ser exigido pela ANPD caso indicado como legítimo interesse o tratamento de dados pessoais, mas mesmo assim servirá como ponto relevante quanto a questões de privacidade.
Como dito, questões de Segurança da Informação devem ser consideradas. As pessoas envolvidas no processo devem estar devidamente capacitadas não somente a questões relevantes ao desenvolvimento da Inteligência Artificial, mas também de Segurança da Informação. Devem existir políticas de Segurança da Informação claras e bem implementadas, além do monitoramento proativo, programa de gestão de riscos considerando questões de vulnerabilidades e incidentes, entre outras iniciativas.
Veja mais: CSHC – CyberSecurity Health Check
CONCLUSÃO
De fato, a Inteligência Artificial promove diversos benefícios, porém é importante avaliar questões quanto a sua utilização e principalmente, quais atividades que a organização irá implementar antes e durante a sua utilização.
Questões de Privacidade e Segurança de Dados devem sempre estar presentes para que a Inteligência Artificial seja uma ferramenta que agrega valor as organizações, aos seus clientes e parceiros, onde acima de tudo, implementada e utilizada de forma ética, segura e aderente a questões de regulatórias.
*Leandro Zilli é consultor de GRC na Safeway.
Fontes: