Inteligência Artificial: um assunto fundamental para os profissionais de segurança da informação e de privacidade

A inteligência artificial (IA) é uma das tecnologias mais transformadoras do nosso tempo. Sua capacidade de automatizar processos, identificar padrões e tomar decisões com base em dados tem impactado diversos setores, como saúde, finanças e educação. Na verdade, podemos dizer que a sociedade como um todo é impactada pela IA. Por isso, a compreensão dessa tecnologia é fundamental para os profissionais da atualidade.

Toda tecnologia apresenta uma ambiguidade quanto aos seus efeitos sobre as pessoas e a sociedade, trazendo, portanto, benefícios e prejuízos decorrentes da sua utilização. A inteligência artificial, por ser uma tecnologia de propósito geral – isto é, uma tecnologia que afeta todas as demais – possui uma escala muito maior do que as outras, o que faz com que o conhecimento de como utilizá-la nas organizações de modo eficiente e responsável seja algo de extrema importância hoje em dia.

Segundo Russell e Norvig, a IA vai afetar todas as pessoas em suas vidas diárias como ocorreu com os telefones celulares e a Internet. Embora a IA ainda não tenha para o consumidor médio a visibilidade que essas outras tecnologias têm, sua utilização já é disseminada e afeta o cotidiano de grande parte da sociedade, como quando transações com cartão de crédito para compras feitas na Web são negadas ou aprovadas automaticamente.1

*1.

Essa disseminação por todos os setores econômicos e sociais da qual a IA é capaz já tem apresentado questões éticas e jurídicas como decisões automatizadas resultantes de algoritmos com vieses discriminatórios. Esse ponto não passou despercebido pela LGPD (Lei Geral de Proteção de Dados Pessoais), que estabelece em seu art. 20, § 2o a previsão de uma auditoria para verificação de aspectos discriminatórios em tratamento automatizado de dados pessoais.

As repercussões da IA para a segurança da informação e a privacidade são enormes. Como explica Verbeek2, as tecnologias de informação e comunicação (TICs)

“estão começando a se fundir cada vez mais complexamente com nosso ambiente físico. Paredes, camas, portas, carros – muitos objetos do cotidiano estão sendo equipados com formas de computação onipresente ou inteligência ambiental (…). Os objetos do nosso ambiente, em outras palavras, estão se tornando inteligentes. Camas de hospital podem detectar se os pacientes caem ou saem dela. Portas em casas geriátricas podem determinar quem pode sair e quem não pode. Os carros estão assumindo cada vez mais tarefas que antes eram reservadas aos seres humanos, como estacionar em faixas, fazer paradas de emergência e recusar-se a mudar de faixa, se for muito perigoso fazê-lo”.

Com o crescente volume de dados gerados diariamente, a proteção das informações se torna uma questão cada vez mais importante. Neste ponto, ao mesmo tempo em que a IA aumenta o problema, ela também nos oferece um auxílio significativo para lidar com ele.

A IA pode, por exemplo, ser usada para detectar possíveis ameaças e ataques cibernéticos, analisando padrões de uso da rede e identificando comportamentos suspeitos que possam indicar uma tentativa de invasão. Ela também pode ser usada para proteger a privacidade dos dados pessoais dos usuários na anonimização de dados ou na identificação e classificação de informações sensíveis.

No entanto, para aproveitar plenamente os benefícios da IA, os profissionais precisam ter um bom entendimento de como a tecnologia funciona e de como ela pode ser aplicada nas diferentes organizações. Isso inclui conhecimentos básicos sobre algoritmos de machine learning e sobre os diferentes ramos da inteligência artificial, entre outras habilidades.

Além disso, os profissionais também precisam ter uma compreensão das implicações éticas e jurídicas da IA. Sistemas de IA generativa como o ChatGPT, o Synthesia ou o Midjourney são ferramentas muito úteis para uma série de tarefas, mas também podem trazer problemas como desinformação e tratamento discriminatório que podem afetar muitas pessoas.

Recentemente, usuários de um chatbot de companhia chamado Replika notaram que ele havia parado de responder a frases de cunho sexual. Isso levou algumas pessoas ao pânico, fazendo com que os responsáveis pelo Replika postassem recursos de prevenção ao suicídio.3

Casos como este mostram como uma avaliação ética da IA é necessária. Um sistema de IA desenvolvido e comercializado sem este cuidado traz um risco muito maior para a segurança dos usuários, assim como o risco de prejuízo econômico e reputacional para a empresa responsável por ele.

Assim, os profissionais que utilizam ou pretendem utilizar a IA precisam entender que riscos essa tecnologia pode trazer para suas organizações e como administrá-los, garantindo uma utilização sustentável dessa tecnologia, pois, embora ainda não haja uma lei específica sobre ela, o ordenamento jurídico existente permite que o uso inadequado da IA leve a indenizações. Além disso, há também o risco de dano reputacional que pode ser o pior tipo de dano.

Em resumo, a IA está se tornando cada vez mais importante nos dias atuais, e a compreensão da tecnologia é fundamental para os profissionais que desejam se manter relevantes em suas áreas de atuação. A IA está conectada a várias áreas, incluindo a segurança da informação e a privacidade. Com o conhecimento adequado, os profissionais podem usar a IA para melhorar processos, gerar insights valiosos e garantir a segurança e a proteção dos dados, ao mesmo tempo em que conseguem diminuir consideravelmente eventuais riscos que essa tecnologia pode trazer.

1 RUSSELL, Stuart; NORVIG, Peter. Artificial Intelligence: a modern approach. Essex: Pearson Education Limited, 2016.

2 VERBEEK, Peter-Paul. Designing the Public Sphere: Information Technologies and the Politics of Mediation. In: FLORIDI, Luciano (ed.). The Onlife Manifesto: Being Human in a Hyperconnected Era. Springer International Publishing, 2015.

3 XIANG, Chloe. Bing Is Not Sentient, Does Not Have Feelings, Is Not Alive, and Does Not Want to Be Alive. Vice, 2023. Disponível em: https://www.vice.com/en/article/k7bmmx/bing-ai-chatbot- meltdown-sentience.

André Gualtieri

Doutor em Filosofia do Direito pela PUC-SP. Eticista de inteligência artificial. Advogado. Co- fundador e CEO da Technoethics – Escola de Ética da Tecnologia. Professor convidado na Pós-Graduação em Direito Digital e na Pós-Graduação em Proteção de Dados e Compliance Digital na Universidade Mackenzie-SP. Membro da Comissão de Ética, Governança e Privacidade de Dados e Coordenador da Comissão de IA na Educação da International Association of Artificial Intelligence (I2AI). Membro da ForHumanity, comunidade internacional para confiabilidade da IA e sistemas autônomos. Coordenador de pesquisa do Grupo Ethics4AI (Mackenzie e IDP).

Nuria López

Doutora em Teoria e Filosofia do Direito pela Pontifícia Universidade Católica de São Paulo. Head da área de Tecnologia, Privacidade e Proteção de Dados da Daniel Advogados. Co- fundadora da Technoethics. Professora convidada na pós-graduação de Direito Digital da Universidade Mackenzie.

A Technoethics é uma parceira oficial de treinamentos EXIN e credenciada para o curso de Inteligência Artificial. Conheça a Ementa e o Simulado.

*1 – https://www.peoplematters.in/article/technology/impact-of-artificial-intelligence-on-strategic-hr-decision-making-17935.