Inteligência artificial avança no Brasil, mas falta debate sobre segurança e privacidade

Projeto aprovado pela Câmara e enviado ao Senado regulamenta uso da tecnologia. Especialistas apontam necessidade de reflexão sobre riscos

atualizado 14/10/2021 15:27

Photographer is my life./Getty Images

A Câmara dos Deputados aprovou, na última semana, o projeto de lei que regulamenta o uso da inteligência artificial (IA). A proposta ainda precisa passar pela análise do Senado Federal para ser enviada a sanção.

O objetivo do texto é estabelecer uma base legal que viabilize a inovação e os investimentos na tecnologia.

Atualmente, o Brasil está na 38ª posição entre 62 países no Global Al Index, índice mundial elaborado pela área de Inteligência da Tortoise Media para avaliar os níveis de investimento, inovação e implementação de inteligência artificial. Os Estados Unidos ocupam o 1° lugar. Em seguida, aparecem China, Reino Unido, Canadá e Coreia do Sul.

Os rumos da inteligência artificial trazem à tona um debate inicial, mas polêmico. Com várias possibilidades de uso e evolução, o ser humano ainda busca respostas para algumas perguntas: qual o limite dessa tecnologia? Ela representa algum risco? E, se sim, como a sociedade pode se proteger?

O que é uma inteligência artificial

Apesar de já ser realidade em outros países, a discussão sobre IA ainda está distante da rotina dos brasileiros. Dessa forma, é preciso saber como funciona uma inteligência artificial para entender como essa tecnologia afeta nossa vida.

A IA é o desenvolvimento de sistemas de computador para realizar tarefas que normalmente precisariam da inteligência humana, como a aprendizagem e a tomada de decisões. Carros com piloto automático e até mesmo assistentes virtuais, como Alexa, Cortana, Siri, Google Now e Tina, estão ganhando cada vez mais espaço no mercado.

Os algoritmos também estão em lojas on-line, no controle de estoques de empresas, em ferramentas de reconhecimento facial e sistemas de prevenção de fraudes e análise de padrões de comportamento de consumidores.

Depois da publicação deste texto, o Google enviou nota para a reportagem sobre o uso da inteligência artificial nos seus produtos.

A gerente de Gerente de Políticas Públicas do Google Brasil, Karen Duque, afirmou que a empresa sempre priorizou “a importância de compreender as implicações sociais e desenvolver as tecnologias de modo positivo para todo”.

O uso diário dessas tecnologias, no entanto, acendeu uma preocupação e motivou a busca pela regulamentação da inteligência artificial. Especialistas ouvidos pelo Metrópoles apontam a necessidade de se definir limites sobre uso e compartilhamento de informações pessoais armazenadas por esses dispositivos. O projeto aprovado pela Câmara, que ainda precisa passar pelo Senado, é a primeira tentativa brasileira de cumprir essa etapa.

A deputada federal Luisa Canziani (PTB-PR), relatora da proposta, afirma que o essencial é criar uma legislação que permita a inovação, o surgimento de novos players e que garanta segurança e transparência ao consumidor.

A parlamentar petebista ressalta que uma das preocupações é aprovar um projeto de regulamentação que não engesse a tecnologia.

Relações de consumo

A proposta da deputada prevê que tanto pessoas físicas quanto empresas que utilizarem inteligência artificial poderão ser responsabilizadas na Justiça por eventuais danos causados a terceiros, mesmo que o ato tenha sido praticado sem dolo (sem intenção).

Além disso, determina que a administração pública poderá, em casos concretos de alto risco, solicitar informações sobre as medidas de segurança e prevenção tomadas para conter eventuais erros ou mau funcionamento da inteligência artificial.

O acesso a esses dados, no entanto, deve respeitar os segredos comerciais e industriais, sem desconsiderar os termos e limites de transparência estabelecidos pelo projeto.

Outro lado da IA

Nina da Hora, especialista em IA, afirma que a complexidade do tema torna mais difícil o debate da população em torno dessas questões.

“O Brasil ainda está, sim, em um debate inicial sobre o tema da regulamentação de inteligência artificial, sobretudo sobre as questões éticas da implementação desses sistemas em áreas e situações do nosso dia a dia, em que o contexto não está bem claro. Uma das maneiras de a gente começar a construir esse caminho de forma um pouco mais acessível e aberta é envolver mais a sociedade nos debates e nas tomadas de decisão”, frisa.

Nina afirma que também é necessário que esse entendimento comece na educação básica, para que jovens e crianças consigam compreender o uso dessa tecnologia no cotidiano e que ela não trará somente benefícios. “Elas precisam olhar criticamente para essa área. Não adianta a gente investir no debate e no diálogo se a gente não investir em educação”, reitera.

O outro caminho que a especialista declara ser importante é entender melhor o que são essas iniciativas privadas junto com as iniciativas governamentais que envolvem o uso da inteligência artificial sem consultar as pessoas que estão sendo impactadas por essa tecnologia.

Por isso mesmo, o advogado e especialista Homonnai Júnior chama atenção para pontos de maior profundidade que precisam ser discutidos. Ele lembra que a IA “ensina” máquinas a tomar decisões baseadas em volume de dados e velocidade acima do imaginado por um ser humano.

“Mas, à medida que os sistemas se tornam mais sofisticados, eles podem incorporar os preconceitos sociais resultantes da análise desses dados e das decisões que resultarão dela”, argumenta.

E os limites não param para o uso dessa tecnologia: carros sem motorista, seleção por concurso público, julgamentos pelo Poder Judiciário, atividades policiais. Até por isso, é fundamental se discutir mais.

“Espera-se que o Senado aprofunde as discussões e aperfeiçoe a proposta da Câmara para deixar bem claros os limites do uso dessa tecnologia magnífica, assim como está fazendo a União Europeia, garantindo o progresso da ciência dentro de limites éticos”, aponta Homonnai Júnior.

Reconhecimento facial

Nina da Hora cita também um dos principais exemplos de inteligência artificial que temos atualmente: o reconhecimento facial. Essa tecnologia é constantemente alvo de críticas, pois costuma não reconhecer com exatidão os rostos de pessoas negras, ao contrário dos de pessoas brancas, que são identificados com mais facilidade.

O Massachusetts Institute of Technology School of Architecture + Planning fez um estudo focado exatamente nesse ponto. O Gender Shades analisa a capacidade de sistemas digitais classificarem ao menos 1.000 rostos nas categorias homem branco, mulher branca, homem negro e mulher negra.

O resultado mostrou uma discrepância de 34% na capacidade da tecnologia em identificar homens brancos e mulheres negras.

“Corremos o risco de perder avanços feitos nos movimentos de direitos civis e nos movimentos de diretos das mulheres sob a falsa impressão de neutralidade das máquinas”, pontuam os responsáveis pelo projeto. “Sistemas automatizados não são neutros. Eles refletem prioridades, preferências e preconceitos – o olhar codificado – daqueles que têm o poder de moldar a inteligência artificial.”

Para Nina, o problema é mais gritante no Brasil, onde o debate ainda é incipiente. “A dificuldade do debate racial em chegar a outras áreas, que não sejam só as áreas de ciências sociais, faz com que as pessoas não entendam que o racismo é estrutural. E, se ele é estrutural, vai estar em todas as áreas, condutas e tomadas de decisões que são feitas. O problema é que ninguém gosta de ser chamado de racista”, explica.

E ainda completa: “No universo tecnológico, estão tentando recriar a ideia do que pode ser chamado de racismo a partir da tecnologia. E isso, para mim, soa muito absurdo. Isso é muito próximo do que as elites tecnológicas querem fazer para se isentarem da responsabilidade: elas bloqueiam a transparência para determinar o que é racismo ou não. Por exemplo, nas redes sociais, quando a gente denuncia conteúdos racistas, muitas vezes eles não são retirados do ar. A visão que eles têm é do que eles acreditam ser racismo e não do que realmente é racismo na sociedade”.

Karen Duque diz que o Google compartilha “do objetivo comum de construirmos confiança na IA por meio de inovação responsável e regulações equilibradas e bem desenhadas, para que os cidadãos brasileiros possam desfrutar com segurança de todos os benefícios sociais e econômicos da IA”.

Últimas notícias