atualizado
A regulação da inteligência artificial no Brasil está em uma fase decisiva. Em tramitação na Câmara após aprovação inicial no Senado, o Projeto de Lei nº 2.338/2023 coloca o país diante do desafio de construir um marco regulatório capaz de proteger direitos sem prejudicar a inovação. O tema foi debatido na terça-feira (24) no segundo talk do ciclo “Para onde vai a regulação da IA?”, promovido pelo Metrópoles em parceria com a OpenAI.
Participaram do talk, mediado pela jornalista do Metrópoles Vanessa Oliveira, o senador Eduardo Gomes (PL-TO), relator do projeto no Senado; a chefe de gabinete da Secretaria de Comunicação Social da Presidência da República (Secom/PR), Samara Castro; e o professor da Faculdade de Direito da USP Juliano Maranhão.

Proteção, desenvolvimento e entrega
Entre os especialistas, houve convergência quanto à necessidade de regular a IA. O ponto que entrou em maior debate foi o grau de intervenção, uma vez que uma lei excessivamente rígida pode desestimular inovação e investimentos, enquanto uma regulação branda pode deixar lacunas na proteção de direitos.
Para o professor de Direito da USP Juliano Maranhão, o texto aprovado no Senado avançou ao adotar uma abordagem baseada em riscos e ao prever instrumentos de autorregulação e certificação privada.
“O desafio é encontrar uma solução sobre como comprometer os agentes com as melhores práticas de mitigação de riscos inerentes à tecnologia e, ao mesmo tempo, não comprometer a inovação”, afirmou.

Segundo ele, o desenho final da lei definirá o lugar do Brasil na economia digital. Pontos como classificação de risco e direitos autorais ainda exigem atenção especial, pois podem influenciar diretamente a capacidade do país de atrair investimentos e desenvolver tecnologia própria.
Equilíbrio institucional e ritmo legislativo
Do ponto de vista do Executivo, a avaliação é de que o Brasil tem tratado o tema com responsabilidade. “Estamos em um caminho de equilíbrio entre uma regulação justa, responsável e que estimule a inovação”, afirmou Samara Castro, chefe de gabinete da Secom da Presidência.
Ela destacou a necessidade de separar os papéis institucionais relacionados ao tema: ao Legislativo cabe definir o marco regulatório; ao Judiciário, interpretar e solucionar conflitos; e ao Executivo, formular políticas públicas e organizar um ambiente favorável à inovação.
Para o senador Eduardo Gomes, relator do PL no Senado, a regulamentação depende de um esforço conjunto entre os Poderes. Ainda assim, reconheceu que há um “delay” entre o ritmo da inovação tecnológica e a capacidade do Legislativo de responder às demandas da sociedade. “O debate tem sido feito sem viés ideológico. O que nos une é a defesa dos direitos do cidadão, a garantia de investimento e inovação e a relação da IA com a vida humana”, afirmou.
O parlamentar acredita que o texto voltará ao Senado com modificações, mas espera que isso não signifique atraso em sua aprovação. “Queremos fazer uma coisa ajustada. Temos um exemplo recente, como o caso da União Europeia. Todo mundo que tentou regular muito rápido, teve que revisar muito rápido.”
O ponto sensível: direitos autorais
O debate sobre inteligência artificial ganha contornos mais desafiadores quando entra no campo dos direitos autorais. A discussão envolve o uso de obras protegidas no treinamento de sistemas e a eventual compensação financeira aos autores.
“Se existe uma obra protegida, ela precisa garantir essa proteção”, afirmou Samara Castro. “Não é razoável que a gente coloque à disposição obras jornalísticas, científicas e artísticas como insumo não remunerado, enquanto todos os outros insumos são pagos”, complementou.
Para a representante do Executivo, a solução passa por criar regras proporcionais ao porte e à finalidade de quem desenvolve a tecnologia. Samara ressaltou que o texto prevê exceções para startups, pequenas empresas e pesquisa acadêmica, e defendeu um acordo para chegar a um relatório equilibrado.
“Eu acho que o mais importante é, de fato, que a gente tenha um relatório na mesa para que a gente possa debater e negociar onde é que a gente consegue chegar para ser uma proposta equilibrada que viabilize a aprovação do texto, mas diante desses pressupostos que eu coloquei.”
Juliano Maranhão avalia que o impasse está na tentativa de aplicar à inteligência artificial um modelo tradicional de remuneração autoral. O modelo tradicional de direitos autorais exige autorização e pagamento individual por obra utilizada. Já os sistemas de IA são treinados com grandes volumes de dados ao mesmo tempo.
“Todos nós queremos a promoção da cultura e o incentivo produção cultural e artística de um lado, mas todos nós queremos também o desenvolvimento no Brasil. Esses dois objetivos só são incompatíveis se nós adotarmos o modelo de remuneração baseado em direitos autorais.”
Segundo ele, o modelo previsto no PL onera o desenvolvimento, e não o uso da tecnologia, além de aplicar uma lógica individualizada a um sistema que opera sobre o conjunto agregado das obras. “Isso traz uma incompatibilidade inerente, muito difícil de se resolver.”
Como alternativa, sugeriu a remuneração vinculada à receita gerada pelos sistemas, não por violação individual de direito autoral, mas pelo uso agregado das obras como insumo digital. “A ideia é remunerar os ativos que foram usados e que isso sirva de combustível para mais produção intelectual. Os sistemas de IA têm tempo de vida limitado se não contarem com mais insumos humanos.”
O senador Eduardo Gomes observou que grandes plataformas já remuneram direitos autorais, mas destacou a necessidade de diferenciar o uso inicial do conteúdo e o sucesso posterior das obras. “O problema é esclarecer o recurso de entrada no sistema e o êxito posterior da obra.”
Para ele, o foco não deve ser uma crítica às plataformas, mas a compreensão da dinâmica econômica dos conteúdos. “O que é preciso é entender é que há um recurso para inscrição, para rotular, para deixar circulando na rede a informação do jornalismo, da música, do cinema e tudo, e há uma consequência de audiência.”

Classificação de risco e regulação setorial
O modelo de classificação parte do princípio de que nem toda aplicação de IA representa o mesmo nível de ameaça. Por isso, organiza os sistemas em faixas de risco.
Para Juliano Maranhão, o modelo evita uma regulação uniforme e excessivamente rígida. Na sua avaliação, a lei deve estabelecer critérios gerais, enquanto o detalhamento técnico ficaria a cargo das agências reguladoras, responsáveis por adaptar as exigências às especificidades de cada setor.
“O PL acerta ao adotar uma abordagem baseada em riscos e ao permitir enforcement pelas agências reguladoras, o que traz mais flexibilidade”, afirmou.
Ele cita como exemplo o uso de IA na área médica para automatizar o preenchimento de formulários, tarefa que disse estar diretamente associada ao burnout de profissionais. Embora aplicações na saúde possam ser classificadas como de alto risco, o professor argumenta que o benefício pode superar o risco quando há governança adequada.
A discussão ocorre em paralelo ao Plano Brasileiro de Inteligência Artificial (PBIA), que estabelece diretrizes para fomentar pesquisa, inovação e competitividade. Para o país, é fundamental que a regulação e a política pública avancem de forma coordenada.
Samara afirmou que há equívocos sobre os eventuais problemas envolvendo a execução PBIA em função do modelo de classificação e que o texto possui caminhos para regulamentações complementares. “Ele é um texto flexível o suficiente para que aquilo que não vai ser regulado por lei possa ser regulado em outros processos, seja os de sandbox, seja os processos que já existem dentro das agências reguladoras setoriais.”

A próxima etapa
Em breve, a discussão técnica se converterá em decisão política. O texto que sair do Congresso não definirá apenas regras para a tecnologia, mas as condições sob as quais o Brasil disputará espaço na economia digital.
O ciclo de debates “Para onde vai a regulação da IA?” conta, ao todo, com três encontros. O primeiro discutiu a criação de uma IA brasileira adaptada à língua e à diversidade cultural do país. O próximo e último encontro está previsto para março.
Talk: Qual o caminho da regulação justa e responsável da IA?
Assista o vídeo completo:
Assista também o primeiro encontro do ciclo “Para onde vai a regulação da IA?”:

