PLANO BRASILEIRO DE INTELIGÊNCIA ARTIFICIAL 2024–2028: UM OLHAR JURÍDICO SOBRE O DESENVOLVIMENTO DA IA PARA O BEM DE TODOS
O Brasil ingressa definitivamente na era da inteligência artificial com a publicação do Plano Brasileiro de Inteligência Artificial 2024–2028, batizado de “IA para o Bem de Todos”, acompanhado de um robusto relatório técnico elaborado pelo CGEE. Trata-se de um projeto interministerial que articula desenvolvimento tecnológico, soberania digital, proteção de dados, inclusão social e sustentabilidade, com previsão de R$ 23 bilhões em investimentos públicos e privados.
Sob a ótica jurídica, o plano é um marco estratégico que exige análise crítica. Mais que um projeto técnico, trata-se de uma declaração de intenções normativas que sinaliza os rumos da regulação brasileira sobre IA — ainda sem um marco legal consolidado.
PRINCÍPIOS JURÍDICO-REGULATÓRIOS DO PLANO
O documento explicita dez princípios orientadores, muitos dos quais têm lastro constitucional ou dialogam com normas em vigor como a LGPD, o Marco Civil da Internet, a Lei de Acesso à Informação, e tratados internacionais de direitos humanos e de governança digital.
Destacam-se:
- Centralidade no bem-estar social e nos direitos humanos;
- Geração de capacidades nacionais e soberania tecnológica, com ênfase na produção de infraestrutura crítica (dados, chips, supercomputadores e LLMs nacionais);
- Valorização da diversidade cultural e inclusão social, conforme o art. 215 da CF e compromissos internacionais como a Agenda 2030 da ONU;
- Ética e responsabilidade como imperativos regulatórios, ecoando o art. 6º da LGPD;
- Governança participativa, com envolvimento de academia, setor privado e sociedade civil na definição e controle das políticas públicas de IA .
Esses princípios são desdobrados em diretrizes técnicas e programáticas distribuídas nos cinco eixos do plano.
OS CINCO EIXOS ESTRATÉGICOS DO PLANO: FUNDAMENTOS, AÇÕES E DESDOBRAMENTOS JURÍDICOS
O Plano “IA para o Bem de Todos” está estruturado em cinco eixos estratégicos, que articulam ações programáticas, investimentos públicos e metas de longo prazo. Cada eixo possui relevância jurídica própria, seja pelo uso de dados pessoais e sensíveis, pela prestação de serviços públicos com apoio algorítmico ou pela necessidade de criar marcos regulatórios e instrumentos de governança compatíveis com o Estado Democrático de Direito.
Eixo 1 – Infraestrutura e Desenvolvimento de Soluções em IA
Esse eixo tem por objetivo garantir a capacidade nacional de pesquisa, desenvolvimento e operação de soluções de IA, por meio de:
- Construção de um supercomputador nacional entre os 5 mais potentes do mundo;
- Desenvolvimento de chips especializados para IA com arquitetura aberta e foco em sustentabilidade;
- Criação de modelos de linguagem de grande porte (LLMs) em português, treinados com dados públicos e estruturados;
- Estímulo a soluções de IA verde, com consumo energético eficiente e menor impacto ambiental;
- Apoio à pesquisa aplicada e básica, com foco em IA explicável, auditável e confiável.
Eixo 2 – Formação, Capacitação e Difusão de Conhecimento em IA
Aqui o foco é garantir que o capital humano brasileiro esteja apto a operar, supervisionar e criar soluções de IA, com ações como:
- Lançamento da Olimpíada Brasileira de Inteligência Artificial;
- Criação de cursos técnicos, graduação e pós-graduação com ênfase em IA;
- Concessão de bolsas de estudo e intercâmbio internacional (CAPES/CNPq);
- Fomento à requalificação de trabalhadores impactados pela automação;
- Campanhas de comunicação pública para reduzir assimetrias digitais e desigualdade de acesso.
Eixo 3 – Promoção de IA para o Interesse Público
Este eixo visa aplicar IA diretamente na melhoria de políticas públicas e serviços governamentais, por meio de:
- Criação da Plataforma de IA do Governo Federal, com soluções interoperáveis para os órgãos públicos;
- Modernização dos serviços em áreas como saúde, educação, meio ambiente e previdência;
- Implantação de sistemas preditivos para combate à evasão escolar, prevenção de doenças e fraudes administrativas;
- Estruturação da Infraestrutura Nacional de Dados Públicos, incluindo nuvem soberana e padrões de governança;
- Capacitação de mais de 115 mil servidores públicos federais em temas relacionados à IA.
Eixo 4 – Promoção de Inovação e Atividade Econômica em IA
Com foco em estimular o ecossistema empresarial e tecnológico, o plano prevê:
- Apoio a startups, pequenas e médias empresas (MPEs) com soluções em IA;
- Implantação de datacenters sustentáveis nas regiões Norte e Nordeste;
- Criação de programas como o RHAE-IA, para atração e retenção de talentos tecnológicos;
- Fomento a tecnologias de IA aplicadas à Nova Indústria Brasil (NIB);
- Estímulo à industrialização de soluções fundacionais com base em tecnologias locais.
Eixo 5 – Governança, Direitos e Regulação da IA
O último eixo trata da criação e aprimoramento do arcabouço jurídico-institucional necessário ao uso ético e confiável da IA, incluindo:
- Desenvolvimento de instrumentos regulatórios proporcionais ao risco;
- Incentivo à produção de selos, certificações e guias de IA confiável;
- Apoio a políticas de governança algorítmica e regulação multissetorial;
- Atuação conjunta com a ANPD, Congresso Nacional e sociedade civil;
- Promoção da transparência, auditabilidade e responsabilização dos sistemas de IA.
Este é, sem dúvida, o eixo de maior densidade normativa, pois envolve temas como direito à explicação, avaliação de impacto algorítmico, uso justo de dados protegidos, discriminação algorítmica, responsabilidade civil por danos causados por IA e o futuro da regulação digital no país.
TRANSFORMAÇÕES SETORIAIS COM IMPACTOS JURÍDICOS: SAÚDE, EDUCAÇÃO, AGRO E O SETOR PÚBLICO
O Plano Brasileiro de Inteligência Artificial 2024–2028 (PBIA) propõe transformações concretas e imediatas em setores essenciais à cidadania: saúde, educação e agropecuária, além da capacitação de servidores públicos para operar e supervisionar tecnologias de IA. Cada uma dessas frentes implica não apenas inovação tecnológica, mas também novos desafios legais, regulatórios e éticos.
Na Saúde
O uso de IA no Sistema Único de Saúde (SUS) é um dos pilares do plano, com propostas que incluem:
- Implementação de prontuário eletrônico com comandos de voz (prontuário falado);
- Aplicações de IA para diagnóstico precoce de câncer e AVC;
- Prevenção de fraudes em procedimentos de alto custo;
- Apoio à análise de dados em litígios judiciais da saúde e racionalização da judicialização de medicamentos.
Essas soluções exigem interpretação e aplicação rigorosa da LGPD, especialmente no tratamento de dados sensíveis (art. 11), além da revisão de normas de sigilo profissional e responsabilização civil por decisões clínicas assistidas por algoritmos.
Na Educação
O plano propõe:
- Sistemas de tutoria inteligente para matemática e leitura, com apoio à alfabetização e desempenho escolar;
- Monitoramento automatizado para prevenção de evasão escolar;
- Controle de frequência por reconhecimento de padrões de imagem e presença.
Do ponto de vista jurídico, essas iniciativas tocam direitos fundamentais como a igualdade de acesso à educação (art. 206 da CF) e demandam cuidado redobrado na coleta e tratamento de dados de crianças e adolescentes, conforme os arts. 14 e 15 da LGPD, além das diretrizes do Estatuto da Criança e do Adolescente.
No Agro
O PBIA prevê o uso de IA em diversas frentes do setor agropecuário, entre elas:
- ATER Digital (Assistência Técnica e Extensão Rural via inteligência artificial), com recomendações personalizadas a produtores;
- Cálculo automatizado de peso bovino com câmeras 3D, reduzindo custos e otimizando produtividade;
- Análise climática e de solo para antecipação de safras e mitigação de riscos ambientais.
As ferramentas envolvem dados georreferenciados, meteorológicos e ambientais, o que exige regulação clara sobre direitos de propriedade de dados, interoperabilidade de sistemas e licenciamento ético de modelos preditivos baseados em dados públicos e privados.
Capacitação de Servidores Públicos
Para garantir a adoção segura, ética e eficiente das tecnologias de IA no setor público, o plano prevê:
- Capacitação de mais de 115 mil servidores federais, com formação específica em ética, governança, regulação e uso da IA em serviços públicos;
- Criação de Plataformas de IA do Governo Federal para personalização de serviços, interoperabilidade de dados e aumento da eficiência estatal;
- Implantação de ferramentas com IA em fiscalização tributária, atendimento consular, compras públicas e controle ambiental.
Esse movimento exige a criação de protocolos de responsabilidade funcional e transparência algorítmica, sob pena de violações ao art. 37 da CF (princípios da legalidade, impessoalidade, moralidade e publicidade). A formação contínua também contribuirá para resiliência digital do Estado, prevenindo riscos sistêmicos e abusos administrativos.
LIMITAÇÕES JURÍDICAS E DESAFIOS REGULATÓRIOS
Apesar de seus méritos, o plano apresenta algumas lacunas críticas do ponto de vista normativo:
1. Ausência de Marco Legal Específico
Não há ainda um projeto de lei aprovado para a regulação da IA no Brasil, o principal avanço é o PL 2.338/2023, originário do Senado e aprovado em plenário em 10 de dezembro de 2024
Ele encontra-se atualmente em análise na Câmara dos Deputados, aguardando parecer em comissão especial composta por deputados indicados em maio de 2025. O PL institui um marco regulatório que classifica os sistemas de IA conforme seu grau de risco à vida e aos direitos fundamentais, incluindo tipos específicos como "IA generativa"
Ainda que alguns projetos conexos (como PL 21/2020 e PL 5.691/2019) tenham sido arquivados no Senado, foram apensados ao PL 2.338/23, que agora centraliza a pauta. A proposta também recebeu aporte técnico da ANPD, que defende a previsão expressa de Avaliação de Impacto Algorítmico para sistemas sensíveis, e tem contado com manifestações de apoio de entidades de proteção de direitos autorais. Após tramitação nas comissões da Câmara — que já estão em atividade — o texto retornará ao Senado como casa revisora, prevendo‑se ao menos mais duas fases até sua sanção presidencial.
2. Responsabilidade Civil e Risco Algorítmico
O plano reconhece os riscos da IA, mas não define um modelo jurídico de responsabilização por falhas, erros ou vieses em sistemas autônomos, tampouco obriga o uso de Avaliações de Impacto Algorítmico (AIA) em ambientes sensíveis.
3. Direitos Autorais e IA Generativa
Não há proposta clara sobre:
- Uso de obras protegidas por copyright no treinamento de modelos;
- Reconhecimento de autoria e licenciamento de conteúdo gerado por IA;
- Propriedade intelectual de algoritmos, bases de dados e modelos treinados com dados públicos.
4. Privacidade e Dados Sensíveis
Há menção à proteção de dados pessoais, mas sem detalhamento sobre limites para uso de dados de crianças, dados de saúde ou dados biométricos — o que se agrava com a promessa de integração massiva de bases públicas.
RECOMENDAÇÕES JURÍDICAS E CAMINHOS PROPOSITIVOS
A fim de preencher as lacunas e consolidar o plano sob a perspectiva da segurança jurídica e da confiança social, propõem-se as seguintes medidas complementares:
- Aprovação urgente de um Marco Legal da IA, com princípios de proporcionalidade, gestão de riscos e accountability.
- Criação de uma Autoridade Algorítmica ou Comitê Técnico permanente, em articulação com a ANPD, voltado à supervisão de sistemas de IA.
- Obrigatoriedade de Impact Assessments para sistemas de alto risco, como saúde, justiça, crédito, educação e segurança.
- Regulação específica da IA generativa e uso de datasets protegidos, incluindo diretrizes sobre transparência, licenciamento e remuneração.
- Participação ativa da sociedade civil e dos juristas na construção da governança algorítmica nacional.
CONCLUSÃO
O plano “IA para o Bem de Todos” representa um marco político e técnico sem precedentes na história digital do Brasil. Ao propor ações concretas para os próximos cinco anos, com eixos articulados entre infraestrutura, capacitação, inclusão, desenvolvimento econômico e regulação, o plano demonstra que o país pretende não apenas consumir tecnologia estrangeira, mas produzir inteligência artificial com identidade, soberania e responsabilidade social.
Setores estratégicos como saúde, educação, agro e administração pública foram contemplados com soluções que visam não apenas eficiência, mas também respeito aos direitos fundamentais e promoção da equidade. A capacitação de milhares de servidores públicos, o estímulo à produção nacional de chips, modelos de linguagem em português, e o uso de IA para decisões públicas sensíveis indicam um novo ciclo de modernização do Estado — mais preditivo, mais inteligente e, espera-se, mais justo.
Contudo, o desafio maior não é apenas técnico, mas jurídico e institucional. A regulação da IA ainda está em construção no Brasil, com o PL 2.338/2023 tramitando no Congresso Nacional e sem data para conclusão. As lacunas sobre responsabilidade civil por decisões automatizadas, uso ético de dados sensíveis, explicabilidade algorítmica e proteção da propriedade intelectual ainda exigem normas claras, enforcement efetivo e governança democrática.
A experiência internacional já demonstra que o uso indiscriminado e desregulado da IA pode aprofundar desigualdades, reproduzir vieses e concentrar poder informacional nas mãos de poucos atores — públicos ou privados. O Brasil não pode cometer esse erro. Para que o plano se converta em política pública efetiva e legítima, será essencial a criação de mecanismos de controle social, marcos legais robustos e estruturas institucionais independentes, como uma autoridade supervisora de algoritmos em colaboração com a ANPD.
Neste cenário, a comunidade jurídica tem papel central: não apenas na redação das normas, mas também na interpretação, fiscalização e aprimoramento contínuo das ferramentas jurídicas que regularão a IA no país. Juristas, legisladores, reguladores, advogados, defensores públicos, magistrados e promotores devem atuar como garantidores da ética, da proporcionalidade e da proteção aos direitos humanos diante da nova era algorítmica.
Mais do que competir globalmente, o Brasil tem agora a chance de liderar um modelo de inteligência artificial humanizada, inclusiva e juridicamente responsável — para o bem de todos.
.png)
Comentários
Postar um comentário