By using this site, you agree to the Privacy Policy and Terms of Use.
Aceitar
RMS No Ar®RMS No Ar®RMS No Ar®
  • Início
Lendo: Caminhos para a implementação da autoridade competente para IA no Brasil
Compartilhe
Notification Mostrar mais
Font ResizerAa
RMS No Ar®RMS No Ar®
Font ResizerAa
  • Notícias
  • Esporte
  • Entretenimento
  • Ciência
  • Tecnologia
  • Acesso
  • Início
Já possui uma conta? Entrar
Siga nas redes
  • Contact
  • Blog
  • Complaint
  • Advertise
© 2022 Foxiz News Network. Ruby Design Company. All Rights Reserved.
RMS No Ar® > Blog > outros > Caminhos para a implementação da autoridade competente para IA no Brasil
outros

Caminhos para a implementação da autoridade competente para IA no Brasil

Última atualização: 22 de janeiro de 2025 11:45
7 meses ago
Compartilhe
Compartilhe

No emergente debate acerca da regulação de sistemas de inteligência artificial (IA), uma questão destoa entre tantas: quem deveria regular uma tecnologia tão transversal e multissetorial? A partir desse questionamento, surgem outros ainda mais complexos.

Contents
A experiência da ChinaConheça o JOTA PRO Poder, plataforma de monitoramento que oferece transparência e previsibilidade para empresasA experiência da União EuropeiaAssine gratuitamente a newsletter Últimas Notícias e receba as principais notícias jurídicas e políticas do dia no seu emailA experiência dos Estados UnidosA experiência do Brasil

Com o objetivo de fomentar a discussão do PL 2338/2023 e a criação do Sistema Nacional de Regulação e Governança da IA (SIA), o Laboratório de Políticas Públicas e Internet (LAPIN) lançou o relatório “REGULAÇÃO DA INTELIGÊNCIA ARTIFICIAL: Subsídios para a Autoridade Competente no Brasil”. A partir disso, apresentamos alguns dos principais achados da pesquisa.

A experiência da China

Na China, a regulação da IA segue uma abordagem híbrida, com especial protagonismo da Cyberspace Administration of China (CAC), subordinada ao Comitê Central do Partido Comunista Chinês. Além de regular a internet, a CAC tem papel central na supervisão de tecnologias emergentes, como a IA generativa.  

Conheça o JOTA PRO Poder, plataforma de monitoramento que oferece transparência e previsibilidade para empresas

A CAC prioriza, dentre outros, a soberania cibernética e a cooperação internacional. Em 2023, publicou medidas provisórias para sistemas de IA generativa, exigindo, entre outras, prevenção à discriminação algorítmica, proteção da propriedade intelectual, avaliações periódicas de segurança e registros transparentes.

- Advertisement -
Ad image

A CAC não tem poderes de sanção – essa responsabilidade é do próprio Partido Comunista Chinês. Mesmo nesse modelo centralizador de competências sancionatórias ao governo chinês, há uma complexa fragmentação na governança da IA, com múltiplas entidades desempenhando papéis muitas vezes sobrepostos. Essa estrutura compromete a  harmonização e supervisão coesa e independente das políticas e leis de IA no país.

A experiência da União Europeia

O modelo europeu, regido pelo AI Act, traz um arranjo de governança a nível nacional, com  autoridades competentes  nos Estados-Membros, e a nível da UE, com autoridades europeias encarregadas de coordenar e garantir a aplicação uniforme das regras em todo o bloco.

No arranjo de governança nacional, cada país deve designar ao menos uma uma autoridade notificadora, com atribuições de conformidade e certificações, e ao menos uma autoridade fiscalizadora de mercado, responsável pela harmonização das aplicações de IA com normativos europeus. Além disso, os Estados-Membros podem criar novas entidades ou atribuir essas funções a uma existente.

Assine gratuitamente a newsletter Últimas Notícias e receba as principais notícias jurídicas e políticas do dia no seu email

Além disso, sempre que instituições, organismos, escritórios ou agências da União Europeia estiverem sujeitas ao Regulamento Geral sobre a Proteção de Dados (RGPD), a Autoridade Europeia para a Proteção de Dados (European Data Protection Supervisor – EDPS)  atuará como a autoridade competente para sua supervisão.

Quanto à governança supranacional, a nível da UE, o AI Act estabeleceu quatro entidades elencadas abaixo, com algumas de suas principais funções: 

  1. AI Office: fiscalizar e supervisionar os requisitos de aplicações de IA sob o escopo do AI Act, com foco nos sistemas de propósito geral (GPAI);
  2. AI Board: aconselhar a Comissão Europeia (CE) e Estados-Membros por meio de orientações e pareceres, promover letramento em IA e cooperação entre Estados-Membros e órgãos europeus;
  3. Fórum Consultivo: fornecer conhecimento técnico e orientar a CE e o AI Board na aplicação do AI Act, com composição equilibrada entre entidades da indústria, empresas, academia e sociedade civil; e
  4. Painel Científico de Peritos Independentes: avaliar riscos e fornecer subsídios técnicos para aplicação do AI Act.

O grande desafio europeu está na coordenação entre essas entidades com potenciais conflitos de atuação.

A experiência dos Estados Unidos

Nos Estados Unidos (EUA), a regulação da IA reflete seu modelo histórico e descentralizado, com dois tipos de instituições: (i) órgãos vinculados ao Poder Executivo com prerrogativas principalmente orientativas e (ii) agências setoriais com poderes sancionatórios.

No âmbito dos órgãos executivos, destaca-se o National Artificial Intelligence Advisory Committee (NAIAC), um comitê multissetorial com membros do setor privado, sociedade civil, academia e líderes de órgãos governamentais, com atribuições de recomendações, estratégias, pesquisas e investimentos em IA. O NAIAC não possui atuação fiscalizatória, atuando exclusivamente como um órgão consultivo e orientativo

Além disso, há o Select Committee on Artificial Intelligence (SCAI), como principal órgão responsável pela supervisão e coordenação da Iniciativa Nacional de Inteligência Artificial nos EUA. O SCAI não possui poder regulatório ou sancionador, com somente o papel de formulação de recomendações e orientações. A regulação de IA no âmbito federal dos EUA, portanto, é limitada ao escopo de diretrizes e políticas formuladas por órgãos colegiados ligados ao Executivo.

O panorama dos EUA evidencia que o verdadeiro poder de fiscalização e sanção sobre temáticas relacionadas à IA se concentra no enforcement das agências executivas setoriais, como a Federal Trade Commission na proteção dos consumidores e a Securities and Exchange Commission no uso de produtos financeiros automatizados. Cada agência atua em sua competência técnica, mas a ausência de uma autoridade central harmonizadora resulta em fragmentação, lacunas regulatórias e desafios em questões transversais, como ética e transparência.

Essa descentralização também dificulta a criação de políticas abrangentes que considerem os riscos sistêmicos e globais da IA, sendo esse um dos principais desafios dos EUA.

A experiência do Brasil

Em abril de 2024, a Comissão Temporária Interna sobre IA do Senado Federal (CTIA) apresentou um texto preliminar do PL 2338/2023 com disposições específicas sobre a autoridade competente, designando–a como órgão ou entidade da Administração Pública Federal, dotada de autonomia técnica, decisória e financeira, para coordenar o Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA).

Na versão do PL aprovada no Senado em 10 de dezembro de 2024, a Autoridade Nacional de Proteção de Dados (ANPD) é designada como a autoridade coordenadora do SIA, composto também por autoridades setoriais, o CRIA (Cooperação Regulatória de Inteligência Artificial) e o CECIA (Comitê de Especialistas e Cientistas de Inteligência Artificial).

O modelo combina autorregulação, corregulação e regulação tradicional, mas é criticado pela abordagem genérica sobre a participação da sociedade civil, sem mecanismos claros de representatividade. Na atual proposta, a ANPD atuará de forma residual apenas nos casos em que não houver uma autoridade setorial definida para a atividade econômica (art. 47). Isso significa que a ANPD funcionará como uma instância “reserva” ou “suplementar”, intervindo apenas na ausência de entidade específica. Esse cenário revela o desafio de evitar conflitos regulatórios ao delimitar fronteiras de atuação.

Para que o SIA seja eficaz, é crucial fortalecer a ANPD nos requisitos técnicos, organizacionais e financeiros. A sinergia entre os membros do SIA é essencial, especialmente em casos de IA de alto risco, para aproveitar estratégias de mitigação de forma transversal nos setores. Além disso, o modelo deve garantir participação ativa da sociedade civil, com canais de diálogo permanentes, representatividade e transparência. Para liderar na governança ética da IA, o Brasil precisa de um arranjo dinâmico, monitoramento constante e análise crítica, avançando com base em transparência, responsabilidade, cooperação e ética.

You Might Also Like

Festival 10 Horas de Arrocha divulga primeiras atrações e inicia vendas com promoção imperdível

Empregador Doméstico Não Pode Mais Deduzir Contribuição ao INSS no IR, Mas Deve Fornecer Informe de Rendimentos

Homem morre em acidente com caminhonete e ônibus na Bahia; arma e drogas são apreendidas

Dívidas milionárias dificultam retorno da Texaco ao Brasil, dizem fontes

Jerônimo Rodrigues destaca “legado grandioso” deixado por André Curvello na Secom

Compartilhe esse artigo
Facebook Twitter Email Print
Previous Article BDM: Donald Trump pega leve com a China 
Next Article Ivete ‘larga mão’ de Axé em meio à data histórica e aposta de novo em pagodão para hit do Carnaval
Deixe um comentário

Deixe um comentário Cancelar resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

RMS No Ar®RMS No Ar®
© RMS no Ar. Todos os direitos reservados.
Welcome Back!

Sign in to your account

Lost your password?