Etiqueta: #inteligência artificial

  • Medida Provisória do Redata não é votada, mas Comissão de Ciência e Tecnologia do Senado aprova audiência pública sobre regulamentação de data centers para desenvolvimento de IA

    Medida Provisória do Redata não é votada, mas Comissão de Ciência e Tecnologia do Senado aprova audiência pública sobre regulamentação de data centers para desenvolvimento de IA

    O Redata, PL  278/2026, foi concebido como instrumento de estímulo à infraestrutura digital, prevendo incentivos tributários para atrair investimentos na instalação e expansão de data centers no país.

    A proposta buscava reduzir o custo para projetos intensivos em tecnologia e posicionar o Brasil como destino competitivo para operações de processamento e armazenamento de dados, base necessária para o desenvolvimento e a operação de sistemas de inteligência artificial e outras aplicações digitais de alta intensidade computacional.

    A matéria foi aprovada na Câmara dos Deputados, mas não chegou a ser apreciada pelo Senado dentro do prazo constitucional aplicável às Medidas Provisórias. Com isso, a MP perde eficácia, encerrando sua tramitação. Para que novos incentivos ao setor avancem, o governo terá de reapresentar a iniciativa, seja por meio de nova Medida Provisória, seja por projeto de lei, sujeita às limitações trazidas pela reforma tributária e à nova negociação no Congresso.

    Em entrevista dada no dia 03/03, o Ministro das Comunicações informa que o governo segue negociando com parlamentares e ainda no primeiro semestre de 2026 deve ser divulgada uma Política Nacional de Data Centers e de cabo submarinos. Ainda, em paralelo, a Comissão de Ciência e Tecnologia do Senado Federal aprovou a instrução de audiência pública para instruir projeto de lei, PL nº 3.018/2024, que trata da regulamentação de data centers para desenvolvimento da inteligência artificial no país, com data ainda a ser definida.

    O PL º 3.108./2024 propõe regras e obrigações para operação de data centers voltados à inteligência artificial no Brasil, estabelecendo requisitos de segurança cibernética, governança, proteção de dados pessoais, transparência no uso de dados e algoritmos e manutenção de registros das operações por pelo menos 5 (cinco) anos. Além disso, deverão aplicar medidas de eficiência energética e sustentabilidade ambiental, incluindo utilização de fontes de energia renovável, sistemas de resfriamento eficientes, adoção de planos de gestão ambiental que incluam metas de redução de emissões de gases de efeito estufa e realização de auditorias periódicas e entrega de relatórios anuais

  • Departamento do Trabalho (DOL) dos EUA formaliza diretrizes nacionais de literacia em IA

    Departamento do Trabalho (DOL) dos EUA formaliza diretrizes nacionais de literacia em IA

    O Departamento do Trabalho (DOL) dos EUA publicou, em 13 de fevereiro de 2026, o Training and Employment Notice (TEN) 07-25, que apresenta o AI Literacy Framework como referência de diretrizes para programas federais de educação e qualificação profissional.

    O framework organiza a literacia em IA em cinco eixos centrais: compreender os princípios e limitações da tecnologia; explorar aplicações práticas no ambiente de trabalho; direcionar IA de forma eficaz; avaliar criticamente resultados gerados; e utilização da IA de maneira responsável.

    O DOL incentiva que essas competências sejam incorporadas de forma estruturada aos programas públicos de emprego e educação, cursos técnicos, e programas de requalificação. A literacia em IA é tratada como competência transversal, necessária não apenas para especialistas, mas para trabalhadores de diferentes setores em uma economia cada vez mais orientada por sistemas orientados por inteligência artificial.

    O documento incentiva a integração progressiva dessas competências ao longo de toda a trajetória profissional, desde a formação inicial até a atualização de trabalhadores em atividade, reforçando a lógica de capacitação contínua, visando capacitar a força de trabalho americana para operar em um mercado e economia cada vez mais moldados pela inteligência artificial

  • Medida Provisória do Redata não é votada no Senado e adia incentivos à implementação de data centers no Brasil

    Medida Provisória do Redata não é votada no Senado e adia incentivos à implementação de data centers no Brasil

    O Redata, PL  278/2026, foi concebido como instrumento de estímulo à infraestrutura digital, prevendo incentivos tributários para atrair investimentos na instalação e expansão de data centers no país.

    A proposta buscava reduzir o custo para projetos intensivos em tecnologia e posicionar o Brasil como destino competitivo para operações de processamento e armazenamento de dados, base necessária para o desenvolvimento e a operação de sistemas de inteligência artificial e outras aplicações digitais de alta intensidade computacional.

    A matéria foi aprovada na Câmara dos Deputados, mas não chegou a ser apreciada pelo Senado dentro do prazo constitucional aplicável às Medidas Provisórias. Com isso, a MP perde eficácia, encerrando sua tramitação. Para que novos incentivos ao setor avancem, o governo terá de reapresentar a iniciativa, seja por meio de nova Medida Provisória, seja por projeto de lei, sujeita às limitações trazidas pela reforma tributária e à nova negociação no Congresso.

  • CFM publica resolução que regulamenta uso de inteligência artificial na prática médica

    CFM publica resolução que regulamenta uso de inteligência artificial na prática médica

    O Conselho Federal de Medicina publicou, em 27 de fevereiro de 2026, a Resolução nº 2.454/2026, que normatiza o uso de inteligência artificial na medicina e estabelece parâmetros para sua adoção em hospitais, clínicas e demais serviços de saúde.

    A resolução estabelece que a inteligência artificial deve atuar como ferramenta de apoio à prática médica, preservando a autonomia do profissional, que permanece responsável por diagnóstico, prognóstico e prescrição e deve avaliar criticamente os resultados produzidos por sistemas automatizados. Ao mesmo tempo, a norma adota uma abordagem baseada em risco, exigindo que instituições classifiquem previamente seus sistemas de IA como de baixo, médio ou alto risco e adotem medidas proporcionais de monitoramento, supervisão e validação, além de implementar estruturas internas de governança para acompanhar o uso dessas tecnologias, tanto em soluções já em operação quanto em projetos em desenvolvimento.

    Com a publicação da resolução, o CFM inaugura um marco regulatório setorial para IA na saúde, antecipando discussões mais amplas sobre responsabilidade, segurança e padrões de uso dessas tecnologias no ambiente clínico.

  • Singapura anuncia Modelo de Framework de Governança para IA agêntica

    Singapura anuncia Modelo de Framework de Governança para IA agêntica

    O que você precisa saber:

    Na edição mais recente do Fórum Econômico Mundial, em Davos, Singapura anunciou, por meio da ministra de Digital Development and Information, o seu novo Model AI Governance Framework for Agentic AI, voltado à governança de agentes de IA, também chamados de agentes autônomos. O Modelo de Framework de Governança para agentes autônomos de IA,  apresenta uma visão dos riscos de utilização deste tipo de agente e quais são as melhores práticas que devem ser adotadas para lidar com esses riscos.

    Singapura lançou oficialmente o seu Modelo de Framework para Governança de Agentic AI no Fórum Econômico Mundial em Davos. É o primeiro framework divulgado mundialmente específico para Agentic AI, ou IA agêntica. Este tipo de agente diferencia-se dos modelos tradicionais devido à sua capacidade operacional avançada de agir automaticamente em completar tarefas com menor necessidade de comandos frequentes.

    O documento fornece diretrizes para o gerenciamento de riscos durante a implementação e operação desses agentes. Dentre as diretrizes mencionadas, o framework estabelece boas práticas entre medidas técnicas e administrativas a serem adotadas pelas organizações considerando 4 dimensões principais (i) avaliar e delimitar antecipadamente os riscos, incluindo a autonomia dos agentes e seu acesso a ferramentas e dados; (ii) tornar humanos significativamente responsáveis, por meio de pontos estratégicos de aprovação e supervisão humana; (iii) implementar controles e processos técnicos ao longo de todo o ciclo de vida dos agentes, como testes de base e controle de acesso a serviços whitelisted; e (iv) promover a responsabilidade do usuário final por meio de transparência e educação/treinamento.

    Saiba mais clicando aqui

  • Ministério da Previdência Social cria o Laboratório de Inovação em Inteligência Artificial

    Ministério da Previdência Social cria o Laboratório de Inovação em Inteligência Artificial

    O que você precisa saber:

    Em janeiro de 2026, o Laboratório de Inovação em Inteligência Artificial (LAB-IA/MPS) foi instituído no âmbito do Ministério da Previdência Social, com a finalidade de promover e incentivar o desenvolvimento e implementação de soluções baseadas em IA voltadas ao aperfeiçoamento de processos internos, à melhoria da qualidade regulatória e ao aprimoramento dos serviços previdenciários prestados à população.

    A Portaria MPS nº 135, de 26 de janeiro de 2026, instituiu a criação do Laboratório de Inovação em Inteligência Artificial. A iniciativa busca apoiar a modernização administrativa, o aprimoramento da tomada de decisão e o desenvolvimento de projetos de IA alinhados a princípios de governança, transparência e controle institucional.

    De acordo com a publicação oficial, o Laboratório terá como foco a experimentação, avaliação e implementação de soluções baseadas em IA, bem como a disseminação de boas práticas, capacitação técnica e apoio à formulação de políticas públicas que envolvam automação inteligente, análise de dados e inovação digital no setor previdenciário. A proposta inclui a realização de projetos-piloto e a articulação com outros órgãos da administração pública, instituições de pesquisa e parceiros estratégicos.

    Saiba mais, clicando aqui

  • O papel da inteligência artificial no tratamento e resposta aos titulares de dados

    O papel da inteligência artificial no tratamento e resposta aos titulares de dados

    Introdução 

    A chegada da inteligência artificial generativa consolidou um novo paradigma para a Governança de Dados.
    De um lado, as ferramentas de IA oferecem velocidade, precisão e escalabilidade.
    De outro, trazem novos riscos de transparência, viés e confiança.

    Em 2025, o desafio das empresas não é mais escolher entre usar ou não IA — mas como aplicá-la de forma ética e responsável no atendimento aos titulares de dados.

    O Guia de Direitos dos Titulares 2025, desenvolvido pelo b/luz e pelo Reclame AQUI, revela que a adoção equilibrada de tecnologia é um dos fatores determinantes de maturidade em Governança de Dados.

     

     IA e Governança de Dados: eficiência com responsabilidade 

    A IA tem potencial para automatizar etapas repetitivas do atendimento a titulares:
    triagem de solicitações, classificação por tipo (acesso, exclusão, correção) e verificação de prazos.

    Com isso, o jurídico e o time de governança ganham tempo para se concentrar no que exige análise humana e decisão estratégica.

    Mas eficiência não pode ser sinônimo de despersonalização.
    Empresas maduras utilizam IA como ferramenta de apoio, nunca como substituta da interação humana.
    O segredo é alinhar automação e empatia — um dos pilares do novo ciclo de confiança digital.

     Como a IA está sendo aplicada na resposta a titulares 

     1. Automação de triagem
    Modelos de IA classificam automaticamente as solicitações recebidas, priorizando por tipo e urgência. 

    2. Geração assistida de respostas
    Sistemas de linguagem natural sugerem respostas baseadas em modelos pré-aprovados, ajustados conforme o contexto da solicitação. 

    3. Monitoramento de prazos e métricas
    Algoritmos rastreiam tempos médios de resposta, sinalizando atrasos e gerando alertas de não conformidade. 

    4. Análise de sentimento e feedback
    Ferramentas de IA analisam o tom das interações e o nível de satisfação dos titulares, identificando padrões e pontos de melhoria. 

     5. Suporte à auditoria e relatórios
    Automação de logs, rastreabilidade e consolidação de indicadores para auditorias internas e externas. 

    Essas aplicações estão transformando o atendimento em um processo mais ágil, padronizado e auditável — sem abrir mão da humanização. 

     

    Os riscos e dilemas éticos da automação 

    Toda inovação carrega dilemas.
    No caso da IA, o principal risco é automatizar sem transparência — gerando respostas impessoais, imprecisas ou enviesadas. 

    A falta de supervisão humana pode levar à violação da confiança do titular, comprometendo justamente o valor que a Governança de Dados pretende proteger. 

    O caminho mais seguro é adotar princípios de IA responsável, que garantam: 

    • supervisão humana contínua; 
    • explicabilidade das decisões algorítmicas; 
    • auditoria dos modelos; 
    • comunicação clara sobre o uso de IA nos processos corporativos. 

    Empresas que comunicam de forma proativa como usam IA fortalecem sua imagem de transparência e responsabilidade digital.

     

    IA e maturidade em Governança de Dados 

    O uso estratégico de IA é hoje um marcador de maturidade corporativa.
    Segundo o Guia de Direitos dos Titulares 2025, organizações que utilizam tecnologia para automatizar fluxos, monitorar prazos e gerar indicadores demonstram elevado nível de governança e previsibilidade operacional.

    Por outro lado, empresas que ainda dependem de processos manuais enfrentam riscos de inconsistência e lentidão — fatores que afetam diretamente a reputação.

    O desafio para 2025 e além é evoluir do uso experimental para o uso estruturado e governado da IA — com políticas claras, responsáveis e auditáveis.

     

    Conclusão 

    A inteligência artificial está redefinindo a maneira como empresas se relacionam com titulares de dados.
    Quando aplicada de forma ética e supervisionada, ela amplia a eficiência, fortalece a confiança e eleva o padrão de maturidade corporativa.

    O Guia de Direitos dos Titulares 2025 mostra que o futuro da Governança de Dados será híbrido: tecnologia para escalar, pessoas para inspirar confiança.

    Em Resumo 

    A IA se tornou peça central na Governança de Dados, oferecendo eficiência e controle.
    Mas seu uso deve ser acompanhado de princípios éticos, transparência e revisão humana constante.
    Empresas que combinam automação responsável e empatia transformam o atendimento a titulares em um diferencial competitivo e reputacional.

    Perguntas Frequentes (FAQ) 

    Como a IA pode ajudar no atendimento a titulares de dados?
    Automatizando triagem, respostas e controle de prazos, além de gerar relatórios e insights sobre eficiência e satisfação. 

     Quais os riscos do uso da IA nesse contexto?
    Risco de respostas impessoais, viés algorítmico e falta de transparência se não houver supervisão humana e governança ética. 

    O que é IA responsável na Governança de Dados?
    É o uso ético, transparente e auditável de algoritmos, com revisão humana e explicabilidade das decisões automatizadas.  

    Conteúdos Relacionados 

    Direitos dos Titulares 2025: como as empresas estão se adaptando ao novo patamar de exigência 

    Por que 2025 marca uma virada na relação entre empresas e titulares de dados 

    Como estruturar um processo eficiente para responder solicitações de titulares 

    Quando o jurídico influencia reputação: o papel da Governança de Dados na experiência do titular 

    Como medir a maturidade da sua empresa na resposta a titulares de dados 

  • Magistrados participam do curso IA Generativa na gestão jurisdicional

    Foto de magistrados participantes do curso
    O curso transcorre na Escola Superior da Magistratura

    Magistrados e magistradas de diferentes comarcas do Estado, de entrâncias inicial e final, participam, nesta sexta-feira (12) até as 18h, do curso ‘Inteligência Artificial (IA) Generativa na Gestão de Unidades Jurisdicionais’, promovido pela Escola Superior da Magistratura da Paraíba (Esma-PB), em João Pessoa. A formação é conduzida pelo desembargador do Tribunal de Justiça de Pernambuco, Alexandre Freire Pimentel.

    Com o avanço da Inteligência Artificial em diferentes áreas da sociedade, o Judiciário também precisa acompanhar essa transformação tecnológica. Nesse cenário, a Esma-PB reforça seu compromisso com a qualificação da magistratura, promovendo debates sobre o uso ético e supervisionado da IA, e refletindo sobre seus impactos na prestação jurisdicional, sempre com o objetivo de tornar o sistema mais eficiente, transparente e justo.

    Durante o curso, o desembargador Alexandre Pimentel compartilhou experiências de uso da IA em seu próprio Gabinete e também no CNJ, onde participou da elaboração da resolução que regula a aplicação da IA Generativa na Justiça. “Parabenizo a Esma por promover esse curso. Considero que é irrenunciável o uso da inteligência artificial pelo Poder Judiciário, que é uma ferramenta fantástica, que pode ajudar na celeridade e na segurança também”, disse.

    A juíza Vanessa Andrade Dantas Liberalino da Nóbrega, da 1ª Vara Mista da Comarca de Santa Rita, enfatizou que espera, ao final do curso, sair com ideias práticas que possam ser aplicadas na rotina, tornando a Justiça mais ágil e próxima das pessoas. “Minha expectativa é aprender de que forma essas ferramentas podem realmente facilitar o nosso dia a dia na gestão das unidades, ajudando a organizar melhor o trabalho, ganhar tempo e até trazer mais criatividade para as soluções que buscamos”, falou.

    O magistrado da 3ª Vara Mista da Comarca de Catolé do Rocha, Renato Levi Dantas Jales, destacou que o tema é extremamente importante, que está no dia a dia do(a) juiz(a) e que, certamente, contribuirá para o aprendizado e melhoria da prestação jurisdicional. “Parabenizou a Escola pela iniciativa. Esse tipo de formação é a essência da nossa Escola da Magistratura Paraibana, a atenção na formação contínua de servidores e magistrados para que possam estar sempre atualizado e apto para as novas ferramentas dispostas no mercado e, sobretudo, a atualização com aquilo que vemos como o nosso futuro, que hoje já é o nosso presente”, falou.

    Durante a formação, os participantes terão a oportunidade de compreender o funcionamento da IA Generativa e sua aplicação no contexto judicial; utilizar, na prática, ferramentas de IA para elaboração de minutas de decisões; desenvolver comandos (prompts) específicos para uso ético e supervisionado da tecnologia; conhecer sistemas disponíveis no mercado; e debater, com base em estudos de caso, os impactos da IA na atividade jurisdicional.

    Por Marcus Vinícius

    Fotos Marcus Vinícius

     

  • Especialista destaca impacto da IA no Judiciário e aponta cuidados necessários para uso responsável

    -
    Bruno Figueirêdo, doutor em Informática

    A Inteligência Artificial (IA) tem promovido mudanças significativas em diversos setores da sociedade, e o Poder Judiciário não é exceção. A crescente digitalização dos processos e a demanda por maior celeridade e eficiência vêm impulsionando a adoção de tecnologias baseadas em IA no sistema judicial brasileiro.

    Para Bruno César Barreto de Figueirêdo, doutor em Informática, o uso da IA generativa no Judiciário acontecerá de forma progressiva, integrando-se às rotinas já estabelecidas. “Na prática, essas ferramentas atuarão como assistentes inteligentes, auxiliando na elaboração de minutas de decisões, despachos e votos, respondendo a consultas sobre jurisprudência, gerando resumos automáticos de peças processuais volumosas e até mesmo identificando contradições ou omissões em textos jurídicos”, disse.

    Segundo ele, um(a) magistrado(a) poderá solicitar à IA, por exemplo: “Resuma a petição inicial do processo X” ou “elabore um esboço de sentença com base nesses fundamentos”. Para Bruno Figueirêdo, a ideia não é substituir a atividade jurisdicional, mas sim oferecer uma base produtiva e confiável para acelerar etapas técnicas e repetitivas.

    Sobre a possibilidade de agilizar o tempo de tramitação dos processos, Bruno afirma que a IA pode contribuir de maneira bastante significativa. “Ela reduz o tempo de análise documental, acelera a produção de atos judiciais e otimiza pesquisas jurídicas, contribuindo diretamente para a celeridade processual, conforme previsto no artigo 5º, inciso LXXVIII da Constituição Federal”, observou.

    Além disso, ao automatizar tarefas de apoio, o doutor em computação afirmou que a IA libera servidores(as) e magistrados(as) para atividades mais analíticas e estratégicas, reduzindo gargalos causados pelo alto volume de trabalho.

    IA generativa
    Bruno Figueirêdo, Max Nunes e Daniel Melo: IA na Justiça

    As principais aplicações da IA no âmbito judicial incluem: a elaboração automática de minutas de decisões e despachos; resumos de peças processuais; pesquisa jurisprudencial otimizada; análise preditiva de julgamentos (com base em decisões anteriores); identificação de precedentes vinculantes; classificação e triagem automática de processos (como já ocorre em projetos-piloto no Superior Tribunal de Justiça e no Tribunal Superior Eleitoral); detecção de inconsistências ou omissões em documentos judiciais; e apoio ao cumprimento de metas de produtividade com dashboards inteligentes.

    “Essas soluções já são realidades em diversos tribunais do país e podem ser customizadas para o Tribunal de Justiça da Paraíba, respeitando a infraestrutura, o perfil da demanda e os recursos humanos disponíveis”, disse Bruno Figueirêdo.

    Apesar dos avanços, o especialista alerta que o uso da IA requer cuidados cruciais. “É essencial que as decisões continuem sendo humanas. A IA atua como um copiloto, não como o juiz do caso”, afirmou.

    Entre os pontos de atenção, o especialista destaca: privacidade e proteção de dados (em conformidade com a LGPD); evitar alucinações da IA (respostas incorretas com aparência de verdade); auditorias e validação humana constante dos resultados gerados; treinamento dos modelos com bases confiáveis, preferencialmente internas ao Judiciário; e registro e rastreabilidade do uso da IA em decisões, para preservar a motivação e controle jurisdicional.

    Curso – Até a sexta-feira (11), o especialista Bruno Figueirêdo ministrou, na sede da Escola Superior da Magistratura da Paraíba (Esma-PB), em João Pessoa, o curso ‘Transformação Digital no Judiciário: O Poder da IA Generativa’. A formação, que ocorreu de forma presencial, é voltada a magistrados(as), assessores(as), analistas e técnicos judiciários do Poder Judiciário estadual.

    IA generativa
    Juiz Max Nunes

    O juiz auxiliar da Vice-presidência do Tribunal de Justiça da Paraíba (TJPB), Max Nunes de França, participou da abertura das atividades no último dia de aula. Na ocasião, ele destacou a importância de dominar o uso consciente e estratégico da inteligência artificial no cotidiano da Justiça.

    “Essa tecnologia tem se integrado cada vez mais à nossa rotina de trabalho, seja na tarefa de resumir processos seja na sistematização de decisões. Saber utilizá-la de forma eficiente, e sempre em conformidade com as diretrizes estabelecidas pelo Conselho Nacional de Justiça (CNJ) neste ano, é essencial para o desempenho das atividades diárias no Judiciário”, disse.

    Já o diretor da Diretoria de Tecnologia da Informação do TJPB (Ditec), Daniel Ayres de Melo, reforçou que o tema da Inteligência Artificial vem sendo amplamente debatido nos tribunais de todo o país, e o TJPB não pode ficar de fora desse movimento. Segundo ele, além da adoção de novas ferramentas tecnológicas, é indispensável investir na capacitação dos profissionais que integram o Judiciário paraibano.

    IA generativa
    Daniel Ayres de Melo, diretor da Ditec

    “Essa iniciativa precisa se tornar recorrente. Eu costumo dizer que 2025 está se mostrando um verdadeiro divisor de águas para a Inteligência Artificial. As instituições que não se dedicarem ao tema e não investirem tempo e energia nesse processo, inevitavelmente, ficarão para trás”, assegurou.

    Dentro do ambiente de trabalho do TJPB, o diretor de TI destacou que, especialmente por meio do Google Workspace, os magistrados(as), assessores(as), gerentes e diretores(as) já têm acesso à Inteligência Artificial do Google. “O curso ministrado tem justamente o objetivo de mostrar, na prática, como utilizar essa tecnologia de forma mais eficiente. Ela já está à nossa disposição, o que precisamos agora é potencializar seu uso”, falou.

    Ainda segundo ele, a Ditec está avançando na incorporação da IA também nas audiências judiciais. Atualmente, estão sendo avaliadas pelo menos quatro soluções que poderão ser integradas ao sistema PJe. “O objetivo é acelerar e otimizar o trabalho de servidores e magistrados, promovendo mais agilidade e eficiência no Judiciário paraibano”, disse.

    Por Marcus Vinícius

     

  • Principais pontos do “PL DE IA”

    Principais pontos do “PL DE IA”

    O Projeto de Lei n. 2.338/2023 (“PL de IA”), de autoria do Senador Eduardo Gomes (PL-TO), visa regular o uso e o desenvolvimento da Inteligência Artificial no Brasil. A Comissão Temporária sobre Inteligência Artificial no Brasil (CTIA) elaborou a primeira versão do texto, que passou por diversas alterações no Senado durante 2024. Aprovado em 10 de dezembro, o projeto segue agora para análise na Câmara dos Deputados.  

     A nova versão do PL possui mudanças em relação ao texto anterior, conforme destacado a seguir. O texto será novamente votado na Câmara dos Deputados.   

    • Necessidade de avaliação preliminar:  a avaliação preliminar de sistema de IA (na qual o agente realiza uma autoavaliação para determinar o nível de risco) tornou-se opcional antes do lançamento no mercado, permanecendo obrigatória apenas para sistemas generativos e de propósito geral. No entanto, realizar a autoavaliação pode beneficiar a empresa caso ela enfrente futuras sanções administrativas relacionadas à IA. 
    • Direitos autorais: os desenvolvedores de IA deverão divulgar os conteúdos protegidos por direitos autorais utilizados no desenvolvimento de seus sistemas. Além disso, o treinamento de sistemas de IA com obras protegidas por direitos autorais requer autorização prévia. E, quando obras forem utilizadas, o titular do conteúdo deverá ser remunerado. Ele também tem o direito de solicitar “opt-out”, impedindo que sua obra seja utilizada para treinamento de determinada base de IA. 
    • Risco excessivo: certos sistemas de IA são expressamente proibidos, como aqueles que empregam técnicas subliminares ou exploram vulnerabilidades de pessoas e grupos para induzir comportamentos prejudiciais à saúde e à segurança. O uso de câmeras para identificação de pessoas em tempo real em espaços públicos também é considerado de risco excessivo, sendo permitido somente em situações específicas. 
    • Alto risco: o texto apresenta uma lista não taxativa de IAs classificadas como de alto risco, às quais se aplica a maioria das obrigações previstas no PL. Entre os exemplos estão: veículos autônomos, seleção de estudantes para acesso à educação e progressão acadêmica, tomada de decisões sobre recrutamento, avaliação, promoção e demissão de trabalhadores, diagnósticos médicos e reconhecimento de emoções por identificação biométrica.  
    • Avaliação de impacto algorítmico: para sistemas de IA considerados de alto risco, será exigida uma avaliação que analise diversos aspectos, como os riscos aos direitos fundamentais, as medidas de transparência e mitigação, entre outros fatores. Os resultados dessas avaliações serão armazenados em um banco de dados público sob a gestão da autoridade competente. 
    • Identificador: conteúdos sintéticos — incluindo textos, imagens, vídeos e áudios gerados ou alterados por IA — deverão apresentar um identificador, passível de ser disponibilizado como metadados, a fim de permitir a verificação de sua autenticidade e origem. Os critérios para identificação e rotulagem desses materiais será objeto de regulamentação.  
    • Responsabilidade: a responsabilidade civil por danos causados por IA será regida pelo Código Civil ou pelo Código de Defesa do Consumidor, dependendo do caso. As penalidades incluem multa de até R$ 50 milhões ou 2% do faturamento bruto do grupo ou conglomerado por infração.