1. Início
  2. Explorar
  3. Políticas Públicas
  4. Impactos sociais da transformação digital: exclusão, IA e ética

Impactos sociais da transformação digital: exclusão, IA e ética – Políticas Públicas | Tuco-Tuco

Divisão digital, exclusão digital, inteligência artificial no setor público, vieses algorítmicos e os desafios éticos da automação governamental.

Impactos Sociais da Transformação Digital: Exclusão Digital, Inteligência Artificial e Ética no Setor Público A transformação digital do Estado carrega promessas de eficiência, inclusão e transparência, mas também produz impactos sociais profundos e, por vezes, contraditórios. Se, por um lado, a digitalização pode ampliar o acesso a direitos e serviços, por outro, pode aprofundar desigualdades estruturais, gerar novas formas de exclusão e abrir caminho para violações massivas de privacidade e discriminação automatizada. O gestor público contemporâneo precisa compreender essas tensões não como danos colaterais de uma marcha inexorável, mas como desafios de governança que exigem regulação, políticas de inclusão e uma sólida base ética. A Divisão Digital e a Exclusão Digital A divisão digital (digital divide) é o fenômeno que descreve as desigualdades no acesso, uso e apropriação das tecnologias digitais. Longe de ser uma fratura binária entre "conectados" e "desconectados", a divisão digital é multidimensional e se sobrepõe a desigualdades históricas de renda, gênero, raça, território e escolaridade. O conceito evoluiu de uma visão centrada exclusivamente no acesso para uma compreensão em múltiplas camadas: Dimensão do acesso à infraestrutura: a primeira e mais visível camada. No Brasil, segundo a PNAD Contínua (IBGE, 2022), cerca de 15% dos domicílios não possuíam qualquer conexão à internet, com percentual muito superior nas áreas rurais (32% sem internet) e nas regiões Norte (26%) e Nordeste (21%), em contraste com as regiões Sul (10%) e Sudeste (11%). Dimensão da qualidade da conexão e dos dispositivos: estar conectado por um plano de dados móveis limitado, via 2G ou 3G, não é equivalente a possuir banda larga fixa de alta velocidade. Para as classes D e E, o celular pré-pago é frequentemente o único dispositivo de acesso, inadequado para a realização de tarefas complexas como teletrabalho, ensino a distância ou uso de sistemas governamentais pesados. Dimensão da literacia digital: a capacidade de usar a tecnologia de forma crítica e produtiva. Idosos, pessoas com baixa escolaridade e analfabetos funcionais enfrentam barreiras intransponíveis para navegar em interfaces complexas, compreender termos de serviço e proteger-se de fraudes e desinformação. Dimensão do conteúdo e da representação: a esmagadora maioria dos conteúdos online é produzida em inglês, por e para uma audiência de classe média urbana. Populações indígenas, quilombolas e comunidades tradicionais frequentemente não se veem representadas, e sua cultura e idioma não são contemplados pelas plataformas. A exclusão digital é, portanto, uma nova face da exclusão social. A pandemia de COVID-19 escancarou essa realidade: milhões de estudantes brasileiros ficaram sem aulas por falta de acesso à internet, e cidadãos sem letramento digital não conseguiram acessar o Auxílio Emergencial, dependendo de terceiros ou de filas presenciais. 1.1. Políticas Públicas de Inclusão Digital O reconhecimento da gravidade do problema levou à implementação de múltiplas iniciativas no Brasil, embora de forma fragmentada e com descontinuidades. Programa Nacional de Banda Larga (PNBL): lançado em 2010, visava massificar o acesso à internet banda larga, mas os resultados ficaram aquém das metas. Programa Wi-Fi Brasil (antigo GESAC): criado em 2002, oferece pontos de acesso gratuito à internet via satélite em localidades remotas, escolas rurais e comunidades indígenas, sendo uma das políticas mais longevas. Conexão Escola (Lei nº 14.172/2021): determinou o repasse de R$ 3,5 bilhões para estados e municípios garantirem acesso à internet com fins educacionais a alunos e professores da rede pública, evidenciando que a conectividade é, hoje, insumo básico para o direito à educação. Política Nacional de Educação Digital (Lei nº 14.533/2023): promulgada em janeiro de 2023, alterou a Lei de Diretrizes e Bases da Educação (LDB) para instituir a educação digital como componente curricular do ensino fundamental e médio. A lei é um marco na abordagem estrutural da inclusão digital, ao focar na formação de competências digitais. A efetividade dessas políticas, contudo, depende de investimentos contínuos, coordenação federativa e superação da fragmentação. A Estratégia Federal de Governo Digital 2024-2027 (Decreto nº 12.069/2024) reconhece a inclusão digital como um dos eixos centrais, estabelecendo metas de simplificação e acessibilidade. Inteligência Artificial no Setor Público Brasileiro A Inteligência Artificial (IA) — em suas vertentes de aprendizado de máquina (machine learning), processamento de linguagem natural, visão computacional e automação robótica de processos (RPA) — já está presente em múltiplas políticas públicas brasileiras, frequentemente de forma opaca. Seu uso promete ganhos de eficiência, redução de custos e descoberta de padrões em grandes volumes de dados, mas também acarreta riscos de discriminação, vigilância e desumanização do atendimento. 2.1. Aplicações Concretas no Brasil Tribunal de Contas da União (TCU): os robôs ALICE e ADELE analisam milhares de licitações e contratos administrativos diariamente, comparando preços e detectando indícios de irregularidades automaticamente, o que ampliou exponencialmente a capacidade de fiscalização. Controladoria-Geral da União (CGU): o Radar Anticorrupção utiliza algoritmos de rede de relacionamentos para identificar conexões entre CNPJs e CPFs, detectando empresas fantasmas e fraudes em benefícios sociais. INSS: a concessão de aposentadorias programadas e salário-maternidade é realizada, desde 2019, de forma totalmente automatizada, sem intervenção humana, quando os dados do CNIS estão consistentes, o que reduziu drasticamente filas e prazos. Polícia e Segurança Pública: sistemas de reconhecimento facial (como o Sistema ABIS, usado em São Paulo e propagado em eventos como o Carnaval e o São João) e a plataforma SOFIA (ANPR) automatizam a leitura de placas veiculares e o rastreamento de suspeitos. Saúde: sistemas de apoio à decisão clínica, análise de exames de imagem e predição de surtos epidemiológicos estão em estágios iniciais de desenvolvimento pelo DATASUS e universidades. 2.2. Do Marco Legal à Nova Estratégia Nacional A trajetória da política brasileira de Inteligência Artificial reflete a rápida evolução do tema. Em 2019, o Decreto nº 9.854 instituiu a primeira Estratégia Brasileira de Inteligência Artificial (EBIA). Em 2021, a Portaria MCTI nº 4.617 detalhou seus eixos de legislação, governança, educação, pesquisa e aplicação nos setores produtivos. Em 2024, o governo brasileiro lançou o Plano Brasileiro de Inteligência Artificial (PBIA 2024-2028), aprovado pelo Conselho Nacional de Ciência e Tecnologia (CCT). O PBIA, orçado em bilhões de reais, sobrepõe a antiga EBIA e estrutura-se em eixos como: infraestrutura e desenvolvimento de supercomputadores; difusão da IA na prestação de serviços públicos (com destaque para um supercomputador dedicado ao SUS); capacitação e formação de mão de obra qualificada; IA para a transição energética e a sustentabilidade; e soberania tecnológica e proteção de dados. É vital mencionar o PBIA como a estratégia atual para não deixar o conteúdo desatualizado, pois as bancas passaram a cobrar o novo Plano. Paralelamente, tramita no Congresso Nacional o Projeto de Lei nº 2.338/2023 (regulamentação da IA), que busca estabelecer princípios, direitos e deveres para o desenvolvimento e uso de sistemas de IA, classificar aplicações de alto risco e criminalizar práticas como a criação e disseminação de deepfakes não autorizadas para fins criminosos. Vieses Algorítmicos e Riscos de Discriminação A automação de decisões governamentais por meio de IA carrega um risco estrutural que o gestor público não pode ignorar: os vieses algorítmicos. Algoritmos de aprendizado de máquina são treinados com dados históricos, e se esses dados refletem discriminações passadas, o algoritmo as aprende, as perpetua e as amplia em escala. Viés de seleção e amostra: se um sistema de reconhecimento facial é treinado predominantemente com rostos de homens brancos, sua taxa de erro para mulheres e pessoas negras é desproporcionalmente alta. Isso tem consequências gravíssimas em sistemas de vigilância e segurança, gerando falsos positivos que criminalizam inocentes. Viés histórico e reprodução da desigualdade: um algoritmo usado para alocar vagas em escolas ou para conceder crédito pode aprender que determinados CEPs (historicamente pobres ou periféricos) apresentam maior risco, e negar sistematicamente oportunidades, criando um círculo vicioso de exclusão. *Opacidade (black box): muitos sistemas de IA avançada (redes neurais profundas) tomam decisões de forma inescrutável até mesmo para seus criadores. Se um cidadão tem seu pedido de benefício negado por um algoritmo, como ele pode contestar essa decisão se ninguém sabe exatamente por que ela foi tomada? O direito à explicação e ao contraditório (art. 5º, LV, CF/88) está em jogo. Caso Paradigmático Internacional: nos Estados Unidos, o sistema COMPAS, utilizado por juízes para prever a reincidência criminal e orientar a fixação de penas e fianças, foi auditado por investigadores independentes (ProPublica, 2016) e demonstrou flagrante viés racial: classificava réus negros como de alto risco de reincidência de forma desproporcional, enquanto classificava réus brancos com histórico criminal mais grave como de baixo risco. Este caso tornou-se o exemplo clássico mundial dos perigos do "racismo algorítmico" e é citado como alerta em praticamente toda legislação de proteção de dados e IA ao redor do mundo. No Brasil, a implementação crescente de sistemas de reconhecimento facial e de análise de risco na segurança pública, muitas vezes com pouca transparência algorítmica e sem avaliação de impacto nos direitos humanos, é objeto de ações civis públicas e investigações, e exige vigilância da sociedade civil e dos órgãos de controle. Princípios Éticos e Marco Regulatório da IA A comunidade internacional, por meio de organismos como OCDE, UNESCO e União Europeia, vem consolidando um conjunto de princípios éticos que devem orientar o desenho e a implementação de IA no setor público. A Recomendação sobre a Ética da Inteligência Artificial da UNESCO (2021) — o primeiro instrumento normativo global sobre o tema — estabelece valores fundamentais como respeito, proteção e promoção dos direitos humanos, das liberdades fundamentais e da dignidade humana; prosperidade do meio ambiente e dos ecossistemas; garantia da diversidade e da inclusão; e o cultivo de sociedades pacíficas, justas e interconectadas. Essas diretrizes convergem com os princípios da OCDE sobre IA e com a regulação da União Europeia (AI Act, aprovado em 2024). Os princípios que devem imperar na governança algorítmica do setor público são: Transparência e explicabilidade: o cidadão tem o direito de saber quando está interagindo com um sistema de IA (e não com um humano) e de receber uma explicação compreensível sobre como uma decisão automatizada foi tomada. Equidade e não discriminação: os sistemas devem ser auditados para garantir que não reproduzam ou ampliem vieses baseados em raça, gênero, deficiência, origem, religião ou orientação sexual. Responsabilização (accountability): deve haver um ser humano ou uma entidade claramente identificada como responsável pelas decisões tomadas por sistemas de IA. A responsabilidade não pode ser diluída na "decisão do sistema". Privacidade e proteção de dados: todo sistema de IA que trata dados pessoais deve estar em conformidade com a LGPD (Lei nº 13.709/2018), respeitando a minimização da coleta e a finalidade específica. Supervisão humana e intervenção: decisões que afetem direitos fundamentais ou que tenham impacto irreversível sobre a vida das pessoas devem, em última instância, ser tomadas por um ser humano. Democracia Digital e Participação Cidadã A tecnologia digital não é apenas fonte de riscos; ela também pode ampliar os canais de participação democrática e de controle social. Consultas públicas digitais: plataformas como o Participa+Brasil e o e-Democracia da Câmara dos Deputados permitiram que dezenas de milhares de pessoas contribuíssem com a redação de leis, com destaque para o Marco Civil da Internet (Lei nº 12.965/2014) e a própria LGPD. Orçamento Participativo Digital: municípios como Porto Alegre (pioneiro do modelo presencial), Belo Horizonte e Recife desenvolveram plataformas onde os cidadãos podem votar diretamente na priorização de obras e serviços. Dados abertos e jornalismo de dados: organizações da sociedade civil, universidades e a imprensa utilizam bases de dados governamentais para produzir reportagens investigativas, análises e aplicativos de controle social, como o Mapa da Desigualdade e portais de transparência. Riscos da era digital: a mesma tecnologia que viabiliza a participação pode ser usada para vigilância, perseguição de ativistas, disseminação de desinformação em massa e captura do debate público por robôs e grupos organizados. Desafios e Perspectivas A governança da transformação digital no setor público brasileiro está em uma encruzilhada. Avanços normativos como a LGPD, a Lei do Governo Digital (Lei nº 14.129/2021) e os projetos de regulação da IA convivem com lacunas de implementação, déficits de capacidade técnica e uma cultura administrativa ainda refratária à transparência e à inovação aberta. Os concursos públicos para carreiras de gestão exigem, cada vez mais, que o candidato demonstre não apenas conhecimento dos marcos legais, mas também uma visão crítica* sobre os dilemas éticos e sociais da tecnologia. Um Estado digital que não seja, ao mesmo tempo, um Estado inclusivo, equitativo e transparente terá apenas modernizado as velhas formas de exclusão, abandonando os mais vulneráveis em um limbo de invisibilidade digital.