Por William Rocha *
Sócio do escritório Terra Rocha Advogados, Diretor de Inclusão Digital e Inovação da OAB-RJ.
O avanço das tecnologias baseadas em dados trouxe consigo a narrativa de neutralidade e eficiência. No entanto, a realidade tem demonstrado que sistemas algorítmicos, longe de serem imparciais, podem reproduzir e até intensificar desigualdades estruturais, especialmente no que se refere à questão de gênero.
A construção dos algoritmos parte de bases de dados históricas, frequentemente marcadas por assimetrias sociais. Esse fenômeno impacta diretamente sistemas de recrutamento, plataformas de anúncios e mecanismos de recomendação, que passam a operar como filtros invisíveis de oportunidades. Mulheres, nesse cenário, podem ser menos expostas a vagas de alta remuneração ou posições estratégicas, enquanto são direcionadas a conteúdos e funções tradicionalmente associadas a papéis de gênero.
A suposta liberdade de escolha no ambiente digital também se revela relativa. Interfaces que restringem opções de gênero, induzem comportamentos ou utilizam dark patterns para direcionar decisões comprometem a autonomia do usuário. Trata-se de uma arquitetura de escolha que, ao invés de empoderar, condiciona. A decisão não é apenas individual, mas moldada por estruturas tecnológicas que operam de forma opaca.
No contexto da recolocação profissional, a problemática se intensifica. Plataformas digitais utilizam sistemas automatizados para triagem de currículos e perfis, baseados em padrões históricos.
Quando esses padrões refletem desigualdades passadas, o resultado é a perpetuação de exclusões. A discriminação deixa de ser explícita e passa a operar em nível estatístico, dificultando sua identificação e contestação.
A Lei Geral de Proteção de Dados (LGPD) oferece instrumentos relevantes para enfrentar esse cenário, ao consagrar o princípio da não discriminação e o direito à revisão de decisões automatizadas.
Contudo, a efetividade desses dispositivos depende de uma governança algorítmica estruturada, com mecanismos de transparência, explicabilidade e auditoria.
Mais do que evitar discriminações, é necessário avançar na construção de uma verdadeira igualdade digital. Isso implica repensar modelos de desenvolvimento tecnológico, incentivar diversidade nas equipes de criação e estabelecer parâmetros regulatórios que garantam justiça algorítmica. A tecnologia não pode ser apenas eficiente; precisa ser também legítima.
A promessa da neutralidade tecnológica não se sustenta sem responsabilidade. Em um ambiente cada vez mais mediado por algoritmos, assegurar igualdade de gênero não é apenas um ideal, mas uma exigência jurídica e social. O desafio contemporâneo está em transformar sistemas automatizados em instrumentos de inclusão, e não em vetores silenciosos de exclusão.

