Protocolo de atualização de sistema
Neuro-direitos no contrato de trabalho
Wearables corporativos já capturam fadiga, estresse, atenção e estados emocionais em tempo real — antes mesmo que a pessoa saiba o que está sentindo. Quem tem direito a esses dados, e sob que condições, é a próxima grande fronteira regulatória do trabalho.
Resumo executivo
- Problema
- Óculos, anéis, pulseiras e fones inteligentes já captam estados biométricos que revelam atenção, fadiga e humor em tempo real. Empresas começaram a receber esses dados. A legislação trabalhista brasileira ainda não disciplinou o que pode ser feito com eles.
- Ciência
- Neurodireitos (Yuste, Ienca, 2017) — framework emergente que propõe quatro direitos específicos: privacidade mental, identidade pessoal, livre-arbítrio, acesso equitativo ao aumento cognitivo. Chile já aprovou emenda constitucional em 2021.
- Solução
- Firewall de dados neurais no contrato de trabalho: política interna que define o que é capturável, o que é anonimizável, o que é intocável, e o que é passivo legal caro se mal governado. Implementar antes da regulação chegar.
- Leitura
- 8 minutos
Em 2017, um grupo de pesquisadores liderado por Rafael Yuste, neurocientista colombo-americano da Columbia University, e Marcello Ienca, bioeticista italiano, publicou na Nature uma proposta que, na época, pareceu futurista demais para maioria dos leitores. Eles argumentavam que o avanço da neurotecnologia — interfaces cérebro-máquina, sensores biométricos de alta precisão, algoritmos de leitura de estado afetivo — estava criando uma categoria de dado que ainda não tinha proteção jurídica clara: dado neural. E que seria imprudente esperar que os problemas aparecessem antes de desenhar a proteção.
Em 2021 — quatro anos depois do artigo —, o Chile aprovou uma emenda constitucional que reconheceu, entre outros direitos, a integridade física e psíquica do cérebro e dos dados dele derivados. Foi o primeiro país do mundo a fazê-lo. Em 2025, a UNESCO publicou uma recomendação global sobre ética em neurotecnologia. Em 2026, a conversa saiu dos congressos acadêmicos e entrou nas mesas de RH — porque os wearables corporativos, que começaram como ferramenta de bem-estar opcional, se tornaram infraestrutura padrão em parte crescente das empresas.
O caso brasileiro ainda está desenhando-se. A LGPD, publicada em 2018, cobre dados sensíveis — incluindo biométricos — mas foi escrita antes de a captura contínua de estados fisiológicos virar rotina. As ANPD e instituições reguladoras trabalhistas começaram a discutir o tema em fóruns técnicos a partir de 2024. A regulação específica vai chegar. A pergunta não é se. É quando, e o quanto a empresa vai estar preparada para o dia em que chegar.
O que os wearables corporativos já capturam, hoje
É importante calibrar o que efetivamente está sendo capturado em 2026, porque discutir política sem fundamento técnico gera regulação ruim. Pulseira ou relógio inteligente padrão captura: frequência cardíaca contínua, variabilidade da frequência cardíaca (VFC), temperatura cutânea, nível de saturação de oxigênio, padrão de sono, passos e movimento, e — no conjunto desses sinais — permite inferir com precisão razoável estado de estresse agudo, fadiga acumulada, qualidade de recuperação e, indiretamente, humor geral. Não é magia; é estatística aplicada a sinais fisiológicos bem caracterizados na literatura.
Óculos inteligentes de nova geração acrescentam rastreamento ocular — onde você olha, por quanto tempo, com que velocidade, com que padrão de dilatação pupilar. Isso permite inferir, com precisão crescente, atenção, interesse, sonolência e até engajamento em conteúdo específico. Fones de ouvido de nova geração captam ritmo respiratório e, em alguns modelos de pesquisa, atividade bioelétrica do couro cabeludo — o que começa a se aproximar, ainda que de modo preliminar, de leitura de carga cognitiva em tempo real.
A soma desses sinais — quando consolidada em dashboard de RH — permite, em 2026, algo que era ficção científica em 2015: saber se um funcionário está engajado, exausto, ansioso ou distraído antes que ele próprio consiga articular verbalmente esse estado. E é aqui que o problema ético e jurídico explode.
O empregador pode saber, sobre o funcionário, coisas que o funcionário ainda não sabe sobre si mesmo. Isso muda o eixo da relação de trabalho. Princípio operacional
Os quatro neurodireitos propostos por Yuste
O framework de Yuste e colaboradores propõe quatro direitos específicos que a neurotecnologia contemporânea ameaça e que precisam, portanto, de proteção jurídica explícita.
Privacidade mental: o direito de manter dados neurais privados, incluindo estados emocionais inferidos, padrões atencionais, carga cognitiva. Dado neural, nessa leitura, é a última fronteira da privacidade — porque é a única que, historicamente, permaneceu fora do alcance de qualquer observador externo.
Identidade pessoal: o direito de que intervenções neurotecnológicas não alterem o sentido de self sem consentimento informado. Isso ficará relevante quando interfaces invasivas (Neuralink e equivalentes) virarem rotina; por enquanto, é mais preventivo.
Livre-arbítrio: o direito de que dados neurais não sejam usados para manipular decisão individual fora do conhecimento da pessoa — por exemplo, adaptar interface de produto em tempo real para maximizar compra aproveitando momento de baixa resistência cognitiva.
Acesso equitativo ao aumento cognitivo: o direito de que tecnologias que ampliem cognição sejam acessíveis amplamente, não apenas a quem pode pagar — para evitar que a competição laboral se estratifique por capacidade artificial de performance.
No contexto corporativo brasileiro de 2026, os dois primeiros — privacidade mental e preservação do livre-arbítrio — são os mais imediatamente operacionais. Os outros dois importam, mas estão a cinco anos de distância na fila de urgência.
Por que a hora de agir é agora, mesmo sem regulação
Há três razões específicas pelas quais as empresas deveriam desenhar políticas de dados neurais antes da regulação chegar — e o cálculo é puramente de risco estratégico, não de virtude.
Primeira razão: passivo trabalhista preventivo. Se um funcionário for desligado e, na ação trabalhista, descobrir-se que havia captura contínua de dados biométricos sem consentimento informado explícito — ou com consentimento genérico tipo "aceito os termos" —, o passivo em danos morais é considerável. LGPD Art. 11 trata biometria como dado sensível. Art. 8º exige consentimento específico. Condenações em primeira instância por captura biométrica mal consentida, em casos correlatos de 2024-2025, variaram entre R$ 20 mil e R$ 150 mil por trabalhador.
Segunda razão: discriminação algorítmica por estado neural. Se a empresa usar dados biométricos agregados para decidir promoção, realocação ou desligamento — mesmo indiretamente, via "score de engajamento" alimentado por wearable —, corre o risco de discriminar sistematicamente grupos com condições neurobiológicas não declaradas (transtornos de ansiedade, autismo, TDAH, depressão em remissão). Essa discriminação, mesmo não intencional, cruza a proteção da Lei Brasileira de Inclusão e do CLT Art. 373-A. Passivo alto, reputação comprometida.
Terceira razão: perda de talento por percepção de vigilância. Profissionais jovens de alto desempenho, especialmente no setor de tecnologia, estão cada vez mais sensíveis à questão. Pesquisas de clima de 2025 mostram que 62% de profissionais entre 25 e 35 anos consideram "política clara de dados biométricos" como critério explícito de escolha de empregador. Empresas que não têm política perdem, invisivelmente, na disputa por talento.
O que uma política de firewall neural precisa conter
Uma política interna responsável, e defensável juridicamente, precisa articular três camadas com clareza.
A primeira camada é a camada de captura: o que pode ser capturado? Em ambiente de trabalho, o padrão razoável é capturar apenas dados objetivos de saúde ocupacional e risco agudo (por exemplo: sinais vitais em trabalhador operando em altura, para alerta de queda iminente). Captura para fins de produtividade — atenção, engajamento, humor — deveria exigir opt-in explícito, revogável a qualquer momento, sem prejuízo contratual.
A segunda camada é a camada de análise: o que pode ser analisado e agregado? Aqui o princípio é anonimização por design. Dados biométricos agregados em cohort grande (mais de 20 pessoas) podem ser usados para entender carga de trabalho coletiva, sem identificar indivíduos. Dados individuais, mesmo capturados com consentimento, não deveriam alimentar decisão de RH específica sobre pessoa específica.
A terceira camada é a camada de retenção e descarte: por quanto tempo os dados são mantidos? A resposta razoável é: o mínimo necessário para o propósito declarado. Dado de estresse agudo num dia específico não precisa ser retido por três anos. Dado agregado para gestão de saúde ocupacional pode ter retenção maior. A política precisa declarar isso por categoria.
O framework se aplica a empresas com adoção de wearables corporativos ou monitoramento digital em jornada de trabalho. Aplica-se com ajuste específico a setores regulados onde captura biométrica tem base legal objetiva (saúde, aviação, operação em altura). Não substitui compliance trabalhista e LGPD completos — complementa com camada específica de dado neural. O erro comum é tratar dado biométrico como dado pessoal comum, quando ele, pela natureza íntima, exige proteção adicional.
Minha opinião
Tenho acompanhado, no HumanOS Institute, a evolução brasileira da discussão sobre neurodireitos com uma mistura de otimismo técnico e inquietação clínica. Otimismo, porque o Brasil tem uma tradição regulatória — construída em torno da LGPD — que oferece arcabouço sólido para cobrir dado neural quando a regulação específica chegar. Inquietação, porque a janela entre quando a tecnologia virou rotina corporativa e quando a regulação vai disciplinar é uma janela de risco concreto, e as empresas brasileiras que não se prepararem agora vão aprender pelo caminho caro.
O cálculo é direto. Desenhar a política interna agora custa poucas dezenas de milhares de reais e dois meses de trabalho jurídico-técnico. Não desenhar custa, potencialmente, centenas de milhares em ações trabalhistas, mais o dano reputacional de virar caso emblemático quando um funcionário processar e a imprensa pegar. A aritmética é óbvia. O que falta, em muitas empresas, é o sinal de largada — que geralmente vem do conselho antes de vir da regulação. Esse texto é um convite a quem ainda não viu o sinal: ele já está pendurado.
Dicas de leitura
- Four ethical priorities for neurotechnologies and AI — Yuste, Goering et al., Nature (2017)
- Neurorights in History — Marcello Ienca (2021)
- Chile, Reforma Constitucional 20/2021 — Artigo 19 Nº1 [primeiro reconhecimento constitucional de neurodireitos]
Referências (O fundamento)
- Yuste, R., Goering, S., et al. (2017). Four ethical priorities for neurotechnologies and AI. Nature, 551(7679), 159–163.
- Ienca, M., & Andorno, R. (2017). Towards new human rights in the age of neuroscience and neurotechnology. Life Sciences, Society and Policy, 13(1).
- Brasil, Lei 13.709/2018 — Lei Geral de Proteção de Dados Pessoais (LGPD), especialmente Art. 8º e Art. 11.
- UNESCO (2025). Recommendation on the Ethics of Neurotechnology.
Dr. Gérson Neto · HumanOS Brief