Falha crítica não corrigida deixa LeRobot que abraça o rosto aberto para RCE não autenticado

🇧🇷 PT 🇺🇸 EN

2026-04-28 00:00

← Voltar

Resumo Executivo

Pesquisadores de segurança cibernética divulgaram detalhes de uma falha crítica de segurança que afeta LeRobot, a plataforma robótica de código aberto da Hugging Face com quase 24.000 estrelas do GitHub, que poderia ser explorada para obter execução remota de código. A vulnerabilidade em questão é a CVE-2026-25874 (pontuação CVSS: 9,3), que foi descrita como um caso de desserialização de dados não confiáveis ​​decorrente do uso do formato pickle inseguro. “LeRobot contém uma vulnerabilidade de desserialização insegura no pipeline de inferência assíncrona, onde pickle.loads() é usado para desserializar dados recebidos em canais gRPC não autenticados sem TLS no servidor de políticas e nos componentes do cliente do robô”, de acordo com um comunicado do GitHub sobre a falha. "Um invasor não autenticado acessível pela rede pode obter a execução arbitrária de código no servidor ou cliente, enviando uma carga pickle criada por meio de chamadas gRPC SendPolicyInstructions, SendObservations ou GetActions." De acordo com Resecurity, o problema está enraizado no componente PolicyServer de inferência assíncrona, permitindo que um invasor não autenticado que pode alcançar a porta de rede do PolicyServer envie uma carga serializada maliciosa e execute comandos arbitrários do sistema operacional na máquina host que executa o serviço. A empresa de segurança cibernética disse que a vulnerabilidade é “perigosa”, pois o serviço é projetado para sistemas de inferência de inteligência...

Detalhes

Pesquisadores de segurança cibernética divulgaram detalhes de uma falha crítica de segurança que afeta LeRobot, a plataforma robótica de código aberto da Hugging Face com quase 24.000 estrelas do GitHub, que poderia ser explorada para obter execução remota de código. A vulnerabilidade em questão é a CVE-2026-25874 (pontuação CVSS: 9,3), que foi descrita como um caso de desserialização de dados não confiáveis ​​decorrente do uso do formato pickle inseguro. “LeRobot contém uma vulnerabilidade de desserialização insegura no pipeline de inferência assíncrona, onde pickle.loads() é usado para desserializar dados recebidos em canais gRPC não autenticados sem TLS no servidor de políticas e nos componentes do cliente do robô”, de acordo com um comunicado do GitHub sobre a falha. "Um invasor não autenticado acessível pela rede pode obter a execução arbitrária de código no servidor ou cliente, enviando uma carga pickle criada por meio de chamadas gRPC SendPolicyInstructions, SendObservations ou GetActions." De acordo com Resecurity, o problema está enraizado no componente PolicyServer de inferência assíncrona, permitindo que um invasor não autenticado que pode alcançar a porta de rede do PolicyServer envie uma carga serializada maliciosa e execute comandos arbitrários do sistema operacional na máquina host que executa o serviço. A empresa de segurança cibernética disse que a vulnerabilidade é “perigosa”, pois o serviço é projetado para sistemas de inferência de inteligência artificial, que tendem a funcionar com privilégios elevados para acessar redes internas, conjuntos de dados e recursos computacionais caros. Caso a falha seja explorada por um invasor, ela poderá permitir uma ampla gama de ações, incluindo - Valentin Lobstein, pesquisador de segurança do VulnCheck, que descobriu e publicou detalhes adicionais da falha na semana passada, disse que foi validado com sucesso contra a versão 0.4.3 do LeRobot. O problema atualmente permanece sem correção, com uma correção planejada na versão 0.6.0. Curiosamente, a mesma falha foi relatada de forma independente por outro pesquisador que usa o pseudônimo online “chenpinji” em algum momento de dezembro de 2025.

A equipe LeRobot respondeu no início de janeiro, reconhecendo o risco de segurança e observando “que parte da base de código precisa ser quase totalmente refatorada, pois sua implementação original era mais experimental”. “Dito isto, o LeRobot tem sido até agora principalmente uma ferramenta de pesquisa e prototipagem, e é por isso que a segurança da implantação não tem sido um foco forte até agora”, disse Steven Palma, líder técnico do projeto. "À medida que o LeRobot continua a ser adotado e implantado na produção, começaremos a prestar muito mais atenção a esses tipos de problemas. Felizmente, sendo um projeto de código aberto, a comunidade também pode ajudar relatando e corrigindo vulnerabilidades." As descobertas expõem mais uma vez os perigos do uso do formato pickle, pois ele abre caminho para ataques de execução arbitrária de código simplesmente carregando um arquivo especialmente criado. “É difícil exagerar a ironia aqui”, observou Lobstein. "A Hugging Face criou Safetensors - um formato de serialização projetado especificamente porque pickle é perigoso para dados de ML. E ainda assim sua própria estrutura de robótica desserializa a entrada de rede controlada pelo invasor com pickle.loads(), com # comentários nosec para silenciar a ferramenta que estava tentando avisá-los." Aprenda como impedir ataques do paciente zero antes que eles ignorem a detecção e comprometam seus sistemas nos pontos de entrada. Aprenda como validar caminhos de ataque reais e reduzir riscos exploráveis ​​com validação contínua de segurança de agente.

Receba as últimas notícias, insights de especialistas, recursos exclusivos e estratégias de líderes do setor – tudo gratuitamente.