
Pesquisadoras da Palo Alto Redes Demonestaria Uma Nova Técnica de Ataque à Cadeia de Suprimentos de Inteligênia Camada Artificial modelo REUSUSENHO DE NAMESPACE, que permite um implicador de modelos Maliciosos E Execução de Cógudo Em A Técnica foi testada contra produtos da google e Microsoft, Além de expor riscos para projetos Open Source.
Leia Tamboma
Whatsapp Corrige Falha Crítica Explorada em iPhones e Macs
PLATAFORMA PROMETE SEGURANCA EM DEVOPS COM
O Ataque Explora A reutilizoça de nomes de modelos Deletados ou transferidos em plataformas Como abraçar o rosto. AO Registrador UM Nome Anteriormente Associado Um Desenvolvedor, O ATACANTE CRIAR UM MODELO MALICIOSO QUE É REFERENCIADO INADVERTIDENTEMENTE POR PROJETOS DE TERCEROS. Os testículos, um tecnica permitiu, uma concha reversa de uma concha reversa em instâNCias do Google Vertex Ai Model Garden e Acesso Inicial AO Ambiente do Usuário no Microsoft Azure AI Foundry.
Além das plataformas de nuvem, milhares de repositórios de código aberto que referenciam modelos hugging face pelo formato Author/ModelName
Foram Identificados Como Vulneráveis. Projetas Deletados ou transfruzos continua funcionando normandlente, mas podem servir como vetor para execução de código malicioso.
Para Mitigar O Risco, os Pesquisadores Recomendam: Fixar A Versão do Modelo em UM Commitem Específica, Clonar e Armazenar Modelos em Repositórios confiáveis, e escanear ativamento refere -se a modelos potialmente vulneráveis. Google, Microsoft E Hugging Face Foram Notificados E Já Adtaram Medidas Preventivas, como uma verificante diária de modelos Órfãos.