
Um desenvolvedor de Hong Kong, um do Vietnã e dois americanos acessaram ilegalmente serviços de IA generativa, fizeram reconfigurações para permitir a criação de conteúdo prejudicial, como deepfakes de celebridades, e depois revenderam o acesso a esses recursos, disse a Microsoft na quinta-feira em um processo judicial nos EUA. Os usuários criaram “imagens íntimas não consensuais de celebridades e outros conteúdos sexualmente explícitos” com as ferramentas de IA modificadas, incluindo os serviços Azure OpenAI da Microsoft, disse a gigante da tecnologia em uma postagem de blog sobre sua queixa de litígio civil alterada. O processo foi aberto em dezembro em um tribunal federal da Virgínia e foi revelado em janeiro.
Leia também
Microsoft corrige vulnerabilidades críticas
Explode demanda por especialistas em GenAI
A Microsoft não identificou as celebridades por preocupações com a privacidade delas. A empresa também disse que “excluía imagens sintéticas e prompts de nossos registros para evitar a circulação futura de conteúdo prejudicial”.
Os desenvolvedores das ferramentas maliciosas de IA fazem parte de uma “rede global de crimes cibernéticos” que a Microsoft rastreia como Storm-2139, disse a postagem do blog.
Os dois indivíduos americanos estão sediados em Illinois e Flórida, disse a Microsoft, mas a empresa não divulgou seus nomes devido a investigações criminais pendentes.
Os quatro desenvolvedores estrangeiros, disse a empresa, são Arian Yadegarnia, também conhecido como “Fiz”, do Irã; Alan Krysiak, também conhecido como “Drago”, do Reino Unido; Ricky Yuen, também conhecido como “cg-dot”, de Hong Kong; e Phát Phùng Tấn, também conhecido como “Asakuri”, do Vietnã.
A Microsoft disse que está preparando encaminhamentos criminais para agências de segurança pública nos EUA e no exterior.