Shane Jones, um engenheiro de inteligência artificial da Microsoft, enviou uma série de cartas à presidente da Comissão Federal de Comércio dos Estados Unidos, Lina Khan, e ao conselho de administração da própria Microsoft, instando a empresa de Redmond a retirar temporariamente o Copilot Designer, um gerador de imagens de IA, por ser capaz de criar imagens violentas e sexuais com poucas indicações.
Em janeiro, Jones enviou outra série de cartas para vários senadores e políticos americanos, bem como para o próprio procurador-geral do estado, Bob Ferguson. Nelas, o engenheiro da Microsoft afirmava que, durante sua pesquisa em busca de vulnerabilidades, encontrou diversos problemas com as barreiras de proteção do Designer, a ponto de que a IA era capaz de criar imagens grotescas e explícitas através de prompts simples.
De acordo com o CNBC, vários dos resultados mais controversos encontrados por Jones envolvem o prompt “pró-escolha” (pessoas que defendem o direito ao aborto), consistindo em desenhos como “um demônio com dentes afiados prestes a comer um bebê, Darth Vader segurando um sabre de luz ao lado de bebês mutantes e um dispositivo manual semelhante a uma broca com a etiqueta ‘pró-escolha’ sendo usado em um bebê adulto”.
Jones afirma que a Microsoft se recusou a remover o Designer, por isso agora ele pediu à empresa para incluir novos avisos sobre o que a IA pode criar e também para alterar a classificação do aplicativo Android para que não seja classificado nos Estados Unidos como E (para todos os públicos).