OpenAI, o criador do ChatGPT, modificou os termos de uso para remover o texto específico relacionado ao uso de sua tecnologia de IA ou grandes modelos linguísticos para ‘fins militares e bélicos‘.
Antes da mudança nas diretrizes em 10 de janeiro, a política de uso especificamente proibia o uso de modelos da OpenAI para o desenvolvimento de armas, militares e bélicas, e conteúdos que promovam, incentivem ou representem atos de automutilação.
A OpenAI afirma que as políticas atualizadas resumem a lista e tornam o documento mais ‘legível‘, ao mesmo tempo em que oferecem ‘orientações específicas para cada serviço’.
Será realmente mais fácil usar a tecnologia militarmente?
A lista agora foi condensada no que a empresa chama de Políticas Universais, que proíbem qualquer pessoa de usar seus serviços para prejudicar outros e proíbem a reutilização ou distribuição de qualquer resultado de seus modelos para prejudicar outros.
Embora a alternância de políticas seja interpretada como um enfraquecimento gradual da posição da empresa em relação à colaboração com organizações relacionadas à defesa ou ao exército, vários especialistas, incluindo Sam Altman, CEO da OpenAI, já destacaram os ‘riscos fronteiriços’ apresentados pela IA.
Embora ainda tenhamos que ver suas implicações na vida real, essa mudança de redação ocorre exatamente quando as agências militares ao redor do mundo estão mostrando interesse no uso da IA.
A menção explícita de ‘militar e bélico’ na lista de usos proibidos indicava que a OpenAI não poderia trabalhar com organismos governamentais como o Departamento de Defesa, que costuma oferecer contratos lucrativos aos contratantes.
No momento, a empresa não possui um produto que possa matar ou causar danos físicos diretamente a ninguém. No entanto, como disse The Intercept, sua tecnologia poderia ser usada para tarefas como escrever código e processar pedidos de aquisição de coisas que poderiam ser usadas para matar pessoas.
Quando questionado sobre a mudança na redação de sua política, o porta-voz da OpenAI, Niko Felix, declarou à publicação que a empresa ‘pretendia criar um conjunto de princípios universais que fossem fáceis de lembrar e aplicar, especialmente considerando que nossas ferramentas já são usadas globalmente por usuários comuns que agora também podem criar GPT’.