O aplicativo DeepNude, que permite aos usuários criar nus falsos de mulheres, foi retirado do ar

Um aplicativo chamado DeepNude, que permitia a criação de fotos falsas de mulheres nuas, foi removido pelos desenvolvedores, que finalmente perceberam o potencial de uso indevido

DeepNude, app DeepNude, app DeepNude fake nudes, app DeepNude removido, IA falsa DeepNude, app deepfake Ai, Deep FakesO aplicativo DeepNude permitiria aos usuários converter fotos de mulheres totalmente vestidas em nuas, mas os desenvolvedores finalmente o retiraram. (Imagem: conta do Twitter DeepNude)

Um aplicativo chamado DeepNude, que permite aos usuários criar fotos falsas de mulheres nuas, foi removido pelos desenvolvedores, que finalmente perceberam o potencial de uso indevido. A equipe anônima de programadores criou o DeepNude, que usaria inteligência artificial para tirar roupas das fotos de uma mulher e criar uma imagem nua em seu lugar.



Os desenvolvedores anunciaram no Twitter que estavam retirando o aplicativo, que foi disponibilizado para Windows e Linux. O app eradestacado pela primeira vez pelo MotherBoard,que também notou que o aplicativo estava produzindo apenas nus de mulheres. A imagem de um homem faria com que o aplicativo adicionasse uma vulva à imagem, o que mostra claramente o pensamento que levou à criação do aplicativo.

De acordo com a reportagem, o DeepNude tinha uma versão gratuita em que a imagem de nudez criada tinha uma marca d'água dizendo que era falsa. Uma versão premium colocaria a marca d'água 'falsa' mais para baixo e a tornaria menor. Como o site indica, as marcas d'água podem ser facilmente removidas.





O potencial de uso indevido e assédio que DeepNude causaria foi claramente perdido na equipe de desenvolvedores. O tweet observa que eles criaram este aplicativo apenas para o entretenimento dos usuários. A ideia de que transformar fotos de mulheres vestidas em nuas sem seu consentimento se qualifica como entretenimento é por si só apavorante.

Além disso, a conta do Twitter do aplicativo tem este slogan, 'O superpoder que você sempre quis'. Claramente, criar nus não consensuais de mulheres é considerado um superpoder.

No aviso de retirada, os desenvolvedores ainda se defendem dizendo que planejavam apenas fazer as vendas de forma controlada. Eles também disseram que o aplicativo não é tão bom e só pode funcionar com precisão em algumas situações. As mulheres deveriam ficar aliviadas porque apenas algumas de suas fotos podem ser convertidas em nus? Não temos certeza.



Além disso, a carta prossegue reconhecendo que, se muitas pessoas o usassem (cerca de 500.000 são mencionados, o que não é nada pequeno), há uma probabilidade de que seja mal utilizado. Isso levanta a questão de por que os desenvolvedores acham que é um problema apenas se muitas pessoas usam o aplicativo. Seja 100 pessoas usando o aplicativo ou meio milhão, a ideia proposta pelo DeepNudes é profundamente problemática.

Chegando à tecnologia Deep Fake, que foi usada para isso, ela conta com ferramentas mais sofisticadas oferecidas pela inteligência artificial e aprendizado de máquina. Eles podem falsificar a voz, o rosto e até mesmo a linguagem corporal de alguém e adicioná-los a um vídeo ou imagem. Falsificações profundas não são imagens falsas de photoshop ou vídeos mal editados que são fáceis de detectar. Falsificações profundas podem copiar com precisão os maneirismos, o som da pessoa que eles deveriam estar imitando.

Os desenvolvedores também disseram que não querem ganhar dinheiro dessa forma, acrescentando que não vão liberar a licença para ninguém usar o aplicativo e também não vão ativar as versões premium. No entanto, eles reconhecem que outros desenvolvedores podem vender cópias do DeepNude na web, mas insistiram que não venderiam o aplicativo.



Confira o tweet abaixo

A carta termina dizendo 'Pessoas que ainda não fizeram upgrade receberão um reembolso. O mundo ainda não está pronto para o DeepNude. 'O mundo idealmente nunca deveria estar pronto para um aplicativo como o DeepNude, considerando que representa uma violação da privacidade e objetifica as mulheres.

Falsificações profundas representam um sério problema de como o conteúdo na Internet será percebido e só podem agravar a disseminação de informações incorretas. Recentemente, um vídeo profundamente falso de Mark Zuckerberg se tornou viral para mostrar exatamente por que esse é um problema sério. Um dos maiores problemas com a falsa IA profunda é, obviamente, o potencial para uso indevido e assédio às mulheres.

PARAartigo recente sobre HuffPost USrevelou que mulheres comuns já estão sendo assediadas graças à tecnologia profundamente falsa, que é implantada para criar vídeos pornográficos falsos delas. Algumas mulheres até tentaram fazer com que esses vídeos fossem removidos, sem sucesso, dos sites pornográficos onde estão hospedados, mas isso não aconteceu. E com um aplicativo como o DeepNude em cena, o assédio teria sido ainda mais fácil de executar.

Línguas
Spanish Bulgarian Greek Danish Italian Catalan Korean Latvian Lithuanian Deutsch Dutch Norwegian Polish Portuguese Romanian Russian Serbian Slovak Slovenian Turkish French Hindi Croatian Czech Swedish Japanese