É seguro pedir ao ChatGPT para recriar suas fotos?

Ferramentas podem usar indevidamente dados visuais sensíveis; especialista ensina como se proteger

ChatGPT. Créditos: depositphotos.com / jypix -

Recriar fotos por inteligência artificial está na moda, mas a tecnologia por trás dessa mágica ainda carece de regulamentação clara. Ao enviar imagens pessoais para plataformas de IA, usuários podem abrir mão do controle sobre o uso e destino desses dados.

É o que explica à reportagem André Maini, especialista em Tecnologia e Marketing de Influência e Head de B.I. e Novas Tecnologias na ID. Impulso Digital.

Segundo ele, os riscos associados a essa prática incluem o treinamento não consentido dos modelos de IA com as imagens enviadas, a criação de deepfakes para fins de fraude ou desinformação e a exposição e uso indevido de dados visuais sensíveis, como o rosto ou o ambiente familiar.

Esses dados podem ser explorados comercialmente ou vazados.

“O problema central reside nos termos de uso das plataformas. Muitos desses termos permitem o reaproveitamento das imagens geradas e até mesmo das imagens originais enviadas, muitas vezes para fins que o usuário desconhece. É essencial diferenciar plataformas seguras, com políticas alinhadas a regulamentações como a LGPD e a futura Lei de IA, daquelas que operam com baixa transparência”, ele explica. 

O caso do ChatGPT
Considerando que o ChatGPT da OpenAI é uma das plataformas mais comuns para interação com IA, Maini considera relevante detalhar sua posição sobre o uso de imagens enviadas. 

Imagens enviadas ao ChatGPT podem ser utilizadas para treinar os modelos da OpenAI.
Usuários podem desativar essa opção nas configurações de privacidade.
As versões gratuita e Plus oferecem controle ao usuário para desativar o uso de dados para treinamento.
Existe um modo de chat temporário que não salva nem reutiliza informações.
Nas versões corporativas (Enterprise/Team), os dados não são utilizados para treinamento por padrão, oferecendo maior segurança e conformidade com regulamentações como SOC 2 Type 2.
A OpenAI aplica testes de segurança, incluindo avaliações de terceiros. No entanto, o envio de imagens sensíveis ainda representa risco, especialmente se o usuário não ajustar as configurações de privacidade.
Maini reitera que é possível usar essas ferramentas de forma recreativa e criativa, mas com consciência dos riscos. Sua recomendação como especialista é evitar enviar imagens sensíveis e ler atentamente os termos de uso. 

Ele também sugere considerar a rastreabilidade das informações. “Nenhuma IA é neutra ou isolada, e o que é compartilhado pode alimentar uma base global amanhã”, explica o especialista.

‘Me transformaram em homem’
Essas questões ganham contornos concretos em experiências como da especialista em marketing de influência Gigi Grandin. Após ter um artigo publicado na edição impressa da revista Meio & Mensagem, ela tirou uma foto da página com o celular. 

A imagem original estava escura e desalinhada. Na tentativa de melhorar a qualidade, Gigi recorreu a uma ferramenta de inteligência artificial para “restaurar” a foto.

O resultado, segundo Gigi Grandin conta ao Terra, não foi uma versão melhor da imagem, mas um “apagamento”.

“A IA substituiu minha imagem pela de um homem branco de meia-idade. Além disso, trocou meu nome por um nome masculino fictício. Virei homem, deixei de existir. O que aconteceu foi um apagamento”, ela conta.

“O algoritmo, aparentemente, considerou a imagem desse homem mais adequada para estar na página, ocupar o cargo de CEO e ser autor de um artigo em uma revista de negócios do que a minha imagem.”

Gigi interpretou o ocorrido não como um erro técnico, mas como um reflexo de estereótipos sociais. Ela aponta que a IA, treinada com milhões de dados, pode aprender, repetir e ampliar os mesmos estereótipos. 

André Maini concorda.

“A substituição por um homem fictício levanta a questão do futuro que está sendo construído, onde uma mulher real com nome, rosto, currículo e cargo pode ser apagada por uma máquina que ‘acredita’ que um homem fictício é mais coerente com aquele contexto. A exclusão vivenciada no mundo real pode estar sendo transposta para o digital, algorítmico e automático. Quando a exclusão é automatizada, ela pode se tornar regra, padrão e base de dados”, diz o especialista.

FONTE: TERRA