Nas últimas semanas, você certamente viu em suas redes sociais imagens no “estilo Ghibli”, geradas por seus amigos, familiares, colegas de trabalho, pessoas em seus feeds de redes sociais ou talvez por você mesmo. Essa verdadeira febre foi possível mediante o uso do ChatGPT, modelo de inteligência artificial desenvolvido pela OpenAI, que permitiu aos usuários transformarem fotos pessoais em ilustrações de alta fidelidade em diversos estilos artísticos.
Com opções de estilos com diferentes referências, como personagens de South Park, Turma da Mônica e estilos como o anime japonês clássico e trends mais recentes como “doll in the box”, os usuários adotaram o estilo artístico do Studio Ghibli[1] para tratar suas imagens e divulgá-las em suas redes sociais, criando uma enxurrada de “versões Ghibli” de suas fotos.
Conheça o JOTA PRO Poder, plataforma de monitoramento que oferece transparência e previsibilidade para empresas
A recente funcionalidade resultou em um aumento recorde de usuários para o chatbot da OpenAI, ultrapassando 150 milhões de usuários ativos semanais pela primeira vez neste ano. O CEO da OpenAI, Sam Altman, destacou que a plataforma adicionou um milhão de usuários em uma única hora, comparando com o marco anterior de um milhão de usuários em cinco dias após o lançamento inicial do ChatGPT.
Além disso, as receitas de assinaturas dentro do aplicativo aumentaram 6% em relação à semana anterior. Esse aumento significativo sobrecarregou os servidores, levando a interrupções temporárias da funcionalidade.[2]
Essas inovações têm proporcionado entretenimento e engajamento nas redes sociais, mas também suscitam questões importantes, como discussões sobre direitos autorais na fase de treinamento dos modelos, consumo energético[3] e sobre privacidade e proteção de dados pessoais, tema que discutiremos a seguir.
Ao interagir com o ChatGPT, os usuários fornecem diversas informações pessoais, incluindo os textos e imagens enviados via chat e conteúdos relativos à sua localização, conexão e seu dispositivo pessoal. De acordo com a política de privacidade da OpenAI, esses dados são coletados e podem ser utilizados para aprimorar os modelos de IA da empresa. No entanto, a extensão dessa coleta e o uso específico dessas informações nem sempre são transparentes para os usuários.
A funcionalidade de geração de imagens no “estilo Ghibli” requer que os usuários enviem fotos (inputs) – incluindo fotos pessoais ou mesmo de terceiros – para o ChatGPT. Ao fazer isso, os usuários permitem à OpenAI o tratamento das imagens e metadados enviados, o que inclui sua utilização para treinar futuros modelos de IA[4].
Contudo, o treinamento do modelo de IA do ChatGPT é apenas um exemplo do que seria considerado como “melhoria dos serviços”, inexistindo uma determinação sobre quais os contornos dessa finalidade prevista na Política. Assim, essa redação abstrata faz com que muitos usuários possam não estar plenamente cientes de que, ao utilizar a funcionalidade de geração de imagens, estão permitindo que suas fotos sejam usadas para o desenvolvimento do produto e que elas possivelmente sejam utilizadas para outros fins pela OpenAI.
Essa falta de transparência levanta preocupações sobre a adequação das práticas da empresa em relação às legislações de proteção de dados, como a Lei Geral de Proteção de Dados (LGPD) no Brasil.
Em pesquisa recém-publicada pelo Centro de Tecnologia e Sociedade da FGV/RJ, em que fomos coautores, analisamos o cumprimento da LGPD por parte dos principais serviços de IA generativa pela leitura de suas Políticas de Privacidade. O ChatGPT assumiu um papel de destaque em comparação aos outros sistemas objeto do estudo[5].
Nossa pesquisa no CTS-FGV identificou o descumprimento por parte do ChatGPT de critérios objetivos de alta importância, como relativos à transferência internacional de dados, aos direitos dos titulares e ao fornecimento de informações sobre a implementação de medidas de segurança técnica e administrativas.
Os resultados da pesquisa indicam um baixo nível de transparência nestes pontos por parte da OpenAI. Além disso, levantam especial preocupação quanto aos impactos na proteção de dados pessoais causados pela trend de cartunização de imagens, especialmente no que toca os três critérios acima citados.
Como destacado, os usuários enviaram uma quantidade maciça de dados pessoais, especialmente imagens, bem como mensagens inseridas no sistema. Esses conjuntos podem conter dados pessoais sensíveis[6], bem como dados de categorias de titulares que demandam proteção especial, como menores de idade.
Todavia, permanecem inúmeras dúvidas sobre como se dará o tratamento desses dados pessoais. Quanto à transferência internacional, a ausência de transparência quanto aos mecanismos utilizados para esse tipo de operação e a falta de informação quanto aos países para onde tais dados seriam remetidos foram ambos fatores de descumprimento por parte da OpenAI apontados em nossa pesquisa que prejudicam a avaliação dos titulares sobre o tratamento de seus dados.
O enredo se complica ainda mais quando notamos que nem todos os direitos do titular previstos na LGPD são elencados na Política de Privacidade da OpenAI, em aparente violação à previsão do art. 9, inciso VII da LGPD. É por meio desses direitos – como o direito de oposição e o direito de eliminação dos dados tratados com base no consentimento – que é facultado ao titular efetivamente exercer seu direito à proteção de dados pessoais, que, lembramos, se trata de um direito fundamental constitucional[7].
Desse modo, limitar que o titular seja informado de seus direitos previstos na LGPD é, além de um descumprimento da própria lei, uma possível violação a um direito constitucional, devendo ser tratado com a devida seriedade e atenção.
Outro ponto de atenção diz respeito às medidas técnicas e de segurança que são implementadas. A Política é opaca ao não estabelecer qualquer parâmetro ou informação adicional, meramente limitando-se a prever que essas medidas serão razoáveis[8] A ausência destas informações merece discussão.
Obviamente que os segredos comercial e industrial devem ser observados – a própria LGPD tem disposição neste sentido – bem como a divulgação das medidas técnicas e de segurança deve ser feita de forma criteriosa, uma vez que o excesso de detalhes pode facilitar a ocorrência de incidentes de ataque cibernético, prejudicando a segurança dos dados.
Todavia, não há justificativa para o uso de conceitos abstratos e indeterminados como razoável, sequer esatabelecendo exemplos do que seria, de fato, considerando razoável pelo controlador. Tais previsões genéricas corroboram em incrementar o cenário de opacidade destacado.em incrementar o cenário de opacidade destacado.
Em suma, o titular não tem certeza de onde estão os seus dados, de como eles foram transferidos para esses lugares, de quais são seus direitos sobre esses dados nem de como eles estão sendo protegidos. Esse é um cenário assustador de opacidade, que impacta o direito à autodeterminação informativa dos titulares de dados. Nos parece que é necessária uma atenção especial da ANPD, merecendo um olhar próximo acerca das práticas aplicadas não apenas pela OpenAI em seu ChatGPT, como também por outras aplicações de IA.
Já para os titulares de dados, especialmente aqueles que criaram fotos no “estilo Ghibli”, deixamos uma sugestão: a LGPD permite a solicitação ao controlador de informações acerca dos dados pessoais tratados, com os critérios utilizados e a finalidade do tratamento, além do acesso a esses dados, incluindo os dados que possam ser inferidos e associados a perfis.
Essas informações podem reduzir a opacidade existente nas práticas da OpenAI, bem como de qualquer outro controlador, e auxiliar os titulares de dados a responderem uma pergunta cada vez mais importante: seus dados pessoais valem uma trend? Para essa avaliação, a transparência para analisar as práticas do tratamento e os seus riscos é fundamental.
[1] O Studio Ghibli, Inc. é um estúdio de animação japonês sediado em Tóquio, com presença na indústria de animação. Seu trabalho foi bem recebido pelo público e reconhecido com inúmeros prêmios, com sete indicações ao Oscar de Melhor Filme de Animação, tendo vencido o prêmio duas vezes, com A viagem de Chihiro (2001) e O menino e a garça (2023).
[2] Noticiado pela Reuters. Disponível em: https://www.reuters.com/technology/artificial-intelligence/ghibli-effect-chatgpt-usage-hits-record-after-rollout-viral-feature-2025-04-01/.
[3] O estudo publicado em dezembro de 2023 afirmou que a geração de uma imagem em um modelo generativo equivalia à meia carga de bateria de um smartphone.
[4] Cf. Previsão da Política de Privacidade da OpenAI, em vigor desde novembro de 2024: nós podemos usar o Conteúdo que você nos fornece para melhorar nossos Serviços, por exemplo, para treinar os modelos que alimentam o ChatGPT.
[5] Pesquisa da Statista, de janeiro de 2025, apontou que o ChatGPT teve cerca de 3,5 vezes mais download nos 10 primeiros dias de lançamento comparado ao segundo aplicativo de IA mais baixado, o Microsoft Copilot. Disponível em: https://www.statista.com/statistics/1553118/top-gen-ai-apps-downloads-from-launch/.
[6] Segundo o art. 5º, II da LGPD, dado pessoal sensível é o dado pessoal sobre origem racial ou étnica, convicção religiosa, opinião política, filiação a sindicato ou a organização de caráter religioso, filosófico ou político, dado referente à saúde ou à vida sexual, dado genético ou biométrico, quando vinculado a uma pessoa natural.
[7] Art. 5º, LXXIX – é assegurado, nos termos da lei, o direito à proteção dos dados pessoais, inclusive nos meios digitais.
[8] A Política de Privacidade da OpenAI dispõe o seguinte: Nós implementamos medidas técnicas, administrativas e organizacionais comercialmente razoáveis concebidas para proteger os Dados Pessoais contra perda, uso indevido, acesso, divulgação, alteração ou destruição não autorizados.