"Uma imagem que combina elementos jurídicos e tecnológicos, representando a inteligência artificial aplicada aos jogos digitais. A imagem deve incluir uma balança de justiça equilibrando códigos e algoritmos ao lado de um controle de videogame e um avatar digital, simbolizando os desafios legais e direitos autorais no contexto dos jogos. Inclua também símbolos de privacidade e proteção de dados, como um cadeado ou ícones de segurança. O fundo pode ter elementos futuristas, com uma paleta de cores sóbria e tecnológica, como azul escuro, cinza e branco, para refletir o tema jurídico e inovador."

IA e Games: implicações jurídicas da geração automatizada de conteúdo

18 de abril de 2025

A adoção de inteligência artificial (IA) pela indústria de games não é mais tendência: é realidade. Do design procedural de mundos à criação de personagens não jogáveis (NPCs) com comportamento adaptativo, passando por trilhas sonoras dinâmicas e vozes sintetizadas, o uso de IA tem transformado profundamente a f

A adoção de inteligência artificial (IA) pela indústria de games não é mais tendência: é realidade. Do design procedural de mundos à criação de personagens não jogáveis (NPCs) com comportamento adaptativo, passando por trilhas sonoras dinâmicas e vozes sintetizadas, o uso de IA tem transformado profundamente a forma como jogos são desenvolvidos. Estúdios como Ubisoft, EA e CD Projekt Red já integram ferramentas de IA generativa nos fluxos criativos — e estúdios independentes também começam a seguir esse caminho.

Entretanto, a crescente presença da IA na cadeia produtiva de jogos levanta questões jurídicas complexas e inéditas, especialmente no tocante à autoria, direitos de propriedade intelectual, ética, responsabilidade civil e contratos com prestadores de serviço e plataformas. Este artigo analisa essas implicações jurídicas sob a perspectiva brasileira e comparada, propondo soluções práticas para estúdios e publishers.

Autoria e Coautoria: quem é o criador quando a IA participa da obra?

1.1. A ausência de personalidade jurídica da IA

No ordenamento jurídico brasileiro, a proteção por direitos autorais pressupõe a existência de um autor humano (Lei nº 9.610/98, art. 11). A IA, por não possuir personalidade jurídica, não pode ser considerada titular de direitos autorais. Assim, qualquer criação gerada exclusivamente por IA pode ser considerada uma obra sem proteção, a menos que haja intervenção humana significativa — o chamado input criativo.

1.2. O conceito de coautoria indireta

A doutrina já discute a possibilidade de coautoria entre o humano e a IA, especialmente quando o desenvolvedor define parâmetros criativos significativos e supervisiona o output. No Brasil, autores como Gustavo de Lima Siqueira (2023) defendem que, nesses casos, é possível falar em uma “autoria mediada”, sendo o humano titular dos direitos.

Nos EUA, a Copyright Office rejeitou o registro de uma obra puramente gerada por IA (“Zarya of the Dawn”, caso 1-117-30707281), mas reconheceu os direitos da autora sobre a estrutura da história. Isso demonstra a crescente atenção regulatória ao tema.

 

Limites éticos e legais da personalização com deepfakes e vozes sintéticas

2.1. Uso de likeness e voz de artistas reais

O uso de modelos treinados com vozes, imagens ou expressões faciais de artistas reais exige autorização prévia e expressa. A prática, comum em jogos que buscam realismo ou homenagens, pode gerar responsabilidade civil e penal se feita sem consentimento, nos termos do art. 5º, X, da Constituição Federal e da Lei Geral de Proteção de Dados (LGPD – Lei nº 13.709/2018).

2.2.1. O que é likeness

No contexto jurídico e cultural, likeness se refere à representação visual ou auditiva da identidade de uma pessoa, incluindo:

  • Aparência física identificável (ex: rosto, corpo, estilo de cabelo);
  • Expressões faciais e gestuais características;
  • Traços vocais e de fala;
  • Maneirismos únicos;
  • Elementos que remetam ao conjunto da imagem pública daquela pessoa (roupas, cenários, frases associadas etc.).

É um conceito especialmente importante em jurisdições que reconhecem o chamado direito de publicidade (right of publicity), como nos EUA, onde pessoas — famosas ou não — têm o direito de controlar o uso comercial de sua imagem, nome e identidade associada.

2.2.2. Proteção jurídica no Brasil. 

O uso não autorizado de likeness no Brasil pode configurar violação de direitos da personalidade, com base em:

  • Constituição Federal – art. 5º, inciso X.  “São invioláveis a intimidade, a vida privada, a honra e a imagem das pessoas, assegurado o direito à indenização […]”
  • Código Civil – art. 20 e 21.  Art. 20: “Salvo se autorizadas, ou se necessárias à administração da justiça ou à manutenção da ordem pública, a divulgação de escritos, a transmissão da palavra, ou a publicação, a exposição ou a utilização da imagem de uma pessoa poderão ser proibidas […]”
  • LGPD – Lei nº 13.709/2018. Dados biométricos, como reconhecimento facial ou de voz, são dados pessoais sensíveis (art. 5º, II) e exigem consentimento expresso e específico (art. 11).

2.2.3. IA e uso indevido. 

Ao treinar modelos de IA com gravações de voz, vídeos ou imagens de artistas sem consentimento, um estúdio pode:

  • Violar o direito de imagem e voz;
  • Praticar tratamento ilícito de dados pessoais sensíveis;
  • Se tornar alvo de ação por danos morais ou materiais, mesmo que o conteúdo final não seja idêntico, mas remeta inequivocamente ao artista.

Essa prática é especialmente crítica quando o modelo de IA reproduz vozes famosas (por exemplo, dubladores ou cantores) ou gera avatares com feições similares às de pessoas conhecidas, sem autorização.

2.2.4. Exemplo jurídico emblemático: White v. Samsung Electronics America, Inc. (971 F.2d 1395)

Nesse caso, a apresentadora Vanna White, do programa “Wheel of Fortune”, processou a Samsung após um anúncio da marca mostrar um robô com trajes e gestos semelhantes aos seus, diante de um painel de jogos, sugerindo que ela havia sido substituída por uma máquina no futuro.

A Corte de Apelações decidiu que mesmo sem uso direto da imagem ou nome, o comercial explorava indevidamente a identidade pública reconhecível da artista, configurando violação de seu direito de publicidade (right of publicity).

Deepfakes e integridade narrativa

A criação de avatares realistas de streamers, influenciadores ou até NPCs com semelhança com terceiros também demanda atenção. Além do risco jurídico, há impactos reputacionais relevantes. Plataformas como Twitch e YouTube já adotam políticas restritivas contra deepfakes.

O que são deepfakes?

Deepfakes são conteúdos gerados ou modificados por IA para reproduzir a voz, rosto ou movimentos de uma pessoa de forma realista, geralmente com fins de simulação, paródia ou manipulação.

Em jogos, deepfakes podem ser usados para:

  • Criar NPCs ou avatares com feições realistas de streamers, celebridades ou usuários reais;
  • Personalizar experiências com base em input do jogador;
  • Criar trailers ou cutscenes com “atores digitais”.

Riscos jurídicos e éticos

Violação de direitos da personalidade

Mesmo em contextos de homenagem ou referência, o uso de feições reconhecíveis pode violar o direito à imagem, à voz e à identidade.

Risco reputacional para o estúdio

Usuários, influenciadores ou a mídia podem interpretar mal a presença de NPCs ou avatares semelhantes a pessoas reais — o que gera crises públicas e dano à marca.

Potencial uso indevido por terceiros (mods, edições, clipes)

Mesmo que o uso original seja legal, deepfakes podem ser extraídos do jogo e reutilizados para fins ilícitos, como fake news, pornografia não consensual, ou extorsão digital.

 Normas e políticas em evolução

  • Twitch: Proíbe conteúdo deepfake que simule streamers ou terceiros sem consentimento (Diretrizes da Comunidade – Twitch, 2023).
  • YouTube: Exige rotulagem explícita de conteúdos gerados com IA e remove vídeos que imitam a voz ou rosto de terceiros de forma enganosa (YouTube Transparency Rules, 2024).
  • União Europeia – AI Act (2024): Obriga que conteúdos gerados por IA que possam confundir o público devem ser claramente rotulados.
  • Brasil – PL 2338/2023: Prevê sanções para desenvolvedores ou operadores que gerarem conteúdos com risco de dano aos direitos fundamentais sem salvaguardas adequadas.

Boas práticas jurídicas para o uso de likeness, voz e deepfakes em jogos

  1. Solicitar autorização expressa de artistas cujas vozes, feições ou maneirismos forem usados ou simulados (contrato escrito ou licença digital);
  2. Auditar os datasets utilizados para treinar modelos internos, garantindo que não contenham imagens ou vozes protegidas;
  3. Incluir cláusulas contratuais específicas com freelancers, estúdios externos ou fornecedores de IA, garantindo que os modelos e outputs não infrinjam direitos de terceiros;
  4. Evitar semelhanças visuais ou vocais com pessoas reais sem consentimento, especialmente em avatares públicos ou interativos;
  5. Rotular e informar claramente os jogadores quando conteúdo de IA, como deepfakes ou vozes sintéticas, estiver presente no jogo.

Exemplos de Cláusulas Contratuais:

1. Cláusula de Autorização de Uso de Likeness

CLÁUSULA [X] – AUTORIZAÇÃO DE USO DE IMAGEM, VOZ E SEMELHANÇA (LIKELINESS)


O CONTRATADO, por meio deste instrumento, autoriza expressamente o CONTRATANTE a utilizar sua imagem, voz, nome, expressões faciais, maneirismos, estilo e quaisquer outros elementos identificáveis de sua personalidade (conjuntamente denominados “Likeness”), capturados por qualquer meio ou formatados por inteligência artificial, exclusivamente para os fins de desenvolvimento, promoção e distribuição do JOGO [nome do jogo], pelo prazo de [prazo, ex.: 10 anos], de forma irrevogável, irretratável e mundial.
Parágrafo único. A presente autorização abrange o uso em todas as mídias conhecidas ou que venham a ser inventadas, incluindo, mas não se limitando a, jogos digitais, trailers, redes sociais, materiais promocionais, transmissões, plataformas de streaming, modpacks e conteúdos derivados.

 

2. Cláusula de Conteúdo Gerado por Inteligência Artificial (IA)

CLÁUSULA [Y] – USO DE TECNOLOGIA DE INTELIGÊNCIA ARTIFICIAL
As PARTES reconhecem e concordam que o CONTRATANTE poderá empregar tecnologia de inteligência artificial para gerar ou complementar conteúdos no JOGO, incluindo, mas não se limitando a, voz sintetizada, animações faciais, scripts narrativos e personagens não jogáveis (NPCs).
§1º. O CONTRATADO declara estar ciente de que seu likeness poderá ser processado ou replicado, total ou parcialmente, por sistemas baseados em IA, mediante a presente autorização.
§2º. Caso o CONTRATANTE utilize ferramentas de IA fornecidas por terceiros, compromete-se a verificar previamente os Termos de Uso e a origem dos dados utilizados no treinamento dos modelos, assegurando-se da conformidade com as legislações de propriedade intelectual e proteção de dados.
§3º. O CONTRATADO poderá, mediante solicitação justificada, requerer a revisão de conteúdos gerados por IA que considere ofensivos, distorcidos ou violadores de sua honra, imagem ou privacidade.

 

3. Cláusula de Responsabilidade sobre Direitos de Terceiros

CLÁUSULA [Z] – GARANTIA DE LEGITIMIDADE E RESPONSABILIDADE SOBRE DIREITOS DE TERCEIROS
O CONTRATADO declara que todo material, dado, obra, voz, imagem, dataset ou contribuição fornecida ao CONTRATANTE está livre de quaisquer ônus, restrições ou direitos de terceiros, assumindo total responsabilidade por quaisquer violações legais, inclusive quanto à proteção de dados, propriedade intelectual e direitos da personalidade.
Parágrafo único. Na hipótese de questionamentos, reclamações ou ações judiciais decorrentes de uso indevido de dados ou conteúdos não licenciados adequadamente, o CONTRATADO compromete-se a isentar e indenizar o CONTRATANTE por perdas e danos, custos judiciais, honorários advocatícios e quaisquer valores pagos em decorrência de condenação ou acordo.

 

4. Cláusula de Licenciamento Ético e Compliance de IA

CLÁUSULA [W] – LICENCIAMENTO ÉTICO E BOAS PRÁTICAS EM IA
As PARTES se comprometem a adotar práticas éticas no uso e licenciamento de tecnologias baseadas em inteligência artificial, em conformidade com os princípios de transparência, não discriminação, rastreabilidade e respeito aos direitos fundamentais do ser humano, conforme diretrizes da LGPD (Lei nº 13.709/2018), do Marco Civil da Internet (Lei nº 12.965/2014), e, quando aplicável, da legislação estrangeira, como o AI Act da União Europeia e o Right of Publicity dos Estados Unidos.
§1º. O CONTRATANTE compromete-se a:
I – Auditar, sempre que possível, os dados utilizados para o treinamento de modelos próprios;
II – Exigir garantias contratuais de fornecedores quanto à origem legal dos dados utilizados em suas ferramentas;
III – Incluir, nos créditos do JOGO, menção expressa à utilização de conteúdos gerados por IA, sempre que relevante.
§2º. O CONTRATADO declara ciência e anuência quanto à política de uso responsável de IA adotada pelo CONTRATANTE, obrigando-se a segui-la sempre que atuar na execução deste contrato.

5. Contratos com freelancers e plataformas de IA: cláusulas essenciais

Estúdios que contratam artistas, programadores ou roteiristas precisam incluir cláusulas que abordem o uso de IA, tanto para limitar como para permitir com responsabilidade a integração dessas tecnologias. As seguintes cláusulas são recomendadas:

a) Cláusula de autoria e originalidade

“O contratado declara que toda criação entregue é original e que, em caso de uso de ferramentas de inteligência artificial, tal uso será informado previamente e submetido à aprovação expressa do contratante. O contratado será responsável por eventuais violações de direitos de terceiros decorrentes do uso indevido de tais tecnologias.”

b) Cláusula de cessão de direitos autorais sobre conteúdos com IA

“Fica cedido ao contratante, de forma total, definitiva e gratuita, todos os direitos patrimoniais sobre as obras criadas, inclusive aquelas geradas com auxílio de ferramentas de inteligência artificial, desde que sob orientação e intervenção humana significativa.”

c) Cláusula de responsabilidade por dados de treinamento

“O contratado compromete-se a utilizar apenas bases de dados lícitas e respeitosas à legislação vigente, não sendo permitido treinar modelos de IA com conteúdos protegidos por direitos autorais ou dados pessoais sem autorização dos titulares.”

6. Riscos regulatórios no uso de IA no desenvolvimento de games

A proposta de regulação da IA na União Europeia (AI Act) já classifica sistemas de IA para criação de conteúdo como de alto risco quando usados em contextos sensíveis, o que pode impactar jogos com conteúdo educativo, simulações realistas ou de combate. A legislação brasileira segue em discussão com o PL nº 2.338/2023, que cria diretrizes para desenvolvimento responsável de IA, com forte influência nos setores criativos.

Empresas que atuam internacionalmente devem acompanhar as regulações em andamento na UE, EUA e Ásia, adaptando seus Termos de Uso e processos de compliance interno.

7.  Boas práticas para estúdios que usam IA na criação de conteúdo

7.1 Auditar os datasets usados para treinar modelos internos

Por que isso é importante:

  • Evita violações de direitos autorais: Muitos modelos de IA são treinados com grandes volumes de dados (textos, imagens, áudios, vídeos) que podem estar protegidos por copyright. Se um estúdio treina sua própria IA com datasets contendo obras protegidas, pode inadvertidamente cometer infrações autorais ao gerar conteúdo derivado ou similar.
  • Responsabilidade direta do estúdio: Ao usar modelos internos, o risco jurídico é do próprio estúdio, não de terceiros. Isso significa que, em caso de ação judicial por uso indevido de obras, o estúdio será responsabilizado (art. 7º da Lei 9.610/98).
  • Compliance com leis de proteção de dados: Se os dados usados nos treinamentos incluírem informações pessoais, como vozes, nomes ou expressões faciais, o estúdio poderá violar a LGPD (Lei 13.709/18). A ANPD já sinalizou que dados anonimizados, se reversíveis, continuam protegidos (Guia de Boas Práticas para Anonimização, 2022).
  • Casos reais de litígio: Empresas como OpenAI e Stability AI já enfrentam processos por uso indevido de obras protegidas em seus datasets (Andersen v. Stability AI, 2023). A auditoria preventiva é uma defesa importante em eventual litígio.

7.2. Exigir garantias contratuais de fornecedores de IA sobre a origem dos dados

Por que isso é importante:

  • Transferência de responsabilidade contratual: Ao exigir cláusulas em que o fornecedor garante a origem lícita dos dados utilizados no treinamento de seus modelos, o estúdio consegue reduzir sua exposição a riscos legais. Isso é especialmente importante em contratos com empresas que fornecem APIs ou plugins de IA integrados a engines como Unity ou Unreal.
  • Prática reconhecida internacionalmente: Os terms of service de fornecedores como OpenAI, Adobe Firefly e ElevenLabs já preveem responsabilidades sobre uso indevido de conteúdo, mas é prudente garantir proteção adicional via contrato individual.
  • Blindagem da cadeia de fornecimento: Em um cenário de responsabilização solidária ou objetiva (como no CDC ou na LGPD), garantir que seus fornecedores estejam em conformidade é uma forma de mitigar sanções administrativas, judiciais e reputacionais.

7.3 Revisar Termos de Uso das plataformas de IA utilizadas (ex: Midjourney, Runway, ElevenLabs)

Por que isso é importante:

  • Nem tudo que é gerado pode ser usado comercialmente: Plataformas como Midjourney e Runway têm termos que diferenciam o uso gratuito do uso pago. Usuários gratuitos não têm plena titularidade sobre os outputs. Se um estúdio usar outputs gerados sob licença limitada, pode ter problemas para comercializar o game ou licenciá-lo internacionalmente.
  • Restrições territoriais ou setoriais: Alguns termos limitam o uso em determinados mercados, como militar ou educacional. É importante verificar se há proibição de uso em games ou streaming.
  • Obrigação de atribuição ou royalties: Em certas plataformas, o uso comercial exige atribuição ou o pagamento de royalties, o que impacta o modelo de negócio e os contratos com publishers.
  • Compliance contratual com marketplaces: Stores como Steam, Epic ou PlayStation exigem que o conteúdo enviado seja livre de restrições e totalmente licenciado. O descumprimento pode levar ao take down do jogo ou bloqueio da conta do estúdio.

7.4. Adotar uma política interna de uso responsável de IA

Por que isso é importante:

  • Padroniza e previne riscos internos: Uma política bem redigida delimita o que pode ou não ser feito com IA no ambiente do estúdio — por exemplo, “não é permitido gerar personagens com semelhança com pessoas reais sem autorização”. Isso previne erros por parte de freelancers, estagiários ou colaboradores terceirizados.
  • Demonstra diligência perante investidores e parceiros: Em rodadas de investimento ou processos de publicação internacional, é comum que due diligences analisem a gestão de IA no estúdio. Ter uma política interna clara ajuda a demonstrar maturidade operacional e jurídica.
  • Alinha cultura organizacional: A política serve como instrumento de educação interna e contribui para consolidar uma cultura de respeito à ética, à privacidade e aos direitos autorais.
  • Facilita compliance com legislações futuras: O PL 2338/2023 (marco legal da IA) prevê que desenvolvedores de IA devem seguir princípios como transparência e segurança. Ter uma política antecipada pode ser um diferencial competitivo e jurídico.

7.5. Incluir disclaimers sobre uso de IA nos créditos dos jogos, sempre que relevante

Por que isso é importante:

  • Transparência com o consumidor: Há uma expectativa crescente de transparência sobre o uso de IA em produtos culturais. Incluir um aviso como “Este jogo utiliza conteúdos gerados com o auxílio de ferramentas de inteligência artificial” ajuda a alinhar expectativas do público.
  • Evita alegações de engano ou fraude: O art. 6º, III, do Código de Defesa do Consumidor exige clareza na informação. O silêncio sobre o uso de IA pode ser interpretado como omissão dolosa em casos de controvérsias.
  • Adequação a exigências de marketplaces e órgãos reguladores: Plataformas como Apple Store e Xbox Store já solicitam disclosure sobre o uso de IA em jogos ou aplicativos que envolvam interações com o público. A FTC nos EUA também estuda regular práticas enganosas com IA.
  • Construção de reputação responsável: Estúdios que adotam boas práticas de transparência tendem a gerar maior confiança e fidelização dos jogadores e da imprensa especializada.

Conclusão

A inteligência artificial oferece um campo fértil de inovação para a indústria de games, mas traz consigo uma nova camada de complexidade jurídica. Estúdios e publishers devem atuar com responsabilidade e estratégia, adotando boas práticas contratuais, acompanhando os marcos legais e garantindo a integridade e a originalidade de suas criações.

A adoção consciente da IA pode ser a chave para ganhos de escala e diferenciação, desde que estruturada com base sólida. O escritório ASSIS E MENDES ADVOGADOS está preparado para auxiliar empresas do setor de games na implementação segura de tecnologias de IA em seus fluxos criativos e contratuais.

 

Sobre o Autor

Henry Magnus é advogado especializado em Direito Contratual, Direito do Trabalho, Direito Empresarial, Direito Societário e E-Sports. No Assis e Mendes, presta assessoria jurídica para empresas de diversos setores, contribuindo com sua expertise para garantir segurança jurídica e estratégias eficientes para os clientes.

Referências

BRASIL. Lei nº 9.610/98 – Lei de Direitos Autorais.
BRASIL. Lei nº 13.709/2018 – Lei Geral de Proteção de Dados (LGPD).
SIQUEIRA, Gustavo de Lima. Direito Autoral e Inteligência Artificial. São Paulo: Revista dos Tribunais, 2023.
UNITED STATES COPYRIGHT OFFICE. Zarya of the Dawn registration decision, 2023.
WHITE v. Samsung Electronics America, Inc., 971 F.2d 1395 (9th Cir. 1992).
EUROPEAN COMMISSION. Artificial Intelligence Act. Acesso em abril de 2025.

Compartilhe:

Mais Artigos

Plataformas e Marketplaces de Games: O Papel dos Termos de Uso, Política de Privacidade e Compliance Regulatória

O mercado de games tem se tornado cada vez mais complexo, com uma enorme variedade de plataformas e marketplaces que facilitam a venda, distribuição e troca de jogos digitais. As …

Licenciamento de Propriedade Intelectual em Jogos: Riscos e Oportunidades para Estúdios e Publishers

A indústria de games movimenta bilhões de dólares globalmente e se consolida como uma das mais expressivas manifestações culturais e econômicas contemporâneas. No centro dessa cadeia de valor estão os …

Investimento em Estúdios de Games: Como Estruturar Juridicamente Sem Perder o Controle Criativo

Nos últimos anos, a indústria de games tem experimentado um crescimento exponencial. Estúdios de jogos, tanto independentes quanto de maior porte, buscam constantemente formas de financiar seus projetos, seja para …

IA e Games: implicações jurídicas da geração automatizada de conteúdo

A adoção de inteligência artificial (IA) pela indústria de games não é mais tendência: é realidade. Do design procedural de mundos à criação de personagens não jogáveis (NPCs) com comportamento …

Infraestrutura Digital para Jogos Games: Cláusulas Contratuais em Serviços de Servidores e Cloud

No universo dos jogos digitais, a infraestrutura tecnológica é um dos pilares fundamentais para garantir uma experiência de qualidade para os usuários. Estúdios de jogos dependem de servidores robustos, serviços …

Games como Serviço (GaaS): Desafios Jurídicos e Regulatórios do Modelo

O conceito de Games como Serviço (GaaS) tem se consolidado como uma das principais tendências da indústria de games. Ao contrário do modelo tradicional de jogos, em que o produto …

Entre em contato

Nossa equipe de advogados altamente qualificados está pronta para ajudar. Seja para questões de Direito Digital, Empresarial ou Proteção de Dados estamos aqui para orientá-lo e proteger seus direitos. Entre em contato conosco agora mesmo!

Inscreva-se para nossa NewsLetter

Assine nossa Newsletter gratuitamente. Integre nossa lista de e-mails.