Verbete | ChatGPT: responsabilidades, uso na Prática Jurídica e Regulamentação

Lucas Pessoa /
27 março, 2023

Assistente virtual desenvolvido pela OpenAI, o ChatGPT utiliza a tecnologia de geração de linguagem natural para interagir, por meio de textos fluidos, a um comando inicial. Ele basicamente busca cumprir certas tarefas designadas pelo usuário, respondendo a perguntas, realizando pesquisas ou escrevendo textos diversos. 

A inteligência artificial do ChatGPT, chamada de modelo de linguagem,  funciona mediante o acúmulo de um vasto conjunto de dados de variadas fontes. Quando recebe um comando, tarefa ou pergunta, o ChatGPT usa os modelos armazenados em seu banco de dados para gerar respostas capazes de imitar a linguagem humana. 

É uma ferramenta com boa performance para “inputs” criativos, e tem tido diversas aplicações, inclusive na pesquisa jurídica e confecção de documentos jurídicos. 

Um modelo de linguagem como o ChatGPT suscita discussões jurídicas, em virtude da sua capacidade de transformar as informações do banco de dados em conteúdos “originais”. 

O problema é que muita da informação disponível na internet está protegida por várias vias, dentre as quais a mais evidente é a proteção que oferece a propriedade intelectual. 

O ChatGPT e a propriedade intelectual

A propriedade intelectual se aplica a obras intelectuais, como textos, artigos e criações artísticas, independentemente de qualquer registro. Pode-se dizer que o “standard” dessa proteção é baixo. Uma escolha, combinação e sequência de palavras de modo original, por exemplo, pode ser protegida de forma individual – e isso se aplicaria desde uma resenha de blog até a um tweet.  

Textos e dados originais, inclusive em um site, podem constituir uma base de dados, que por sua vez é protegida pela legislação sobre direitos autorais.

Foto de cottonbro studio: https://www.pexels.com/pt-br/foto/apartamento-aniversario-dia-do-nascimento-bolo-de-aniversario-4114739/

Diversos sites de pesquisa, especialmente os utilizados para pesquisas jurídicas, avisam que a cópia e a reprodução do seu conteúdo se condicionam à indicação da fonte. Com certeza uma ferramenta de inteligência artificial que faz “webscraping” em diversos sites, modificando e reproduzindo conteúdo extraído massivamente, não teria condições de obedecer ao aviso legal mencionado acima. 

Ainda quando os dados possuem licenças abertas (como a “Creative Commons”), esta pode estar limitada, por exemplo, em relação à possibilidade de se fazer o uso comercial (pela cláusula “NC”) ou realizar trabalhos derivados com base nos dados obtido (pela cláusula “ND”, que impede a modificação, transformação ou adaptação da obra original). 

Há também um ambiente de incerteza jurídica à volta da prática da “mineração de dados” (processo de análise de vastos conjuntos de dados para descobrir tendências, prever resultados e ter novos “insights”), ainda mais pelos indícios de que desenvolvedores de IA poderiam estar fazendo uso de dados sem as licenças necessárias. 

Na tentativa de evitar fazer uso de material protegido, há desenvolvedores que optam por “treinar” seus algoritmos com dados limitados e não muito recentes, o que apresenta a desvantagem de comprometer os resultados das pesquisas. Há também quem busque obter a autorização dos detentores de direitos sobre as obras e bancos de dados utilizados – mas essa opção é impraticável, haja vista a multidão de titulares de dados diferentes. 

O próprio ChatGPT teria sido “treinado” com base de dados limitada: fontes públicas disponíveis na internet, coletadas até setembro de 2021 (ponto de corte), e não teria acesso a informações posteriores àquele ano. Embora não divulgue sua base de dados – e quase nunca apresente referências –, declara que os seus arquivos não acessam a internet, e que a sua base de dados seria alimentada somente pela OpenAI. 

 

Efetividade do ChatGPT na prática jurídica 

Como é característico dos sistemas de IA, o ChatGPT possui a capacidade de analisar dados que se encontram desestruturados, e reorganizá-lo, adaptando-os a contextos de conversação. 

Essa adaptação pauta-se principalmente em padrões que se repetem, dentro do vasto banco de dados em que foi “treinado” o assistente virtual. Os padrões predominantes, no entanto, não necessariamente são os melhores ou os mais relevantes. 

Quando, em teste, perguntamos ao ChatGPT se, de acordo com a legislação brasileira, é garantido ao incorporador um prazo de carência de 180 dias dentro do qual poderá desistir do empreendimento, ele respondeu que “Não há uma lei específica que determine um prazo de carência de 180 dias para o incorporador desistir de um empreendimento de incorporação no Brasil.”

Foto de Kindel Media: https://www.pexels.com/pt-br/foto/inteligencia-artificial-concreto-dancando-danca-9029799/

Na realidade, ao contrário do que respondeu o ChatGPT, o incorporador pode, sim, fixar, para efetivação da incorporação, prazo de carência não excedente ao termo final do prazo de validade do registro (180 dias), ou de sua revalidação, dentro do qual poderá desistir do empreendimento. 

No exemplo acima, o ChatGPT fez aquilo para o que foi “treinado”, isto é, para organizar informações em linguagem fluida, dentro de um contexto narrativo e conforme um padrão correspondente. Um computador pode muito bem ser treinado para realizar um conjunto de operações que dão um certo resultado. Porém, não pode ser treinado para inteligir, admitindo a veracidade ou falsidade do conteúdo do resultado. 

O ChatGPT não admite a falsidade ou veracidade das informações que fornece, nem pode compará-las com dados da experiência, mas apenas realiza operações de estruturação de dados, mediante estímulo, conforme um algoritmo pré-ordenado. 

Para tarefas mais simples, como a definição de um conceito, ou uma questão genérica sobre a quem a lei atribui a responsabilidade de certa obrigação, o ChatGPT pode apresentar respostas interessantes e úteis. Porém, não se espere dele que procure e descubra o sentido e o alcance de uma lei, ou que realize de modo confiável a interpretação de dispositivos legais. 

A questão fica ainda mais delicada quando se pretende aplicar o ChatGPT à prática contratual, sobretudo quando se considera que a maioria dos contratos disponíveis publicamente na internet não são exemplos de organização e concisão. Então, parece pouco provável que o ChatGPT venha a redigir bons contratos com base em seu banco de dados público de “treinamento”. 

Foto de Kindel Media: https://www.pexels.com/pt-br/foto/ia-inteligencia-artificial-inovacao-copo-de-plastico-9028873/

Apostar em uma ferramenta como o ChatGPT para minutar documentos jurídicos pode ser mesmo um tiro no escuro. Isso porque, na prática jurídica, especialmente contratual, não é assim tão importante que uma cláusula contratual esteja “escrita corretamente”. 

O que é mais relevante nessa área é que as cláusulas sejam detalhadas, personalizadas para uma situação especial, e que seu conteúdo inspire confiança a partir de um especialista.

Desse modo, o uso de modelos padronizados de documentos, customizáveis e concisos, inclusive por meio de ferramentas digitais, continuará a ter lugar de destaque na caixa de ferramentas de automatização dos advogados. 

  

ChatGPT e o Marco Legal da inteligência Artificial 

No fim de 2022, uma comissão de juristas instituída pelo Senado apresentou um relatório final, com minuta substitutiva de projetos de leis anteriores que visavam à regulação do uso da inteligência artificial no Brasil. 

O texto vai se tornar projeto de lei e será discutido pelo Senado. Os pilares centrais do anteprojeto são a garantia dos direitos dos usuários, a gradação de níveis de risco causado por uso da tecnologia e a responsabilidade dos desenvolvedores. 

Seriam assim garantidos às pessoas afetadas por sistemas de IA os direitos à informação prévia quanto às suas interações com tais sistemas; à explicação sobre decisão, recomendação ou previsão tomada por sistema de IA; o direito de contestar decisões ou previsões de sistemas de IA que produzam efeitos jurídicos ou que impactem de maneira significativa os interesses do afetado; o direito à não discriminação; e o direito à privacidade e proteção de dados pessoais.  

É um ponto interessante do projeto essa postura pragmática com que trata do uso ético da inteligência artificial, bem como o dever de as soluções de IA garantirem decisões rastreáveis e sem viés discriminatório ou preconceituoso. Também é relevante o direito à correção de dados incompletos, inexatos ou desatualizados usados por sistemas de IA, o direito de solicitar anonimização, bloqueio ou eliminação de dados desnecessários ou excessivos. 

Certamente, os princípios norteadores do uso da IA deverão ser aplicáveis a ferramentas como o ChatGPT, uma vez que alguns dentre os principais riscos do uso desse tipo de tecnologia são a propagação de informação falsa ou a reprodução de preconceitos ou estereótipos que possam estar contidos no banco de dados utilizados para “treinar o algoritmo”. 

Foto de Pavel Danilyuk: https://www.pexels.com/pt-br/foto/inteligencia-artificial-preto-e-branco-p-b-contemporaneo-8294624/

O anteprojeto também reconhece que os sistemas de IA com capacidade de tomar decisões afetam mais profundamente os interesses dos indivíduos, e acerta ao garantir o direito à contestação de decisões, recomendações ou previsões amparadas em inferências discriminatórias, irrazoáveis ou contrárias à boa-fé. Em casos mais relevantes, garante-se o direito de solicitar intervenção humana. 

Quanto à gradação de níveis de risco, o relatório prevê que todo sistema de IA, antes de ser colocado no mercado ou utilizado, deverá passar por avaliação preliminar para classificação do grau de risco. Muito provavelmente, o ChatGPT não seria classificado como um sistema de risco alto ou excessivo.

Veda-se a implementação e o uso de sistemas de risco excessivo, assim considerados os que induzem a comportamentos prejudiciais à saúde ou segurança, e, no âmbito do poder público, os que realizem de forma ilegítima ou desproporcional o ranqueamento de pessoas, com base no seu comportamento ou personalidade, para acesso a bens e serviços e políticas públicas.  

Entre os sistemas de alto risco podem-se mencionar os utilizados em controle de trânsito, processo seletivo de empresas, avaliação de critério de acesso a serviços essenciais, serviço de resposta a emergências, administração da justiça, teste de carros autônomos, procedimentos cirúrgicos robotizados, biometria, dentre outros. 

Para que possam fornecer sistemas de alto risco, os agentes de IA deverão, além de realizar avaliação preliminar, adotar diversas medidas de governança e processos internos. Será preciso, por exemplo, documentar o funcionamento, a construção e implementação do sistema; o uso de ferramenta de registro automático que permita apurar o bom funcionamento do sistema, seus potenciais discriminatórios e a implementação de medidas de mitigação de risco; testes de confiabilidade; e medidas de gestão de dados para prevenir vieses discriminatórios. 

Quanto à responsabilização, relatório prevê que o fornecedor ou operador de AI que cause algum dano a outrem, será obrigado a repará-lo integralmente, independentemente do grau de autonomia do sistema. 

Foto de Pavel Danilyuk: https://www.pexels.com/pt-br/foto/inteligencia-artificial-desenvolvimento-dispositivo-aparelho-8439089/

A gradação de níveis de risco exerce influência direta na responsabilização, visto que, quando se tratar de sistemas de IA de alto risco ou risco excessivo, o fornecedor ou operador responderão objetivamente pelos danos causados (ou seja, independentemente de culpa), na medida de sua contribuição para produzir o dano. 

Entretanto, quando a IA não seja de alto risco, a culpa do agente causador do dano será presumida, aplicando-se ainda a inversão do ônus probatório em favor da vítima do dano. 

É importante notar, ao final deste item, que o texto do relatório é insuficiente em certos aspectos, por não tratar em profundidade de temas que ganharam força com a difusão do ChatGPT, como direitos autorais do conteúdo criado e dados utilizados para “treinar” o algoritmo de assistentes virtuais como esse. 

Uma boa notícia para desenvolvedores é que, com finalidade de incentivar a pesquisa científica, de interesse público e inovação e eliminação da insegurança jurídica, o relatório estabelece que não ofende os direitos autorais a atividade de mineração de dados por organizações e instituições de pesquisa, jornalismo, museus, arquivos e bibliotecas, desde que não objetive a mera reprodução da obra original, ocorra nos limites do necessário (de maneira razoável e responsável), não prejudique economicamente os titulares dos direitos nem concorra com a exploração normal das obras. 

E você, o que pensa sobre este assunto? Aqui no Moreira Suzuki apoiamos diversas empresas no caminho desafiador da modernização jurídica perante as tecnologias emergentes, sempre em conformidade com a Lei Geral de Proteção de Dados.

Além de artigos como esse, produzimos também vídeos com conteúdo especializado nos mais diversos temas da advocacia empresarial, disponíveis em nosso canal do Youtube e redes sociais. Convidamos você a seguir @moreirasuzuki.

Também estamos à disposição para tirar dúvidas sobre os nossos serviços. Entre em contato conosco diretamente pelo botão do Whatsapp ao lado

 

_________

 

Conheça mais sobre este assunto com outros conteúdos:

Internet of Things (IoT): Tributação na economia digital

Peer-To-Peer Lending: Um novo modelo de negócio

 

COMPARTILHAR

Quer receber conteúdos exclusivos da Moreira Suzuki Advogados por e-mail? Cadastre-se!