09.03
Artigos
A responsabilidade civil na prestação de serviços: o uso de inteligência artificial e o dever de diligência
Arthur Cony Ferreira da Costa
As ferramentas de inteligência artificial (IA) já estão inseridas na realidade de diversas formas de prestação de serviços, trazendo à tona diversas questões éticas relevantes no desempenho das funções e, para os operadores do direito, debates técnicos envolvendo a responsabilidade decorrente do uso dessas ferramentas como um alicerce de trabalho.
Sob a ótica contratual, mormente à luz dos deveres anexos decorrentes da boa-fé objetiva, da ética profissional e do dever de diligência, o cerne da controvérsia envolvendo o uso das IAs, nesse contexto, é o risco advindo da utilização indiscriminada dessas ferramentas, especialmente quando tal uso compromete a qualidade dos resultados.
Isso porque a responsabilidade pela entrega, via de regra, recai sobre aquele que optou por empregar a ferramenta tecnológica ao seu labor, não sobre aquele que a desenvolveu e a colocou no mercado. Com o intuito de blindar sua participação efetiva na entrega dos resultados, as próprias empresas desenvolvedoras dessas tecnologias estabelecem em seus termos de uso cláusulas expressas de isenção de responsabilidade (disclaimers) quanto à precisão, confiabilidade e veracidade das informações geradas, transferindo integralmente o ônus da verificação para o usuário e reforçando o entendimento de que a inteligência artificial atua como mero subsídio de pesquisa, e não como fonte inquestionável de dados ou substituta do juízo crítico humano.
Nesse sentido, em notícia publicada pelo portal The Guardian[1], relatou-se que a empresa de consultoria Deloitte, contratada pelo governo australiano para a elaboração de um relatório que foi entregue em outubro de 2025, concordou em devolver parte do valor do contrato, firmado em AUD$ 440.000,00 (quatrocentos e quarenta mil dólares australianos), após admitir ter utilizado uma ferramenta de inteligência artificial para produzi-lo.
Ou seja, restou configurado o cumprimento defeituoso do contrato em virtude da utilização indiscriminada de ferramentas artificiais, o que levou a empresa contratada a concordar com o abatimento proporcional do preço, devolvendo parte dos honorários pelo resultado indesejado, prejudicado diretamente pelo uso da IA e na falha dos deveres de diligência.
No caso concreto, o relatório tinha como objetivo revisar o chamado “targeted compliance framework” (TCF), um sistema automatizado de penalidades para beneficiários de auxílio-social que não cumprem certas obrigações estabelecidas, como procurar ativamente por empregos e comparecer a compromissos estipulados pelo próprio governo, o que revela a sensibilidade do objeto do contrato.
Contudo, o relatório apresentado tinha diversas falhas e as chamadas “alucinações”. Segundo observações do Dr. Christopher Rudge, a quem o relatório foi inicialmente submetido para análise, o material apresentava falhas substanciais, como referências acadêmicas inexistentes, citações jurídicas fabricadas e até a invocação de um julgamento da Corte Federal da Austrália que nunca ocorreu. Apontou, ainda, que o texto não se baseava em nenhuma fonte de evidência específica – em tradução livre –, revelando significativa deficiência metodológica empregada pela empresa contratada no tratamento dos dados, especialmente para a finalidade para a qual o estudo se prestava.
Dessa forma, o caso evidencia as preocupações relacionadas à dependência excessiva de IA em tarefas altamente especializadas, sobretudo no que diz respeito à transparência, ao controle de qualidade e à responsabilidade profissional.
É fato que a responsabilidade pelo uso de uma ferramenta recai sobre aquele que a utiliza, em especial quando se trata de obrigação cujo cumprimento exige diligência técnica adequada. Afinal, a inteligência artificial, por si só, é apenas um instrumento, o qual, caso não seja submetido à supervisão humana rigorosa, pode comprometer de forma significativa a qualidade e a utilidade de suas produções.
Assim, sob a ótica da teoria do inadimplemento e dos deveres contratuais, o uso desmedido das ferramentas de IA pode configurar violação ao dever de diligência, ensejando não apenas o reconhecimento do cumprimento defeituoso de uma obrigação, como no exemplo citado, mas também eventual responsabilização civil do profissional que se valha da tecnologia sem observar os deveres de diligência e cautela, sem prejuízo da própria resolução integral do contrato e de indenização por perdas e danos, quando comprovado o prejuízo.
Diante do exposto, conclui-se que o uso de ferramentas de inteligência artificial por prestadores de serviços sensíveis, como advogados, demanda cautela redobrada, uma vez que, embora essas tecnologias possam otimizar processos e ampliar a eficiência, seu emprego não afasta e tampouco mitiga os deveres profissionais de diligência, de verificação e de controle de qualidade. O profissional permanece integralmente responsável pelos resultados que apresenta, devendo assegurar que informações incorretas, incompletas ou fabricadas pela IA não comprometam a integridade técnica do serviço e não gerem prejuízos ao cliente ou mesmo à administração pública, sob pena de sua responsabilização.
Nesse cenário, seja pela negligência na validação das informações geradas, seja pela violação de deveres contratuais ou éticos, os profissionais do direito não devem, sob hipótese alguma, tratar essas tecnologias altamente cativantes de maneira substitutiva ao seu trabalho intelectual. É determinante compreender o uso dessas ferramentas em seu caráter meramente auxiliar, o que exige supervisão contínua, juízo crítico apurado e a adoção das práticas de cautela esperadas de um profissional qualificado.
[1]https://www.theguardian.com/australia-news/2025/oct/06/deloitte-to-pay-money-back-to-albanese-government-after-using-ai-in-440000-report
As ferramentas de inteligência artificial (IA) já estão inseridas na realidade de diversas formas de prestação de serviços, trazendo à tona diversas questões éticas relevantes no desempenho das funções e, para os operadores do direito, debates técnicos envolvendo a responsabilidade decorrente do uso dessas ferramentas como um alicerce de trabalho.
Sob a ótica contratual, mormente à luz dos deveres anexos decorrentes da boa-fé objetiva, da ética profissional e do dever de diligência, o cerne da controvérsia envolvendo o uso das IAs, nesse contexto, é o risco advindo da utilização indiscriminada dessas ferramentas, especialmente quando tal uso compromete a qualidade dos resultados.
Isso porque a responsabilidade pela entrega, via de regra, recai sobre aquele que optou por empregar a ferramenta tecnológica ao seu labor, não sobre aquele que a desenvolveu e a colocou no mercado. Com o intuito de blindar sua participação efetiva na entrega dos resultados, as próprias empresas desenvolvedoras dessas tecnologias estabelecem em seus termos de uso cláusulas expressas de isenção de responsabilidade (disclaimers) quanto à precisão, confiabilidade e veracidade das informações geradas, transferindo integralmente o ônus da verificação para o usuário e reforçando o entendimento de que a inteligência artificial atua como mero subsídio de pesquisa, e não como fonte inquestionável de dados ou substituta do juízo crítico humano.
Nesse sentido, em notícia publicada pelo portal The Guardian[1], relatou-se que a empresa de consultoria Deloitte, contratada pelo governo australiano para a elaboração de um relatório que foi entregue em outubro de 2025, concordou em devolver parte do valor do contrato, firmado em AUD$ 440.000,00 (quatrocentos e quarenta mil dólares australianos), após admitir ter utilizado uma ferramenta de inteligência artificial para produzi-lo.
Ou seja, restou configurado o cumprimento defeituoso do contrato em virtude da utilização indiscriminada de ferramentas artificiais, o que levou a empresa contratada a concordar com o abatimento proporcional do preço, devolvendo parte dos honorários pelo resultado indesejado, prejudicado diretamente pelo uso da IA e na falha dos deveres de diligência.
No caso concreto, o relatório tinha como objetivo revisar o chamado “targeted compliance framework” (TCF), um sistema automatizado de penalidades para beneficiários de auxílio-social que não cumprem certas obrigações estabelecidas, como procurar ativamente por empregos e comparecer a compromissos estipulados pelo próprio governo, o que revela a sensibilidade do objeto do contrato.
Contudo, o relatório apresentado tinha diversas falhas e as chamadas “alucinações”. Segundo observações do Dr. Christopher Rudge, a quem o relatório foi inicialmente submetido para análise, o material apresentava falhas substanciais, como referências acadêmicas inexistentes, citações jurídicas fabricadas e até a invocação de um julgamento da Corte Federal da Austrália que nunca ocorreu. Apontou, ainda, que o texto não se baseava em nenhuma fonte de evidência específica – em tradução livre –, revelando significativa deficiência metodológica empregada pela empresa contratada no tratamento dos dados, especialmente para a finalidade para a qual o estudo se prestava.
Dessa forma, o caso evidencia as preocupações relacionadas à dependência excessiva de IA em tarefas altamente especializadas, sobretudo no que diz respeito à transparência, ao controle de qualidade e à responsabilidade profissional.
É fato que a responsabilidade pelo uso de uma ferramenta recai sobre aquele que a utiliza, em especial quando se trata de obrigação cujo cumprimento exige diligência técnica adequada. Afinal, a inteligência artificial, por si só, é apenas um instrumento, o qual, caso não seja submetido à supervisão humana rigorosa, pode comprometer de forma significativa a qualidade e a utilidade de suas produções.
Assim, sob a ótica da teoria do inadimplemento e dos deveres contratuais, o uso desmedido das ferramentas de IA pode configurar violação ao dever de diligência, ensejando não apenas o reconhecimento do cumprimento defeituoso de uma obrigação, como no exemplo citado, mas também eventual responsabilização civil do profissional que se valha da tecnologia sem observar os deveres de diligência e cautela, sem prejuízo da própria resolução integral do contrato e de indenização por perdas e danos, quando comprovado o prejuízo.
Diante do exposto, conclui-se que o uso de ferramentas de inteligência artificial por prestadores de serviços sensíveis, como advogados, demanda cautela redobrada, uma vez que, embora essas tecnologias possam otimizar processos e ampliar a eficiência, seu emprego não afasta e tampouco mitiga os deveres profissionais de diligência, de verificação e de controle de qualidade. O profissional permanece integralmente responsável pelos resultados que apresenta, devendo assegurar que informações incorretas, incompletas ou fabricadas pela IA não comprometam a integridade técnica do serviço e não gerem prejuízos ao cliente ou mesmo à administração pública, sob pena de sua responsabilização.
Nesse cenário, seja pela negligência na validação das informações geradas, seja pela violação de deveres contratuais ou éticos, os profissionais do direito não devem, sob hipótese alguma, tratar essas tecnologias altamente cativantes de maneira substitutiva ao seu trabalho intelectual. É determinante compreender o uso dessas ferramentas em seu caráter meramente auxiliar, o que exige supervisão contínua, juízo crítico apurado e a adoção das práticas de cautela esperadas de um profissional qualificado.
[1]https://www.theguardian.com/australia-news/2025/oct/06/deloitte-to-pay-money-back-to-albanese-government-after-using-ai-in-440000-report