Seis riscos legais e de compliance a endereçar no ChatGPT

A Gartner identificou seis riscos que os líderes devem ter em conta para uma utilização empresarial responsável de ferramentas de IA generativas

Seis riscos legais e de compliance a endereçar no ChatGPT

Segundo a Gartner, os líderes legais e de compliance devem abordar a exposição da sua organização a seis riscos do ChatGPT. Da mesma forma, devem endereçar quais proteções estabelecer para garantir uma utilização empresarial responsável de ferramentas de IA generativas

Os resultados gerados pelo ChatGPT e outras ferramentas de Large Language Model (LLM) é propensa a vários riscos”, disse Ron Friedmann, senior director analyst da prática de Legal & Compliance da Gartner. “Os líderes legais e de compliance devem avaliar se essas questões apresentam um risco material para a empresa e quais controlos são necessários, tanto dentro da empresa quanto nos serviços de terceiros e nonos. Não o fazer pode expor as empresas a consequências legais, reputacionais e financeiras”. 

Respostas fabricadas e imprecisas. Talvez o problema mais comum com o ChatGPT e outras ferramentas LLM seja uma tendência a fornecer informações incorretas – embora superficialmente plausíveis. “O ChatGPT também é propenso a alucinações, incluindo respostas fabricadas que estão erradas e citações legais ou científicas inexistentes”, disse o analista. “Os líderes legais e de conformidade devem emitir orientações que exijam que os funcionários analisem qualquer saída gerada pelo ChatGPT quanto à precisão, adequação e utilidade real antes de serem aceitos”.

  • Privacidade e confidencialidade dos dados. Os líderes legais e de conformidade devem estar cientes de que qualquer informação inserida no ChatGPT, se o histórico do bate-papo não estiver desativado, pode se tornar parte de seu conjunto de dados de treinamento.

Informações sensíveis, proprietárias ou confidenciais utilizadas em prompts podem ser incorporadas em respostas para utilizadores fora da empresa. A legislação e a conformidade precisam estabelecer uma estrutura de compliance para a utilização do ChatGPT e proibir claramente a inserção de dados organizacionais ou pessoais confidenciais em ferramentas públicas de LLM”, esclareceu a analista.

  • Modelo e resultado tendencioso. Apesar dos esforços da OpenAI para minimizar o preconceito e a discriminação no ChatGPT, já surgiram casos conhecidos desses problemas e provavelmente vão persistir apesar dos esforços ativos e contínuos da OpenAI e de outros para minimizar esses riscos. 

A eliminação completa do preconceito é provavelmente impossível, mas a legislação e a compliance precisam ficar por dentro das leis que regem o viés da IA e garantir que suas orientações estejam em conformidade. Isso pode envolver trabalhar com especialistas no assunto para garantir que a produção seja confiável e com funções de auditoria e tecnologia para definir controles de qualidade de dados”, explicou o analista da Gartner. 

  • Riscos de propriedade intelectual e direitos de autor. O ChatGPT, em particular, é treinado numa grande quantidade de dados da internet que provavelmente incluem material protegido por direitos autorais. Portanto, os seus resultados têm o potencial de violar direitos de autor ou proteções de IP.

O ChatGPT não oferece referências de fontes ou explicações sobre como o resultado é gerado. Os líderes legais e de compliance devem ficar atentos a mudanças na lei de direitos de autor que se apliquem ao ChatGPT e exigir que os utilizadores examinem os resultados que gerem para garantir que ela não infrinja os direitos autorais ou de propriedade intelectual”. 

  • Riscos de Fraude Cibernética. São conhecidas as utilizações maliciosas do ChatGPT para gerar informações falsas em escala. Além disso, as aplicações que utilizam modelos de LLM, incluindo o ChatGPT, também são suscetíveis a prompt injection, uma técnica de hacking na qual prompts adversários maliciosos são usados para enganar o modelo para executar tarefas para as quais não foi destinado, como escrever códigos de malware ou desenvolver sites de phishing que se assemelham a sites conhecidos.

Os líderes legais e de compliance devem coordenar com os proprietários de ciber-riscos para explorar se ou quando emitir alertas para os colaboradores de cibersegurança da empresa sobre essa questão. Eles também devem realizar uma auditoria das fontes de diligência devida para verificar a qualidade das informações”, conclui. 

  • Riscos de proteção do consumidor. As empresas que não divulgam a sua utilização do ChatGPT aos consumidores correm o risco de perder a confiança dos clientes e serem acusadas de práticas desleais sobre várias leis. “Os líderes legais e de compliance precisam garantir que o uso do ChatGPT de sua organização esteja em conformidade com todos os regulamentos e leis relevantes, e divulgações apropriadas tenham sido feitas aos clientes”, conclui o analista.
Tags

NOTÍCIAS RELACIONADAS

RECOMENDADO PELOS LEITORES

REVISTA DIGITAL

IT INSIGHT Nº 48 Março 2024

IT INSIGHT Nº 48 Março 2024

NEWSLETTER

Receba todas as novidades na sua caixa de correio!

O nosso website usa cookies para garantir uma melhor experiência de utilização.