Os 4 maiores riscos da IA generativa e saiba como mitigá-los

Empresas ainda hesitam em adotar a tecnologia, citando ameaças à privacidade e à segurança

De acordo com uma pesquisa da Gartner realizada no primeiro trimestre com 2,5 mil executivos, cerca de 70% dos entrevistados relataram que suas organizações estão considerando integrar a IA generativa em seus processos. Além disso, de acordo com o recém-publicado Stanford AI Index Report, os índices globais de adoção de IA estão mais altos em todas as regiões pesquisadas.

No entanto, muitas organizações ainda estão compreensivelmente hesitantes em adotar aplicações de IA generativa, citando preocupações sobre ameaças à privacidade e à segurança, violação de direitos autorais, bem como possíveis parcialidades e discriminações em seus resultados, entre outros perigos.

Atualmente, os governos estão se esforçando para criar estruturas e leis adequadas para gerenciar essa tecnologia e suas desvantagens. Isso significa que, de modo geral, as empresas precisam lidar com essas questões por conta própria. É evidente que os diferentes tipos de riscos colocados pela IA generativa não são iguais, por isso precisamos compreendê-los e gerenciá-los adequadamente.

Plano para os riscos da IA generativa

Classificamos os riscos da IA generativa com base em dois fatores: intenção e uso. Separamos a aplicação incorreta acidental da IA generativa de práticas ilícitas intencionais (intenção). Da mesma forma, a utilização de ferramentas de IA generativa para criar conteúdo é diferenciada do consumo de conteúdo que outras partes possam ter criado com IA generativa (uso). Acreditamos que cada um dos quatro tipos de riscos destacados em nossa estrutura apresentará desafios distintos:

Uso indevido

O uso indevido é a exploração antiética ou ilegal das capacidades da IA generativa para fins prejudiciais, como fraudes e campanhas de desinformação. À medida que as capacidades da IA generativa melhoraram, atores mal-intencionados passaram a utilizá-la em vários tipos de ataques cibernéticos. Por exemplo, o baixo custo da criação de conteúdo com IA generativa levou a um aumento das deepfakes, que estão sendo utilizadas para fazer engenharia social, ataques automatizados de desinformação, golpes, fraudes financeiras, roubo de identidade e até manipulação de resultados eleitorais.

Aplicação incorreta

Um dos problemas bem conhecidos da IA generativa é que ela prioriza a plausibilidade, não a precisão, e pode criar resultados imprecisos – um problema conhecido como “alucinação”. Isso se torna um problema quando os usuários dependem indevidamente dela ou aplicam incorretamente as ferramentas da IA generativa. Os casos de aplicação incorreta podem aumentar à medida que a IA generativa se torna multimodal e mais hábil na criação de conteúdos convincentes.

Deturpação

Esta categoria abrange situações em que os resultados da IA generativa criados por terceiros são utilizados e divulgados de forma intencional, apesar das dúvidas sobre sua credibilidade ou autenticidade.

Uso acidental

A classificação final inclui conteúdos que podem ser consumidos e compartilhados acidentalmente por usuários que não estão cientes de sua inautenticidade.

Cada um dos riscos mencionados acima apresenta desafios únicos, mas há ações que líderes de empresas públicas e privadas podem adotar para mitigar esses riscos.

Mitigação dos riscos de criação de conteúdo: uso indevido e aplicação incorreta

Para mitigar o risco de uso indevido e de aplicação incorreta de conteúdo gerado por IA, as organizações precisam desenvolver capacidades para detectar, identificar e prevenir a propagação de tais conteúdos potencialmente enganosos. As seguintes ações são bons pontos de partida:

1. Garantir o alinhamento entre os valores organizacionais e os princípios da IA

Uma organização comprometida com a implementação de IA deve começar estabelecendo princípios e diretrizes claros para o uso da IA generativa, garantindo que seu uso não cause danos pessoais ou sociais. Depois, ela deve articular explicitamente os valores da sua organização e disponibilizá-los prontamente para todos os colaboradores.

2. Obrigar todas as entidades que criam conteúdo de IA generativa a colocar uma marca d’água em sua produção de IA generativa


Incluir uma marca d’água na produção de IA foi proposto como mecanismo para garantir transparência, indicando a fonte da produção, a quem ela pertence e sua autenticidade (relativa). Se determinados conteúdos forem gerados por um sistema de IA, esse fato deverá ser acessível ao público e comunicado de forma clara; colocar marca d’água na produção garante que os usuários possam distinguir entre IA e saídas criadas por humanos.

3. Criar um ambiente controlado de IA generativa dentro da organização.

Várias organizações com as quais colaboramos nos setores de bens de consumo embalados (CPG), automotivo, industrial, financeiro e de mídia estão se esforçando para desenvolver suas próprias ferramentas aprimoradas de IA generativa. Por exemplo, na IMD, também estamos ajustando uma Linguagem de Grande Escala (LLM) às nossas necessidades e adicionamos uma camada extra de ferramentas de gestão de privacidade à nossa arquitetura para garantir que nenhuma informação pessoalmente identificável chegue ao nosso GPT. Embora não sejam imunes a alucinações ou à utilização indevida, tais LLMs oferecem um certo grau de proteção e controle sobre o conteúdo que é criado e consumido.

(Harvard Business Review)