Quem é responsável pela IA? #70 🫵🏻
como criar um modelo ético para uso de Inteligência Artificial [SXSW]
ERRATA: alguns assinantes receberam esta edição da newsletter na semana passada por engano. Se você recebeu ela duas vezes, nos desculpe.
Seguimos na nossa série de conteúdos especiais do SXSW. Agora, o assunto vai ficar um pouquinho mais pesado, discutindo as questões de ética envolvendo a IA. Afinal, quem é responsável por aquilo que a IA faz e cria?
Confesso que foi difícil escrever esta newsletter! Existem muitas discussões sobre isso - e todas elas me parecem relevantes. Mas, brigas judiciais e discussões filosóficas foram mais comuns do que consensos e decisões. Por isso, me debrucei sobre os principais temas relacionados a responsabilidade para pensarmos juntos sobre quais parecem ser os melhores caminhos.
Vamos lá?
O problema dos dados
A qualidade das repostas de uma Inteligência Artificial é tão boa quanto os dados que usamos para treiná-la. E, além da qualidade, a quantidade de dados também é fundamental. Os principais GPTs de hoje foram treinados com pelo menos três trilhões de palavras - o que equivale ao dobro das palavras disponíveis na Biblioteca de Oxford, que coleta manuscritos desde 1602.
Por anos, o conteúdo disponível online era o suficiente para este treinamento, mas com a proliferação de GPTs e velocidade de investimentos na área, as empresas de tecnologia estão usando os dados mais rápido do que eles são produzidos - e continuam precisando de mais!
Mas, todo este conteúdo online foi produzido por alguém - e o que acontece se este alguém não consentiu que seus dados sejam usados com este fim? E, ainda, por usarem dados disponíveis online, a maioria das IAs reproduzem e reforçam comportamentos preconceituosos e discriminatórios ao invés de mitigá-los. Por isso, a qualidade e a origem dos dados usados no treinamento dos robôs inteligentes é a pedra fundamental em qualquer discussão sobre ética na era da IA.
O problema dos direitos autorais
A principal pedra no sapato dos criadores das IAs de hoje são os direitos autorais. Mas, não porque os meus ou os seus dados estão sendo usados sem o nosso consentimento, mas sim os dados de muita gente importante que também quer uma fatia deste bolo lucrativo.
Por exemplo, no final de 2023, o New York Times processou a Open AI (dona do ChatGPT) por usar o seu conteúdo jornalístico sem a devida autorização - ou remuneração. E, mais recentemente, surgiram rumores de que a mesma empresa tenha usado vídeos do YouTube sem autorização.
A classe artística também tem reivindicado seus direitos. Drake, The Weekend, Jay Z e Taylor Swift tiveram seu trabalho replicado pela IA com músicas que viralizarem sem que eles recebessem um só centavo.
Ainda, roteiristas e até atores fizeram uma longa greve contra o uso de IA em Hollywood, temendo serem substituídos por GPTs e deepfakes hiper realistas. A replicação digital do trabalho artístico tem sido tão preocupante que a cantora Madona incluiu em seu testamento uma cláusula que impede a recriação de sua imagem por meio de inteligência artificial após sua morte.
O problema das informações falsas
As informações falsas são uma ameaça de proporções gigantescas - e que já estão causando prejuízos reais. Em fevereiro desta ano, o diretor financeiro de uma multinacional transferiu 26 milhões de dólares para criminosos depois que eles criaram uma reunião falsa usando deepfake, na qual seu suposto “chefe” lhe instruiu a fazer a transferência. Se os criminosos conseguem enganar empresas gigantescas, com sofisticados recursos de segurança, o que resta para nós mortais?
Em um ano que oito dos dez países mais populosos do mundo realizarão eleições, o uso de deepfakes para influenciar eleições é uma grande preocupação. O MIT já tem oferece cursos de media literacy (“alfabetização midiática” em tradução livre) para ensinar como identificar informações falsas.
E além do conteúdo fake gerado por criminosos, precisamos nos preocupar com as alucinações - que é o eufemismo usado quando a IA responde a uma pergunta com coisas que simplesmente inventou. E, embora a gente tenda acreditar que tudo que vem de uma máquina seja certeiro, isso acontece muito. Sobre este ponto, Gary Marcus afirmou que “a I.A. está frequentemente errada e nunca em dúvida”, durante o painel AI and the Future of Truth. Os painelistas trouxeram uma visão bastante crítica sobre o tema, que vale a pena conferir no vídeo abaixo.
O problema das mulheres com IA
As mulheres são desproporcionalmente afetadas pela IA, sendo impactadas de múltiplas formas diferentes. Primeiro, pela qualidade de dados disponíveis atualmente para treinamento das IAs. Durante sua emocionante fala no SXSW, a Dr. Joy Buolamwini apresentou seu estudo mostrando que as IAs erram 34% mais vezes para reconhecer o rosto de mulheres negras em relação ao índice de acerto de homens brancos. Como resultado, ferramentas de IA médica podem não ser tão precisas para mulheres.
Em segundo lugar, porque a esmagadora maioria dos deepfakes online são vídeos falsos não consensuais de mulheres. Recentemente, Taylor Swift iniciou uma guerra para retirar da web milhares de deepfakes pornográficos feitos sem seu consentimento. O mercado de “Namoradas de IA”, que cobra em média 30 dólares ao mês de cada usuário, está se tornando um mercado bilionário.
Em terceiro lugar, um estudo da McKinsey afirma que o desemprego por IA afetará principalmente mulheres sem diploma universitário, que ocupam desproporcionalmente empregos de nível inicial.
A solução são os dados sintéticos?
Na palestra “Why the Future of AI Might Lie in Synthetic Data” durante o SXSW, Tobias Hann da Mostly AI explicou que o uso de dados sintéticos pode ser uma solução para este problema. Segundo ele, podemos usar dados gerados por IA para treinar novas IAs sem reproduzir os vieses éticos ou então para completar o volume de dados necessários para um treinamento eficaz sem ferir direitos autorais. Mas, faz um alerta: o uso de dados sintéticos para treinamento de IA pode causar uma deterioração, ou seja: quanto mais alimentamos a IA com este tipo de dados, pior se torna a capacidade dela de nos dar respostas adequadas.
A solução está nas empresas?
A regulação da IA pelos governos anda a passos muito mais lentos do que o necessário. A União Europeia, que é considerada a mais avançada do mundo em regulamentação, aprovou recentemente sua Lei da IA - que deve entrar em vigor em maio deste ano. Aqui no Brasil, o uso de IA foi proibido durante as eleições minoritárias e 46 projetos de lei tramitam sobre o assunto.
Por isso, muita gente aposta suas fichas na “regulamentação do mercado", com as organizações criando suas próprias regras de segurança e ética. Durante sua palestra no SXSW, Sandy Carter sugeriu um modelo com 10 tópicos que devem ser observados na criação de uma governança corporativa de IA (imagem abaixo).
No mundo das marcas, empresas tem ficado mais cautelosas com todos os riscos apresentados. Um grupo de anunciantes já proibiu suas agências de utilizar IA em suas campanhas e a Dove se comprometeu publicamente a não utilizar imagens sintéticas em mais um comercial viral. Ainda, algumas empresas suspenderam o atendimento por chatbot depois de casos de alucinações oferecerem informações imprecisas aos consumidores.
O fato é que as marcas precisam fazer muito mais do que investir em campanhas geradas com IA apenas para participar do hype. É preciso adotar uma postura responsável tanto para garantir a segurança quanto para apoiar emocionalmente seus colaboradores em um período de intensa transição. Como a sua empresa está lidando com isso?
Mais sobre a Cordão no SXSW
O que rolou no SXSW 2024 #67
Bem vindo ao mundo AI-First #68
Tão sós e tão conectados #69
90%
dos dados disponíveis online serão gerados por IA até 2026. Esta dado, supostamente creditado a Europol, é falso conforme apurado por Matt Klein. Peço desculpas por ter replicado esta informação em minha última palestra.
96%
de todos os deepfakes online são vídeos pornográficos não consensuais de mulheres, de acordo com Deeptrace Labs.
60%
de todos os dados usados no desenvolvimento da IA serão sintéticos e não reais até 2024, de acordo com o Gartner.
74%
dos consumidores globais espera respeito e proteção aos seus dados, privacidade e segurança, segundo dados da Qualtrics.