Com a aproximação de eleições cruciais em 2024 nas principais democracias, a OpenAI delineou a sua estratégia para proteger os seus poderosos e grandes modelos de linguagem e imagem de serem transformados em armas.
O laboratório de inteligência artificial (IA) por trás dos produtos de IA generativos extremamente populares ChatGPT e DALL-E tem mais de 180 milhões de usuários e continua a crescer rapidamente. As ferramentas disponíveis na GPT Store da OpenAI incluem software com potencial para ser usado de forma nefasta para influenciar campanhas eleitorais. Mídia sintética, como imagens, vídeos e áudio gerados por IA, pode minar a confiança do público e se tornar viral nas plataformas sociais.
Portanto, com grande poder vem uma grande responsabilidade e na segunda-feira (15 de janeiro) a empresa descreveu numa publicação no blog como iria lidar com a multiplicidade de eleições que acontecem este ano em todo o mundo.
Prevenindo o abuso dos sistemas da OpenAI
Um foco principal é fortalecer preventivamente os sistemas de IA contra a exploração por pessoas mal-intencionadas por meio de testes extensivos, coletando feedback do usuário durante o desenvolvimento e codificando proteções diretamente na base dos modelos. Especificamente para o DALL-E, o gerador de imagens, políticas rígidas recusam quaisquer solicitações de geração de imagens envolvendo pessoas reais – incluindo candidatos políticos.
“Trabalhamos para antecipar e prevenir abusos relevantes – como ‘deepfakes’ enganosos, operações de influência em escala ou chatbots que se fazem passar por candidatos”, escreveu OpenAI.
Regras rígidas de uso também proíbem aplicativos ChatGPT para propaganda, táticas de supressão de eleitores ou bots de representação política.
Instantâneo de como estamos nos preparando para as eleições mundiais de 2024:
• Trabalhar para prevenir abusos, incluindo deepfakes enganosos
• Fornecer transparência sobre conteúdo gerado por IA
• Melhorar o acesso a informações oficiais de votaçãohttps://t.co/qsysYy5l0L– OpenAI (@OpenAI) 15 de janeiro de 2024
Humanos trazidos para o redil
Aqui está algo que você não lê todos os dias: os humanos vão substituir a IA. Bem, especificamente, eles serão usados pela OpenAI como verificadores de fatos por meio de novos recursos de transparência que rastreiam uma criação de IA até suas origens. Marcas d’água digitais e impressões digitais verificarão as imagens DALL-E, enquanto links de notícias e citações aparecerão de forma mais visível nas respostas de pesquisa do ChatGPT. Isso amplia sua parceria anterior com Axel Springer, permitindo ao ChatGPT resumir conteúdo de notícias selecionado dos meios de comunicação do editor de mídia.
A principal empresa de IA do mundo espera que os eleitores se beneficiem diretamente da colaboração da OpenAI com agências eleitorais apartidárias, como a Associação Nacional de Secretários de Estado (NASS) dos EUA. Além disso, nos EUA, o chatbot que questiona quaisquer aspectos práticos do processo de votação do país irá revelar detalhes oficiais de registo e votação no CanIVote.org para eliminar a confusão de desinformação.
Poucos argumentariam contra qualquer uma dessas medidas. A realidade, porém, é que, enquanto estas ferramentas existirem, haverá sempre algumas tentativas por parte de maus actores de abusarem delas para fins eleitorais.
A OpenAI está pelo menos a posicionar-se para responder de forma dinâmica aos desafios que enfrenta durante os ciclos eleitorais. A colaboração entre as grandes empresas de tecnologia e com os governos pode ser um dos únicos caminhos sustentáveis para combater as falsificações e a propaganda da IA.