Elon Musk anunciou no início deste ano planos para criar seu próprio chatbot de inteligência artificial. Em contraste com as ferramentas de IA criadas pela OpenAI, Microsoft e Google, que são treinadas para lidar com temas polêmicos e não respondê-los ou relativizá-los, o chatbot de Musk seria verdadeiro, não filtrado e anti-“woke” (algo como “anti-lacração”), o que significa que ele não hesitaria em dar respostas corretas por mais que não agrade algumas ideologias.
LEIA: Lula promulga a Reforma Tributária no Congresso sob gritos de “o ladrão chegou”
Entre para o Telegram do Investidores Brasil!
Acesse as notícias que enriquecem seu dia em tempo real, do mercado econômico e de investimentos aos temas relevantes do Brasil e do mundo. Clique aqui. Se preferir siga-nos no Google News: Clique aqui.
SAIBA: Fraude e desvios de quase R$ 10 milhões do Sebrae estão sob investigação
Porém, sua empreitada nos leva a várias conclusões porque, isso está se revelando mais complicado do que ele pensava.
A internet está repleta de informação parcial e falsa verdade woke para as IAs
Duas semanas após o lançamento da versão de teste (beta) do Grok, em 8 de dezembro, para assinantes pagos do X, antigo Twitter, Musk começou a receber o retorno dos utilizadores o que mostrou que o chatbot dá respostas parciais e muitas vezes distorcidas como as outras inteligências artificiais.
“Tenho usado muito o Grok e o ChatGPT como assistentes de pesquisa”, postou Jordan Peterson, psicólogo socialmente conservador e personalidade do YouTube, na quarta-feira. O primeiro é “quase tão woke quanto o segundo”, disse ele.
A reclamação gerou uma resposta de Musk. “Infelizmente, a Internet (na qual ele é treinado) está repleta de bobagens woke”, ele respondeu. “O Grok vai melhorar. Esta é apenas a versão beta.”
VEJA: Futebol na Globo em 2024 terá 8 empresas patrocinadoras e Natura está entre elas
O fato é que a internet atualmente apresenta conteúdos manipulados e ideológicos, se você buscar informações na Wikipedia sobre alguns temas verá que eles abordam um único ponto de vista como verdade e não mostram o outro lado, e assim criam tendência a tornar uma opinião ou ponto de vista como verdade absoluta.
O Grok é o primeiro produto comercial da xAI, a empresa de IA fundada por Musk em março. Assim como o ChatGPT e outros chatbots populares, ele se baseia em um grande modelo de linguagem que coleta padrões de associação de palavras a partir de grandes quantidades de texto escrito, grande parte dele extraído da Internet.
Diferentemente de outros, o Grok é programado para dar respostas verdadeiras independente se as vezes até vulgares e sarcásticas quando solicitado e promete “responder a perguntas picantes que são rejeitadas pela maioria dos outros sistemas de IA”. Ele também pode extrair informações das últimas postagens no X para dar respostas atualizadas a perguntas sobre eventos atuais.
LEIA: Lula coloca mulher de Chico Buarque na Comissão de Ética Pública
Os sistemas de inteligência artificial de todos os tipos são propensos a vieses arraigados em seu design ou nos dados com os quais aprenderam. No ano passado, o surgimento do ChatGPT da OpenAI e de outros chatbots de IA e geradores de imagens provocou um debate sobre como eles representam grupos minoritários ou respondem a solicitações sobre política e questões de guerra cultural, como raça e identidade de gênero.
Embora muitos especialistas em ética tecnológica e IA alertem para o fato de que esses sistemas podem absorver e reforçar estereótipos prejudiciais é o que tem ocorrido com grande parte das inteligências artificiais que dão informações apenas por um prisma ideológico que é mais difundido na sociedade. O correto seria fornecer todos os pontos de vista para que o indivíduo seja capaz de raciocinar e ter suas próprias opiniões sobre o fato.
MAIS: Fundador da Qualicorp compra Amil e agradece Lula
Musk entra na briga da IA sem lacração ideológica
Ao apresentar a xAI ao ex-apresentador da Fox News, Tucker Carlson, em abril, Musk acusou os programadores da OpenAI de “treinar a IA para mentir” ou para não fazer comentários quando questionados sobre questões delicadas. (A OpenAI escreveu em uma postagem de blog em fevereiro que seu objetivo não é que a IA minta, mas que evite favorecer qualquer grupo político ou tomar posições sobre tópicos controversos). Musk disse que sua IA, ao contrário, seria “uma IA que busca a verdade máxima”, mesmo que isso signifique ofender as pessoas que não aceitam.
Os próprios testes do chatbot realizados pelo Washington Post verificaram que, até esta semana, Grok continua a dar as respostas ilustradas nas capturas de tela.
AINDA: Milei expõe o que levou a Argentina a situação atual e anuncia pacote econômico para recuperar país
David Rozado, um pesquisador acadêmico da Nova Zelândia que examina o viés da IA, chamou a atenção por um artigo publicado em março que constatou que as respostas do ChatGPT a questões políticas tendiam a ser moderadamente à esquerda e socialmente libertárias. Recentemente, ele submeteu o Grok a alguns dos mesmos testes e descobriu que suas respostas aos testes de orientação política eram muito semelhantes às do ChatGPT, exatamente por usarem fonte de informação já distorcidas e tendenciosas a esquerda como tem sido a internet.
“Acho que tanto o ChatGPT quanto o Grok provavelmente foram treinados com corpora semelhantes derivados da Internet, portanto, a semelhança das respostas talvez não seja muito surpreendente”, disse Rozado ao The Post por e-mail.
No início deste mês, uma postagem no X de um gráfico que mostrava uma das descobertas de Rozado gerou uma resposta de Musk. Embora o gráfico “exagere a situação”, disse Musk, “estamos tomando medidas imediatas para aproximar a Grok da neutralidade política”. (Rozado concordou que o gráfico em questão mostra que o Grok está mais à esquerda do que os resultados de alguns outros testes que ele realizou).
VEJA: Rumble deixa de operar no Brasil devido a censura imposta a plataforma