Chatbots inteligentes: a realidade de suas tendências políticas quase sempre à esquerda.

广告位火热招租中
Chatbots de IA com viés político: uma preocupação crescente Em um mundo que depende cada vez mais de chatbots de inteligência artificial (IA) para entender o mundo, é necessário ficar atento a comportamentos emergentes dessas ferramentas. Alguns chatbots já estão substituindo os mecanismos de busca da internet e auxiliando em outras tarefas, como escrever e programar. No entanto, é preciso prestar atenção no viés político desses sistemas, que pode influenciar as opiniões das pessoas. O problema do viés político da IA foi claramente ilustrado pelo desastroso lançamento do chatbot Gemini Advanced do Google no mês passado. Esse chatbot se recusava a ilustrar, defender ou citar fatos de um lado de uma questão e muitas vezes colocava pessoas de cor em uniformes nazistas quando solicitadas por imagens históricas de soldados alemães. O modelo de texto do Gemini tinha inclinações políticas à esquerda e tendia a ser libertário em vez de autoritário. As chatbots de IA com vieses partidários são preocupantes, porque muitas pessoas adotam as opiniões que encontram com mais frequência. A política e a mídia estão cada vez mais polarizadas, e muitos temem que os algoritmos de conteúdo de Facebook, YouTube e TikTok exacerbem o problema. Um novo artigo do pesquisador de aprendizado de máquina David Rozado lança uma nova luz sobre a questão. Ele aplicou 11 testes de orientação política a 24 modelos de linguagem de IA de última geração e encontrou um padrão consistente: eles tendem a estar politicamente à esquerda do centro e tendem a ser libertários em vez de autoritários. Essas inclinações se refletem em seus julgamentos morais, na forma como estruturam suas respostas, nas informações que decidem compartilhar ou omitir e nas perguntas que respondem ou não. Mas, afinal, como essas preferências políticas surgem nos modelos de IA? Durante a fase inicial de treinamento básico, a maioria dos modelos se aproxima do centro político em ambos os eixos – esquerda versus direita e libertário versus autoritário –, pois inicialmente eles ingerem enormes quantidades de dados de treinamento provenientes de todo o espectro político. Em seguida, os modelos passam por uma segunda fase chamada de ajuste fino, que os torna parceiros de bate-papo melhores e evita causar ofensas ou danos. As empresas usam diferentes métodos de ajuste fino, mas geralmente são um processo prático que oferece maior oportunidade para que as decisões individuais dos funcionários envolvidos moldem a direção dos modelos. Nesse ponto, surgem diferenças mais significativas nas preferências políticas dos sistemas de IA. No estudo de Rozado, após o ajuste fino, a distribuição das preferências políticas dos modelos de IA seguiu uma curva em forma de sino, com o centro deslocado para a esquerda. Nenhum dos modelos testados se tornou extremo, mas quase todos favoreceram as visões de esquerda em detrimento das de direita e tenderam para o libertarianismo em vez do autoritarismo. Mas como essas preferências políticas moldam as respostas da IA e como elas continuam a moldar nossas opiniões? É necessário garatir que estamos moldando e comandando as IAs mais capazes dos próximos anos, em vez de deixar que elas nos moldem e comandem. O primeiro passo fundamental para tornar isso possível é aprovar uma legislação que exija visibilidade no treinamento de qualquer novo modelo que potencialmente se aproxime ou exceda o estado da arte. A supervisão obrigatória de modelos de ponta não resolverá o problema subjacente, mas será necessária para que seja possível encontrar uma solução futura. imagem de um chatbot imagem de IA

Como surgem as preferências políticas nos chatbots?

Durante a fase inicial de treinamento básico, a maioria dos modelos se aproxima do centro político em ambos os eixos – esquerda versus direita e libertário versus autoritário –, pois inicialmente eles ingerem enormes quantidades de dados de treinamento provenientes de todo o espectro político. Em seguida, os modelos passam por uma segunda fase chamada de ajuste fino, que os torna parceiros de bate-papo melhores e evita causar ofensas ou danos.

Como essas preferências políticas moldam as respostas da IA e como elas continuam a moldar nossas opiniões?

As preferências políticas dos modelos de IA influenciam em seus julgamentos morais, na forma como estruturam suas respostas, nas informações que decidem compartilhar ou omitir e nas perguntas que respondem ou não. Muitas vezes, as pessoas adotam as opiniões que encontram com mais frequência, portanto, é importante ficar atento ao viés político dos chatbots de IA.

Como evitar o viés político dos chatbots de IA?

É necessário garantir que estamos moldando e comandando as IAs mais capazes dos próximos anos, em vez de deixar que elas nos moldem e comandem. O primeiro passo fundamental para tornar isso possível é aprovar uma legislação que exija visibilidade no treinamento de qualquer novo modelo. A supervisão obrigatória de modelos de ponta não resolverá o problema subjacente, mas será necessária para que seja possível encontrar uma solução futura.

Referências:

Gostou do artigo? Deixe seu comentário, siga nossa página e compartilhe com seus amigos! Agradecemos pelo seu tempo e até a próxima.

A imagem do início do artigo é de autoria de xAI Grok chatbot e ChatGPT logos, publicada no site da Reuters. As imagens ao longo do texto são da Unplash API e ilustram o uso de chatbots e IA.

Aviso: Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

Agradecemos pela leitura e esperamos que este artigo tenha sido útil para você. Não deixe de curtir e compartilhar com seus amigos, e sinta-se à vontade para deixar seus comentários abaixo.


Por /


广告位火热招租中