O mito da perfeição e os riscos da Inteligência Artificial generativa

A influenciadora Catharina Doria trocou uma carreira sólida em empresas do Vale do Silício para se tornar uma voz crítica sobre a inteligência artificial (IA) nas redes sociais, focando no ensino de ética.

A especialista defende que ferramentas como o ChatGPT oferecem riscos reais, desde a propagação de preconceitos até a criação de uma dependência tecnológica perigosa para o aprendizado de jovens e crianças.

Com a proximidade do evento São Paulo Innovation Week, as discussões sobre o impacto social e ético da tecnologia ganham força entre o público e grandes empresas, conforme divulgado pelo Estadão.

A ilusão de inteligência do ChatGPT

Catharina ressalta que as ferramentas de inteligência artificial generativa não possuem inteligência real, mas sim uma alta capacidade probabilística de prever a próxima palavra em uma frase complexa.

“O ChatGPT não é Deus, não está correto o tempo todo. Ele só é muito bom em fingir que está correto. Temos que tomar muito cuidado com qual ajuda pedimos”, alerta a especialista sobre o uso de ferramentas.

Para ela, tratar essas máquinas como fontes absolutas de verdade é perigoso, especialmente quando usuários buscam conselhos médicos, jurídicos ou psicológicos em plataformas que apenas calculam probabilidades matemáticas.

O impacto da IA na educação e no trabalho

O uso da inteligência artificial em escolas preocupa Doria. Ela argumenta que delegar tarefas básicas a algoritmos pode impedir que a nova geração desenvolva a capacidade fundamental de ler, escrever e pensar por si própria.

“Estamos criando uma nova geração que sempre vai depender de uma tecnologia de inteligência artificial generativa para viver. Quem ganha com isso? São as empresas vendendo essa tecnologia”, afirma a influenciadora.

No mercado de trabalho, o alerta é contra a narrativa de substituição total de humanos. Catharina defende que o pensamento crítico e o lado humano são habilidades que a máquina jamais conseguirá replicar com perfeição.

Vieses algorítmicos e o perigo das redes

Outro ponto crítico abordado é o preconceito algorítmico. Treinadas com dados do passado, as ferramentas de inteligência artificial podem replicar e até amplificar racismos e sexismos em processos de seleção ou crédito.

Doria também alerta para as famosas trends de fotos que viram animações, chamando o fenômeno de “fun for data”. Ao participar, o usuário entrega dados biométricos valiosos que serão usados para treinar novos algoritmos corporativos.

Em anos eleitorais, a atenção deve ser redobrada. Com vídeos e áudios falsos cada vez mais realistas, a recomendação é desconfiar de conteúdos virais e sempre buscar confirmação em veículos de jornalismo profissional e confiável.

A fonte original é o Estadão e a matéria completa pode ser lida em: Estadão | As Últimas Notícias do Brasil e do Mundo

You May Also Like
BRB pede aporte de até R$ 8,86 bilhões após perdas com o Banco Master

BRB pede aporte de até R$ 8,86 bilhões após perdas com o Banco Master

Deputado aliado de Ibaneis anuncia voto contra aporte no BRB 1:56 Câmara…
Do Estreito de Ormuz à sua nota fiscal: varejo está no meio dessa conta e não tem para onde empurrar

Estreito de Ormuz: Como o bloqueio imposto pelo Irã pode elevar o preço dos alimentos nas gôndolas brasileiras

Entenda a ligação entre o controle militar do Estreito de Ormuz, o aumento do preço do petróleo e o impacto direto no custo dos produtos do varejo no Brasil
Trabalho remoto e rodovias mais lentas: veja sugestões da AIE para reduzir o consumo de petróleo

Trabalho remoto e rodovias mais lentas: veja sugestões da AIE para reduzir o consumo de petróleo

Irã: Como o país se tornou um regime teocrático? 10:25 Da Revolução…
The Economist: Como ficar rico na China moderna

The Economist: Como ficar rico na China moderna

‘Será que Xi Jinping acha os brasileiros preguiçosos?’; Pedro Fernando Nery comenta…