Postado em 12 de Dezembro de 2024
Estive em um evento para parceiros de um grande provedor de nuvens e durante uma das apresentações, o palestrante lançou uma frase que pegou o pessoal de surpresa: "Precisamos prestar atenção à toxicidade da IA Generativa". E eu, do meu lugar, só observei as caras de "poker face" da plateia, aquele olhar perdido de quem está tentando desesperadamente entender o que foi dito, mas já entregou o jogo. Foi aí que me caiu a ficha, acho que tem muita gente que não faz ideia do que ele estava falando.
Esta situação me fez perceber que falamos diariamente de um monte de termos quando abordamos IA Generativa e esquecemos de contextualizar pois tem muita coisa rolando e portanto, resolvi usar isso como motivação pra escrever este artigo. Afinal, essa tal de toxicidade na IA é um assunto importante. Então, pega o café e vem comigo, porque vamos descomplicar!
O que é toxicidade em IA Generativa?
Imagine que você está na internet, navegando de boa, e de repente encontra comentários do tipo “Isso é ridículo!” ou “Quem fez isso, o Shrek?”. Pois é, agora imagine que esses comentários vieram de uma inteligência artificial. Toxicidade em IA Generativa é quando uma IA gera conteúdo ofensivo, preconceituoso ou simplesmente errado e inapropriado — aquele momento em que o robô passa dos limites e, bem, se torna um "tiozão do pavê" da internet.
Esses modelos de IA aprendem com uma tonelada de dados da internet (e, vamos ser honestos, a internet não é exatamente um lugar puro e inocente). Se a IA "estuda" exemplos ruins, ela começa a aprender a falar coisas igualmente ruins. E sim, já aconteceu e vai acontecer de novo se não ficarmos de olho.
Exemplo prático: O Chatbot mal-humorado
Vamos dar um exemplo pra você rir (ou não). Imagine que você está interagindo com um chatbot para tirar uma dúvida simples. Você pergunta: "Oi, qual o prazo de entrega?", e o chatbot, com toda sua gentileza de robô, responde: "Descubra você mesmo!". É engraçado? Talvez. Mas se isso acontecer na vida real, é no mínimo frustrante, né?
Um caso clássico foi o da IA Tay, lançada pela Microsoft no Twitter. A Tay começou bem, interagindo com os usuários, até que... 24 horas depois, ela estava postando comentários ofensivos e preconceituosos! O que aconteceu? A Tay aprendeu com os piores exemplos de conversas na internet e acabou sendo desativada rapidinho, antes de piorar ainda mais. Moral da história? Até robô precisa de supervisão!
Como evitamos que isso aconteça?
Felizmente, existem soluções para evitar que as IAs generativas saiam por aí distribuindo grosserias gratuitas. Aqui estão algumas ferramentas que os engenheiros de IA usam pra manter o bom senso (e a paz mundial):
Aplicações práticas: Onde a IA generativa está presente?
Pra você não pensar que isso tudo é teoria, aqui vão algumas aplicações práticas de onde essa galera da IA está trabalhando:
Desafios: Nem sempre é simples
Mesmo com tudo isso, a verdade é que a linguagem humana é complexa e cheia de pegadinhas. Algo que é considerado ofensivo em um lugar pode ser completamente inofensivo em outro. Além disso, a toxicidade pode ser sutil, como aqueles comentários passivo-agressivos que a IA ainda tem dificuldade de identificar. Vai dizer que nunca recebeu um "Ah, tá bom" que doeu?
Conclusão: Até os robôs precisam de boas maneiras
A IA generativa é uma tecnologia fascinante, mas, assim como nós, até os robôs precisam de um curso de boas maneiras de vez em quando. O lado bom é que, com os filtros e ajustes certos, podemos garantir que esses robôs virtuais não saiam por aí causando confusão e caos.
Na próxima vez que você interagir com um chatbot ou ler um texto gerado por IA, lembre-se: por trás da mágica, tem uma equipe de engenheiros garantindo que o robô se comporte bem e não te mande "descobrir você mesmo!".
Esta situação me fez perceber que falamos diariamente de um monte de termos quando abordamos IA Generativa e esquecemos de contextualizar pois tem muita coisa rolando e portanto, resolvi usar isso como motivação pra escrever este artigo. Afinal, essa tal de toxicidade na IA é um assunto importante. Então, pega o café e vem comigo, porque vamos descomplicar!
O que é toxicidade em IA Generativa?
Imagine que você está na internet, navegando de boa, e de repente encontra comentários do tipo “Isso é ridículo!” ou “Quem fez isso, o Shrek?”. Pois é, agora imagine que esses comentários vieram de uma inteligência artificial. Toxicidade em IA Generativa é quando uma IA gera conteúdo ofensivo, preconceituoso ou simplesmente errado e inapropriado — aquele momento em que o robô passa dos limites e, bem, se torna um "tiozão do pavê" da internet.
Esses modelos de IA aprendem com uma tonelada de dados da internet (e, vamos ser honestos, a internet não é exatamente um lugar puro e inocente). Se a IA "estuda" exemplos ruins, ela começa a aprender a falar coisas igualmente ruins. E sim, já aconteceu e vai acontecer de novo se não ficarmos de olho.
Exemplo prático: O Chatbot mal-humorado
Vamos dar um exemplo pra você rir (ou não). Imagine que você está interagindo com um chatbot para tirar uma dúvida simples. Você pergunta: "Oi, qual o prazo de entrega?", e o chatbot, com toda sua gentileza de robô, responde: "Descubra você mesmo!". É engraçado? Talvez. Mas se isso acontecer na vida real, é no mínimo frustrante, né?
Um caso clássico foi o da IA Tay, lançada pela Microsoft no Twitter. A Tay começou bem, interagindo com os usuários, até que... 24 horas depois, ela estava postando comentários ofensivos e preconceituosos! O que aconteceu? A Tay aprendeu com os piores exemplos de conversas na internet e acabou sendo desativada rapidinho, antes de piorar ainda mais. Moral da história? Até robô precisa de supervisão!
Como evitamos que isso aconteça?
Felizmente, existem soluções para evitar que as IAs generativas saiam por aí distribuindo grosserias gratuitas. Aqui estão algumas ferramentas que os engenheiros de IA usam pra manter o bom senso (e a paz mundial):
- Filtragem de conteúdo: Antes de deixar a IA solta no mundo, suas respostas passam por um filtro que procura por qualquer coisa tóxica. Se o filtro encontra algo esquisito, ele corrige ou barra antes que chegue a você. É tipo o antivírus da grosseria.
- Treinamento com dados “do bem”: As IAs são treinadas com dados “familiares”, sem palavrões, insultos ou ataques passivo-agressivos. Quanto mais educada for a IA, menor a chance de ela dar uma de "bad boy" da internet.
- Ajustes finos: Depois que a IA já foi treinada, os engenheiros fazem ajustes contínuos para refinar seu comportamento e garantir que ela não caia nas pegadinhas de tópicos tóxicos.
Aplicações práticas: Onde a IA generativa está presente?
Pra você não pensar que isso tudo é teoria, aqui vão algumas aplicações práticas de onde essa galera da IA está trabalhando:
- Redes sociais: Sabe quando você posta algo e recebe aquela mensagem "Este comentário foi removido por ser ofensivo"? Parabéns! Você cruzou o caminho de uma IA que está lá para filtrar a toxicidade e garantir que a internet não vire uma selva.
- Chatbots de atendimento: Empresas que usam IA para atendimento ao cliente têm filtros especiais para garantir que, se o robô não tiver as respostas, pelo menos ele não seja mal-educado. Já pensou pedir ajuda e receber uma resposta atravessada? Ninguém merece!
- Ferramentas de criação de conteúdo: IAs que geram textos, como resumos ou artigos, também têm filtros para garantir que nada ofensivo seja produzido. Afinal, ninguém quer ler um artigo começando com "Prezado incompetente...".
Desafios: Nem sempre é simples
Mesmo com tudo isso, a verdade é que a linguagem humana é complexa e cheia de pegadinhas. Algo que é considerado ofensivo em um lugar pode ser completamente inofensivo em outro. Além disso, a toxicidade pode ser sutil, como aqueles comentários passivo-agressivos que a IA ainda tem dificuldade de identificar. Vai dizer que nunca recebeu um "Ah, tá bom" que doeu?
Conclusão: Até os robôs precisam de boas maneiras
A IA generativa é uma tecnologia fascinante, mas, assim como nós, até os robôs precisam de um curso de boas maneiras de vez em quando. O lado bom é que, com os filtros e ajustes certos, podemos garantir que esses robôs virtuais não saiam por aí causando confusão e caos.
Na próxima vez que você interagir com um chatbot ou ler um texto gerado por IA, lembre-se: por trás da mágica, tem uma equipe de engenheiros garantindo que o robô se comporte bem e não te mande "descobrir você mesmo!".
Comentários
Deixe seu comentário ou dúvida abaixo, lembrando que os comentários são de responsabilidade do autor e não expressam a opinião desta editoria. A Logicalis, editora do blog Digitizeme, reserva-se o direito de excluir mensagens que sejam consideradas ofensivas ou desrespeitem a legislação civil brasileira.