3 erros que a IA pode cometer no seu negócio, segundo Neil Patel
Apesar de todos os avanços que a tecnologia oferece para a vida dos lojistas, o uso excessivo de ferramentas, como o ChatGPT, por exemplo, pode causar consequências inesperadas
O uso de Inteligência Artificial (IA) para criar e selecionar conteúdo por meio do Chat GPT, ou outras ferramentas que simulam a linguagem humana, tem impressionado a web e feito o chatbot conquistar cada vez mais usuários.
Mas uma fala de Neil Patel, uma das principais referências em marketing digital no mundo, durante o Latam Retail Show 2023, indica que em meio a tamanha empolgação é preciso deixar claro que a IA não é perfeita e, assim como nós, pode errar.
Desinformação, conteúdos repetitivos e pouco humanizados, além de uma racionalidade excessiva são os alertas apontados pelo especialista. Veja a seguir:
1 - INFORMAÇÕES DESATUALIZADAS
Patel acredita que, de fato, entraremos em um novo patamar de comunicação, muito apoiado por tecnologias como a IA, mas não completamente guiado por elas. A ideia, segundo o especialista, é aprender como aproveitar ao máximo as possibilidades oferecidas pelas ferramentas, mas também saber como e quando duvidar delas.
Vender também significa informar o consumidor e esse conteúdo precisa ser exato. Nesse sentido, muitos julgam que a tecnologia de IA é precisa, mas não é. É importante considerar, por exemplo, o Chat GPT, que nesse momento só é capaz de fornecer informações atualizadas até 2021.
"O aprendizado da máquina trabalha constantemente para aprimorar a tecnologia, como mecanismos de pesquisa, mas isso ainda é limitado e perigoso para muitos negócios", diz.
Patel alerta que um dos diferenciais do Chat GPT é a sua alta capacidade de interagir com os usuários. Para quem tem pouco contato com o recurso, a percepção é de que a ferramenta tem capacidade de reproduzir, de forma muito fidedigna, a escrita e o estilo de linguagem humana.
E é exatamente nesse ponto que tudo pode dar errado. Essa convicção faz com que o robô pareça que está certo mesmo quando está errado. A maioria dos chatbots, quando se deparam com uma pergunta cuja resposta não conhecem, informam ao usuário desconhecer sobre o assunto.
Já o ChatGPT é capaz de formular respostas com lógica e aparente coerência, mesmo sem que aquilo seja verdade.
2 - CONTEÚDOS SIMILARES E REPETITIVOS
Para quem tem os primeiros contatos com a tecnologia de IA, o conteúdo gerado parecerá perfeito - variado, engajante e inédito.
Entretanto, o especialista aponta que, quando muito exposto às repetições, o conteúdo logo se torna seco e até batido. A impressão que se tem é estar diante de um mesmo conteúdo repetido, escrito de forma similar e genérica.
Ao examinar os detalhes, Patel fala sobre a questão de estilo, uma vez que as IAs "tendem a produzir textos com estilos diferentes dos humanos, como uma linguagem mais formal, bem como tendem a produzir conteúdo sem sentido ou sem relação lógica, nem contexto."
Além disso, as IAs geralmente "não têm a capacidade de citar fontes confiáveis e tendem a produzir textos com padrões repetitivos ou estruturas de linguagem semelhantes."
3 -CONTEÚDO ENVIESADO
Justamente pelo fato de o software ter sido treinado com diferentes conteúdos disponíveis na Internet, a ferramenta pode reproduzir textos elaborados em redes sociais, como postagens em redes sociais. Em meio a um movimento com tanto discurso de ódio, ofensas políticas e culturais é possível que alguns conteúdos reproduzam comentários indesejados, parciais, enviesados e até preconceituosos.
Patel destaca que a própria ferramenta já fez alertas sobre a capacidade do ChatGPT de produzir conteúdo tendencioso. E esse não é um problema exclusivo do chatbot, e acontece com muitas outras IAs treinadas por aprendizado de máquina.
IMAGEM: Divulgação