Crianças usam cada vez mais chatbots. Conheça os riscos escondidos Foto: reprodução redes sociais TECNOLOGIA

Crianças usam cada vez mais chatbots. Conheça os riscos escondidos

A inteligência artificial é uma tecnologia que já se difunde há anos em uma série de serviços digitais. Com o recente surgimento dos chats interativos (chatbots), ela entrou num novo e relevante capítulo.

As bases de dados usadas para treinar essas máquinas são constantemente aprimoradas e ampliadas, bem como a capacidade de processamento de texto e imagem e isso traz uma série de ganhos evidentes em difusão de conhecimento e produtividade – mas também carrega riscos escondidos que podem ser ostensivos.

Pesquisas recentes indicam que o interesse de crianças em ferramentas de IA cresce ao redor do mundo. O aplicativo Character.AI, para criação e interação com personagens digitais, se destacou como o primeiro app de IA a entrar na lista dos 20 aplicativos mais utilizados por crianças desde 2024 até hoje.

Um levantamento da organização sem fins lucrativos Internet Matters estima que, no Reino Unido, 64% das crianças usam chatbots de IA para auxílio em tarefas tão diversas quanto fazer lição de casa, companhia diária e até aconselhamento emocional.

Riscos e supervisão

Uma preocupação central nesse uso tão disseminado de IA interativa é a influência que uma ferramenta de capacidades quase humanas pode ter sobre a mentalidade de indivíduos ainda em formação.

O medo não é injustificado: empresas gigantes de tecnologia encontram-se numa “corrida de armas” de modelos de IA, em que as considerações éticas deles ficam em segundo plano comparado à velocidade para competir.

Alguns dos principais riscos aos quais crianças e jovens são expostos diariamente em chatbots são:

  • Difusão de informações erradas ou enviesadas
  • Encorajamento para tomar atitudes questionáveis
  • Exposição a conteúdo inapropriado para sua idade
  • Manipulação emocional
  • Violação de privacidade digital

Parte desses problemas vem da inação das empresas desenvolvedoras dos modelos de IA para estabelecer filtros e controle de acesso eficazes, ou diretrizes éticas e de uso adequadas. Outras limitações são de caráter técnico, como as “alucinações” de máquina, que geram respostas absurdas dadas com confiança pelos chats.

Risco à privacidade e estratégias de defesa

Já as brechas à privacidade dos usuários nos modelos de IA são um risco menos evidente, mas presente. Nesse sentido, devem ser destacadas as vantagens de usar uma VPN para contorná-lo. Esse serviço criptografa as comunicações online e mantém a segurança da conexão, por meio de servidores privados.

Apesar de ser eficaz, uma VPN não supre toda a proteção à privacidade necessária ao interagir com ferramentas de IA. Os pais e responsáveis devem instruir seus filhos a respeito dessas interações.

Compartilhar dados com cuidado: É fundamental, por exemplo, evitar o compartilhamento de dados pessoais sensíveis. Jovens que “desabafam” com chatbots ou os utilizam como “terapeuta” pessoal correm não apenas o risco de serem manipulados emocionalmente por uma ferramenta automática, mas também dividem com ela dados a que ninguém fora um terapeuta real ou pessoas de confiança deveriam ter acesso.

Portanto, esclarecer o que deve ou não ser dito nas conversas com modelos de IA é um direcionamento relevante por parte dos pais.

Moderação no acesso: Por mais difícil que possa ser controlar o que é baixado e acessado no computador ou celular dos filhos, é preciso estabelecer limites de uso para chatbots.

Estipular claramente limites de horários e de tempo de exposição diários a chatbots seria a maneira de fazer isso. Evitar absolutamente interações entre crianças de pouca idade a tais ferramentas também deve ser seriamente considerado.

Esclarecer os limites da IA: Chatbots como ChatGPT, Gemini e Claude já começaram a concentrar parte das buscas na internet que antes era exclusividade do buscador Google. Portanto, eles têm se tornado a fonte das informações iniciais de muitas buscas de jovens e crianças.

É importante educar a respeito da falibilidade desses resultados. Eles são gerados automaticamente com base numa porção do conteúdo da internet, que pode ou não trazer informações confiáveis. Apesar de impressionantes, essas ferramentas condensam dados sem pensar propriamente – algo que jovens devem sempre levar em conta antes de basear escolhas emocionais ou de aprendizado em suas interações.

Clique neste link e seja membro do MyNews — ser inscrito é bom, mas ser membro é exclusivo!

Compartilhar:

Relacionados