Modelos de linguagem de inteligência artificial propõem alguns desafios, endereçados especificamente pelas seguintes medidas e ferramentas
por Guilherme Figueiredo em 19/01/24 19:39
Fim de 2020 trouxe algum alento para as instituições que lidam com educação, ciência, tecnologia e inovação no Brasil. (Foto: Pixabay)
Você sabia que além de auxiliar na escrita de um artigo, na tradução de uma frase ou numa organização de ideias soltas, o ChatGPT também pode funcionar como um potencializador dos ciberataques na internet?
É verdade que a OpenAI, empresa por trás do ChatGPT, monitora o aprendizado desse modelo de linguagem de inteligência artificial (I.A.) e estrutura regras de segurança e boas práticas. Isso é feito para coibir abusos de uma tecnologia ainda muito nova e promissora.
Ainda assim, o ChatGPT tem se tornado um espaço frutífero para experimentações de cibercriminosos. A automação somada à capacidade de desempenhar algumas atividades criativas com eficiência tem impulsionado várias atividades nocivas, desde a criação de código malicioso até a geração de mensagens cada vez mais persuasivas para uso em fraudes e golpes de phishing.
Mas isso não significa que todos precisemos deixar de usar I.A imediatamente. No dia a dia, ela é útil em muitas atividades e, se aplicada em conjunto com outras medidas de segurança, sua navegação na internet não precisa se alterar sensivelmente.
De onde surgem as ameaças da I.A.?
Aplicativos de I.A. como o ChatGPT já fazem parte dos hábitos digitais do mundo inteiro de modo considerável e crescente. É sabido que a I.A. pode ser uma aliada sustentável na resolução de problemas ou execução de tarefas cada vez mais complexas. Para tarefas criativas cotidianas, essa tecnologia tem impulsionado a eficiência de muitos trabalhadores e empresas.
Aplicada ao ofício do cibercrime, essa eficiência pode alavancar novos marginais e amplificar a capacidade de atuação de bandidos experientes. Se antes a construção de malware levava horas e era fruto de um complexo processo digital, agora qualquer pessoa pode criar isso em instantes. O resultado é uma profusão de códigos maliciosos que provocam roubo de dados e falsificação de identidade, entre outros.
Felizmente, existem maneiras de se proteger desta nova onda de ciberataques via I.A., como usar VPN, manter os sistemas atualizados, preservar informações sensíveis, entre outras. Mais do que trunfos incontestáveis, essas medidas se assemelham mais a boas práticas de segurança a serem incorporadas num uso cotidiano da internet e das ferramentas de I.A. Confira a seguir algumas delas.
Como encarar a I.A. com mais segurança?
Modelos de linguagem de inteligência artificial propõem alguns desafios, endereçados especificamente pelas seguintes medidas e ferramentas:
Contratar uma VPN
Um ferramenta de rede virtual privada (VPN) protege dados de uma conexão, criptografando-os entre usuários na internet. Também permite “camuflar” o IP na internet.
Para usar um modelo de I.A., bem como outras aplicações virtuais, uma VPN poderá evitar interceptações de hackers e cibercriminosos nas comunicações com a página em questão. Também poderá resguardar a localização real do usuário, preservando-a de eventuais rastreadores do serviço usado – o que é um incremento de privacidade.
Intuição cautelosa
Esta dica não é estritamente técnica, mas funciona bem para evitar ataques de phishing. A intuição pode ajudar ao receber uma mensagem desconhecida ou até mesmo uma mensagem nova e pouco habitual, vinda de alguém que você já conhece.
Estranhou o conteúdo da mensagem ou o remetente dela? Não abra. Não clique em nada. Não descarte nenhuma possibilidade de tentativa de golpe, uma vez que a I.A. oferece maneiras distintas de criação de malwares a partir da captação dos seus dados pessoais.
Dando um passo adiante, da intuição para um comportamento mais restritivo e sistemático, assumir como regra não clicar em nenhum link de e-mail sem uma verificação prévia com o remetente pode prevenir até ataques de phishing sofisticados. Se o link é público, ele poderá ser acessado sem o clique na mensagem de e-mail; se não for, o remetente poderá confirmar sua segurança.
Não compartilhar dados sensíveis
Ao usar modelos de linguagem de I.A., muitos trabalhadores incorrem no erro de usar dados sensíveis de suas empresas. Não há dúvida de que a máquina pode ser excelente resolvedora de problemas ou boa companheira para sugestões em diversas tarefas.
Porém, é preciso ter em mente que as comunicações feitas com modelos de I.A. são usadas pelas empresas que os mantêm para treiná-los e aprimorá-los. Nenhuma empresa deseja ter seus segredos de negócio ou informações sensíveis disponíveis para desconhecidos a um comando de distância – entretanto, é o que pode acontecer quando alguém “conversa” sem a devida cautela com esses assistentes.
Atualização constante de softwares
Versões desatualizadas de softwares são verdadeiros pratos cheios para que falhas de segurança surjam. É justamente por essas brechas que golpistas e criminosos podem encontrar você e os seus dados.
A atualização dos pacotes de segurança de computadores, celulares e seus respectivos programas sempre foi uma medida básica para manter a cibersegurança. Num momento em que as tecnologias de I.A. catalisam a ação de hackers maliciosos de maneira exponencial, é ainda mais importante manter tudo sempre na versão mais atualizada possível.
Comentários ( 0 )
ComentarMyNews é um canal de jornalismo independente. Nossa missão é levar informação bem apurada, análise de qualidade e diversidade de opiniões para você tomar a melhor decisão.
Copyright © 2022 – Canal MyNews – Todos os direitos reservados. Desenvolvido por Ideia74
Entre no grupo e fique por dentro das noticias!
Grupo do WhatsApp
Utilizamos cookies para oferecer melhor experiência, melhorar o desempenho, analisar como você interage em nosso site e personalizar conteúdo.
ACEITAR