Especialista do IEEE ensina como detectar vídeos falsos e preservar privacidade na Internet
Membro da maior organização profissional técnica do mundo dedicada ao avanço da tecnologia em benefício da humanidade (Instituto de Engenheiros Elétricos e Eletrônicos – IEEE) ainda destaca a importância da educação e medidas de segurança avançadas para combater vídeos manipulados digitalmente e proteger dados em tecnologias imersivas
Em tempos de vídeos feitos por inteligência artificial, realidade aumentada e inúmeros conteúdos com procedência duvidosa, especialista do Instituto de Engenheiros Elétricos e Eletrônicos (IEEE), Gabriel Gomes de Oliveira, destacou a importância de educar o público sobre as ameaças dos deepfakes e as melhores práticas para proteger a privacidade.
Os deepfakes, vídeos ou áudios manipulados por IA para parecerem autênticos, representam crescente preocupação em várias áreas, incluindo mídia, política e segurança pessoal. Segundo Gabriel Gomes de Oliveira, os algoritmos de IA estão se tornando cada vez mais sofisticados, o que torna a identificação dos vídeos falsos um desafio constante. “A detecção da ameaça envolve o reconhecimento de anomalias digitais, como mudanças na iluminação, movimentos bruscos e sincronia labial inadequada”, explicou Oliveira.
DICAS QUE PODEM AJUDAR
Para ajudar a identificar vídeos gerados por IA, Oliveira recomenda a utilização de ferramentas avançadas de detecção baseadas em IA que analisam características sutis nos vídeos. Além disso, sugere prestar atenção em detalhes como:
– Elementos digitais na imagem: pequenas inconsistências que não estariam presentes em vídeos genuínos;
– Iluminação da cena: variações não naturais na iluminação de um quadro para o outro;
– Movimentos bruscos: movimentos que parecem mecânicos ou fora do ritmo natural;
– Tom de pele: mudanças abruptas no tom de pele que podem indicar manipulação;
– Aspecto piscante dos olhos: frequência de piscadas que não correspondem a um comportamento humano normal;
– Sincronia labial com a fala: lábios que não se movem de forma sincronizada com o áudio.
Além de identificar simulações digitais, proteger a privacidade em um mundo de tecnologias imersivas, como a realidade aumentada (RA) e virtual (RV), também é crucial. Essas tecnologias coletam uma vasta quantidade de dados sensoriais, o que pode representar riscos significativos à privacidade. Para mitigar esses riscos, o membro do IEEE sugere medidas como: educação sobre ameaças atuais, exercícios simulados, protocolos de relatório, aprendizado contínuo e atualizações e a construção de uma cultura de segurança.
Para proteger a privacidade em tecnologias de realidade aumentada (RA) e virtual (RV) na sala de aula, Oliveira sugere revisar constantemente o sistema e a infraestrutura para identificar e corrigir vulnerabilidades, garantir que todas as fontes de dados sejam seguras e confiáveis, e empregar especialistas em cibersegurança para fortalecer as defesas. Ele também recomenda contratar serviços específicos para identificar e mitigar vulnerabilidades, investir em treinamentos contínuos para qualificar colaboradores, monitorar e analisar dados internos para detectar ameaças ou violações.
“É fundamental equilibrar defesas técnicas com a conscientização sobre segurança cibernética para criar uma estratégia robusta”, enfatizou. Ele também sugeriu incentivar a colaboração entre equipes de TI e outros departamentos para garantir que as medidas de segurança e programas de treinamento estejam alinhados com as necessidades organizacionais.
Para o futuro, é essencial conduzir avaliações regulares de vulnerabilidade e testes para identificar e abordar possíveis fraquezas nas defesas, tanto técnicas quanto humanas. “A informação e a educação são a base para o avanço seguro e inteligente de tecnologias inovadoras para toda a sociedade”, concluiu o especialista do IEEE.
O conteúdo deste blog é livre e seus editores não têm ressalvas na reprodução do conteúdo em outros canais, desde que dados os devidos créditos.