Síguenos F Y T I T R
Hoy es noticiaEs noticia:

Soy experta en ciberseguridad y estos son los trucos para detectar estafas hechas con IA: «Es la nueva realidad»

El 'deepfake' se ha convertido en una herramienta cada vez más usada por los estafadores online

La experta ha alertado de esta realidad en redes sociales

| Palma |

En 2025, la utilización de inteligencia artificial para crear vídeos falsos o deepfakes se ha convertido en un desafío creciente para la seguridad digital. Expertos en ciberseguridad alertan que este fenómeno no sólo afecta a usuarios habituales de internet, sino que pone en riesgo especialmente a los grupos más vulnerables, como las personas mayores. Ante esta situación, surgen estrategias simples pero efectivas para reconocer cuándo un vídeo puede estar manipulando la realidad.

María Aperador, una reconocida especialista en ciberseguridad en redes sociales, explica que «es la realidad a la que nos vamos a enfrentar a partir de ahora como sociedad». Según Aperador, el incremento en la difusión de estos contenidos exige desarrollar herramientas y habilidades para discernir entre lo auténtico y lo fabricado, evitando así caer en engaños o fraudes digitales.

La experta añade que uno de los retos principales es enseñar a los usuarios, y en especial a sus familiares mayores, a identificar las señales que evidencian un vídeo falso. Para ello, comparte una serie de pistas visuales y auditivas que se pueden revisar de forma rápida y eficaz.

Características clave para identificar 'deepfakes'

Uno de los primeros indicios que pueden denunciar la falsedad de un vídeo es la desincronización entre el movimiento de los labios y el audio. Cuando las palabras no coinciden con la apertura o cierre de boca del personaje, es probable que se esté ante un deepfake.

Además, prestar atención a los ojos puede resultar muy revelador. Si el parpadeo es irregular o parece artificial y mecánico, el vídeo podría haber sido generado por un sistema de IA que no consigue reproducir movimientos naturales con fidelidad.

La voz es otro elemento crucial que ayuda a detectar manipulaciones. Tonadas extrañas o robots nasales suelen indicar que se ha sintetizado el habla original mediante inteligencia artificial, lo cual provoca una sensación poco natural en el audio.

Estos son algunos de los detalles visuales y auditivos que nos permiten hacer una primera evaluación rápida. La capacidad de análisis crítico de cada usuario será fundamental para evitar caer en estafas.

2 comentarios

user Portal | Hace 2 meses

Tú eres la estafa.

manu menorca manu menorca | Hace 2 meses

... te dejas la más evidente... el sentido común... el rey de España no va a meterse en tu móvil a recomendarte que inviertas en criptomonedas porque a él le ha ido bien y ha sacado pinguës beneficios, y más cuando te dice que es por tiempo limitado así que mejor que te des prisa...

Lo más visto