Ciberdelincuentes están

utilizando iA para clonar voces.

La rápida expansión de la inteligencia artificial ha abierto oportunidades sin precedentes en muchos sectores, pero también ha multiplicado los riesgos.

Muchas ventajas se esperan obtener de la Inteligencia Artificial, una que sigue en constante desarrollo, pero que también para algunos podría traer consigo diversos problemas.

María Aperador, experta en ciberseguridad que se ha dado a conocer en redes sociales con sus vídeos divulgativos acerca de las nuevas invenciones en materia de ciberdelincuencia, alerta de la popularización de esta práctica entre los infractores. "Seguramente lea habrá llegado el típico mensaje de 'papá necesito ayuda' o 'mamá necesito ayuda'", indica en base a los antiguos modelos de estafa que han existido durante años. Por norma general, aquellas estrategias contaban con un nexo común, que era la ambientación de un contexto de peligro en el que la víctima tenía que someterse a una acción sin tiempo de reacción para contemplarlo. Este modelo sigue vigente, pero ahora ha cambiado la forma.

Desde correos electrónicos que simulan la comunicación de entidades bancarias hasta la creación de identidades falsas en redes sociales, los delincuentes han encontrado en estas tecnologías una forma eficaz de ganar credibilidad y manipular a sus víctimas. La facilidad con la que ahora se pueden crear contenidos que imitan la apariencia humana plantea un desafío urgente tanto para usuarios como para instituciones.