Aviso

 

Protegerse de las nuevas herramientas tecnológicas parece irónico, en vez de satisfacer los requerimientos de los usuarios, éstas parecen acarrear diversos daños y sino se toman las medidas pertinentes. Tal es el caso de las llamadas fraudulentas que hacen los estafadores con inteligencia artificial “para simular una voz conocida” en la víctima.

A medida que aumentan las capacidades de las herramientas de inteligencia artificial generativa, a los estafadores les resulta más fácil y barato crear voces falsas, aunque convincentes.

Estos clones de voz de IA se entrenan con clips de audio existentes de habla humana y pueden ajustarse para imitar a casi cualquier persona.

Los modelos más recientes pueden incluso hablar en varios idiomas. OpenAI, la creadora de ChatGPT, anunció recientemente un nuevo modelo de texto a voz que podría mejorar aún más la clonación de voz y hacerla más accesible.

Por supuesto, los delincuentes están utilizando estas herramientas de clonación de IA para engañar a las víctimas haciéndoles creer que están hablando por teléfono con un ser querido, aunque estén hablando con una máquina.

Aunque la amenaza de las estafas con base en IA puede ser aterradora, puedes mantenerte a salvo teniendo en cuenta estos consejos de expertos la próxima vez que recibas una llamada urgente e inesperada.

¿Pero qué hacer?

Al igual que muchos aspectos de la IA generativa en el último año, la IA de audio es ahora una imitación más convincente de la realidad. Cualquier estrategia de seguridad que dependa de que tú detectes auditivamente rarezas a través del teléfono, está obsoleta.

Cuelga y vuelve a llamar

Los expertos en seguridad advierten de que es bastante fácil para los estafadores hacer que parezca que la llamada proviene de un número de teléfono legítimo. “Muchas veces los estafadores falsifican el número desde el que te llaman, hacen que parezca que te llaman de esa agencia gubernamental o del banco”, explica Michael Jabbara, jefe global de servicios de fraude de Visa. “Hay que ser proactivos”. Ya sea de tu banco o de un ser querido, cada vez que recibas una llamada en la que te pidan dinero o información personal, diles que devolverás la llamada. Busca el número en internet o en tus contactos e inicia una conversación de seguimiento. También puedes intentar enviarles un mensaje a través de una línea de comunicación diferente y verificada, como videochat o correo electrónico.

Crea una palabra secreta de seguridad

Un consejo de seguridad muy popular que sugirieron varias fuentes fue crear una palabra de seguridad que solamente tú y tus seres queridos conozcan y que puedan pedir por teléfono: “Puedes incluso prenegociar con tus seres queridos una palabra o una frase que puedan utilizar para demostrar quiénes son realmente, si se encuentran en una situación de coacción”, indica Steve Grobman, director de tecnología de McAfee. Aunque lo mejor es devolver la llamada o verificarla por otro medio de comunicación, una palabra de seguridad puede ser especialmente útil para los parientes más jóvenes o ancianos con los que sea difícil ponerse en contacto de otro modo.

O simplemente pregúntales qué han cenado

¿Y si no tienes una palabra de seguridad decidida y estás intentando averiguar si una llamada angustiosa es real? Para un segundo y haz una pregunta personal. “Puede ser tan sencillo como hacer una pregunta que solamente tu ser querido sabría responder”, apunta Grobman, “Podría ser: ‘Oye, quiero asegurarme de que eres tú de verdad’. Asegúrate de que la pregunta es lo suficientemente específica como para que un estafador no pueda responder correctamente con una suposición.

Entiende que cualquier voz puede ser imitada

Los clones de audio deepfake no solo están reservados a famosos y políticos, como las llamadas en New Hampshire que utilizaron herramientas de IA para sonar como Joe Biden y disuadir a la gente de acudir a las urnas. “Un malentendido es: ‘A mí no me puede pasar. Nadie puede clonar mi voz’”, sostiene Rahul Sood, director de producto de Pindrop, una empresa de seguridad que descubrió el probable origen del audio de Biden. “De lo que la gente no se da cuenta es de que con tan solo cinco o diez segundos de tu voz, en un TikTok que hayas podido crear o en un video de YouTube de tu vida profesional, ese contenido puede utilizarse fácilmente para crear tu clon” Utilizando herramientas de IA, el mensaje de voz saliente de tu smartphone podría incluso bastar para replicar tu voz.

No cedas a apelaciones emocionales

Ya se trate de una estafa de carnicería de cerdos o de una llamada telefónica con IA, los estafadores experimentados son capaces de ganarse tu confianza, crear una sensación de urgencia y encontrar tus puntos débiles. “Desconfía de cualquier compromiso en el que experimentes un elevado sentido de la emoción, porque los mejores estafadores no son necesariamente los hackers técnicos más hábiles”, aclara Jabbara. “Si te tomas un momento para reflexionar sobre una situación y te abstienes de actuar por impulso, ese puede ser el momento en que evites que te estafen, reseño Wired en nota de prensa.