Blog

25/5/2023

7 minutos

Deepfake: una amenaza real para empresas de medios de pago

Deepfake: una amenaza real para empresas de medios de pago

Las formas de usurpar en los medios de pago digitales son cada vez más sofisticados. Por ello resulta conveniente estar al tanto de este tipo de innovaciones para evitar ser víctima. El deepfake es una amenaza que va en aumento.

Este tipo de fraude es utilizado para falsificar la identidad del usuario y hacer creer al comercio que está tratando con el titular. A este nivel de trampa debe afrontarse con una potente solución tecnológica contra el fraude.

A continuación te contamos en qué consiste, cómo opera y la importancia de detectarlo en directo. También es importante que sepas cómo prevenir esta modalidad de fraude y mantenerte un paso por delante de los estafadores.

¿Qué es deepfake y cómo funciona este tipo de fraude?

El deepfake consiste en crear imágenes falsas, videos o voces con inteligencia artificial a partir de otras imágenes o fragmentos de audios. 

Mediante el uso de algoritmos de redes neuronales generativas antagónicas (GAN), esta tecnología recopila, procesa y produce resultados cada vez más convincentes. Con ellos es posible crear una voz falsa y hacerla pasar por una verdadera.

Esta técnica comenzó siendo aplicada por grandes estudios de cine en la producción de sus películas. Y con el desarrollo tecnológico, hoy en día cualquier persona puede valerse de una aplicación para crear imágenes o videos falsos.

El peligro del deepfake para los medios de pago

El problema aparece cuando se emplea para suplantar la identidad de una persona mediante su imitación de forma gráfica, por voz o video. De esta manera, saltarse los controles de identidad se ha vuelto más fácil para los estafadores en la web.

Aunque la calidad de las producciones con deepfake son cada vez más creíbles, todavía no falsifica de manera fiel ni la voz ni el rostro humano.

La detección facial o por voz podría convertirse en una medida de seguridad insuficiente contra el fraude por el deepfake. Debido a su alto carácter de verosimilitud, los sistemas de identificación deben prepararse ante estos ataques.

Lo más importante en este tipo de fraude consiste en que se trata de una carrera contra reloj. A una nueva forma de suplantación o robo de identidad debe seguirle un adelanto tecnológico capaz de volverlo obsoleto lo más inmediato posible.

La voz: un elemento fácil de emplear con tecnología

Entre las formas de imitación y falsificación se encuentra el deepvoice. Con esta técnica se puede crear un discurso a partir de la mezcla de frases o palabras sueltas o incluso a partir de la clonación de la voz.

En el año 2019 se hizo público una estafa a una entidad financiera. En esta, a un gerente se le pidió transferir un monto a una cuenta de una sucursal en otro país. En el 2023 los fraudes por clonación de voz se extienden a personas comunes. 

Ante el tipo de innovación que supone el deepfake, deben adelantarse los software capaces de hacerle frente antes de que cause daños mayores.

Por supuesto, en cada caso se trata de voces clonadas difíciles de reconocer como tales. Según la Comisión Federal de Comercio (FTC) de EEUU, los casos no han disminuido.  

Puede emplearse de diferentes formas por parte de los estafadores: generar sitios web, perfiles y correos falsos, entre un largo etcétera. ¿Cuánto tiempo pasará para que esta tecnología salte por encima de los controles en los medios de pago?

Importancia de detectar el engaño en directo

Según lo anterior, el phishing para robar identidad o las imágenes estáticas podrían ser fáciles de falsear. Para engañar las coincidencias de rostro en las verificaciones de KYC (Know Your Customer) puede bastar una imagen estática hiperrealista.

Si el fraude se realiza en los momentos de comprobación de identidad, su detección puede ser más factible mediante un software destinado a ello. Esto se basa en ciertas pautas reconocibles y en la capacidad de aprendizaje del mismo programa.

La actividad vital es uno de los aliados en este tipo de comprobación de identidad. Con ella se busca detectar que los gestos o el sonido sean reales y no arrojen ningún tipo de sospecha o error en su reproducción en directo.

Soluciones tecnológicas contra el fraude

Entre las medidas de prevención debe considerarse la educación del público en esta materia en especial. El desconocimiento de este tipo de fraude se convierte en una debilidad para cualquier sistema de seguridad.

Por otra parte, hay que tener en cuenta las diferentes características mediante las cuales se puede detectar la falsedad de un perfil. Por ejemplo, incongruencias en una imagen así como también la voz robotizada en alguna inflexión de un audio.

Por lo general, algunos detalles suelen pasarse por alto al momento de crear una imagen falsa. Entre ellos, los detalles relacionados con la luz y las sombras, también el brillo en los ojos pueden arrojar errores en la identidad suplantada.

Además, para evitar con mayor porcentaje las probabilidades de ser víctima de este tipo de estafa, adoptar un software especializado es la mejor solución. A través de la IA es posible detectar los ataques y crear patrones para prevenirlos en el futuro. 

Conclusión

Lejos de su contención, el fraude por deepfake es una práctica en permanente cambio. Su objetivo es el de crear nuevas formas de estafa cada vez más sofisticadas para aumentar las probabilidades de efectividad.

En este sentido, aliarte a un sistema que te permita detectar los riesgos y aprender de estos resulta una decisión conveniente. Se trata de implementar una solución que dé seguridad y confianza a tus clientes durante sus transacciones.

Bayonet es una empresa que te ayuda a gestionar la seguridad en tus sistemas de pago digitales. También te brinda asesoría para protegerte de otros tipos de fraudes comunes en el comercio electrónico. 

También te puede interesar:

Análisis de riesgo digital, la mejor tecnología antifraude

Tecnología para lograr transacciones financieras seguras

Tecnologías innovadoras para la detección y prevención de fraudes

Agenda una demo
BACK TO ALL