Hay algunos deep fakes que son todavía muy cantosos, pero la verdad es que poco a poco van dando el pego. Tanto que algunos con los que podemos experimentar habitualmente como son los filtros de las videollamadas son bastante resultones. Si los deep fakes están hechos con software potente y hardware más potente todavía pueden convertir a una persona en otra sin mayores problemas, al menos en una comunicación a baja o media resolución sin muchas pretensiones.
Uno de los problemas es cómo detectar estos deep fakes en tiempo real; es sabido que ha habido casos de bromas y estafas utilizando esta tecnología cuando algunos individuos se han hecho pasar por personajes más o menos conocidos, como políticos o responsables de grandes empresas.
En un artículo de Mikel Anderson en Metaphysic explican una forma muy sencilla, totalmente de baja tecnología, para detectar estas bromas y estafas si se sospecha que pueden estar ocurriendo en tiempo real en una videollamada. Consiste simplemente en pedirle a la otra persona que muestre su rostro de perfil. Como los algoritmos que crean los deep fakes no tienen tantos datos muestreados de ese tipo de imágenes de la persona –porque trabajan mejor con fotografías frontales más bien simétricas, en las que se ven los dos ojos, la boca completa, etcétera– el resultado salta a la vista. Se produce una especie de transformación gradual de rostro reconocible en formas borrosas, muy a lo Scanner Darkly o Total Recall. La toma final parece más La cosa de la película de John Carpenter que una persona.
El artículo es muy completo y contiene muchísima información sobre cómo funcionan estos algoritmos, cómo se recrean los rostros, de dónde proceden los datos, cómo pueden mejorarse y todo lo que se puede necesitar saber sobre el tema. Este tipo de fakes ya son un problema corriente en las llamadas de voz y me recordaron también a Me recordó un poco a la prueba «Si no eres un robot, simplemente di: No soy un robot» que también permite detectar llamadas de telemárketing.
Relacionado: