Por @Alvy — 1 de febrero de 2017

En el siempre excelente canal de Two Minute Papers resumen en cuatro minutos (eh, no es una ciencia exacta) el algoritmo que hay detrás de RAISR, una tecnología de la que ya hablamos hace un par de semanas y que Google está empezando a utilizar en pruebas, entre otras cosas para reducir el consumo de datos en apps móviles.

El vídeo se centra más en el concepto de super-resolución o cómo mejorar imágenes de baja calidad para resaltar detalles y hacerlos más vistosos y legibles. Esto se consigue mediante técnicas de aprendizaje automático, que no de redes neuronales, en las que la gran ventaja es que para el entrenamiento se puede partir de una imagen enorme de buena calidad «sin trucos». Basta reducirla, pasarle un filtro de ruido o compresión para que pierda calidad (se puede hacer repetidas veces y a diversos tamaños) y entrenar con ellas al sistema.

El trabajo completo de los investigadores se puede leer aquí:

El resultado además de ser de una calidad sorprendente es increíblemente rápido para los estándares de aprendizaje automático: dicen que con unas 10.000 imágenes y en menos de una hora se puede entrenar a la máquina para que comience a procesar imágenes de baja calidad dando salida a versiones más nítidas y de una calidad superior. Como si estuvieran sacadas directamente de C.S.I. o de cualquier otra serie de ficción. ¡El futuro ya está aquí!

Relacionado,

Compartir en Flipboard Publicar / Tuitear Publicar