Miércoles, 26 07, 2017

Fotografías espía: en esto está trabajando el departamento de Inteligencia Artificial de Apple

Hace apenas un día que veíamos cómo Russ Salakhutdinov desvelaba en evento NIPS de Barcelona la intención de Apple de difundir su investigación sobre Inteligencia Artificial y el aprendizaje automático o machine learning. Pues ahora desde Quartz nos llega más información sobre la presentación de Salakhutdinov, que nos abre una ventana a lo que Apple tiene entre manos dentro de su división de Inteligencia Artificial.

Y la verdad es que la compañía no está escatimando en esas investigaciones. En Cupertino se trabaja a fondo con algoritmos de aprendizaje automático para interpretar datos médicos y señales vitales, procesar detecciones volumétricas, predecir decisiones estructuradas, procesar y colorear imágenes según varios factores, mejorar Siri y reconocer lo que esté haciendo el usuario en un momento determinado para predecir comportamientos futuros.

Esto huele a conducción autónoma

Gran parte de ese trabajo, sobretodo la toma de decisiones estructurada y la detección volumétrica de objetos, son claramente intencionados para ese sistema de conducción autónoma. El "Proyecto Titán" ha vuelto a la rumorología después de que Apple pidiera que se suavicen las regulaciones de los Estados Unidos en cuanto a empresas que quieran entrar en el mercado del automóvil, y el aprendizaje automático va a ser el encargado de que esa conducción autónoma vaya bien.

De hecho Apple menciona directamente que trabajan con el sistema LiDAR (Light Detection and Ranging), que están usando gran parte de los coches autónomos que se están fabricando hoy en día. Quartz, sin embargo, afirma que dos asistentes a la presentación han querido aclarar que Apple no trabaja en un coche. Por motivos obvios, dichos asistentes han preferido mantener su anonimato.

Más rendimiento en menos hardware

Esto es una cosa que el usuario nunca ve, pero parece que parte de la presentación incluía a Salakhutdinov presumiendo de la eficiencia de las redes neurales de Apple. Esa eficiencia es del doble que la de las redes originales con las que se empezó a trabajar, y además es 4,5 veces más pequeña.

Poder tener esta eficiencia da un beneficio adicional: en vez de procesar los datos remotamente desde un servidor, puede hacerlo localmente iOS desde un iPhone. La necesidad de enviar datos por internet y cifrarlos para mantener nuestra privacidad de repente deja de existir.

Apple es capaz de procesar 3.000 imágenes por segundo mientras que los algoritmos de Google sólo procesan 1.500 en el mismo tiempo

Además, todas las pruebas se han hecho en GPUs relativamente convencionales mientras que compañías como Amazon o Google utilizan hardware especializado. Los gráficos que se ven en las diapositivas de la presentación muestran cómo Apple es capaz de procesar 3.000 imágenes por segundo mientras que los algoritmos de Google sólo procesan 1.500 en el mismo tiempo.

¿"Procesar" imágenes? Digámoslo de otro modo: la magia que tiene Google Photos para reconocer personas, animales y objetos en las fotografías que subamos al servicio radica precisamente en estos algoritmos fruto del aprendizaje automático. Apple ya lo ha empezado a usar también en su fototeca de iCloud, aunque no de la misma forma.

En resumen, el aprendizaje automático está muy presente en todas las compañías. Y en Apple no parece que lo esté, pero de eso se trata su círculo de secretismo: que parezca que no estén haciendo nada.

 

Imagen: yumikrum

Fuente: applesfera

Compártelo. ¡Gracias!

 

Grupo Digital de Ayuda! Tu Aula Mac! Toda la información sobre Apple y sus productos.