Apple tuvo su gran evento ayer, y durante la charla sobre iPhone anunciaron Apple Visual Intelligence. Donde puedes tomar fotografías de cualquier cosa y utilizará Apple Intelligence para búsquedas locales, compras, ayuda con las tareas y más.
Apple está usando Google, ChatGPT y creo que quizás Yelp y OpenTable con Apple Maps para estas integraciones. Y sí, esto se parece mucho a Google Lens…
Esta parte de la charla comienza alrededor del minuto 57, pero permítanme compartir capturas de pantalla de esto.
Aquí hay un hombre tomando una foto de la entrada de un restaurante para obtener más información sobre el restaurante. Creo que en Yelp y OpenTable.
Aquí están los resultados:
Luego este está tomando una foto de una bicicleta, para buscar en Google ese producto y precio:
Los resultados parecen personalizados:
Y luego obtener ayuda con la tarea usando ChatGPT:
Aquí está el vídeo insertado a la hora de inicio, si quieres verlo:
Por eso Apple está implementando la IA como herramientas, esencialmente como aplicaciones integradas.
¿Pensamientos?
Discusión del foro en X.