Este artículo se publicó originalmente en M Liquido.com el 23 de enero de 2020 y fue escrito por Radosław Holewa.
Con la creciente demanda global de experiencias móviles mejoradas y más personalizadas, la IA generalizada y la adaptación de aprendizaje profundo en la industria del desarrollo de aplicaciones móviles es inevitable. Olvídate de los frustrantes problemas de latencia que surgen de la detección móvil y la computación en la nube. El tiempo de respuesta es casi cero, con velocidades de procesamiento de datos en tiempo real para obtener mejores resultados.
El avanzado conjunto de chips para teléfonos inteligentes Bionic de Apple con unidades de procesamiento neuronal incorporadas ayuda a las redes neuronales a trabajar directamente en el dispositivo a velocidades increíbles. Con el Core ML de Apple, las plataformas ML Kit de Google y las bibliotecas de aprendizaje profundo como TensorFlow Lite y Keras, los desarrolladores móviles pueden crear aplicaciones con menos tiempo de respuesta, menos errores y un procesamiento de datos más rápido.
La principal ventaja del aprendizaje automático en el dispositivo es que proporciona a los usuarios una experiencia de usuario fluida y precisa. Dado que no hay ningún problema al enviar datos a servidores externos para su procesamiento, obtiene una mejor protección de datos, seguridad y privacidad del usuario. Además, con Neural Networks en dispositivos móviles, no necesita una conexión a Internet para acceder a todas las funciones de sus aplicaciones. Por supuesto, aún necesitará Internet para la mayoría de las características estándar.
El uso de capacidades informáticas para dispositivos móviles para implementar algoritmos de aprendizaje profundo ha mejorado la usabilidad de los dispositivos móviles. Así es como:
1. Reconocimiento de voz en el dispositivo.
El reconocimiento de voz implica convertir o convertir secuencias de entrada en secuencias de salida utilizando redes neuronales repetitivas (RNN), redes neuronales convolucionales (CNN), redes neuronales profundas (DNN) y otras estructuras. Los desarrolladores tuvieron un problema de latencia, creando demoras entre su solicitud y la respuesta automatizada, pero ahora podemos superarlos utilizando la tecnología RNN-T integrada en dispositivos móviles.
RNN-Ts son modelos de secuencia a secuencia. En lugar de seguir el método habitual de manejar una secuencia de entrada completa antes de producir una salida, mantiene una continuidad constante en el procesamiento de la entrada y el flujo de salida. Esto facilita el reconocimiento de voz y el procesamiento en tiempo real. Ves esto con Google Assistant, Que puede procesar comandos de voz consecutivos sin tropezar y sin pedirle que llame "Hola, Google" después de cada solicitud.
Es una conversación bidireccional más natural, y el asistente seguirá sus instrucciones a T. ¿Desea establecer un asunto de correo electrónico, encontrar una imagen en una de sus carpetas y guiarlo al lugar de su hermana? Listo
Al seguir adelante con el teléfono Pixel 4 Nuevo en Google, la función "Live Caption" puede proporcionar traducciones de notas de voz, podcasts y videos en tiempo real, y debido a que el procesamiento en el dispositivo, también está en modo Avión. Entonces, por ejemplo, si aparece un video en Twitter En resumen, puede ver de qué se tratan los subtítulos, sin tener que silenciar el sonido. Live Caption aún no funciona con música o llamadas telefónicas y de video.
2. Aumente la eficiencia mientras reconoce los gestos
Usando modelos de canalización de aprendizaje automático en el dispositivo, puede entrenar su dispositivo móvil para detectar, rastrear y reconocer gestos con las manos y el cuerpo. La cámara de su dispositivo graba y almacena sus gestos y movimientos como datos de imágenes en 3D. A continuación, los algoritmos de aprendizaje profundo para redes neuronales utilizan esta biblioteca de gestos para identificar y decodificar gestos estáticos y dinámicos específicos. Luego los unen en tiempo real a su intención y ejecutan las órdenes que desea.
Google pix 4 smartphones Viene con un chip Soli que facilita la interacción compleja y no verbal con su teléfono. Este mini sensor de radar en la parte superior del teléfono alimenta la tecnología Motion Sense que puede detectar su presencia y gestos con las manos y el cuerpo para permitir las interacciones de su teléfono. Con un movimiento de su mano, incluso sin tocar el teléfono, puede decirle que espere, silencie una alarma o pase a la siguiente canción de su lista de reproducción.
3. Las capacidades inmersivas de la realidad aumentada
Usando ARCore y Google Apple de las plataformas ARKit, los desarrolladores pueden crear aplicaciones de realidad aumentada que pueden combinar objetos y entornos digitales con configuraciones realistas. Las capacidades inmersivas de la realidad aumentada tienen un gran impacto en el comercio minorista, el entretenimiento, los viajes y otras industrias. Marcas como Lacoste y Sephora ahora permiten a sus clientes probar o obtener una vista previa de los productos utilizando aplicaciones de realidad aumentada, y un número cada vez mayor de compradores prefieren revisar los productos en sus teléfonos antes de decidirse a comprarlos.
Juegos interactivos de realidad aumentada como Pokemon Ingress y Ghostbusters World prensa extensa y seguimiento dedicado. Si desea orientarse por la ciudad, Google Maps Live View le proporcionará navegación en tiempo real.
4. Imágenes de alta calidad.
La alta calidad de imagen es un criterio importante para los compradores al elegir smartphones, Que pueden obtener con muchos de los últimos modelos. Estos vienen equipados con componentes de hardware (unidades centrales de procesamiento (CPU), procesadores de señal de imagen, algoritmos de imagen de aprendizaje profundo y unidades de procesamiento neuronal) que han saltado smartphones En un mundo completamente diferente a las cámaras tradicionales a la hora de tomar fotografías. Con estos smartphones Pueden mostrar más conciencia en el nivel de calificación de píxeles de lo que ven para tomar imágenes de alta resolución.
Teléfonos de Google pixel Apple Los iPhone utilizan muchas cámaras y algoritmos sofisticados de aprendizaje automático para identificar personas y objetos, crear mapas de profundidad, unir sin problemas exposiciones largas y calcular el balance de color preciso.
Al entrenar redes neuronales en un conjunto de datos de imágenes, los algoritmos aprenden cómo responder a los requisitos de imágenes individuales y refinar imágenes en tiempo real. El sistema de corrección automática desarrollado por investigadores del MIT y Google permite a los fotógrafos aplicar diferentes estilos a la imagen antes de tomar la foto.
Después de que una cuadrícula convolucional procesa imágenes a baja resolución, el método de mapeo conocido para asociar la conversión de color ajusta los colores de los píxeles de la imagen. La cuadrícula almacena estos formatos de transformación en una cuadrícula tridimensional que luego permite la salida de una imagen de alta resolución. Todo esto sucede en milisegundos.
Los teléfonos inteligentes ahora también superan a las cámaras DSLR en condiciones de poca luz y de noche. Al integrar redes y sensores neuronales profundos, las cámaras de los teléfonos inteligentes pueden capturar imágenes más claras en más colores de lo que el ojo humano puede ver.
Huawei, que ha realizado tomas viables con poca luz con la P20 Pro, utiliza filtros RYYB, sensores grandes y procesamiento de imágenes AI en la serie Mate 30 para ofrecer imágenes de alta calidad y poca luz, así como videos con poca luz. Google Pixel viene 4 Con el modo Night Sight que puede tomar fotos en el rango Lux 0.3-3 Y la astrofotografía puede capturar un cielo estrellado oscuro. Además del modo nocturno que se activa automáticamente en la oscuridad, el nuevo sistema Deep Fusion de Apple se adaptará a los niveles de iluminación y llevará la fotografía del iPhone a un nivel más impresionante.
Incluso si no comprende la fotografía, podrá tomar excelentes fotografías con estos smartphones.
5. Mayor seguridad y privacidad.
El cumplimiento del GDPR y la Ley de Privacidad del Consumidor de California (CCPA) se hace más fácil con el aprendizaje automático. Garantiza la seguridad de los datos, ya que no necesita cargar datos biométricos, de cifrado o de subtítulos en vivo a un servidor o nube para su procesamiento.
El cifrado automático en el dispositivo es otra característica útil del teléfono inteligente que protege su contenido con un PIN, contraseña o patrón y solo permite el acceso a sus datos cuando desbloquea su teléfono. Entonces, si su dispositivo se pierde o es robado, la posibilidad de que alguien obtenga sus datos es insignificante.
Característica de la cara ID El iPhone es un ejemplo de una experiencia de teléfono inteligente más segura. Redes neuronales en el dispositivo en Apple Maneje de forma segura chips de teléfonos inteligentes y almacene datos de la cara del usuario. La identificación se produce en su dispositivo, por lo que su privacidad y seguridad permanecen sin obstáculos.
Desbloqueo facial se utiliza en Google Pixel 4 Facilitado por el chip Soli, establezca la profundidad de IR 3D para crear patrones faciales para su reconocimiento facial y almacenar en el chip de seguridad Titan M6 en el dispositivo. Face Unlock funciona bien con 1Password para proporcionar seguridad biométrica a los usuarios al eliminar las posibilidades de fraude de identidad. Para configurar la aplicación 1Password en Pixel 4 Simplemente ingrese sus datos en Autocompletar y use Desbloqueo facial para iniciar sesión en lugar de la función Desbloqueo por huella digital.
6. Mayor precisión en el reconocimiento de imágenes.
Al vincular el aprendizaje automático al dispositivo con la tecnología de clasificación de imágenes, puede seleccionar información detallada y obtenerla en tiempo real sobre casi cualquier cosa que encuentre. ¿Quieres leer un texto en un idioma extranjero? Escanee con su teléfono para una traducción instantánea y precisa. ¿Has recogido tu colección de imaginación o mueble? Escanee para obtener información sobre el precio y dónde comprarlo. ¿Hay un plato nuevo y atractivo en el menú del restaurante? Puede usar su teléfono para conocer sus ingredientes e información nutricional.
Al facilitar el reconocimiento de imágenes en tiempo real, aplicaciones como Google Lens, Calorie Mama y Leafsnap aumentan la usabilidad, aprenden de los dispositivos móviles y mejoran la experiencia del usuario.
El potencial del aprendizaje automático en el dispositivo es enorme. Con algoritmos inteligentes cada vez más eficientes, redes neuronales más profundas y chips de IA más potentes, las aplicaciones móviles de aprendizaje profundo serán estándar en banca, comercio minorista, atención médica, análisis de datos, tecnología de la información, comunicaciones, espacio y muchas otras industrias. Según una investigación de mercado aprobada, es probable que el mercado global de aprendizaje profundo alcance los $ 26.64 mil millones para 2026, con el mercado de tecnología de chips de aprendizaje profundo llegando a 2.9 Miles de millones de dólares A medida que las capacidades de aprendizaje profundo continúen mejorando, las funciones de usabilidad en dispositivos móviles se desarrollarán lado a lado y generarán más innovación.
¿Qué opina de utilizar el aprendizaje profundo para mejorar los dispositivos móviles? Háganos saber en los comentarios a continuación o en Twitter, Facebook o MeWe.
Usando el aprendizaje profundo de hardware, portátil, a través de las formas más fáciles de mejorar, puede