El Amazon Echo Show 15 no solo se cuelga de su pared, sino que también puede aprender a reconocer su rostro. Eso es porque tiene una nueva pieza de silicio diseñada por Amazon en su interior llamada Amazon AZ2 Neural Engine.
Sí, Amazon diseña chips ARM personalizados. El AZ2 ni siquiera es el primero (de ahí el 2), pero es mucho más capaz que el AZ1, que alimenta algunos de los mejores parlantes de Alexa y ofrece algo nuevo para Amazon: edge computing.
Si no está seguro de qué es la computación en el borde, este chip y lo que realmente hace lo hace fácil de entender. Todo el procesamiento para aprender y reconocer su rostro se realiza mediante el aprendizaje automático a través del propio chip y no es necesario enviar nada a través de Internet para que eso suceda.
Ofertas de VPN: licencia de por vida por $ 16, planes mensuales a $ 1 y más
Sigo pensando que cualquier computadora que aprenda a reconocer rostros humanos es bastante espeluznante, pero hacerlo localmente en lugar de a través de un servidor remoto es bastante bueno. Además, debe optar por esta función, por lo que aún puede comprar el nuevo Echo Show 15 de Amazon incluso si cree que es espeluznante como yo. Pero basta de cosas espeluznantes.
Lo que puede hacer el AZ2, en papel de todos modos, es bastante impresionante. Considere el AZ1 de última generación, que pudo reconocer su voz sin que Amazon necesitara enviar esos datos a través de la nube. El nuevo modelo hace eso, por supuesto, pero también es capaz de realizar 22 veces la cantidad de operaciones por segundo.
El motor neuronal AZ2 puede funcionar 22 veces más rápido que el procesador de última generación de Amazon.
Esto significa que tiene suficiente ancho de banda local para conocer su rostro y su voz. De hecho, Amazon dice que puede procesar el reconocimiento facial y de voz simultáneamente. Una gran razón de esto es que es un procesador de borde neuronal. Esas suenan como el tipo de palabras que a las empresas de tecnología les gusta usar, pero significan algo: la parte “neuronal” significa que es un chip que se usa con algoritmos para el aprendizaje automático y la parte “perimetral” significa que puede hacerlo sin solicitar una copia de seguridad. de algún servidor.
Al hacer las cosas localmente, hay una latencia casi nula, lo que significa que prácticamente no hay tiempo de espera entre operaciones. No hemos visto qué tan bien funciona en realidad, pero según sus capacidades, parece el chip perfecto para colocar dentro de algo como un Echo Show.
La computación perimetral no solo es mejor para la privacidad, sino que también es más rápida.
Hablando de eso, el Echo Show 15 es el único dispositivo que usará el nuevo chip AZ2 Neural Edge por ahora. Esperamos que eso cambie a medida que Amazon lleve su función de identificación visual a otros dispositivos. Quizás incluso drones o robots.
Tanto si te encantan los productos de Amazon como si los odias, no puedes evitar quedarte impresionado con el nuevo AZ2. Es fácil olvidar que Amazon también es parte de Big Tech, pero cosas como esta sirven para recordarnos que algunos ingenieros de alto nivel trabajan muchas horas para construir esos dispositivos Echo que tanta gente ama.