Coste por bit

Coste por hora

Los desarrolladores de hardware de redes neuronales de aprendizaje profundo (DNN) tienen una queja universal: necesitan cada vez más capacidad de memoria con alto rendimiento, bajo coste y bajo consumo. A medida que las técnicas de inteligencia artificial (IA) ganan en adopción, su complejidad y requisitos de entrenamiento también aumentan. Los modelos DNN grandes y complejos no caben en las pequeñas memorias caché SRAM en el chip cercanas al procesador. Aquí es donde la DRAM fuera del chip resulta útil para almacenar grandes cantidades de datos. Los procesadores de IA y las GPU de los centros de datos dependen del acceso rápido a la memoria fuera del chip para realizar cálculos complejos en tiempo real. En resumen, la memoria se está convirtiendo en un verdadero cuello de botella en estas aplicaciones.
Mientras tanto, la generación de datos de los dispositivos de borde está aumentando exponencialmente y la explosión de los volúmenes de datos ejerce una gran presión sobre los centros de datos. Los análisis de big data sobre los datos de los usuarios recogidos en las redes sociales y otras fuentes impulsan las estrategias de ventas y marketing en muchos sectores. Como es habitual, más datos implican una mayor capacidad de DRAM para almacenar todos esos datos para su rápido análisis.

Qué memoria tiene el mayor coste por bit

Y ya debería ser obvio que cuando los costes de acceso bajan, ya sea a un precio fijo para un uso ilimitado, a un precio fijo para los niveles de “lo que se suele usar”, o incluso cerca de cero, como en el uso de la Wi-Fi pública, el comportamiento cambia.
Así ocurrió con AOL cuando pasó de un acceso telefónico basado en el uso a un acceso “ilimitado”, y también es cierto en la era del Wi-Fi público. Las grandes cuotas de uso hacen que los consumidores estén dispuestos a utilizar Netflix y otros servicios de streaming. Pero, hasta ahora, estas ofertas eran difíciles de soportar en las redes móviles, simplemente porque el coste por bit en la mayoría de las redes móviles ha sido un orden de magnitud mayor que en las redes cableadas.
Y por eso el 5G será revolucionario. En un número cada vez mayor de casos, romperá la tradicional barrera del coste que ha impedido que el acceso móvil se convierta en un sustituto completo del acceso a Internet por red cableada (fija).
Dado que el vídeo es posiblemente la aplicación con los perfiles de ingresos por bit más estrictos, especialmente cuando el proveedor de acceso a Internet no obtiene ingresos directos por permitir el acceso al vídeo (el ISP suministra el ancho de banda de acceso y el uso, pero no los ingresos directos de la aplicación de vídeo), la capacidad de suministrar mucho ancho de banda para el vídeo es un requisito previo para cualquier plataforma de acceso inalámbrico que compita con las redes cableadas.

Coste por minuto

Los desarrolladores de hardware de redes neuronales de aprendizaje profundo (DNN) tienen una queja universal: necesitan cada vez más capacidad de memoria con alto rendimiento, bajo coste y bajo consumo. A medida que las técnicas de inteligencia artificial (IA) ganan en adopción, su complejidad y requisitos de entrenamiento también aumentan. Los modelos DNN grandes y complejos no caben en las pequeñas memorias caché SRAM en el chip cercanas al procesador. Aquí es donde la DRAM fuera del chip resulta útil para almacenar grandes cantidades de datos. Los procesadores de IA y las GPU de los centros de datos dependen del acceso rápido a la memoria fuera del chip para realizar cálculos complejos en tiempo real. En resumen, la memoria se está convirtiendo en un verdadero cuello de botella en estas aplicaciones.
Mientras tanto, la generación de datos de los dispositivos de borde está aumentando exponencialmente y la explosión de los volúmenes de datos ejerce una gran presión sobre los centros de datos. Los análisis de big data sobre los datos de los usuarios recogidos en las redes sociales y otras fuentes impulsan las estrategias de ventas y marketing en muchos sectores. Como es habitual, más datos implican una mayor capacidad de DRAM para almacenar todos esos datos para su rápido análisis.

Qué unidad de memoria tiene el menor tiempo de acceso

El coste medio de entrega por bit divide el coste de cuantos bits se han modulado realmente a través de una red o componente de una red durante un periodo de tiempo entre el total de los gastos operativos y de capital amortizados asociados a la red o componente durante el mismo periodo de tiempo, para producir un coste medio por la entrega de cada bit de datos transmitido[2]. En su uso típico, los APBDC de los enlaces o componentes individuales de una red en funcionamiento se comparan con el APBDC del conjunto, con el fin de evaluar la eficiencia de los componentes y hacer un seguimiento de las mejoras en la eficiencia[3][4].
Un APBDC alto puede reflejar un coste elevado o una baja utilización, cualquiera de los cuales es perjudicial para el precio/rendimiento de la red en su conjunto, e indica un área que necesita atención y mejora. Además de la reducción de los costes de los componentes existentes de la red, el uso de componentes ya amortizados o menos caros y la transmisión de mayores volúmenes de tráfico, los cambios fundamentales o “revolucionarios” en la topología de una red, como la sustitución del ancho de banda derivado del peering por el tránsito comprado, suelen tener un impacto sustancial en la APBDC de una red[5].

Entradas relacionadas

Esta web utiliza cookies propias para su correcto funcionamiento. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Más información
Privacidad