Informática.
Tecnología innovadora de subprocesos múltiples simultáneos y heterogéneos para acelerar la computación
Securities.io mantiene rigurosos estándares editoriales y podría recibir una compensación por los enlaces revisados. No somos asesores de inversiones registrados y esto no constituye asesoramiento de inversión. Consulte nuestra divulgación de afiliados.

Aunque todos los dispositivos nuevos de gigantes tecnológicos como Apple y Google presentan mejoras incrementales (un aumento de un solo dígito en la duración de la batería, un nanómetro menos para el procesador, que aún debe producir un rendimiento óptimo para los fabricantes, o unos pocos megapíxeles adicionales), la pregunta Surge la siguiente pregunta: ¿Son realmente suficientes mejoras tan modestas? ¿Agregar más hardware es la solución?
No, según el profesor asociado Hung-Wei Tseng del Departamento de Ingeniería Eléctrica e Informática de la Universidad de California, Riverside (UCR). Él dice:
“No necesitas agregar nuevos procesadores porque ya los tienes”.
El profesor Tseng, junto con un equipo de investigadores, desarrolló un nuevo marco de software para procesamiento paralelo llamado multiproceso simultáneo y heterogéneo (SHMT). Según los resultados iniciales, SHMT está preparado para mejorar significativamente la velocidad de procesamiento y reducir el consumo de energía aprovechando las capacidades latentes de los procesadores actuales en computadoras personales, teléfonos celulares y otros dispositivos.
Considerado como “innovador” por la comunidad tecnológica, SHMT tiene como objetivo eliminar los cuellos de botella en el flujo de datos y facilitar la colaboración fluida de muchas unidades de procesamiento. Este avance puede afectar no sólo a la electrónica personal sino también a los centros de datos y otros tipos de computación paralela masiva.
Rompiendo el cuello de botella

Antes de comenzar a explorar todo el esplendor de lo que se puede lograr con subprocesos múltiples simultáneos y heterogéneos, comprendamos primero las limitaciones de los sistemas informáticos actuales.
En la mayoría de los dispositivos, varios componentes, como la unidad central de procesamiento (CPU), la unidad de procesamiento de gráficos (GPU) y la unidad de procesamiento tensorial (TPU), manejan la información por separado. Los datos se transfieren de una unidad de procesamiento a otra, lo que a menudo genera "cuellos de botella" que obstaculizan el rendimiento general del sistema.
Esto se ve agravado por los modelos de programación tradicionales, que suelen delegar tareas a un solo tipo de procesador, dejando así otros recursos inactivos y subutilizados. En consonancia con estas observaciones, el artículo de investigación «Multihilo simultáneo y heterogéneo» de Kuan-Chieh Hsu y Hung-Wei Tseng afirma:
"Los modelos de programación arraigados se centran en utilizar sólo las unidades de procesamiento más eficientes para cada región de código, subutilizando la potencia de procesamiento dentro de computadoras heterogéneas".
SHMT se desvía de este enfoque al explotar la diversidad de múltiples componentes dentro de un sistema informático. Este concepto se conoce como heterogeneidad. Al dividir las funciones computacionales y distribuirlas entre las unidades de procesamiento disponibles, SHMT facilita un verdadero procesamiento paralelo.
Este enfoque de descomponer funciones computacionales y distribuirlas entre varias unidades de procesamiento maximiza la utilización de los recursos disponibles para mejorar el rendimiento y ahorrar energía. El artículo de investigación analiza aún más las deficiencias de los modelos de programación tradicionales al afirmar que "sólo pueden delegar una región de código exclusivamente a un tipo de procesador, dejando otros recursos informáticos inactivos sin contribuir a la función actual".
SHMT, por otro lado, busca superar estas limitaciones aprovechando las habilidades específicas de cada unidad de procesamiento y su trabajo colaborativo en una región de código compartida. Los autores también señalan que la tecnología informática contemporánea es innegablemente heterogénea, ya que todas las plataformas informáticas integran múltiples tipos de unidades de procesamiento y aceleradores de hardware. Esto requiere un modelo de programación que pueda aprovechar eficazmente la potencia de estos diversos componentes (que es precisamente lo que SHMT pretende lograr).
Por lo tanto, SHMT allana el camino para una computación más rápida y eficiente al abordar los cuellos de botella en la computación ahora tradicional.
¿Cómo funciona la tecnología de subprocesos múltiples simultáneos y heterogéneos?
Como es evidente, gestionar y distribuir las actividades informáticas de manera eficiente entre diferentes componentes de hardware es el principio básico detrás de SHMT.
El marco incluye una colección de operaciones virtuales (VOP) para facilitar la descarga de tareas desde una aplicación de CPU a una dispositivo de hardware virtualSegún el estudio, «Un conjunto de operaciones virtuales (VOP) permite que un programa de CPU «transfiera» una función a un dispositivo de hardware virtual». Estas VOP median la comunicación y la delegación de tareas creando una barrera entre el programa y el hardware.
Un sistema de ejecución optimiza el rendimiento evaluando las capacidades de cada recurso de hardware y tomando decisiones de programación inteligentes mientras se ejecuta la aplicación. Según el estudio, «Durante la ejecución del programa, un sistema de ejecución controla el hardware virtual multihilo simultáneo y heterogéneo, midiendo la capacidad del recurso de hardware para tomar decisiones de programación». Para maximizar la eficiencia de los recursos y adaptarse a las necesidades específicas del trabajo, SHMT evalúa dinámicamente las capacidades del hardware.
El sistema de ejecución divide los VOP en operaciones de alto nivel (HLOP) para distribuirlas a varias colas de tareas de hardware. Según el estudio, "el sistema de ejecución divide los VOP en una o más operaciones de alto nivel (HLOP) para utilizar simultáneamente múltiples recursos de hardware". La descomposición de VOP en HLOP logra un control granular sobre la asignación de trabajos y la utilización máxima de cada unidad de procesamiento.
La política de programación de SHMT utiliza un enfoque de robo de trabajo con conciencia de calidad (QAWS), lo que garantiza un uso eficiente de los recursos y cargas de trabajo variadas. Según el estudio, «SHMT utiliza una política de programación de robo de trabajo con conciencia de calidad (QAWS) que no acapara recursos, sino que ayuda a mantener el control de calidad y el equilibrio de la carga de trabajo». Además de distribuir el trabajo eficazmente en todo el sistema, este enfoque impide que cualquier unidad de procesamiento acapare recursos.
Si SHMT quiere maximizar el rendimiento sin sacrificar la calidad, necesita la política de programación QAWS. El estudio afirma que "SHMT debe garantizar el resultado sin incurrir en gastos generales significativos". Para garantizar que el resultado de unidades de procesamiento heterogéneas sea preciso y consistente, SHMT integra técnicas de control de calidad en la programación.
La capacidad de SHMT para hacer uso de las capacidades específicas de cada pieza de hardware es una gran ventaja. Como señala el estudio, "SHMT puede dividir el cálculo de la misma función en múltiples tipos de recursos informáticos y, mientras tanto, explota tipos heterogéneos de paralelismo". SHMT mejora enormemente el rendimiento porque utiliza el paralelismo en sistemas heterogéneos para ejecutar trabajos simultáneamente en varias unidades de procesador.
Otro aspecto de SHMT que se supone que es flexible y adaptable es el sistema de ejecución. Y según el estudio, "como los HLOP son independientes del hardware, el sistema de ejecución puede ajustar la asignación de tareas según sea necesario". Debido a su adaptabilidad, SHMT puede reaccionar sobre la marcha a los cambios en la disponibilidad del hardware o las demandas de carga de trabajo, manteniendo el sistema funcionando con la máxima eficiencia y rendimiento.
En general, el estudio establece todos los pasos necesarios para comprender cómo opera SHMT, llamando la atención sobre las partes y procesos críticos que le permiten lograr una eficiencia y eficacia notables en entornos informáticos heterogéneos. Gracias a SHMT, que utiliza VOP, HLOP y la estrategia de programación QAWS para revolucionar el procesamiento paralelo, está a punto de nacer una nueva era de informática eficiente y potente.
Hallazgos positivos de las pruebas iniciales del prototipo
Para demostrar la eficacia de la SHMT, los investigadores de la UCR realizaron rigurosas pruebas en un prototipo que imitaba las capacidades de un centro de datos empleando componentes estándar en los teléfonos móviles actuales. El prototipo incluía una TPU de Google Edge integrada a través de la ranura M.2 Key E del sistema, un módulo NVIDIA Jetson Nano con un procesador ARM Cortex-A57 de cuatro núcleos y 128 núcleos de GPU con arquitectura Maxwell.
Para evaluar el rendimiento del marco SHMT en diferentes circunstancias de carga de trabajo, los investigadores sometieron el prototipo a una serie de programas de referencia. El resultado fue impresionante: la estrategia QAWS de alto rendimiento no solo redujo el consumo de energía en un 51 %, sino que también multiplicó por 1.95 el rendimiento de procesamiento en comparación con la técnica de referencia.

Los resultados subrayan el potencial de SHMT para mejorar considerablemente el rendimiento de procesamiento y la eficiencia energética en una amplia gama de dispositivos y aplicaciones de software. SHMT demostró que es posible aprovechar al máximo la configuración actual optimizando todos sus recursos sin tener que invertir una fortuna en nuevo hardware.
Con la necesidad cada vez mayor de una computación más rápida y eficiente, avances como el multihilo simultáneo y heterogéneo serán cada vez más cruciales para dar forma a la trayectoria futura de la tecnología. El trabajo del equipo de investigación de la UCR deja en claro que encontrar soluciones informáticas de alto rendimiento y de largo plazo capaces de adaptarse a las demandas dinámicas de nuestro mundo digital nunca ha sido tan fácil como con el trabajo del equipo de investigación de la UCR.
Implicaciones y direcciones futuras del subproceso múltiple simultáneo y heterogéneo
La creación y prueba de SHMT representan un cambio profundo en el futuro de la informática. Tiene el potencial de revolucionar el diseño y uso de dispositivos informáticos en varias aplicaciones al ofrecer aumentos sustanciales de rendimiento y ahorros de energía con el hardware existente.
A medida que SHMT obtenga una adopción más amplia, los consumidores podrán evitar costosas actualizaciones de hardware y disfrutar de dispositivos móviles, tabletas, computadoras portátiles y de escritorio más rápidos y con mayor capacidad de respuesta. Debido a esto, pronto más personas podrán comprar y tener acceso a computadoras de alto rendimiento, lo que ayudará a cerrar la brecha digital.
Los centros de datos y otros sistemas informáticos a gran escala también podrían considerar la SHMT una herramienta indispensable para reducir costos y el consumo energético sin sacrificar el rendimiento. Además, las innovaciones que promueven la eficiencia energética y la sostenibilidad, como la SHMT, cobrarán importancia a medida que aumente la preocupación por los efectos ambientales de la tecnología.
A pesar de sus mejores esfuerzos, el equipo de investigación de la UCR reconoce que todavía hay obstáculos por superar y oportunidades para más investigación y avance en el futuro. Los ingenieros de software y los fabricantes de hardware deberán trabajar en estrecha colaboración para implementar SHMT a gran escala. Esto garantizará que la tecnología funcione bien en todos los dispositivos y plataformas. Sin embargo, se requiere más investigación para determinar qué aplicaciones y cargas de trabajo son las más adecuadas para utilizar esta tecnología revolucionaria.
A pesar de estos obstáculos, tanto académicos como empresariales han tomado nota de los prometedores resultados iniciales de SHMT. La posibilidad de que esta tecnología pionera transforme la industria informática se vuelve cada vez más atractiva a medida que avanzan los estudios y se establecen colaboraciones.
Como muchas otras ideas brillantes, el multihilo simultáneo y heterogéneo parece ser producto del sentido común, pero el diablo está en los detalles. Si bien la idea de un caché compartido entre CPU y GPU es intrigante, es probable que requiera una revisión completa de la arquitectura del hardware.
Justificaría alejarse de la arquitectura x86-64 actual, y dicho diseño requeriría el desarrollo de una nueva arquitectura de procesador con una caché L3 o L4 compartida. Esto, a su vez, aumentaría la complejidad de la CPU y potencialmente anularía cualquier beneficio obtenido del caché compartido.
Además de eso, la memoria caché suele ser mucho más pequeña en comparación con la RAM del sistema y no es adecuada para aplicaciones de GPU, que requieren grandes cantidades de memoria de gran ancho de banda. Sin embargo, desarrollos como memoria universal puede abordar estas preocupaciones. A medida que continúe la investigación sobre SHMT, será emocionante ver cómo esta tecnología innovadora evoluciona e impacta el futuro del procesamiento paralelo y la computación heterogénea.










