Cómo construir una cadena de bloques de alto rendimiento

Avanzado4/27/2025, 6:08:07 AM
Este artículo, escrito por Aptos Labs, explica sistemáticamente cómo construir cadenas de bloques de alto rendimiento. Se centra en la evolución de la arquitectura de canalización en sistemas de cadena de bloques, desde el procesamiento secuencial tradicional hasta el diseño paralelo de Aptos, y finalmente hasta el modelo de latencia óptima de Zaptos, mostrando los caminos tecnológicos clave y las prácticas de ingeniería para la optimización del rendimiento de las cadenas de bloques.


Fuente: Aptos Labs

Desde la llegada de la tecnología informática, los ingenieros e investigadores han explorado continuamente cómo llevar los recursos informáticos a sus límites de rendimiento, esforzándose por maximizar la eficiencia y minimizar la latencia de las tareas computacionales. El alto rendimiento y la baja latencia siempre han sido los dos pilares que han dado forma al desarrollo de la ciencia de la computación, influyendo en una amplia gama de campos, incluidos la CPU, FPGA, sistemas de bases de datos, así como los avances recientes en infraestructura de inteligencia artificial y sistemas de cadena de bloques. En la búsqueda del alto rendimiento, la tecnología de canalización se ha convertido en una herramienta indispensable. Desde su introducción en 1964 con el IBM System/360 [1], ha sido el núcleo del diseño de sistemas de alto rendimiento, impulsando discusiones clave e innovaciones en el campo.

La tecnología de canalización no solo se aplica en hardware, sino que también se utiliza ampliamente en bases de datos. Por ejemplo, Jim Gray introdujo el método paralelo de canalización en su trabajo Sistemas de bases de datos de alto rendimiento [2]. Este método descompone consultas de bases de datos complejas en múltiples etapas y las ejecuta de manera concurrente, mejorando así la eficiencia y el rendimiento. La tecnología de canalización también es crucial en la inteligencia artificial, especialmente en el ampliamente utilizado marco de aprendizaje profundo TensorFlow. Utiliza el paralelismo de canalización de datos para manejar la preprocesamiento y carga de datos, asegurando un flujo de datos suave para el entrenamiento y la inferencia, lo que hace que los flujos de trabajo de IA sean más rápidos y eficientes [3].

La cadena de bloques no es una excepción. Su funcionalidad principal es similar a la de las bases de datos, procesando transacciones y actualizando estados, pero con el desafío añadido del consenso tolerante a fallas bizantinas. Mejorar la capacidad de procesamiento de la cadena de bloques (transacciones por segundo) y reducir la latencia (tiempo hasta la confirmación final) radica en optimizar las interacciones entre diferentes etapas: clasificación, ejecución, envío y sincronización de transacciones, bajo cargas elevadas. Este desafío es particularmente crítico en escenarios de alto rendimiento, ya que los diseños tradicionales luchan por mantener una baja latencia.

Para explorar estas ideas, volvamos a una analogía familiar: la fábrica automotriz. Comprender cómo la línea de ensamblaje revolucionó la fabricación nos ayuda a apreciar la evolución de las tuberías de bloques y por qué diseños de próxima generación como Zaptos[8] están llevando el rendimiento de la cadena de bloques a nuevas alturas.

Desde la fábrica de automóviles a la cadena de bloques

Imagina que eres el propietario de una fábrica de automóviles con dos objetivos principales:

· Maximizar el rendimiento: Ensamblar la mayor cantidad de autos posible cada día.

· Minimize latency: Acortar el tiempo que lleva construir cada coche.

Ahora, imagina tres tipos de fábricas:

Fábrica Simple

En una fábrica sencilla, un grupo de trabajadores versátiles ensambla un automóvil paso a paso. Un trabajador ensambla el motor, el siguiente instala las ruedas, y así sucesivamente, produciendo un automóvil a la vez.

¿Cuál es el problema? Algunos trabajadores a menudo están inactivos, y la eficiencia de producción en general es baja porque nadie está trabajando en diferentes partes del mismo coche simultáneamente.

Fábrica de Ford

¡Entra en la línea de ensamblaje de Ford [4]! Aquí, cada trabajador se enfoca en una sola tarea. El coche se mueve a lo largo de una cinta transportadora y, a medida que pasa, cada trabajador especializado añade sus propias piezas.

¿Qué pasa? Varios autos se encuentran en diferentes etapas de ensamblaje simultáneamente, y todos los trabajadores están ocupados. El rendimiento aumenta significativamente, pero cada auto aún tiene que pasar por cada trabajador uno por uno, lo que significa que el tiempo de demora por auto permanece sin cambios.

Fábrica mágica

Ahora, ¡imagina una fábrica mágica donde todos los trabajadores pueden trabajar en el mismo automóvil al mismo tiempo! ¡No es necesario mover el automóvil de una estación a la siguiente; cada parte del automóvil se está construyendo simultáneamente.

¿Cuál es el resultado? Los autos se ensamblan a una velocidad récord, con cada paso ocurriendo sincronizado. Este es el escenario ideal para resolver tanto problemas de rendimiento como de latencia.

Ahora, con la discusión de la fábrica de automóviles resuelta, ¿qué hay de la cadena de bloques? Resulta que diseñar una cadena de bloques de alto rendimiento no es tan diferente de optimizar una línea de ensamblaje.

Cadena de bloques como una fábrica de automóviles

En la cadena de bloques, procesar un bloque es similar a ensamblar un coche. La analogía es la siguiente:

· Trabajadores = Recursos del validador

· Cars = Un bloque

· Tareas de ensamblaje = Etapas como consenso, ejecución y presentación

Así como una fábrica simple procesa un automóvil a la vez, si una cadena de bloques procesa un bloque a la vez, conduce a la subutilización de recursos. En contraste, los diseños modernos de cadenas de bloques tienen como objetivo funcionar como la línea de ensamblaje de Ford, manejando diferentes etapas de múltiples bloques simultáneamente. Aquí es donde entra en juego la tecnología de canalización.

Evolución de la Cadena de bloques Pipeline

Arquitectura Tradicional: Cadena de bloques Secuencial

Imagina una cadena de bloques que procesa bloques de forma secuencial. Los validadores necesitan:

  1. Recibir la propuesta de bloqueo.

  2. Ejecutar el bloque para actualizar el estado de la cadena de bloques.

  3. Continuar consenso sobre ese estado.

  4. Persistir el estado en la base de datos.

  5. Comenzar el consenso para el próximo bloque.

¿Cuál es el problema?

· La ejecución y presentación están en el camino crítico del proceso de consenso.

· Cada instancia de consenso debe esperar a que la anterior termine antes de comenzar.

Esta configuración es como una fábrica de la era previa a Ford: los trabajadores (recursos) a menudo están inactivos cuando se centran en un bloque (coche) a la vez. Desafortunadamente, muchas cadenas de bloques existentes todavía pertenecen a esta categoría, lo que resulta en baja capacidad de procesamiento y alta latencia.

Aptos: Rendimiento paralelizado

Diem introdujo una arquitectura de canalización que desacopla la ejecución y presentación de la fase de consenso, al tiempo que adopta un diseño de canalización para el propio consenso.

· Ejecución y envío asincrónicos [5]: Los validadores primero llegan a un consenso sobre un bloque, luego ejecutan el bloque basándose en el estado del bloque padre. Una vez firmado por el número requerido de validadores, el estado se persiste en el almacenamiento.

· Consenso de Pipeline (Jolteon[6]): Las nuevas instancias de consenso pueden comenzar antes de que la anterior se complete, al igual que una línea de ensamblaje en movimiento.

Esto aumenta el rendimiento al permitir que diferentes bloques estén en diferentes etapas simultáneamente, reduciendo significativamente el tiempo de bloque a solo dos retrasos de mensajes. Sin embargo, el diseño basado en líderes de Jolteon podría causar cuellos de botella, ya que el líder se sobrecarga durante la distribución de transacciones.

Aptos optimizó aún más el pipeline con Quorum Store[7], un mecanismo que desacopla la distribución de datos del consenso. Quorum Store ya no depende de un líder único para transmitir grandes bloques de datos en el protocolo de consenso, sino que separa la distribución de datos del ordenamiento de metadatos, permitiendo a los validadores distribuir datos de forma asincrónica y concurrente. Este diseño utiliza el ancho de banda total de todos los validadores, eliminando efectivamente el cuello de botella del líder en el consenso.


Ilustración: Cómo Quorum Store equilibra la utilización de recursos basándose en el protocolo de consenso basado en líderes.

Con esto, la cadena de bloques de Aptos ha creado la “fábrica de Ford” de la cadena de bloques. Al igual que la línea de ensamblaje de Ford revolucionó la producción de automóviles—diferentes etapas de diferentes autos que ocurren simultáneamente—Aptos procesa diferentes etapas de diferentes bloques de manera concurrente. Los recursos de cada validador se utilizan completamente, asegurando que ninguna parte del proceso quede esperando. Esta orquestación inteligente resulta en un sistema de alto rendimiento, haciendo de Aptos una plataforma potente para procesar transacciones de cadena de bloques de manera eficiente y escalable.


Ilustración: Procesamiento en serie de bloques en la cadena de bloques de Aptos. Los validadores pueden organizar en serie diferentes etapas de bloques consecutivos para maximizar la utilización de recursos y aumentar el rendimiento.

Si bien la capacidad de procesamiento es crucial, la latencia de extremo a extremo —el tiempo desde la presentación de la transacción hasta la confirmación final— es igualmente importante. Para aplicaciones como pagos, finanzas descentralizadas (DeFi) y juegos, cada milisegundo cuenta. Muchos usuarios han experimentado retrasos durante eventos de alta actividad porque cada transacción debe pasar por una serie de etapas de forma secuencial: comunicación cliente - nodo completo - validación del validador, consenso, ejecución, validación de estado, presentación y sincronización del nodo completo. Bajo una carga alta, etapas como la ejecución y la sincronización del nodo completo añaden más retraso.


Ilustración: Arquitectura de tuberías de la cadena de bloques Aptos. El diagrama muestra al cliente Ci, al nodo completo Fi y al validador Vi. Cada cuadro representa una etapa por la que pasa un bloque de transacciones en la cadena de bloques de izquierda a derecha. La tubería consta de cinco etapas: consenso (que incluye distribución y ordenación), ejecución, validación, envío y sincronización del nodo completo.

Es como la fábrica de Ford: aunque la línea de ensamblaje maximiza el rendimiento general, cada auto aún tiene que pasar por cada trabajador secuencialmente, por lo que el tiempo de finalización es más largo. Para impulsar verdaderamente el rendimiento de la cadena de bloques a sus límites, necesitamos construir una “fábrica mágica”—donde estas etapas se ejecuten en paralelo.

Zaptos: Avanzando hacia la latencia óptima de la Cadena de bloques

Zaptos[8] reduce la latencia a través de tres optimizaciones clave sin sacrificar el rendimiento.

· Ejecución Optimista: Reduce la latencia del pipeline al comenzar la ejecución inmediatamente después de recibir una propuesta de bloque. Los validadores añaden inmediatamente el bloque al pipeline y especulan sobre la ejecución después de que el bloque padre se completa. Los nodos completos también realizan una ejecución optimista al recibir la propuesta del validador para verificar la prueba de estado.

· Presentación optimista: Escribe el estado en el almacenamiento inmediatamente después de la ejecución del bloque, incluso antes de la validación del estado. Cuando el validador certifica finalmente el estado, solo se necesitan actualizaciones mínimas para completar la presentación. Si un bloque no se ordena en última instancia, el estado presentado de forma optimista se deshace para mantener la consistencia.

· Validación rápida: Los validadores comienzan la validación del estado de los bloques ejecutados en paralelo durante la ronda de consenso final, sin esperar a que se complete el consenso. Esta optimización suele reducir la latencia del pipeline en una ronda en escenarios comunes.


Ilustración: La arquitectura de canalización paralela de Zaptos. Todos los etapas excepto el consenso están efectivamente ocultos dentro de la etapa de consenso, reduciendo la latencia de extremo a extremo.

A través de estas optimizaciones, Zaptos oculta eficazmente la latencia de otras etapas del canal dentro de la etapa de consenso. Como resultado, si la cadena de bloques adopta un protocolo de consenso con latencia óptima, la latencia general de la cadena de bloques también puede alcanzar su óptimo!

El hablar vacío es inútil; los datos hablan por sí mismos

Evaluamos el rendimiento de extremo a extremo de Zaptos a través de experimentos geográficamente distribuidos, utilizando Aptos como referencia de alto rendimiento. Para más detalles, consulte el artículo [8].

En Google Cloud, simulamos una red global descentralizada que consta de 100 validadores y 30 nodos completos, distribuidos en 10 regiones, utilizando máquinas de grado comercial similares a las utilizadas en la implementación de Aptos.

Throughput-Latencia


Ilustración: Comparación de rendimiento de las cadenas de bloques Zaptos y Aptos.

El gráfico anterior compara la relación entre la latencia de extremo a extremo y el rendimiento para ambos sistemas. Ambos experimentan un aumento gradual en la latencia a medida que la carga aumenta, con picos bruscos en capacidad máxima. Sin embargo, Zaptos muestra consistentemente una latencia más estable antes de alcanzar el rendimiento máximo, reduciendo la latencia en 160 milisegundos bajo carga baja y más de 500 milisegundos bajo carga alta.

Impresionantemente, Zaptos logra una latencia de sub-segundo a 20k TPS en un entorno de mainnet de grado de producción, este avance hace que las aplicaciones del mundo real que requieren velocidad y escalabilidad sean una realidad.

Desglose de latencia


Ilustración: Desglose de latencia de la Cadena de Bloques Aptos.


Ilustración: Desglose de latencia de Zaptos.

El diagrama de desglose de latencia proporciona una vista detallada de la duración de cada etapa del proceso para validadores y nodos completos. Las ideas clave incluyen:

· Hasta 10k TPS: La latencia general de Zaptos es casi idéntica a su latencia de consenso, ya que las etapas de ejecución optimista, validación y envío optimista están efectivamente "ocultas" dentro de la etapa de consenso.

· Por encima de 10k TPS: A medida que aumenta el tiempo de ejecución optimista y sincronización de nodos completos, las etapas no consensuadas se vuelven más significativas. No obstante, Zaptos reduce significativamente la latencia general al superponer la mayoría de las etapas. Por ejemplo, a 20k TPS, la latencia total base es de 1.32 segundos (consenso 0.68 segundos, otras etapas 0.64 segundos), mientras que Zaptos logra 0.78 segundos (consenso 0.67 segundos, otras etapas 0.11 segundos).

Conclusión

La evolución de la arquitectura de la cadena de bloques es similar a la transformación en la fabricación, desde flujos de trabajo secuenciales simples hasta líneas de ensamblaje altamente paralelizadas. El enfoque de pipeline de Aptos aumenta significativamente el rendimiento, mientras que Zaptos lo lleva más allá al reducir la latencia a niveles sub-segundo, manteniendo un alto TPS. Así como las arquitecturas informáticas modernas aprovechan el paralelismo para maximizar la eficiencia, las cadenas de bloques deben optimizar continuamente sus diseños para eliminar la latencia innecesaria. Al optimizar completamente el pipeline de la cadena de bloques para la menor latencia, Zaptos allana el camino para aplicaciones de cadena de bloques del mundo real que requieren tanto velocidad como escalabilidad.

Descargo de responsabilidad:

  1. Este artículo es reimpreso de [BloquearBeats], y los derechos de autor pertenecen al autor original [Aptos Labs]. If you have any objections to the reprint, please contact the Gate Learnequipo, y el equipo lo manejará tan pronto como sea posible de acuerdo con los procedimientos relevantes.

  2. Descargo de responsabilidad: Las opiniones expresadas en este artículo representan únicamente las opiniones personales del autor y no constituyen ningún consejo de inversión.

  3. Otras versiones del artículo en otros idiomas son traducidas por el equipo de Gate Learn. El artículo traducido no puede ser copiado, distribuido o plagiado sin mencionar Gate.io.

Cómo construir una cadena de bloques de alto rendimiento

Avanzado4/27/2025, 6:08:07 AM
Este artículo, escrito por Aptos Labs, explica sistemáticamente cómo construir cadenas de bloques de alto rendimiento. Se centra en la evolución de la arquitectura de canalización en sistemas de cadena de bloques, desde el procesamiento secuencial tradicional hasta el diseño paralelo de Aptos, y finalmente hasta el modelo de latencia óptima de Zaptos, mostrando los caminos tecnológicos clave y las prácticas de ingeniería para la optimización del rendimiento de las cadenas de bloques.


Fuente: Aptos Labs

Desde la llegada de la tecnología informática, los ingenieros e investigadores han explorado continuamente cómo llevar los recursos informáticos a sus límites de rendimiento, esforzándose por maximizar la eficiencia y minimizar la latencia de las tareas computacionales. El alto rendimiento y la baja latencia siempre han sido los dos pilares que han dado forma al desarrollo de la ciencia de la computación, influyendo en una amplia gama de campos, incluidos la CPU, FPGA, sistemas de bases de datos, así como los avances recientes en infraestructura de inteligencia artificial y sistemas de cadena de bloques. En la búsqueda del alto rendimiento, la tecnología de canalización se ha convertido en una herramienta indispensable. Desde su introducción en 1964 con el IBM System/360 [1], ha sido el núcleo del diseño de sistemas de alto rendimiento, impulsando discusiones clave e innovaciones en el campo.

La tecnología de canalización no solo se aplica en hardware, sino que también se utiliza ampliamente en bases de datos. Por ejemplo, Jim Gray introdujo el método paralelo de canalización en su trabajo Sistemas de bases de datos de alto rendimiento [2]. Este método descompone consultas de bases de datos complejas en múltiples etapas y las ejecuta de manera concurrente, mejorando así la eficiencia y el rendimiento. La tecnología de canalización también es crucial en la inteligencia artificial, especialmente en el ampliamente utilizado marco de aprendizaje profundo TensorFlow. Utiliza el paralelismo de canalización de datos para manejar la preprocesamiento y carga de datos, asegurando un flujo de datos suave para el entrenamiento y la inferencia, lo que hace que los flujos de trabajo de IA sean más rápidos y eficientes [3].

La cadena de bloques no es una excepción. Su funcionalidad principal es similar a la de las bases de datos, procesando transacciones y actualizando estados, pero con el desafío añadido del consenso tolerante a fallas bizantinas. Mejorar la capacidad de procesamiento de la cadena de bloques (transacciones por segundo) y reducir la latencia (tiempo hasta la confirmación final) radica en optimizar las interacciones entre diferentes etapas: clasificación, ejecución, envío y sincronización de transacciones, bajo cargas elevadas. Este desafío es particularmente crítico en escenarios de alto rendimiento, ya que los diseños tradicionales luchan por mantener una baja latencia.

Para explorar estas ideas, volvamos a una analogía familiar: la fábrica automotriz. Comprender cómo la línea de ensamblaje revolucionó la fabricación nos ayuda a apreciar la evolución de las tuberías de bloques y por qué diseños de próxima generación como Zaptos[8] están llevando el rendimiento de la cadena de bloques a nuevas alturas.

Desde la fábrica de automóviles a la cadena de bloques

Imagina que eres el propietario de una fábrica de automóviles con dos objetivos principales:

· Maximizar el rendimiento: Ensamblar la mayor cantidad de autos posible cada día.

· Minimize latency: Acortar el tiempo que lleva construir cada coche.

Ahora, imagina tres tipos de fábricas:

Fábrica Simple

En una fábrica sencilla, un grupo de trabajadores versátiles ensambla un automóvil paso a paso. Un trabajador ensambla el motor, el siguiente instala las ruedas, y así sucesivamente, produciendo un automóvil a la vez.

¿Cuál es el problema? Algunos trabajadores a menudo están inactivos, y la eficiencia de producción en general es baja porque nadie está trabajando en diferentes partes del mismo coche simultáneamente.

Fábrica de Ford

¡Entra en la línea de ensamblaje de Ford [4]! Aquí, cada trabajador se enfoca en una sola tarea. El coche se mueve a lo largo de una cinta transportadora y, a medida que pasa, cada trabajador especializado añade sus propias piezas.

¿Qué pasa? Varios autos se encuentran en diferentes etapas de ensamblaje simultáneamente, y todos los trabajadores están ocupados. El rendimiento aumenta significativamente, pero cada auto aún tiene que pasar por cada trabajador uno por uno, lo que significa que el tiempo de demora por auto permanece sin cambios.

Fábrica mágica

Ahora, ¡imagina una fábrica mágica donde todos los trabajadores pueden trabajar en el mismo automóvil al mismo tiempo! ¡No es necesario mover el automóvil de una estación a la siguiente; cada parte del automóvil se está construyendo simultáneamente.

¿Cuál es el resultado? Los autos se ensamblan a una velocidad récord, con cada paso ocurriendo sincronizado. Este es el escenario ideal para resolver tanto problemas de rendimiento como de latencia.

Ahora, con la discusión de la fábrica de automóviles resuelta, ¿qué hay de la cadena de bloques? Resulta que diseñar una cadena de bloques de alto rendimiento no es tan diferente de optimizar una línea de ensamblaje.

Cadena de bloques como una fábrica de automóviles

En la cadena de bloques, procesar un bloque es similar a ensamblar un coche. La analogía es la siguiente:

· Trabajadores = Recursos del validador

· Cars = Un bloque

· Tareas de ensamblaje = Etapas como consenso, ejecución y presentación

Así como una fábrica simple procesa un automóvil a la vez, si una cadena de bloques procesa un bloque a la vez, conduce a la subutilización de recursos. En contraste, los diseños modernos de cadenas de bloques tienen como objetivo funcionar como la línea de ensamblaje de Ford, manejando diferentes etapas de múltiples bloques simultáneamente. Aquí es donde entra en juego la tecnología de canalización.

Evolución de la Cadena de bloques Pipeline

Arquitectura Tradicional: Cadena de bloques Secuencial

Imagina una cadena de bloques que procesa bloques de forma secuencial. Los validadores necesitan:

  1. Recibir la propuesta de bloqueo.

  2. Ejecutar el bloque para actualizar el estado de la cadena de bloques.

  3. Continuar consenso sobre ese estado.

  4. Persistir el estado en la base de datos.

  5. Comenzar el consenso para el próximo bloque.

¿Cuál es el problema?

· La ejecución y presentación están en el camino crítico del proceso de consenso.

· Cada instancia de consenso debe esperar a que la anterior termine antes de comenzar.

Esta configuración es como una fábrica de la era previa a Ford: los trabajadores (recursos) a menudo están inactivos cuando se centran en un bloque (coche) a la vez. Desafortunadamente, muchas cadenas de bloques existentes todavía pertenecen a esta categoría, lo que resulta en baja capacidad de procesamiento y alta latencia.

Aptos: Rendimiento paralelizado

Diem introdujo una arquitectura de canalización que desacopla la ejecución y presentación de la fase de consenso, al tiempo que adopta un diseño de canalización para el propio consenso.

· Ejecución y envío asincrónicos [5]: Los validadores primero llegan a un consenso sobre un bloque, luego ejecutan el bloque basándose en el estado del bloque padre. Una vez firmado por el número requerido de validadores, el estado se persiste en el almacenamiento.

· Consenso de Pipeline (Jolteon[6]): Las nuevas instancias de consenso pueden comenzar antes de que la anterior se complete, al igual que una línea de ensamblaje en movimiento.

Esto aumenta el rendimiento al permitir que diferentes bloques estén en diferentes etapas simultáneamente, reduciendo significativamente el tiempo de bloque a solo dos retrasos de mensajes. Sin embargo, el diseño basado en líderes de Jolteon podría causar cuellos de botella, ya que el líder se sobrecarga durante la distribución de transacciones.

Aptos optimizó aún más el pipeline con Quorum Store[7], un mecanismo que desacopla la distribución de datos del consenso. Quorum Store ya no depende de un líder único para transmitir grandes bloques de datos en el protocolo de consenso, sino que separa la distribución de datos del ordenamiento de metadatos, permitiendo a los validadores distribuir datos de forma asincrónica y concurrente. Este diseño utiliza el ancho de banda total de todos los validadores, eliminando efectivamente el cuello de botella del líder en el consenso.


Ilustración: Cómo Quorum Store equilibra la utilización de recursos basándose en el protocolo de consenso basado en líderes.

Con esto, la cadena de bloques de Aptos ha creado la “fábrica de Ford” de la cadena de bloques. Al igual que la línea de ensamblaje de Ford revolucionó la producción de automóviles—diferentes etapas de diferentes autos que ocurren simultáneamente—Aptos procesa diferentes etapas de diferentes bloques de manera concurrente. Los recursos de cada validador se utilizan completamente, asegurando que ninguna parte del proceso quede esperando. Esta orquestación inteligente resulta en un sistema de alto rendimiento, haciendo de Aptos una plataforma potente para procesar transacciones de cadena de bloques de manera eficiente y escalable.


Ilustración: Procesamiento en serie de bloques en la cadena de bloques de Aptos. Los validadores pueden organizar en serie diferentes etapas de bloques consecutivos para maximizar la utilización de recursos y aumentar el rendimiento.

Si bien la capacidad de procesamiento es crucial, la latencia de extremo a extremo —el tiempo desde la presentación de la transacción hasta la confirmación final— es igualmente importante. Para aplicaciones como pagos, finanzas descentralizadas (DeFi) y juegos, cada milisegundo cuenta. Muchos usuarios han experimentado retrasos durante eventos de alta actividad porque cada transacción debe pasar por una serie de etapas de forma secuencial: comunicación cliente - nodo completo - validación del validador, consenso, ejecución, validación de estado, presentación y sincronización del nodo completo. Bajo una carga alta, etapas como la ejecución y la sincronización del nodo completo añaden más retraso.


Ilustración: Arquitectura de tuberías de la cadena de bloques Aptos. El diagrama muestra al cliente Ci, al nodo completo Fi y al validador Vi. Cada cuadro representa una etapa por la que pasa un bloque de transacciones en la cadena de bloques de izquierda a derecha. La tubería consta de cinco etapas: consenso (que incluye distribución y ordenación), ejecución, validación, envío y sincronización del nodo completo.

Es como la fábrica de Ford: aunque la línea de ensamblaje maximiza el rendimiento general, cada auto aún tiene que pasar por cada trabajador secuencialmente, por lo que el tiempo de finalización es más largo. Para impulsar verdaderamente el rendimiento de la cadena de bloques a sus límites, necesitamos construir una “fábrica mágica”—donde estas etapas se ejecuten en paralelo.

Zaptos: Avanzando hacia la latencia óptima de la Cadena de bloques

Zaptos[8] reduce la latencia a través de tres optimizaciones clave sin sacrificar el rendimiento.

· Ejecución Optimista: Reduce la latencia del pipeline al comenzar la ejecución inmediatamente después de recibir una propuesta de bloque. Los validadores añaden inmediatamente el bloque al pipeline y especulan sobre la ejecución después de que el bloque padre se completa. Los nodos completos también realizan una ejecución optimista al recibir la propuesta del validador para verificar la prueba de estado.

· Presentación optimista: Escribe el estado en el almacenamiento inmediatamente después de la ejecución del bloque, incluso antes de la validación del estado. Cuando el validador certifica finalmente el estado, solo se necesitan actualizaciones mínimas para completar la presentación. Si un bloque no se ordena en última instancia, el estado presentado de forma optimista se deshace para mantener la consistencia.

· Validación rápida: Los validadores comienzan la validación del estado de los bloques ejecutados en paralelo durante la ronda de consenso final, sin esperar a que se complete el consenso. Esta optimización suele reducir la latencia del pipeline en una ronda en escenarios comunes.


Ilustración: La arquitectura de canalización paralela de Zaptos. Todos los etapas excepto el consenso están efectivamente ocultos dentro de la etapa de consenso, reduciendo la latencia de extremo a extremo.

A través de estas optimizaciones, Zaptos oculta eficazmente la latencia de otras etapas del canal dentro de la etapa de consenso. Como resultado, si la cadena de bloques adopta un protocolo de consenso con latencia óptima, la latencia general de la cadena de bloques también puede alcanzar su óptimo!

El hablar vacío es inútil; los datos hablan por sí mismos

Evaluamos el rendimiento de extremo a extremo de Zaptos a través de experimentos geográficamente distribuidos, utilizando Aptos como referencia de alto rendimiento. Para más detalles, consulte el artículo [8].

En Google Cloud, simulamos una red global descentralizada que consta de 100 validadores y 30 nodos completos, distribuidos en 10 regiones, utilizando máquinas de grado comercial similares a las utilizadas en la implementación de Aptos.

Throughput-Latencia


Ilustración: Comparación de rendimiento de las cadenas de bloques Zaptos y Aptos.

El gráfico anterior compara la relación entre la latencia de extremo a extremo y el rendimiento para ambos sistemas. Ambos experimentan un aumento gradual en la latencia a medida que la carga aumenta, con picos bruscos en capacidad máxima. Sin embargo, Zaptos muestra consistentemente una latencia más estable antes de alcanzar el rendimiento máximo, reduciendo la latencia en 160 milisegundos bajo carga baja y más de 500 milisegundos bajo carga alta.

Impresionantemente, Zaptos logra una latencia de sub-segundo a 20k TPS en un entorno de mainnet de grado de producción, este avance hace que las aplicaciones del mundo real que requieren velocidad y escalabilidad sean una realidad.

Desglose de latencia


Ilustración: Desglose de latencia de la Cadena de Bloques Aptos.


Ilustración: Desglose de latencia de Zaptos.

El diagrama de desglose de latencia proporciona una vista detallada de la duración de cada etapa del proceso para validadores y nodos completos. Las ideas clave incluyen:

· Hasta 10k TPS: La latencia general de Zaptos es casi idéntica a su latencia de consenso, ya que las etapas de ejecución optimista, validación y envío optimista están efectivamente "ocultas" dentro de la etapa de consenso.

· Por encima de 10k TPS: A medida que aumenta el tiempo de ejecución optimista y sincronización de nodos completos, las etapas no consensuadas se vuelven más significativas. No obstante, Zaptos reduce significativamente la latencia general al superponer la mayoría de las etapas. Por ejemplo, a 20k TPS, la latencia total base es de 1.32 segundos (consenso 0.68 segundos, otras etapas 0.64 segundos), mientras que Zaptos logra 0.78 segundos (consenso 0.67 segundos, otras etapas 0.11 segundos).

Conclusión

La evolución de la arquitectura de la cadena de bloques es similar a la transformación en la fabricación, desde flujos de trabajo secuenciales simples hasta líneas de ensamblaje altamente paralelizadas. El enfoque de pipeline de Aptos aumenta significativamente el rendimiento, mientras que Zaptos lo lleva más allá al reducir la latencia a niveles sub-segundo, manteniendo un alto TPS. Así como las arquitecturas informáticas modernas aprovechan el paralelismo para maximizar la eficiencia, las cadenas de bloques deben optimizar continuamente sus diseños para eliminar la latencia innecesaria. Al optimizar completamente el pipeline de la cadena de bloques para la menor latencia, Zaptos allana el camino para aplicaciones de cadena de bloques del mundo real que requieren tanto velocidad como escalabilidad.

Descargo de responsabilidad:

  1. Este artículo es reimpreso de [BloquearBeats], y los derechos de autor pertenecen al autor original [Aptos Labs]. If you have any objections to the reprint, please contact the Gate Learnequipo, y el equipo lo manejará tan pronto como sea posible de acuerdo con los procedimientos relevantes.

  2. Descargo de responsabilidad: Las opiniones expresadas en este artículo representan únicamente las opiniones personales del autor y no constituyen ningún consejo de inversión.

  3. Otras versiones del artículo en otros idiomas son traducidas por el equipo de Gate Learn. El artículo traducido no puede ser copiado, distribuido o plagiado sin mencionar Gate.io.

即刻开始交易
注册并交易即可获得
$100
和价值
$5500
理财体验金奖励!