Asynchronous Batching con Node.js e Fastify

banner

Introduzione

La programmazione asincrona è un concetto fondamentale nello sviluppo web moderno e una tecnica potente nel nostro arsenale è il batching asincrono, o asynchronous batching. In questo articolo approfondiremo il mondo del batching asincrono utilizzando Node.js e Fastify, un framework web noto per la sua velocità e il basso overhead.

Illustreremo il concetto creando un server Fastify che risponderà alle nostre richieste sfruttando sempre la stessa Promise.

Comprensione del batch asincrono

Fondamentalmente, il batching asincrono implica il raggruppamento di più operazioni asincrone in una singola unità di lavoro. Questo approccio è particolarmente utile quando si gestiscono attività o richieste ripetitive, poiché può migliorare significativamente le prestazioni e l’utilizzo delle risorse.

Configurazione di Fastify

Per iniziare, assicurati di avere Node.js e npm installati sul tuo computer - la versione non è importante, Node.js supporta le Promises dalla versione 0.12. Crea un nuovo progetto Fastify, installa le dipendenze necessarie (npm i fastify) e configura un server di base. La natura semplice e leggera di Fastify lo rende la scelta ideale per questa dimostrazione.

// Importiamo Fastify
const fastify = require('fastify')();

// Definiamo un percorso di base
fastify.get('/', async (request, reply) => {
  return { message: 'Hello, Fastify!' };
});

// Configuriamo il server per l'ascolto sulla porta 3000
fastify.listen({ port: 3000 }, (err, address) => {
  if (err) throw err;
  console.log(`Server listening on ${address}`);
});

Se ora esegui il tuo server con node index.js e visiti http://localhost:3000, dovresti vedere un messaggio di benvenuto.

Creazione di un endpoint di esempio

Nel nostro esempio, ci concentreremo su un endpoint HTTP specifico che risponde con la stessa Promise per ogni richiesta in entrata. Questo scenario può sembrare estremamente semplificato, ma rappresenta un esempio semplice del batching asincrono in azione.

// Definiamo una Promise condivisa per semplicità
const sharedPromise = new Promise((resolve) => {
  // Simuliamo del lavoro intensivo
  for (let i = 0; i < 10_000_000; i++) { }

  // Risolviamo la Promise
  resolve({ message: 'Hello, shared world!' });
});


// Definiamo il percorso per il batching asincrono
fastify.get('/batched', async (request, reply) => {
  // Restituiamo la stessa Promise per ogni richiesta
  return sharedPromise;
});

Come puoi vedere, nel pezzo di codice sopra stiamo effettivamente creando una singola Promise restituita dal nostro endpoint. In questo modo, chiediamo al nostro server di eseguire una singola attività, ma restituiamo la stessa risorsa a ogni client che la richiede.

N.B. Ricordati di chiudere il server con Ctrl + C e riavviarlo ogni volta che apporti modifiche al codice. Se hai una versione aggiornata di Node.js, puoi lanciare il comando node --watch index.js per riavviare automaticamente il server quando il file viene modificato. Lo stesso vale per nodemon o altri tool simili.

Testare il nostro server

Ora che abbiamo configurato il nostro server, possiamo testarlo con un semplice client HTTP. In questo esempio useremo autocannon insieme a npx, un piccolo tool da CLI sviluppato da npm che ci permette di eseguire i pacchetti senza doverli installare localmente.

npx autocannon -c 100 -d 5 http://localhost:3000/batched

Questo comando eseguirà 100 connessioni simultanee per 5 secondi, quindi restituirà un report con i risultati. Se tutto è andato bene, dovresti ottenere qualcosa di molto simile a questo, insieme ad una tabella riepilogativa: 302k requests in 5.02s, 51 MB read.

Per meglio comprendere cosa questo significhi, possiamo eseguire lo stesso test senza il batching asincrono. Per farlo, modifichiamo il nostro endpoint per restituire una nuova Promise per ogni richiesta.

// Definiamo il percorso per il batching asincrono
fastify.get('/batched', async (request, reply) => {
  // Restituiamo una nuova Promise per ogni richiesta
  return new Promise((resolve) => {
    // Simuliamo del lavoro intensivo
    for (let i = 0; i < 10_000_000; i++) { }

    // Risolviamo la Promise
    resolve({ message: 'Hello, shared world!' });
  });
});

Ora possiamo eseguire nuovamente il nostro test e confrontare i risultati. Sul mio computer, l’output è il seguente: 2k requests in 5.02s, 260 kB read.

Come puoi notare, il batching asincrono ha migliorato le prestazioni del nostro server di oltre 100 volte!

Implementazione del batch asincrono nella vita reale

Lo sviluppo della funzionalità di batching asincrono implica l’intercettazione di più richieste in entrata all’URL designato e la restituzione della stessa Promise per tutte. In uno scenario reale, salveremo l’esecuzione della nostra Promise in una sorta di stato (Globale o locale, non importa) in modo che ogni client possa effettivamente richiedere la stessa risorsa.

Per esempio, potremmo decidere di salvare una ipotetica chiamata a getUsers in una cache temporanea e restituire la stessa Promise per ogni richiesta. In questo modo, il nostro server eseguirà la chiamata solo una volta, ma restituirà la risposta a tutti i client che la richiedono, auto-invalidandosi dopo un certo periodo di tempo.

// Definiamo una cache temporanea
const cache = {};

// Definiamo il percorso per il batching asincrono
fastify.get('/batched', async (request, reply) => {
  // Se la Promise non è in cache, creiamola
  if (!cache.users) {
    // Eseguiamo la Promise
    cache.users = getUsers();

    setTimeout(() => {
      // Invalidiamo la cache dopo 5 minuti
      cache.users = null;
    }, 5 * 60 * 1000);
  }

  // Restituiamo la Promise
  return cache.users;
});

Miglioramenti in termini di prestazioni

Il batching asincrono brilla negli scenari in cui più richieste attivano operazioni identiche. Elaborando queste richieste insieme, riduciamo al minimo il sovraccarico associato alle attività ridondanti, con conseguente miglioramento dei tempi di risposta e un utilizzo più efficiente delle risorse.

Considerazioni sul parallellismo - Cache Stampede

Anche se l’invio in batch asincrono migliora le prestazioni, è fondamentale considerare il sovraccarico sul processo e sull’Event Loop. L’architettura basata sugli eventi di Node supporta intrinsecamente queste situazioni, ma un’attenta progettazione è essenziale per garantire che il sistema si comporti in modo prevedibile sotto vari carichi.

Conclusione

Il batch asincrono è uno strumento potente nell’arsenale di uno sviluppatore, poiché offre miglioramenti significativi delle prestazioni per determinati tipi di carichi di lavoro. Esplorando la sua implementazione in un server Node-Fastify, abbiamo acquisito informazioni su come questa tecnica può essere applicata per semplificare e ottimizzare lo sviluppo di applicazioni web. Mentre sperimenti il batch asincrono, considera le sue potenziali applicazioni oltre l’esempio presentato, poiché i suoi vantaggi si estendono a un’ampia gamma di scenari nel panorama in continua evoluzione dello sviluppo web.

Se vuoi vederlo in azione in uno scenario reale, guarda la nostra libreria di caching dove la implementiamo per prevenire il problema solitamente risolto da questa tecnica: Cache Stampede.

Spero che l’articolo ti sia piaciuto, a presto!

Articolo originale pubblicato su https://cadienvan.github.io/blog/asynchronous-batching/

Post correlati

Iscriviti al TheRedCode.it Corner

La tecnologia corre, e tu devi correre più veloce per rimanere sempre sul pezzo! 🚀

Riceverai una volta al mese (o anche meno) con codici sconto per partecipare agli eventi del settore, quiz per vincere dei gadget e i recap degli articoli più interessanti pubblicati sul blog

Ci sto!

Partners

Community, aziende e persone che supportano attivamente il blog

Logo di Codemotion
Logo di GrUSP
Logo di Python Milano
Logo di Schrodinger Hat
Logo di Python Biella Group
Logo di Fuzzy Brains
Logo di Django Girls
Logo di Improove
Logo del libro open source
Logo di NgRome

Vuoi diventare #tech content writer? 🖊️

Se vuoi raccontare la tua sul mondo #tech con dei post a tema o vuoi condividere la tua esperienza con la community, sei nel posto giusto! 😉

Manda una mail a collaborazioni[at]theredcode.it con la tua proposta e diventa la prossima penna del blog!

Ma sì, facciamolo!