“Fidarsi è bene, non fidarsi è meglio.” Questo vale soprattutto quando si parla di sicurezza nel cloud.
Leggi
Leggi gli ultimi post per rimanere aggiornato/a

“Fidarsi è bene, non fidarsi è meglio.” Questo vale soprattutto quando si parla di sicurezza nel cloud.
Leggi
In un precedente articolo, abbiamo parlato di come Ollama gestisce la memoria durante il caricamento e l’esecuzione dei modelli di linguaggio di grandi dimensioni (LLM).
Leggi
Imparare a studiare e fare narrowing di ciò che si studia risulta fondamentale.
Leggi
Quando si sviluppa un videogioco in Realtà Virtuale, una delle sfide principali è il rendering simultaneo delle due camere, una per ciascun occhio.
Leggi
A volte, l’innovazione tecnologica nasce da una visione chiara e dalla capacità di trasformare idee in realtà concrete, anche se iniziare da zero può rappresentare una vera e propria sfida.
Leggi
Se hai mai passato ore a cercare la causa di un rallentamento in produzione sfogliando migliaia di righe di log, sai già di cosa parlo.
Leggi
Introduciamo un nuovo argomento nel blog: l’automazione! Oggi, con questo post, Luca Tomasino ci guida nell’installazione di n8n in modalità self-hosted tramite Docker, permettendoci di esplorare le potenzialità di questa piattaforma senza costi iniziali.
Leggi
Guardare dietro le quinte di come funzionano i modelli di linguaggio di grandi dimensioni (LLM) è fondamentale per comprendere le loro prestazioni e limitazioni, e uno degli aspetti più critici è la gestione della memoria, che influisce direttamente sulla velocità di risposta e sulla capacità del modello di mantenere il contesto durante una conversazione.
Leggi
Nel contesto dei sistemi software moderni, la gestione efficiente delle operazioni di lettura e scrittura sui dati è fondamentale per garantire prestazioni ottimali e scalabilità.
Leggi
Dopo aver esplorato i principi teorici del Confidential Computing, passiamo alla pratica.
LeggiManda una mail a collaborazioni[at]theredcode.it con la tua proposta e diventa la prossima penna del blog!
Ma sì, facciamolo!