In un precedente articolo, abbiamo parlato di come Ollama gestisce la memoria durante il caricamento e l’esecuzione dei modelli di linguaggio di grandi dimensioni (LLM).
Leggi
Tutti i risultati con a tema #intelligenza-artificiale

In un precedente articolo, abbiamo parlato di come Ollama gestisce la memoria durante il caricamento e l’esecuzione dei modelli di linguaggio di grandi dimensioni (LLM).
Leggi
Guardare dietro le quinte di come funzionano i modelli di linguaggio di grandi dimensioni (LLM) è fondamentale per comprendere le loro prestazioni e limitazioni, e uno degli aspetti più critici è la gestione della memoria, che influisce direttamente sulla velocità di risposta e sulla capacità del modello di mantenere il contesto durante una conversazione.
Leggi
Parliamo di robot domestici, una forma di intelligenza artificiale che sta guadagnando sempre più attenzione negli ultimi anni.
Leggi
Nel mondo dello sviluppo software, la chiarezza della documentazione e la rapidità nella risoluzione di bug tramite debugging condiviso sono fattori chiave per il successo di qualsiasi progetto, soprattutto in team che operano su stack multipli e con ritmi di aggiornamento serrati.
Leggi
Psicologia e sociologia: due facce della stessa medaglia che studiano il comportamento umano, ma con approcci e obiettivi differenti.
Leggi
Comet è il nuovo browser web sviluppato dal team dietro a Perplexity, che integra un motore di ricerca basato su intelligenza artificiale direttamente nella barra di navigazione; in questo articolo, esploriamo le sue caratteristiche principali, e cosa lo rende diverso dagli altri browser sul mercato.
Leggi
I Large Language Models open source hanno portato una grande novità il campo dell’intelligenza artificiale, permettendo a chi sviluppa e chi fa ricerca di accedere a tecnologie avanzate senza le restrizioni delle soluzioni proprietarie.
Leggi
Cos’è Ollama? Ollama è uno strumento open-source che permette di eseguire modelli di linguaggio di grandi dimensioni (LLM) direttamente in locale sulla propria macchina.
Leggi
Nel mondo dello sviluppo Python, la gestione delle dipendenze è un aspetto cruciale per garantire la riproducibilità e la stabilità dei progetti.
Leggi
Quando ChatGPT è stato lanciato, molti si sono chiesti se il prompt engineering sarebbe diventato una skill a sé stante, qualcosa di cui i/le professionisti/e nel tech non avrebbero potuto fare a meno.
LeggiManda una mail a collaborazioni[at]theredcode.it con la tua proposta e diventa la prossima penna del blog!
Ma sì, facciamolo!