Become a member!

Addestra il tuo LLM con i tuoi dati e usalo con Delphi (ITDevCon SE 2025)

Il panorama dello sviluppo software sta vivendo una trasformazione epocale. La diffusione capillare dell’intelligenza artificiale generativa e dei Large Language Models (LLM) non è più un tema da ricerca accademica o hype mediatico: è realtà operativa. Ed è una realtà che riguarda da vicino ogni software house, ogni team tecnico, ogni azienda che gestisce dati e crea soluzioni.

In questo scenario, padroneggiare le tecnologie LLM non è una skill “nice to have”. È fondamentale.


Il mio talk a ITDevCon 2025

Il 23 maggio 2025 sarò di nuovo tra i relatori di ITDevConSE, l’appuntamento primaverile (e in italiano) della conferenza europea dedicata a Delphi e tecnologie correlate. Il mio primo intervento di quest’anno si intitola:

🎯 “Addestra il tuo LLM con i tuoi dati e usalo con Delphi”

Circa due ore fitte di contenuti concreti, approccio pratico, esempi dal vivo e casi reali, per mostrare come portare davvero l’AI nelle applicazioni aziendali, senza fronzoli né fuffa.


Perché questo talk, e perché ora?

Perché oggi non basta più saper programmare bene. Serve capire come l’AI può potenziare le nostre applicazioni, migliorare i nostri processi, ridurre i tempi e generare valore concreto. E questo vale anche (e soprattutto) per chi sviluppa software su misura per il business, dove i dati sono il vero asset da valorizzare.

Cosa imparerai

Questo talk è un’anteprima operativa del corso completo su LLM, AI e Delphi che terrò prossimamente in bit Time Professionals. Per i dettagli aggiornati, tieni d’occhio la pagina delle nostre offerte formative

Durante il talk vedremo:


✅ Come funziona un LLM, davvero

  • Cos’è un token e perché conta
  • I limiti di contesto, conoscenza e allucinazioni
  • Come superare questi limiti con strumenti moderni

✅ Come usare LLM locali, open-source e sicuri

  • Introduzione a Ollama, l’ambiente per eseguire LLM in locale
  • Pro e contro dei modelli quantizzati vs non quantizzati
  • I vantaggi (anche economici) di un LLM on-premise

✅ Come addestrare un LLM sui tuoi dati

  • Uso dei SYSTEM prompt per creare veri assistenti specializzati
  • Analisi e generazione di dati strutturati (CSV, JSON, log)
  • Creazione di modelli personalizzati con il solo uso di testo e configurazione

✅ Come integrare l’intelligenza artificiale in un’app Delphi

  • Creazione di chatbot aziendali con accesso a fonti dati
  • Utilizzo di function calling e retrieval-augmented generation (RAG)
  • Interazione tra LLM, PostgreSQL (con PGVector) e DMVCFramework

È tutto molto concreto e pratico

Il talk non è un tour teorico tra paper, premesse e promesse. È un percorso operativo, che parte da:

  • Installazione di Ollama su Windows
  • Download e avvio di modelli come Llama 3, Qwen o Gemma
  • Personalizzazione tramite Modelfile
  • Accesso a dati aziendali e uso nei prompt
  • Scrittura di una mini app Delphi che interroga il modello via HTTP
  • Integrazione di LLM in applicazioni Delphi esistenti (questo credo sia davvero cool)

…e arriva a integrare LLM locali dentro la tua architettura aziendale.


Alcuni scenari d’uso concreti

Durante il talk vedremo come l’intelligenza artificiale può:

  • Leggere e interpretare file CSV e JSON complessi
  • Rispondere a domande tecniche su documentazione interna
  • Generare report dinamici, analisi statistiche e suggerimenti intelligenti
  • Migliorare la manutenibilità del software con assistenti specializzati in Delphi

Tutto questo, con dati riservati che non escono dall’infrastruttura aziendale, rispettando privacy, compliance e logiche on-premise.


Conclusione

Se vuoi capire come usare l’intelligenza artificiale nella tua azienda, con i tuoi dati, in modo sicuro, personalizzabile e realistico, ti aspetto a ITDevCon 2025.

E se vuoi approfondire l’argomento, iscriviti al corso completo che terrò a breve presso bit Time Professionals. 👉 https://bittimeprofessionals.com/formazione

Ci vediamo venerdì a Roma, a presto.

Comments

comments powered by Disqus