Stanford lancia CME 295: il corso completo su Transformer e LLM (autunno 2025)

Stanford ha appena pubblicato il syllabus completo di CME 295 – Transformers & Large Language Models, corso autunnale 2025 tenuto dai fratelli Afshine e Shervine Amidi. E no, non è l’ennesimo tutorial superficiale – parliamo di 9 lezioni che coprono tutto, dall’architettura Transformer base fino agli agent più recenti.

Cosa c’è dentro (settimana per settimana)

Il corso parte il 26 settembre con i fondamentali: tokenization, embeddings, Word2vec, attention mechanism. Roba che sembra basic ma che il 90% della gente che usa ChatGPT tutti i giorni non sa spiegare.

Poi si sale di livello. Ottobre copre le architetture Transformer-based (BERT incluso), gli LLM veri e propri con mixture of experts, context length, prompting strategies. La lezione 4 entra nel training: pretraining, quantization, hardware optimization, LoRA. Il tipo di roba che ti serve se vuoi capire perché addestrare un modello costa quanto un appartamento.

Dopo il midterm del 24 ottobre – che pesa il 50% del voto finale, quindi no pressure – si entra nel territorio interessante: preference tuning, RLHF, reward modeling, PPO, DPO. Tutte quelle sigle che vedi nei paper e che ti fanno sentire inadeguato.

Novembre è dedicato a reasoning models (con GRPO e scaling) e sistemi agentici: RAG, function calling, framework ReAct. La penultima lezione copre LLM evaluation e LLM-as-a-judge – perché valutare questi modelli è un casino e serve sapere dove guardare.

Chiusura il 5 dicembre con recap e trending topics, finale il 10 dicembre (altro 50% del voto).

Dettagli pratici

Il corso vale 2 unità, si tiene ogni venerdì dalle 15:30 alle 17:20 alla Thornton 110. Prerequisiti: machine learning base, calcolo, algebra lineare. Niente di esoterico, ma se non sai cos’è una matrice probabilmente parti svantaggiato.

La parte bella: le registrazioni video sono pubbliche su YouTube. Quindi sì, puoi seguirlo anche se non sei iscritto a Stanford. La playlist è già disponibile per le edizioni precedenti.

Corso gemello

C’è anche CME 296 – Diffusion & Large Vision Models come corso companion. Stesso formato, focus su modelli di diffusione e computer vision. Se ti interessano Stable Diffusion, DALL-E e compagnia, quello è il posto giusto.

Perché questo corso è diverso

Quello che mi colpisce del syllabus è il bilanciamento tra teoria e pratica recente. Non si fermano ai paper storici – coprono GRPO, reasoning scaling, agent framework che sono letteralmente state presentate negli ultimi mesi. E lo fanno senza sacrificare i fondamentali.

L’altra cosa: la struttura a midterm + final ti obbliga a studiare davvero. Non è un corso “seguo le lezioni e basta”. Due esami da 50% ciascuno significano che devi metabolizzare il materiale, non solo guardare i video.

Per chi è (davvero)

Se lavori con LLM e vuoi capire cosa succede sotto il cofano, questo è oro. Se stai pensando di fare ricerca in questo campo, direi che è quasi obbligatorio. Se usi solo ChatGPT per scrivere email… boh, forse è overkill, ma imparerai un sacco di roba.

Info complete e materiali sul sito ufficiale: cme295.stanford.edu