OFFRE D'UNE DURÉE LIMITÉE. Obtenez 3 mois à 0,99 $/mois. Profiter de l'offre.
Page de couverture de Uno Nessuno e Centomil AI

Uno Nessuno e Centomil AI

Uno Nessuno e Centomil AI

Auteur(s): Federico Vitiello Giovanni Tommasini e Sofi.a.
Écouter gratuitement

À propos de cet audio

Cosa significa vivere nell'era delle Intelligenze artificiali? Come possiamo adattarci al cambiamento? Qui condividiamo esperimenti e riflessioni sull'evoluzione delle AI, insieme alla AI. Sofia, assistente virtuale A.I., dialoga insieme a Giovanni Tommasini e Federico Vitiello.Federico Vitiello, Giovanni Tommasini e Sofi.a.
Épisodes
  • UNCAI ✨ Ho Creduto a Questo Video Fake per 24 Ore (Sora 2 è DIVERSO)
    Oct 30 2025

    UNCAI ✨ Nel 2025 “l’ho visto in video, quindi è vero” non regge più. Tra deepfake, AI video e modelli come Sora e Veo, la regola cambia: non fidarti delle facce, verifica i profili.In questa puntata di Uno, Nessuno e Centomil A.I. smontiamo un clip “troppo perfetto”, spieghiamo perché caschiamo (psicologia / tecnologia), e mettiamo a terra una procedura semplice: fact-checking in 30 secondi sul profilo ufficiale, più igiene digitale per proteggere te e il tuo brand.

    Cosa porti a casaSegnali “troppo perfetti” per riconoscere un video AI (senza diventare paranoico).

    La regola d’oro: fidati dei profili (fonte/autorevolezza), non delle facce.Verifica rapida: handle, canale, conferme/smentite.

    Brand safety: 2FA, password manager, presidio dei nuovi canali per l’identità digitale.

    deepfake, AI video, Sora, Veo, fact-checking, verifica profilo, sicurezza account, identità digitale, brand safety.

    0:00 – Cold open: “Vero o AI?” e tesi facce vs profili (deepfake, AI video)

    0:00:54 – Benvenuti: perché il video ci frega (realtà percepita)

    0:01:49 – Il clip “Vi presento il mio nuovo marito” (aggancio emotivo)

    0:02:12 – Sorpresa: è generato con AI (Sora); il virale originale

    0:03:56 – Dalla meraviglia all’irriconoscibile: da Veo a Sora

    0:04:10 – Si può ancora riconoscere un fake? (spoiler: a malapena)

    0:04:35 – Strumenti & watermark: rischi e perché non basta “vedere”

    0:05:55 – Orchestratori & LLM: confronto pratico (OpenRouter mindset)

    0:06:28 – Il prompt usato (ENG/ITA) e perché oggi basta poco

    0:10:41 – Smascherare i dettagli: luce “troppo perfetta”, inquadrature impossibili

    0:11:49 – Il trucco “telecamera di sorveglianza”: bimbo sul coccodrillo (fake)

    0:12:47 – Palestra di scetticismo: la “perfezione sospetta” (fact-checking)

    0:13:28 – È il 2025: dalle dita storte alla perfezione eccessiva

    0:14:32 – Hank Green & bias umano: quando l’errore siamo noi

    0:16:02 – Intrattenimento vs informazione: separare gli usi dei social

    0:18:16 – Regola d’oro: non fidarti delle facce, verifica i profili

    0:21:24 – Dalla teoria alla pratica: controllare il canale ufficiale

    0:23:52 – Phishing analogico: stessa logica per verificare le fonti

    0:25:59 – Sicurezza account: 2FA, password manager, “passaporto digitale”

    0:28:14 – Presidia i nuovi canali: identità verificabile, brand safety

    0:29:54 – Watermark & metadata: limiti del detection automatico

    0:30:55 – Chiusura: checklist di igiene digitale & aria fuori dallo schermo

    Voir plus Voir moins
    31 min
  • Chi capisce meglio l’italiano? Gemma, DeepSeek o OpenAI (open weight)
    Sep 18 2025

    OpenAI ha rilasciato i suoi modelli open weight e noi li mettiamo subito alla prova, in locale, contro DeepSeek e Gemma. In questa puntata di Uno Nessuno e Centomil AI smontiamo l’hype con test reali: reasoning su indovinello, logica combinatoria (strette di mano) e traduzione idiomatica inglese-italiano. Spieghiamo con esempi chiari la differenza tra open source vs open weight, cosa significa far girare un LLM on-prem (privacy, costi, latenze), e perché strumenti come Ollama e Open WebUI sono utili per orchestrare più modelli in parallelo. Parliamo di licenze Apache/MIT, limiti di trasparenza (black box) e di come agenti verticali e federated learning possano cambiare il gioco.Risultato? In questi test Gemma (4B) sorprende per naturalezza e velocità; DeepSeek inciampa sull’italiano; l’open weight di OpenAI (20B) mostra muscoli ma anche qualche scivolone sul contesto. Il punto non è “chi è il più grosso”, ma quale modello è giusto per il compito: traduzione, chiarezza, reasoning leggero o pipeline aziendali on-prem dove i dati restano in casa. Se vuoi capire davvero come scegliere e testare un LLM oggi, questa è la guida pratica — zero fumo, solo prove replicabili. 00:00 — Intro & setup: OpenAI open weight vs DeepSeek vs Gemma02:52 — Open source vs open weight: cosa cambia davvero04:01 — Metafora “Star Wars”: licenze, black box e limiti di modifica06:46 — LLM on-prem: privacy dati, costi e latenze reali07:57 — Modelli e parametri: OpenAI 20B vs Gemma 4B (hardware richiesto)10:46 — Come testare un LLM: criteri oggettivi e rischi di leakage12:10 — Test di reasoning #1: l’indovinello dell’ascensore15:05 — Risultati a confronto: correttezze, tempi e catene di pensiero18:49 — Test di logica #2: quante strette di mano? (combinatoria)21:27 — Spiegazioni a confronto: formula vs chiarezza “umana”23:44 — Test di traduzione: idiomi inglese-italiano difficili26:01 — Traduzioni a confronto: DeepSeek vs Gemma vs OpenAI29:12 — Strategia: modelli specialistici, agenti verticali e orchestrazione30:35 — Prossimi passi: interfacce multi-modello e roadmap30:55 — Conclusioni & call-to-action: sperimenta e condividi i tuoi test

    Voir plus Voir moins
    32 min
  • Fai parlare un’IA come vuoi TU (test reale)
    Sep 7 2025

    Puoi davvero controllare come un’intelligenza artificiale ti risponde?In questa puntata mettiamo alla prova Sofia, la nostra AI co-conduttrice, con un test reale: stesso modello, stesso compito, ma risultati completamente diversi… cambiando solo UNA riga di prompt.Scoprirai: • Come il design del prompt cambia la voce, il tono e la profondità delle risposte di un agente AI. • Cosa significa davvero “istruire” un’IA e quali sono i livelli di comando (system, developer, user). • I limiti e i vantaggi degli agenti vocali in tempo reale (e come evitare risposte piatte). • Un confronto provocatorio: affideresti un ospedale a un’IA? • Strategie pratiche per chi progetta esperienze conversazionali e voice UX.Se ti occupi di AI applicata alla voce, sanità digitale o semplicemente vuoi capire come ottenere risposte migliori dalla tua AI, questo episodio fa per te.Conducono: Giovanni Tommasini, Federico Vitiello e l’IA Sofia.Capitoli00:00 – Intro & Sofia 2.0: perché “disobbedire” è utile (podcast intelligenza artificiale, co-host AI) 01:00 – Dietro le quinte: esperimenti e metodo (backstage LLM, prompt strategy) 02:23 – Test 1: voce senza prompt – risposta breve e generica (voice AI) 03:00 – Test 2: voce con prompt strutturato – stile, tono, ampiezza (prompt engineering) 04:00 – Risultato: da 17s a ~1:20 – come cambia l’output (UX conversazionale) 07:00 – Mappa dell’IA: agent, modello, algoritmo; system prompt vs policy/FT (LLM system design) 12:00 – Regole personali, memoria e settaggi (istruzioni persistenti, memoria del chatbot) 15:30 – Brainstorm guidato & “chain of thought” (domande di chiarimento, preparazione) 21:20 – Tema centrale: AI in sanità—può superare i medici? (ospedale gestito dall’IA) 26:00 – Empatia, burnout, responsabilità – dove l’umano resta insostituibile (empatia clinica) 32:00 – Dati globali vs esperienza locale – diagnosi, triage, qualità percepita (healthtech) 38:40 – Limiti attuali della voce – modelli diversi, latenza e profondità (voice model) 42:00 – Takeaway operativi – come progettare una co-voce IA meno accondiscendente e più utile (design conversazionale)

    Voir plus Voir moins
    46 min
Pas encore de commentaire