
Pre-training LLMs: One Model To Rule Them All? with Talfan Evans, DeepMind
Échec de l'ajout au panier.
Veuillez réessayer plus tard
Échec de l'ajout à la liste d'envies.
Veuillez réessayer plus tard
Échec de la suppression de la liste d’envies.
Veuillez réessayer plus tard
Échec du suivi du balado
Ne plus suivre le balado a échoué
-
Narrateur(s):
-
Auteur(s):
À propos de cet audio
Talfan Evans is a research engineer at DeepMind, where he focuses on data curation and foundational research for pre-training LLMs and multimodal models like Gemini. I ask Talfan:
- Will one model rule them all?
- What does "high quality data" actually mean in the context of LLM training?
- Is language model pre-training becoming commoditized?
- Are companies like Google and OpenAI keeping their AI secrets to themselves?
- Does the startup or open source community stand a chance next to the giants?
Also check out Talfan's latest paper at DeepMind, Bad Students Make Good Teachers.
Ce que les auditeurs disent de Pre-training LLMs: One Model To Rule Them All? with Talfan Evans, DeepMind
Moyenne des évaluations de clientsÉvaluations – Cliquez sur les onglets pour changer la source des évaluations.
Il n'y a pas encore de critiques pour ce titre.