
Teste de Turing #2: Redes neurais fantásticas e onde habitam
Échec de l'ajout au panier.
Veuillez réessayer plus tard
Échec de l'ajout à la liste d'envies.
Veuillez réessayer plus tard
Échec de la suppression de la liste d’envies.
Veuillez réessayer plus tard
Échec du suivi du balado
Ne plus suivre le balado a échoué
-
Narrateur(s):
-
Auteur(s):
À propos de cet audio
Neste episódio, falamos sobre modelos de NLP que têm revolucionado o estado-da-arte de várias aplicações de tecnologias da linguagem. Em particular, falamos do ELMo, BERT, GPT-2 e da avaliação no GLUE benchmark.
Biblioteca python de transformers, que facilita incluir o BERT ou GPT-2 no seu código: http://huggingface.co/transformers/
Anúncio original do GPT-2: https://openai.com/blog/better-language-models
Gerador de texto online com o GPT-2 (treinado só em inglês): http://talktotransformer.com
Post do Erick com o GPT-2 treinado na Wikipedia em português para gerar novos artigos: https://bit.ly/2sDT0kK
Twitter: @testedeturing
Contato: testedeturingpodcast@gmail.com
Ce que les auditeurs disent de Teste de Turing #2: Redes neurais fantásticas e onde habitam
Moyenne des évaluations de clientsÉvaluations – Cliquez sur les onglets pour changer la source des évaluations.
Il n'y a pas encore de critiques pour ce titre.