
Ep.31 CVPR 2025 Best Paper Honorable Mentions : Molmo and PixMo: Open Weights and Open Data for State-of-the-Art Vision-Language Models
Échec de l'ajout au panier.
Veuillez réessayer plus tard
Échec de l'ajout à la liste d'envies.
Veuillez réessayer plus tard
Échec de la suppression de la liste d’envies.
Veuillez réessayer plus tard
Échec du suivi du balado
Ne plus suivre le balado a échoué
-
Narrateur(s):
-
Auteur(s):
À propos de cet audio
提示された文書は、最先端の視覚言語モデル(VLM)であるMolmoの紹介とその開発について詳述しています。現在のVLMの多くが独自のモデルであり、合成データに大きく依存しているという問題に対処するため、Molmoはオープンソースの重みとデータ、特に外部VLMを使用せずに収集されたPixMoデータセットを提供しています。このPixMoデータセットは、詳細な画像キャプション、自由形式の質問応答データ、および革新的な2Dポインティングデータで構成されています。Molmoは、その新規データセットと綿密な訓練パイプラインにより、学術的なベンチマークと人間による評価の両方で、同カテゴリーのオープンモデルを凌駕し、一部の独自のモデルをも上回る性能を示しています。この研究は、VLMの構築に関する基礎的な知識をオープンコミュニティにもたらすことを目的としています。
Ce que les auditeurs disent de Ep.31 CVPR 2025 Best Paper Honorable Mentions : Molmo and PixMo: Open Weights and Open Data for State-of-the-Art Vision-Language Models
Moyenne des évaluations de clientsÉvaluations – Cliquez sur les onglets pour changer la source des évaluations.
Il n'y a pas encore de critiques pour ce titre.