論文の概要: Jasmine: A Simple, Performant and Scalable JAX-based World Modeling Codebase
- arxiv url: http://arxiv.org/abs/2510.27002v1
- Date: Thu, 30 Oct 2025 21:03:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-03 17:52:15.914591
- Title: Jasmine: A Simple, Performant and Scalable JAX-based World Modeling Codebase
- Title(参考訳): Jasmine: シンプルで高性能でスケーラブルなJAXベースのワールドモデリングコードベース
- Authors: Mihir Mahajan, Alfred Nguyen, Franz Srambical, Stefan Bauer,
- Abstract要約: Jasmineは、単一のホストから、最小限のコード変更で数百のアクセラレータにスケールする、パフォーマンスの高いJAXベースの世界モデリングシステムです。
Jasmineは、以前のオープン実装と比較してCoinRunケーススタディの桁違いの高速な再現を実現している。
モデルファミリ間の厳密なベンチマークパイプラインとアーキテクチャ改善のためのインフラストラクチャを構築します。
- 参考スコア(独自算出の注目度): 12.532885344678673
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While world models are increasingly positioned as a pathway to overcoming data scarcity in domains such as robotics, open training infrastructure for world modeling remains nascent. We introduce Jasmine, a performant JAX-based world modeling codebase that scales from single hosts to hundreds of accelerators with minimal code changes. Jasmine achieves an order-of-magnitude faster reproduction of the CoinRun case study compared to prior open implementations, enabled by performance optimizations across data loading, training and checkpointing. The codebase guarantees fully reproducible training and supports diverse sharding configurations. By pairing Jasmine with curated large-scale datasets, we establish infrastructure for rigorous benchmarking pipelines across model families and architectural ablations.
- Abstract(参考訳): 世界モデルは、ロボット工学などの分野におけるデータの不足を克服する手段としてますます位置づけられているが、世界モデリングのためのオープンなトレーニング基盤は、いまだに初期段階にある。
Jasmineは、単一のホストから、最小限のコード変更で数百のアクセラレータにスケールする、パフォーマンスの高いJAXベースのワールドモデリングコードベースです。
Jasmineは、以前のオープン実装と比較してCoinRunケーススタディの桁違いの高速な再現を実現している。
コードベースは完全に再現可能なトレーニングを保証し、多様なシャーディング構成をサポートする。
Jasmineとキュレートされた大規模データセットを組み合わせることで、モデルファミリとアーキテクチャ上の改善点をまたいだ厳格なベンチマークパイプラインの基盤を確立します。
関連論文リスト
- EmbodiedBrain: Expanding Performance Boundaries of Task Planning for Embodied Intelligence [17.644658293987955]
身体的AIエージェントは、物理的環境における堅牢な空間認識、効果的なタスク計画、適応実行を行うことができる。
現在の大規模言語モデル (LLMs) とマルチモーダルLLM (MLLMs) の具体化タスクは、重要な制約に悩まされている。
EmbodiedBrain は 7B と 32B のパラメータサイズで利用できる新しい視覚言語基盤モデルである。
論文 参考訳(メタデータ) (2025-10-23T14:05:55Z) - Dimensionality reduction for homological stability and global structure preservation [49.84018914962972]
本稿では,UMAP や tSNE といった従来の手法が直面する課題に対処するために,新しい次元削減ツールキットを提案する。
JAXフレームワーク上に構築されたDiReは、現代的なハードウェアアクセラレーションを活用し、複雑なデータ構造を視覚化するための効率的でスケーラブルで解釈可能なソリューションを提供する。
このツールキットは、最先端の UMAP や tSNE の実装と比較して、データ内のローカル構造とグローバル構造の両方を保存することにかなり有望である。
論文 参考訳(メタデータ) (2025-03-05T03:56:01Z) - CMoE: Converting Mixture-of-Experts from Dense to Accelerate LLM Inference [33.871080938643566]
CMoEは、高密度言語モデルをトレーニングなしで、ミックス・オブ・エキスパート(MoE)に迅速に変換するフレームワークである。
実験により、75%の活性化比で、パープレキシティの点で顕著な結果が得られることが示された。
パラメータの25%をアクティベートするCMoE構成は、追加のトレーニングなしで使用可能なパープレキシティを保ちながら、エンドツーエンドのレイテンシを1.5倍削減する。
論文 参考訳(メタデータ) (2025-02-06T14:05:30Z) - DreamMask: Boosting Open-vocabulary Panoptic Segmentation with Synthetic Data [61.62554324594797]
オープンな語彙設定でトレーニングデータを生成する方法と、実データと合成データの両方でモデルをトレーニングする方法を探索するDreamMaskを提案する。
一般的に、DreamMaskは大規模なトレーニングデータの収集を著しく単純化し、既存のメソッドのプラグイン・アンド・プレイ・エンハンスメントとして機能する。
例えば、COCOで訓練しADE20Kで試験すると、ドリームマスクを装備したモデルは以前の最先端の2.1% mIoUよりも優れていた。
論文 参考訳(メタデータ) (2025-01-03T19:00:00Z) - LocoMuJoCo: A Comprehensive Imitation Learning Benchmark for Locomotion [20.545058017790428]
模倣学習は、エンボディエージェントでアジャイルの移動を可能にするための大きな約束を持っています。
本稿では,ILアルゴリズムの厳密な評価と比較を容易にするための新しいベンチマークを提案する。
このベンチマークは四足歩行、二足歩行、筋骨格人体モデルを含む多様な環境を含む。
論文 参考訳(メタデータ) (2023-11-04T19:41:50Z) - Domain-incremental Cardiac Image Segmentation with Style-oriented Replay
and Domain-sensitive Feature Whitening [67.6394526631557]
M&Mは、各受信データセットから漸進的に学習し、時間が経つにつれて改善された機能で漸進的に更新する必要がある。
医学的シナリオでは、データのプライバシのため、過去のデータへのアクセスや保存が一般的に許可されないため、これは特に困難である。
本稿では,まず過去のドメイン入力を復元し,モデル最適化中に定期的に再生する新しいドメイン増分学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-09T13:07:36Z) - Slimmable Domain Adaptation [112.19652651687402]
重み付けモデルバンクを用いて、ドメイン間の一般化を改善するためのシンプルなフレームワーク、Slimmable Domain Adaptationを導入する。
私たちのフレームワークは、他の競合するアプローチを、複数のベンチマークにおいて非常に大きなマージンで上回ります。
論文 参考訳(メタデータ) (2022-06-14T06:28:04Z) - AutoBERT-Zero: Evolving BERT Backbone from Scratch [94.89102524181986]
そこで本稿では,提案するハイブリッドバックボーンアーキテクチャを自動検索するOP-NASアルゴリズムを提案する。
提案するOP-NASの効率を向上させるために,探索アルゴリズムと候補モデルの評価を最適化する。
実験の結果、検索されたアーキテクチャ(AutoBERT-Zero)は、様々な下流タスクにおいてBERTとそのバリエーションの異なるモデル容量を著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2021-07-15T16:46:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。