論文の概要: Where Bits Matter in World Model Planning: A Paired Mixed-Bit Study for Efficient Spatial Reasoning
- arxiv url: http://arxiv.org/abs/2602.11882v1
- Date: Thu, 12 Feb 2026 12:32:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.807503
- Title: Where Bits Matter in World Model Planning: A Paired Mixed-Bit Study for Efficient Spatial Reasoning
- Title(参考訳): 世界モデルプランニングにおけるビットの重要点:空間的推論の効率化のためのペア付き混合ビットスタディ
- Authors: Suraj Ranganath, Anish Patnaik, Vaishak Menon,
- Abstract要約: 2つのプランナー予算の下で、均一、混合、非対称、層幅の混合ビット評価を行う。
8ビットと6ビットの設定はFP16に近いままであり、3ビットの設定は崩壊し、4ビットの設定はアロケーションに敏感である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Efficient spatial reasoning requires world models that remain reliable under tight precision budgets. We study whether low-bit planning behavior is determined mostly by total bitwidth or by where bits are allocated across modules. Using DINO-WM on the Wall planning task, we run a paired-goal mixed-bit evaluation across uniform, mixed, asymmetric, and layerwise variants under two planner budgets. We observe a consistent three-regime pattern: 8-bit and 6-bit settings remain close to FP16, 3-bit settings collapse, and 4-bit settings are allocation-sensitive. In that transition region, preserving encoder precision improves planning relative to uniform quantization, and near-size asymmetric variants show the same encoder-side direction. In a later strict 22-cell replication with smaller per-cell episode count, the mixed-versus-uniform INT4 sign becomes budget-conditioned, which further highlights the sensitivity of this transition regime. These findings motivate module-aware, budget-aware quantization policies as a broader research direction for efficient spatial reasoning. Code and run artifacts are available at https://github.com/suraj-ranganath/DINO-MBQuant.
- Abstract(参考訳): 効率的な空間推論は、厳密な精度の予算の下で信頼できる世界モデルを必要とする。
低ビット計画行動は、主に全ビット幅で決定されるか、またはモジュール間でビットが割り当てられているかによって決定されるかを検討する。
ウォールプランニングタスクでDINO-WMを用いることで、2つのプランナー予算の下で、均一、混合、非対称、層幅の異なる2つの混合ビットの評価を行う。
8ビットと6ビットの設定はFP16に近いままであり、3ビットの設定は崩壊し、4ビットの設定はアロケーションに敏感である。
その遷移領域では、エンコーダの精度を保存することにより、均一な量子化に対する計画が向上し、ほぼ大きさの非対称な変種は同じエンコーダ側の方向を示す。
後の厳密な22セルの複製では、セル単位のエピソード数が小さくなり、混合対一型のINT4符号が予算条件に設定され、この遷移状態の感度がさらに強調される。
これらの知見は、効率的な空間推論のためのより広範な研究方向として、モジュール認識、予算対応の量子化ポリシーを動機付けている。
コードおよび実行アーティファクトはhttps://github.com/suraj-ranganath/DINO-MBQuant.comで入手できる。
関連論文リスト
- BPDQ: Bit-Plane Decomposition Quantization on a Variable Grid for Large Language Models [56.504879072674015]
本稿では,ビットプレーンとスカラー係数による可変量子化グリッドを構成するビットプレーン分解量子化(BPDQ)を提案する。
BPDQは、1つのGTX 3090上でQwen2.5-72Bを83.85%のGSM8Kの精度で提供できる(ただし16ビットでは90.83%)。
論文 参考訳(メタデータ) (2026-02-04T02:54:37Z) - Pushing the Limits of Low-Bit Optimizers: A Focus on EMA Dynamics [64.62231094774211]
ステートフル(例えばアダム)は、最適収束を達成するために、モデルサイズを2倍も補助情報を維持する。
SOLOにより、アダムスタイルは3ビットまたは2ビットの精度で量子化された状態を維持することができる。
したがって、SOLOはAdamスタイルにシームレスに適用でき、精度の低下を最小限に抑えることができる。
論文 参考訳(メタデータ) (2025-05-01T06:47:45Z) - ParetoQ: Improving Scaling Laws in Extremely Low-bit LLM Quantization [73.60493264901359]
本稿では,1ビット,1.58ビット,2ビット,3ビット,4ビットの量子化設定に対して厳密な比較を行う統一フレームワークを提案する。
3次、2ビット、3ビット量子化は、サイズと精度のトレードオフにおいて同等のパフォーマンスを維持していることを示す。
ハードウェアの制約を考慮すると、2ビット量子化はメモリの削減とスピードアップに有望な可能性を秘めている。
論文 参考訳(メタデータ) (2025-02-04T18:59:26Z) - Towards a tailored mixed-precision sub-8-bit quantization scheme for
Gated Recurrent Units using Genetic Algorithms [39.979007027634196]
ゲーテッド・リカレント・ユニット(GRU)は内部状態に依存しているためチューニングが難しい。
本稿では,各演算子のビット幅を独立に選択できるGRUのモジュラ整数量子化方式を提案する。
論文 参考訳(メタデータ) (2024-02-19T16:24:20Z) - The case for 4-bit precision: k-bit Inference Scaling Laws [75.4335600212427]
量子化法は、モデル内の各パラメータを表すために必要なビット数を減少させる。
最終的なモデルサイズは、元のモデルのパラメータの数と圧縮率の両方に依存する。
我々は16ビットの入力とkビットのパラメータを持つ35,000以上のゼロショット実験を行い、どの量子化手法が3ビットから8ビットの精度でスケーリングを改善するかを検証した。
論文 参考訳(メタデータ) (2022-12-19T18:48:33Z) - RMSMP: A Novel Deep Neural Network Quantization Framework with Row-wise
Mixed Schemes and Multiple Precisions [43.27226390407956]
この研究は、Row-wise Mixed-Scheme and Multi-Precisionアプローチによる新しいディープニューラルネットワーク(DNN)量子化フレームワーク、すなわちRMSMPを提案する。
提案するRMSMPは、画像分類と自然言語処理(BERT)の分野でテストされている。
同等の精度で、最先端技術の中で最高の精度を実現する。
論文 参考訳(メタデータ) (2021-10-30T02:53:35Z) - HAWQV3: Dyadic Neural Network Quantization [73.11579145354801]
現在の低精度量子化アルゴリズムは、浮動小数点から量子化された整数値への変換の隠れコストを持つことが多い。
HAWQV3は、新しい混合精度整数のみの量子化フレームワークである。
論文 参考訳(メタデータ) (2020-11-20T23:51:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。