論文の概要: Affordances Enable Partial World Modeling with LLMs
- arxiv url: http://arxiv.org/abs/2602.10390v1
- Date: Wed, 11 Feb 2026 00:25:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:01.357776
- Title: Affordances Enable Partial World Modeling with LLMs
- Title(参考訳): LLMによる部分的世界モデリングの実現
- Authors: Khimya Khetarpal, Gheorghe Comanici, Jonathan Richens, Jeremy Shar, Fei Xia, Laurent Orseau, Aleksandra Faust, Doina Precup,
- Abstract要約: 本研究では,タスクに依存しない言語条件の意図を達成するエージェントが,アプライアンスによって伝達される予測的部分世界モデルを持つことを示す。
マルチタスク環境では,分散ロバスト価格を導入し,部分モデルを抽出して探索効率を大幅に向上させることができることを示す。
- 参考スコア(独自算出の注目度): 68.52975612311575
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Full models of the world require complex knowledge of immense detail. While pre-trained large models have been hypothesized to contain similar knowledge due to extensive pre-training on vast amounts of internet scale data, using them directly in a search procedure is inefficient and inaccurate. Conversely, partial models focus on making high quality predictions for a subset of state and actions: those linked through affordances that achieve user intents~\citep{khetarpal2020can}. Can we posit large models as partial world models? We provide a formal answer to this question, proving that agents achieving task-agnostic, language-conditioned intents necessarily possess predictive partial-world models informed by affordances. In the multi-task setting, we introduce distribution-robust affordances and show that partial models can be extracted to significantly improve search efficiency. Empirical evaluations in tabletop robotics tasks demonstrate that our affordance-aware partial models reduce the search branching factor and achieve higher rewards compared to full world models.
- Abstract(参考訳): 世界の完全なモデルは、非常に詳細な複雑な知識を必要とする。
事前学習された大規模モデルは、大量のインターネットスケールデータに対する広範な事前学習のため、同様の知識を含むと仮定されているが、探索手順で直接使用することは非効率で不正確である。
逆に、部分的なモデルは、状態と行動のサブセットに対して高品質な予測を行うことに焦点を当てている。
大規模なモデルを部分的世界モデルとして当てはめることができるか?
我々は、タスクに依存しない言語条件の意図を達成するエージェントが、アベイランスによって情報を得る予測的部分世界モデルを持つ必要があることを証明して、この疑問に対する公式な回答を提供する。
マルチタスク環境では,分散ロバスト価格を導入し,部分モデルを抽出して探索効率を大幅に向上させることができることを示す。
テーブルトップロボットの課題における実証的な評価は、我々の手頃な部分モデルによって探索分岐係数が減少し、実世界モデルと比較して高い報酬が得られることを示している。
関連論文リスト
- Automated Model Discovery via Multi-modal & Multi-step Pipeline [27.271570705491968]
効率的な自動モデル探索のためのマルチモーダル・グラニュアル・マルチステップパイプラインを提案する。
我々のパイプラインは、細部を捕捉し、強力な一般化性を保証するモデルを効果的に発見することを示した。
論文 参考訳(メタデータ) (2025-09-30T08:40:05Z) - Data-efficient Large Vision Models through Sequential Autoregression [58.26179273091461]
限られたデータセットに基づいて,効率的な自己回帰に基づく視覚モデルを構築する。
このモデルは,高レベル・低レベルのセマンティック理解の両方にまたがる視覚的タスクにおいて,その習熟度をいかに達成するかを実証する。
我々の経験的評価は、モデルが様々なタスクに適応する際の機敏さを強調し、パラメータフットプリントの大幅な削減を図った。
論文 参考訳(メタデータ) (2024-02-07T13:41:53Z) - Fantastic Gains and Where to Find Them: On the Existence and Prospect of
General Knowledge Transfer between Any Pretrained Model [74.62272538148245]
事前訓練されたモデルの任意のペアリングに対して、一方のモデルは他方では利用できない重要なデータコンテキストを抽出する。
このような「補的」な知識を,性能劣化を伴わずに,あるモデルから別のモデルへ伝達できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-10-26T17:59:46Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [47.432215933099016]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - Synthetic Model Combination: An Instance-wise Approach to Unsupervised
Ensemble Learning [92.89846887298852]
ラベル付きデータのトレーニングセットから学ぶ機会のない、新しいテストデータに対する予測を検討する。
専門家モデルのセットと予測へのアクセスと、トレーニングに使用するデータセットに関する制限された情報を提供すること。
論文 参考訳(メタデータ) (2022-10-11T10:20:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。