論文の概要: How language models extrapolate outside the training data: A case study in Textualized Gridworld
- arxiv url: http://arxiv.org/abs/2406.15275v3
- Date: Wed, 27 Nov 2024 03:52:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-28 15:23:58.390378
- Title: How language models extrapolate outside the training data: A case study in Textualized Gridworld
- Title(参考訳): 言語モデルがトレーニングデータの外部からどのように外挿するか--テクスチュアライズ・グリッドワールドを事例として
- Authors: Doyoung Kim, Jongwon Lee, Jinho Park, Minjoon Seo,
- Abstract要約: 我々は、次のトークン予測や思考の微調整を含む従来の手法は、より大きな、目に見えない環境では外挿できないことを示す。
人間の心的表現をシミュレートする新しいCoTフレームワークであるパス計画のための認知マップを提案する。
言語モデルにおける汎用認知地図の開発について,これらの認知地図が専門的な学習手法を必要とすることを知ると,重要な疑問が浮き彫りになる。
- 参考スコア(独自算出の注目度): 32.5268320198854
- License:
- Abstract: Language models' ability to extrapolate learned behaviors to novel, more complex environments beyond their training scope is highly unknown. This study introduces a path planning task in a textualized Gridworld to probe language models' extrapolation capabilities. We show that conventional approaches, including next token prediction and Chain of Thought (CoT) finetuning, fail to extrapolate in larger, unseen environments. Inspired by human cognition and dual process theory, we propose cognitive maps for path planning, a novel CoT framework that simulates humanlike mental representations. Our experiments show that cognitive maps not only enhance extrapolation to unseen environments but also exhibit humanlike characteristics through structured mental simulation and rapid adaptation. Our finding that these cognitive maps require specialized training schemes and cannot be induced through simple prompting opens up important questions about developing general-purpose cognitive maps in language models. Our comparison with exploration-based methods further illuminates the complementary strengths of offline planning and online exploration.
- Abstract(参考訳): 学習した振る舞いをトレーニング範囲を超えて、より新しく、より複雑な環境に外挿する言語モデルの能力は、非常に不明である。
本研究では,言語モデルの外挿機能を調べるために,テキスト化されたGridworldにおける経路計画タスクを提案する。
我々は、次のトークン予測やCoT(Chain of Thought)ファインタニングを含む従来の手法が、より大きな、目に見えない環境では外挿できないことを示す。
人間の認知と二重プロセス理論に着想を得て,人間の心的表現をシミュレートする新しいCoTフレームワークである経路計画のための認知マップを提案する。
実験の結果,認知地図は未知の環境への外挿を促進させるだけでなく,構造化されたメンタルシュミレーションと迅速な適応を通じて人間のような特徴を示すことがわかった。
これらの認知地図には特別な訓練スキームが必要であり、単純なプロンプトによって誘導できないことが判明し、言語モデルにおける汎用認知地図の開発に関する重要な疑問が開かれた。
探索に基づく手法との比較により、オフライン計画とオンライン探索の相補的な強みをさらに明るくする。
関連論文リスト
- Language Evolution with Deep Learning [49.879239655532324]
計算モデリングは言語の出現の研究において重要な役割を担っている。
構造化言語の出現を誘発する可能性のある条件と学習プロセスをシミュレートすることを目的としている。
この章では、最近機械学習の分野に革命をもたらした別の種類の計算モデル、ディープ・ラーニング・モデルについて論じる。
論文 参考訳(メタデータ) (2024-03-18T16:52:54Z) - Exploring Spatial Schema Intuitions in Large Language and Vision Models [8.944921398608063]
大規模言語モデル(LLM)が言語ブロック構築に関する暗黙の人間の直感を効果的に捉えているかどうかを検討する。
驚くべきことに、モデル出力と人間の反応の相関が出現し、具体的体験と具体的なつながりのない適応性が明らかになる。
本研究は,大規模言語モデルによる言語,空間経験,計算間の相互作用の微妙な理解に寄与する。
論文 参考訳(メタデータ) (2024-02-01T19:25:50Z) - Navigation with Large Language Models: Semantic Guesswork as a Heuristic
for Planning [73.0990339667978]
不慣れな環境でのナビゲーションは、ロボットにとって大きな課題となる。
言語モデルを用いて、新しい現実世界環境のバイアス探索を行う。
実環境におけるLFGの評価とシミュレーションベンチマークを行った。
論文 参考訳(メタデータ) (2023-10-16T06:21:06Z) - Foundational Models Defining a New Era in Vision: A Survey and Outlook [151.49434496615427]
視覚シーンの構成的性質を観察し、推論する視覚システムは、我々の世界を理解するのに不可欠である。
モデルは、このようなモダリティと大規模なトレーニングデータとのギャップを埋めることを学び、コンテキスト推論、一般化、テスト時の迅速な機能を容易にした。
このようなモデルの出力は、例えば、バウンディングボックスを設けて特定のオブジェクトをセグメント化したり、画像や映像シーンについて質問したり、言語命令でロボットの動作を操作することで対話的な対話を行うなど、リトレーニングすることなく、人為的なプロンプトによって変更することができる。
論文 参考訳(メタデータ) (2023-07-25T17:59:18Z) - From Word Models to World Models: Translating from Natural Language to
the Probabilistic Language of Thought [124.40905824051079]
言語インフォームド・シンキングのための計算フレームワークである「構成」を合理的に提案する。
我々は、自然言語から確率論的思考言語への文脈感応的なマッピングとして、言語の意味を定式化する。
LLMは、現実的に適切な言語的意味をキャプチャする文脈依存翻訳を生成することができることを示す。
認知的なモチベーションを持つシンボリックモジュールを統合するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2023-06-22T05:14:00Z) - See, Plan, Predict: Language-guided Cognitive Planning with Video
Prediction [27.44435424335596]
言語誘導ビデオ予測による認知計画アルゴリズムを考案する。
このネットワークには、未知のオブジェクトに一般化された自然言語入力に基づいて概念を基底化する能力が備わっている。
論文 参考訳(メタデータ) (2022-10-07T21:27:16Z) - Imagination-Augmented Natural Language Understanding [71.51687221130925]
自然言語理解タスクを解決するために,Imagination-Augmented Cross-modal (iACE)を導入する。
iACEは、強力な生成的および事前訓練された視覚・言語モデルから変換された外部知識で視覚的な想像を可能にする。
GLUEとSWAGの実験は、iACEが視覚的に教師付き事前訓練されたモデルよりも一貫した改善を達成していることを示している。
論文 参考訳(メタデータ) (2022-04-18T19:39:36Z) - Extrapolation Frameworks in Cognitive Psychology Suitable for Study of
Image Classification Models [0.0]
深層学習文学とは対照的に、認知科学、心理学、神経科学では、外挿と学習はタンデムでしばしば研究される。
本稿では,ディープラーニングモデルの数学的研究のための新しい外挿フレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-06T23:06:31Z) - Towards Zero-shot Language Modeling [90.80124496312274]
人間の言語学習に誘導的に偏りを持つニューラルモデルを構築した。
類型的に多様な訓練言語のサンプルからこの分布を推測する。
我々は、保留言語に対する遠隔監視として、追加の言語固有の側情報を利用する。
論文 参考訳(メタデータ) (2021-08-06T23:49:18Z) - Zero-Shot Compositional Policy Learning via Language Grounding [13.45138913186308]
人間は、言語記述のような世界に関する事前の知識を活用することで、新しいタスクに迅速に適応することができる。
本研究では,環境のダイナミクスを視覚的外観から切り離す新たな研究プラットフォームであるBabyAI++を紹介する。
現在の言語誘導型RL/IL技術は、トレーニング環境に過度に適合し、目に見えない組み合わせに直面すると大きなパフォーマンス低下に悩まされる。
論文 参考訳(メタデータ) (2020-04-15T16:58:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。