論文の概要: What Does it Mean for a Neural Network to Learn a "World Model"?
- arxiv url: http://arxiv.org/abs/2507.21513v1
- Date: Tue, 29 Jul 2025 05:30:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-30 17:08:55.750529
- Title: What Does it Mean for a Neural Network to Learn a "World Model"?
- Title(参考訳): ニューラルネットワークが"世界モデル"を学習する意味は何か?
- Authors: Kenneth Li, Fernanda Viégas, Martin Wattenberg,
- Abstract要約: ニューラルネットワークが学習し,"世界モデル"を使用することを示すための,一連の正確な基準を提案する。
目的は、しばしば非公式に使用される用語に運用上の意味を与えることである。
この定義に不可欠な追加は、そのような「世界モデル」がニューラルネットのデータやタスクの自明な結果ではないことを確認するための条件のセットである。
- 参考スコア(独自算出の注目度): 48.16769678219204
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a set of precise criteria for saying a neural net learns and uses a "world model." The goal is to give an operational meaning to terms that are often used informally, in order to provide a common language for experimental investigation. We focus specifically on the idea of representing a latent "state space" of the world, leaving modeling the effect of actions to future work. Our definition is based on ideas from the linear probing literature, and formalizes the notion of a computation that factors through a representation of the data generation process. An essential addition to the definition is a set of conditions to check that such a "world model" is not a trivial consequence of the neural net's data or task.
- Abstract(参考訳): 本稿では,ニューラルネットワークが学習し,"世界モデル"を使用することを示すための,一連の正確な基準を提案する。
目的は、しばしば非公式に使用される用語に運用上の意味を与えることであり、実験的な調査のための共通の言語を提供することである。
我々は、世界に潜む「状態空間」を表現するというアイデアに特に焦点を合わせ、モデリングは将来の作業に作用する。
我々の定義は線形探索文学の考え方に基づいており、データ生成プロセスの表現によって決定される計算の概念を定式化する。
この定義に不可欠な追加は、そのような「世界モデル」がニューラルネットのデータやタスクの自明な結果ではないことを確認するための条件のセットである。
関連論文リスト
- Evaluating the World Model Implicit in a Generative Model [7.317896355747284]
最近の研究は、大きな言語モデルが暗黙的に世界モデルを学ぶことを示唆している。
これには、単純な論理的推論、地理的ナビゲーション、ゲームプレイング、化学といった問題が含まれる。
我々は,古典的なマイヒル・ネローデ定理に触発された世界モデル回復のための新しい評価指標を提案する。
論文 参考訳(メタデータ) (2024-06-06T02:20:31Z) - Visually Grounded Language Learning: a review of language games,
datasets, tasks, and models [60.2604624857992]
多くのVision+Language (V+L)タスクは、視覚的モダリティでシンボルをグラウンドできるモデルを作成することを目的として定義されている。
本稿では,V+L分野において提案されるいくつかの課題とモデルについて,系統的な文献レビューを行う。
論文 参考訳(メタデータ) (2023-12-05T02:17:29Z) - A Geometric Notion of Causal Probing [85.49839090913515]
線形部分空間仮説は、言語モデルの表現空間において、動詞数のような概念に関するすべての情報が線形部分空間に符号化されていることを述べる。
理想線型概念部分空間を特徴づける内在的基準のセットを与える。
2つの言語モデルにまたがる少なくとも1つの概念に対して、この概念のサブスペースは、生成された単語の概念値を精度良く操作することができる。
論文 参考訳(メタデータ) (2023-07-27T17:57:57Z) - State space models can express n-gram languages [51.823427608117626]
我々は、n-gramルールから生成された言語に対して、次の単語予測タスクを解くことのできる状態空間言語モデルを構築している。
我々の証明は、SSMがn-gramルールをその能力に関する新たな理論的結果を用いてエンコードする方法を示している。
n-gramルールから生成された小さなデータセットを用いて実験を行い、勾配に基づく最適化によって得られたSSMやRNNにフレームワークをどのように適用できるかを示す。
論文 参考訳(メタデータ) (2023-06-20T10:41:23Z) - On Reality and the Limits of Language Data: Aligning LLMs with Human
Norms [10.02997544238235]
大規模言語モデル (LLMs) は、実践的な応用のために、膨大な自然言語データの言語関連性を利用する。
我々は,この問題を,新規かつ厳密に制御された推論テスト(ART)を用いて探求し,人間の規範とGPT-3のバージョンを比較した。
我々の研究は、データや弱点から直接学習できる常識関係モデルのカテゴリに注目した。
論文 参考訳(メタデータ) (2022-08-25T10:21:23Z) - Reasoning-Modulated Representations [85.08205744191078]
タスクが純粋に不透明でないような共通的な環境について研究する。
我々のアプローチは、新しいデータ効率表現学習の道を開く。
論文 参考訳(メタデータ) (2021-07-19T13:57:13Z) - Explainable Deep Classification Models for Domain Generalization [94.43131722655617]
説明は、深い分類網が決定を下す視覚的証拠の領域として定義される。
トレーニング戦略は周期的な正当性に基づくフィードバックを強制し、モデルが地中真実に直接対応する画像領域に焦点を合わせることを奨励する。
論文 参考訳(メタデータ) (2020-03-13T22:22:15Z) - Semantic Holism and Word Representations in Artificial Neural Networks [0.0]
単語2vecモデルのSkip-gram変種からの単語表現は興味深い意味的特性を示す。
これは通常、一般分布仮説を参照して説明される。
本稿では,フレーゲの包括的,機能的アプローチに基づく,より具体的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-03-11T21:04:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。