論文の概要: Revisiting the Othello World Model Hypothesis
- arxiv url: http://arxiv.org/abs/2503.04421v1
- Date: Thu, 06 Mar 2025 13:26:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-07 16:00:13.060743
- Title: Revisiting the Othello World Model Hypothesis
- Title(参考訳): オセロ世界モデル仮説の再検討
- Authors: Yifei Yuan, Anders Søgaard,
- Abstract要約: 我々はOthelloボードの状態を分析し、以前の動きに基づいて次の動きを予測するモデルを訓練する。
すべてのモデルが教師なしの接地において最大99%の精度を達成し、彼らが学んだボード機能に高い類似性を示すことがわかった。
- 参考スコア(独自算出の注目度): 46.84113324750507
- License:
- Abstract: Li et al. (2023) used the Othello board game as a test case for the ability of GPT-2 to induce world models, and were followed up by Nanda et al. (2023b). We briefly discuss the original experiments, expanding them to include more language models with more comprehensive probing. Specifically, we analyze sequences of Othello board states and train the model to predict the next move based on previous moves. We evaluate seven language models (GPT-2, T5, Bart, Flan-T5, Mistral, LLaMA-2, and Qwen2.5) on the Othello task and conclude that these models not only learn to play Othello, but also induce the Othello board layout. We find that all models achieve up to 99% accuracy in unsupervised grounding and exhibit high similarity in the board features they learned. This provides considerably stronger evidence for the Othello World Model Hypothesis than previous works.
- Abstract(参考訳): Li et al (2023) は世界モデルを誘導する GPT-2 の試験ケースとして Othello ボードゲームを使用し、その後 Nanda et al (2023b) が続いた。
我々は、最初の実験について簡単に議論し、より包括的な探索を伴うより多くの言語モデルを含むように拡張した。
具体的には、Othello基板状態のシーケンスを分析し、モデルのトレーニングを行い、以前の動きに基づいて次の動きを予測する。
我々は,Othelloタスク上で7つの言語モデル(GPT-2,T5,Bart,Flan-T5,Mistral,LLaMA-2,Qwen2.5)を評価し,これらのモデルがOthelloをプレイすることを学ぶだけでなく,Othelloボードレイアウトを誘導する。
すべてのモデルが教師なしの接地において最大99%の精度を達成し、彼らが学んだボード機能に高い類似性を示すことがわかった。
これは、以前の作品よりも、オセロ世界モデル仮説のかなり強い証拠を提供する。
関連論文リスト
- How GPT learns layer by layer [0.28926166547031595]
我々は,Othelloゲームプレイで訓練されたGPTベースのモデルであるOthelloGPTを,表現学習のためのテストベッドとして分析する。
我々は、スパースオートエンコーダ(SAE)と線形プローブを比較し、SAEがより頑丈で、構成的特徴に対する不整合な洞察を提供することを示した。
SAEを使ってタイル色とタイル安定性に関連する機能をデコードします。
論文 参考訳(メタデータ) (2025-01-13T07:42:55Z) - Emergent World Models and Latent Variable Estimation in Chess-Playing Language Models [0.0]
我々は,Othelloゲーム上でGPTモデルをトレーニングし,ボード状態の内部表現を学習した。
この作業をチェスのより複雑な領域に拡張し、実際のゲームでトレーニングし、モデルの内部表現を調査します。
Li et al. の以前の合成データセットアプローチとは異なり、我々の分析では、このモデルがプレイヤースキルのような潜伏変数を推定し、次のキャラクタをより正確に予測する方法も学んでいる。
論文 参考訳(メタデータ) (2024-03-21T18:53:23Z) - Linear Latent World Models in Simple Transformers: A Case Study on
Othello-GPT [0.9208007322096532]
本稿は,Othello-GPTの創発的世界モデルの理解を深めるために,Othelloのために訓練された単純なトランスフォーマーを念頭に検討する。
調査の結果、Othello-GPTは反対のピースの線形表現をカプセル化しており、その決定過程を因果的に判断する要因であることがわかった。
論文 参考訳(メタデータ) (2023-10-11T15:20:07Z) - Emergent World Representations: Exploring a Sequence Model Trained on a Synthetic Task [75.35278593566068]
言語モデルは驚くべき範囲の能力を示しているが、その明らかな能力の源泉は不明である。
これらのネットワークは単に表面統計の集合を記憶しているだけなのか、あるいは、彼らが見るシーケンスを生成するプロセスの内部表現に依存しているのだろうか?
簡単なボードゲームOthelloにおける法的な動きを予測するタスクに,GPTモデルの変種を適用して検討する。
論文 参考訳(メタデータ) (2022-10-24T16:29:55Z) - Word Play for Playing Othello (Reverses) [0.0]
研究は、より大きな(GPT-3)言語モデルと小さい(GPT-2)言語モデルの両方を適用して、Othello(またはReverses)のゲームのための複雑な戦略を探索する。
言語モデルはチャンピオンシップレベルの戦略を自動的にキャプチャまたはエミュレートする。
微調整されたGPT-2モデルは13-71%の完成率からオセロゲームを生成し、より大きなGPT-3モデルは41%の完成率に達する。
論文 参考訳(メタデータ) (2022-07-18T17:13:32Z) - Unifying Language Learning Paradigms [96.35981503087567]
データセットやセットアップ全体にわたって普遍的に有効である事前学習モデルのための統一的なフレームワークを提案する。
本研究では, 事前学習対象を相互に配置し, 異なる対象間の補間を効果的に行う方法を示す。
また,テキスト内学習において,ゼロショットSuperGLUEで175B GPT-3,ワンショット要約でT5-XXLの性能を3倍に向上させた。
論文 参考訳(メタデータ) (2022-05-10T19:32:20Z) - RoBLEURT Submission for the WMT2021 Metrics Task [72.26898579202076]
本稿では,共有メトリクスタスクであるRoBLEURTについて紹介する。
我々のモデルは10対の英語言語対のうち8対でWMT 2020の人間のアノテーションと最先端の相関に達する。
論文 参考訳(メタデータ) (2022-04-28T08:49:40Z) - Exploring Strategies for Generalizable Commonsense Reasoning with
Pre-trained Models [62.28551903638434]
モデルの一般化と精度に及ぼす3つの異なる適応法の影響を計測する。
2つのモデルを用いた実験では、微調整はタスクの内容と構造の両方を学習することで最もうまく機能するが、過度に適合し、新しい答えへの限定的な一般化に苦しむ。
我々は、プレフィックスチューニングのような代替適応手法が同等の精度を持つのを観察するが、解を見落とさずに一般化し、対数分割に対してより堅牢である。
論文 参考訳(メタデータ) (2021-09-07T03:13:06Z) - To what extent do human explanations of model behavior align with actual
model behavior? [91.67905128825402]
モデル推論決定の人間による説明が、モデルが実際にこれらの決定を下す方法と一致する程度を調べた。
自然言語の人間の説明が入力語に対するモデル感度とどのように一致するかを定量化する2つのアライメント指標を定義した。
モデルと人間の説明との整合は、NLI上のモデルの精度によって予測されないことが判明した。
論文 参考訳(メタデータ) (2020-12-24T17:40:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。