論文の概要: Evaluation Beyond Task Performance: Analyzing Concepts in AlphaZero in
Hex
- arxiv url: http://arxiv.org/abs/2211.14673v1
- Date: Sat, 26 Nov 2022 21:59:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 17:56:32.950294
- Title: Evaluation Beyond Task Performance: Analyzing Concepts in AlphaZero in
Hex
- Title(参考訳): タスクパフォーマンス以上の評価: HexにおけるAlphaZeroの概念の分析
- Authors: Charles Lovering, Jessica Zosa Forde, George Konidaris, Ellie Pavlick,
Michael L. Littman
- Abstract要約: 我々は,HexゲームにおけるAlphaZeroの内部表現について,自然言語処理(NLP)による2つの評価手法を用いて検討する。
短期的なエンドゲーム計画に関する概念はモデルの最終層に最もよくエンコードされているのに対し、長期計画に関する概念はモデルの中層に最もよくエンコードされている。
- 参考スコア(独自算出の注目度): 39.001544338346655
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AlphaZero, an approach to reinforcement learning that couples neural networks
and Monte Carlo tree search (MCTS), has produced state-of-the-art strategies
for traditional board games like chess, Go, shogi, and Hex. While researchers
and game commentators have suggested that AlphaZero uses concepts that humans
consider important, it is unclear how these concepts are captured in the
network. We investigate AlphaZero's internal representations in the game of Hex
using two evaluation techniques from natural language processing (NLP): model
probing and behavioral tests. In doing so, we introduce new evaluation tools to
the RL community and illustrate how evaluations other than task performance can
be used to provide a more complete picture of a model's strengths and
weaknesses. Our analyses in the game of Hex reveal interesting patterns and
generate some testable hypotheses about how such models learn in general. For
example, we find that MCTS discovers concepts before the neural network learns
to encode them. We also find that concepts related to short-term end-game
planning are best encoded in the final layers of the model, whereas concepts
related to long-term planning are encoded in the middle layers of the model.
- Abstract(参考訳): AlphaZeroは、ニューラルネットワークとモンテカルロ木探索(MCTS)を結合した強化学習のアプローチであり、チェス、囲碁、ショギ、ヘックスといった伝統的なボードゲームのための最先端の戦略を生み出している。
研究者やゲームコメンテーターは、AlphaZeroは人間が重要と考える概念を使っていると示唆しているが、これらの概念がネットワーク内でどのように捉えられているかは定かではない。
我々は,HexゲームにおけるAlphaZeroの内部表現について,自然言語処理(NLP)による2つの評価手法を用いて検討する。
そこで我々は,RLコミュニティに新たな評価ツールを導入し,モデルの強みと弱みをより完全に表現するために,タスクパフォーマンス以外の評価をどのように利用できるかを説明する。
hexゲームにおける我々の分析は興味深いパターンを示し、そのようなモデルが一般的にどのように学習するかに関するテスト可能な仮説を生み出している。
例えば、ニューラルネットワークがそれらをエンコードすることを学ぶ前に、MCTSは概念を発見する。
また、短期的なエンドゲーム計画に関する概念はモデルの最終層に最もよくエンコードされているのに対し、長期計画に関する概念はモデルの中間層にエンコードされている。
関連論文リスト
- Game Theory Meets Statistical Mechanics in Deep Learning Design [0.06990493129893112]
本稿では,ゲーム理論の原理と統計力学の法則をシームレスに融合する新しいディープ表現を提案する。
単一の学習フレームワーク内で特徴抽出、次元縮小、パターン分類を行う。
論文 参考訳(メタデータ) (2024-10-16T06:02:18Z) - Discover-then-Name: Task-Agnostic Concept Bottlenecks via Automated Concept Discovery [52.498055901649025]
ディープニューラルネットワークの「ブラックボックス」問題に対処するために、概念ボトルネックモデル(CBM)が提案されている。
本稿では,典型的なパラダイムを逆転させる新しいCBMアプローチであるDiscover-then-Name-CBM(DN-CBM)を提案する。
我々の概念抽出戦略は、下流のタスクに非依存であり、既にそのモデルに知られている概念を使用するため、効率的である。
論文 参考訳(メタデータ) (2024-07-19T17:50:11Z) - Concept Distillation: Leveraging Human-Centered Explanations for Model
Improvement [3.026365073195727]
概念活性化ベクトル(Concept Activation Vectors, CAV)は、ある概念に対するモデルの感度と潜在的なバイアスを推定する。
微調整によりモデルバイアスを低減するため,CAVをポストホック解析からアンテホックトレーニングに拡張する。
本稿では,いくつかの分類問題に対する概念感受性トレーニングの応用について述べる。
論文 参考訳(メタデータ) (2023-11-26T14:00:14Z) - NxPlain: Web-based Tool for Discovery of Latent Concepts [16.446370662629555]
提案するNxPlainは,潜在概念を用いたモデル予測を記述したWebアプリケーションである。
NxPlainは、深いNLPモデルで学んだ潜在概念を発見し、モデルで学んだ知識の解釈を提供し、使用した概念に基づいてその予測を説明する。
論文 参考訳(メタデータ) (2023-03-06T10:45:24Z) - Prediction of concept lengths for fast concept learning in description
logics [2.0474076605741036]
洗練された演算子に基づく概念学習アプローチは、概念を計算するために部分的に順序付けられた解空間を探索する。
本稿では,対象概念の長さを予測するための教師付き機械学習手法を提案する。
概念長予測器をCELOEアルゴリズムに統合することで、CELOEのランタイムを最大13.4倍改善し、結果の品質に大きな変更を加えることなく実現可能であることを示す。
論文 参考訳(メタデータ) (2021-07-10T21:00:48Z) - A Minimalist Dataset for Systematic Generalization of Perception,
Syntax, and Semantics [131.93113552146195]
我々は,機械が一般化可能な概念を学習する能力を調べるため,新しいデータセットであるHINT(Hand written arithmetic with INTegers)を提案する。
HINTでは、イメージなどの生信号から概念がどのように認識されるかを学ぶことが機械のタスクである。
我々は、RNN、Transformer、GPT-3など、様々なシーケンス・ツー・シーケンスモデルで広範囲に実験を行った。
論文 参考訳(メタデータ) (2021-03-02T01:32:54Z) - Formalising Concepts as Grounded Abstractions [68.24080871981869]
このレポートは、表現学習が生データから概念を誘導する方法を示しています。
このレポートの主な技術的目標は、表現学習のテクニックが概念空間の格子理論的定式化とどのように結婚できるかを示すことである。
論文 参考訳(メタデータ) (2021-01-13T15:22:01Z) - RethinkCWS: Is Chinese Word Segmentation a Solved Task? [81.11161697133095]
中国語の単語(CWS)システムの性能は、ディープニューラルネットワークの急速な発展とともに、徐々に高水準に達している。
本稿では、私たちが達成した事柄の株式を取得し、CWSタスクに残されている事柄を再考する。
論文 参考訳(メタデータ) (2020-11-13T11:07:08Z) - Concept Learners for Few-Shot Learning [76.08585517480807]
本研究では,人間の解釈可能な概念次元に沿って学習することで,一般化能力を向上させるメタ学習手法であるCOMETを提案する。
我々は,細粒度画像分類,文書分類,セルタイプアノテーションなど,さまざまな領域からの少数ショットタスクによるモデルの評価を行った。
論文 参考訳(メタデータ) (2020-07-14T22:04:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。