論文の概要: Information based explanation methods for deep learning agents -- with
applications on large open-source chess models
- arxiv url: http://arxiv.org/abs/2309.09702v1
- Date: Mon, 18 Sep 2023 12:08:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 13:41:46.609904
- Title: Information based explanation methods for deep learning agents -- with
applications on large open-source chess models
- Title(参考訳): ディープラーニングエージェントの情報ベース説明法と大規模オープンソースチェスモデルへの応用
- Authors: Patrik Hammersborg and Inga Str\"umke
- Abstract要約: 本研究は,AlphaZeroに適用された概念検出手法の再実装について述べる。
オープンソースリソースにのみ依存しながら,AlphaZeroで達成した結果と同じような結果が得られる。
また,説明可能なAI(XAI)手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With large chess-playing neural network models like AlphaZero contesting the
state of the art within the world of computerised chess, two challenges present
themselves: The question of how to explain the domain knowledge internalised by
such models, and the problem that such models are not made openly available.
This work presents the re-implementation of the concept detection methodology
applied to AlphaZero in McGrath et al. (2022), by using large, open-source
chess models with comparable performance. We obtain results similar to those
achieved on AlphaZero, while relying solely on open-source resources. We also
present a novel explainable AI (XAI) method, which is guaranteed to highlight
exhaustively and exclusively the information used by the explained model. This
method generates visual explanations tailored to domains characterised by
discrete input spaces, as is the case for chess. Our presented method has the
desirable property of controlling the information flow between any input vector
and the given model, which in turn provides strict guarantees regarding what
information is used by the trained model during inference. We demonstrate the
viability of our method by applying it to standard 8x8 chess, using large
open-source chess models.
- Abstract(参考訳): AlphaZeroのような大規模なチェス演奏ニューラルネットワークモデルでは、コンピュータチェスの世界における芸術の状態を争うが、それ自身には2つの課題がある: このようなモデルによって内部化されているドメイン知識を説明する方法と、そのようなモデルが公開されていないという問題。
この研究は、McGrath et al. (2022)でAlphaZeroに適用された概念検出手法の再実装を、同等の性能を持つ大規模なオープンソースのチェスモデルを用いて提案する。
オープンソースリソースにのみ依存しながら,AlphaZeroで達成した結果と同じような結果が得られる。
また,説明モデルが使用する情報に対して,徹底的かつ排他的に強調できる新しい説明可能なai(xai)手法を提案する。
この方法は、チェスの場合と同様に、離散入力空間によって特徴づけられる領域に合わせた視覚的な説明を生成する。
提案手法は,任意の入力ベクトルと与えられたモデル間の情報フローを制御するための望ましい特性を持ち,その結果として,トレーニングされたモデルが推論中に使用する情報について厳密な保証を提供する。
本手法は,大規模オープンソースチェスモデルを用いて,標準8x8チェスに適用することにより実現可能性を示す。
関連論文リスト
- Towards Better Generalization in Open-Domain Question Answering by Mitigating Context Memorization [67.92796510359595]
Open-Domain Question Answering (OpenQA)は、外部の大規模知識コーパスで事実質問に答えることを目的としている。
OpenQAモデルが完全に新しい知識ドメインにどの程度うまく移行できるかは、まだ不明である。
コーパス不変チューニング(CIT: Corpus-Invariant Tuning)は,記憶過剰な知識の軽減を目的とした,シンプルで効果的なトレーニング戦略である。
論文 参考訳(メタデータ) (2024-04-02T05:44:50Z) - Continual Zero-Shot Learning through Semantically Guided Generative
Random Walks [56.65465792750822]
生成モデルを利用して、学習中に見えない情報が提供されない連続ゼロショット学習の課題に対処する。
本稿では,新しい意味誘導型生成ランダムウォーク(GRW)損失を用いた学習アルゴリズムを提案する。
提案アルゴリズムは,AWA1,AWA2,CUB,SUNデータセットの最先端性能を達成し,既存のCZSL手法を3~7%上回る結果を得た。
論文 参考訳(メタデータ) (2023-08-23T18:10:12Z) - Recognizing Unseen Objects via Multimodal Intensive Knowledge Graph
Propagation [68.13453771001522]
画像の領域と対応するセマンティック埋め込みとをマッチングする多モード集中型ZSLフレームワークを提案する。
我々は、大規模な実世界のデータに基づいて、広範囲な実験を行い、そのモデルを評価する。
論文 参考訳(メタデータ) (2023-06-14T13:07:48Z) - Preserving Knowledge Invariance: Rethinking Robustness Evaluation of
Open Information Extraction [50.62245481416744]
実世界におけるオープン情報抽出モデルの評価をシミュレートする最初のベンチマークを示す。
我々は、それぞれの例が知識不変のcliqueである大規模なテストベッドを設計し、注釈付けする。
さらにロバスト性計量を解明することにより、その性能が全体の傾きに対して一貫して正確であるならば、モデルはロバストであると判断される。
論文 参考訳(メタデータ) (2023-05-23T12:05:09Z) - Foiling Explanations in Deep Neural Networks [0.0]
本稿では,画像ベースDNNにおける説明手法の問題点を明らかにする。
進化戦略を用いて、説明を任意に操作する方法を実証する。
我々の新しいアルゴリズムは、人間の目では認識できない方法で画像の操作に成功している。
論文 参考訳(メタデータ) (2022-11-27T15:29:39Z) - Greybox XAI: a Neural-Symbolic learning framework to produce
interpretable predictions for image classification [6.940242990198]
Greybox XAIは、シンボリック知識ベース(KB)を使うことで、DNNと透明モデルを構成するフレームワークである。
我々は、XAIの普遍的基準が欠如している問題に、説明が何であるかを形式化することで対処する。
この新しいアーキテクチャがどのように正確で、いくつかのデータセットで説明可能であるかを示す。
論文 参考訳(メタデータ) (2022-09-26T08:55:31Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Explaining Convolutional Neural Networks through Attribution-Based Input
Sampling and Block-Wise Feature Aggregation [22.688772441351308]
クラスアクティベーションマッピングとランダムな入力サンプリングに基づく手法が広く普及している。
しかし、帰属法は、その説明力を制限した解像度とぼやけた説明地図を提供する。
本研究では、帰属型入力サンプリング技術に基づいて、モデルの複数の層から可視化マップを収集する。
また,CNNモデル全体に適用可能な層選択戦略を提案する。
論文 参考訳(メタデータ) (2020-10-01T20:27:30Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - LIMEADE: From AI Explanations to Advice Taking [34.581205516506614]
ポジティブなアドバイスとネガティブなアドバイスの両方を、任意の基盤となる不透明なモデルに変換する最初のフレームワークであるLIMEADEを紹介します。
画像分類領域の厳密なベースラインに比べて精度が向上することを示す。
テキストのモダリティについては、公開ウェブサイト上の科学論文のニューラルレコメンデータシステムに適用する。
論文 参考訳(メタデータ) (2020-03-09T18:00:00Z) - Learning Discrete State Abstractions With Deep Variational Inference [7.273663549650618]
状態抽象化の一種である近似バイシミュレーションを学習する手法を提案する。
我々はディープ・ニューラルエンコーダを使って状態を連続的な埋め込みにマッピングする。
我々はこれらの埋め込みを、アクション条件付き隠れマルコフモデルを用いて離散表現にマッピングする。
論文 参考訳(メタデータ) (2020-03-09T17:58:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。