論文の概要: Training Characteristic Functions with Reinforcement Learning:
XAI-methods play Connect Four
- arxiv url: http://arxiv.org/abs/2202.11797v1
- Date: Wed, 23 Feb 2022 21:40:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-26 08:32:19.553031
- Title: Training Characteristic Functions with Reinforcement Learning:
XAI-methods play Connect Four
- Title(参考訳): 強化学習による特徴関数の訓練:XAI-methods play Connect Four
- Authors: Stephan W\"aldchen, Felix Huber, Sebastian Pokutta
- Abstract要約: 本稿では、ニューラルネットワークの形で特徴関数を訓練し、単純な2人プレイゲームを実行するためのセットアップを提案する。
XAIメソッドの比較には3つの利点がある: 部分的な入力を実現する方法の曖昧さを軽減し、オフ・マニフォールドの評価を不要にし、互いに対戦させることでメソッドを比較することができる。
- 参考スコア(独自算出の注目度): 17.5320459412718
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: One of the goals of Explainable AI (XAI) is to determine which input
components were relevant for a classifier decision. This is commonly know as
saliency attribution. Characteristic functions (from cooperative game theory)
are able to evaluate partial inputs and form the basis for theoretically "fair"
attribution methods like Shapley values. Given only a standard classifier
function, it is unclear how partial input should be realised. Instead, most
XAI-methods for black-box classifiers like neural networks consider
counterfactual inputs that generally lie off-manifold. This makes them hard to
evaluate and easy to manipulate.
We propose a setup to directly train characteristic functions in the form of
neural networks to play simple two-player games. We apply this to the game of
Connect Four by randomly hiding colour information from our agents during
training. This has three advantages for comparing XAI-methods: It alleviates
the ambiguity about how to realise partial input, makes off-manifold evaluation
unnecessary and allows us to compare the methods by letting them play against
each other.
- Abstract(参考訳): 説明可能なAI(XAI)の目標の1つは、どの入力コンポーネントが分類器決定に関連するかを決定することである。
これは一般的にサリエンシー・アトリビューションとして知られている。
特性関数(協調ゲーム理論からの)は部分入力を評価し、シャプリー値のような理論的に「公正」な帰属法の基礎を形成することができる。
標準分類子関数のみを考えると、部分入力をどのように実現すべきかは明らかでない。
代わりに、ニューラルネットワークのようなブラックボックス分類器のためのほとんどのXAIメソッドは、一般的にオフマニフォールドにある反ファクト入力を考慮する。
これにより、評価が難しくなり、操作が容易になる。
本稿では,ニューラルネットワークの形式で特徴関数を直接学習し,単純な2人プレイゲームを行うためのセットアップを提案する。
トレーニング中にエージェントから色情報をランダムに隠すことで、Connect Fourのゲームに適用する。
XAIメソッドの比較には3つの利点がある: 部分的な入力を実現する方法の曖昧さを軽減し、オフマンフォールド評価を不要にし、互いに対戦させることでメソッドを比較することができる。
関連論文リスト
- Distributing Synergy Functions: Unifying Game-Theoretic Interaction
Methods for Machine-Learning Explainability [9.416757363901295]
ゲーム理論にインスパイアされた属性と$ktextth$-orderインタラクションのための統一フレームワークを提案する。
相乗効果を分配する政策によって, 様々な手法がどう特徴づけられるかを明らかにする。
様々な基準の組み合わせは、属性/相互作用法を一意に定義する。
論文 参考訳(メタデータ) (2023-05-04T18:33:18Z) - ALSO: Automotive Lidar Self-supervision by Occupancy estimation [70.70557577874155]
本稿では,ポイントクラウド上で動作している深層知覚モデルのバックボーンを事前学習するための自己教師型手法を提案する。
中心となる考え方は、3Dポイントがサンプリングされる表面の再構成であるプリテキストタスクでモデルをトレーニングすることである。
直感的には、もしネットワークがわずかな入力ポイントのみを考慮し、シーン表面を再構築できるなら、おそらく意味情報の断片をキャプチャする。
論文 参考訳(メタデータ) (2022-12-12T13:10:19Z) - Inducing Structure in Reward Learning by Learning Features [31.413656752926208]
本稿では,その特徴を学習するための新しいタイプの人間入力と,それを生の状態空間から複雑な特徴を学習するアルゴリズムを紹介する。
当社の手法は,すべての機能をスクラッチから学ばなければならないような設定や,いくつかの機能が知られている場所で実証しています。
論文 参考訳(メタデータ) (2022-01-18T16:02:29Z) - Input Invex Neural Network [11.072628804821083]
接続された決定境界は、イメージセグメンテーション、クラスタリング、アルファシェープ、nD空間内の領域の定義など、いくつかのタスクで有用である。
本稿では,ニューラルネットワークを用いた凸関数構築のための2つの手法を提案する。
論文 参考訳(メタデータ) (2021-06-16T12:48:55Z) - Search Methods for Sufficient, Socially-Aligned Feature Importance
Explanations with In-Distribution Counterfactuals [72.00815192668193]
特徴重要度(FI)推定は一般的な説明形式であり、テスト時に特定の入力特徴を除去することによって生じるモデル信頼度の変化を計算し、評価することが一般的である。
FIに基づく説明の未探索次元についていくつかの考察を行い、この説明形式に対する概念的および実証的な改善を提供する。
論文 参考訳(メタデータ) (2021-06-01T20:36:48Z) - BCFNet: A Balanced Collaborative Filtering Network with Attention
Mechanism [106.43103176833371]
協調フィルタリング(CF)ベースの推奨方法が広く研究されている。
BCFNet(Balanced Collaborative Filtering Network)という新しい推薦モデルを提案する。
さらに注意機構は、暗黙のフィードバックの中で隠れた情報をよりよく捉え、ニューラルネットワークの学習能力を強化するように設計されている。
論文 参考訳(メタデータ) (2021-03-10T14:59:23Z) - An Empirical Study on the Generalization Power of Neural Representations
Learned via Visual Guessing Games [79.23847247132345]
本研究は,視覚質問応答(VQA)のような新しいNLP下流タスクにおいて,後から実行を依頼されたとき,人工エージェントが推測ゲームでどの程度の利益を得ることができるかを検討する。
提案手法は,1) エージェントがうまく推理ゲームを模倣することを学習する教師あり学習シナリオ,2) エージェントが単独でプレイする新しい方法,すなわち,反復経験学習(SPIEL)によるセルフプレイ(Self-play)を提案する。
論文 参考訳(メタデータ) (2021-01-31T10:30:48Z) - xRAI: Explainable Representations through AI [10.345196226375455]
本稿では,ニューラルネットワークがトレーニングしたネットワークから学習すべき数学的関数の記号表現を抽出する手法を提案する。
このアプローチは、訓練されたネットワークの重みとバイアスを入力として受信し、ネットワークが直接シンボリック表現に変換できる学習すべき関数の数値表現を出力する、いわゆる解釈ネットワークを訓練するというアイデアに基づいています。
論文 参考訳(メタデータ) (2020-12-10T22:49:29Z) - Evaluating Explainable AI: Which Algorithmic Explanations Help Users
Predict Model Behavior? [97.77183117452235]
我々は、モデル解釈性に対するアルゴリズム的説明の影響を分離するために、人体テストを実施している。
方法の有効性の明確な証拠はごく少数にみえる。
以上の結果から,説明がシミュラビリティにどのように影響するかの信頼性と包括的評価が得られた。
論文 参考訳(メタデータ) (2020-05-04T20:35:17Z) - How do Decisions Emerge across Layers in Neural Models? Interpretation
with Differentiable Masking [70.92463223410225]
DiffMaskは、差分性を維持しながら入力のサブセットをマスクアウトすることを学ぶ。
入力トークンを包含または無視する決定は、中間隠蔽層に基づく単純なモデルで行われる。
これにより、属性のヒートマップをプロットするだけでなく、ネットワーク層間で意思決定がどのように形成されるかを分析することができます。
論文 参考訳(メタデータ) (2020-04-30T17:36:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。