論文の概要: Bandits for Learning to Explain from Explanations
- arxiv url: http://arxiv.org/abs/2102.03815v1
- Date: Sun, 7 Feb 2021 15:20:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-09 16:02:40.016562
- Title: Bandits for Learning to Explain from Explanations
- Title(参考訳): 説明から説明するためのバンディット
- Authors: Freya Behrens, Stefano Teso, Davide Mottin
- Abstract要約: 本稿では,これらの予測に対する予測と説明を共同で出力するオンラインアルゴリズムであるExplearnを紹介する。
まず、GPは様々な種類の説明を自然に捉え、システムデザイナが空間全体にわたってどのように説明が一般化されるかを制御できるようにします。
- 参考スコア(独自算出の注目度): 19.54307474041768
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce Explearn, an online algorithm that learns to jointly output
predictions and explanations for those predictions. Explearn leverages Gaussian
Processes (GP)-based contextual bandits. This brings two key benefits. First,
GPs naturally capture different kinds of explanations and enable the system
designer to control how explanations generalize across the space by virtue of
choosing a suitable kernel. Second, Explearn builds on recent results in
contextual bandits which guarantee convergence with high probability. Our
initial experiments hint at the promise of the approach.
- Abstract(参考訳): 予測と説明を共同で出力することを学ぶオンラインアルゴリズム「Explearn」を紹介します。
Explearn は Gaussian Processes (GP)-based contextual bandits を活用している。
これは2つの大きな利点をもたらす。
まず、GPは自然にさまざまな種類の説明をキャプチャし、システムデザイナが適切なカーネルを選択することによって、空間全体の説明の一般化を制御できるようにします。
第二に、Explearnは、高確率で収束を保証するコンテキストバンディットの最近の結果に基づいています。
私達の最初の実験はアプローチの約束を暗示します。
関連論文リスト
- Improving rule mining via embedding-based link prediction [2.422410293747519]
知識グラフのルールマイニングは、説明可能なリンク予測を可能にする。
この2つの家系を組み合わせたいくつかのアプローチが近年提案されている。
2つのアプローチを結合する新しい方法を提案する。
論文 参考訳(メタデータ) (2024-06-14T15:53:30Z) - View-based Explanations for Graph Neural Networks [27.19300566616961]
本稿では,表現のためのグラフビューを生成する新しいパラダイムであるGVEXを提案する。
この戦略は近似比が1/2であることを示す。
第2のアルゴリズムは、インプットノードストリームへの単一パスをバッチで実行し、説明ビューを漸進的に維持する。
論文 参考訳(メタデータ) (2024-01-04T06:20:24Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - Toward Multiple Specialty Learners for Explaining GNNs via Online
Knowledge Distillation [0.17842332554022688]
グラフニューラルネットワーク(GNN)は、多くのアプリケーションやシステムにおいてますます普及し、それらの予測を説明する必要がある。
そこで我々はSCALEという新しいGNN説明フレームワークを提案する。
トレーニングにおいて、ブラックボックスGNNモデルは、オンライン知識蒸留パラダイムに基づいて学習者をガイドする。
具体的には、エッジマスキングと再起動手順によるランダムウォークを実行し、グラフレベルとノードレベルの予測の構造的説明を提供する。
論文 参考訳(メタデータ) (2022-10-20T08:44:57Z) - Don't Explain Noise: Robust Counterfactuals for Randomized Ensembles [50.81061839052459]
我々は確率論的問題として、堅牢な対実的説明の生成を定式化する。
アンサンブルモデルのロバスト性とベース学習者のロバスト性との関係を示す。
本手法は, 反実的説明から初期観測までの距離をわずかに増加させるだけで, 高いロバスト性を実現する。
論文 参考訳(メタデータ) (2022-05-27T17:28:54Z) - The Unreliability of Explanations in Few-Shot In-Context Learning [50.77996380021221]
我々は、テキスト上の推論、すなわち質問応答と自然言語推論を含む2つのNLPタスクに焦点を当てる。
入力と論理的に整合した説明は、通常より正確な予測を示す。
本稿では,説明の信頼性に基づいてモデル予測を校正する枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-06T17:57:58Z) - Reinforced Causal Explainer for Graph Neural Networks [112.57265240212001]
グラフニューラルネットワーク(GNN)の探索には説明可能性が不可欠である
我々は強化学習エージェントReinforced Causal Explainer (RC-Explainer)を提案する。
RC-Explainerは忠実で簡潔な説明を生成し、グラフを見えなくするより優れたパワーを持つ。
論文 参考訳(メタデータ) (2022-04-23T09:13:25Z) - Fair Wrapping for Black-box Predictions [105.10203274098862]
予測を修飾するα木として定義したラッパー関数を学習する。
この修正は, アルファツリーの構成, 一般化, 解釈可能性, および修正された予測とオリジナル予測のKLの相違に関して, 魅力的な性質を有することを示す。
論文 参考訳(メタデータ) (2022-01-31T01:02:39Z) - A visual introduction to Gaussian Belief Propagation [22.02770204949673]
本稿では、任意に構造化された因子グラフのノード間でメッセージを渡すことによって、近似確率推論アルゴリズムの視覚的導入を提案する。
ループ的信念伝播の特別な場合として、GBP更新はローカル情報のみに依存し、メッセージスケジュールとは独立して収束する。
我々の重要な論点は、最近のコンピューティングハードウェアのトレンドを考えると、GBPは将来の機械学習システムのためのスケーラブルな分散確率的推論フレームワークとして機能する適切な計算特性を持っているということです。
論文 参考訳(メタデータ) (2021-07-05T22:43:27Z) - An Intuitive Tutorial to Gaussian Process Regression [2.6839986755082728]
このチュートリアルは、ガウス過程回帰(GPR)の直感的な紹介を提供することを目的としている。
GPRモデルは、表現の柔軟性と、予測に対する不確実性を定量化する固有の能力のために、機械学習アプリケーションで広く使用されている。
論文 参考訳(メタデータ) (2020-09-22T23:57:30Z) - On Computation and Generalization of Generative Adversarial Imitation
Learning [134.17122587138897]
GAIL(Generative Adversarial Learning)は、シーケンシャルな意思決定ポリシーを学習するための強力で実践的なアプローチである。
本稿ではGAILの理論的性質について考察する。
論文 参考訳(メタデータ) (2020-01-09T00:40:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。