論文の概要: Toward Machine-Guided, Human-Initiated Explanatory Interactive Learning
- arxiv url: http://arxiv.org/abs/2007.10018v1
- Date: Mon, 20 Jul 2020 11:51:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 13:40:42.705244
- Title: Toward Machine-Guided, Human-Initiated Explanatory Interactive Learning
- Title(参考訳): 機械誘導・人間主導型説明対話型学習を目指して
- Authors: Teodora Popordanoska, Mohit Kumar, and Stefano Teso
- Abstract要約: 最近の研究は、ブラックボックスモデルの理解と監視のために、局所的な説明と活発な学習を組み合わせるという約束を実証している。
ここでは、特定の条件下では、これらのアルゴリズムが学習されるモデルの質を誤って表現する可能性があることを示す。
説明的指導型学習を導入することで、この物語バイアスに対処する。
- 参考スコア(独自算出の注目度): 9.887110107270196
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work has demonstrated the promise of combining local explanations with
active learning for understanding and supervising black-box models. Here we
show that, under specific conditions, these algorithms may misrepresent the
quality of the model being learned. The reason is that the machine illustrates
its beliefs by predicting and explaining the labels of the query instances: if
the machine is unaware of its own mistakes, it may end up choosing queries on
which it performs artificially well. This biases the "narrative" presented by
the machine to the user.We address this narrative bias by introducing
explanatory guided learning, a novel interactive learning strategy in which: i)
the supervisor is in charge of choosing the query instances, while ii) the
machine uses global explanations to illustrate its overall behavior and to
guide the supervisor toward choosing challenging, informative instances. This
strategy retains the key advantages of explanatory interaction while avoiding
narrative bias and compares favorably to active learning in terms of sample
complexity. An initial empirical evaluation with a clustering-based prototype
highlights the promise of our approach.
- Abstract(参考訳): 最近の研究は、ブラックボックスモデルの理解と監視のために、局所的な説明と活発な学習を組み合わせることを実証している。
ここでは、特定の条件下では、これらのアルゴリズムが学習されるモデルの質を誤って表現する可能性があることを示す。
その理由は、マシンがクエリインスタンスのラベルを予測し、説明することによって、その信念を表現しているからである。
これは、ユーザに対して機械が提示する「物語」に偏りを生じさせ、説明的指導型学習を導入することで、この物語バイアスに対処する。
一 管理人は、クエリーインスタンスの選択を任されている間、
二 機械は、グローバルな説明を用いて、その全体的行動を説明し、かつ、困難かつ情報のある事例を選択するよう監督官に指示する。
この戦略は説明的相互作用の重要な利点を保ちながら、物語バイアスを避け、サンプル複雑性の観点からアクティブラーニングと比較する。
クラスタリングベースのプロトタイプによる最初の経験的評価は、私たちのアプローチの約束を強調します。
関連論文リスト
- Towards Non-Adversarial Algorithmic Recourse [20.819764720587646]
反実的な説明とは対照的に、敵対的な例は、それらが根底的な真実よりも誤分類につながるという独特の特徴を持っていると論じられている。
本稿では,非対人的アルゴリズムの議論を紹介するとともに,高い状況下では,対人的特徴を示さない対実的説明を得ることが不可欠である理由を概説する。
論文 参考訳(メタデータ) (2024-03-15T14:18:21Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Learning by Self-Explaining [23.420673675343266]
我々は、自己説明による学習(LSX)と呼ばれる画像分類の文脈において、新しいワークフローを導入する。
LSXは、自己修復型AIと人間誘導型説明機械学習の側面を利用する。
本結果は,自己説明による学習による改善を,いくつかのレベルで示すものである。
論文 参考訳(メタデータ) (2023-09-15T13:41:57Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Streamlining models with explanations in the learning loop [0.0]
いくつかの説明可能なAIメソッドにより、機械学習ユーザーはブラックボックスモデルの分類プロセスに関する洞察を得ることができる。
この情報を利用して機能エンジニアリングフェーズを設計し、説明と機能バリューを組み合わせる。
論文 参考訳(メタデータ) (2023-02-15T16:08:32Z) - VCNet: A self-explaining model for realistic counterfactual generation [52.77024349608834]
事実的説明は、機械学習の決定を局所的に説明するための手法のクラスである。
本稿では,予測器と対実生成器を組み合わせたモデルアーキテクチャであるVCNet-Variational Counter Netを提案する。
我々はVCNetが予測を生成でき、また、別の最小化問題を解くことなく、反現実的な説明を生成できることを示した。
論文 参考訳(メタデータ) (2022-12-21T08:45:32Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Machine Guides, Human Supervises: Interactive Learning with Global
Explanations [11.112120925113627]
本稿では,新しい対話型学習戦略である説明指導学習(XGL)を紹介する。
XGLは、マシンが提供する説明が分類器の品質を上回るケースに対して堅牢であるように設計されている。
対話型機械教育とリンクを描くことによって、グローバルな説明が監督を導くための有効なアプローチであることを理論的に示す。
論文 参考訳(メタデータ) (2020-09-21T09:55:30Z) - Explanations of Black-Box Model Predictions by Contextual Importance and
Utility [1.7188280334580195]
本稿では,初級者だけでなく専門家が容易に理解できる説明を抽出するために,文脈重要度(CI)と文脈実用性(CU)の概念を提案する。
本手法は,モデルを解釈可能なモデルに変換することなく予測結果を説明する。
カーセレクションの例とアイリスの花分類における説明の有用性を,完全な(つまり,個人の予測の原因)と対照的な説明を提示することによって示す。
論文 参考訳(メタデータ) (2020-05-30T06:49:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。