論文の概要: Machine Guides, Human Supervises: Interactive Learning with Global
Explanations
- arxiv url: http://arxiv.org/abs/2009.09723v1
- Date: Mon, 21 Sep 2020 09:55:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-16 03:48:24.864678
- Title: Machine Guides, Human Supervises: Interactive Learning with Global
Explanations
- Title(参考訳): 機械ガイドと人間監督:グローバルな説明を伴う対話型学習
- Authors: Teodora Popordanoska, Mohit Kumar, Stefano Teso
- Abstract要約: 本稿では,新しい対話型学習戦略である説明指導学習(XGL)を紹介する。
XGLは、マシンが提供する説明が分類器の品質を上回るケースに対して堅牢であるように設計されている。
対話型機械教育とリンクを描くことによって、グローバルな説明が監督を導くための有効なアプローチであることを理論的に示す。
- 参考スコア(独自算出の注目度): 11.112120925113627
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce explanatory guided learning (XGL), a novel interactive learning
strategy in which a machine guides a human supervisor toward selecting
informative examples for a classifier. The guidance is provided by means of
global explanations, which summarize the classifier's behavior on different
regions of the instance space and expose its flaws. Compared to other
explanatory interactive learning strategies, which are machine-initiated and
rely on local explanations, XGL is designed to be robust against cases in which
the explanations supplied by the machine oversell the classifier's quality.
Moreover, XGL leverages global explanations to open up the black-box of
human-initiated interaction, enabling supervisors to select informative
examples that challenge the learned model. By drawing a link to interactive
machine teaching, we show theoretically that global explanations are a viable
approach for guiding supervisors. Our simulations show that explanatory guided
learning avoids overselling the model's quality and performs comparably or
better than machine- and human-initiated interactive learning strategies in
terms of model quality.
- Abstract(参考訳): 本稿では,機械が人間を指導する対話型学習戦略である説明指導学習(XGL)を紹介する。
このガイダンスはグローバル説明によって提供され、インスタンス空間の異なる領域における分類器の振る舞いを要約し、欠陥を暴露する。
他の説明的対話型学習戦略と比較して、XGLは、機械が提供した説明が分類器の品質を上回るケースに対して堅牢であるように設計されている。
さらに、XGLはグローバルな説明を活用して、人間の開始によるインタラクションのブラックボックスを開くことで、管理者は学習モデルに挑戦する情報的サンプルを選択することができる。
対話型機械教示へのリンクを提示することにより,グローバル説明が監督者の指導に有効なアプローチであることを理論的に示す。
シミュレーションの結果,説明指導学習はモデル品質の過大評価を回避し,モデル品質の面では機械や人間主導の対話型学習戦略と同等かそれ以上の性能を発揮することがわかった。
関連論文リスト
- Diffexplainer: Towards Cross-modal Global Explanations with Diffusion Models [51.21351775178525]
DiffExplainerは、言語ビジョンモデルを活用することで、マルチモーダルなグローバルな説明可能性を実現する新しいフレームワークである。
最適化されたテキストプロンプトに条件付けされた拡散モデルを使用し、クラス出力を最大化する画像を合成する。
生成した視覚的記述の分析により、バイアスと突発的特徴の自動識別が可能になる。
論文 参考訳(メタデータ) (2024-04-03T10:11:22Z) - Revisiting Self-supervised Learning of Speech Representation from a
Mutual Information Perspective [68.20531518525273]
我々は、情報理論の観点から、既存の自己教師型音声の手法を詳しく検討する。
我々は線形プローブを用いて、対象情報と学習された表現の間の相互情報を推定する。
我々は、ラベルを使わずに、データの異なる部分間の相互情報を見積もる自己教師型の表現を評価する可能性を探る。
論文 参考訳(メタデータ) (2024-01-16T21:13:22Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Leveraging Explanations in Interactive Machine Learning: An Overview [10.284830265068793]
説明はAIと機械学習(ML)コミュニティへの関心が高まっている。
本稿では,対話的能力と説明が組み合わさった研究の概要について述べる。
論文 参考訳(メタデータ) (2022-07-29T07:46:11Z) - Homomorphism Autoencoder -- Learning Group Structured Representations from Observed Transitions [51.71245032890532]
本研究では,世界に作用するエージェントが,それを修飾する動作と整合した感覚情報の内部表現を学習できるようにする手法を提案する。
既存の作業とは対照的に、我々のアプローチはグループの事前の知識を必要とせず、エージェントが実行可能なアクションのセットを制限しない。
論文 参考訳(メタデータ) (2022-07-25T11:22:48Z) - DECE: Decision Explorer with Counterfactual Explanations for Machine
Learning Models [36.50754934147469]
我々は,機械学習モデルの振る舞いを理解し,探索するために,反実的説明の可能性を利用する。
我々は、個別のインスタンスとデータサブセットに関するモデルの判断を理解し、調査するのに役立つインタラクティブな可視化システムであるDECEを設計する。
論文 参考訳(メタデータ) (2020-08-19T09:44:47Z) - Toward Machine-Guided, Human-Initiated Explanatory Interactive Learning [9.887110107270196]
最近の研究は、ブラックボックスモデルの理解と監視のために、局所的な説明と活発な学習を組み合わせるという約束を実証している。
ここでは、特定の条件下では、これらのアルゴリズムが学習されるモデルの質を誤って表現する可能性があることを示す。
説明的指導型学習を導入することで、この物語バイアスに対処する。
論文 参考訳(メタデータ) (2020-07-20T11:51:31Z) - The Grammar of Interactive Explanatory Model Analysis [7.812073412066698]
本稿では,異なる説明モデル解析(EMA)手法が相互にどのように補完するかを示す。
我々はIEMAの文法を形式化し、潜在的な人間モデル対話を記述する。
IEMAは、広く使われている人中心のオープンソースソフトウェアフレームワークで実装されている。
論文 参考訳(メタデータ) (2020-05-01T17:12:22Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - Explainable Active Learning (XAL): An Empirical Study of How Local
Explanations Impact Annotator Experience [76.9910678786031]
本稿では、最近急増している説明可能なAI(XAI)のテクニックをアクティブラーニング環境に導入することにより、説明可能なアクティブラーニング(XAL)の新たなパラダイムを提案する。
本研究は,機械教育のインタフェースとしてのAI説明の利点として,信頼度校正を支援し,リッチな形式の教示フィードバックを可能にすること,モデル判断と認知作業負荷による潜在的な欠点を克服する効果を示す。
論文 参考訳(メタデータ) (2020-01-24T22:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。