論文の概要: Counterfactual Explanations of Concept Drift
- arxiv url: http://arxiv.org/abs/2006.12822v1
- Date: Tue, 23 Jun 2020 08:27:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 22:34:26.369468
- Title: Counterfactual Explanations of Concept Drift
- Title(参考訳): 概念ドリフトの反事実的説明
- Authors: Fabian Hinder, Barbara Hammer
- Abstract要約: 概念ドリフトとは、観測データの背後にある分布が時間とともに変化する現象を指す。
本稿では,典型的な例で表現される空間的特徴の特徴的変化の観点から,概念の漂流を特徴付ける新しい技術を提案する。
- 参考スコア(独自算出の注目度): 11.53362411363005
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The notion of concept drift refers to the phenomenon that the distribution,
which is underlying the observed data, changes over time; as a consequence
machine learning models may become inaccurate and need adjustment. While there
do exist methods to detect concept drift or to adjust models in the presence of
observed drift, the question of explaining drift has hardly been considered so
far. This problem is of importance, since it enables an inspection of the most
prominent features where drift manifests itself; hence it enables human
understanding of the necessity of change and it increases acceptance of
life-long learning models. In this paper we present a novel technology, which
characterizes concept drift in terms of the characteristic change of spatial
features represented by typical examples based on counterfactual explanations.
We establish a formal definition of this problem, derive an efficient
algorithmic solution based on counterfactual explanations, and demonstrate its
usefulness in several examples.
- Abstract(参考訳): 概念ドリフト(concept drift)の概念は、観測データの基礎となる分布が時間とともに変化する現象を指す。
概念ドリフトを検知したり、観測されたドリフトの存在下でモデルを調整する方法は存在するが、ドリフトを説明するという問題は今のところほとんど考えられていない。
この問題は、ドリフトそのものが現れる最も顕著な特徴を検査することを可能にするため、変化の必要性を人間が理解し、生涯学習モデルの受け入れを増加させることで重要である。
本稿では,反事実的説明に基づいて,典型的な例で表される空間的特徴の特徴的変化に着目し,概念ドリフトを特徴付ける新しい技術を提案する。
この問題の形式的定義を確立し, 対実的説明に基づく効率的なアルゴリズム解を導出し, その有用性をいくつかの例で示す。
関連論文リスト
- Online Drift Detection with Maximum Concept Discrepancy [13.48123472458282]
最大概念差に基づく新しい概念ドリフト検出手法であるMDD-DDを提案する。
本手法は,概念埋め込みのコントラスト学習により,様々な形態のコンセプトドリフトを適応的に同定することができる。
論文 参考訳(メタデータ) (2024-07-07T13:57:50Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Model Based Explanations of Concept Drift [8.686667049158476]
概念ドリフト(concept drift)とは、観測データを生成する分布が時間とともに変化する現象を指す。
ドリフトが存在する場合、機械学習モデルは不正確になり、調整が必要である。
本稿では,空間的特徴の特徴的な変化の観点から,概念の漂流を特徴付ける新しい技術を提案する。
論文 参考訳(メタデータ) (2023-03-16T14:03:56Z) - Feature Relevance Analysis to Explain Concept Drift -- A Case Study in
Human Activity Recognition [3.5569545396848437]
本稿では,概念の漂流を検知し,説明する方法について考察する。
ドリフト検出は、ドリフトモデルと正確であることが知られているモデルとの最大の関連性差を持つ一連の特徴を特定することに基づいている。
特徴関連解析は, ドリフトの検出だけでなく, ドリフトの理由を説明するためにも用いられることが示されている。
論文 参考訳(メタデータ) (2023-01-20T07:34:27Z) - On the Change of Decision Boundaries and Loss in Learning with Concept
Drift [8.686667049158476]
概念ドリフト(concept drift)とは、観測データを生成する分布が時間とともに変化する現象を指す。
ドリフトで学習するための多くの技術は、モデル一般化誤差を近似する量としてインターリーブテストトレイン誤差(ITTE)に依存している。
論文 参考訳(メタデータ) (2022-12-02T14:58:13Z) - Change Detection for Local Explainability in Evolving Data Streams [72.4816340552763]
局所的特徴帰属法はポストホックやモデルに依存しない説明法として人気がある。
ローカルな属性が、ストリーミングやオンラインアプリケーションのような、現実的で絶えず変化する設定でどのように振る舞うかは、しばしば不明である。
局所変化と概念ドリフトを検出するフレキシブルでモデルに依存しないCDLEEDSを提案する。
論文 参考訳(メタデータ) (2022-09-06T18:38:34Z) - From Concept Drift to Model Degradation: An Overview on
Performance-Aware Drift Detectors [1.757501664210825]
予測機械学習モデルがトレーニングされたシステムの変化は、システムのライフサイクルにおけるパフォーマンス低下につながる可能性がある。
文献では、同じ種類のコンセプトドリフトと、様々な種類の同じ用語を指すために、異なる用語が用いられてきた。
この統一項の欠如は、異なる概念のドリフト変種を区別する上で混乱を引き起こす。
論文 参考訳(メタデータ) (2022-03-21T15:48:13Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Explainers in the Wild: Making Surrogate Explainers Robust to
Distortions through Perception [77.34726150561087]
説明における歪みの影響を知覚距離を埋め込むことで評価する手法を提案する。
Imagenet-Cデータセットの画像の説明を生成し、サロゲート説明書の知覚距離を使用して歪んだ画像と参照画像のより一貫性のある説明を作成する方法を示しています。
論文 参考訳(メタデータ) (2021-02-22T12:38:53Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - Deducing neighborhoods of classes from a fitted model [68.8204255655161]
本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
論文 参考訳(メタデータ) (2020-09-11T16:35:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。