論文の概要: Model Based Explanations of Concept Drift
- arxiv url: http://arxiv.org/abs/2303.09331v1
- Date: Thu, 16 Mar 2023 14:03:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-17 15:22:50.306268
- Title: Model Based Explanations of Concept Drift
- Title(参考訳): モデルに基づく概念ドリフトの説明
- Authors: Fabian Hinder, Valerie Vaquet, Johannes Brinkrolf, Barbara Hammer
- Abstract要約: 概念ドリフト(concept drift)とは、観測データを生成する分布が時間とともに変化する現象を指す。
ドリフトが存在する場合、機械学習モデルは不正確になり、調整が必要である。
本稿では,空間的特徴の特徴的な変化の観点から,概念の漂流を特徴付ける新しい技術を提案する。
- 参考スコア(独自算出の注目度): 8.686667049158476
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The notion of concept drift refers to the phenomenon that the distribution
generating the observed data changes over time. If drift is present, machine
learning models can become inaccurate and need adjustment. While there do exist
methods to detect concept drift or to adjust models in the presence of observed
drift, the question of explaining drift, i.e., describing the potentially
complex and high dimensional change of distribution in a human-understandable
fashion, has hardly been considered so far. This problem is of importance since
it enables an inspection of the most prominent characteristics of how and where
drift manifests itself. Hence, it enables human understanding of the change and
it increases acceptance of life-long learning models. In this paper, we present
a novel technology characterizing concept drift in terms of the characteristic
change of spatial features based on various explanation techniques. To do so,
we propose a methodology to reduce the explanation of concept drift to an
explanation of models that are trained in a suitable way extracting relevant
information regarding the drift. This way a large variety of explanation
schemes is available. Thus, a suitable method can be selected for the problem
of drift explanation at hand. We outline the potential of this approach and
demonstrate its usefulness in several examples.
- Abstract(参考訳): 概念ドリフトの概念は、観測データを生成する分布が時間とともに変化する現象を指す。
ドリフトが存在する場合、機械学習モデルは不正確になり、調整が必要である。
概念ドリフトの検出や観測ドリフトの存在下でモデルを調整する方法は存在するが、ドリフトを説明する問題、すなわち、人間の理解可能な方法での分布の潜在的に複雑で高次元的な変化を説明する問題は、今のところほとんど考慮されていない。
この問題は、漂流がどのように、どこで現れるかの最も顕著な特徴を検査できるため重要である。
これにより、変化の人間的理解が可能になり、生涯学習モデルの受容が高まる。
本稿では,概念ドリフトを特徴付ける新しい技術として,様々な説明手法に基づく空間的特徴の特性変化について述べる。
そこで本研究では,概念ドリフトの説明を,ドリフトに関する関連情報を抽出する適切な方法で訓練されたモデルの説明に還元する手法を提案する。
このように、様々な説明スキームが利用可能である。
これにより、手元のドリフト説明問題に対して適切な方法を選択することができる。
このアプローチの可能性を概説し、いくつかの例でその有用性を示す。
関連論文リスト
- Online Drift Detection with Maximum Concept Discrepancy [13.48123472458282]
最大概念差に基づく新しい概念ドリフト検出手法であるMDD-DDを提案する。
本手法は,概念埋め込みのコントラスト学習により,様々な形態のコンセプトドリフトを適応的に同定することができる。
論文 参考訳(メタデータ) (2024-07-07T13:57:50Z) - An Axiomatic Approach to Model-Agnostic Concept Explanations [67.84000759813435]
本稿では、線形性、再帰性、類似性という3つの自然な公理を満たす概念的説明へのアプローチを提案する。
次に、従来の概念的説明手法とのつながりを確立し、それらの意味の異なる意味についての洞察を提供する。
論文 参考訳(メタデータ) (2024-01-12T20:53:35Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Feature Relevance Analysis to Explain Concept Drift -- A Case Study in
Human Activity Recognition [3.5569545396848437]
本稿では,概念の漂流を検知し,説明する方法について考察する。
ドリフト検出は、ドリフトモデルと正確であることが知られているモデルとの最大の関連性差を持つ一連の特徴を特定することに基づいている。
特徴関連解析は, ドリフトの検出だけでなく, ドリフトの理由を説明するためにも用いられることが示されている。
論文 参考訳(メタデータ) (2023-01-20T07:34:27Z) - On the Change of Decision Boundaries and Loss in Learning with Concept
Drift [8.686667049158476]
概念ドリフト(concept drift)とは、観測データを生成する分布が時間とともに変化する現象を指す。
ドリフトで学習するための多くの技術は、モデル一般化誤差を近似する量としてインターリーブテストトレイン誤差(ITTE)に依存している。
論文 参考訳(メタデータ) (2022-12-02T14:58:13Z) - From Concept Drift to Model Degradation: An Overview on
Performance-Aware Drift Detectors [1.757501664210825]
予測機械学習モデルがトレーニングされたシステムの変化は、システムのライフサイクルにおけるパフォーマンス低下につながる可能性がある。
文献では、同じ種類のコンセプトドリフトと、様々な種類の同じ用語を指すために、異なる用語が用いられてきた。
この統一項の欠如は、異なる概念のドリフト変種を区別する上で混乱を引き起こす。
論文 参考訳(メタデータ) (2022-03-21T15:48:13Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Explainers in the Wild: Making Surrogate Explainers Robust to
Distortions through Perception [77.34726150561087]
説明における歪みの影響を知覚距離を埋め込むことで評価する手法を提案する。
Imagenet-Cデータセットの画像の説明を生成し、サロゲート説明書の知覚距離を使用して歪んだ画像と参照画像のより一貫性のある説明を作成する方法を示しています。
論文 参考訳(メタデータ) (2021-02-22T12:38:53Z) - Deducing neighborhoods of classes from a fitted model [68.8204255655161]
本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
論文 参考訳(メタデータ) (2020-09-11T16:35:53Z) - Explainable Recommender Systems via Resolving Learning Representations [57.24565012731325]
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:30:48Z) - Counterfactual Explanations of Concept Drift [11.53362411363005]
概念ドリフトとは、観測データの背後にある分布が時間とともに変化する現象を指す。
本稿では,典型的な例で表現される空間的特徴の特徴的変化の観点から,概念の漂流を特徴付ける新しい技術を提案する。
論文 参考訳(メタデータ) (2020-06-23T08:27:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。