論文の概要: Feature Relevance Analysis to Explain Concept Drift -- A Case Study in
Human Activity Recognition
- arxiv url: http://arxiv.org/abs/2301.08453v1
- Date: Fri, 20 Jan 2023 07:34:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-23 13:39:35.462138
- Title: Feature Relevance Analysis to Explain Concept Drift -- A Case Study in
Human Activity Recognition
- Title(参考訳): 説明的概念ドリフトの特徴的関連分析--人間活動認識の事例研究
- Authors: Pekka Siirtola and Juha R\"oning
- Abstract要約: 本稿では,概念の漂流を検知し,説明する方法について考察する。
ドリフト検出は、ドリフトモデルと正確であることが知られているモデルとの最大の関連性差を持つ一連の特徴を特定することに基づいている。
特徴関連解析は, ドリフトの検出だけでなく, ドリフトの理由を説明するためにも用いられることが示されている。
- 参考スコア(独自算出の注目度): 3.5569545396848437
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This article studies how to detect and explain concept drift. Human activity
recognition is used as a case study together with a online batch learning
situation where the quality of the labels used in the model updating process
starts to decrease. Drift detection is based on identifying a set of features
having the largest relevance difference between the drifting model and a model
that is known to be accurate and monitoring how the relevance of these features
changes over time. As a main result of this article, it is shown that feature
relevance analysis cannot only be used to detect the concept drift but also to
explain the reason for the drift when a limited number of typical reasons for
the concept drift are predefined. To explain the reason for the concept drift,
it is studied how these predefined reasons effect to feature relevance. In
fact, it is shown that each of these has an unique effect to features relevance
and these can be used to explain the reason for concept drift.
- Abstract(参考訳): 本稿では,概念ドリフトの検出と説明について述べる。
ヒューマンアクティビティ認識は、モデル更新プロセスで使用されるラベルの品質が低下し始めるオンラインバッチ学習状況とともに、ケーススタディとして使用される。
ドリフト検出は、ドリフトモデルとモデルとの間に最も関連性の大きい一連の特徴を識別することと、これらの特徴が時間とともにどのように変化するかを監視することに基づいている。
本論文の主結果として,概念ドリフトを検知するだけでなく,概念ドリフトの典型的理由を事前に定義した場合にドリフトの原因を説明するために,特徴関係解析を用いることができないことが示されている。
概念の漂流の理由を説明するため,これらの既定の理由が特徴的関連性にどのように影響するかを考察した。
実際、これらはそれぞれ特徴の関連性にユニークな効果があることが示されており、これらは概念の漂流の理由を説明するために使用できる。
関連論文リスト
- Methods for Generating Drift in Text Streams [49.3179290313959]
コンセプトドリフトは、実世界のデータセットで頻繁に発生する現象であり、時間とともにデータ分布の変化に対応する。
本稿では,ラベル付きドリフトを用いたデータセット作成を容易にするための4つのテキストドリフト生成手法を提案する。
その結果、ドリフトの直後にすべてのメソッドのパフォーマンスが低下し、インクリメンタルなSVMは、以前のパフォーマンスレベルを実行し、回復するのに最も速いことを示している。
論文 参考訳(メタデータ) (2024-03-18T23:48:33Z) - Explaining Drift using Shapley Values [0.0]
機械学習モデルは、トレーニングされていないデータよりも結果を予測するために使用されると、パフォーマンスが劣化することが多い。
モデルパフォーマンスにおけるドリフトの背後にあるドライバを特定するためのフレームワークはありません。
ドリフトの主なコントリビュータを特定するために,原理化されたシェープ値を用いたDBShapを提案する。
論文 参考訳(メタデータ) (2024-01-18T07:07:42Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Model Based Explanations of Concept Drift [8.686667049158476]
概念ドリフト(concept drift)とは、観測データを生成する分布が時間とともに変化する現象を指す。
ドリフトが存在する場合、機械学習モデルは不正確になり、調整が必要である。
本稿では,空間的特徴の特徴的な変化の観点から,概念の漂流を特徴付ける新しい技術を提案する。
論文 参考訳(メタデータ) (2023-03-16T14:03:56Z) - DOMINO: Visual Causal Reasoning with Time-Dependent Phenomena [59.291745595756346]
本研究では,時間遅延のウィンドウに関連する因果関係の発見に人間が参加できる視覚分析手法を提案する。
具体的には、論理に基づく因果関係の確立した手法を活用し、分析者が潜在的な原因の重要性を検証できるようにする。
効果は他の効果の原因となりうるので,本手法で検出した時間的要因と効果の関係を視覚フロー図にまとめることができる。
論文 参考訳(メタデータ) (2023-03-12T03:40:21Z) - Generic Temporal Reasoning with Differential Analysis and Explanation [61.96034987217583]
時間差分解析でギャップを埋めるTODAYという新しいタスクを導入する。
TODAYは、システムがインクリメンタルな変化の効果を正しく理解できるかどうかを評価する。
共同学習においてTODAYの指導スタイルと説明アノテーションが有効であることを示す。
論文 参考訳(メタデータ) (2022-12-20T17:40:03Z) - Are Concept Drift Detectors Reliable Alarming Systems? -- A Comparative
Study [6.7961908135481615]
コンセプトドリフト(concept drift)またはコンセプトドリフト(concept drift)は、機械学習モデルのパフォーマンスに影響を与える。
本研究では, ドリフト検出装置の信頼性を評価し, 時間内ドリフトの同定を行う。
本研究の目的は,ドリフト検出器がどの状況で使用されるべきかを,実践者が理解できるようにすることである。
論文 参考訳(メタデータ) (2022-11-23T16:31:15Z) - Exploring Inconsistent Knowledge Distillation for Object Detection with
Data Augmentation [66.25738680429463]
物体検出のための知識蒸留(KD)は、教師モデルから知識を伝達することで、コンパクトな検出器を訓練することを目的としている。
教師モデルの反直感的知覚に固有の知識を蒸留することを目的とした,一貫性のない知識蒸留(IKD)を提案する。
本手法は, 1段, 2段, アンカーフリーの物体検出器において, 最先端のKDベースラインより優れる。
論文 参考訳(メタデータ) (2022-09-20T16:36:28Z) - Analysis of Drifting Features [11.305591390070123]
概念ドリフトとは、観測データの背後にある分布が時間とともに変化する現象を指す。
我々は,観測された特徴のドリフトが他の特徴によって説明できないドリフト誘発特徴と,他の特徴の現在のドリフトと相関する忠実なドリフト特徴とを区別する。
論文 参考訳(メタデータ) (2020-12-01T14:09:19Z) - Counterfactual Explanations of Concept Drift [11.53362411363005]
概念ドリフトとは、観測データの背後にある分布が時間とともに変化する現象を指す。
本稿では,典型的な例で表現される空間的特徴の特徴的変化の観点から,概念の漂流を特徴付ける新しい技術を提案する。
論文 参考訳(メタデータ) (2020-06-23T08:27:57Z) - Value-driven Hindsight Modelling [68.658900923595]
値推定は強化学習(RL)パラダイムの重要な構成要素である。
モデル学習は、観測系列に存在する豊富な遷移構造を利用することができるが、このアプローチは通常、報酬関数に敏感ではない。
この2つの極点の間に位置するRLにおける表現学習のアプローチを開発する。
これにより、タスクに直接関連し、値関数の学習を加速できる、抽出可能な予測ターゲットが提供される。
論文 参考訳(メタデータ) (2020-02-19T18:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。