論文の概要: Change Detection for Local Explainability in Evolving Data Streams
- arxiv url: http://arxiv.org/abs/2209.02764v1
- Date: Tue, 6 Sep 2022 18:38:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-08 12:00:00.891936
- Title: Change Detection for Local Explainability in Evolving Data Streams
- Title(参考訳): 進化するデータストリームにおける局所的説明可能性の変化検出
- Authors: Johannes Haug, Alexander Braun, Stefan Z\"urn, Gjergji Kasneci
- Abstract要約: 局所的特徴帰属法はポストホックやモデルに依存しない説明法として人気がある。
ローカルな属性が、ストリーミングやオンラインアプリケーションのような、現実的で絶えず変化する設定でどのように振る舞うかは、しばしば不明である。
局所変化と概念ドリフトを検出するフレキシブルでモデルに依存しないCDLEEDSを提案する。
- 参考スコア(独自算出の注目度): 72.4816340552763
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As complex machine learning models are increasingly used in sensitive
applications like banking, trading or credit scoring, there is a growing demand
for reliable explanation mechanisms. Local feature attribution methods have
become a popular technique for post-hoc and model-agnostic explanations.
However, attribution methods typically assume a stationary environment in which
the predictive model has been trained and remains stable. As a result, it is
often unclear how local attributions behave in realistic, constantly evolving
settings such as streaming and online applications. In this paper, we discuss
the impact of temporal change on local feature attributions. In particular, we
show that local attributions can become obsolete each time the predictive model
is updated or concept drift alters the data generating distribution.
Consequently, local feature attributions in data streams provide high
explanatory power only when combined with a mechanism that allows us to detect
and respond to local changes over time. To this end, we present CDLEEDS, a
flexible and model-agnostic framework for detecting local change and concept
drift. CDLEEDS serves as an intuitive extension of attribution-based
explanation techniques to identify outdated local attributions and enable more
targeted recalculations. In experiments, we also show that the proposed
framework can reliably detect both local and global concept drift. Accordingly,
our work contributes to a more meaningful and robust explainability in online
machine learning.
- Abstract(参考訳): 複雑な機械学習モデルは、銀行、トレーディング、クレジットスコアリングといったセンシティブなアプリケーションでますます使われているため、信頼できる説明メカニズムに対する需要が高まっている。
局所特徴帰属法はポストホックやモデルに依存しない説明法として人気がある。
しかしながら、帰属法は通常、予測モデルが訓練され、安定している定常環境を仮定する。
その結果、ストリーミングやオンラインアプリケーションのような、現実的な、絶えず進化する設定でローカルな属性がどのように振る舞うかは、しばしば不明である。
本稿では,時間変化が局所的特徴属性に与える影響について論じる。
特に,予測モデルが更新されたり,概念ドリフトがデータ生成分布を変化させるたびに,局所帰属は時代遅れになり得ることを示す。
その結果、データストリームにおける局所的特徴属性は、時間とともに局所的な変化を検出し、応答するメカニズムと組み合わせることで、高い説明力を提供します。
そこで本研究では,局所変化と概念ドリフトを検出するフレキシブルでモデルに依存しないCDLEEDSを提案する。
CDLEEDSは属性に基づく説明手法の直感的な拡張として機能し、古いローカル属性を特定し、よりターゲットを絞った再計算を可能にする。
実験では,提案手法が地域概念とグローバル概念の両方のドリフトを確実に検出できることを示す。
したがって、我々の研究は、オンライン機械学習におけるより有意義で堅牢な説明可能性に貢献します。
関連論文リスト
- SPARTAN: A Sparse Transformer Learning Local Causation [63.29645501232935]
因果構造は、環境の変化に柔軟に適応する世界モデルにおいて中心的な役割を果たす。
本研究では,SPARse TrANsformer World Model(SPARTAN)を提案する。
オブジェクト指向トークン間の注意パターンに空間規則を適用することで、SPARTANは、将来のオブジェクト状態を正確に予測するスパース局所因果モデルを特定する。
論文 参考訳(メタデータ) (2024-11-11T11:42:48Z) - Robust Domain Generalisation with Causal Invariant Bayesian Neural Networks [9.999199798941424]
本稿では,推論プロセスのメカニズムからデータ分布の学習を阻害するベイズ型ニューラルネットワークを提案する。
理論的,実験的に,我々のモデルは因果的介入下での推論に近似していることを示す。
論文 参考訳(メタデータ) (2024-10-08T20:38:05Z) - MASALA: Model-Agnostic Surrogate Explanations by Locality Adaptation [3.587367153279351]
既存のローカル説明可能なAI(XAI)メソッドは、与えられた入力インスタンスの近傍にある入力空間の領域を選択し、より単純で解釈可能な代理モデルを用いてモデルの振る舞いを近似する。
そこで本研究では,各インスタンスごとの衝突モデル行動の適切な局所領域を自動決定する手法であるMASALAを提案する。
論文 参考訳(メタデータ) (2024-08-19T15:26:45Z) - Learning Where to Look: Self-supervised Viewpoint Selection for Active Localization using Geometrical Information [68.10033984296247]
本稿では, 位置決めの精度を高めるために, 視点選択の重要性を強調し, アクティブな位置決め領域について検討する。
私たちのコントリビューションは、リアルタイム操作用に設計されたシンプルなアーキテクチャ、自己教師付きデータトレーニング方法、および実世界のロボティクスアプリケーションに適した計画フレームワークにマップを一貫して統合する能力による、データ駆動型アプローチの使用に関するものです。
論文 参考訳(メタデータ) (2024-07-22T12:32:09Z) - FedACK: Federated Adversarial Contrastive Knowledge Distillation for
Cross-Lingual and Cross-Model Social Bot Detection [22.979415040695557]
FedACKは、ソーシャルボット検出のための新しい敵対的対照的な知識蒸留フレームワークである。
グローバルなジェネレータは、グローバルなデータ分散の知識を抽出し、各クライアントのローカルモデルに蒸留するために使用される。
実験により、FedACKは精度、通信効率、特徴空間の整合性という点で最先端のアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-03-10T03:10:08Z) - Adaptive Local-Component-aware Graph Convolutional Network for One-shot
Skeleton-based Action Recognition [54.23513799338309]
骨格に基づく行動認識のための適応的局所成分認識グラフ畳み込みネットワークを提案する。
我々の手法はグローバルな埋め込みよりも強力な表現を提供し、我々のモデルが最先端に到達するのに役立ちます。
論文 参考訳(メタデータ) (2022-09-21T02:33:07Z) - LCTR: On Awakening the Local Continuity of Transformer for Weakly
Supervised Object Localization [38.376238216214524]
弱教師付きオブジェクトローカライゼーション(WSOL)は、画像レベルのラベルだけでオブジェクトローカライザを学習することを目的としている。
本稿では,グローバルな特徴の局所認識能力を高めることを目的とした,LCTRと呼ばれるトランスフォーマー上に構築された新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-10T01:48:40Z) - Real-Time Decentralized knowledge Transfer at the Edge [6.732931634492992]
選択的な分散されたアプローチで知識を伝達することで、モデルは局所的な洞察を維持することができる。
本研究では,非I.D.データに基づくモデルを用いた知識伝達パイプラインの知識蒸留に基づく手法を提案する。
実験では,本モデルを用いた知識伝達が,実時間転送シナリオにおいて標準手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-11-11T18:26:57Z) - Unsupervised Metric Relocalization Using Transform Consistency Loss [66.19479868638925]
メートル法再ローカライズを行うためのトレーニングネットワークは、従来、正確な画像対応が必要である。
地図内のクエリ画像のローカライズは、登録に使用される参照画像に関係なく、同じ絶対的なポーズを与えるべきである。
提案手法は, 限られた地下構造情報が得られる場合に, 他の教師あり手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-11-01T19:24:27Z) - Explainable Deep Classification Models for Domain Generalization [94.43131722655617]
説明は、深い分類網が決定を下す視覚的証拠の領域として定義される。
トレーニング戦略は周期的な正当性に基づくフィードバックを強制し、モデルが地中真実に直接対応する画像領域に焦点を合わせることを奨励する。
論文 参考訳(メタデータ) (2020-03-13T22:22:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。