論文の概要: Explaining Drift using Shapley Values
- arxiv url: http://arxiv.org/abs/2401.09756v1
- Date: Thu, 18 Jan 2024 07:07:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-19 17:46:57.617697
- Title: Explaining Drift using Shapley Values
- Title(参考訳): シェープ値を用いたドリフトの説明
- Authors: Narayanan U. Edakunni and Utkarsh Tekriwal and Anukriti Jain
- Abstract要約: 機械学習モデルは、トレーニングされていないデータよりも結果を予測するために使用されると、パフォーマンスが劣化することが多い。
モデルパフォーマンスにおけるドリフトの背後にあるドライバを特定するためのフレームワークはありません。
ドリフトの主なコントリビュータを特定するために,原理化されたシェープ値を用いたDBShapを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Machine learning models often deteriorate in their performance when they are
used to predict the outcomes over data on which they were not trained. These
scenarios can often arise in real world when the distribution of data changes
gradually or abruptly due to major events like a pandemic. There have been many
attempts in machine learning research to come up with techniques that are
resilient to such Concept drifts. However, there is no principled framework to
identify the drivers behind the drift in model performance. In this paper, we
propose a novel framework - DBShap that uses Shapley values to identify the
main contributors of the drift and quantify their respective contributions. The
proposed framework not only quantifies the importance of individual features in
driving the drift but also includes the change in the underlying relation
between the input and output as a possible driver. The explanation provided by
DBShap can be used to understand the root cause behind the drift and use it to
make the model resilient to the drift.
- Abstract(参考訳): 機械学習モデルは、トレーニングされていないデータよりも結果を予測するために使用されると、パフォーマンスが劣化することが多い。
これらのシナリオは、パンデミックのような大きな出来事によって、データの分布が徐々に、あるいは突然に変化するとき、現実世界で発生することが多い。
このようなコンセプトドリフトに耐性のあるテクニックを考案するために、機械学習の研究には多くの試みがあった。
しかし、モデル性能のドリフトの背後にあるドライバを特定するための原則的なフレームワークは存在しない。
本稿では,shapley値を用いてドリフトの主な貢献者を識別し,それぞれの貢献度を定量化する新しいフレームワークdbshapを提案する。
提案フレームワークはドリフトを駆動する際の個々の特徴の重要性を定量化するだけでなく,ドライバとしての入力と出力の関係の変化も含んでいる。
DBShapが提供する説明は、ドリフトの背後にある根本原因を理解し、ドリフトに弾力性を持たせるために使用することができる。
関連論文リスト
- Methods for Generating Drift in Text Streams [49.3179290313959]
コンセプトドリフトは、実世界のデータセットで頻繁に発生する現象であり、時間とともにデータ分布の変化に対応する。
本稿では,ラベル付きドリフトを用いたデータセット作成を容易にするための4つのテキストドリフト生成手法を提案する。
その結果、ドリフトの直後にすべてのメソッドのパフォーマンスが低下し、インクリメンタルなSVMは、以前のパフォーマンスレベルを実行し、回復するのに最も速いことを示している。
論文 参考訳(メタデータ) (2024-03-18T23:48:33Z) - DriveAdapter: Breaking the Coupling Barrier of Perception and Planning
in End-to-End Autonomous Driving [64.57963116462757]
最先端の手法は通常、教師-学生のパラダイムに従う。
学生モデルは、生のセンサーデータのみにアクセスし、教師モデルによって収集されたデータに基づいて行動クローニングを行う。
本稿では,学生(知覚)と教師(計画)モジュール間の機能アライメント目的関数を持つアダプタを用いたDriveAdapterを提案する。
論文 参考訳(メタデータ) (2023-08-01T09:21:53Z) - Consistent Diffusion Models: Mitigating Sampling Drift by Learning to be
Consistent [97.64313409741614]
本稿では, モデルが生成したデータ上での予測が時間とともに一定であることを示す, 両立性特性を強制することを提案する。
CIFAR-10の条件および非条件生成とAFHQとFFHQのベースライン改良について,本研究の新たな訓練目標が得られた。
論文 参考訳(メタデータ) (2023-02-17T18:45:04Z) - Feature Relevance Analysis to Explain Concept Drift -- A Case Study in
Human Activity Recognition [3.5569545396848437]
本稿では,概念の漂流を検知し,説明する方法について考察する。
ドリフト検出は、ドリフトモデルと正確であることが知られているモデルとの最大の関連性差を持つ一連の特徴を特定することに基づいている。
特徴関連解析は, ドリフトの検出だけでなく, ドリフトの理由を説明するためにも用いられることが示されている。
論文 参考訳(メタデータ) (2023-01-20T07:34:27Z) - On the Change of Decision Boundaries and Loss in Learning with Concept
Drift [8.686667049158476]
概念ドリフト(concept drift)とは、観測データを生成する分布が時間とともに変化する現象を指す。
ドリフトで学習するための多くの技術は、モデル一般化誤差を近似する量としてインターリーブテストトレイン誤差(ITTE)に依存している。
論文 参考訳(メタデータ) (2022-12-02T14:58:13Z) - Change Detection for Local Explainability in Evolving Data Streams [72.4816340552763]
局所的特徴帰属法はポストホックやモデルに依存しない説明法として人気がある。
ローカルな属性が、ストリーミングやオンラインアプリケーションのような、現実的で絶えず変化する設定でどのように振る舞うかは、しばしば不明である。
局所変化と概念ドリフトを検出するフレキシブルでモデルに依存しないCDLEEDSを提案する。
論文 参考訳(メタデータ) (2022-09-06T18:38:34Z) - Self-Damaging Contrastive Learning [92.34124578823977]
ラベルのないデータは一般に不均衡であり、長い尾の分布を示す。
本稿では,クラスを知らずに表現学習を自動的にバランスをとるための,自己学習コントラスト学習という原則的枠組みを提案する。
実験の結果,SDCLRは全体としての精度だけでなく,バランス性も著しく向上することがわかった。
論文 参考訳(メタデータ) (2021-06-06T00:04:49Z) - Churn Reduction via Distillation [54.5952282395487]
本研究は, 基礎モデルを教師として用いた蒸留によるトレーニングと, 予測的チャーンに対する明示的な制約によるトレーニングとの等価性を示す。
次に, 蒸留が近年の多くのベースラインに対する低チャーン訓練に有効であることを示す。
論文 参考訳(メタデータ) (2021-06-04T18:03:31Z) - Switching Scheme: A Novel Approach for Handling Incremental Concept
Drift in Real-World Data Sets [0.0]
概念ドリフトは、機械学習システムの予測性能に深刻な影響を与える可能性がある。
本研究では,実世界のデータセットの文脈における概念ドリフトの効果を分析する。
本稿では,機械学習モデルの再学習と更新の2つの原則を組み合わせたスイッチング方式を提案する。
論文 参考訳(メタデータ) (2020-11-05T10:16:54Z) - Handling Concept Drift for Predictions in Business Process Mining [0.0]
機械学習モデルは、コンセプトドリフト(concept drift)と呼ばれるデータストリームを経時的に変更することで、課題となる。
現在の研究では、モデルの再トレーニングのために選択すべきデータが推奨されていない。
概念ドリフトハンドリングにより0.5400から0.7010に精度を向上できることを示す。
論文 参考訳(メタデータ) (2020-05-12T14:22:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。