論文の概要: Identifying Predictions That Influence the Future: Detecting Performative Concept Drift in Data Streams
- arxiv url: http://arxiv.org/abs/2412.10545v1
- Date: Fri, 13 Dec 2024 20:45:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 14:02:24.275785
- Title: Identifying Predictions That Influence the Future: Detecting Performative Concept Drift in Data Streams
- Title(参考訳): 未来に影響を与える予測:データストリームにおける変形的概念ドリフトの検出
- Authors: Brandon Gower-Winter, Georg Krempl, Sergey Dragomiretskiy, Tineke Jelsma, Arno Siebes,
- Abstract要約: 本稿では,データストリームにおける潜在的な性能的概念的ドリフトを特定することを目的とした,新しいタイプのドリフト検出タスクを提案する。
CheckerBoard Performative Drift Detection (CB-PDD) と呼ばれる最初のドリフト検出手法を提案する。
その結果,CB-PDDは高い有効性,偽検出率の低下,内在的ドリフトに対するレジリエンス,半合成データセットにおける実行的ドリフトを効果的に検出する能力を示した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Concept Drift has been extensively studied within the context of Stream Learning. However, it is often assumed that the deployed model's predictions play no role in the concept drift the system experiences. Closer inspection reveals that this is not always the case. Automated trading might be prone to self-fulfilling feedback loops. Likewise, malicious entities might adapt to evade detectors in the adversarial setting resulting in a self-negating feedback loop that requires the deployed models to constantly retrain. Such settings where a model may induce concept drift are called performative. In this work, we investigate this phenomenon. Our contributions are as follows: First, we define performative drift within a stream learning setting and distinguish it from other causes of drift. We introduce a novel type of drift detection task, aimed at identifying potential performative concept drift in data streams. We propose a first such performative drift detection approach, called CheckerBoard Performative Drift Detection (CB-PDD). We apply CB-PDD to both synthetic and semi-synthetic datasets that exhibit varying degrees of self-fulfilling feedback loops. Results are positive with CB-PDD showing high efficacy, low false detection rates, resilience to intrinsic drift, comparability to other drift detection techniques, and an ability to effectively detect performative drift in semi-synthetic datasets. Secondly, we highlight the role intrinsic (traditional) drift plays in obfuscating performative drift and discuss the implications of these findings as well as the limitations of CB-PDD.
- Abstract(参考訳): コンセプト・ドリフトはストリーム学習の文脈で広く研究されている。
しかしながら、デプロイされたモデルの予測は、システム体験を漂流させる概念には何の役割も果たさないと仮定されることも多い。
より綿密な検査によって、これは必ずしもそうではないことが分かる。
自動トレーディングは、自己充足型のフィードバックループになりがちである。
同様に、悪意のあるエンティティは、敵の環境での回避検知に適応し、結果として、デプロイされたモデルに常に再トレーニングを必要とする自己負のフィードバックループをもたらす。
モデルが概念ドリフトを誘導できるような設定は、実行性と呼ばれる。
本研究では,この現象について考察する。
まず、ストリーム学習設定内で実行的ドリフトを定義し、他のドリフトの原因と区別します。
本稿では,データストリームにおける潜在的な性能的概念的ドリフトを特定することを目的とした,新しいタイプのドリフト検出タスクを提案する。
そこで本研究では,CheckerBoard Performative Drift Detection (CB-PDD) と呼ばれる,最初の動作ドリフト検出手法を提案する。
CB-PDDは, 自己充足フィードバックループの程度が異なる合成および半合成両方のデータセットに適用する。
その結果,CB-PDDの有効性,偽検出率の低下,内在的ドリフトに対するレジリエンス,他のドリフト検出技術との相容性,半合成データセットにおける実行的ドリフトを効果的に検出する能力などが確認された。
第2に,難読性行動漂流における内在的(伝統的)ドリフトプレイの役割を強調し,これらの知見とCB-PDDの限界について考察した。
関連論文リスト
- Transfer Your Perspective: Controllable 3D Generation from Any Viewpoint in a Driving Scene [56.73568220959019]
共同自動運転(CAV)は有望な方向のようだが、開発のためのデータ収集は簡単ではない。
本研究では,運転シーンにおける異なる視点から現実的な知覚を生み出すことを目的とした,救助支援のための新しいサロゲートを提案する。
シミュレーションされたコラボレーティブデータと実車データを組み合わせた,最初のソリューションを提案する。
論文 参考訳(メタデータ) (2025-02-10T17:07:53Z) - Methods for Generating Drift in Text Streams [49.3179290313959]
コンセプトドリフトは、実世界のデータセットで頻繁に発生する現象であり、時間とともにデータ分布の変化に対応する。
本稿では,ラベル付きドリフトを用いたデータセット作成を容易にするための4つのテキストドリフト生成手法を提案する。
その結果、ドリフトの直後にすべてのメソッドのパフォーマンスが低下し、インクリメンタルなSVMは、以前のパフォーマンスレベルを実行し、回復するのに最も速いことを示している。
論文 参考訳(メタデータ) (2024-03-18T23:48:33Z) - A comprehensive analysis of concept drift locality in data streams [3.5897534810405403]
概念ドリフトは、進化するデータ特性への効果的なモデル適応のために検出されなければならない。
本稿では,その局所性とスケールに基づいて,概念ドリフトの新たな分類法を提案する。
我々は, 様々な難易度において, 9つの最先端ドリフト検出器の比較評価を行った。
論文 参考訳(メタデータ) (2023-11-10T20:57:43Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - ALSO: Automotive Lidar Self-supervision by Occupancy estimation [70.70557577874155]
本稿では,ポイントクラウド上で動作している深層知覚モデルのバックボーンを事前学習するための自己教師型手法を提案する。
中心となる考え方は、3Dポイントがサンプリングされる表面の再構成であるプリテキストタスクでモデルをトレーニングすることである。
直感的には、もしネットワークがわずかな入力ポイントのみを考慮し、シーン表面を再構築できるなら、おそらく意味情報の断片をキャプチャする。
論文 参考訳(メタデータ) (2022-12-12T13:10:19Z) - Are Concept Drift Detectors Reliable Alarming Systems? -- A Comparative
Study [6.7961908135481615]
コンセプトドリフト(concept drift)またはコンセプトドリフト(concept drift)は、機械学習モデルのパフォーマンスに影響を与える。
本研究では, ドリフト検出装置の信頼性を評価し, 時間内ドリフトの同定を行う。
本研究の目的は,ドリフト検出器がどの状況で使用されるべきかを,実践者が理解できるようにすることである。
論文 参考訳(メタデータ) (2022-11-23T16:31:15Z) - Real-time Object Detection for Streaming Perception [84.2559631820007]
ストリーミング知覚は,ビデオオンライン知覚の1つの指標として,レイテンシと精度を共同評価するために提案される。
ストリーミング知覚のためのシンプルで効果的なフレームワークを構築します。
提案手法はArgoverse-HDデータセット上での競合性能を実現し,強力なベースラインに比べてAPを4.9%向上させる。
論文 参考訳(メタデータ) (2022-03-23T11:33:27Z) - Detecting Concept Drift With Neural Network Model Uncertainty [0.0]
不確実ドリフト検出(UDD)は、真のラベルにアクセスすることなくドリフトを検出することができる。
入力データに基づくドリフト検出とは対照的に,現在の入力データが予測モデルの特性に与える影響を考察する。
UDDは2つの合成および10の実世界のデータセットにおいて、回帰処理と分類処理の両方において、他の最先端戦略よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-07-05T08:56:36Z) - Efficient and Robust LiDAR-Based End-to-End Navigation [132.52661670308606]
我々は,LiDARをベースとした効率的なエンドツーエンドナビゲーションフレームワークを提案する。
本稿では,スパース畳み込みカーネル最適化とハードウェア対応モデル設計に基づくFast-LiDARNetを提案する。
次に,単一の前方通過のみから予測の不確かさを直接推定するハイブリッド・エビデンシャル・フュージョンを提案する。
論文 参考訳(メタデータ) (2021-05-20T17:52:37Z) - Automatic Learning to Detect Concept Drift [40.69280758487987]
誤り率の変化パターンを追跡し,コンセプトドリフトの分類を学習する新しいフレームワークであるMeta-ADDを提案する。
具体的には、トレーニングフェーズにおいて、様々なコンセプトドリフトの誤差率に基づいてメタ特徴を抽出し、その後、原型ニューラルネットワークを介してメタ検出装置を開発する。
検出フェーズでは、学習したメタ検出器が微調整され、ストリームベースのアクティブラーニングを介して対応するデータストリームに適応する。
論文 参考訳(メタデータ) (2021-05-04T11:10:39Z) - Adversarial Concept Drift Detection under Poisoning Attacks for Robust
Data Stream Mining [15.49323098362628]
本稿では,敵対的攻撃と毒殺攻撃の存在下でのロバストな概念ドリフト検出のための枠組みを提案する。
本稿では,2種類の逆流の概念と,頑健な訓練可能なドリフト検出器の分類について紹介する。
また,ロバストネスの相対損失 (Relative Loss of Robustness) についても紹介する。
論文 参考訳(メタデータ) (2020-09-20T18:46:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。