論文の概要: Performative Drift Resistant Classification Using Generative Domain Adversarial Networks
- arxiv url: http://arxiv.org/abs/2504.01135v1
- Date: Tue, 01 Apr 2025 19:12:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 13:20:14.039452
- Title: Performative Drift Resistant Classification Using Generative Domain Adversarial Networks
- Title(参考訳): 生成ドメイン逆数ネットワークを用いた変形的ドリフト抵抗分類
- Authors: Maciej Makowski, Brandon Gower-Winter, Georg Krempl,
- Abstract要約: 本稿では,GDAN(Generative Domain Adversarial Network)について紹介する。
GDANを用いて、入力データのドメイン不変表現を生成し、生成ネットワークを使用して、実行的ドリフトの効果を逆転させる。
ドリフト抵抗性分類を提供するGDANの能力を実証的に評価した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Performative Drift is a special type of Concept Drift that occurs when a model's predictions influence the future instances the model will encounter. In these settings, retraining is not always feasible. In this work, we instead focus on drift understanding as a method for creating drift-resistant classifiers. To achieve this, we introduce the Generative Domain Adversarial Network (GDAN) which combines both Domain and Generative Adversarial Networks. Using GDAN, domain-invariant representations of incoming data are created and a generative network is used to reverse the effects of performative drift. Using semi-real and synthetic data generators, we empirically evaluate GDAN's ability to provide drift-resistant classification. Initial results are promising with GDAN limiting performance degradation over several timesteps. Additionally, GDAN's generative network can be used in tandem with other models to limit their performance degradation in the presence of performative drift. Lastly, we highlight the relationship between model retraining and the unpredictability of performative drift, providing deeper insights into the challenges faced when using traditional Concept Drift mitigation strategies in the performative setting.
- Abstract(参考訳): 形式的ドリフト(Performative Drift)は概念ドリフトの一種で、モデルの予測がモデルが直面する将来のインスタンスに影響を与えるときに発生する。
これらの設定では、再トレーニングが常に可能であるとは限らない。
そこで本研究では,ドリフト抵抗型分類器の創出方法として,ドリフト理解に着目した。
そこで本研究では,GDAN(Generative Domain Adversarial Network)を提案する。
GDANを用いて、入力データのドメイン不変表現を生成し、生成ネットワークを使用して、実行的ドリフトの効果を逆転させる。
半リアルおよび合成データジェネレータを用いて,GDANの耐漂流性分類能力を実証的に評価した。
最初の結果は、GDANがいくつかのタイムステップでパフォーマンスの低下を制限することを約束している。
さらに、GDANの生成ネットワークは、他のモデルとのタンデムで使用することができ、パフォーマンス上のドリフトの存在下での性能劣化を制限することができる。
最後に,モデル再訓練と性能ドリフトの予測不可能性との関係を強調し,従来の概念ドリフト緩和戦略をパフォーマンス設定で用いた場合の課題に対する深い洞察を提供する。
関連論文リスト
- A Non-negative VAE:the Generalized Gamma Belief Network [49.970917207211556]
ガンマ信念ネットワーク(GBN)は、テキストデータ中の多層解釈可能な潜在表現を明らかにする可能性を実証している。
本稿では、一般化ガンマ信念ネットワーク(Generalized GBN)を導入し、元の線形生成モデルをより表現力のある非線形生成モデルに拡張する。
また、潜伏変数の後方分布を近似する上向きのワイブル推論ネットワークを提案する。
論文 参考訳(メタデータ) (2024-08-06T18:18:37Z) - DriftGAN: Using historical data for Unsupervised Recurring Drift Detection [0.6358693097475243]
実世界のアプリケーションでは、入力データ分布は、概念ドリフト(concept drift)として知られる現象として、一定期間にわたって静的であることが多い。
ほとんどの概念ドリフト検出方法は、概念ドリフトを検出し、モデルを再訓練する要求をシグナル伝達する。
本稿では,GAN(Generative Adversarial Networks)に基づく教師なしの手法を提案する。
論文 参考訳(メタデータ) (2024-07-09T04:38:44Z) - U-KAN Makes Strong Backbone for Medical Image Segmentation and Generation [48.40120035775506]
Kolmogorov-Arnold Networks (KAN)は、非線形学習可能なアクティベーション関数のスタックを通じてニューラルネットワーク学習を再構築する。
トークン化中間表現であるU-KAN上に専用kan層を統合することにより,確立したU-Netパイプラインを検証,修正,再設計する。
さらに、拡散モデルにおける代替U-Netノイズ予測器としてのU-KANの可能性を探り、タスク指向モデルアーキテクチャの生成にその適用性を実証した。
論文 参考訳(メタデータ) (2024-06-05T04:13:03Z) - Temporal Domain Generalization with Drift-Aware Dynamic Neural Network [12.483886657900525]
ドリフト対応動的ニューラルネットワーク(DRAIN)フレームワークを用いた時間領域一般化を提案する。
具体的には、この問題を、データとモデル力学の関係を共同でモデル化するベイズ的枠組みに定式化する。
モデルパラメータとデータ分布の時間的ドリフトをキャプチャし、将来のデータなしで将来モデルを予測することができる。
論文 参考訳(メタデータ) (2022-05-21T20:01:31Z) - Stagewise Unsupervised Domain Adaptation with Adversarial Self-Training
for Road Segmentation of Remote Sensing Images [93.50240389540252]
リモートセンシング画像からの道路セグメンテーションは、幅広い応用可能性を持つ課題である。
本稿では,この領域における領域シフト(DS)問題に対処するため,RoadDAと呼ばれる新たな段階的ドメイン適応モデルを提案する。
2つのベンチマーク実験の結果、RoadDAはドメインギャップを効率的に減らし、最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-08-28T09:29:14Z) - Regularizing Generative Adversarial Networks under Limited Data [88.57330330305535]
本研究は、限られたデータ上で堅牢なGANモデルをトレーニングするための正規化手法を提案する。
正規化損失とLeCam-divergenceと呼ばれるf-divergenceの関連性を示す。
論文 参考訳(メタデータ) (2021-04-07T17:59:06Z) - HGAN: Hybrid Generative Adversarial Network [25.940501417539416]
本稿では,自己回帰モデルを用いてデータ密度推定を行うハイブリッド生成逆数ネットワーク(HGAN)を提案する。
GAN定式化における新しい深層構造は、単純なGANトレーニング手法に加えて、自己回帰モデル情報を逆向きに蒸留するために開発されている。
論文 参考訳(メタデータ) (2021-02-07T03:54:12Z) - DSDNet: Deep Structured self-Driving Network [92.9456652486422]
本稿では,1つのニューラルネットワークを用いて物体検出,動き予測,動き計画を行うDeep Structured Self-Driving Network (DSDNet)を提案する。
我々は,アクター間の相互作用を考慮し,社会的に一貫したマルチモーダル未来予測を生成する,深く構造化されたエネルギーベースモデルを開発する。
論文 参考訳(メタデータ) (2020-08-13T17:54:06Z) - Intervention Generative Adversarial Networks [21.682592654097352]
本稿では,ジェネレーティブ・アドバイサル・ネットワークの学習過程を安定化するための新しいアプローチを提案する。
得られた生成モデルを、IVGAN(Intervention Generative Adversarial Networks)と呼ぶ。
論文 参考訳(メタデータ) (2020-08-09T11:51:54Z) - Autoencoding Generative Adversarial Networks [0.0]
本稿では,所定の潜在空間と与えられたサンプル空間とのマッピングを学習する4ネットワークモデルを提案する。
AEGAN技術は、トレーニング安定化、モード崩壊防止、実際のサンプル間の直接反転など、一般的なGANトレーニングにいくつかの改善を提供する。
論文 参考訳(メタデータ) (2020-04-11T19:51:04Z) - On Leveraging Pretrained GANs for Generation with Limited Data [83.32972353800633]
生成的敵ネットワーク(GAN)は、しばしば(人間によって)実際の画像と区別できない非常に現実的な画像を生成することができる。
このように生成されたほとんどの画像はトレーニングデータセットには含まれておらず、GAN生成データでトレーニングセットを増強する可能性を示唆している。
我々は、大規模なデータセットで事前訓練された既存のGANモデルを活用し、トランスファーラーニングの概念に従って追加の知識を導入する。
限られたデータを用いた生成における提案手法の有効性を示すため, 広範囲な実験を行った。
論文 参考訳(メタデータ) (2020-02-26T21:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。