論文の概要: Alleviating Performance Disparity in Adversarial Spatiotemporal Graph Learning Under Zero-Inflated Distribution
- arxiv url: http://arxiv.org/abs/2504.00721v1
- Date: Tue, 01 Apr 2025 12:31:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 13:20:20.160677
- Title: Alleviating Performance Disparity in Adversarial Spatiotemporal Graph Learning Under Zero-Inflated Distribution
- Title(参考訳): ゼロ膨張分布下での対時空間グラフ学習における性能差の緩和
- Authors: Songran Bai, Yuheng Ji, Yue Liu, Xingwei Zhang, Xiaolong Zheng, Daniel Dajun Zeng,
- Abstract要約: 対人訓練(AT)は、ゼロ・イン・ディストリクト(ZID)の下での多数派と少数派のパフォーマンス格差を悪化させる
マイノリティクラスグラディエントと表現強化のためのフレームワークMinGREを提案する。
- 参考スコア(独自算出の注目度): 7.860701527789194
- License:
- Abstract: Spatiotemporal Graph Learning (SGL) under Zero-Inflated Distribution (ZID) is crucial for urban risk management tasks, including crime prediction and traffic accident profiling. However, SGL models are vulnerable to adversarial attacks, compromising their practical utility. While adversarial training (AT) has been widely used to bolster model robustness, our study finds that traditional AT exacerbates performance disparities between majority and minority classes under ZID, potentially leading to irreparable losses due to underreporting critical risk events. In this paper, we first demonstrate the smaller top-k gradients and lower separability of minority class are key factors contributing to this disparity. To address these issues, we propose MinGRE, a framework for Minority Class Gradients and Representations Enhancement. MinGRE employs a multi-dimensional attention mechanism to reweight spatiotemporal gradients, minimizing the gradient distribution discrepancies across classes. Additionally, we introduce an uncertainty-guided contrastive loss to improve the inter-class separability and intra-class compactness of minority representations with higher uncertainty. Extensive experiments demonstrate that the MinGRE framework not only significantly reduces the performance disparity across classes but also achieves enhanced robustness compared to existing baselines. These findings underscore the potential of our method in fostering the development of more equitable and robust models.
- Abstract(参考訳): Zero-Inflated Distribution (ZID)の下での時空間グラフ学習(SGL)は,犯罪予測や交通事故のプロファイリングなどの都市リスク管理業務に不可欠である。
しかし、SGLモデルは敵の攻撃に弱いため、実用性を損なう。
対戦訓練(AT)はモデルロバスト性を高めるために広く用いられているが、従来のATはZIDの下での多数派と少数派の間のパフォーマンス格差を悪化させ、重大な危険事象の報告不足による不可分な損失をもたらす可能性がある。
本稿では、まず、この格差に寄与する要因として、トップk勾配が小さく、マイノリティクラスの分離性が低いことを実証する。
これらの問題に対処するため、ミニチュアクラスグラディエントと表現強化のためのフレームワークであるMinGREを提案する。
MinGREは、クラス間の勾配分布の差を最小限に抑えながら、時空間勾配の重み付けに多次元の注意機構を用いる。
さらに,不確実性の高い少数表現のクラス間分離性とクラス内コンパクト性を改善するために,不確実性誘導型コントラスト損失を導入する。
大規模な実験では、MinGREフレームワークはクラス間のパフォーマンス格差を著しく低減するだけでなく、既存のベースラインと比較して堅牢性の向上も達成している。
これらの結果は、より公平で堅牢なモデルの開発を促進する上で、我々の手法の可能性を浮き彫りにしている。
関連論文リスト
- Boost-and-Skip: A Simple Guidance-Free Diffusion for Minority Generation [57.19995625893062]
拡散モデルを用いて少数サンプルを生成するために,Boost-and-Skipと呼ばれる強力なガイダンスのない手法を提案する。
これらの一見自明な修正は、確固たる理論と実証的な証拠によって支えられていることを強調する。
我々の実験は、Boost-and-Skipが少数サンプルを生成する能力を大幅に向上することを示した。
論文 参考訳(メタデータ) (2025-02-10T14:37:26Z) - Dist Loss: Enhancing Regression in Few-Shot Region through Distribution Distance Constraint [12.757563335570865]
Dist Lossは、モデルとターゲットラベルの間の分布距離を最小限に抑えるために設計された損失関数である。
コンピュータビジョンとヘルスケアにまたがる3つのデータセットを対象に実験を行った。
論文 参考訳(メタデータ) (2024-11-20T16:17:40Z) - Gradient-based Class Weighting for Unsupervised Domain Adaptation in Dense Prediction Visual Tasks [3.776249047528669]
本稿では,クラスウェイトをUDA学習損失に組み込んだクラスバランス緩和戦略を提案する。
損失勾配を通してこれらの重みを動的に推定する斬新さは、グラディエントに基づくクラス重み付け(GBW)学習を定義する。
GBWは、大きな表現されたクラスによって学習が妨げられるクラスの貢献を自然に増大させる。
論文 参考訳(メタデータ) (2024-07-01T14:34:25Z) - An Investigation of Representation and Allocation Harms in Contrastive
Learning [55.42336321517228]
比較学習 (CL) は, 少数集団と少数集団の表現を崩壊させる傾向にあることを示す。
本稿では,この現象を表現障害と呼び,対応するCL手法を用いて画像とテキストのデータセットに示す。
対照的な学習環境において,表現の崩壊につながるニューラルブロックモデルを用いて表現障害の理論的説明を行う。
論文 参考訳(メタデータ) (2023-10-02T19:25:37Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - Learning with Multiclass AUC: Theory and Algorithms [141.63211412386283]
ROC曲線 (AUC) の下の領域は、不均衡学習やレコメンダシステムといった問題に対するよく知られたランキング基準である。
本稿では,マルチクラスAUCメトリクスを最適化することで,多クラススコアリング関数を学習する問題について検討する。
論文 参考訳(メタデータ) (2021-07-28T05:18:10Z) - Robust Unsupervised Learning via L-Statistic Minimization [38.49191945141759]
教師なし学習に焦点をあて、この問題に対する一般的なアプローチを提示する。
重要な仮定は、摂動分布は、許容モデルの特定のクラスに対するより大きな損失によって特徴付けられることである。
教師なし学習におけるいくつかのポピュラーモデルに対する提案基準に関して,一様収束境界を証明した。
論文 参考訳(メタデータ) (2020-12-14T10:36:06Z) - Adversarially Robust Classification based on GLRT [26.44693169694826]
本稿では,一般確率比検定(GLRT)に基づく防衛戦略について述べる。
GLRT法は, 最悪の攻撃条件下でのミニマックス法と競合することを示す。
また、GLRTディフェンスは、最適ミニマックス分類器が不明なより複雑なモデルに自然に一般化する。
論文 参考訳(メタデータ) (2020-11-16T10:16:05Z) - Unbiased Risk Estimators Can Mislead: A Case Study of Learning with
Complementary Labels [92.98756432746482]
我々は,補完ラベルを用いた学習という,弱教師付き問題を研究する。
勾配推定の品質はリスク最小化においてより重要であることを示す。
本稿では,ゼロバイアスと分散の低減を両立させる新しい補助的相補的損失(SCL)フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-05T04:19:37Z) - Inclusive GAN: Improving Data and Minority Coverage in Generative Models [101.67587566218928]
データカバレッジの1つとしてマイノリティー・インクルージョンの問題を定式化する。
次に、再構成世代と敵対的トレーニングを調和させることにより、データカバレッジを改善することを提案する。
我々は、モデルが確実に含めるべきマイノリティサブグループを明示的に制御できる拡張を開発する。
論文 参考訳(メタデータ) (2020-04-07T13:31:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。