論文の概要: Distribution Shift Aware Neural Tabular Learning
- arxiv url: http://arxiv.org/abs/2508.19486v1
- Date: Wed, 27 Aug 2025 00:14:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.452533
- Title: Distribution Shift Aware Neural Tabular Learning
- Title(参考訳): ニューラルタブラル学習を考慮した分布シフト
- Authors: Wangyang Ying, Nanxu Gong, Dongjie Wang, Xinyuan Wang, Arun Vignesh Malarkkan, Vivek Gupta, Chandan K. Reddy, Yanjie Fu,
- Abstract要約: タブラル学習は、生の機能を下流タスクのための最適化された空間に変換する。
しかし、その効果は、トレーニングとテストデータの分散シフトによって悪化する。
そこで我々は,それに対応する新しいシフト・アウェア・フィーチャー・トランスフォーメーション・フレームワークを提案する。
- 参考スコア(独自算出の注目度): 40.14597657016167
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tabular learning transforms raw features into optimized spaces for downstream tasks, but its effectiveness deteriorates under distribution shifts between training and testing data. We formalize this challenge as the Distribution Shift Tabular Learning (DSTL) problem and propose a novel Shift-Aware Feature Transformation (SAFT) framework to address it. SAFT reframes tabular learning from a discrete search task into a continuous representation-generation paradigm, enabling differentiable optimization over transformed feature sets. SAFT integrates three mechanisms to ensure robustness: (i) shift-resistant representation via embedding decorrelation and sample reweighting, (ii) flatness-aware generation through suboptimal embedding averaging, and (iii) normalization-based alignment between training and test distributions. Extensive experiments show that SAFT consistently outperforms prior tabular learning methods in terms of robustness, effectiveness, and generalization ability under diverse real-world distribution shifts.
- Abstract(参考訳): タブラル学習は、生の機能を下流タスクのための最適化された空間に変換するが、その効果はトレーニングデータとテストデータの間の分散シフトによって低下する。
本研究では,この課題を分散シフトタブラリラーニング(DSTL)問題として定式化し,それに対応する新しいシフト対応特徴変換(SAFT)フレームワークを提案する。
SAFTは、離散探索タスクから連続表現生成パラダイムへの表層学習を再構成し、変換された特徴集合に対する微分可能な最適化を可能にする。
SAFTは、堅牢性を保証する3つのメカニズムを統合している。
一 組込みデコレーション及び試料再加重による耐シフト性表現
(二)準最適埋め込み平均化による平坦性認識生成、及び
三 トレーニングと試験分布の正規化に基づくアライメント。
大規模な実験により、SAFTは様々な実世界の分布シフトの下で、頑健性、有効性、一般化能力の観点から、先行の表層学習法より一貫して優れていたことが示されている。
関連論文リスト
- Adapting to Fragmented and Evolving Data: A Fisher Information Perspective [0.0]
FADEは動的環境下での堅牢な学習のための軽量フレームワークである。
フィッシャー情報幾何学に固定されたシフトアウェアの正規化機構を採用している。
FADEは固定メモリでオンラインで動作し、ターゲットラベルにアクセスできない。
論文 参考訳(メタデータ) (2025-07-25T06:50:09Z) - Advancing Reliable Test-Time Adaptation of Vision-Language Models under Visual Variations [67.35596444651037]
視覚言語モデル(VLM)は、素晴らしいゼロショット機能を示すが、ラベル付きデータが利用できない場合、下流タスクの分散シフトに苦慮する。
本稿では,信頼性を両面から高めるReliable Test-Time Adaptation (ReTA)法を提案する。
論文 参考訳(メタデータ) (2025-07-13T05:37:33Z) - MIRRAMS: Learning Robust Tabular Models under Unseen Missingness Shifts [2.5357049657770516]
欠落した値はしばしばデータ収集ポリシーのバリエーションを反映し、時間や場所によって変化することがある。
このようなトレーニングとテストインプットの間の不足分布の変化は、堅牢な予測性能を達成する上で大きな課題となる。
この課題に対処するために設計された,新しいディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-11T03:03:30Z) - Unleashing the Potential of All Test Samples: Mean-Shift Guided Test-Time Adaptation [18.82879703518279]
既存のトレーニング不要なテスト時間適応手法は、CLIPの本来の機能空間内で厳密に動作する。
我々は、k-nearest neighbors (kNN) Mean-Shiftを用いて、CLIP空間以外の特徴表現を強化する訓練不要のアプローチであるMS-TTAを提案する。
論文 参考訳(メタデータ) (2025-07-01T06:22:00Z) - Feature-Based Instance Neighbor Discovery: Advanced Stable Test-Time Adaptation in Dynamic World [7.9346432903946535]
深層ニューラルネットワークは、トレーニングとテストドメイン間の分散シフトによって、依然としてパフォーマンスが低下している。
本稿では,FIND(Feature-based Instance Neighbor Discovery)を提案する。FIND(Feature-wise Feature Disentanglement),FABN(Feature Aware Batch Normalization),Selective FABN(S-FABN)の3つの主要コンポーネントからなる。
実験では、FINDは既存の手法を著しく上回り、動的シナリオにおいて30%の精度向上を実現している。
論文 参考訳(メタデータ) (2025-06-07T12:45:49Z) - PseudoNeg-MAE: Self-Supervised Point Cloud Learning using Conditional Pseudo-Negative Embeddings [55.55445978692678]
PseudoNeg-MAEは、ポイントクラウドマスマスキングオートエンコーダのグローバルな特徴表現を強化する。
本研究では,ネットワークが識別的表現を保ちながら,よりリッチな変換キューをキャプチャできる新たな損失を提案する。
論文 参考訳(メタデータ) (2024-09-24T07:57:21Z) - Enhancing Robustness of Vision-Language Models through Orthogonality Learning and Self-Regularization [77.62516752323207]
そこで本研究では,事前訓練した重みを効率よく微調整する直交微調整法を導入し,頑健さと一般化の強化を実現した。
自己正規化戦略は、OrthSRと呼ばれるVLMのゼロショット一般化の観点から安定性を維持するためにさらに活用される。
筆者らはCLIPとCoOpを再検討し,少数の画像のクラスフィシエーションシナリオにおけるモデルの改善を効果的に行う。
論文 参考訳(メタデータ) (2024-07-11T10:35:53Z) - Relaxed Contrastive Learning for Federated Learning [48.96253206661268]
本稿では,フェデレート学習におけるデータ不均一性の課題に対処する,新しいコントラスト学習フレームワークを提案する。
当社のフレームワークは,既存のフェデレート学習アプローチを,標準ベンチマークにおいて大きなマージンで上回ります。
論文 参考訳(メタデータ) (2024-01-10T04:55:24Z) - Sufficient Invariant Learning for Distribution Shift [20.88069274935592]
本稿では,SIL(Sufficient Invariant Learning)フレームワークという新しい学習原理を紹介する。
SILは、単一の機能に頼るのではなく、不変機能の十分なサブセットを学ぶことに重点を置いている。
本稿では,適応シャープネスを意識したグループ分散ロバスト最適化(ASGDRO)を提案する。
論文 参考訳(メタデータ) (2022-10-24T18:34:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。