論文の概要: On the Robustness of Tabular Foundation Models: Test-Time Attacks and In-Context Defenses
- arxiv url: http://arxiv.org/abs/2506.02978v1
- Date: Tue, 03 Jun 2025 15:15:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:35.809151
- Title: On the Robustness of Tabular Foundation Models: Test-Time Attacks and In-Context Defenses
- Title(参考訳): タブラル基礎モデルのロバスト性について:テスト時間攻撃とインテクスト防御
- Authors: Mohamed Djilani, Thibault Simonetto, Karim Tit, Florian Tambon, Paul Récamier, Salah Ghamizi, Maxime Cordy, Mike Papadakis,
- Abstract要約: テスト入力に対する小さな構造的摂動は、トレーニングコンテキストが固定されたままであっても、予測精度を著しく低下させることができることを示す。
モデル重みを更新することなく、コンテキストを逆向きのインスタンスに漸進的に置き換える、コンテキスト内逆向きのトレーニング戦略を導入する。
- 参考スコア(独自算出の注目度): 15.82984689613575
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent tabular Foundational Models (FM) such as TabPFN and TabICL, leverage in-context learning to achieve strong performance without gradient updates or fine-tuning. However, their robustness to adversarial manipulation remains largely unexplored. In this work, we present a comprehensive study of the adversarial vulnerabilities of tabular FM, focusing on both their fragility to targeted test-time attacks and their potential misuse as adversarial tools. We show on three benchmarks in finance, cybersecurity and healthcare, that small, structured perturbations to test inputs can significantly degrade prediction accuracy, even when training context remain fixed. Additionally, we demonstrate that tabular FM can be repurposed to generate transferable evasion to conventional models such as random forests and XGBoost, and on a lesser extent to deep tabular models. To improve tabular FM, we formulate the robustification problem as an optimization of the weights (adversarial fine-tuning), or the context (adversarial in-context learning). We introduce an in-context adversarial training strategy that incrementally replaces the context with adversarial perturbed instances, without updating model weights. Our approach improves robustness across multiple tabular benchmarks. Together, these findings position tabular FM as both a target and a source of adversarial threats, highlighting the urgent need for robust training and evaluation practices in this emerging paradigm.
- Abstract(参考訳): TabPFNやTabICLといった最近の表層基礎モデル(FM)では、インコンテキスト学習を活用して、勾配更新や微調整なしに強力なパフォーマンスを実現している。
しかし、敵の操作に対する頑健さはほとんど未解明のままである。
本研究は,テストタイム攻撃に対する脆弱性と,敵ツールとしての潜在的な誤用の両方に着目し,表在的FMの敵対的脆弱性を包括的に研究する。
我々は、金融、サイバーセキュリティ、医療の3つのベンチマークで、入力をテストするための小さな構造化された摂動が、たとえトレーニングコンテキストが固定されたままであっても、予測精度を著しく低下させることを示した。
さらに、ランダム森林やXGBoostのような従来のモデルや、より深い表層モデルへの転送可能な回避を生成するために、表層FMを再利用できることを実証した。
表層FMを改善するために,重み(逆微調整)やコンテキスト(逆中文脈学習)の最適化として頑健化問題を定式化する。
モデル重みを更新することなく、文脈を対角的摂動インスタンスに漸進的に置き換える、コンテキスト内対角トレーニング戦略を導入する。
当社のアプローチは、複数の表型ベンチマークにおける堅牢性を改善する。
これらの知見は,この新興パラダイムにおける堅牢なトレーニングと評価の急激な必要性を浮き彫りにして,表層FMを標的として,敵の脅威の源として位置づけた。
関連論文リスト
- Are Time-Series Foundation Models Deployment-Ready? A Systematic Study of Adversarial Robustness Across Domains [23.9530536685668]
Time Series Foundation Models (TSFM) は、大規模でクロスドメインなデータに基づいて事前訓練されており、さらなるトレーニングをすることなく、新しいシナリオでゼロショット予測を行うことができる。
TSFMは逆入力摂動に対して堅牢か?
これらの摂動は、中間者攻撃やデータ中毒に利用することができる。
論文 参考訳(メタデータ) (2025-05-26T01:24:11Z) - R-TPT: Improving Adversarial Robustness of Vision-Language Models through Test-Time Prompt Tuning [97.49610356913874]
視覚言語モデル(VLM)のためのロバストテスト時プロンプトチューニング(R-TPT)を提案する。
R-TPTは、推論段階における敵攻撃の影響を緩和する。
プラグアンドプレイの信頼性に基づく重み付きアンサンブル戦略を導入し,防御強化を図る。
論文 参考訳(メタデータ) (2025-04-15T13:49:31Z) - Adversarial Training for Defense Against Label Poisoning Attacks [53.893792844055106]
ラベル中毒攻撃は機械学習モデルに重大なリスクをもたらす。
本稿では,これらの脅威に対処するために,サポートベクトルマシン(SVM)に基づく新たな対角的防御戦略を提案する。
提案手法は, 様々なモデルアーキテクチャに対応し, カーネルSVMを用いた予測勾配降下アルゴリズムを用いて, 対向学習を行う。
論文 参考訳(メタデータ) (2025-02-24T13:03:19Z) - Towards Robust Federated Learning via Logits Calibration on Non-IID Data [49.286558007937856]
Federated Learning(FL)は、エッジネットワークにおける分散デバイスの共同モデルトレーニングに基づく、プライバシ保護のための分散管理フレームワークである。
近年の研究では、FLは敵の例に弱いことが示されており、その性能は著しく低下している。
本研究では,対戦型訓練(AT)フレームワークを用いて,対戦型実例(AE)攻撃に対するFLモデルの堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-05T09:18:29Z) - The Effectiveness of Random Forgetting for Robust Generalization [21.163070161951868]
我々は,FOMO(Fordt to Mitigate Overfitting)と呼ばれる新しい学習パラダイムを導入する。
FOMOは、重みのサブセットをランダムに忘れる忘れ相と、一般化可能な特徴の学習を強調する再学習相とを交互に扱う。
実験の結果, FOMOは最良と最終ロバストなテスト精度のギャップを大幅に減らし, 頑健なオーバーフィッティングを緩和することがわかった。
論文 参考訳(メタデータ) (2024-02-18T23:14:40Z) - Perturbation-Invariant Adversarial Training for Neural Ranking Models:
Improving the Effectiveness-Robustness Trade-Off [107.35833747750446]
正統な文書に不可避な摂動を加えることで 敵の例を作れます
この脆弱性は信頼性に関する重大な懸念を生じさせ、NRMの展開を妨げている。
本研究では,NRMにおける有効・損耗トレードオフに関する理論的保証を確立する。
論文 参考訳(メタデータ) (2023-12-16T05:38:39Z) - Constrained Adaptive Attacks: Realistic Evaluation of Adversarial
Examples and Robust Training of Deep Neural Networks for Tabular Data [19.579837693614326]
本稿では,制約付きディープラーニングモデルに対する最初の効率的な回避攻撃であるCAAを提案する。
CAAを活用して、クレジットスコア、フィッシング、ボットネット攻撃検出という3つの一般的なユースケースにわたる、ディープタブモデルのベンチマークを構築します。
論文 参考訳(メタデータ) (2023-11-08T07:35:28Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - FAT: Federated Adversarial Training [5.287156503763459]
フェデレートラーニング(FL)は、機械学習(ML)におけるプライバシとデータガバナンスの問題に対処する最も重要なパラダイムの1つである。
我々は、トレーニング中のデータのプライバシを保ちながら、推論中の回避の脅威を軽減するために、両方の手法を組み合わせて、連合敵訓練(FAT)への第一歩を踏み出した。
論文 参考訳(メタデータ) (2020-12-03T09:47:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。