論文の概要: QuAIL: Quality-Aware Inertial Learning for Robust Training under Data Corruption
- arxiv url: http://arxiv.org/abs/2602.03686v1
- Date: Tue, 03 Feb 2026 16:06:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.561773
- Title: QuAIL: Quality-Aware Inertial Learning for Robust Training under Data Corruption
- Title(参考訳): QuAIL: データ破壊下でのロバストトレーニングのための品質を考慮した慣性学習
- Authors: Mattia Sabella, Alberto Archetti, Pietro Pinoli, Matteo Matteucci, Cinzia Cappiello,
- Abstract要約: 品質インフォームドトレーニング機構QuAILを学習プロセスに直接組み込む。
QuAILは、ランダムと値依存の両方の汚損の下で、ニューラルベースラインよりも平均性能を一貫して向上することを示す。
- 参考スコア(独自算出の注目度): 7.630511612007769
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tabular machine learning systems are frequently trained on data affected by non-uniform corruption, including noisy measurements, missing entries, and feature-specific biases. In practice, these defects are often documented only through column-level reliability indicators rather than instance-wise quality annotations, limiting the applicability of many robustness and cleaning techniques. We present QuAIL, a quality-informed training mechanism that incorporates feature reliability priors directly into the learning process. QuAIL augments existing models with a learnable feature-modulation layer whose updates are selectively constrained by a quality-dependent proximal regularizer, thereby inducing controlled adaptation across features of varying trustworthiness. This stabilizes optimization under structured corruption without explicit data repair or sample-level reweighting. Empirical evaluation across 50 classification and regression datasets demonstrates that QuAIL consistently improves average performance over neural baselines under both random and value-dependent corruption, with especially robust behavior in low-data and systematically biased settings. These results suggest that incorporating feature reliability information directly into optimization dynamics is a practical and effective approach for resilient tabular learning.
- Abstract(参考訳): タブラル機械学習システムは、ノイズ測定、欠落したエントリ、特徴固有のバイアスを含む、一様でない汚職の影響を受けやすいデータに基づいて、頻繁に訓練される。
実際には、これらの欠陥は、インスタンス単位の品質アノテーションではなく、列レベルの信頼性指標によってのみ文書化され、多くの堅牢性とクリーニング技術の適用性が制限される。
品質インフォームドトレーニング機構QuAILを学習プロセスに直接組み込む。
QuAILは、品質に依存した近位正規化器によって更新を選択的に制約する学習可能な機能変調層で既存のモデルを拡張し、様々な信頼性のある特徴にまたがって制御された適応を誘導する。
これにより、明示的なデータ修復やサンプルレベルの再重み付けなしに、構造化された汚職下での最適化が安定化される。
50の分類と回帰データセットに対する実証的な評価は、QuAILがランダムと値依存の両方の汚職の下で、特に低データと体系的なバイアスのある設定において、ニューラルネットワークよりも平均パフォーマンスを継続的に改善していることを示している。
これらの結果は,機能信頼性情報を最適化力学に直接組み込むことが,弾力性のある表型学習の実践的かつ効果的なアプローチであることを示唆している。
関連論文リスト
- Parent-Guided Adaptive Reliability (PGAR): A Behavioural Meta-Learning Framework for Stable and Trustworthy AI [0.0]
Parent-Guided Adaptive Reliability (PGAR)は軽量な振る舞いメタ学習フレームワークである。
障害時の安定性、キャリブレーション、リカバリを改善するため、標準的な学習者の上に、監督的な"親"層を追加します。
PGARは既存の最適化と学習パイプラインのためのプラグイン信頼性レイヤとして機能し、安全関連設定の解釈可能なトレースをサポートする。
論文 参考訳(メタデータ) (2026-01-07T06:02:34Z) - Learning to be Reproducible: Custom Loss Design for Robust Neural Networks [4.3094059981414405]
予測精度とトレーニング安定性のバランスをとるカスタムロス関数(CLF)を提案する。
CLFは予測性能を犠牲にすることなくトレーニングを大幅に改善する。
これらの結果は、より安定的で信頼性があり、信頼できるニューラルネットワークを開発するための効率的かつ効率的な戦略として、CLFを確立している。
論文 参考訳(メタデータ) (2026-01-02T05:31:08Z) - Optimal Information Combining for Multi-Agent Systems Using Adaptive Bias Learning [0.0]
現在のアプローチでは、これらのバイアスを無視し、最適以下の決定につながるか、あるいは実際は不可能な高価なキャリブレーション手順を必要とする。
本稿は,これらの未知のバイアスをいつ学習し,正し,ほぼ最適性能を回復できるか,という根本的な問題に対処する。
バイアスを学習可能な体系的構成要素と既約コンポーネントに分解する理論的枠組みを開発する。
学習容易度が高いシステムは高い性能を回復できるが,学習可能性の低いシステムは最小限の利益を得られることを示す。
論文 参考訳(メタデータ) (2025-10-28T21:52:33Z) - Revisiting Multivariate Time Series Forecasting with Missing Values [65.30332997607141]
現実の時系列では欠落値が一般的である。
現在のアプローチでは、計算モジュールを使用して、不足した値を補う、計算済みの予測フレームワークが開発されている。
このフレームワークは、致命的な問題を見落としている: 欠落した値に対して基礎的な真理は存在せず、予測精度を劣化させる可能性のあるエラーの影響を受けやすいようにしている。
本稿では,Information Bottleneck原則に基づく新しいフレームワークであるConsistency-Regularized Information Bottleneck(CRIB)を紹介する。
論文 参考訳(メタデータ) (2025-09-27T20:57:48Z) - Stress-Testing ML Pipelines with Adversarial Data Corruption [11.91482648083998]
規制当局は現在、ハイテイクシステムは現実的で相互依存的なエラーに耐えられるという証拠を要求している。
SAVAGEは依存性グラフとフレキシブルな汚いテンプレートを通じて、データ品質の問題を正式にモデル化するフレームワークです。
Savanageは、脆弱性のあるデータサブポピュレーションと微調整による汚職の深刻度を効率的に識別するために、双方向の最適化アプローチを採用している。
論文 参考訳(メタデータ) (2025-06-02T00:41:24Z) - Selective Learning: Towards Robust Calibration with Dynamic Regularization [79.92633587914659]
ディープラーニングにおけるミススキャリブレーションとは、予測された信頼とパフォーマンスの間には相違がある、という意味である。
トレーニング中に何を学ぶべきかを学ぶことを目的とした動的正規化(DReg)を導入し、信頼度調整のトレードオフを回避する。
論文 参考訳(メタデータ) (2024-02-13T11:25:20Z) - Calibration-Aware Bayesian Learning [37.82259435084825]
本稿では、キャリブレーション対応ベイズニューラルネットワーク(CA-BNN)と呼ばれる統合フレームワークを提案する。
ベイズ学習のように変分分布を最適化しながら、データ依存あるいはデータ非依存の正則化をそれぞれ適用する。
予測キャリブレーション誤差(ECE)と信頼性図を用いて,提案手法の利点を検証した。
論文 参考訳(メタデータ) (2023-05-12T14:19:15Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - Robust Pre-Training by Adversarial Contrastive Learning [120.33706897927391]
近年の研究では、敵の訓練と統合されると、自己監督型事前訓練が最先端の堅牢性につながることが示されている。
我々は,データ強化と対向的摂動の両面に整合した学習表現により,ロバストネスを意識した自己指導型事前学習を改善する。
論文 参考訳(メタデータ) (2020-10-26T04:44:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。