論文の概要: A Language Anchor-Guided Method for Robust Noisy Domain Generalization
- arxiv url: http://arxiv.org/abs/2503.17211v1
- Date: Fri, 21 Mar 2025 15:20:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-24 14:58:52.488083
- Title: A Language Anchor-Guided Method for Robust Noisy Domain Generalization
- Title(参考訳): ロバスト雑音領域一般化のための言語アンカー誘導法
- Authors: Zilin Dai, Lehong Wang, Fangzhou Lin, Yidong Wang, Zhigang Li, Kazunori D Yamada, Ziming Zhang, Wang Lu,
- Abstract要約: アンカーアライメントとアダプティブウェイトリング(A3W)について紹介する。
A3Wは、自然言語処理(NLP)アンカーでガイドされたサンプル再重み付けを使用して、より代表的な特徴を抽出する。
最先端の領域一般化法より一貫して優れている。
- 参考スコア(独自算出の注目度): 20.83580289888522
- License:
- Abstract: Real-world machine learning applications often struggle with two major challenges: distribution shift and label noise. Models tend to overfit by focusing on redundant and uninformative features in the training data, which makes it hard for them to generalize to the target domain. Noisy data worsens this problem by causing further overfitting to the noise, meaning that existing methods often fail to tell the difference between true, invariant features and misleading, spurious ones. To tackle these issues, we introduce Anchor Alignment and Adaptive Weighting (A3W). This new algorithm uses sample reweighting guided by natural language processing (NLP) anchors to extract more representative features. In simple terms, A3W leverages semantic representations from natural language models as a source of domain-invariant prior knowledge. Additionally, it employs a weighted loss function that adjusts each sample's contribution based on its similarity to the corresponding NLP anchor. This adjustment makes the model more robust to noisy labels. Extensive experiments on standard benchmark datasets show that A3W consistently outperforms state-of-the-art domain generalization methods, offering significant improvements in both accuracy and robustness across different datasets and noise levels.
- Abstract(参考訳): 現実世界の機械学習アプリケーションは、分散シフトとラベルノイズという2つの大きな課題に苦しむことが多い。
モデルは、トレーニングデータにおける冗長で非形式的な特徴に焦点を合わせることで、過度に適合する傾向があるため、ターゲットドメインへの一般化が困難になる。
ノイズの多いデータは、ノイズにさらなる過度な適合を引き起こすことでこの問題を悪化させる。
これらの問題に対処するために、Anchor Alignment and Adaptive Weighting (A3W)を導入する。
このアルゴリズムは、自然言語処理(NLP)アンカーで案内されるサンプル再重み付けを用いて、より代表的な特徴を抽出する。
単純な言い方をすれば、A3Wはドメイン不変の事前知識の源として自然言語モデルの意味表現を利用する。
さらに、対応するNLPアンカーとの類似性に基づいて各サンプルのコントリビューションを調整する重み付き損失関数を採用している。
この調整により、モデルはノイズの多いラベルに対してより堅牢になる。
標準ベンチマークデータセットに対する大規模な実験によると、A3Wは最先端のドメイン一般化手法を一貫して上回り、異なるデータセットとノイズレベルにわたる正確性と堅牢性の両方において、大幅な改善を提供する。
関連論文リスト
- TSVC:Tripartite Learning with Semantic Variation Consistency for Robust Image-Text Retrieval [11.874979105806243]
クロスモーダル検索は意味的関連性を通して異なるモダリティの下でデータをマップする。
既存のアプローチでは、データペアが適切に整合しており、広く存在するアノテーションノイズを無視していると暗黙的に仮定している。
本稿では,画像テキスト検索のための意味変化一貫性(TSVC)を用いた三部学習を提案する。
論文 参考訳(メタデータ) (2025-01-19T04:05:08Z) - AdaCo: Overcoming Visual Foundation Model Noise in 3D Semantic Segmentation via Adaptive Label Correction [14.51758173099208]
本稿では,3次元セマンティックセグメンテーションのためのラベルのない新しい学習手法であるAdaptive Label Correction(AdaCo)を提案する。
AdaCoにはCLGM(Cross-modal Label Generation Module)が組み込まれている。
提案したAdaCoは,3次元セマンティックセグメンテーションタスクにおいて,ラベルなし学習ネットワークの性能制限を効果的に緩和することができる。
論文 参考訳(メタデータ) (2024-12-24T08:12:31Z) - Self-Taught Recognizer: Toward Unsupervised Adaptation for Speech Foundation Models [84.8919069953397]
Self-Taught Recognizer (STAR) は、音声認識システムのための教師なし適応フレームワークである。
その結果,STARは14のドメインで平均13.5%の単語誤り率の相対的な減少を実現していることがわかった。
STARは1時間以内のラベル付きデータを必要とする高いデータ効率を示す。
論文 参考訳(メタデータ) (2024-05-23T04:27:11Z) - Self-supervised Feature Adaptation for 3D Industrial Anomaly Detection [59.41026558455904]
具体的には,大規模ビジュアルデータセット上で事前学習されたモデルを利用した初期のマルチモーダルアプローチについて検討する。
本研究では,アダプタを微調整し,異常検出に向けたタスク指向の表現を学習するためのLSFA法を提案する。
論文 参考訳(メタデータ) (2024-01-06T07:30:41Z) - Federated Learning with Instance-Dependent Noisy Label [6.093214616626228]
FedBeatはIDN遷移行列(IDNTM)を用いたグローバルな統計的一貫した分類器の構築を目指している
CIFAR-10 と SVHN で行った実験により,提案手法が最先端手法を著しく上回っていることを確認した。
論文 参考訳(メタデータ) (2023-12-16T05:08:02Z) - Unraveling the "Anomaly" in Time Series Anomaly Detection: A
Self-supervised Tri-domain Solution [89.16750999704969]
異常ラベルは時系列異常検出において従来の教師付きモデルを妨げる。
自己教師型学習のような様々なSOTA深層学習技術がこの問題に対処するために導入されている。
自己教師型3領域異常検出器(TriAD)を提案する。
論文 参考訳(メタデータ) (2023-11-19T05:37:18Z) - Improving a Named Entity Recognizer Trained on Noisy Data with a Few
Clean Instances [55.37242480995541]
クリーンなインスタンスの小さなセットから,ノイズの多いNERデータを誘導することで,ノイズを発生させる手法を提案する。
メインのNERモデルとともに、判別器モデルをトレーニングし、その出力を使用してサンプルの重み付けを校正します。
クラウドソーシングと遠隔監視データセットの結果から,提案手法は少ないガイダンスセットで継続的に性能を向上させることができることが示された。
論文 参考訳(メタデータ) (2023-10-25T17:23:37Z) - APAM: Adaptive Pre-training and Adaptive Meta Learning in Language Model
for Noisy Labels and Long-tailed Learning [9.433150673299163]
実用的な自然言語処理(NLP)タスクは、一般的にノイズの多いラベルで長い尾を持つ。
オーバーサンプリングやアンダーサンプリングなどの一般的な再サンプリング技術は、容易にオーバーフィッティングに繋がる可能性がある。
本稿では,ロングテールラベルとノイズラベルの両方の問題に対処する一般的なフレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-06T18:40:04Z) - Consistency Regularization for Variational Auto-Encoders [14.423556966548544]
変分自動エンコーダ(VAE)は教師なし学習の強力なアプローチである。
本稿では,VAEの整合性を強制する正規化手法を提案する。
論文 参考訳(メタデータ) (2021-05-31T10:26:32Z) - Bridging the Gap Between Clean Data Training and Real-World Inference
for Spoken Language Understanding [76.89426311082927]
既存のモデルはクリーンデータに基づいてトレーニングされ、クリーンデータトレーニングと現実世界の推論の間にtextitgapが発生する。
本稿では,良質なサンプルと低品質のサンプルの両方が類似ベクトル空間に埋め込まれた領域適応法を提案する。
広く使用されているデータセット、スニップス、および大規模な社内データセット(1000万のトレーニング例)に関する実験では、この方法は実世界の(騒々しい)コーパスのベースラインモデルを上回るだけでなく、堅牢性、すなわち、騒々しい環境下で高品質の結果を生み出すことを実証しています。
論文 参考訳(メタデータ) (2021-04-13T17:54:33Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。