論文の概要: Refining the Information Bottleneck via Adversarial Information Separation
- arxiv url: http://arxiv.org/abs/2602.06549v1
- Date: Fri, 06 Feb 2026 09:54:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 22:18:26.331388
- Title: Refining the Information Bottleneck via Adversarial Information Separation
- Title(参考訳): 逆情報分離による情報ボトルネックの精錬
- Authors: Shuai Ning, Zhenpeng Wang, Lin Wang, Bing Chen, Shuangrong Liu, Xu Wu, Jin Zhou, Bo Yang,
- Abstract要約: 限られたデータから一般化することは、物質科学のような領域のモデルにとって重要である。
本稿では,タスク関連機能をノイズから分離するAdverISF(Adversarial Information Separation Framework)を提案する。
本稿では,AdverISFがデータスカースシナリオにおける最先端手法より優れていることを示す。
- 参考スコア(独自算出の注目度): 10.748014850495144
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generalizing from limited data is particularly critical for models in domains such as material science, where task-relevant features in experimental datasets are often heavily confounded by measurement noise and experimental artifacts. Standard regularization techniques fail to precisely separate meaningful features from noise, while existing adversarial adaptation methods are limited by their reliance on explicit separation labels. To address this challenge, we propose the Adversarial Information Separation Framework (AdverISF), which isolates task-relevant features from noise without requiring explicit supervision. AdverISF introduces a self-supervised adversarial mechanism to enforce statistical independence between task-relevant features and noise representations. It further employs a multi-layer separation architecture that progressively recycles noise information across feature hierarchies to recover features inadvertently discarded as noise, thereby enabling finer-grained feature extraction. Extensive experiments demonstrate that AdverISF outperforms state-of-the-art methods in data-scarce scenarios. In addition, evaluations on real-world material design tasks show that it achieves superior generalization performance.
- Abstract(参考訳): 限られたデータからの一般化は、物質科学のような分野のモデルにおいて特に重要である。
標準的な正則化手法では、ノイズから有意な特徴を正確に分離することができず、既存の逆順応法は明示的な分離ラベルに依存して制限される。
そこで本稿では,タスク関連機能をノイズから分離するAdverISF(Adversarial Information Separation Framework)を提案する。
AdverISFは、タスク関連特徴とノイズ表現の間の統計的独立を強制する自己教師型敵機構を導入する。
さらに、多層分離アーキテクチャを用いて、特徴階層間のノイズ情報を段階的にリサイクルし、意図せずノイズとして破棄された特徴を回復し、よりきめ細かい特徴抽出を可能にする。
大規模な実験では、AdverISFがデータスカースシナリオで最先端のメソッドより優れていることが示されている。
また,実世界の材料設計タスクの評価結果から,より優れた一般化性能が得られることが示された。
関連論文リスト
- Noise as a Probe: Membership Inference Attacks on Diffusion Models Leveraging Initial Noise [51.179816451161635]
拡散モデルは画像生成において顕著な進歩を遂げているが、そのデプロイの増加はプライバシに関する深刻な懸念を引き起こす。
広範に使われているノイズスケジュールは、画像のセマンティック情報を完全に排除することができない。
本稿では,初期雑音に意味情報を注入し,モデル生成結果を解析してメンバーシップを推定する,シンプルで効果的なメンバーシップ推論攻撃を提案する。
論文 参考訳(メタデータ) (2026-01-29T12:29:01Z) - Lost in the Noise: How Reasoning Models Fail with Contextual Distractors [57.31788955167306]
推論モデルとエージェントAIシステムの最近の進歩は、多様な外部情報への依存度を高めている。
NoisyBenchは、RAGの11のデータセット、推論、アライメント、ツール使用タスクに対して、モデルロバスト性を体系的に評価する包括的なベンチマークである。
評価の結果,文脈的障害に直面した場合,最先端モデルでは最大80%の破滅的な性能低下がみられた。
論文 参考訳(メタデータ) (2026-01-12T05:43:51Z) - FAIM: Frequency-Aware Interactive Mamba for Time Series Classification [87.84511960413715]
時系列分類(TSC)は、環境モニタリング、診断、姿勢認識など、多くの実世界の応用において重要である。
本稿では,周波数対応対話型マンバモデルであるFAIMを提案する。
FAIMは既存の最先端(SOTA)手法を一貫して上回り、精度と効率のトレードオフが優れていることを示す。
論文 参考訳(メタデータ) (2025-11-26T08:36:33Z) - Collaborative Learning of Scattering and Deep Features for SAR Target Recognition with Noisy Labels [7.324728751991982]
雑音ラベル付きSAR自動目標認識のための散乱・深度特徴の協調学習を提案する。
具体的には、散乱と深い特徴を統合するために、マルチモデル機能融合フレームワークが設計されている。
提案手法は,ラベルノイズの異なる動作条件下での最先端性能を実現することができる。
論文 参考訳(メタデータ) (2025-08-11T06:10:23Z) - Offline Action-Free Learning of Ex-BMDPs by Comparing Diverse Datasets [87.62730694973696]
本稿では,エージェント間の制御可能な特徴ダイナミクスの違いを利用して表現を学習する,サンプル効率のよいアルゴリズムCRAFTを紹介する。
我々はCRAFTの性能を理論的に保証し、おもちゃの例でその実現可能性を示す。
論文 参考訳(メタデータ) (2025-03-26T22:05:57Z) - RobustFT: Robust Supervised Fine-tuning for Large Language Models under Noisy Response [23.45168175163634]
監視された微調整(SFT)は、特定のドメインやタスクに大規模言語モデル(LLM)を適用する上で重要な役割を果たす。
本稿では,下流のタスクデータに対してノイズ検出とレバーベリングを行う頑健なSFTフレームワーク(RobustFT)を提案する。
5つのデータセットにわたる複数のLLMで実施された大規模な実験は、ノイズの多いシナリオにおけるRobostFTの例外的なパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-12-19T15:00:18Z) - LoSAM: Local Search in Additive Noise Models with Mixed Mechanisms and General Noise for Global Causal Discovery [2.4305626489408465]
加法雑音モデルの局所探索(LoSAM)は、ANMにおける一意なDAG学習のためのトポロジカル順序であり、因果的機構と一般的な雑音分布が混在している。
一貫性と基準を証明し、スケーラビリティとサンプル効率を確保します。
論文 参考訳(メタデータ) (2024-10-15T16:28:55Z) - Improving a Named Entity Recognizer Trained on Noisy Data with a Few
Clean Instances [55.37242480995541]
クリーンなインスタンスの小さなセットから,ノイズの多いNERデータを誘導することで,ノイズを発生させる手法を提案する。
メインのNERモデルとともに、判別器モデルをトレーニングし、その出力を使用してサンプルの重み付けを校正します。
クラウドソーシングと遠隔監視データセットの結果から,提案手法は少ないガイダンスセットで継続的に性能を向上させることができることが示された。
論文 参考訳(メタデータ) (2023-10-25T17:23:37Z) - Learning Confident Classifiers in the Presence of Label Noise [5.551384206194696]
本稿では,ノイズ観測のための確率論的モデルを提案し,信頼性の高い分類とセグメンテーションモデルの構築を可能にする。
実験により,本アルゴリズムは,検討された分類問題と分割問題に対して,最先端の解よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-01-02T04:27:25Z) - Representation Learning for the Automatic Indexing of Sound Effects
Libraries [79.68916470119743]
タスク固有のがデータセットに依存しない表現は、クラス不均衡、一貫性のないクラスラベル、不十分なデータセットサイズなどのデータ問題にうまく対処できることを示す。
詳細な実験結果は、メトリック学習アプローチと異なるデータセット間の学習方法が表現効率に与える影響を示している。
論文 参考訳(メタデータ) (2022-08-18T23:46:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。