論文の概要: A Weak Signal Learning Dataset and Its Baseline Method
- arxiv url: http://arxiv.org/abs/2512.23160v1
- Date: Mon, 29 Dec 2025 02:48:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.381885
- Title: A Weak Signal Learning Dataset and Its Baseline Method
- Title(参考訳): 弱信号学習データセットとそのベースライン法
- Authors: Xianqi Liu, Xiangru Li, Lefeng He, Ziyu Fang,
- Abstract要約: 弱信号学習は、障害診断、医用画像、自律運転など、多くの分野で一般的な課題である。
13,158個のスペクトルを含む弱信号特徴学習のための最初の特別なデータセットを構築した。
実験により, 弱信号, 高雑音, 極クラス不均衡の処理において, 高精度かつロバスト性が得られた。
- 参考スコア(独自算出の注目度): 0.41560960922138807
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Weak signal learning (WSL) is a common challenge in many fields like fault diagnosis, medical imaging, and autonomous driving, where critical information is often masked by noise and interference, making feature identification difficult. Even in tasks with abundant strong signals, the key to improving model performance often lies in effectively extracting weak signals. However, the lack of dedicated datasets has long constrained research. To address this, we construct the first specialized dataset for weak signal feature learning, containing 13,158 spectral samples. It features low SNR dominance (over 55% samples with SNR below 50) and extreme class imbalance (class ratio up to 29:1), providing a challenging benchmark for classification and regression in weak signal scenarios. We also propose a dual-view representation (vector + time-frequency map) and a PDVFN model tailored to low SNR, distribution skew, and dual imbalance. PDVFN extracts local sequential features and global frequency-domain structures in parallel, following principles of local enhancement, sequential modeling, noise suppression, multi-scale capture, frequency extraction, and global perception. This multi-source complementarity enhances representation for low-SNR and imbalanced data, offering a novel solution for WSL tasks like astronomical spectroscopy. Experiments show our method achieves higher accuracy and robustness in handling weak signals, high noise, and extreme class imbalance, especially in low SNR and imbalanced scenarios. This study provides a dedicated dataset, a baseline model, and establishes a foundation for future WSL research.
- Abstract(参考訳): 弱信号学習(WSL)は、障害診断、医用画像、自律運転など多くの分野で一般的な課題であり、重要な情報はノイズや干渉によって隠蔽され、特徴の識別が困難になる。
強力な信号が豊富なタスクであっても、モデル性能を改善する鍵は、しばしば弱い信号を効果的に抽出することにある。
しかし、専用のデータセットの欠如は長い間研究を制約してきた。
これを解決するために,13,158個のスペクトルサンプルを含む弱信号特徴学習のための最初の特別なデータセットを構築した。
低いSNR支配(SNRが50未満のサンプル55%以上)と極端なクラス不均衡(クラス比が29:1まで)を備えており、弱い信号シナリオの分類と回帰に挑戦的なベンチマークを提供する。
また、低SNR、分布スキュー、双対不均衡に適した双対ビュー表現(ベクトル+時間周波数マップ)とPDVFNモデルを提案する。
PDVFNは、局所的な拡張、シーケンシャルモデリング、ノイズ抑圧、マルチスケールキャプチャ、周波数抽出、グローバル知覚の原則に従って、局所的な逐次的特徴とグローバルな周波数領域構造を並列に抽出する。
この多ソース相補性は低SNRおよび不均衡データの表現を強化し、天文学的な分光法のようなWSLタスクのための新しいソリューションを提供する。
実験により, 弱い信号, 高雑音, 極端なクラス不均衡, 特に低SNRおよび不均衡シナリオにおいて, 高い精度とロバスト性が得られることが示された。
この研究は、専用のデータセット、ベースラインモデルを提供し、将来のWSL研究の基礎を確立する。
関連論文リスト
- How Does Label Noise Gradient Descent Improve Generalization in the Low SNR Regime? [78.0226274470175]
我々は、勾配更新にラベルノイズを導入することで、ニューラルネットワーク(NN)のテスト性能が向上するかどうか検討する。
学習中のラベルノイズの付加は,学習過程を支配することを防止し,雑音の記憶を抑制することを実証する。
対照的に、標準GDで訓練されたNNは、同じ低SNR環境でのノイズに過度に適応する傾向にある。
論文 参考訳(メタデータ) (2025-10-20T13:28:13Z) - Dual-granularity Sinkhorn Distillation for Enhanced Learning from Long-tailed Noisy Data [67.25796812343454]
ディープラーニングのための実世界のデータセットは、クラス不均衡とラベルノイズの共起的な課題にしばしば悩まされる。
蒸留と相補的な知見の統合により二重強靭性を高める新しいフレームワークであるD-SINKを提案する。
ベンチマークデータセットの実験では、D-SINKはロバスト性を大幅に向上し、長い尾のノイズデータから学習する際の強い経験的性能を達成することが示された。
論文 参考訳(メタデータ) (2025-10-09T13:05:27Z) - Spectral Bottleneck in Deep Neural Networks: Noise is All You Need [0.0]
本稿では,スペクトルのボトルネックの影響を受けやすい高周波優先信号の適合性について検討する。
周波数の内容に関わらず、任意のターゲット信号に効果的に適合させるため、一般化されたターゲット摂動スキームを提案する。
本研究では,ネットワーク活性化スペクトルと経験的ニューラル・タンジェント・カーネルの固有ベイジを制御できることを示す。
論文 参考訳(メタデータ) (2025-09-09T22:16:24Z) - Noise Augmented Fine Tuning for Mitigating Hallucinations in Large Language Models [1.0579965347526206]
大規模言語モデル(LLM)は、しばしば不正確な、または誤解を招くコンテンツ・ハロシンを生成する。
noise-Augmented Fine-Tuning (NoiseFiT) は適応ノイズ注入を利用してモデルロバスト性を高める新しいフレームワークである。
NoiseFiTは、動的にスケールしたガウス雑音を用いて、高SNR(より堅牢)または低SNR(潜在的に過正規化)と同定された層を選択的に摂動する。
論文 参考訳(メタデータ) (2025-04-04T09:27:19Z) - STAF: Sinusoidal Trainable Activation Functions for Implicit Neural Representation [7.2888019138115245]
Inlicit Neural Representations (INR) は、連続的な信号をモデリングするための強力なフレームワークとして登場した。
ReLUベースのネットワークのスペクトルバイアスは、十分に確立された制限であり、ターゲット信号の微細な詳細を捕捉する能力を制限する。
Sinusoidal Trainable Function Activation (STAF)について紹介する。
STAFは本質的に周波数成分を変調し、自己適応型スペクトル学習を可能にする。
論文 参考訳(メタデータ) (2025-02-02T18:29:33Z) - Multi-Source and Test-Time Domain Adaptation on Multivariate Signals using Spatio-Temporal Monge Alignment [59.75420353684495]
コンピュータビジョンやバイオメディカルデータなどの信号に対する機械学習の応用は、ハードウェアデバイスやセッション記録にまたがる変動のため、しばしば課題に直面している。
本研究では,これらの変動を緩和するために,時空間モンジュアライメント(STMA)を提案する。
我々はSTMAが、非常に異なる設定で取得したデータセット間で、顕著で一貫したパフォーマンス向上をもたらすことを示す。
論文 参考訳(メタデータ) (2024-07-19T13:33:38Z) - Stable Neighbor Denoising for Source-free Domain Adaptive Segmentation [91.83820250747935]
擬似ラベルノイズは主に不安定なサンプルに含まれており、ほとんどのピクセルの予測は自己学習中に大きく変化する。
我々は, 安定・不安定な試料を効果的に発見する, SND(Stable Neighbor Denoising)アプローチを導入する。
SNDは、様々なSFUDAセマンティックセグメンテーション設定における最先端メソッドよりも一貫して優れている。
論文 参考訳(メタデータ) (2024-06-10T21:44:52Z) - DINER: Disorder-Invariant Implicit Neural Representation [33.10256713209207]
入射神経表現(INR)は、信号の属性を対応する座標の関数として特徴づける。
本稿では、従来のINRバックボーンにハッシュテーブルを付加することにより、障害不変な暗黙的神経表現(DINER)を提案する。
論文 参考訳(メタデータ) (2022-11-15T03:34:24Z) - Towards Overcoming False Positives in Visual Relationship Detection [95.15011997876606]
視覚的関係検出(VRD)における偽陽性率の高い原因について検討する。
本稿では,偽陽性の影響を軽減する堅牢なVRDフレームワークとして,Spatially-Aware Balanced negative pRoposal sAmpling(SABRA)を提案する。
論文 参考訳(メタデータ) (2020-12-23T06:28:00Z) - Deep Networks for Direction-of-Arrival Estimation in Low SNR [89.45026632977456]
我々は,真の配列多様体行列の変異チャネルデータから学習した畳み込みニューラルネットワーク(CNN)を導入する。
我々は低SNR体制でCNNを訓練し、すべてのSNRでDoAを予測する。
私たちの堅牢なソリューションは、ワイヤレスアレイセンサーから音響マイクロフォンやソナーまで、いくつかの分野に適用できます。
論文 参考訳(メタデータ) (2020-11-17T12:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。