論文の概要: TNANet: A Temporal-Noise-Aware Neural Network for Suicidal Ideation
Prediction with Noisy Physiological Data
- arxiv url: http://arxiv.org/abs/2401.12733v1
- Date: Tue, 23 Jan 2024 13:11:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-24 15:44:43.671637
- Title: TNANet: A Temporal-Noise-Aware Neural Network for Suicidal Ideation
Prediction with Noisy Physiological Data
- Title(参考訳): tnanet: 騒音生理データを用いた自殺イデオレーション予測のための時間雑音対応ニューラルネットワーク
- Authors: Niqi Liu, Fang Liu, Wenqi Ji, Xinxin Du, Xu Liu, Guozhen Zhao, Wenting
Mu, Yong-Jin Liu
- Abstract要約: 本稿では, ノイズのある生理的時系列データを解析するためのニューラルネットワークモデルTNANetを提案する。
我々のTNANetは2進分類タスクにおいて63.33%の予測精度を達成し、最先端モデルより優れている。
- 参考スコア(独自算出の注目度): 21.1401772311666
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The robust generalization of deep learning models in the presence of inherent
noise remains a significant challenge, especially when labels are subjective
and noise is indiscernible in natural settings. This problem is particularly
pronounced in many practical applications. In this paper, we address a special
and important scenario of monitoring suicidal ideation, where time-series data,
such as photoplethysmography (PPG), is susceptible to such noise. Current
methods predominantly focus on image and text data or address artificially
introduced noise, neglecting the complexities of natural noise in time-series
analysis. To tackle this, we introduce a novel neural network model tailored
for analyzing noisy physiological time-series data, named TNANet, which merges
advanced encoding techniques with confidence learning, enhancing prediction
accuracy. Another contribution of our work is the collection of a specialized
dataset of PPG signals derived from real-world environments for suicidal
ideation prediction. Employing this dataset, our TNANet achieves the prediction
accuracy of 63.33% in a binary classification task, outperforming
state-of-the-art models. Furthermore, comprehensive evaluations were conducted
on three other well-known public datasets with artificially introduced noise to
rigorously test the TNANet's capabilities. These tests consistently
demonstrated TNANet's superior performance by achieving an accuracy improvement
of more than 10% compared to baseline methods.
- Abstract(参考訳): 固有ノイズの存在下でのディープラーニングモデルの堅牢な一般化は、特にラベルが主観的であり、自然環境においてノイズが認識できない場合において、重要な課題である。
この問題は、多くの応用において特に顕著である。
本稿では,photoplethysmography (ppg) などの時系列データがこのような騒音に影響を受けやすいような,自殺防止イデオロギーを監視する特別かつ重要なシナリオについて述べる。
現在の手法では、画像やテキストのデータやアドレスがノイズを人工的に導入し、時系列分析における自然雑音の複雑さを無視する。
そこで本研究では,信頼性学習と高度な符号化技術を融合し,予測精度を向上する,ノイズの多い生理的時系列データを解析するためのニューラルネットワークモデルTNANetを提案する。
もう1つの研究の貢献は、自殺イデオレーション予測のための実環境から派生したppg信号の特殊なデータセットの収集です。
このデータセットを用いて、我々のTNANetは、バイナリ分類タスクにおいて63.33%の予測精度を達成し、最先端のモデルより優れている。
さらに、TNANetの能力を厳格にテストするために、人工的なノイズを導入した他の3つの有名な公開データセットに対して包括的な評価が行われた。
これらの試験は、ベースライン法と比較して10%以上の精度向上を達成し、TNANetの優れた性能を一貫して証明した。
関連論文リスト
- Learning with Noisy Foundation Models [95.50968225050012]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Understanding and Mitigating the Label Noise in Pre-training on
Downstream Tasks [91.15120211190519]
本稿では、事前学習データセットにおけるノイズの性質を理解し、下流タスクへの影響を軽減することを目的とする。
雑音の悪影響を軽減するために特徴空間に適応する軽量ブラックボックスチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2023-09-29T06:18:15Z) - DiffSTG: Probabilistic Spatio-Temporal Graph Forecasting with Denoising
Diffusion Models [53.67562579184457]
本稿では,不確実性や複雑な依存関係のモデル化が困難であることから,確率的STG予測に焦点をあてる。
本稿では,一般的な拡散モデルをSTGに一般化する最初の試みとして,DiffSTGと呼ばれる新しい非自己回帰フレームワークを提案する。
提案手法は,本質的時間学習能力STNNと拡散モデルの不確実性測定を組み合わせたものである。
論文 参考訳(メタデータ) (2023-01-31T13:42:36Z) - Transfer learning for self-supervised, blind-spot seismic denoising [0.0]
本研究では、関心のフィールドデータセットに自己教師付きで微調整を行う前に、フリグリ生成された合成データセット上でネットワークを初期的に教師付きで訓練することを提案する。
ピーク信号-雑音比の変化やノイズの低減,信号漏れの観測などを考慮すると,教師付きベーストレーニングによる重み付けによる自己教師ネットワークの初期化のメリットは明らかである。
論文 参考訳(メタデータ) (2022-09-25T12:58:10Z) - Pre-training via Denoising for Molecular Property Prediction [53.409242538744444]
本稿では,3次元分子構造の大規模データセットを平衡に利用した事前学習手法について述べる。
近年のノイズレギュラー化の進展に触発されて, 事前学習の目的は, 雑音の除去に基づくものである。
論文 参考訳(メタデータ) (2022-05-31T22:28:34Z) - Deep Active Learning with Noise Stability [24.54974925491753]
ラベルのないデータの不確実性推定は、アクティブな学習に不可欠である。
本稿では,雑音の安定性を利用して不確実性を推定する新しいアルゴリズムを提案する。
本手法はコンピュータビジョン,自然言語処理,構造データ解析など,様々なタスクに適用可能である。
論文 参考訳(メタデータ) (2022-05-26T13:21:01Z) - The Optimal Noise in Noise-Contrastive Learning Is Not What You Think [80.07065346699005]
この仮定から逸脱すると、実際により良い統計的推定結果が得られることが示される。
特に、最適な雑音分布は、データと異なり、また、別の家族からさえも異なる。
論文 参考訳(メタデータ) (2022-03-02T13:59:20Z) - The potential of self-supervised networks for random noise suppression
in seismic data [0.0]
ブラインド・スポット・ネットワークは地震データにおけるランダムノイズの効率的な抑制効果を示す。
結果は、FXデコンボリューションとCurvelet変換という2つの一般的なランダムな復調手法と比較される。
これは、地震の応用における自己教師あり学習の活用の始まりにすぎないと我々は信じている。
論文 参考訳(メタデータ) (2021-09-15T14:57:43Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。