論文の概要: SEED: Sound Event Early Detection via Evidential Uncertainty
- arxiv url: http://arxiv.org/abs/2202.02441v1
- Date: Sat, 5 Feb 2022 00:10:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-08 18:48:58.228731
- Title: SEED: Sound Event Early Detection via Evidential Uncertainty
- Title(参考訳): SEED:証拠不確実性による音事象早期検出
- Authors: Xujiang Zhao, Xuchao Zhang, Wei Cheng, Wenchao Yu, Yuncong Chen,
Haifeng Chen, Feng Chen
- Abstract要約: 本稿では,ベータ分布を伴うクラス確率の明らかな不確かさをモデル化する新しいポリフォニック・エビデンシャルニューラルネットワーク(PENet)を提案する。
また,現在進行中のイベントの前方と後方の両方のオーディオ特徴を利用したトラック推定手法を設計する。
- 参考スコア(独自算出の注目度): 40.91991126541567
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sound Event Early Detection (SEED) is an essential task in recognizing the
acoustic environments and soundscapes. However, most of the existing methods
focus on the offline sound event detection, which suffers from the
over-confidence issue of early-stage event detection and usually yield
unreliable results. To solve the problem, we propose a novel Polyphonic
Evidential Neural Network (PENet) to model the evidential uncertainty of the
class probability with Beta distribution. Specifically, we use a Beta
distribution to model the distribution of class probabilities, and the
evidential uncertainty enriches uncertainty representation with evidence
information, which plays a central role in reliable prediction. To further
improve the event detection performance, we design the backtrack inference
method that utilizes both the forward and backward audio features of an ongoing
event. Experiments on the DESED database show that the proposed method can
simultaneously improve 13.0\% and 3.8\% in time delay and detection F1 score
compared to the state-of-the-art methods.
- Abstract(参考訳): 音響イベント早期検出(seed)は,音響環境と音環境を認識する上で重要な課題である。
しかし、既存の手法のほとんどは、初期イベント検出の過信問題に悩まされ、通常は信頼性の低い結果をもたらすオフライン音声イベント検出に焦点を当てている。
この問題を解決するために,ベータ分布を伴うクラス確率の明らかな不確かさをモデル化する新しいポリフォニック・エビデンシャルニューラルネットワーク(PENet)を提案する。
具体的には, クラス確率分布のモデル化にベータ分布を用い, 不確かさは, 信頼性の高い予測において中心的な役割を果たすエビデンス情報を含む不確実性表現を豊かにする。
イベント検出性能をさらに向上するため,現在進行中のイベントの前方および後方の音声特徴を利用したバックトラック推定手法の設計を行う。
desedデータベースを用いた実験により,提案手法は13.0\%と3.8\%の時間遅延と検出f1スコアを同時に改善できることがわかった。
関連論文リスト
- FAST: Boosting Uncertainty-based Test Prioritization Methods for Neural Networks via Feature Selection [29.20073572683383]
本稿では,FeAture SelecTionをガイドとして,既存の優先順位付け手法を高速化するFASTを提案する。
FASTは、特定の機能がモデルの出力信頼度に影響を与えるノイズをもたらす可能性があるという洞察に基づいている。
モデルの正しい予測に対する各特徴の重要性を定量化し、ノイズのある特徴から動的に情報を抽出する。
論文 参考訳(メタデータ) (2024-09-13T18:13:09Z) - SMURF-THP: Score Matching-based UnceRtainty quantiFication for
Transformer Hawkes Process [76.98721879039559]
SMURF-THPは,変圧器ホークス過程を学習し,予測の不確かさを定量化するスコアベース手法である。
具体的には、SMURF-THPは、スコアマッチング目標に基づいて、イベントの到着時刻のスコア関数を学習する。
我々は,イベントタイプ予測と到着時刻の不確実性定量化の両方において,広範な実験を行う。
論文 参考訳(メタデータ) (2023-10-25T03:33:45Z) - DiffSED: Sound Event Detection with Denoising Diffusion [70.18051526555512]
生成学習の観点からSED問題を再構築する。
具体的には,騒音拡散過程において,雑音のある提案から音の時間境界を生成することを目的としている。
トレーニング中は,ノイズの多い遅延クエリを基本バージョンに変換することで,ノイズ発生過程の逆転を学習する。
論文 参考訳(メタデータ) (2023-08-14T17:29:41Z) - Audio-visual Representation Learning for Anomaly Events Detection in
Crowds [119.72951028190586]
本稿では,音声と視覚信号の同時モデリングにおけるマルチモーダル学習の活用を試みる。
監視シーンにおける合成音声視覚データセットであるSHADEデータセットについて実験を行った。
音声信号の導入は,異常事象の検出性能を効果的に向上し,他の最先端手法よりも優れることがわかった。
論文 参考訳(メタデータ) (2021-10-28T02:42:48Z) - SoundDet: Polyphonic Sound Event Detection and Localization from Raw
Waveform [48.68714598985078]
SoundDetは、多音動音イベントの検出とローカライゼーションのためのエンドツーエンドのトレーニング可能で軽量なフレームワークである。
SoundDetは、生のマルチチャネル波形を直接消費し、検出すべき時間音イベントを完全な音オブジェクトとして扱う。
次に、時間的変化が大きいイベントを予測する上での課題に対処するため、高密度な音響提案イベントマップを構築する。
論文 参考訳(メタデータ) (2021-06-13T11:43:41Z) - Cross-Referencing Self-Training Network for Sound Event Detection in
Audio Mixtures [23.568610919253352]
本稿では,教師なしデータから擬似ラベルを生成するための半教師付き手法を提案する。
DESEDデータベースの「検証」と「公開評価」の双方に関するこれらの手法の結果は、半教師あり学習における最先端技術システムと比較して著しく改善された。
論文 参考訳(メタデータ) (2021-05-27T18:46:59Z) - Continual Learning for Fake Audio Detection [62.54860236190694]
本論文では,連続学習に基づく手法である忘れずに偽物を検出することで,モデルに新たなスプーフィング攻撃をインクリメンタルに学習させる手法を提案する。
ASVspoof 2019データセットで実験が行われる。
論文 参考訳(メタデータ) (2021-04-15T07:57:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。