論文の概要: HyperPotter: Spell the Charm of High-Order Interactions in Audio Deepfake Detection
- arxiv url: http://arxiv.org/abs/2602.05670v1
- Date: Thu, 05 Feb 2026 13:53:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.959976
- Title: HyperPotter: Spell the Charm of High-Order Interactions in Audio Deepfake Detection
- Title(参考訳): HyperPotter: オーディオディープフェイク検出における高次インタラクションの推進
- Authors: Qing Wen, Haohao Li, Zhongjie Ba, Peng Cheng, Miao He, Li Lu, Kui Ren,
- Abstract要約: HyperPotterはハイパーグラフベースのフレームワークで、クラスタリングベースのハイパーエッジを通じてこれらのシナジスティックHOIを明示的にモデル化する。
4つの挑戦的なクロスドメインデータセットに対して、最先端のメソッドを13.96%上回っている。
- 参考スコア(独自算出の注目度): 29.751449015937382
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Advances in AIGC technologies have enabled the synthesis of highly realistic audio deepfakes capable of deceiving human auditory perception. Although numerous audio deepfake detection (ADD) methods have been developed, most rely on local temporal/spectral features or pairwise relations, overlooking high-order interactions (HOIs). HOIs capture discriminative patterns that emerge from multiple feature components beyond their individual contributions. We propose HyperPotter, a hypergraph-based framework that explicitly models these synergistic HOIs through clustering-based hyperedges with class-aware prototype initialization. Extensive experiments demonstrate that HyperPotter surpasses its baseline by an average relative gain of 22.15% across 11 datasets and outperforms state-of-the-art methods by 13.96% on 4 challenging cross-domain datasets, demonstrating superior generalization to diverse attacks and speakers.
- Abstract(参考訳): AIGC技術の進歩により、人間の聴覚知覚を損なうことができる、非常にリアルなオーディオディープフェイクの合成が可能になった。
多くのオーディオディープフェイク検出(ADD)法が開発されているが、ほとんどの場合、高次相互作用(HOI)を見渡すために、局所的時間/スペクトル的特徴や対関係に依存している。
HOIは、個々のコントリビューションを超えて、複数の特徴コンポーネントから現れる差別的なパターンをキャプチャします。
我々はハイパーグラフベースのフレームワークHyperPotterを提案する。これは、クラス認識プロトタイプの初期化を伴うクラスタリングベースのハイパーエッジを通して、これらのシナジスティックHOIを明示的にモデル化する。
大規模な実験によると、HyperPotterは11のデータセットの平均相対的な増加率22.15%を超え、4つの挑戦的なクロスドメインデータセットに対して13.96%の最先端メソッドを上回り、多様な攻撃や話者に対して優れた一般化を示している。
関連論文リスト
- AUDETER: A Large-scale Dataset for Deepfake Audio Detection in Open Worlds [38.75029700407531]
AUDETERは大規模で高度に多様なディープフェイクオーディオデータセットである。
これは、最新のTSモデル11と、幅広いTS/vocoderパターンを持つ10のvocoderによって生成される4,500時間以上の合成オーディオで構成されている。
大規模なディープフェイクオーディオデータセットとしては最大である。
論文 参考訳(メタデータ) (2025-09-04T16:03:44Z) - Hybrid Audio Detection Using Fine-Tuned Audio Spectrogram Transformers: A Dataset-Driven Evaluation of Mixed AI-Human Speech [3.195044561824979]
我々は、人間、AI生成、クローン化、混合オーディオサンプルを組み込んだ、新しいハイブリッドオーディオデータセットを構築した。
本手法は, 混合音響検出において既存のベースラインを著しく上回り, 97%の分類精度を達成している。
本研究は,音声認識システムの堅牢性向上におけるハイブリッドデータセットと調整モデルの重要性を強調した。
論文 参考訳(メタデータ) (2025-05-21T05:43:41Z) - Where are we in audio deepfake detection? A systematic analysis over generative and detection models [59.09338266364506]
SONARはAI-Audio Detection FrameworkとBenchmarkの合成である。
最先端のAI合成聴覚コンテンツを識別するための総合的な評価を提供する。
従来のモデルベース検出システムと基礎モデルベース検出システムの両方で、AIオーディオ検出を均一にベンチマークする最初のフレームワークである。
論文 参考訳(メタデータ) (2024-10-06T01:03:42Z) - Benchmarking Cross-Domain Audio-Visual Deception Detection [45.342156006617394]
本稿では,最初のクロスドメイン音声・視覚的誤認検出ベンチマークを提案する。
シングル・ツー・シングルとマルチ・ツー・シングル・ドメインの一般化性能を比較した。
一般化性能を向上させるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-11T12:06:31Z) - Retrieval-Augmented Audio Deepfake Detection [27.13059118273849]
そこで本研究では,類似のサンプルを用いて検体を増強する検索拡張検出フレームワークを提案する。
提案したRADフレームワークのベースライン法よりも優れた性能を示す実験を行った。
論文 参考訳(メタデータ) (2024-04-22T05:46:40Z) - Generalizing Face Forgery Detection with High-frequency Features [63.33397573649408]
現在のCNNベースの検出器は、メソッド固有の色テクスチャに過度に適合するため、一般化に失敗する傾向にある。
フェースフォージェリ検出に高周波雑音を用いることを提案する。
1つは、複数のスケールで高周波ノイズを抽出するマルチスケールの高周波特徴抽出モジュールである。
2つ目は、低レベルRGB特徴抽出器を導く残差誘導空間注意モジュールで、新しい視点からフォージェリートレースにもっと集中する。
論文 参考訳(メタデータ) (2021-03-23T08:19:21Z) - DIRV: Dense Interaction Region Voting for End-to-End Human-Object
Interaction Detection [53.40028068801092]
本稿では,HOI問題に対するインタラクション領域という新しい概念に基づいて,新しい一段階HOI検出手法を提案する。
従来の手法とは異なり,本手法は人-物対ごとに異なるスケールにわたる密集した相互作用領域に焦点をあてる。
単一相互作用領域の検出欠陥を補うために,我々は新しい投票戦略を導入する。
論文 参考訳(メタデータ) (2020-10-02T13:57:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。