論文の概要: Learning From Yourself: A Self-Distillation Method for Fake Speech
Detection
- arxiv url: http://arxiv.org/abs/2303.01211v1
- Date: Thu, 2 Mar 2023 12:52:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-03 14:38:25.765057
- Title: Learning From Yourself: A Self-Distillation Method for Fake Speech
Detection
- Title(参考訳): 自己からの学習 : 偽音声検出のための自己蒸留法
- Authors: Jun Xue, Cunhang Fan, Jiangyan Yi, Chenglong Wang, Zhengqi Wen, Dan
Zhang, Zhao Lv
- Abstract要約: 偽音声検出(FSD)のための新しい自己蒸留法を提案する。
これにより、モデルの複雑さを増大させることなく、FSDの性能を大幅に向上させることができる。
ASVspoof 2019 LAとPAデータセットの一連の実験結果は、提案手法の有効性を示している。
- 参考スコア(独自算出の注目度): 36.089312554318205
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we propose a novel self-distillation method for fake speech
detection (FSD), which can significantly improve the performance of FSD without
increasing the model complexity. For FSD, some fine-grained information is very
important, such as spectrogram defects, mute segments, and so on, which are
often perceived by shallow networks. However, shallow networks have much noise,
which can not capture this very well. To address this problem, we propose using
the deepest network instruct shallow network for enhancing shallow networks.
Specifically, the networks of FSD are divided into several segments, the
deepest network being used as the teacher model, and all shallow networks
become multiple student models by adding classifiers. Meanwhile, the
distillation path between the deepest network feature and shallow network
features is used to reduce the feature difference. A series of experimental
results on the ASVspoof 2019 LA and PA datasets show the effectiveness of the
proposed method, with significant improvements compared to the baseline.
- Abstract(参考訳): 本稿では,モデル複雑性を増大させることなくFSDの性能を大幅に向上させることができる,偽音声検出のための新しい自己蒸留法を提案する。
fsdでは、スペクトログラム欠陥やミュートセグメントなど、浅いネットワークによってしばしば知覚される細かな情報が非常に重要である。
しかし、浅いネットワークには多くのノイズがあり、これはうまく捉えられない。
この問題に対処するため,浅層ネットワークを強化するために最深部ネットワーク命令浅層ネットワークを提案する。
具体的には、FSDのネットワークを複数のセグメントに分割し、教師モデルとして最も深いネットワークを使用し、すべての浅いネットワークは分類子を追加して複数の学生モデルとなる。
一方、最も深いネットワーク特徴と浅いネットワーク特徴との間の蒸留経路は、特徴差を減らすために用いられる。
asvspoof 2019 laとpaデータセットの一連の実験結果は、提案手法の有効性を示し、ベースラインと比較して大幅に改善されている。
関連論文リスト
- MDFI-Net: Multiscale Differential Feature Interaction Network for Accurate Retinal Vessel Segmentation [3.152646316470194]
本稿では,MDFI-Net という DPCN に基づく機能拡張型インタラクションネットワークを提案する。
提案したMDFI-Netは,公開データセットの最先端手法よりもセグメンテーション性能が優れている。
論文 参考訳(メタデータ) (2024-10-20T16:42:22Z) - SAR Despeckling Using Overcomplete Convolutional Networks [53.99620005035804]
スペックルはSAR画像を劣化させるため、リモートセンシングにおいて重要な問題である。
近年の研究では、畳み込みニューラルネットワーク(CNN)が古典的解法よりも優れていることが示されている。
本研究は、受容場を制限することで低レベルの特徴を学習することに集中するために、過剰なCNNアーキテクチャを用いる。
本稿では,合成および実SAR画像の非特定化手法と比較して,提案手法により非特定化性能が向上することを示す。
論文 参考訳(メタデータ) (2022-05-31T15:55:37Z) - Manifold Regularized Dynamic Network Pruning [102.24146031250034]
本稿では,全インスタンスの多様体情報をプルーンドネットワークの空間に埋め込むことにより,冗長フィルタを動的に除去する新しいパラダイムを提案する。
提案手法の有効性をいくつかのベンチマークで検証し,精度と計算コストの両面で優れた性能を示す。
論文 参考訳(メタデータ) (2021-03-10T03:59:03Z) - Decoupled and Memory-Reinforced Networks: Towards Effective Feature
Learning for One-Step Person Search [65.51181219410763]
歩行者検出と識別サブタスクを1つのネットワークで処理するワンステップ方式を開発しました。
現在のワンステップアプローチには2つの大きな課題があります。
本稿では,これらの問題を解決するために,分離メモリ強化ネットワーク(DMRNet)を提案する。
論文 参考訳(メタデータ) (2021-02-22T06:19:45Z) - HALO: Learning to Prune Neural Networks with Shrinkage [5.283963846188862]
ディープニューラルネットワークは、構造化されていないデータから豊富な特徴セットを抽出することにより、さまざまなタスクで最先端のパフォーマンスを実現する。
提案手法は,(1)ネットワークプルーニング,(2)スパシティ誘導ペナルティによるトレーニング,(3)ネットワークの重みと連動してバイナリマスクをトレーニングすることである。
トレーニング可能なパラメータを用いて、与えられたネットワークの重みを適応的に分散化することを学ぶ階層適応ラッソ(Hierarchical Adaptive Lasso)という新しいペナルティを提案する。
論文 参考訳(メタデータ) (2020-08-24T04:08:48Z) - ESPN: Extremely Sparse Pruned Networks [50.436905934791035]
簡単な反復マスク探索法により,非常に深いネットワークの最先端の圧縮を実現することができることを示す。
本アルゴリズムは,シングルショット・ネットワーク・プルーニング法とロッテ・ティケット方式のハイブリッド・アプローチを示す。
論文 参考訳(メタデータ) (2020-06-28T23:09:27Z) - ReMarNet: Conjoint Relation and Margin Learning for Small-Sample Image
Classification [49.87503122462432]
ReMarNet(Relation-and-Margin Learning Network)と呼ばれるニューラルネットワークを導入する。
本手法は,上記2つの分類機構の双方において優れた性能を発揮する特徴を学習するために,異なるバックボーンの2つのネットワークを組み立てる。
4つの画像データセットを用いた実験により,本手法はラベル付きサンプルの小さな集合から識別的特徴を学習するのに有効であることが示された。
論文 参考訳(メタデータ) (2020-06-27T13:50:20Z) - Boosting Connectivity in Retinal Vessel Segmentation via a Recursive
Semantics-Guided Network [23.936946593048987]
U字型ネットワークはセマンティクス誘導モジュールを導入して拡張され、拡張されたセマンティクス情報を浅い層に統合し、ネットワークがより強力な機能を探索できるようにする。
慎重に設計されたセマンティクス誘導ネットワークは、いくつかの公開データセットで広く評価されている。
論文 参考訳(メタデータ) (2020-04-24T09:18:04Z) - Finding the Optimal Network Depth in Classification Tasks [10.248235276871258]
複数の分類器ヘッドを用いた軽量ニューラルネットワークの高速エンドツーエンド学習法を開発した。
モデルが各ヘッドの重要性を決定することによって、ネットワークの不要なコンポーネントを検出し、取り除くことができる。
論文 参考訳(メタデータ) (2020-04-17T11:08:45Z) - Resolution Adaptive Networks for Efficient Inference [53.04907454606711]
本稿では,低分解能表現が「容易」な入力を分類するのに十分である,という直感に触発された新しいレゾリューション適応ネットワーク(RANet)を提案する。
RANetでは、入力画像はまず、低解像度表現を効率的に抽出する軽量サブネットワークにルーティングされる。
ネットワーク内の高解像度パスは、"ハード"サンプルを認識する能力を維持している。
論文 参考訳(メタデータ) (2020-03-16T16:54:36Z) - Deep Multi-Facial Patches Aggregation Network For Facial Expression
Recognition [5.735035463793008]
深層多面的パッチアグリゲーションネットワークに基づく顔表情認識(FER)のアプローチを提案する。
ディープ機能は、ディープサブネットワークを使用して顔のパッチから学習され、表現分類のために1つのディープアーキテクチャに集約される。
論文 参考訳(メタデータ) (2020-02-20T17:57:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。