論文の概要: Partially-Connected Differentiable Architecture Search for Deepfake and
Spoofing Detection
- arxiv url: http://arxiv.org/abs/2104.03123v1
- Date: Wed, 7 Apr 2021 13:53:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-08 16:51:25.494983
- Title: Partially-Connected Differentiable Architecture Search for Deepfake and
Spoofing Detection
- Title(参考訳): 部分連結微分可能アーキテクチャ探索によるディープフェイクとスプーフィング検出
- Authors: Wanying Ge, Michele Panariello, Jose Patino, Massimiliano Todisco and
Nicholas Evans
- Abstract要約: 本稿では,darts( differentiable architecture search)アプローチをdeepfakeおよびspoofing検出問題に適用した最初の事例について報告する。
DARTSは連続的かつ微分可能な検索空間で動作し、アーキテクチャとパラメータの両方を勾配降下により最適化することができる。
- 参考スコア(独自算出の注目度): 14.792884010821762
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper reports the first successful application of a differentiable
architecture search (DARTS) approach to the deepfake and spoofing detection
problems. An example of neural architecture search, DARTS operates upon a
continuous, differentiable search space which enables both the architecture and
parameters to be optimised via gradient descent. Solutions based on
partially-connected DARTS use random channel masking in the search space to
reduce GPU time and automatically learn and optimise complex neural
architectures composed of convolutional operations and residual blocks. Despite
being learned quickly with little human effort, the resulting networks are
competitive with the best performing systems reported in the literature. Some
are also far less complex, containing 85% fewer parameters than a Res2Net
competitor.
- Abstract(参考訳): 本稿では,darts( differentiable architecture search)アプローチをdeepfakeおよびspoofing検出問題に適用した最初の事例について報告する。
ニューラルネットワーク探索の例として、DARTSは連続的な微分可能な探索空間で動作し、アーキテクチャとパラメータの両方を勾配降下によって最適化することができる。
部分接続DARTSに基づく解は、検索空間におけるランダムチャネルマスキングを使用してGPU時間を短縮し、畳み込み操作と残余ブロックからなる複雑なニューラルネットワークアーキテクチャを自動的に学習し最適化する。
人間の努力は少ないが、結果として得られるネットワークは、文献で報告されている最高のパフォーマンスシステムと競合する。
また、Res2Netの競合相手よりも85%少ないパラメータを含む、はるかに少ないものもある。
関連論文リスト
- DASS: Differentiable Architecture Search for Sparse neural networks [0.5735035463793009]
識別可能なアーキテクチャ探索手法により高密度ネットワーク用に設計されたアーキテクチャは,プルーニング機構を適用した場合,有効ではないことがわかった。
本稿では,スパシティフレンドリなニューラルアーキテクチャを探索する新しい手法を提案する。
検索空間に2つの新しいスパース操作を追加し、探索目的を変更することでこれを行う。
論文 参考訳(メタデータ) (2022-07-14T14:53:50Z) - D-DARTS: Distributed Differentiable Architecture Search [75.12821786565318]
微分可能なArchiTecture Search(DARTS)は、最も流行しているニューラルネットワークサーチ(NAS)の1つである。
セルレベルで複数のニューラルネットワークをネストすることでこの問題に対処する新しいソリューションD-DARTSを提案する。
論文 参考訳(メタデータ) (2021-08-20T09:07:01Z) - iDARTS: Differentiable Architecture Search with Stochastic Implicit
Gradients [75.41173109807735]
微分可能なArchiTecture Search(DARTS)は先日,ニューラルアーキテクチャサーチ(NAS)の主流になった。
暗黙の関数定理に基づいてDARTSの過次計算に取り組む。
提案手法であるiDARTSのアーキテクチャ最適化は,定常点に収束することが期待される。
論文 参考訳(メタデータ) (2021-06-21T00:44:11Z) - Combined Depth Space based Architecture Search For Person
Re-identification [70.86236888223569]
個人再識別(ReID)のための軽量で適切なネットワークの設計を目指しています。
本研究では,CDNetと呼ばれる効率的なネットワークアーキテクチャの探索に基づく,複合深さ空間(Componed Depth Space, CDS)と呼ばれる新しい検索空間を提案する。
そこで我々はTop-k Sample Search戦略という低コストの検索戦略を提案し、検索空間をフル活用し、局所的な最適結果のトラップを避ける。
論文 参考訳(メタデータ) (2021-04-09T02:40:01Z) - Towards Improving the Consistency, Efficiency, and Flexibility of
Differentiable Neural Architecture Search [84.4140192638394]
最も微分可能なニューラルアーキテクチャ探索法は、探索用のスーパーネットを構築し、そのサブグラフとしてターゲットネットを導出する。
本稿では,エンジンセルとトランジットセルからなるEnTranNASを紹介する。
また,検索処理の高速化を図るため,メモリや計算コストの削減も図っている。
論文 参考訳(メタデータ) (2021-01-27T12:16:47Z) - ISTA-NAS: Efficient and Consistent Neural Architecture Search by Sparse
Coding [86.40042104698792]
スパース符号問題としてニューラルアーキテクチャ探索を定式化する。
実験では、CIFAR-10の2段階法では、検索にわずか0.05GPUしか必要としない。
本手法は,CIFAR-10とImageNetの両方において,評価時間のみのコストで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-10-13T04:34:24Z) - Disentangled Neural Architecture Search [7.228790381070109]
本稿では,制御器の隠蔽表現を意味論的に意味のある概念に解き放つ,アンタングル型ニューラルネットワーク探索(DNAS)を提案する。
DNASは、オペレーションの選択、接続のスキップ、レイヤ数など、アーキテクチャ表現のアンタングルに成功している。
センスサンプリングは、より高い効率とより良いパフォーマンスでニューラルネットワーク検索につながる。
論文 参考訳(メタデータ) (2020-09-24T03:35:41Z) - VINNAS: Variational Inference-based Neural Network Architecture Search [2.685668802278155]
スパース畳み込みニューラルネットワークを探索するための可変変分推論に基づくNAS法を提案する。
提案手法は,非ゼロパラメータの約2倍の精度で最先端の精度を示しながら,多様なネットワークセルを探索する。
論文 参考訳(メタデータ) (2020-07-12T21:47:35Z) - AlphaGAN: Fully Differentiable Architecture Search for Generative
Adversarial Networks [15.740179244963116]
GAN (Generative Adversarial Networks) はミニマックスゲーム問題として定式化され、ジェネレータは差別者に対する対戦学習によって実際のデータ分布にアプローチしようとする。
本研究は,ネットワークアーキテクチャの観点からのモデル学習を促進することを目的として,GANに自動アーキテクチャ探索の最近の進歩を取り入れた。
我々は,αGANと呼ばれる,生成的敵ネットワークのための,完全に差別化可能な検索フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-16T13:27:30Z) - RC-DARTS: Resource Constrained Differentiable Architecture Search [162.7199952019152]
資源制約付き微分可能なアーキテクチャ探索法(RC-DARTS)を提案する。
RC-DARTS法は,モデルサイズが小さく,計算量も少ない,軽量なニューラルアーキテクチャを学習する。
論文 参考訳(メタデータ) (2019-12-30T05:02:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。