論文の概要: NAS-VAD: Neural Architecture Search for Voice Activity Detection
- arxiv url: http://arxiv.org/abs/2201.09032v1
- Date: Sat, 22 Jan 2022 12:06:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-25 17:49:09.695685
- Title: NAS-VAD: Neural Architecture Search for Voice Activity Detection
- Title(参考訳): NAS-VAD:音声活動検出のためのニューラルネットワーク探索
- Authors: Daniel Rho, Jinhyeok Park, and Jong Hwan Ko
- Abstract要約: 音声活動検出タスクに最適化されたNASフレームワークを提案する。
提案するNAS-VADフレームワークは, より少ないセルにコンパクトなマクロ構造を組み込んで, 既存の検索空間をアテンション機構で拡張する。
実験の結果,NAS-VADによって発見されたモデルは,様々な合成および実世界のデータセットにおいて,既存の手動設計のVADモデルよりも優れていた。
- 参考スコア(独自算出の注目度): 2.4002488900607974
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The need for automatic design of deep neural networks has led to the
emergence of neural architecture search (NAS), which has generated models
outperforming manually-designed models. However, most existing NAS frameworks
are designed for image processing tasks, and lack structures and operations
effective for voice activity detection (VAD) tasks. To discover improved VAD
models through automatic design, we present the first work that proposes a NAS
framework optimized for the VAD task. The proposed NAS-VAD framework expands
the existing search space with the attention mechanism while incorporating the
compact macro-architecture with fewer cells. The experimental results show that
the models discovered by NAS-VAD outperform the existing manually-designed VAD
models in various synthetic and real-world datasets. Our code and models are
available at https://github.com/daniel03c1/NAS_VAD.
- Abstract(参考訳): ディープニューラルネットワークの自動設計の必要性は、手動設計モデルよりも優れたモデルを生成するニューラルネットワークサーチ(NAS)の出現につながった。
しかし、既存のNASフレームワークのほとんどは画像処理タスク用に設計されており、音声活動検出(VAD)タスクに有効な構造や操作が欠けている。
自動設計により改良されたVADモデルを発見するために,VADタスクに最適化されたNASフレームワークを提案する。
提案するNAS-VADフレームワークは, より少ないセルにコンパクトなマクロ構造を組み込んで, 既存の検索空間をアテンション機構で拡張する。
実験の結果,NAS-VADによって発見されたモデルは,様々な合成および実世界のデータセットにおいて,既存の手動設計のVADモデルよりも優れていた。
私たちのコードとモデルはhttps://github.com/daniel03c1/nas_vadで利用可能です。
関連論文リスト
- DNA Family: Boosting Weight-Sharing NAS with Block-Wise Supervisions [121.05720140641189]
蒸留型ニューラルアーキテクチャ(DNA)技術を用いたモデル群を開発した。
提案するDNAモデルでは,アルゴリズムを用いてサブサーチ空間にのみアクセス可能な従来の手法とは対照的に,すべてのアーキテクチャ候補を評価できる。
当社のモデルでは,モバイルコンボリューションネットワークと小型ビジョントランスフォーマーにおいて,ImageNet上で78.9%,83.6%の最先端トップ1精度を実現している。
論文 参考訳(メタデータ) (2024-03-02T22:16:47Z) - FL-NAS: Towards Fairness of NAS for Resource Constrained Devices via
Large Language Models [24.990028167518226]
本稿では,3つの重要な設計指標を同時に検討することにより,この方向をさらに探究する。
本稿では,新しいLCMベースのNASフレームワークFL-NASを提案する。
FL-NASが実際に高い性能のDNNを見出すことができ、ほぼすべての設計上の考慮事項において、最先端のDNNモデルよりも精度が高いことを示す。
論文 参考訳(メタデータ) (2024-02-09T00:49:03Z) - DONNAv2 -- Lightweight Neural Architecture Search for Vision tasks [6.628409795264665]
計算効率の良いニューラルアーキテクチャ蒸留 - DONNAv2 のための次世代ニューラルアーキテクチャ設計について述べる。
DONNAv2は、より大きなデータセットに対して、DONNAの計算コストを10倍削減する。
NASサーチスペースの品質を向上させるため、DONNAv2はブロック知識蒸留フィルタを利用して推論コストの高いブロックを除去する。
論文 参考訳(メタデータ) (2023-09-26T04:48:50Z) - DiffusionNAG: Predictor-guided Neural Architecture Generation with Diffusion Models [56.584561770857306]
本研究では拡散モデルに基づく新しい条件付きニューラルネットワーク生成(NAG)フレームワークDiffusionNAGを提案する。
具体的には、ニューラルネットワークを有向グラフとみなし、それらを生成するためのグラフ拡散モデルを提案する。
本研究では,2つの予測型NAS(Transferable NAS)とベイズ最適化(BO)に基づくNAS(Bayesian Optimization)の2つのシナリオにおいて,DiffusionNAGの有効性を検証する。
BOベースのアルゴリズムに統合されると、DiffusionNAGは既存のBOベースのNASアプローチ、特にImageNet 1Kデータセット上の大規模なMobileNetV3検索スペースよりも優れている。
論文 参考訳(メタデータ) (2023-05-26T13:58:18Z) - Lightweight Neural Architecture Search for Temporal Convolutional
Networks at the Edge [21.72253397805102]
この研究は特に、時系列処理のための畳み込みモデルであるTCN(Temporal Convolutional Networks)に焦点を当てている。
我々は,TNの最も特異なアーキテクチャパラメータの最適化を明示的に目標とする最初のNASツールを提案する。
提案したNASは,音声および生体信号を含む4つの実世界のエッジ関連タスクでテストする。
論文 参考訳(メタデータ) (2023-01-24T19:47:40Z) - LidarNAS: Unifying and Searching Neural Architectures for 3D Point
Clouds [45.90990954551895]
本稿では,3次元点雲内の物体を理解するニューラルモデルを構築するための統一的なフレームワークを提案する。
このフレームワークが,具体的なニューラルアーキテクチャ探索(NAS)空間に容易に実現可能であることを示す。
また、NASが車と歩行者の両方で同じマクロレベルのアーキテクチャの概念を発見する傾向があるという興味深い発見を報告した。
論文 参考訳(メタデータ) (2022-10-10T21:21:41Z) - Searching Efficient Model-guided Deep Network for Image Denoising [61.65776576769698]
モデルガイド設計とNAS(MoD-NAS)をつなぐ新しいアプローチを提案する。
MoD-NASは、再利用可能な幅探索戦略と密結合された探索ブロックを用いて、各層の操作を自動的に選択する。
いくつかの一般的なデータセットに対する実験結果から、我々のMoD-NASは現在の最先端手法よりもPSNR性能が向上していることが示された。
論文 参考訳(メタデータ) (2021-04-06T14:03:01Z) - Neural Architecture Search of SPD Manifold Networks [79.45110063435617]
本研究では,Symmetric Positive Definite (SPD) 多様体ネットワークのニューラルアーキテクチャ探索(NAS)問題を提案する。
まず、効率的なSPDセル設計のために、幾何学的にリッチで多様なSPDニューラルアーキテクチャ探索空間を導入する。
我々は、SPDニューラルアーキテクチャ探索のための緩和された連続探索空間上で微分可能なNASアルゴリズムを利用する。
論文 参考訳(メタデータ) (2020-10-27T18:08:57Z) - Binarized Neural Architecture Search for Efficient Object Recognition [120.23378346337311]
バイナリ化されたニューラルネットワークサーチ(BNAS)は、エッジコンピューティング用の組み込みデバイスにおいて、膨大な計算コストを削減するために、極めて圧縮されたモデルを生成する。
9,6.53%対9,7.22%の精度はCIFAR-10データセットで達成されるが、かなり圧縮されたモデルで、最先端のPC-DARTSよりも40%速い検索が可能である。
論文 参考訳(メタデータ) (2020-09-08T15:51:23Z) - Progressive Automatic Design of Search Space for One-Shot Neural
Architecture Search [15.017964136568061]
単発モデルの精度が高いモデルでは,スタンドアローンの訓練では必ずしも優れた性能が得られない。
PAD-NASという検索空間のプログレッシブ自動設計を提案する。
このようにして、PAD-NASは各レイヤの操作を自動的に設計し、検索空間の品質とモデルの多様性のトレードオフを達成できる。
論文 参考訳(メタデータ) (2020-05-15T14:21:07Z) - DDPNAS: Efficient Neural Architecture Search via Dynamic Distribution
Pruning [135.27931587381596]
DDPNASと呼ばれる効率よく統一されたNASフレームワークを提案する。
検索空間は動的に切断され,その分布はいくつかのエポック毎に更新される。
提案した効率的なネットワーク生成手法により,与えられた制約に対する最適なニューラルネットワークアーキテクチャを直接取得する。
論文 参考訳(メタデータ) (2019-05-28T06:35:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。