論文の概要: RF-Next: Efficient Receptive Field Search for Convolutional Neural
Networks
- arxiv url: http://arxiv.org/abs/2206.06637v1
- Date: Tue, 14 Jun 2022 06:56:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-15 14:31:33.479817
- Title: RF-Next: Efficient Receptive Field Search for Convolutional Neural
Networks
- Title(参考訳): RF-Next:畳み込みニューラルネットワークの効率的な受容場探索
- Authors: Shanghua Gao, Zhong-Yu Li, Qi Han, Ming-Ming Cheng, Liang Wang
- Abstract要約: そこで本研究では,グローバル・ローカル・サーチ手法を用いて,より優れた受容場の組み合わせを求める。
我々の検索手法は, 粗い組み合わせを見つけるためにグローバル検索と, 洗練された受容場の組み合わせを得るために局所探索の両方を利用する。
我々のRF-Nextモデルは、様々なモデルに受容場探索を接続し、多くのタスクのパフォーマンスを高める。
- 参考スコア(独自算出の注目度): 86.6139619721343
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Temporal/spatial receptive fields of models play an important role in
sequential/spatial tasks. Large receptive fields facilitate long-term
relations, while small receptive fields help to capture the local details.
Existing methods construct models with hand-designed receptive fields in
layers. Can we effectively search for receptive field combinations to replace
hand-designed patterns? To answer this question, we propose to find better
receptive field combinations through a global-to-local search scheme. Our
search scheme exploits both global search to find the coarse combinations and
local search to get the refined receptive field combinations further. The
global search finds possible coarse combinations other than human-designed
patterns. On top of the global search, we propose an expectation-guided
iterative local search scheme to refine combinations effectively. Our RF-Next
models, plugging receptive field search to various models, boost the
performance on many tasks, e.g., temporal action segmentation, object
detection, instance segmentation, and speech synthesis. The source code is
publicly available on http://mmcheng.net/rfnext.
- Abstract(参考訳): モデルの時間的/空間的受容場は、シーケンシャル/空間的タスクにおいて重要な役割を果たす。
大きな受容野は長期的な関係を促進し、小さな受容野は局所的な詳細を捉えるのに役立つ。
既存の手法は、層に手書きの受容場を持つモデルを構築する。
手作りのパターンを置き換えるための受容的場の組み合わせを効果的に探せるか?
そこで本研究では,グローバル・ローカル検索手法を用いて,より優れた受容場の組み合わせを求める。
検索手法は, 粗い組み合わせと局所探索の両方をグローバル検索に利用し, より精巧な受容場の組み合わせを得る。
グローバル検索は、人間がデザインしたパターン以外の粗い組み合わせを見つける。
グローバル検索に加えて,コンビネーションを効果的に洗練するために,期待誘導型反復局所探索方式を提案する。
我々のRF-Nextモデルは、様々なモデルに受容場探索をプラグインし、時間的動作分割、オブジェクト検出、インスタンス分割、音声合成など、多くのタスクのパフォーマンスを向上させる。
ソースコードはhttp://mmcheng.net/rfnext.comで公開されている。
関連論文リスト
- Large Search Model: Redefining Search Stack in the Era of LLMs [63.503320030117145]
我々は,1つの大言語モデル(LLM)で検索タスクを統一することにより,従来の検索スタックを再定義する,大規模検索モデルと呼ばれる新しい概念的フレームワークを導入する。
全てのタスクは自動回帰テキスト生成問題として定式化され、自然言語のプロンプトを使ってタスクをカスタマイズできる。
提案フレームワークは,LLMの強力な言語理解と推論能力を活用し,既存の検索スタックを簡素化しつつ,検索結果の質を向上させる能力を提供する。
論文 参考訳(メタデータ) (2023-10-23T05:52:09Z) - OFA$^2$: A Multi-Objective Perspective for the Once-for-All Neural
Architecture Search [79.36688444492405]
once-for-All(OFA)は、異なるリソース制約を持つデバイスのための効率的なアーキテクチャを探索する問題に対処するために設計された、ニューラルネットワーク検索(NAS)フレームワークである。
我々は,探索段階を多目的最適化問題として明示的に考えることにより,効率の追求を一歩進めることを目指している。
論文 参考訳(メタデータ) (2023-03-23T21:30:29Z) - CrossBeam: Learning to Search in Bottom-Up Program Synthesis [51.37514793318815]
ボトムアップ合成のためのハンズオン検索ポリシーを学習するためのニューラルネットワークのトレーニングを提案する。
私たちのアプローチは、CrossBeamと呼ばれ、ニューラルモデルを使用して、以前に探索されたプログラムを新しいプログラムに組み合わせる方法を選択します。
我々はCrossBeamが効率的に検索することを学び、最先端技術と比較してプログラム空間のより小さな部分を探索する。
論文 参考訳(メタデータ) (2022-03-20T04:41:05Z) - Exploring Complicated Search Spaces with Interleaving-Free Sampling [127.07551427957362]
本稿では,長距離接続を伴う複雑な検索空間上に探索アルゴリズムを構築する。
我々はtextbfIF-NAS という単純なアルゴリズムを提案し、異なるサブネットワークを構築するために周期的なサンプリング戦略を実行する。
提案した探索空間において、IF-NASはランダムサンプリングと従来の重み付け検索のアルゴリズムを有意差で上回っている。
論文 参考訳(メタデータ) (2021-12-05T06:42:48Z) - Global2Local: Efficient Structure Search for Video Action Segmentation [64.99046987598075]
グローバルからローカルへの検索方式により,より良い受容的場の組み合わせを見つけることを提案する。
提案手法は, 粗い組み合わせを見つけるためにグローバル検索と局所探索を併用し, 洗練された受容場の組み合わせパターンを得る。
我々のグローバル-ローカル検索は、既存のアクションセグメンテーション手法にプラグインすることで、最先端のパフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2021-01-04T12:06:03Z) - DiffMG: Differentiable Meta Graph Search for Heterogeneous Graph Neural
Networks [45.075163625895286]
我々はメタグラフを探索し、メタパスよりも複雑なセマンティック関係をキャプチャし、グラフニューラルネットワークが異なるタイプのエッジに沿ってメッセージを伝播する方法を決定する。
我々は、HINの候補メタグラフを表すために、有向非巡回グラフ(DAG)の形式で表現型検索空間を設計する。
本稿では,1回のGNNトレーニングに匹敵する検索コストを1対1に抑えるための,新しい効率的な探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-07T08:09:29Z) - NASE: Learning Knowledge Graph Embedding for Link Prediction via Neural
Architecture Search [9.634626241415916]
リンク予測は、知識グラフ(KG)におけるエンティティ間の欠落した接続を予測するタスクである
これまでの研究では、Automated Machine Learning(AutoML)を使用して、データセットに最適なモデルを探していた。
リンク予測タスクのための新しいニューラルネットワーク探索(NAS)フレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-18T03:34:09Z) - Deep-n-Cheap: An Automated Search Framework for Low Complexity Deep
Learning [3.479254848034425]
私たちはディープラーニングモデルを探すためのオープンソースのAutoMLフレームワークであるDeep-n-Cheapを紹介します。
私たちのフレームワークは、ベンチマークとカスタムデータセットの両方へのデプロイをターゲットとしています。
Deep-n-Cheapには、トレーニング時間やパラメータ数とパフォーマンスをトレードオフする、ユーザ管理可能な複雑性ペナルティが含まれている。
論文 参考訳(メタデータ) (2020-03-27T13:00:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。