論文の概要: NAS-Navigator: Visual Steering for Explainable One-Shot Deep Neural
Network Synthesis
- arxiv url: http://arxiv.org/abs/2009.13008v3
- Date: Sat, 6 Aug 2022 02:22:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 20:37:50.689202
- Title: NAS-Navigator: Visual Steering for Explainable One-Shot Deep Neural
Network Synthesis
- Title(参考訳): NAS-Navigator: 説明可能なワンショットディープニューラルネットワーク合成のためのビジュアルステアリング
- Authors: Anjul Tyagi, Cong Xie, Klaus Mueller
- Abstract要約: 本稿では,分析者がドメイン知識を注入することで,解のサブグラフ空間を効果的に構築し,ネットワーク探索をガイドするフレームワークを提案する。
このテクニックを反復的に適用することで、アナリストは、与えられたアプリケーションに対して最高のパフォーマンスのニューラルネットワークアーキテクチャに収束することができる。
- 参考スコア(独自算出の注目度): 53.106414896248246
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in the area of deep learning have shown the effectiveness
of very large neural networks in several applications. However, as these deep
neural networks continue to grow in size, it becomes more and more difficult to
configure their many parameters to obtain good results. Presently, analysts
must experiment with many different configurations and parameter settings,
which is labor-intensive and time-consuming. On the other hand, the capacity of
fully automated techniques for neural network architecture search is limited
without the domain knowledge of human experts. To deal with the problem, we
formulate the task of neural network architecture optimization as a graph space
exploration, based on the one-shot architecture search technique. In this
approach, a super-graph of all candidate architectures is trained in one-shot
and the optimal neural network is identified as a sub-graph. In this paper, we
present a framework that allows analysts to effectively build the solution
sub-graph space and guide the network search by injecting their domain
knowledge. Starting with the network architecture space composed of basic
neural network components, analysts are empowered to effectively select the
most promising components via our one-shot search scheme. Applying this
technique in an iterative manner allows analysts to converge to the best
performing neural network architecture for a given application. During the
exploration, analysts can use their domain knowledge aided by cues provided
from a scatterplot visualization of the search space to edit different
components and guide the search for faster convergence. We designed our
interface in collaboration with several deep learning researchers and its final
effectiveness is evaluated with a user study and two case studies.
- Abstract(参考訳): 近年のディープラーニング分野の進歩は、いくつかのアプリケーションにおいて非常に大きなニューラルネットワークの有効性を示している。
しかし、これらのディープニューラルネットワークのサイズが大きくなるにつれて、良い結果を得るために多くのパラメータを設定するのがますます難しくなっている。
現在、アナリストは、労働集約的で時間を要する多くの異なる設定とパラメータ設定を実験する必要があります。
一方、ニューラルネットワークアーキテクチャ探索のための完全自動化技術の能力は、人間の専門知識がなくても制限される。
この問題に対処するため,我々は,ワンショットアーキテクチャ探索技術に基づいて,ニューラルネットワークアーキテクチャ最適化のタスクをグラフ空間探索として定式化する。
このアプローチでは、全ての候補アーキテクチャのスーパーグラフをワンショットで訓練し、最適なニューラルネットワークをサブグラフとして識別する。
本稿では,分析者が効率的にサブグラフ空間を構築し,ドメイン知識を注入することでネットワーク探索をガイドするフレームワークを提案する。
基本的なニューラルネットワークコンポーネントで構成されたネットワークアーキテクチャ空間から始めて、アナリストはワンショット検索スキームを通じて、最も有望なコンポーネントを効果的に選択することができる。
このテクニックを反復的に適用することで、アナリストは与えられたアプリケーションの最適なニューラルネットワークアーキテクチャに収束することができる。
探索中、アナリストは、探索空間の散在した視覚化から提供された知識を利用して、異なるコンポーネントを編集し、より高速な収束を導くことができる。
我々は,複数のディープラーニング研究者と共同でインタフェースを設計し,その最終効果をユーザ・スタディと2つのケース・スタディで評価した。
関連論文リスト
- OFA$^2$: A Multi-Objective Perspective for the Once-for-All Neural
Architecture Search [79.36688444492405]
once-for-All(OFA)は、異なるリソース制約を持つデバイスのための効率的なアーキテクチャを探索する問題に対処するために設計された、ニューラルネットワーク検索(NAS)フレームワークである。
我々は,探索段階を多目的最適化問題として明示的に考えることにより,効率の追求を一歩進めることを目指している。
論文 参考訳(メタデータ) (2023-03-23T21:30:29Z) - DQNAS: Neural Architecture Search using Reinforcement Learning [6.33280703577189]
畳み込みニューラルネットワークは様々な画像関連アプリケーションで使われている。
本稿では,強化学習の原則を取り入れた,ニューラルネットワークの自動探索フレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-17T04:01:47Z) - SuperNet in Neural Architecture Search: A Taxonomic Survey [14.037182039950505]
このサーベイは、ウェイトシェアリングを使用して、すべてのアーキテクチャをサブモデルとして組み立てるニューラルネットワークを構築するスーパーネット最適化に焦点を当てている。
データ側最適化、低ランク相関緩和、多数のデプロイメントシナリオに対するトランスファー可能なNASなどです。
論文 参考訳(メタデータ) (2022-04-08T08:29:52Z) - Neural Architecture Search for Dense Prediction Tasks in Computer Vision [74.9839082859151]
ディープラーニングは、ニューラルネットワークアーキテクチャエンジニアリングに対する需要の高まりにつながっている。
ニューラルネットワーク検索(NAS)は、手動ではなく、データ駆動方式でニューラルネットワークアーキテクチャを自動設計することを目的としている。
NASはコンピュータビジョンの幅広い問題に適用されている。
論文 参考訳(メタデータ) (2022-02-15T08:06:50Z) - M-FasterSeg: An Efficient Semantic Segmentation Network Based on Neural
Architecture Search [0.0]
本稿では,ディープラーニングネットワークに基づくセマンティックセグメンテーションネットワークの改良構造を提案する。
まず、ニューラルネットワーク探索法NAS(Neural Architecture Search)を用いて、複数の解像度分岐を持つセマンティックセグメンテーションネットワークを求める。
検索プロセスでは、自己注意ネットワーク構造モジュールを結合して、探索したニューラルネットワーク構造を調整し、異なるブランチによって探索されたセマンティックセマンティックセマンティックネットワークを結合して、高速なセマンティックセマンティックセマンティックネットワーク構造を形成する。
論文 参考訳(メタデータ) (2021-12-15T06:46:55Z) - Improving the sample-efficiency of neural architecture search with
reinforcement learning [0.0]
この作業では、Automated Machine Learning(AutoML)の領域にコントリビュートしたいと思っています。
我々の焦点は、最も有望な研究方向の一つ、強化学習である。
児童ネットワークの検証精度は、コントローラを訓練するための報奨信号として機能する。
我々は、これをより現代的で複雑なアルゴリズムであるPPOに修正することを提案する。
論文 参考訳(メタデータ) (2021-10-13T14:30:09Z) - Efficient Neural Architecture Search with Performance Prediction [0.0]
ニューラルアーキテクチャ検索を使用して、目前にあるタスクに最適なネットワークアーキテクチャを見つけます。
既存のNASアルゴリズムは、スクラッチから完全にトレーニングすることで、新しいアーキテクチャの適合性を評価する。
サンプルアーキテクチャの評価を高速化するために,エンドツーエンドのオフライン性能予測器を提案する。
論文 参考訳(メタデータ) (2021-08-04T05:44:16Z) - Joint Learning of Neural Transfer and Architecture Adaptation for Image
Recognition [77.95361323613147]
現在の最先端の視覚認識システムは、大規模データセット上でニューラルネットワークを事前トレーニングし、より小さなデータセットでネットワーク重みを微調整することに依存している。
本稿では,各ドメインタスクに適応したネットワークアーキテクチャの動的適応と,効率と効率の両面で重みの微調整の利点を実証する。
本手法は,ソースドメインタスクでスーパーネットトレーニングを自己教師付き学習に置き換え,下流タスクで線形評価を行うことにより,教師なしパラダイムに容易に一般化することができる。
論文 参考訳(メタデータ) (2021-03-31T08:15:17Z) - Firefly Neural Architecture Descent: a General Approach for Growing
Neural Networks [50.684661759340145]
firefly neural architecture descentは、ニューラルネットワークを漸進的かつ動的に成長させるための一般的なフレームワークである。
ホタルの降下は、より広く、より深くネットワークを柔軟に成長させ、正確だがリソース効率のよいニューラルアーキテクチャを学習するために応用できることを示す。
特に、サイズは小さいが、最先端の手法で学習したネットワークよりも平均精度が高いネットワークを学習する。
論文 参考訳(メタデータ) (2021-02-17T04:47:18Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。