論文の概要: Disentangling Neural Architectures and Weights: A Case Study in
Supervised Classification
- arxiv url: http://arxiv.org/abs/2009.05346v1
- Date: Fri, 11 Sep 2020 11:22:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 20:39:35.144697
- Title: Disentangling Neural Architectures and Weights: A Case Study in
Supervised Classification
- Title(参考訳): ニューラルアーキテクチャとウェイトを両立させる:教師付き分類におけるケーススタディ
- Authors: Nicolo Colombo and Yang Gao
- Abstract要約: 本研究は、神経構造とそのエッジウェイトの役割を解消する問題について考察する。
十分に訓練されたアーキテクチャでは、重み付けのリンク固有の微調整は不要である。
我々は、ハードアーキテクチャ探索問題を実現可能な最適化問題に変換する、新しい計算効率のよい手法を用いる。
- 参考スコア(独自算出の注目度): 8.976788958300766
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The history of deep learning has shown that human-designed problem-specific
networks can greatly improve the classification performance of general neural
models. In most practical cases, however, choosing the optimal architecture for
a given task remains a challenging problem. Recent architecture-search methods
are able to automatically build neural models with strong performance but fail
to fully appreciate the interaction between neural architecture and weights.
This work investigates the problem of disentangling the role of the neural
structure and its edge weights, by showing that well-trained architectures may
not need any link-specific fine-tuning of the weights. We compare the
performance of such weight-free networks (in our case these are binary networks
with {0, 1}-valued weights) with random, weight-agnostic, pruned and standard
fully connected networks. To find the optimal weight-agnostic network, we use a
novel and computationally efficient method that translates the hard
architecture-search problem into a feasible optimization problem.More
specifically, we look at the optimal task-specific architectures as the optimal
configuration of binary networks with {0, 1}-valued weights, which can be found
through an approximate gradient descent strategy. Theoretical convergence
guarantees of the proposed algorithm are obtained by bounding the error in the
gradient approximation and its practical performance is evaluated on two
real-world data sets. For measuring the structural similarities between
different architectures, we use a novel spectral approach that allows us to
underline the intrinsic differences between real-valued networks and
weight-free architectures.
- Abstract(参考訳): 深層学習の歴史は、人間の設計した問題特定ネットワークが一般的な神経モデルの分類性能を大幅に改善できることを示した。
しかし、ほとんどの場合、与えられたタスクに対して最適なアーキテクチャを選択することは難しい問題である。
最近のアーキテクチャ研究手法では、強力な性能を持つニューラルモデルを自動的に構築できるが、ニューラルアーキテクチャとウェイト間の相互作用を十分に理解できない。
本研究は,よく訓練されたアーキテクチャでは重みのリンク固有の微調整は不要であることを示すことにより,神経構造とエッジ重みの役割を分離する問題を検討する。
このような重みのないネットワークの性能(ここでは2進ネットワークと {0, 1} 値の重み付きネットワーク)を、ランダムで重みに依存しない、プルーニングされた、および標準の完全連結ネットワークと比較する。
最適重み依存ネットワークを見つけるために,我々は,ハードアーキテクチャ探索問題を実現可能な最適化問題に翻訳する,新しい計算効率の高い手法を用いる。具体的には,最適化されたタスク固有アーキテクチャを,近似勾配降下戦略によって見いだされる,{0, 1}-値の重み付きバイナリネットワークの最適構成として検討する。
提案アルゴリズムの理論的収束保証は勾配近似における誤差をバウンドすることで得られ、実世界の2つのデータセット上でその実用性能を評価する。
異なるアーキテクチャ間の構造的類似性を測定するために、我々は、実数値ネットワークと重みなしアーキテクチャの本質的な違いを明確にする新しいスペクトルアプローチを用いる。
関連論文リスト
- Growing Tiny Networks: Spotting Expressivity Bottlenecks and Fixing Them Optimally [2.645067871482715]
機械学習タスクでは、ある機能空間内で最適な関数を探索する。
この方法で、トレーニング中の機能の進化を、選択したアーキテクチャで表現可能な領域内に配置させます。
表現力のボトルネックによる望ましいアーキテクチャ変更に関する情報は, 後処理の % から抽出可能であることを示す。
論文 参考訳(メタデータ) (2024-05-30T08:23:56Z) - FlowNAS: Neural Architecture Search for Optical Flow Estimation [65.44079917247369]
本研究では,フロー推定タスクにおいて,より優れたエンコーダアーキテクチャを自動で見つけるために,FlowNASというニューラルアーキテクチャ探索手法を提案する。
実験の結果、スーパーネットワークから受け継いだ重み付きアーキテクチャは、KITTI上で4.67%のF1-allエラーを達成していることがわかった。
論文 参考訳(メタデータ) (2022-07-04T09:05:25Z) - Learning Interpretable Models Through Multi-Objective Neural
Architecture Search [0.9990687944474739]
本稿では,タスク性能と「イントロスペクタビリティ」の両方を最適化するフレームワークを提案する。
タスクエラーとイントロスペクタビリティを共同で最適化することは、エラー内で実行されるより不整合でデバッグ可能なアーキテクチャをもたらすことを実証する。
論文 参考訳(メタデータ) (2021-12-16T05:50:55Z) - iDARTS: Differentiable Architecture Search with Stochastic Implicit
Gradients [75.41173109807735]
微分可能なArchiTecture Search(DARTS)は先日,ニューラルアーキテクチャサーチ(NAS)の主流になった。
暗黙の関数定理に基づいてDARTSの過次計算に取り組む。
提案手法であるiDARTSのアーキテクチャ最適化は,定常点に収束することが期待される。
論文 参考訳(メタデータ) (2021-06-21T00:44:11Z) - Reframing Neural Networks: Deep Structure in Overcomplete
Representations [41.84502123663809]
本稿では,構造化過剰フレームを用いた表現学習のための統一フレームワークであるdeep frame approximationを提案する。
表現一意性と安定性に関連付けられたデータ非依存的なコヒーレンス尺度であるdeep frame potentialとの構造的差異を定量化する。
この超完全表現の確立された理論への接続は、原理化されたディープネットワークアーキテクチャ設計の新たな方向性を示唆している。
論文 参考訳(メタデータ) (2021-03-10T01:15:14Z) - Differentiable Neural Architecture Learning for Efficient Neural Network
Design [31.23038136038325]
スケールド・シグモイド関数に基づく新しいemphアーキテクチャのパラメータ化を提案する。
そこで本論文では,候補ニューラルネットワークを評価することなく,ニューラルネットワークを最適化するための汎用的エファイブルニューラルネットワーク学習(DNAL)手法を提案する。
論文 参考訳(メタデータ) (2021-03-03T02:03:08Z) - Firefly Neural Architecture Descent: a General Approach for Growing
Neural Networks [50.684661759340145]
firefly neural architecture descentは、ニューラルネットワークを漸進的かつ動的に成長させるための一般的なフレームワークである。
ホタルの降下は、より広く、より深くネットワークを柔軟に成長させ、正確だがリソース効率のよいニューラルアーキテクチャを学習するために応用できることを示す。
特に、サイズは小さいが、最先端の手法で学習したネットワークよりも平均精度が高いネットワークを学習する。
論文 参考訳(メタデータ) (2021-02-17T04:47:18Z) - Adversarially Robust Neural Architectures [43.74185132684662]
本稿では,NASフレームワークを用いたアーキテクチャの観点から,ネットワークの対角的ロバスト性を改善することを目的とする。
本稿では, 対向ロバスト性, リプシッツ定数, アーキテクチャパラメータの関係について検討する。
提案アルゴリズムは,異なるデータセットに対する様々な攻撃の下で,すべてのモデルの中で最高の性能を実証的に達成する。
論文 参考訳(メタデータ) (2020-09-02T08:52:15Z) - DC-NAS: Divide-and-Conquer Neural Architecture Search [108.57785531758076]
本稿では,ディープ・ニューラル・アーキテクチャーを効果的かつ効率的に探索するためのディバイド・アンド・コンカ(DC)手法を提案する。
ImageNetデータセットで75.1%の精度を達成しており、これは同じ検索空間を使った最先端の手法よりも高い。
論文 参考訳(メタデータ) (2020-05-29T09:02:16Z) - A Semi-Supervised Assessor of Neural Architectures [157.76189339451565]
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-05-14T09:02:33Z) - Fitting the Search Space of Weight-sharing NAS with Graph Convolutional
Networks [100.14670789581811]
サンプルサブネットワークの性能に適合するグラフ畳み込みネットワークを訓練する。
この戦略により、選択された候補集合において、より高いランク相関係数が得られる。
論文 参考訳(メタデータ) (2020-04-17T19:12:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。