論文の概要: Joint Learning of Neural Transfer and Architecture Adaptation for Image
Recognition
- arxiv url: http://arxiv.org/abs/2103.16889v1
- Date: Wed, 31 Mar 2021 08:15:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-01 14:33:31.250829
- Title: Joint Learning of Neural Transfer and Architecture Adaptation for Image
Recognition
- Title(参考訳): 画像認識のためのニューラルトランスファーとアーキテクチャ適応の連成学習
- Authors: Guangrun Wang and Liang Lin and Rongcong Chen and Guangcong Wang and
Jiqi Zhang
- Abstract要約: 現在の最先端の視覚認識システムは、大規模データセット上でニューラルネットワークを事前トレーニングし、より小さなデータセットでネットワーク重みを微調整することに依存している。
本稿では,各ドメインタスクに適応したネットワークアーキテクチャの動的適応と,効率と効率の両面で重みの微調整の利点を実証する。
本手法は,ソースドメインタスクでスーパーネットトレーニングを自己教師付き学習に置き換え,下流タスクで線形評価を行うことにより,教師なしパラダイムに容易に一般化することができる。
- 参考スコア(独自算出の注目度): 77.95361323613147
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current state-of-the-art visual recognition systems usually rely on the
following pipeline: (a) pretraining a neural network on a large-scale dataset
(e.g., ImageNet) and (b) finetuning the network weights on a smaller,
task-specific dataset. Such a pipeline assumes the sole weight adaptation is
able to transfer the network capability from one domain to another domain,
based on a strong assumption that a fixed architecture is appropriate for all
domains. However, each domain with a distinct recognition target may need
different levels/paths of feature hierarchy, where some neurons may become
redundant, and some others are re-activated to form new network structures. In
this work, we prove that dynamically adapting network architectures tailored
for each domain task along with weight finetuning benefits in both efficiency
and effectiveness, compared to the existing image recognition pipeline that
only tunes the weights regardless of the architecture. Our method can be easily
generalized to an unsupervised paradigm by replacing supernet training with
self-supervised learning in the source domain tasks and performing linear
evaluation in the downstream tasks. This further improves the search efficiency
of our method. Moreover, we also provide principled and empirical analysis to
explain why our approach works by investigating the ineffectiveness of existing
neural architecture search. We find that preserving the joint distribution of
the network architecture and weights is of importance. This analysis not only
benefits image recognition but also provides insights for crafting neural
networks. Experiments on five representative image recognition tasks such as
person re-identification, age estimation, gender recognition, image
classification, and unsupervised domain adaptation demonstrate the
effectiveness of our method.
- Abstract(参考訳): 現在の最先端のビジュアル認識システムは、一般的に次のパイプラインに依存している: (a) 大規模データセット(例: imagenet)上でニューラルネットワークを事前トレーニングし、(b) より小さなタスク固有のデータセットでネットワークの重みを微調整する。
このようなパイプラインは、固定アーキテクチャがすべてのドメインに適しているという強い仮定に基づいて、ネットワーク能力をあるドメインから別のドメインに転送できる唯一の重み付けを前提としている。
しかし、異なる認識対象を持つ各ドメインは機能階層の異なるレベル/パスを必要とし、いくつかのニューロンは冗長になり、他のいくつかのドメインは新たなネットワーク構造を形成するために再活性化される。
本研究では,各領域のタスクに適合するネットワークアーキテクチャを動的に適応させ,効率と有効性の両方において重み付けの利点を生かし,アーキテクチャによらず重み付けのみを調整した既存の画像認識パイプラインと比較する。
本手法は,ソースドメインタスクでスーパーネットトレーニングを自己教師付き学習に置き換え,下流タスクで線形評価を行うことにより,教師なしパラダイムに容易に一般化することができる。
これにより,提案手法の探索効率が向上する。
さらに,既存のニューラルアーキテクチャ探索の非効率性を調査することにより,このアプローチがなぜ有効なのかを説明するために,原理的かつ実証的な分析を行う。
ネットワークアーキテクチャと重みの結合分布の保存が重要であることが判明した。
この分析は、画像認識だけでなく、ニューラルネットワークを構築するための洞察も提供する。
人物再同定,年齢推定,性別認識,画像分類,教師なし領域適応などの5つの代表的画像認識課題について,本手法の有効性を示す。
関連論文リスト
- Efficient and Accurate Hyperspectral Image Demosaicing with Neural Network Architectures [3.386560551295746]
本研究では,ハイパースペクトル画像復調におけるニューラルネットワークアーキテクチャの有効性について検討した。
様々なネットワークモデルと修正を導入し、それらを従来の手法や既存の参照ネットワークアプローチと比較する。
その結果、我々のネットワークは、例外的な性能を示す両方のデータセットにおいて、参照モデルよりも優れるか、一致していることがわかった。
論文 参考訳(メタデータ) (2023-12-21T08:02:49Z) - Interpretable part-whole hierarchies and conceptual-semantic
relationships in neural networks [4.153804257347222]
本稿では、視覚的手がかりから部分全体階層を表現できるフレームワークであるAgglomeratorについて述べる。
本研究では,SmallNORB,MNIST,FashionMNIST,CIFAR-10,CIFAR-100などの共通データセットを用いて評価を行った。
論文 参考訳(メタデータ) (2022-03-07T10:56:13Z) - SIRe-Networks: Skip Connections over Interlaced Multi-Task Learning and
Residual Connections for Structure Preserving Object Classification [28.02302915971059]
本稿では、オブジェクト分類タスクにおける消失勾配を低減するために、SIReを定義したインターレース型マルチタスク学習戦略を提案する。
提案手法は、自動エンコーダを介して入力画像構造を保存することにより、畳み込みニューラルネットワーク(CNN)を直接改善する。
提案手法を検証するため、SIRe戦略を介して単純なCNNと有名なネットワークの様々な実装を拡張し、CIFAR100データセットで広範囲にテストする。
論文 参考訳(メタデータ) (2021-10-06T13:54:49Z) - Unsupervised Domain-adaptive Hash for Networks [81.49184987430333]
ドメイン適応型ハッシュ学習はコンピュータビジョンコミュニティでかなりの成功を収めた。
UDAHと呼ばれるネットワークのための教師なしドメイン適応型ハッシュ学習手法を開発した。
論文 参考訳(メタデータ) (2021-08-20T12:09:38Z) - Topological Uncertainty: Monitoring trained neural networks through
persistence of activation graphs [0.9786690381850356]
産業アプリケーションでは、オープンワールド設定から得られるデータは、ネットワークがトレーニングされたベンチマークデータセットと大きく異なる可能性がある。
活性化グラフのトポロジ的特性に基づいて訓練されたニューラルネットワークを監視する手法を開発している。
論文 参考訳(メタデータ) (2021-05-07T14:16:03Z) - Explainability-aided Domain Generalization for Image Classification [0.0]
説明可能性文献から手法やアーキテクチャを適用することで、ドメインの一般化という困難な課題に対して最先端のパフォーマンスを達成できることを示す。
そこで我々は,勾配に基づくクラスアクティベーションマップを用いて学習中にネットワークが指導を受ける手法であるDivCAMを含む新しいアルゴリズムを開発し,多様な識別機能に焦点をあてる。
これらの手法は、説明可能性に加えて競合性能を提供するため、深層ニューラルネットワークアーキテクチャのロバスト性を改善するツールとして使用できると論じる。
論文 参考訳(メタデータ) (2021-04-05T02:27:01Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - NAS-Navigator: Visual Steering for Explainable One-Shot Deep Neural
Network Synthesis [53.106414896248246]
本稿では,分析者がドメイン知識を注入することで,解のサブグラフ空間を効果的に構築し,ネットワーク探索をガイドするフレームワークを提案する。
このテクニックを反復的に適用することで、アナリストは、与えられたアプリケーションに対して最高のパフォーマンスのニューラルネットワークアーキテクチャに収束することができる。
論文 参考訳(メタデータ) (2020-09-28T01:48:45Z) - NAS-DIP: Learning Deep Image Prior with Neural Architecture Search [65.79109790446257]
近年の研究では、深部畳み込みニューラルネットワークの構造が、以前に構造化された画像として利用できることが示されている。
我々は,より強い画像の先行を捉えるニューラルネットワークの探索を提案する。
既存のニューラルネットワーク探索アルゴリズムを利用して,改良されたネットワークを探索する。
論文 参考訳(メタデータ) (2020-08-26T17:59:36Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。