論文の概要: Network Architecture Search for Domain Adaptation
- arxiv url: http://arxiv.org/abs/2008.05706v1
- Date: Thu, 13 Aug 2020 06:15:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-30 23:13:21.107546
- Title: Network Architecture Search for Domain Adaptation
- Title(参考訳): ドメイン適応のためのネットワークアーキテクチャ探索
- Authors: Yichen Li, Xingchao Peng
- Abstract要約: ドメイン適応のための最適なネットワークアーキテクチャを導出するために、微分可能なニューラルアーキテクチャ探索を利用する原理的フレームワークであるNeural Architecture Search for Domain Adaptation (NASDA)を提案する。
我々は、NASDAがいくつかのドメイン適応ベンチマークで最先端の性能をもたらすことを実験的に実証した。
- 参考スコア(独自算出の注目度): 11.24426822697648
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep networks have been used to learn transferable representations for domain
adaptation. Existing deep domain adaptation methods systematically employ
popular hand-crafted networks designed specifically for image-classification
tasks, leading to sub-optimal domain adaptation performance. In this paper, we
present Neural Architecture Search for Domain Adaptation (NASDA), a principle
framework that leverages differentiable neural architecture search to derive
the optimal network architecture for domain adaptation task. NASDA is designed
with two novel training strategies: neural architecture search with
multi-kernel Maximum Mean Discrepancy to derive the optimal architecture, and
adversarial training between a feature generator and a batch of classifiers to
consolidate the feature generator. We demonstrate experimentally that NASDA
leads to state-of-the-art performance on several domain adaptation benchmarks.
- Abstract(参考訳): ディープネットワークは、ドメイン適応のための転送可能な表現を学ぶために使われてきた。
既存のディープドメイン適応手法は、画像分類タスク用に設計された一般的な手作りネットワークを体系的に採用しており、最適ドメイン適応性能に繋がる。
本稿では,ドメイン適応のための最適なネットワークアーキテクチャを導出するために,識別可能なニューラルネットワーク探索を利用する原理的フレームワークであるNeural Architecture Search for Domain Adaptation (NASDA)を提案する。
NASDAは、最適なアーキテクチャを導き出すために、マルチカーネルの最大値の離散性を用いたニューラルネットワーク探索と、特徴生成器と特徴生成器のバッチ間の敵対的トレーニングという、2つの新しいトレーニング戦略で設計されている。
我々はnasdaがいくつかのドメイン適応ベンチマークにおいて最先端のパフォーマンスをもたらすことを実験的に実証する。
関連論文リスト
- EM-DARTS: Hierarchical Differentiable Architecture Search for Eye Movement Recognition [54.99121380536659]
眼球運動バイオメトリックスは、高い安全性の識別により注目されている。
深層学習(DL)モデルは近年,眼球運動認識に成功している。
DLアーキテクチャはまだ人間の事前知識によって決定されている。
眼球運動認識のためのDLアーキテクチャを自動設計する階層的微分可能なアーキテクチャ探索アルゴリズムEM-DARTSを提案する。
論文 参考訳(メタデータ) (2024-09-22T13:11:08Z) - ECToNAS: Evolutionary Cross-Topology Neural Architecture Search [0.0]
ECToNASは、コスト効率のよい進化的クロストポロジーニューラルアーキテクチャ探索アルゴリズムである。
トレーニングとトポロジの最適化を融合して,軽量でリソースフレンドリなプロセスにします。
論文 参考訳(メタデータ) (2024-03-08T07:36:46Z) - HKNAS: Classification of Hyperspectral Imagery Based on Hyper Kernel
Neural Architecture Search [104.45426861115972]
設計したハイパーカーネルを利用して,構造パラメータを直接生成することを提案する。
我々は1次元または3次元の畳み込みを伴う画素レベルの分類と画像レベルの分類を別々に行う3種類のネットワークを得る。
6つの公開データセットに関する一連の実験は、提案手法が最先端の結果を得ることを示した。
論文 参考訳(メタデータ) (2023-04-23T17:27:40Z) - Dynamic Neural Network for Multi-Task Learning Searching across Diverse
Network Topologies [14.574399133024594]
多様なグラフトポロジを持つ複数のタスクに対して最適化された構造を探索する新しいMTLフレームワークを提案する。
我々は、トポロジ的に多様なタスク適応構造を構築するために、読み出し/読み出し層を備えたDAGベースの制限付き中央ネットワークを設計する。
論文 参考訳(メタデータ) (2023-03-13T05:01:50Z) - Search Space Adaptation for Differentiable Neural Architecture Search in
Image Classification [15.641353388251465]
微分可能なニューラルネットワークサーチ(NAS)は、検索コストを単一のネットワークをトレーニングするレベルに削減することで大きな影響を与える。
本稿では,探索範囲を導入することで,探索空間の適応スキームを提案する。
画像分類タスクにおいて, ProxylessNAS を用いて提案手法の有効性を示す。
論文 参考訳(メタデータ) (2022-06-05T05:27:12Z) - Pareto-wise Ranking Classifier for Multi-objective Evolutionary Neural
Architecture Search [15.454709248397208]
本研究は,多様な設計目的の下で実現可能な深層モデルを見つける方法に焦点を当てる。
オンライン分類器を訓練し、候補と構築された参照アーキテクチャとの優位性関係を予測する。
さまざまな目的や制約の下で、2Mから6Mまでの異なるモデルサイズを持つ多数のニューラルアーキテクチャを見つけます。
論文 参考訳(メタデータ) (2021-09-14T13:28:07Z) - AutoAdapt: Automated Segmentation Network Search for Unsupervised Domain
Adaptation [4.793219747021116]
我々は、ドメイン適応のためのアーキテクチャレベルの視点と分析を提供するために、ニューラルアーキテクチャサーチ(NAS)を実行する。
本稿では,最大平均誤差と地域重み付きエントロピーを用いて,このギャップを埋めて精度を推定する手法を提案する。
論文 参考訳(メタデータ) (2021-06-24T17:59:02Z) - Joint Learning of Neural Transfer and Architecture Adaptation for Image
Recognition [77.95361323613147]
現在の最先端の視覚認識システムは、大規模データセット上でニューラルネットワークを事前トレーニングし、より小さなデータセットでネットワーク重みを微調整することに依存している。
本稿では,各ドメインタスクに適応したネットワークアーキテクチャの動的適応と,効率と効率の両面で重みの微調整の利点を実証する。
本手法は,ソースドメインタスクでスーパーネットトレーニングを自己教師付き学習に置き換え,下流タスクで線形評価を行うことにより,教師なしパラダイムに容易に一般化することができる。
論文 参考訳(メタデータ) (2021-03-31T08:15:17Z) - NAS-Navigator: Visual Steering for Explainable One-Shot Deep Neural
Network Synthesis [53.106414896248246]
本稿では,分析者がドメイン知識を注入することで,解のサブグラフ空間を効果的に構築し,ネットワーク探索をガイドするフレームワークを提案する。
このテクニックを反復的に適用することで、アナリストは、与えられたアプリケーションに対して最高のパフォーマンスのニューラルネットワークアーキテクチャに収束することができる。
論文 参考訳(メタデータ) (2020-09-28T01:48:45Z) - Domain Conditioned Adaptation Network [90.63261870610211]
本稿では,ドメイン条件付きチャネルアテンション機構を用いて,異なる畳み込みチャネルを励起するドメイン条件適応ネットワーク(DCAN)を提案する。
これは、ディープDAネットワークのドメインワイドな畳み込みチャネルアクティベーションを探求する最初の試みである。
論文 参考訳(メタデータ) (2020-05-14T04:23:24Z) - Dynamic Hierarchical Mimicking Towards Consistent Optimization
Objectives [73.15276998621582]
一般化能力を高めたCNN訓練を推進するための汎用的特徴学習機構を提案する。
DSNに部分的にインスパイアされた私たちは、ニューラルネットワークの中間層から微妙に設計されたサイドブランチをフォークしました。
カテゴリ認識タスクとインスタンス認識タスクの両方の実験により,提案手法の大幅な改善が示された。
論文 参考訳(メタデータ) (2020-03-24T09:56:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。