論文の概要: Adversarial Branch Architecture Search for Unsupervised Domain
Adaptation
- arxiv url: http://arxiv.org/abs/2102.06679v1
- Date: Fri, 12 Feb 2021 18:35:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-15 13:17:17.283094
- Title: Adversarial Branch Architecture Search for Unsupervised Domain
Adaptation
- Title(参考訳): 教師なしドメイン適応のための逆分岐アーキテクチャ探索
- Authors: Luca Robbiano and Muhammad Rameez Ur Rahman and Fabio Galasso and
Barbara Caputo and Fabio Maria Carlucci
- Abstract要約: UDA(Unsupervised Domain Adaptation)のための Adversarial Branch Architecture Search (ABAS) を提案する。
ABASは、ターゲットラベルの欠如を回避するために、モデル選択のための新しいデータ駆動アンサンブルアプローチである。
最適な補助ブランチを自動的に検索するパイプライン。
- 参考スコア(独自算出の注目度): 24.091357853266736
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Unsupervised Domain Adaptation (UDA) is a key field in visual recognition, as
it enables robust performances across different visual domains. In the deep
learning era, the performance of UDA methods has been driven by better losses
and by improved network architectures, specifically the addition of auxiliary
domain-alignment branches to pre-trained backbones. However, all the neural
architectures proposed so far are hand-crafted, which might hinder further
progress.
The current copious offspring of Neural Architecture Search (NAS) only
alleviates hand-crafting so far, as it requires labels for model selection,
which are not available in UDA, and is usually applied to the whole
architecture, while using pre-trained models is a strict requirement for high
performance. No prior work has addressed these aspects in the context of NAS
for UDA.
Here we propose an Adversarial Branch Architecture Search (ABAS) for UDA, to
learn the auxiliary branch network from data without handcrafting. Our main
contribution include i. a novel data-driven ensemble approach for model
selection, to circumvent the lack of target labels, and ii. a pipeline to
automatically search for the best performing auxiliary branch.
To the best of our knowledge, ABAS is the first NAS method for UDA to comply
with a pre-trained backbone, a strict requirement for high performance. ABAS
outputs both the optimal auxiliary branch and its trained parameters. When
applied to two modern UDA techniques, DANN and ALDA, it improves performance on
three standard CV datasets (Office31, Office-Home and PACS). In all cases, ABAS
robustly finds the branch architectures which yield best performances. Code
will be released.
- Abstract(参考訳): Unsupervised Domain Adaptation(UDA)は、さまざまな視覚領域で堅牢なパフォーマンスを可能にするため、視覚認識の重要な分野です。
ディープラーニング時代には、udaメソッドのパフォーマンスは、よりよい損失とネットワークアーキテクチャの改善、特に事前トレーニングされたバックボーンに補助的なドメイン調整ブランチを追加することで向上している。
しかし、これまで提案されたすべてのニューラルアーキテクチャは手作りであり、さらなる進歩を妨げる可能性がある。
ニューラルアーキテクチャサーチ(NAS)の現在の相反する子孫は、UDAでは利用できないモデル選択のラベルが必要であり、通常はアーキテクチャ全体に適用されるが、事前訓練されたモデルを使用することは、ハイパフォーマンスの厳しい要件である。
UDAのNASの文脈でこれらの側面に対処する以前の作業はない。
そこで本研究では,UDA用Adversarial Branch Architecture Search (ABAS)を提案し,ハンドクラフトなしでデータから補助ブランチネットワークを学習する。
私たちの主な貢献は、モデル選択のための新しいデータ駆動アンサンブルアプローチ、ターゲットラベルの欠如を回避すること、そしてiiです。
最適な補助ブランチを自動的に検索するパイプライン。
私達の知識のベストに、ABASは高性能のための厳密な条件である事前訓練された背骨に従うUDAのための最初のNASの方法です。
ABASは最適な補助分岐とその訓練されたパラメータを出力する。
DANNとALDAの2つの最新のUDA技術に適用すると、3つの標準CVデータセット(Office31、Office-Home、PACS)のパフォーマンスが向上する。
いずれの場合も、ABASは最高のパフォーマンスをもたらすブランチアーキテクチャをしっかりと見つける。
コードはリリースされる。
関連論文リスト
- Dynamic Perceiver for Efficient Visual Recognition [87.08210214417309]
特徴抽出手順と早期分類タスクを分離する動的知覚器(Dyn-Perceiver)を提案する。
特徴ブランチは画像の特徴を抽出し、分類ブランチは分類タスクに割り当てられた遅延コードを処理する。
早期出口は分類枝に限られており、低レベルの特徴において線形分離性は不要である。
論文 参考訳(メタデータ) (2023-06-20T03:00:22Z) - DAS: Neural Architecture Search via Distinguishing Activation Score [21.711985665733653]
ニューラルアーキテクチャサーチ(NAS)は、特定のタスクに対して優れたアーキテクチャを探索する自動手法である。
Darts-training-bench(DTB)と呼ばれるデータセットを提案し、既存のデータセットでアーキテクチャのトレーニング状態が存在しないギャップを埋める。
提案手法は,NAS-Bench-101,Network Design Spaces,提案DBBの1.04$times$ - 1.56$times$の改善を実現している。
論文 参考訳(メタデータ) (2022-12-23T04:02:46Z) - Prior Knowledge Guided Unsupervised Domain Adaptation [82.9977759320565]
本稿では,対象とするクラス分布に関する事前知識を利用できる知識誘導型非教師付きドメイン適応(KUDA)設定を提案する。
特に,対象領域におけるクラス分布に関する2種類の事前知識について考察する。
このような事前知識を用いて生成した擬似ラベルを精査する修正モジュールを提案する。
論文 参考訳(メタデータ) (2022-07-18T18:41:36Z) - Pruning-as-Search: Efficient Neural Architecture Search via Channel
Pruning and Structural Reparameterization [50.50023451369742]
プルーニング・アズ・サーチ(Pruning-as-Search、PaS)は、必要なサブネットワークを自動的に効率的に検索するエンドツーエンドのプルーニング手法である。
提案したアーキテクチャは,ImageNet-1000分類タスクにおいて,1.0%$ Top-1精度で先行技術より優れていた。
論文 参考訳(メタデータ) (2022-06-02T17:58:54Z) - DAFormer: Improving Network Architectures and Training Strategies for
Domain-Adaptive Semantic Segmentation [99.88539409432916]
教師なしドメイン適応(UDA)プロセスについて検討する。
ベンチマーク結果に基づいて,新しい UDA 手法である DAFormer を提案する。
DAFormerは,GTA->Cityscapesの10.8 mIoU,Synthia->Cityscapesの5.4 mIoUにより,最先端の性能を大幅に向上させる。
論文 参考訳(メタデータ) (2021-11-29T19:00:46Z) - AceNAS: Learning to Rank Ace Neural Architectures with Weak Supervision
of Weight Sharing [6.171090327531059]
空間から最高のアーキテクチャを選択するためのLearning to Rank手法を紹介します。
また,スーパーネットから得られた弱いラベルのアーキテクチャ表現を事前学習することで,重み共有から弱い管理を活用することを提案する。
NASベンチマークと大規模検索空間を用いた実験により,提案手法はSOTAよりも検索コストが大幅に削減された。
論文 参考訳(メタデータ) (2021-08-06T08:31:42Z) - CM-NAS: Cross-Modality Neural Architecture Search for Visible-Infrared
Person Re-Identification [102.89434996930387]
VI-ReIDは、暗い環境での単一モダリティ人物ReIDの制限を突破し、クロスモダリティ歩行者のイメージを一致させることを目指しています。
既存の作品は、さまざまな2ストリームアーキテクチャを手動で設計して、モダリティ固有およびモダリティシャーブル表現を別々に学習する。
CM-NAS(Cross-Modality Neural Architecture Search)という手法を提案する。
論文 参考訳(メタデータ) (2021-01-21T07:07:00Z) - Hierarchical Neural Architecture Search for Deep Stereo Matching [131.94481111956853]
本稿では, ディープステレオマッチングのための最初のエンドツーエンド階層型NASフレームワークを提案する。
我々のフレームワークは、タスク固有の人間の知識をニューラルアーキテクチャ検索フレームワークに組み込んでいる。
KITTI stereo 2012、2015、Middleburyベンチマークで1位、SceneFlowデータセットで1位にランクインしている。
論文 参考訳(メタデータ) (2020-10-26T11:57:37Z) - RARTS: An Efficient First-Order Relaxed Architecture Search Method [5.491655566898372]
微分可能なアーキテクチャ探索(DARTS)は、二段階最適化問題の解法に基づく、データ駆動型ニューラルネットワーク設計の有効な方法である。
我々は、データとネットワーク分割の両方を通してアーキテクチャ学習のデータセット全体を利用する、単一レベルの代替品と緩和アーキテクチャ検索(RARTS)手法を定式化する。
RARTSは、トポロジカルアーキテクチャ、すなわちエッジと演算を探索するタスクにおいて、CIFAR-10上の2階DARTSよりも高い精度と60%の計算コストを得る。
論文 参考訳(メタデータ) (2020-08-10T04:55:51Z) - Interpretable Neural Architecture Search via Bayesian Optimisation with
Weisfeiler-Lehman Kernels [17.945881805452288]
現在のニューラルアーキテクチャサーチ(NAS)戦略は、単一の優れたアーキテクチャを見つけることに集中している。
そこで我々は,Weisfeiler-Lehmanグラフカーネルとガウス過程サロゲートを組み合わせたNASに対するベイズ最適化手法を提案する。
提案手法は,有用なネットワーク特徴とそれに伴うネットワーク性能への影響を発見することによって,解釈可能性を実現する。
論文 参考訳(メタデータ) (2020-06-13T04:10:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。