論文の概要: Incremental Learning with Differentiable Architecture and Forgetting
Search
- arxiv url: http://arxiv.org/abs/2205.09875v1
- Date: Thu, 19 May 2022 21:47:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-23 13:38:01.571108
- Title: Incremental Learning with Differentiable Architecture and Forgetting
Search
- Title(参考訳): 微分可能なアーキテクチャによるインクリメンタルラーニングと探索
- Authors: James Seale Smith, Zachary Seymour, Han-Pang Chiu
- Abstract要約: 本研究では,NASを漸進学習に活用することで,分類タスクの性能向上が期待できることを示す。
本手法はRF信号と画像分類タスクの両方で評価し,最先端手法よりも最大10%の性能向上を達成できることを実証した。
- 参考スコア(独自算出の注目度): 3.6868861317674524
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As progress is made on training machine learning models on incrementally
expanding classification tasks (i.e., incremental learning), a next step is to
translate this progress to industry expectations. One technique missing from
incremental learning is automatic architecture design via Neural Architecture
Search (NAS). In this paper, we show that leveraging NAS for incremental
learning results in strong performance gains for classification tasks.
Specifically, we contribute the following: first, we create a strong baseline
approach for incremental learning based on Differentiable Architecture Search
(DARTS) and state-of-the-art incremental learning strategies, outperforming
many existing strategies trained with similar-sized popular architectures;
second, we extend the idea of architecture search to regularize architecture
forgetting, boosting performance past our proposed baseline. We evaluate our
method on both RF signal and image classification tasks, and demonstrate we can
achieve up to a 10% performance increase over state-of-the-art methods. Most
importantly, our contribution enables learning from continuous distributions on
real-world application data for which the complexity of the data distribution
is unknown, or the modality less explored (such as RF signal classification).
- Abstract(参考訳): インクリメンタルな分類タスク(インクリメンタルな学習)をインクリメンタルに拡張する機械学習モデルをトレーニングする上で、次のステップは、この進歩を産業の期待に変換することだ。
漸進的な学習で欠けているテクニックは、Neural Architecture Search (NAS)による自動アーキテクチャ設計である。
本稿では,NASをインクリメンタル学習に活用することで,分類タスクの性能向上が期待できることを示す。
第一に、我々は、差別化可能なアーキテクチャ検索(darts)と最先端のインクリメンタル学習戦略に基づく、インクリメンタルな学習のための強力なベースラインアプローチを作成し、同様のサイズのポピュラーアーキテクチャで訓練された多くの既存の戦略を上回ります。
本手法はRF信号と画像分類タスクの両方で評価し,最先端手法よりも最大10%の性能向上を達成できることを実証した。
最も重要なのは,データ分布の複雑さが不明な実世界のアプリケーションデータに対する連続分布からの学習や,(rf信号分類などの)モダリティの低さを実現することである。
関連論文リスト
- EM-DARTS: Hierarchical Differentiable Architecture Search for Eye Movement Recognition [54.99121380536659]
眼球運動バイオメトリックスは、高い安全性の識別により注目されている。
深層学習(DL)モデルは近年,眼球運動認識に成功している。
DLアーキテクチャはまだ人間の事前知識によって決定されている。
眼球運動認識のためのDLアーキテクチャを自動設計する階層的微分可能なアーキテクチャ探索アルゴリズムEM-DARTSを提案する。
論文 参考訳(メタデータ) (2024-09-22T13:11:08Z) - Relax DARTS: Relaxing the Constraints of Differentiable Architecture Search for Eye Movement Recognition [9.905155497581815]
眼球運動認識の分野にNASアルゴリズムを導入する。
Relax DARTSは、より効率的なネットワーク検索とトレーニングを実現するために、DARTSの改良である。
Relax DARTSは、他の多機能時間分類タスクへの適応性を示す。
論文 参考訳(メタデータ) (2024-09-18T02:37:04Z) - Neural Architecture Search for Speech Emotion Recognition [72.1966266171951]
本稿では,SERモデルの自動構成にニューラルアーキテクチャサーチ(NAS)技術を適用することを提案する。
NASはモデルパラメータサイズを維持しながらSER性能(54.89%から56.28%)を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-03-31T10:16:10Z) - Conceptual Expansion Neural Architecture Search (CENAS) [1.3464152928754485]
概念拡張ニューラルアーキテクチャサーチ(CENAS)という手法を提案する。
サンプル効率が高く、計算的創造性にインスパイアされたトランスファーラーニングアプローチとニューラルアーキテクチャサーチを組み合わせたものだ。
新しいモデルのパラメータを近似するために、既存の重みを転送することで、素早いアーキテクチャ探索よりも高速なモデルを見つける。
論文 参考訳(メタデータ) (2021-10-07T02:29:26Z) - Dynamically Grown Generative Adversarial Networks [111.43128389995341]
本稿では、ネットワークアーキテクチャとそのパラメータを自動化とともに最適化し、トレーニング中にGANを動的に成長させる手法を提案する。
本手法はアーキテクチャ探索手法を勾配に基づく訓練とインターリーブステップとして組み込んで,ジェネレータと識別器の最適アーキテクチャ成長戦略を定期的に探究する。
論文 参考訳(メタデータ) (2021-06-16T01:25:51Z) - Off-Policy Reinforcement Learning for Efficient and Effective GAN
Architecture Search [50.40004966087121]
本稿では,GANアーキテクチャ探索のための強化学習に基づくニューラルアーキテクチャ探索手法を提案する。
鍵となる考え方は、よりスムーズなアーキテクチャサンプリングのためのマルコフ決定プロセス(MDP)として、GANアーキテクチャ探索問題を定式化することである。
我々は,従来の政策によって生成されたサンプルを効率的に活用する,非政治的なGANアーキテクチャ探索アルゴリズムを利用する。
論文 参考訳(メタデータ) (2020-07-17T18:29:17Z) - Interpretable Neural Architecture Search via Bayesian Optimisation with
Weisfeiler-Lehman Kernels [17.945881805452288]
現在のニューラルアーキテクチャサーチ(NAS)戦略は、単一の優れたアーキテクチャを見つけることに集中している。
そこで我々は,Weisfeiler-Lehmanグラフカーネルとガウス過程サロゲートを組み合わせたNASに対するベイズ最適化手法を提案する。
提案手法は,有用なネットワーク特徴とそれに伴うネットワーク性能への影響を発見することによって,解釈可能性を実現する。
論文 参考訳(メタデータ) (2020-06-13T04:10:34Z) - A Semi-Supervised Assessor of Neural Architectures [157.76189339451565]
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-05-14T09:02:33Z) - Learning Architectures from an Extended Search Space for Language
Modeling [37.79977691127229]
ニューラルアーキテクチャサーチ(NAS)のセル内アーキテクチャとセル間アーキテクチャの両方を学ぶための一般的なアプローチを提案する。
繰り返しのニューラルネットワークモデリングでは、TBとWikiTextのデータに対して強力なベースラインをはるかに上回り、TBに新たな最先端技術が導入された。
学習したアーキテクチャは、他のシステムに優れた転送可能性を示す。
論文 参考訳(メタデータ) (2020-05-06T05:02:33Z) - Stage-Wise Neural Architecture Search [65.03109178056937]
ResNetやNASNetのような現代の畳み込みネットワークは、多くのコンピュータビジョンアプリケーションで最先端の結果を得た。
これらのネットワークは、同じ解像度で表現を操作するレイヤのセットであるステージで構成されている。
各ステージにおけるレイヤー数の増加はネットワークの予測能力を向上させることが示されている。
しかし、結果として得られるアーキテクチャは、浮動小数点演算、メモリ要求、推論時間の観点から計算的に高価になる。
論文 参考訳(メタデータ) (2020-04-23T14:16:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。