論文の概要: Meta-Learning of NAS for Few-shot Learning in Medical Image Applications
- arxiv url: http://arxiv.org/abs/2203.08951v1
- Date: Wed, 16 Mar 2022 21:21:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-18 14:10:17.073627
- Title: Meta-Learning of NAS for Few-shot Learning in Medical Image Applications
- Title(参考訳): 医用画像におけるファウショット学習のためのNASのメタラーニング
- Authors: Viet-Khoa Vo-Ho, Kashu Yamazaki, Hieu Hoang, Minh-Triet Tran, Ngan Le
- Abstract要約: ニューラルアーキテクチャサーチ(NAS)は医療画像の様々な応用を動機付けている。
NASは、大量の注釈付きデータ、かなりのリソース、事前定義されたタスクの可用性を必要とする。
分類,セグメンテーション,検出,再構成などの様々な応用を応用した医用画像におけるNASアプローチについて紹介する。
- 参考スコア(独自算出の注目度): 10.666687733540668
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning methods have been successful in solving tasks in machine
learning and have made breakthroughs in many sectors owing to their ability to
automatically extract features from unstructured data. However, their
performance relies on manual trial-and-error processes for selecting an
appropriate network architecture, hyperparameters for training, and
pre-/post-procedures. Even though it has been shown that network architecture
plays a critical role in learning feature representation feature from data and
the final performance, searching for the best network architecture is
computationally intensive and heavily relies on researchers' experience.
Automated machine learning (AutoML) and its advanced techniques i.e. Neural
Architecture Search (NAS) have been promoted to address those limitations. Not
only in general computer vision tasks, but NAS has also motivated various
applications in multiple areas including medical imaging. In medical imaging,
NAS has significant progress in improving the accuracy of image classification,
segmentation, reconstruction, and more. However, NAS requires the availability
of large annotated data, considerable computation resources, and pre-defined
tasks. To address such limitations, meta-learning has been adopted in the
scenarios of few-shot learning and multiple tasks. In this book chapter, we
first present a brief review of NAS by discussing well-known approaches in
search space, search strategy, and evaluation strategy. We then introduce
various NAS approaches in medical imaging with different applications such as
classification, segmentation, detection, reconstruction, etc. Meta-learning in
NAS for few-shot learning and multiple tasks is then explained. Finally, we
describe several open problems in NAS.
- Abstract(参考訳): ディープラーニングの手法は、機械学習の課題の解決に成功しており、非構造化データから機能を自動的に抽出する能力によって、多くの分野においてブレークスルーを遂げている。
しかしながら、それらのパフォーマンスは、適切なネットワークアーキテクチャ、トレーニングのためのハイパーパラメータ、および前/後プロデューサを選択するための手動の試行錯誤プロセスに依存している。
ネットワークアーキテクチャは、データと最終的なパフォーマンスから特徴表現機能を学ぶ上で重要な役割を果たすことが示されているが、最良のネットワークアーキテクチャの探索は計算量が多く、研究者の経験に大きく依存している。
機械学習(AutoML)とその高度な技術であるニューラルアーキテクチャサーチ(NAS)は、これらの制限に対処するために推進されている。
一般的なコンピュータビジョンタスクだけでなく、NASは医療画像を含む様々な分野で様々な応用を動機付けてきた。
医用画像では、nasは画像分類、セグメンテーション、再構成などの精度向上に有意な進歩を遂げている。
しかし、NASは大量の注釈付きデータ、かなりの計算資源、事前定義されたタスクの可用性を必要とする。
このような制限に対処するため、メタ学習は、数ショットの学習と複数のタスクのシナリオで採用されている。
本章では,探索空間,探索戦略,評価戦略においてよく知られたアプローチについて議論し,NASについて概説する。
次に, 分類, 分節化, 検出, 再構成など様々な応用を用いて, 医療画像におけるnasアプローチについて紹介する。
少数の学習と複数のタスクのためのnasのメタラーニングが説明される。
最後に,NASにおけるいくつかの問題について述べる。
関連論文リスト
- Fair Differentiable Neural Network Architecture Search for Long-Tailed Data with Self-Supervised Learning [0.0]
本稿では,NASの長期化データセットにおける探索・訓練性能の向上について検討する。
まず、NASに関する関連する研究と、長い尾を持つデータセットに対するディープラーニング手法について論じる。
次に、自己教師付き学習と公正な差別化可能なNASを統合したSSF-NASと呼ばれる既存の研究に焦点を当てる。
最後に,性能評価のためのCIFAR10-LTデータセットについて実験を行った。
論文 参考訳(メタデータ) (2024-06-19T12:39:02Z) - How Much Is Hidden in the NAS Benchmarks? Few-Shot Adaptation of a NAS
Predictor [22.87207410692821]
我々は,メタラーニングの豊富な分野から借用し,これらの手法のNASへの適用性について検討する。
我々のメタラーニングアプローチは、クロスバリデーション実験において優れた(あるいは一致した)性能を示すだけでなく、新しい検索空間とタスクへの外挿に成功した。
論文 参考訳(メタデータ) (2023-11-30T10:51:46Z) - Meta-prediction Model for Distillation-Aware NAS on Unseen Datasets [55.2118691522524]
Distillation-Aware Neural Architecture Search (DaNAS) は、最適な学生アーキテクチャを探すことを目的としている。
本稿では,あるアーキテクチャの最終的な性能をデータセット上で予測できる,蒸留対応のメタ精度予測モデルDaSSを提案する。
論文 参考訳(メタデータ) (2023-05-26T14:00:35Z) - NASiam: Efficient Representation Learning using Neural Architecture
Search for Siamese Networks [76.8112416450677]
シームズネットワークは、自己教師付き視覚表現学習(SSL)を実現するための最も傾向のある方法の1つである。
NASiamは、初めて微分可能なNASを使用して、多層パーセプトロンプロジェクタと予測器(エンコーダ/予測器ペア)を改善する新しいアプローチである。
NASiamは、小規模(CIFAR-10/CIFAR-100)と大規模(画像Net)画像分類データセットの両方で競合性能を達成し、わずか数GPU時間しかかからない。
論文 参考訳(メタデータ) (2023-01-31T19:48:37Z) - Neural Architecture Search for Dense Prediction Tasks in Computer Vision [74.9839082859151]
ディープラーニングは、ニューラルネットワークアーキテクチャエンジニアリングに対する需要の高まりにつながっている。
ニューラルネットワーク検索(NAS)は、手動ではなく、データ駆動方式でニューラルネットワークアーキテクチャを自動設計することを目的としている。
NASはコンピュータビジョンの幅広い問題に適用されている。
論文 参考訳(メタデータ) (2022-02-15T08:06:50Z) - HyperSegNAS: Bridging One-Shot Neural Architecture Search with 3D
Medical Image Segmentation using HyperNet [51.60655410423093]
医用画像セグメンテーションのためのワンショットニューラルアーキテクチャサーチ(NAS)を実現するためにHyperSegNASを導入する。
従来のSOTA(State-of-the-art)セグメンテーションネットワークと比較して,HyperSegNASの方がパフォーマンスが高く,直感的なアーキテクチャが得られることを示す。
本手法は,MSD (Messical Decathlon) 課題の公開データセットを用いて評価し,SOTAの性能評価を行う。
論文 参考訳(メタデータ) (2021-12-20T16:21:09Z) - Across-Task Neural Architecture Search via Meta Learning [1.225795556154044]
Adequate labeled data and expensive compute resources is the prequisites for the success of Neural Architecture search (NAS)
限られた計算リソースとデータを持つメタ学習シナリオにNASを適用するのは難しい。
本稿では、勾配に基づくメタラーニングとEAに基づくNASを組み合わせることで、タスク間ニューラルネットワーク探索(AT-NAS)を提案する。
論文 参考訳(メタデータ) (2021-10-12T09:07:33Z) - NAS-Bench-360: Benchmarking Diverse Tasks for Neural Architecture Search [18.9676056830197]
既存のニューラルアーキテクチャサーチ(NAS)ベンチマークとアルゴリズムは、よく研究されたタスクのパフォーマンスを優先している。
我々は、畳み込みニューラルネットワーク(CNN)のための最先端NAS手法を評価するベンチマークスイートであるNAS-Bench-360を提案する。
論文 参考訳(メタデータ) (2021-10-12T01:13:18Z) - TransNAS-Bench-101: Improving Transferability and Generalizability of
Cross-Task Neural Architecture Search [98.22779489340869]
本研究では、7つの視覚タスクにわたるネットワーク性能を含むベンチマークデータセットであるTransNAS-Bench-101を提案する。
セルレベルの検索空間とマクロレベルの検索空間という,基本的に異なるタイプの検索空間を探索する。
7つのタスクで7,352のバックボーンが評価され、詳細なトレーニング情報を備えた51,464のトレーニングモデルが提供される。
論文 参考訳(メタデータ) (2021-05-25T12:15:21Z) - A Comprehensive Survey on Hardware-Aware Neural Architecture Search [6.23453131728063]
ニューラルアーキテクチャ検索(NAS)メソッドは人気が高まっています。
NASはここ数年で広範囲に研究されている。
実世界の問題にNASを適用することは依然として大きな課題であり、広く実用的ではない。
人気が高まっている1つのソリューションは、実行遅延、エネルギー消費、メモリフットプリントなどを考慮して、NAS検索戦略で多目的最適化アルゴリズムを使用することである。
ハードウェア認識NAS(HW-NAS)と呼ばれるこの種のNASは、最も効率的なアーキテクチャの検索をより複雑にし、いくつかの質問を開く。
論文 参考訳(メタデータ) (2021-01-22T21:13:46Z) - NAS-Bench-201: Extending the Scope of Reproducible Neural Architecture
Search [55.12928953187342]
我々は,NAS-Bench-101:NAS-Bench-201の拡張を提案する。
NAS-Bench-201は固定探索空間を持ち、最新のNASアルゴリズムのほとんどすべてに統一されたベンチマークを提供する。
我々はNASアルゴリズムの新しい設計にインスピレーションを与えることができる微粒化損失や精度などの付加的な診断情報を提供する。
論文 参考訳(メタデータ) (2020-01-02T05:28:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。