論文の概要、ライセンス

# (参考訳) 胸部ctスキャンによるcovid-19検出のための効率的な多目的3dニューラルアーキテクチャ探索 [全文訳有]

Efficient Multi-objective Evolutionary 3D Neural Architecture Search for COVID-19 Detection with Chest CT Scans ( http://arxiv.org/abs/2101.10667v1 )

ライセンス: CC BY 4.0
Xin He, Shihao Wang, Guohao Ying, Jiyong Zhang, Xiaowen Chu(参考訳) 新型コロナウイルスのパンデミックは、何ヶ月も世界中で広がっています。 長いインキュベーション期間と高いテストコストのため、その拡散速度が低下していることを示す手がかりがないため、より高速なテスト方法が必要とされている。 本論文では、新型コロナウイルスの胸部CTスキャン分類のためのよく設計された検索空間に基づいて、3Dニューラルネットワークを自動的に検索できる、効率的な進化的マルチオブジェクトニューラルアーキテクチャサーチ(EMARS)フレームワークを提案する。 フレームワーク内では、重量共有戦略を使用して検索効率を大幅に改善し、8時間で検索プロセスを完了します。 また,探索過程の堅牢性向上に寄与する新たな目的,すなわち潜在的可能性も提案する。 精度、ポテンシャル、モデルサイズを目標に、ResNet3D101 (325.21 MB)、DenseNet3D121 (43.06 MB)、MC3\_18 (43.84 MB)の3つのベースライン人間設計モデルを上回る軽量モデル (3.39 MB) が見つかった。 さらに, 検索空間をよく設計したことにより, クラスアクティベーションマッピングアルゴリズムを全検索モデルに容易に組み込むことができ, 病変領域の特定のためにモデルに基づいて判断を可視化することにより, 診断の解釈性を提供することができる。

COVID-19 pandemic has spread globally for months. Due to its long incubation period and high testing cost, there is no clue showing its spread speed is slowing down, and hence a faster testing method is in dire need. This paper proposes an efficient Evolutionary Multi-objective neural ARchitecture Search (EMARS) framework, which can automatically search for 3D neural architectures based on a well-designed search space for COVID-19 chest CT scan classification. Within the framework, we use weight sharing strategy to significantly improve the search efficiency and finish the search process in 8 hours. We also propose a new objective, namely potential, which is of benefit to improve the search process's robustness. With the objectives of accuracy, potential, and model size, we find a lightweight model (3.39 MB), which outperforms three baseline human-designed models, i.e., ResNet3D101 (325.21 MB), DenseNet3D121 (43.06 MB), and MC3\_18 (43.84 MB). Besides, our well-designed search space enables the class activation mapping algorithm to be easily embedded into all searched models, which can provide the interpretability for medical diagnosis by visualizing the judgment based on the models to locate the lesion areas.
公開日: Tue, 26 Jan 2021 09:52:42 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
1 2 0 2 n a J 6 2 ] V I . 1 2 0 2 n a j 6 2 ] v i である。 0.82
s s e e [ 1 v 7 6 6 0 1 . s s e e e [ 1 v 7 6 6 0 1 ] である。 0.76
1 0 1 2 : v i X r a 1 0 1 2 : v i X r a 0.85
Efficient Multi-objective Evolutionary 3D Neural Search COVID-19 Detection with for Architecture Chest CT Scans Shihao Wang∗, Guohao Ying†, Xin He∗, Chu∗§ Zhang‡ Jiyong ∗Department Baptist University, Hong Kong, Science, Hong Kong of Computer {csxinhe,shwang,chxw}@comp.hkbu.edu.hk Email: †Viterbi CA, USA California, School Southern of Engineering, University of ‡School of Automation, Hangzhou Dianzi University, Hang Zhou, China 効率的な多目的進化型3Dニューラルサーチ COVID-19 Detection with for Architecture Chest CT Scans Shihao Wang∗, Guohao Ying', Xin He∗, Chu∗' Zhang' Jiyong ∗Department Baptist University, Hong Kong, Science, Hong Kong of Computer {csxinhe,shwang,chxw}@comp.hkbu.edu.hk Email: シュビテルビCA, USA California, School Southern of Engineering, シュチョール・オブ・オートメーション, Hangshu Dianzi University, China, Hang Zhou 0.93
and Xiaowen そしてXiaowen 0.55
China Email: gying@usc.edu jzhang@hdu.edu.cn 中国 gying@usc.edu jzhang@hdu.edu.cn 0.74
1 the spread and high is slowing neural 1 はあ? 広がり ハイは神経を減速させ 0.62
for has pandemic Abstract—COVID-19 globally to months. 新型コロナウイルス(COVID-19)は全世界で数カ月に及んでいる。 0.30
Due period incubation its long cost, testing its clue spread is speed showing there no and down, testing method is hence faster a in dire need. 周期的インキュベーションの長いコストのため、その手掛かりの広がりは速度の低下を示すことであり、テスト手法は不必要な場合よりも高速である。 0.69
This paper proposes Multi-objective an efficient Evolutionary ARchitecture search for framework, which can automatically Search (EMARS) for 3D neural architectures based on a well-designed search space framework, the chest CT COVID-19 classification. 本稿では,よく設計された検索空間フレームワークである胸部CT COVID-19分類に基づいて,3次元ニューラルアーキテクチャの自動探索(EMARS)が可能な多目的効率的な進化的ARchitecture Search for frameworkを提案する。 0.78
Within scan sharing we use weight search improve the to strategy significantly efficiency and finish hours. スキャン共有では、ウェイト検索を使用して、戦略の効率と終了時間を大幅に改善します。 0.56
We also 8 search the in process is which potential, namely objective, new propose of benefit a objectives the process’s the improve to search robustness. 我々はまた、プロセスの潜在的な、すなわち客観的な、新しい利益の提案は、プロセスの堅牢性を検索するための改善の目的である8つのプロセスを検索します。
訳抜け防止モード: 8つのプロセス、つまり目的の可能性を検索します。 新たな提案であるbetter a objectivesは、検索の堅牢性を改善するためのプロセスだ。
0.73
With we and of accuracy, potential, model size, find a lightweight which model (3.39 MB), baseline humanoutperforms three designed models, i.e., ResNet3D101 (325.21 MB), DenseNet3D121 our well-designed 18 and MC3 (43.06 MB), (43.84 MB). 私たちと精度、ポテンシャル、モデルサイズ、軽量なモデル(3.39 MB)を見つけ、ベースラインのヒューマンアウトフォームは、ResNet3D101(325.21 MB)、DenseNet3D121(43.06 MB)、MC3(43.84 MB)の3つの設計モデルに匹敵する。 0.71
Besides, algorithm to be activation mapping enables search space the class searched models, which all embedded easily provide into can the for medical diagnosis by the interpretability visualizing judgment the models based on to locate areas. さらに、アクティベーションマッピングのアルゴリズムにより、クラス検索されたモデルが検索空間となり、そのモデルに基づく解釈性判定により、すべての組み込みが容易に医療診断の缶に入れられます。 0.79
lesion Index Terms—COVID-19, Evolutionary Algorithm, Neural Architecture Search, Multi-objective I. lesion Index Terms —COVID-19, Evolutionary Algorithm, Neural Architecture Search, Multi-objective I。 0.79
INTRODUCTION T EN months starts, COVID-19 is the global pandemic after the world. 新型コロナウイルス(covid-19)は世界に続く世界的なパンデミックだ。 0.56
in countries significant still a problem for most period making trace it hard to Besides the 14-days incubation diagnosis is also hard to and guarantee the accurate patients, is methods used widely most of One perform. 14日間のインキュベーション診断の他に、正確な患者を確実に保証することが困難である国では、ほとんどの期間において大きな問題となっている。
訳抜け防止モード: 国では、ほとんどの期間が問題であり、追跡が困難です 14日間のインキュベーション診断に加えて、正確な患者を保証することも困難である。 最も広く使われているメソッドです。
0.74
testing to the chain reaction (RT-PCR) transcription-polyme rase use reverse [1] for viral testing; however, it is relatively slow, expensive, and requires professionals, reagents, and exceptional devices many diagnosis, COVID-19 rapid facilitate perform. 連鎖反応(RT-PCR)転写-ポリメラーゼに対する試験は、ウイルス検査にリバース[1]を使用するが、比較的遅く、高価であり、プロ、試薬、および多くの診断、COVID-19の急速な効果を必要とする。 0.74
to To accelerate COVID-19 attempt researchers diagnosis by deep to learning (DL) techniques. 深層学習(DL)技術による研究者の診断を加速させる。 0.68
However, most of the proposed models are designed manually, the designer’s which requires situation expertise. しかし、提案されたモデルのほとんどは手動で設計されており、設計者は状況の専門知識を必要とする。 0.67
This experience abundant hinders high and At diagnosis. この経験は、高い診断と診断を妨げます。 0.66
COVID-19 for DL generalization the the of perform well same time, an excellent neural network needs to on multiple metrics (e g , precision and sensitivity) before §Corresponding author. DLの一般化のためのCOVID-19は、優れたニューラルネットワークが、著者に応答する前に複数のメトリクス(例えば、精度、感度)に取り組む必要がある。
訳抜け防止モード: covid-19 for dl generalization the the of perform well same time, an excellent neural network must to on multiple metrics (例) 正確さと感度) 対応する著者の前に。
0.83
optimization in However, diagnosis. 最適化 しかし、診断はできない。 0.63
applying disease actual to it practice, the optimal find to can no expert human guarantee neural architecture. 現実の病気をitプラクティスに適用すると、専門家が神経アーキテクチャを保証できないのが最適です。 0.65
efficient evolutionary an This paper proposes multisearch architecture objective neural (EMARS) method, which COVIDfor networks neural 3D search can automatically achieve 19 detection. 本稿では,ニューラル3Dサーチが自動的に19個の検出を達成できるマルチサーチアーキテクチャ目的ニューラル(EMARS)手法を提案する。 0.71
Our method can on 89.74% sensitivity significantly Clean-CC-CCII dataset [2], which is higher than the average sensitivity of antigen tests (56.2%) similar to [3], average radiologist’s (92%) by Chest CT sensitivity diagnosis sensitivity than worse and average [4], only slightly of RTPCR (95.2%) [3]. 本手法は,Chest CT感度診断感度が,[3]に類似した抗原検査の平均感度 (56.2%) よりも高い89.74%の感度で, RTPCR (95.2%) よりわずかに低い [4] で, [3]に類似した平均感度 (92%) で, 89.74%の感度で検出できる。 0.87
technique The neural architecture search (NAS) is a feasible process and solution and accelerate automate promising the to studies have experimentally many model designing, as of NAS-designed outperform demonstrated that models handcrafted models. 技術 ニューラルネットワークアーキテクチャサーチ(NAS)は実現可能なプロセスとソリューションであり、実験的に多くのモデル設計を約束するTo研究の自動化を加速します。
訳抜け防止モード: 技術 ニューラルネットワークサーチ(NAS)は実現可能なプロセスとソリューションである 研究には実験的なモデルデザインが 数多くあります NAS - 設計上、手作りのモデルであることが実証された。
0.78
There are mainly four classes of NAS meth[5]–[8], (RL)-based methods learning reinforcement ods: gra[9]–[11], surrogate model(GD)-based methods dient descent based optimization (SMBO) methods and evolutionary [12], algorithm (EA)-based methods studies [13]–[19]. NASのmeth[5]–[8]、(RL)ベースのメソッドの補強のodsを学ぶ4つのクラスがあります:gra[9]–[11]、サーロゲートモデル(GD)ベースの方法ダイレント降下ベースの最適化(SMBO)方法と進化的[12]、アルゴリズム(EA)ベースの方法の研究[13]–[19]。 0.71
Many early higher achieve architectures neural searching focus that for on performance classification accuracy), regardless of the (e g , model and resource consumption size. 多くの早い段階は(例えば、モデルおよび資源の消費のサイズにもかかわらず性能の分類の正確さに、焦点を合わせるアーキテクチャのニューラルネットワークの検索を達成します。 0.69
For example, Zoph et al. 例えば、Zoph et al。 0.63
[5] were the first RL-based NAS methods to propose state-of-the-art outperforming found models successfully and 800 GPUs took they designed models, while (SOTA) manually days for and 22,400 GPU which is unacceptable searching, small for individuals and companies. [5]は、最先端の発見モデルを提案する最初のRLベースのNAS手法であり、800のGPUがモデルの設計に成功し、SOTAは手動で数日、22,400のGPUは、個人や企業にとって小さい。 0.70
The following GDbased methods, such as DARTS [9], significantly improve the tends DARTS [10], in stated as However, efficiency. DARTS [9]のような以下のGDベースの方法は、DARTS [10]の傾向を大幅に改善します。
訳抜け防止モード: DARTS [9 ] のような次の GD ベースの手法は DARTS [10 ] の傾向を大幅に改善する。 in stated as however, efficiency.
0.89
search the simpler to select operations (e g , in the skip-connect) resulting later stage the search, in a lack of diversity in of the searched models. より単純な選択操作(スキップ接続など)を検索すると、検索されたモデルの多様性が欠如し、後続の検索が行われる。 0.72
Although the EA-based methods can introduces find optima local escape promising models, and it EA-based The stage. EAベースのメソッドは、検索オプティマローカルエスケープ有望なモデルを導入できますが、EAベースのステージです。 0.66
randomness during the search methods have a huge requirement of computational resources and time, as typical EA-based NAS methods generally need to the their obtaining before epochs several for individual each train サーチ中のランダム性は計算資源と時間に大きな要件を持ち、典型的なeaベースのnas法は、各列車ごとにエポック前の取得を必要とする。 0.73
英語(論文から抽出)日本語訳スコア
validation results. Evolutionary Multi-objective In this paper, we propose an resolve framework (EMARS) Search ARchitecture neural to search studies previous NAS issues. 検証結果。 本論文では,従来のNAS問題を探索するための解決フレームワーク (EMARS) 探索アーキテクチャニューラルネットワークを提案する。 0.66
Many inherent the above number fixed searched cell to only one cell and repeat a of [20], construct the final model. 上記の数に固定された細胞を1つの細胞のみに内在し、[20] の a を繰り返して最終モデルを構築するものが多い。 0.65
[8], our search Inspired by multiple space is factorized into searchable cells and blocks diversity the model therefore, Fig. 8] 複数の空間にインスパイアされた検索は、検索可能なセルに分解され、モデルの多様性をブロックします。 0.65
(shown in work our 1); in the mobile use is guaranteed. (仕事で私達の1);移動式使用で保証されます。 0.68
Besides, we inverted bottleneck convolution (MBConv) as the candidate operations. また、ボトルネック畳み込み(MBConv)を候補業務としました。 0.52
MBConv requires computation than standard convolution modules less perimproving model demonstrated been and in effective has child indicate individuals architectures formance. mbconvは、標準的な畳み込みモジュールよりも計算を必要とするが、実証された改善モデルが少なく、効果的に、子供が個々のアーキテクチャのフォルマンスを示す。
訳抜け防止モード: MBConvは標準的な畳み込みモジュールよりも計算を必要とする。 効果的に 子どもは個々の建築を フォーマンスに示します
0.61
In EMARS, derived in the same initialized at beginning of SuperNet the the algorithm. EMARSでは、SuperNetの開始時にアルゴリズムを初期化しました。 0.71
In all individuals share the weights other words, significantly can other, each among SuperNet of which the efficiency the improve algorithm. すべての個人が他の単語を共有し、それぞれが改善アルゴリズムの効率を向上するSuperNetの中で、著しく異なることができる。 0.72
evolutionary of our The search process of 100 epochs can be finished in about hours 8 using 4 Nvidia Tesla V100 GPUs. 私たちの100エポックの検索プロセスの進化は、4つのnvidia tesla v100 gpuを使用して約8時間で完了できます。
訳抜け防止モード: 100エポックの探索プロセスの進化は、およそ8時間で完了する。 4つのNvidia Tesla V100 GPUを使用する。
0.78
[11], [8], NAS multi-objective Many [18], methods [19] only size and model considered accuracy objectives. [11], [8], nas multi-objective many [18], methods [19] 精度目標を考慮したサイズとモデルのみ。 0.84
as In this potential, objective, new work, we introduce a namely into the NSGA-III algorithm [21]. このポテンシャル、客観的、新しい仕事において、NSGA-IIIアルゴリズム[21]に名前を導入します。 0.69
We experimentally demonstrated robustness improve to benefit great that the is potential of to EMARS search process of the applying publicly by three available COVID-19 CT scan datasets (Clean-CC-CCII [22], MosMedData [23], and Covid-CTset [24]). 以上の結果から, 新型コロナウイルスCTスキャンデータセット(Clean-CC-CCII [22], MosMedData [23], Covid-CTset [24])を公開して, EMARS 検索プロセスに適用する可能性を示すことができた。 0.69
According to the series find experimental effectively can EMARS of a results, baseline models accuracy neural architectures with than higher 18 [25]), (ResNet3D101 [25], DenseNet3D121 [26], and MC3 architectures searched and these cover a wide over range the medical diagnoses generally model size. このシリーズによると、実験結果のEMARSが有効であり、ベースラインモデル精度は18 [25]、(ResNet3D101 [25]、DenseNet3D121 [26]、およびMC3アーキテクチャが検索され、これらは一般的にモデルサイズを診断する医療の広い範囲をカバーしています。 0.71
Furthermore, the we so decision, the of require apply interpretability class EMARS algorithm [27] (CAM) mapping activation into our series models visualize the judgment of the model, which to can help doctors understand the chest CT scan while verifying the validity. さらに,本シリーズモデルへの解釈可能性クラスemarsアルゴリズム [27] (cam) マッピングの活性化を必要とするweso決定は,そのモデルの判断を視覚化し,有効性を検証しながら胸部ctスキャンを医師が理解できるようにする。 0.83
follows: as summarized contributions The of our work are into factorized which is 3D We 1) design a search space, increase and blocks multiple hence and cells searchable sharing the also We diversity. 以下にまとめる: 私たちの研究の成果は、1)検索スペースを設計し、複数の処理をブロックし、また、検索可能なセルもWeの多様性を共有します。 0.71
weight use the model efficiency. 重量はモデルの効率を使います 0.78
significantly search strategy, which improves finished in The search process of 100 epochs can be hours. 100エポックの検索処理の完了を改善する検索戦略は、時間を要する可能性がある。 0.76
about 8 namely framework, NAS an propose We EA-based we can EMARS, which is capable of scalability, i.e., for opeasily apply multiple objectives into EMARS objective, timization. 約8つのフレームワーク、すなわちNASが提案するWe EAベースのEMARSは拡張性、すなわち複数の目的をEMARSの目的、最適化に適用できる。 0.59
Specifically, we introduce a new potential, effective prove experimentally and called it robustness the of the to improve search process. 具体的には、実験的に有効な新しいポテンシャルを導入し、探索プロセスを改善するための堅牢性と呼ぶ。 0.76
With the proposed search and EMARS, we find space a series of neural architectures, all of which outperform size. 提案された探索とEMARSにより、空間には一連の神経アーキテクチャがあり、これらすべてがサイズを上回っている。 0.60
smaller mode a much baseline models with three space, average a global In our search pooling layer is the fully inserted before connected layer; therefore, the class activation mapping (CAM) [27] algorithm can be can which models, searched our into embedded easily より小さいモード 3 つの空間を持つ多くのベースラインモデル 検索プール層のグローバルは、接続層の前に完全に挿入されているため、クラスアクティベーションマッピング (cam) [27] アルゴリズムは、どのモデルが組み込まれているかを簡単に検索できる。 0.84
2) 3) 4) 2 2) 3) 4) 2 0.85
the areas lesion はあ? 地域 lesion 0.63
discriminative discriminative~ 0.73
locate doctors help images. 医師が画像を見つけるのを手伝う 0.61
scan CT as follows. CTをスキャンします。 0.66
organized is the of rest The paper Section III introduces work. 整理はrestのセクションiiiで作業を紹介します。 0.57
related the II Section describes the architectures. 関連するIIセクションは、アーキテクチャを説明します。 0.65
3D neural search space for building Section including the algorithm, IV illustrates our search warm-up, processes. アルゴリズムを含むビルディングセクションのための3dニューラルネットワーク検索スペース ivは、検索ウォームアッププロセスを示します。 0.68
We and mutation selection, crossover, introduce the V, in implementations experimental and and Section present in the analyze results Section VI. We and mutation selection, crossover, introduce the V, in implementation experimental and section present in the analysis results Section VI。 0.77
Section VII concludes the paper and proposes future research directions. 第VII節は論文を締めくくり、今後の研究の方向性を提案する。 0.53
the on the はあ? オン はあ? 0.45
II. RELATED WORK A. II。 関連作業 A。 0.69
DL-Based COVID-19 Detection DL has power, growth of computational With the rapid X-ray or of assist way popular a become diagnosis the to available publicly amount of The growing images CT [28]. DL-based COVID-19 Detection DLには、高速なX線や補助方法によって、成長する画像CT[28]の公開量の診断が普及する。
訳抜け防止モード: DL-based COVID-19 Detection DL has power, growth of computer with the rapid X-ray あるいは、画像CT[28 ]の公開量の診断が一般的になるように支援する方法。
0.84
to imresearches aspects also facilitates different datasets in For COVIDtasks. to imresearchesアスペクトは、For COVIDtasksのさまざまなデータセットを容易にします。 0.53
plement deep neural networks on different and images are data, kinds 19, two there CT which of are between CT images. 異なったおよびイメージのplementの深いニューラルネットワークはデータです、タイプ19、そのうちのCTイメージ間の2つのそこにCTです。 0.75
X-ray The difference and X-ray is CT is a 3D format, which contains the textural information of a part of the human body composed of many slices body cross of overlapping contains format is X-ray images. X線 相違およびX線はCTです重複の多くのスライスのボディ十字で構成される人体の部分のテキスト情報を含んでいる3DフォーマットはX線イメージを含んでいます。 0.77
sections 2D a are There human of information textual body. セクション2D aは、人間の情報文体である。 0.82
several the datasets researches using deep learning on X-ray [29]–[31]. X線[29]-[31]の深層学習を用いたいくつかのデータセットの研究。 0.74
Ghoshal et [29] achieved 88.39% accuracy on their X-ray al. Ghoshal et [29]はX線で88.39%の精度を達成した。 0.69
dataset using the DL model. DLモデルを使用したデータセット。 0.71
While Narin et al. [31] achieved using Experiments dataset. ナリンらと。 Experimentsデータセットで達成した[31]。 0.57
smaller X-ray a on 98% accuracy X-rays. X線は98%の精度で小さい。 0.59
datasets compared with CT are more There popular are kinds of CT datasets, 2D and 3D, for deep two used learning classification for COVID-19. CTと比較したデータセット 一般的なのは、COVID-19の深部で使われている2つの学習分類のための2Dと3DのCTデータセットだ。 0.65
According to [32], most from a slice representative a focus studies existing of single on [33]–[37]. 32] によると、スライス代表からはほとんどが [33]–[37] の単数の研究に焦点を合わせている。 0.67
However, volume for COVID-19 CT scan detection since 3D volumes contains more information, which is CT’s advantage by design, more experiments choose 3D CT to use [22]–[24], segmentation and classification volume tasks do to in which Zheng et [38], et [39], al. しかし、3Dボリュームにはより多くの情報が含まれているため、3Dボリュームは設計によるCTの利点であり、より多くの実験では[22]–[24]を使用するために3DCTを選択し、セグメンテーションと分類ボリュームタスクは、Zheng et [38]、et [39]、al。 0.70
[38], Li al. 38], Li al. 0.59
[39], Morozov et al. [39], Morozov et al. 0.76
al. [23], Zhang et [22] designed 3D convolutional networks 3D CT to analyze volumes. アル 23], zhangら [22] は体積分析のために3次元畳み込みネットワークを3dctで設計した。 0.53
B. Search Neural Architecture interest in the NAS technique, growing Recently, there is a humanoutperformed and areas to many applied been has as it of studies the Arguably, [5], [7] designed [41]. B。 ニューラルアーキテクチャのNAS技術への関心が高まり、近年は人為的アウトパフォーマンスが高まり、多くの応用分野が、[5], [7] 設計[41] 研究の場として存在している。
訳抜け防止モード: B。 nas技術に興味のある検索ニューラルアーキテクチャ 最近成長して 人間の能力に欠ける部分があり、多くの応用分野が研究の対象であることは間違いない。 [ 5 ], [ 7 ] designed [ 41 ] .
0.77
models [40], as they demonstrated that RLthe of mark beginning NAS, effectively discover good architecbased NAS methods could the search process by adopting tures. モデル[40]は、マーク開始NASのRLが、優れた考古学的NAS手法を効果的に発見できることを実証した。
訳抜け防止モード: モデル [ 40 ], 彼らは RLthe のマーク開始 NAS を実証しました。 優れたアーキテクトベースのNASメソッドを効果的に発見することで、検索プロセスを改善できます。
0.70
ENAS [6] accelerates architectures child which strategy, parameter-sharing a in all super-net; of regarded enables as a this these are sub-graph parameters, architectures share obviating the need train to to each child model from scratch. ENAS[6]は、どの戦略、パラメータ共有をすべてのスーパーネットで行うかのチャイルドを加速します。
訳抜け防止モード: enas [6 ] は、どの戦略、パラメーター - all super-net で a を共有すること。 これは、サブ-グラフパラメーターである。 アーキテクチャは、スクラッチから各子モデルへのトレーニングの必要性を分かち合う。
0.59
Besides RL-based methods, improve also proposed to further improved methods several are efficiency. RLベースの方法に加えて、いくつかの効率性がさらに改善された方法にも改善が提案されている。 0.46
NAS SMBO evaluate the models with the methods searched surrogate function instead of metrics from trained architectures [12] al. NAS SMBOは、訓練を受けたアーキテクチャのメトリクスの代わりにサーロゲート関数を検索した方法でモデルを評価します[12] al。 0.58
et Liu Furthermore, time. とLiuさらに、時間。 0.60
search the shorten thus and こうしてショートを検索し 0.61
英語(論文から抽出)日本語訳スコア
3 The space. search our Overview of Fig. 3 空間。 図の概要を検索します。 0.69
order 1. one-hot each and as decoded be will sequence a blocks. order 1. one-hot each and as decoded be will sequence a block。 0.89
The stem layer, of composed is final model a viewed in color. 構成された茎層は、色で見る最終モデルである。 0.73
of model corresponding fixed a モデルに対応する固定 a の 0.78
one-hot top. from bottom to is construction contains α Each (red). ワンホットトップ。 下から下まで、構築物はαそれぞれ(赤)を含む。 0.64
module cell comprises (yellow) a the number of cells, global average pooling (GAP) モジュールセルは、(黄色)セル数、グローバル平均プーリング(GAP)から構成されます。 0.78
blocks searchable all of sequences (blue), number and block a different of calibration (FC) fully connected layer. すべてのシーケンス(青)、番号をブロックし、完全に接続されたキャリブレーション(FC)の異なる層をブロックします。 0.77
Best a layer, and and レイヤーを最高に。 そして 0.66
search, the their used guide surrogate model to learned a the RL-based method times more is than efficient five method [7]. 捜索だ RLに基づく手法を学習するのに使用するガイドサロゲートモデルは、効率のよい5つの手法[7]以上です。 0.66
propose the GD-based first [9] were et Liu al. GD ベースの first [9] の提案は Liu al である。 0.77
one of the to function softmax the which DARTS, namely method, uses significantly improve discrete search the relax space and to to Liang et al. dartが使用するto関数softmaxの1つ、すなわちメソッドは、リラクゼーション空間の離散検索とliangらへの検索を大幅に改善する。 0.66
[10], the search efficiency. [10]検索効率です。 0.62
But according observed to collapse, the performance of DARTS is often the select to tends DARTS as skip(e g , simpler operations result search, which may connect) the later stage of the in in a lack of diversity in the searched models. しかし、崩壊を観察すると、DARTSのパフォーマンスはしばしばスキップ(例えば、単純な操作結果検索、接続するかもしれない)としてDARTSが検索されたモデルの多様性の欠如のインの後半である傾向があります。 0.67
Evolutionary algorithm (EA) is inspired by biological evoluevolved from a is individual) (also known as tion. 進化的アルゴリズム(Evolutionary algorithm, EA)は、生物の進化にインスパイアされる(イオンとも呼ばれる)。 0.72
A new model selection, crossover previous model with operations including methods and The early EA-based are computatemutation. 新しいモデル選択、メソッドを含む操作によるクロスオーバー以前のモデル、および初期のEAベースは計算変異である。 0.71
intensive, [16] took 450 GPUs and 3,150 AmoebaNet e g , improves days GPU significantly [17] CARS searching. 16]は450 GPUと3,150 AmoebaNet e gを取り、GPUの日数を大幅に改善しました [17] CARS検索。 0.78
for sharing strategy search efficiency by introducing the weight the algorithm. アルゴリズムの重み付けの導入による戦略探索効率の共有。 0.76
MoreNAS evolutionary into the RL [18] combines promising and EA for multi-objective to obtain architecture optimal. MoreNASのRL [18]への進化は、マルチオブジェクトのための有望性とEAを組み合わせ、アーキテクチャを最適にします。 0.58
LemonadeNAS network by function, [42] encodes and morphism network from generated be can network each operators. LemonadeNAS network by function, [42] encodes and morphism network from generated be can network each operator。 0.79
C. Neural Multi-objective Search the of terms target multi-objective In will be the and hard to weigh different objectives. C。 Neural Multi-objective Search 用語のターゲットマルチオブジェクトInは、異なる目的の計量が難しくなります。 0.82
Some complex, existing to try reduce multi-objective methods single-objective. 複数目的メソッドを単一目的に減らすために存在する複雑なもの。 0.56
For a by single example, MONAS 例を挙げると モナスは 0.49
Architecture tasks, to アーキテクチャのタスクは 0.59
multi-objective maps [19] 多対象 地図 [19] 0.70
to Since it’s to lead may but linear suboptimal. へ リードするが、線形の準最適である。 0.56
combination, it optimal target, the one for single tricky network to all surpass preferred. 組み合わせ、最適なターゲット、単一のトリッキーネットワークのためのもの、すべてが望ましいもの。 0.70
Yant are architectures satisfied with the Pareto front on NSGA-III based et al. YantはNSGA-IIIベースのParetoフロントに満足しているアーキテクチャです。 0.66
[17] introduced an improved method with architectures pNSGA, namely [21], achieve optimal to most NAS multi-objective multi-objective. 17] アーキテクチャ pNSGA、すなわち [21] で改良された手法を導入し、ほとんどの NAS マルチオブジェクトマルチオブジェクトに最適を達成した。 0.80
Besides, methods [19] only considered accuracy and model [8], [11], [18], size as objectives. さらに、メソッド [19] は精度とモデル [8], [11], [18] のみを目的として考慮した。 0.79
In this paper, we propose new objective, namely a is potential, robustness the improve to benefit great of which search of the process. 本論文では,プロセス探索のメリットを最大化するための新たな目的,すなわち a is potential, robustness を提案する。 0.73
III. SPACE SEARCH enhance to benefit great space search A well-designed is of final model performance. III。 space search enhance to benefit great space search well-designed is of final model performance (英語) 0.75
The search cell-based traditional the several structure the problems: 1) cell is has space [6], [9] reference inefficient for is a non-regularized combination as it constructed is final model 2) operations; candidate of the by this diversity. 1) セルは空間 [6] を持ち、[9] 参照非効率は非正規化された組み合わせであり、構築されるのは最終モデル 2) 操作である。
訳抜け防止モード: 探索セル - 従来のいくつかの構造に基づく: 1 ) セルは空間 [6 ] を持つ。 [9 ]参照非効率は非正規化の組み合わせである。 建築 は final model 2 ) operations ; candidate of the by this diversity である。
0.86
To lacking end, repeating the searched cell, thus each we adopt the idea that is factorizing network into cells and blocks [8], as shown in Fig. 検索されたセルを繰り返すことによって,ネットワークをセルに分解し,[8]をブロックするという考え方が,Figで示されている。 0.75
1. The details of our search follows. 1. 検索の詳細は以下の通り。 0.77
as introduced are space A. 紹介された空間は A。 0.71
Block Each block is a searchable module, which can be selected candidate number predefined from a of To operations. ブロック 各ブロックは探索可能なモジュールであり、操作のaから予め定義された候補番号が選択できる。 0.80
find a and high-quality lightweight 3D model for COVID-19 detection, we add series of mobile inverted a bottleneck convolution (MBConv) [20] into the candidate operation set. 新型コロナウイルスの検出のための高品質軽量3Dモデルを見つけ、一連のモバイル反転ボトルネック畳み込み(MBConv)[20]を候補操作セットに追加します。 0.66
As shown in MBConvk 2, Fig. MBConvk 2に示すように、図。 0.81
3D a 1) sub-modules: three comprises e 3D a 1) サブモジュール: 3 は e を含む 0.79
OutputGAPInputStemCe ll 1...Cell NCalibrationBlock1-1 ...Block1-B1MBConv3_ 3MBConv7_3Calibratio nBlockN-1...BlockN-B NIdentityMBConv5_4Ca ndidate operations[1 0 0 0 0 0][0 1 0 0 0 0][0 0 0 0 0 1][0 0 1 0 0 0].........Individual architecture encoding α...FCdecode 出力GAPInputStemCell 1...Cell NCalibrationBlock1-1 ...Block1-B1MBConv3_ 3MBConv7_3Calibratio nBlockN-1...BlockN-B NIdentityMBConv5_4Ca ndidate操作[1 0 0 0 0 0 0 0][0 0 0 0 0 0 0 0 0][0 0 0 0 0 0 0 0]......個々のアーキテクチャはα...FCdecodeをコードします。 0.65
英語(論文から抽出)日本語訳スコア
4 F, N, B, we fix work, this cell. 4 F、N、B、私達は仕事、この細胞を修理します。 0.77
for In each = [S1, S ..., SN ] and can be network the during thus stage; search the S N regarded cell possible all to constrained as a SuperNet convolutional a layer the Besides, structures. それぞれの = [S1, S ..., SN ] に対してネットワーク化が可能で、S N のセルを検索すれば、すべてのセルが SuperNet の畳み込み層として制約を受けることができる。 0.64
fixed is stem average The input. 固定は入力のstem平均である。 0.78
the process to operation global pooling (GAP) [45] is inserted before the fully connected (FC) layer; therefore, the network can handle variable input size. グローバルプーリング(GAP)[45]を動作させるプロセスは、完全に接続された(FC)層の前に挿入されるため、ネットワークは可変入力サイズを処理できる。 0.86
D. Weight-sharing probthe multi-objective solve Although EA can effectively it usuto solve, struggle lem that other optimization algorithms resources huge ally suffers from computational consumption by [13], inspired [6], [9], [17], we adopt [14], [42]. d. EAは効果的に解くことができますが、他の最適化アルゴリズムリソースは、巨大なアライアンが[13]、インスパイアされた[6]、[9]、[17]によって計算消費に苦しんでいることに苦労し、我々は[14]、[42]を採用します。
訳抜け防止モード: d. 重み - 確率の共有 目的の解決 EAは効果的に解決できますが、効果的に解決できます。 他の最適化アルゴリズムが 巨大な同盟国に 13 ], インスピレーション[6 ]による計算消費に苦しむ. [ 9 ], [ 17 ], we adopt [ 14 ], [ 42 ] .
0.79
Therefore, efficiency. improve strategy a weight-sharing to N (α) denoted architecture is sampled An individual by SuperNet N , where one-hot from the is a set of sequences α that encodes the individual architecture. したがって、効率。 戦略を改善する N (α) のウェイト共有アーキテクチャがサンプル化される SuperNet N による個人は、個々のアーキテクチャをエンコードするシーケンス α のセットである。 0.76
Each one-hot seFor operation. 各1ホットseFor操作。 0.66
candidate quence example, as decoded a is identity as decoded is 1, shown as Fig. 候補 quence の例は、decoded a が ID であるように decoded は Fig として示される 1 である。 0.71
in the [0, 0, 0, 0, 0, 1] the weights W (skip-connect) individuals share operation. 0, 0, 0, 0, 0, 1] では、ウェイト W (スキップコネクト) 個人は操作を共有します。 0.66
All of the SuperNet, and of the i-th individual are the weights by W(α). スーパーネットの全てと i 番目の個人は、W(α) による重みである。 0.67
denoted L(α) = H(N (α), X, Y ) where individual loss With of the H is data input the loss function, X is the label gradient W(α) can data, the individual be dW(α) = ∂L(α) ∂W weights W of is shared Since the the SuperNet of W can architectures, gradient the individual be accumulation individuals. L(α) = H(N(α), X, Y) と書くと、H の個人損失は損失関数のデータ入力であり、X はラベル勾配 W(α) のデータであり、各個人は dW(α) = ∂L(α) ∂W 重み W を共有する。
訳抜け防止モード: L(α ) = H(N (α ), X, Y ) 個人損失 H は損失関数を入力したデータです。 X はラベル勾配 W(α ) can data, the individual be dW(α ) = ∂L(α ) ∂W である。 重み W は共有される W のスーパーネットはアーキテクチャを可能にするので、個人は蓄積する個人になる。
0.84
all the of gradients of as P(cid:88) P(cid:88) dW(αi) = ∂L(αi) ∂W i=1 i=1 population. P(cid:88) P(cid:88) dW(αi) = ∂L(αi) ∂W i=1i=1 である。 0.82
authors [17], In a used the size the of is where P approximation unbiased architectures mini-batch to obtain an 3 Eq. 著者[17]: 使用サイズでは、P近似の非バイアスアーキテクチャが3Eqを得るためにミニバッチとなる。 0.68
as detailed 2, Eq. 詳細2のように、Eq。 0.75
to B(cid:88) dW(αi) i=1 mini-batch a of number individuals in works experiments, we find that = 1 B update W using from any the gradient population. to B(cid:88) dW(αi) i=1 mini-batch a of number individual in work experiment, we find that = 1 B update W using any the gradient population。 0.96
sampled from the the where is B our < P . サンプルは B は、私たちの < P です。 0.62
In B can fine, i.e., we sequentially individual Bでは罰金、すなわち、私たちは順番に個々に。 0.60
the and is calculated as 計算され 計算されます 0.67
among all calculated and just single 計算された中で たった一人 0.43
dW = dW ≈ 1 B dW = dWは? 1 B 0.73
1 P 1 P (3) (1) 1P 1P (3) (1) 0.80
(2) Y . (MBConv). (2) Y . (MBConv)。 0.84
example, 5×5, is convolution, indicates 例、5×5は畳み込みです。 0.70
bottleneck inverted mobile Structure Fig. ボトルネック反転モバイル構造図。 0.67
of 2. convolution and expand size two has MBConv hyperparameters: kernel ratio. 2. 畳み込みと展開サイズ 2 には mbconv hyperparameters: kernel ratio がある。 0.75
For 6 MBConv5 of the that indicates kernel size intermediate module the DWConv3D is 6. and the expand ratio indicates 3D depthwise C × D × H × W batch BN3D 3D normalization, and indicates shape height, width). カーネルサイズ中間モジュールを示す 6 MBConv5 の場合、DWConv3D は 6 であり、膨張比は深さ C × D × H × W バッチ BN3D 3D 正規化を示し、形状高さ、幅を示す。 0.81
depth, (channel, tensor input (1×1×1) number point-wise convolution, which increases the feature; of channels output of the times that of input feature e a 3D uses layer expansion intermediate 2) lightweight the k × k × k extract depthwise convolution with kernel size to 3D point-wise features and introduce non-linearity; 3) another (1×1×1) size feature convolution, which restores the output convolutional most MBConv, In size. depth, ( Channel, tensor input (1×1×1) number point-wise convolution, which increase the feature; of channel output of the times of input feature e a 3D using layer expansion intermediate 2) light the k × k × k extract depthwise convolution with kernel size to 3D point-wise features and introduce non-linearity; 3) もう1つの (1×1×1) size feature convolution。 0.89
input to feature the operations are followed by a 3D batch normalization and a ReLU6 activation function [43], and the last convolution has no ReLU6. 動作を特徴付ける入力は、3Dバッチ正規化とReLU6アクティベーション関数[43]で続き、最後の畳み込みはReLU6を持たない。 0.76
B. Cell is composed a of Each cell calibration block and a different searchable blocks. B。 セルは、各セルキャリブレーションブロックと異なる検索可能なブロックで構成されます。 0.77
number of The calibration block is a 3D 1 × 1 × 1 point-wise of problem the solve to convolution dimension mismatch; feature therefore, subsequent blocks all 1. キャリブレーションブロックの数は3D 1 × 1 × 1 の点数であり、畳み込み次元のミスマッチの解法である。 0.59
As shown have stride in 1, in our search space, the i-th Fig. 以下に示すように、検索の分野ではi-th Figが1番だ。 0.61
searchable cell blocks, and each block is also different. 検索可能なセルブロックと、各ブロックも異なります。 0.81
has Bi this Therefore, In diversity. したがって、多様性があります。 0.52
model enables paradigm design we experiments, following our empirically choose the set of candidate operations: • MBConv3 • MBConv3 • MBConv3 • MBConv5 Identity equivalent モデルは、実験するパラダイム設計を可能にし、我々が経験的に候補オペレーションのセットを選択します。 • mbconv3 • mbconv3 • mbconv3 • mbconv5 identity equivalent 0.60
MBConv5 MBConv7 MBConv7 Identity operation MBConv5 MBConv7 MBConv7 ID操作 0.69
3 4 6 3 indicates to connection skip the one reducing block. 3 4 6 3 は 接続は 1 の減少ブロックをスキップします。 0.61
[44], which • • • • [44] • • • • 0.67
4 3 4 is C. 4 3 4 は C。 0.78
Network in shown As several factors: stem layer, the ..., BN ] [B1, = B ネットワークの表示 以下のいくつかの要素: ステム層、..., BN ] [B1, = B 0.85
could network 1, Fig. ネットワーク1、図1。 0.62
the number structures, cell the the N, number of cells each of stride the and n番の細胞とn番の細胞は それぞれand番の細胞です 0.53
with specified be in filters the of F of blocks number block calibration 特定のbeのフィルタで、ブロック数ブロックキャリブレーションのf 0.71
SEARCH IV. search evolutionary Our composed is which [21], 1 steps. 四世。 検索進化 私たちの構成は[21]、1ステップです。 0.55
Alg. update and algorithm for evolutionary Alg 進化のための更新とアルゴリズム 0.65
ALGORITHM algorithm is based NSGA-III on mutation, selection, of crossover, summarizes the steps detailed our of architectures. ALGORITHMアルゴリズムはNSGA-IIIに基づくクロスオーバーの突然変異、選択、アーキテクチャの詳細なステップを要約する。 0.79
3D neural searching 3Dニューラルサーチ 0.72
Conv3D 1×1×1BN3D, ReLu6DWConv3D 5×5×5BN3D, ReLu6Conv3D 1×1×1BN3D, ReLu6+C×D×H×W6C×D×H×W6C×D×H×WC×D×H×WConv3D 1×1×1BN3D, ReLu6DWConv3D 3×3×3BN3D, ReLu6Conv3D 1×1×1BN3D, ReLu6+C×D×H×W3C×D×H×W3C×D×H×WC×D×H×WMBConv3_3MBConv5_6 Conv3D 1×1×1BN3D, ReLu6DWConv3D 5×5×5BN3D, ReLu6DWConv3D 1×1×1BN3D, ReLu6+C×D×W6C×D×H×W6C×D×H×WC×D×H×WConv3D 1×1BN3D, ReLu6DWConv3D 3×3BN3D, ReLu6Conv3D 1×1BN3D, ReLu6+C×D×H×W3C×H×W3C×D×W3C×H×WXD×WXWC×H×WC×WC×WC×5MB3D 0.24
英語(論文から抽出)日本語訳スコア
do Evolutionary 1: Algorithm Multi-objective Efficient Search Algorithm for Neural Architecture SuperNet weight W, SuperNet N , Input: population population A, selection size size K, P , probability pc, mutation probability crossover ...,TM}, T = {T1, pm, multi-objective loss function H, training set Dtrain, validation set Dval Output: individual population architectures of a {N (α1), ...,N (αP )} A(0) = {α(0) } ← Warm-up(N , ..., α(0) P ); , 1 P do for e=1:Eevolve for Mini-batch label data X, in Dtrain Y α(e−1) Select i-th individual encoding (i ← e mod P ); i architecture N (α(e−1) i-th individual Get i L = H(N (α(e−1) Calculate loss ), X, Y ); individual weight W(αi); i Update end // evolution Start Akeep ← SelectTopK(A(e−1), K,T , Dval); Anew ← {}; |Anew| < P − K do while p ←random probability; then if p < 0.5 (cid:54)= j) ← GenerateRandomIntege r(K); i, j (i α ← Crossover(Akeep[i],Akeep[j], pc); α ← Mutation(α, pm); else α ← RandomSamplingIndivi dual(); in Anew if not α Append α end population A(e) ← Akeep ∪ Anew; Update やれ 進化 1: Algorithm Multi-objective Efficient Search Algorithm for Neural Architecture SuperNet weight W, SuperNet N , Input: population population A, selection size size K, P , probability pc, mutation probability crossover ...,TM}, T = {T1, pm, multi-objective loss function H, training set Dtrain, validation set Dval Output: individual population architectures of a {N (α1), ...,N (αP )} A(0) = {α(0) } ← Warm-up(N , ..., α(0) P ); , 1 P do for e=1:Eevolve for Mini-batch label data X, in Dtrain Y α(e−1) Select i-th individual encoding (i ← e mod P ); i architecture N (α(e−1) i-th individual Get i L = H(N (α(e−1) Calculate loss ), X, Y ); individual weight W(αi); i Update end // evolution Start Akeep ← SelectTopK(A(e−1), K,T , Dval); Anew ← {}; |Anew| < P − K do while p ←random probability; then if p < 0.5 (cid:54)= j) ← GenerateRandomIntege r(K); i, j (i α ← Crossover(Akeep[i],Akeep[j], pc); α ← Mutation(α, pm); else α ← RandomSamplingIndivi dual(); in Anew if not α Append α end population A(e) ← Akeep ∪ Anew; Update 0.75
then to Anew; その後、Anewへ。 0.66
); 1 2 3 4 ); 1 2 3 4 0.71
5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 0.85
end A. stage Warm-up weights W are experiment, the SuperNet randomly In our evolve individuals; all among shared and if we initialized architectures beginning, set then the first of sampled from the architectures more training. 終わり A。 進化した個人の中で、全員が共有され、アーキテクチャの初期化が始まったら、アーキテクチャからサンプリングされた最初のものがよりトレーニングされるように設定します。
訳抜け防止モード: 終わり A。 stage warm - up weights w is experiment, the supernet in our evolve individual; all among shared そして、最初にアーキテクチャを初期化すれば、最初のものはアーキテクチャからより訓練されたものです。
0.72
In this case, these may can get in the later stage and compromise the search’s dominate adopt uniform sampling [46], we to [17], effectiveness. この場合、これらは後半段階に到達し、検索の優位性に一様サンプリング[46]を適用すれば、[17]の有効性を損なう可能性がある。 0.71
Similar the warm-up during all treat equally individual to architectures stage. すべての段階でのウォームアップは、アーキテクチャのステージと同等に扱われる。 0.46
experiments, all searchable selected In our blocks are from eight different operations, and each operation is sampled many stage, warm-up the 8. 実験、すべての検索可能な選択ブロックは8つの異なる操作からなり、各操作は多くのステージでサンプリングされ、8をウォームアップします。 0.68
After of probability with a 1 are individuals and trained, and the top bestsampled P performing individual architectures are collected as the initial population for evolution. 確率が1の後に個人と訓練を受け、個々のアーキテクチャを実行する最上位のサンプルpが進化の最初の集団として収集される。 0.69
Selection B. As Alg. 選択B。 alg所属。 0.65
1 A are equally top K Then, 1 A は等しく上の K である。 0.78
illustrates, individuals all batches for trained before individuals best-performing 個人は、個人が最善を尽くす前に訓練されたバッチを 0.48
from the population the selection step. 人口から選択する段階です 0.56
the for selected are 5 The evolution following steps. 選ばれたのは 5 進化の次のステップ。 0.79
selection process us allows to individuals while strong preserve eliminating weak The ones. 選択プロセスは、弱いものを強く保護しながら、個人に許可します。 0.62
used commonly most selection method is to select individuals [14], validation as their the based accuracy such fitness, on with concerned not [47]. 一般的な選択方法は,[47]ではなく,その適合性に基づく検証を行う個人[14]を選択する方法である。 0.69
Practically, we are only model as model accuracy, but also with other metrics such size. 実際には、モデル精度だけでなく、サイズなどの他のメトリクスもモデル化しています。 0.67
We use NSGA-III [21] to select promising individuals along the of multi-objective. NSGA-III[21]を用いて,多目的に沿った有望な個人を選定する。 0.62
Pareto front ..., N (αP )} {N (α1), population a as denote In practice, we ...,TM} {T1, T of individual architectures and as multi= the objective. Pareto front ..., N (αP )} {N (α1), population a as indicate In practice, we ...,TM} {T1, T of individual architectures and as multi= the objective。 0.85
We want to minimize number of architectures dominating some replacing by In them. Inで置き換えるアーキテクチャの数を最小限に抑えたいのです。 0.63
ones architecture with {N (α1), dominants N (αj) when N (αi) ...,N (αP )}, N (αi) than N (αj) are not worse each metrics of multi-objective. N (αi) ..., N (αP )} のとき、N (αj) が N (αj) よりも悪い場合、N (αj) が支配的となる。
訳抜け防止モード: N ( α1 ) ..., が N ( αi ) ..., であるとき、N ( αj ) が支配的となる。 N ( αP ) }, N ( αi ) は N ( αj ) よりも悪いわけではない。
0.82
in Formally: Tk(N (αi)) ≥ Tk(N (αj)) ..., M} ∀k ∈ {1, (4) Tk(N (αi))>Tk(N (αj)) ∃k ∈ {1, ..., M} guarantee N (αi) must above explanation, we From the can than N (αj) with others metric have better least one metric at can replace N (αj) with N (αi) and the least same. 形式的には、 Tk(N (αi)) ・ Tk(N (αj)) ・ M} ・ k ∈ {1, (4) Tk(N (αi))> Tk(N (αj))) ・ k ∈ {1, ..., M} 保証 N (αi) は上記の説明に従わなければならない。
訳抜け防止モード: 形式的には: Tk(N ( αi ) ) ≥ Tk(N ( αj ) ) ..., M } シュク ∈ { 1 ( 4 ) Tk(N ( αi))>Tk(N ( αj ) ) シュク ∈ { 1 ..., M } 保証 N ( αi ) は上記の説明をしなければならない。 We from the can than N ( αj ) with others metric have better one metric at N ( αj ) を N ( αi ) と置き換えることができる。
0.89
Thus, we at at increasing ensure measurement of the process evolution. 従って、私達は増加でプロセス進化の測定を保障します。 0.77
Most existing multi-objective NAS methods [11], [18], [8], [19] considered the accuracy and model size, which only relatively with models because Effect, Matthew cause may accuracy tend training higher achieve to more validation and thus are more likely to be trained, while other models may therefore lose the opportunity to compete. 既存の多くの多目的nasメソッド [11], [18], [8], [19] は精度とモデルサイズを検討したが、これは効果のためモデルと相対的にしか一致しないため、matthew cause は精度の高いトレーニングがより多くの検証に達成される傾向があるため、より訓練される可能性が高く、他のモデルは競合する機会を失う可能性がある。
訳抜け防止モード: ほとんどの既存の多目的NASメソッド [11 ], [18 ] [8 ],[19 ]は精度とモデルサイズを考慮した。 モデルと比べれば マシューの原因は、訓練がより達成され、より検証される傾向がある 訓練を受ける確率が高くなりますが 他のモデルは競争の機会を失うかもしれません
0.84
Therefore, we (P), which potential predicts namely new objective, a propose individual the incorporating individuals’ performance the by history performance. そこで, 新たな目標を予測できる可能性として, 個人が個人のパフォーマンスを履歴パフォーマンスに組み込むことを提案する(p)。 0.82
The individual potential is represented by the slope of the line after applying the linear fitting to performance. 個々の電位は、線形嵌合を性能に応用した後、ラインの傾斜によって表される。 0.79
history the one of potential The individual’s (cid:26) derived is individual as follows if P = Y S = 1 (5) (X T X)−1X T Y if S > 1 P ∈ RS×1 stores potential, individual the indicates the X ∈ RS×1 indiindividual index when the is epoch sampled, Y cates the validation corresponding accuracy, represents and S sampled. 歴史 p = y s = 1 (5) (x t x)−1x t y if s > 1 p ∈ rs×1 store potential, individual the indicated the x ∈ rs×1 indiindividual index when the epoch sampled, y cates the validation corresponding accuracy, represented and s sampled. (英語)
訳抜け防止モード: 個々人 (cid:26 ) は、P = の場合、次のように個々に導かれる。 Y S = 1 ( 5 ) ( X T X) −1X T Y の場合、S > 1 P ∈ RS×1 はポテンシャルを格納する。 個々の値は X ∈ RS×1 indiindividual index を示します。 Y は検証に対応する精度をキャットします。 およびサンプルされるSを表します。
0.78
individual times of number the is the accuracy, objectives: consider experiments, we In our three three generate we Therefore, potential. 数値の個数 正確さ、目的: 実験を考えてみると、3つのうちの3つが、それゆえ、ポテンシャルを生み出します。 0.71
model size, and can sorting Pareto stages applying the non-dominated algorithm by to each objective. モデルのサイズ、および各目的に非支配的なアルゴリズムを適用するParetoの段階を分類できます。 0.68
Then we merge three Pareto stages to get final the stage. そして、3つのparetoステージをマージして、ステージを終了します。 0.59
Pareto Crossover C. are selected individuals After selection, K best-performing bearchitecture encodings exchanges for crossover, which the recombinant in to result different two tween individuals parent encoding to represent the individuals. Pareto Crossover C.は選択された個人です 選択後、Kベストパフォーマンスのベアキテクチャーエンコーディングはクロスオーバーのための交換を行い、組換えは個人を表すために異なる2つの親のエンコーディングをもたらす。
訳抜け防止モード: pareto crossover c. are selected individual after selection, k best - performing bearchitecture encodings exchanges for crossover, 遺伝子組み換えによって 2つのtweenの親遺伝子が 個々人を表す。
0.82
Since we use the one-hot crossovers are performed on categorical candidate operations, pair Each binary than other encodings one-hot the encodings. 分類的候補演算では、1ホットのクロスオーバーが実行されるので、各バイナリを他のエンコーディングよりも1ホットのエンコードにペア化する。
訳抜け防止モード: 使ってるから-- ホットクロスオーバーは カテゴリー別候補操作で行われます 他のエンコーディングよりも各バイナリをペアにします。
0.67
crossovered individuals are of one-hot encodings of two parent probability (a) with a of pc. クロスオーバーした個体は、pcの2つの親確率(a)の1ホットエンコーディングである。 0.66
Fig. 3 presents example that an only one crossover occurs between two parent individuals, encodings. フィギュア。 3は、2人の親間で唯一のクロスオーバーが起こる例を示し、エンコードする。 0.53
one-hot three of consist of which both 両方からなる1つの熱い3つ 0.71
英語(論文から抽出)日本語訳スコア
6 THE NOVEL STATISTICS I TABLE THREE CT SCAN THE PNEUMONIA. 6 ノヴェル 統計 私はTABLE 3つのCTスキャンPNEUMONIA。 0.56
NON-NCP CORONAVIRUS PNEUMONIA) 非NCPコロナウイルス肺炎) 0.57
OF DATASETS. のり データセット。 0.38
NCP INCLUDES CP NCP InCLUDES CP 0.81
INDICATES THE (COMMON 情報 The (Common) 0.47
Dataset [Input size] CleanCC-CCII [128×128] MosMedData [256×256] COVID-CTset [512×512] Dataset [Input size] CleanCC-CCII [128×128] MosMedData [256×256] COVID-CTset [512×512] 0.76
Classes NCP CP Normal Total NCP Normal Total NCP Normal Total Classs NCP CP Normal Total NCP Normal Total NCP Normal Total 0.85
AND NORMAL. そしてNORMAL。 0.72
#Patients Train Test 726 190 778 186 158 660 534 2164 601 255 178 76 779 331 42 202 200 82 402 124 #Patients Train Test 726 190 778 186 158 660 534 2164 601 255 178 76 779 331 42 202 200 82 402 124 0.85
#Scans Train Test 1213 302 1210 303 193 772 798 3195 601 255 178 76 779 331 42 202 200 82 402 124 #Scans Train Test 1213 302 1210 303 193 772 798 3195 601 255 178 76 779 331 42 202 200 82 402 124 0.85
B. C. Baselines neural hand-crafted 3D use three we experiments, In our [26], DenseNet3D121 baseline models: as architectures the transformaapply 18 [25]. B。 C。 私たちの[26]では、DenseNet3D121ベースラインモデル:アーキテクチャとして、トランスフォーメーションは18[25]です。 0.69
We and MC3 ResNet3D101 [25], and normalization. We and MC3 ResNet3D101 [25], and normalization。 0.90
center-crop, including resize, to scans, tions horizontal perform the randomly For training set, we and the vertical flip operation. リサイズを含むセンタクロップは、スキャンするために水平方向をランダムに行い、トレーニングセット、weおよび垂直フリップ操作を行う。 0.67
We use the with Adam [48] optimizer the weight decay of 5e-4. with adam [48]オプティマイザは5e-4の重量減衰を最適化する。 0.66
The learning rate is initialized to annealing cosine 0.001. 学習率は0.001のアニーリングコサインに初期化される。 0.62
The adjust to applied [49] scheduler is the learning rate. 適用された[49]スケジューラへの調整は学習率です。 0.78
Three baseline models are trained for 200 function H is cross-entropy. 3つのベースラインモデルは200関数 H がクロスエントロピーであるように訓練されている。 0.55
epochs. The loss Search Architecture Neural Evolutionary Multi-objective and the stage the search includes EMARS stages: two each stage configuration of retraining experimental stage. エポック 損失探索アーキテクチャ ニューラル進化的多目的と探索の段階は、EMARSステージを含む: 再学習実験段階の2つのステージ構成。 0.52
The follows: as is stage: Search 1) and six comprises SuperNet The cells, each cell is [4,4,4,4,4,4,1]. ステージ1と6はスーパーネットで構成され、各セルは[4,4,4,4,4,4,1]である。 0.65
the number of searchable blocks in operations candidate (see Each block is selected from eight the Section blocks within same cell keep same III-C). 操作候補の検索可能なブロックの数(各ブロックが同じセル内のセクションブロック8つから選択されている参照)は同じIII-Cを保持します。 0.76
The the have all and channels, output and input of number blocks a spatial the other words, stride of 1. すべてのチャンネルとチャネルを持ち、数値の出力と入力は空間をブロックし、もう一方のワードは1である。 0.79
In dimensions of the output features of each cell are determined by the calibration block. 各セルの出力機能の寸法は、キャリブレーションブロックによって決定されます。 0.79
Here, we empirically set the number of output channels of calibration stride of and the to [24,40,80,96,192,320], each cell 2, block 2, [2, to cell 1, 2, 1]. ここでは各セル2,ブロック2,[2, to cell 1, 2, 1],to[24,40,80,96,192,320]のキャリブレーションステップの出力チャネル数を実験的に設定する。 0.82
in each The stem block is a Conv3D-BN3D-ReLU6 sequential module, with the number of output channels fixed to 32. 各stemブロックはconv3d-bn3d-relu6シーケンシャルモジュールであり、出力チャネルの数は32に固定される。 0.69
Besides the we strategy, weight-sharing the using reduce 64×64 search improve to data input resolution scan of to sub-training efficiency. 提案手法に加えて,64×64探索を減量し,データ入力分解能スキャンによりサブトレーニング効率を向上する。
訳抜け防止モード: We戦略の他に、重み-using reduce 64×64 の共有 search improve to data input resolution scan of to sub - training efficiency.
0.86
The training set divided into the set is Dtrain, Dval. セットに分割されたトレーニングセットはdtrain, dvalである。 0.81
and the validation set To avoid the Matthew effect, we performed the warm-up stage before the evolution SuperNet weights 20. population with the and initialized The are descent optimized using the stochastic gradient (SGD) optimizer with a momentum of 3e-4. また,matthew効果を回避した検証セットでは,進化スーパーネット重み20の前にウォームアップステージを実施し,アレス降下を3e-4の確率勾配(sgd)オプティマイザを用いて最適化した。 0.77
The initial rate learning is 0.001. 初歩学習は0.001である。 0.67
Selection. all process, evolution the epoch each For in individual architectures from the population were equally trained with the training data batches before the selection. 選択。 すべてのプロセス、進化の各エポック 人口からの個々のアーキテクチャでは、選択の前にトレーニングデータバッチで等しく訓練されました。 0.72
Using the NSGA-III we evaluate of different algorithm, the impact and potential, accuracy, including results, search on objectives NSGA-IIIを用いて、異なるアルゴリズム、影響と可能性、精度、結果を含む、目的の探索を評価する。
訳抜け防止モード: NSGA-IIIを用いて、異なるアルゴリズム、影響とポテンシャルを評価する。 結果を含む正確さ 目的を探索する
0.79
3. Crossover (a) Examples Fig. 3. クロスオーバー(a)例図。 0.78
of and mutation the is The length operation. と変異は長さ操作である。 0.70
candidate operations (b) Mutation crossover for unit basic and mutation. 候補業務 b) 単位基本および突然変異に対する突然変異交差 0.67
The crossover both one-hot sequence, which represents a encoding candidate indicates the total sequence one-hot the of number of (here 6). エンコーディング候補を表す1-hotシーケンスのクロスオーバーは、全列が1-hotであることを示す(ここで6)。 0.72
D. Mutation are performed between promising two crossovers Since the child inherit can individuals their individuals, parent are crossovers words, other encodings. d. 変異は2つのクロスオーバーの間に起こり、子供の遺伝は個人、親はクロスオーバー語、その他のエンコーディングが可能である。 0.72
architecture good In for usually are mutations while for exploitation, primarily basic unit for mutation is also the one-hot The exploration. アーキテクチャ 良い 普通は突然変異ですが、搾取のためには、主に突然変異の基本単位も1ホットな探索です。 0.65
encoding. In Fig. エンコーディング。 図1。 0.65
(b), the second one-hot encoding of the 3 is mutated. (b)3の2番目の1ホット符号化が変更される。 0.69
individual parent EXPERIMENTAL V. IMPLEMENTATION In this section, we first describe three datasets used in our implementation the introduce experiments. 個々の親 実験 V. IMPLEMENTATION このセクションでは、まず導入実験で使用した3つのデータセットについて説明します。 0.64
Then, we of details baseline experiment the and our EMARS algorithm. その後、我々は詳細のベースライン実験と私たちのEMARSアルゴリズム。 0.77
A. Datasets datasets: available publicly use we three paper, In this COVID-CTset and MosMedData [32], [23] Clean-CC-CCII statistics The scans. A。 datasets datasets: available we three paper, in this covid-ctset and mosmeddata [32], [23] clean-cc-ccii statistics the scans (英語) 0.79
provide chest CT 3D [24], all of which Clean-CC-CCII three of Table. 胸部CT 3D [24]、すべてClean-CC-CCII 3のテーブルを提供します。 0.72
in are I. presented datasets of (novel three coronavirus classes: NCP pneumonia), consists and Normal, while both MosMedpneumonia), CP (common Data and COVID-CTset contains NCP and Besides, Normal. in is I. presented datas of (novel three coronavirus class: NCP pneumonia) consists and Normal, while both MosMedpneumonia), CP (common Data and COVID-CTset contains NCP and Beyond, Normal。 0.82
data several CT scans, have each each and is scan patient may For images. 複数のCTスキャンをデータ化し、それぞれをスキャンし、患者をスキャンする。 0.71
grey of multiple slice composed Clean-CC-CCII and MosMedData, the image is PNG (portable network format graphics), while the image format of the Covid-CTset 16is bit TIFF the this work, in format). Clean-CC-CCIIとMosMedDataで構成された複数のスライスのグレーの画像はPNG(ポータブルネットワークフォーマットグラフィックス)で、Covid-CTset 16の画像フォーマットはTIFFをビットします。 0.79
Notably, file image (tagged the of instead scan the unit classification basic data is slice image. 特に、ファイル画像(代わりに単位分類の基本データをスキャンするタグ付き)はスライス画像です。 0.71
We conducted multiple search experiments on the CleanCC-CCII dataset. CleanCC-CCIIデータセット上で複数の探索実験を行った。 0.68
Therefore, to shorten experimental time, the 128×128 each and set we fix size slice’s each data scan to the containing 32 After finishing search experiments, slices. したがって、実験時間を短縮するために、128×128をそれぞれ設定し、検索実験を終えた後、各データスキャンのサイズを32に固定する。 0.78
to the other we applied the best-performing model two datasets to verify its transferability. もうひとつは、最もパフォーマンスの良いモデル2つのデータセットを適用して、その転送性を検証する。 0.49
In order to provide thorough a more we performance, model EMARS-designed the evaluation of the MosMedData processed the two datasets differently. より徹底的なパフォーマンスを提供するために、モデルEMARSは2つのデータセットを異なる方法で処理したMosMedDataの評価を設計した。 0.64
For a and dataset, each scan data consists of 40 slices, slice 256×256. aとデータセットでは、各スキャンデータは40スライス、256×256である。 0.82
set resolution is For the slice Covid-CTset, we the 512×512, slices. set resolution: Covid-CTsetの場合、512×512のスライスです。 0.70
32 contains scan each and to size 32にはスキャンとサイズがあり 0.78
[1 0 0 0 0 0][0 1 0 0 0 0][0 0 0 0 0 1][1 0 0 0 0 0][0 0 0 0 0 1][0 0 0 0 0 1][0 1 0 0 0 0][0 0 0 0 0 1][0 0 1 0 0 0][0 1 0 0 0 0][0 1 0 0 0 0][0 0 1 0 0 0][0 1 0 0 0 0][0 0 0 0 0 1][0 0 1 0 0 0][0 1 0 0 0 0][0 0 0 1 0 0][0 0 1 0 0 0] [1 0 0 0 0 0][0 1 0 0 0 0][0 0 0 0 0 1][1 0 0 0 0 0][0 0 0 0 0 1][0 0 0 0 0 1][0 1 0 0 0 0][0 0 0 0 0 1][0 0 1 0 0 0][0 1 0 0 0 0][0 1 0 0 0 0][0 0 1 0 0 0][0 1 0 0 0 0][0 0 0 0 0 1][0 0 1 0 0 0][0 1 0 0 0 0][0 0 0 1 0 0][0 0 1 0 0 0] 0.75
英語(論文から抽出)日本語訳スコア
7 (a) uals with 7 a) uals (複数形 uals) 0.71
Objectives: an 26 There accuracy. 目的: an 26 正確性。 0.73
individare 0.7. exceeding rate accuracy individare 0.7. 精度を超過 0.72
of results evolution the among 4. Fig. 結果の進化の4。 フィギュア。 0.50
Comparison individual the indicate yellow points and purple The cover a wider range over model 4(a) Fig. 比較個人は黄色点を示し、紫色 カバーはモデル4(a)図よりも広い範囲です。 0.68
points) in respectively. ポイント)がそれぞれある。 0.66
models, different results size モデル 異なる結果サイズ 0.63
+ with (b) Objectives: accuracy There are 42 individuals 0.7. exceeding + with (b)目的:正確性42人0.7人以上 0.86
(c) Objectives: accuracy There are 14 individuals 0.7. exceeding individual. (c)目的:正確性 個人以上14人0.7人。 0.84
of results the indicates point objectives. 結果のポイントの目的を示します。 0.76
Each size different model experiments with one Individuals epochs, (e g , evolution of yellow respectively. それぞれのサイズは1つのエポック(例えば、黄色の進化)で異なるモデル実験を行う。 0.81
first last of the and 50 stage the in later into large and small evolve (c) and dimension, while Fig. 第1段と第50段は後に大きく小さな進化 (c) と次元へと変化し、一方でフィギュア (fig) である。 0.62
4 (b) show individuals gradually that 4(b)は徐々に個人が 0.74
model accuracy model accuracy モデル精度 モデル精度 0.79
small an large an small‐an large‐an 0.79
size. rate size. サイズ。 rate サイズ。 0.79
rate + with rate + with 0.85
PERFORMANCE COMPARISON AMONG MODELS 性能 比較 Among モデル 0.46
SEARCHED WITH OBJECTIVE ON CLEAN-CC-CCII 捜索して 目的 クリーンCC-CCIIについて 0.39
DATASET. Model EMARS-A EMARS-B EMARS-C データセット。 モデルEMARS-A EMARS-B EMARS-C 0.41
Model size (MB) 5.93 20.61 3.79 モデルサイズ(MB) 5.93 20.61 3.79 0.69
Objectives Accuracy + large model + small model 目的精度+大型モデル+小型モデル。 0.80
Accuracy Accuracy size. Each experiment model conducted on four Nvidia Tesla is V100 can (the version) PCIe GPUs finished in 32GB and be about size K in Alg. 精度 サイズ。 Nvidia Teslaの4つの実験モデルはそれぞれ、V100 can(バージョン)のPCIe GPUが32GBで完成し、Algの約Kである。 0.68
hours. We 8 selection 10, which set 1 to for individuals promising 10 most preserved that we indicates generated new individuals 10 exploitation and for exploration. 何時間も we 8 選択 10 は、最も保存されている10 個の個人に 1 をセットし、新しい個体が生成した 10 個の搾取と探索を示す。 0.65
Crossover & Mutation. クロスオーバー&ミューテーション。 0.64
As shown Alg. 1, after the in p ∈ (0, 1). algの略。 1 は in p ∈ (0, 1) の次である。 0.67
selection, we first generated a random probability If otherwise, individual; new sampled randomly we p > 0.5, a crossover selected the mutation and we performed indion new viduals to generate a individual. 選択し,まずランダムな確率を生成した。もしそうでなければ,新しいサンプルを無作為に採取し,p > 0.5,クロスオーバーで変異を選択し,個体を生成するために新たなビジュアルを投入した。 0.69
The basic unit for both crossover and mutation is the one-hot encoding. クロスオーバーと突然変異の両方の基本単位は、ワンホットエンコーディングです。 0.69
The probaencoding one-hot for and mutation of bility crossover is each respectively. 能力クロスオーバーの確率符号化1ホットと突然変異はそれぞれそれぞれである。 0.66
pm = 0.2, and pc = 0.3 2) Retraining stage: stage, we After the search export top10 promising individual architecture along Pareto front of the for stage’s search exported individual train each objectives. pm = 0.2, pc = 0.3 2) リトレーニングステージ: 検索エクスポートの後に、forステージの検索前のparetoフロントに沿って個々のアーキテクチャを約束するtop10が各目的をそれぞれエクスポートする。 0.72
We choose finally and epochs few a best-performing the one for experimental further retraining. 我々は最終的に選択し、実験的なさらなるトレーニングのために最もパフォーマンスの良いものはほとんどありません。 0.50
The retraining configuration of is the same as the baseline experiment. 再トレーニング構成はベースライン実験と同じである。 0.65
this In Then, we RESULTS & ANALYSIS VI. このとき、私たちは RESULTS & Analysis VI 0.71
first we section, present and analyze まず セクション分けし 提示し 分析し 0.74
introduce the experimental our 紹介します 実験 私達 0.68
evaluation results. metrics. 評価結果。 メトリクス。 0.57
A. Evaluation Metrics We several use pare the model A。 評価指標 いくつかはモデルを作ります 0.71
used commonly evaluation metrics performance, follows: as T P Precision = 一般的に用いられる評価指標のパフォーマンスは、以下のとおりである。 0.64
Sensitivity (Recall) = 感性 (コール) = 0.72
T P + F P T P T P + F P T P 0.85
T P + F N to T P + F N へ 0.74
com- (6) (7) という。 (6) (7) 0.69
TABLE II DIFFERENT MODEL Accuracy (%) 89.67 87.92 89.39 テーブル II 差分モデル精度(%)89.67 87.92 89.39 0.67
size size size + size 0.71
SIZE Precision (%) 91.07 95.8 93.13 寸法精度(%)91.0795.893.13 0.65
Sensitivity (%) 87.75 83.11 89.74 感度(%)87.75 83.11 89.74 0.60
F1-score 0.8938 0.8901 0.9141 f1-score 0.8938 0.8901 0.9141 0.41
F1-score = 2 × (Precision × Recall) Precision + Recall F1スコア= 2 × (precision × recall)精度 + recall 0.67
(8) T N + T P (8) T N + T P 0.85
(9) Accuracy = T N + T P + F N + F P negative cases are assigned To be noticed, the positive and the COVID-19 to reclass, non-COVID-19 and class the the indicate number of spectively. (9) 精度 = T N + T P + F N + F P 陰性症例に注意を喚起するために、陽性例とCOVID-19 が非COVID-19 を再分類し、指示された数の可視性を分類する。 0.78
Specifically, and T N T P correctly classified COVID-19 (i.e., NCP) non-COVID-19 and (i.e., CP and Normal) respectively. 具体的には、T N T P は、それぞれ COVID-19 (すなわち NCP) 非COVID-19 と (すなわち CP とノーマル) を正しく分類した。 0.75
F P and F N indicate scans, non-COVIDand classified COVID-19 of wrongly number the micro-averaging the accuracy is 19 respectively. F P と F N はスキャンを示し、非ウイルス分類のCOVID-19 は、それぞれ、正確さを損なうマイクロアベリングの数が19である。 0.61
The scans, overall value for all test data to evaluate performance of the the model. モデルのパフォーマンスを評価するために、すべてのテストデータの全体的な価値をスキャンします。
訳抜け防止モード: すべてのテストデータのスキャン、全体的な値 モデルの性能を評価するためです
0.83
Besides, we also use model size as an evaluation efficiency. さらに、評価効率としてモデルサイズも使用しています。 0.75
the model compare to metric モデルはメートル法と比較します 0.64
B. Size-aware Model Search optimization of the of multi-objective the verify To ability different experiments with up set algorithm, we EMARS three experiments for run 100 objectives. B。 サイズ認識モデル 複数対象のモデル探索の最適化 検証 セットアップされたアルゴリズムで異なる実験を行うには、100目的を実行するためにEMARS 3つの実験を行います。 0.74
model size three The of results experiments three epochs. モデル サイズ 3 結果の実験の 3 つのエポック。 0.78
We visualized the search indicates the result of one in Fig. 図1の検索結果を可視化しました。 0.62
4, in which each point purple the parts: into epochs 100 individual. 4つは、各ポイントが部品を紫色にします:エポック100個人に。 0.66
two split We represent points results of the first 50 epochs, the evolution evolution results of the last the and yellow points represent the 50 epochs. 2つの分割は最初の50エポックのポイント結果を表し、最後の1点と黄色のポイントの進化進化の結果は50エポックを表す。 0.73
Fig. 4 shows the distribution of evolution with the the validation (b) (a) only the validation accuracy, objectives of large model accuracy the (c) size, accuracy and validation and small model, respectively. フィギュア。 4は、検証(b)(a)のみの検証精度、大きなモデル精度の目標、(c)サイズ、精度と検証、および小型モデルによる進化の分布を示しています。 0.59
We that the results the can see of are three in line with expectations. 結果が期待値と一致して3つであることが分かりました。 0.68
The yellow experiments size model the over range wider a cover 4(a) Fig. 黄色の実験サイズは、カバー4(a)フィグを大きく広げる範囲をモデル化する。 0.75
in points 5.07.510.012.515.017 .520.0Model size (MB)0.30.40.50.60.70 .8Accuracy5.07.510.0 12.515.017.520.0Mode l size (MB)0.30.40.50.60.70 .8Accuracy5.07.510.0 12.515.017.5Model size (MB)0.30.40.50.60.70 .8Accuracy in point 5.07.510.012.515.017 .520.0Model size (MB)0.30.40.50.60.70 .8Accuracy5.07.510.0 12.515.017.520.0Mode l size (MB)0.30.40.50.60.70 .8Accuracy5.07.510.0 12.515.017.5Model size (MB)0.30.40.50.60.70 .8Accuracy 0.44
英語(論文から抽出)日本語訳スコア
8 (a) [accuracy] 8 (a) 【正確】 0.80
Objectives: (c) size] Each objective. 目的: (c) サイズ] 各目的。 0.71
potential the without or with experiments different of results evolution the Fig. 結果の異なる実験が、figを進化させる可能性がある。 0.58
among Comparison 5. individuals. Dashed of accuracy average the line Solid epochs. 比較5. 個人。 精度は、Solid epochsの平均値である。 0.65
half or into divided and indicates of is individual second first 30/70 percentile the 5(b), Fig. 半分または分割され、個々の第2の30/70パーセントが5(b)、フィグであることを示す。 0.61
than that of but higher in percentile distribution. パーセンタイルの分布よりも高いのです 0.50
The individual of 30/70 Fig. 個体数は30/70。 0.66
5(a) is relatively 5(a), which indicates that potential can effectively improve search process’ robustness. 5(a)は比較的5(a)であり、ポテンシャルが検索の堅牢性を効果的に改善できることを示している。 0.73
Fig. 5(c) combines advantages the objectives. フィギュア。 5(c)は目的の利点を組み合わせる。 0.62
size model Objectives: size モデル 目的: 0.78
Objectives: [potential] (b) 目的: [潜在的] (b) 0.80
[accuracy + potential + small model [精度+電位+小モデル] 0.82
one of results the indicates point percentile the indicates line 30/70 of Fig. 結果の1つは、Figの30/70行を示すポイントパーセンタイルである。 0.60
than Fig. of 5(b) is closer of accuracy, potential, and small Figより。 5(b)は正確さ、ポテンシャル、そして小さい 0.63
PERFORMANCE AMONG MODELS COMPARISON Model size (MB) 5.93 5.63 3.39 性能 AMONG MODELS COMPARISON Model size (MB) 5.93 5.63 3.39 0.68
Accuracy Model EMARS-A EMARS-D EMARS-E 正確性 モデルEMARS-A EMARS-D EMARS-E 0.62
SEARCHED WITH TABLE OR WITHOUT 捜索して テーブルまたはなし 0.46
III Objectives Accuracy Potential + III 目的の正確性+ 0.81
small model size + 小モデル サイズ + 0.81
potential POTENTIAL THE Accuracy (%) 89.67 88.78 89.61 potential 精度(%) 89.67 88.78 89.61 0.79
OBJECTIVE Precision (%) 91.07 93.68 98.16 オブジェクティブ精度(%)91.07 93.68 98.16 0.60
ON CLEAN-CC-CCII Sensitivity (%) 87.75 88.41 88.41 CLEAN-CC-CCII Sensitivity (%) 87.75 88.41 88.41について 0.51
F1-score 0.8938 0.9097 0.9303 F1-score 0.8938 0.9097 0.9303 0.42
DATASET. in to tend (c) and 4(b) Fig. データセット。 で to tend (c) and 4 (b) Fig 0.59
dimension, while the yellow points small model respectively. 黄色点の小さいモデルがそれぞれある間、次元。 0.77
size, be distributed to the large and individuals with an accuracy of more the number of Besides, respectively. サイズは、それぞれプラスの数以上の精度で、大人数と個人に配布されます。 0.64
A 14, 42, is (c) Fig. 14, 42は(c)図である。 0.78
0.7 than and 26, (a) 4 in to this might possible explanation for larger models be that the have more parameters and thus overfit the training dataset during the search stage, which is proved by the retraining and EMARS-B, EMARS-A, the in shown results II. 0.7 と 26 (a) 4 より大きいモデルでは、より多くのパラメータを持ち、探索段階でトレーニングデータセットを過度に適合させる可能性があり、これは再訓練とEMARS-B, EMARS-Aにより証明される。 0.66
Table. from Fig selected EMARS-C are the best-performing models 4 (a), (b), and (c), respectively. テーブル。 図から選択されたEMARS-Cは、それぞれ最も性能の良いモデル4(a)、(b)、(c)である。 0.72
Although the size of EMARSB is much more than EMRAS-A EMRAS-C, it achieves and f1-score. EMARSB のサイズは EMRAS-A EMRAS-C よりもはるかに大きいが、達成とf1スコアである。 0.63
and sensitivity, accuracy, lowest the 感度 正確さ 最低レベル 0.42
C. Potential-aware C。 potential‐aware 0.64
Search Model demonstrated experimentally We objective potential the that is search of great benefit to shows that, 5 (a) Fig. 探索モデルは, 5 (a) fig を示す大きな利点を探索する可能性を実験的に実証した。 0.78
stability. with of the objective accuracy, find gradually can EMARS but may accuracy, validation high achieving individuals strong that, shows 5 ones. 安定性。 客観的な精度で、徐々にEMARSを発見できるが、精度は高く、5つしか示さない個人を高い精度で検証することができる。 0.68
some in time waste also (b) weak Fig. 時間の無駄もある. (b)フィグも弱い. 0.66
process of objective the with potential, the search is relatively percentile robust, as the 30/70 becomes closer than that of Fig. 目的のプロセス 潜在的には、30/70はfigのそれよりも近くなるため、検索は相対的に堅牢である。 0.64
5 (a); however, Fig. 5 (a);しかし、図。 0.69
(b) fails to find enough individuals 5 and accuracy, potential, take with high accuracy. (b)は、十分な個人5と精度、ポテンシャルを見つけることに失敗し、高精度を取る。 0.70
Therefore, we objectives, size small model shows (c) as and Fig. したがって、目的、サイズ、小さいモデルは(c) as と fig を示します。 0.77
5 the that search and many individuals get high process keeps robust, accuracy. 検索と多くの個人が高いプロセスを取得し、堅牢な精度を維持します。 0.58
We further retrained the best-performing individual presented is performance their and experiment, from each in searched with is III. さらに, 提示された最高のパフォーマンスは, それらのパフォーマンスと実験であり, それぞれがIIIで検索された結果からさらに再訓練を行った。 0.53
One can Table. テーブルができます。 0.83
see that EMARS-E, which the of accuracy and potential, has a smaller size and objectives outperforms EMARS-A and EMARS-D in terms of precision, f1-score. 精度とポテンシャルの EMARS-E が小さく、目標が EMARS-A と EMARS-D の精度で f1-score を上回ります。 0.68
and sensitivity, and そして敏感さ そして 0.70
EMARS between Baseline EMARS 間 ベースライン 0.75
D. Performance Comparison on Clean-CC-CCII dataset three between performance 3D summarizes Table. d.clean-cc-cciiデータセットの性能比較 パフォーマンス3次元要約表 0.70
IV the the Clean-CCon series models baseline models and EMARS extensive an cover architectures CCII dataset. IVのClean-CConシリーズモデルベースラインモデルとEMARS広範なカバーアーキテクチャCCIIデータセット。 0.78
Our searched from 3.39 MB to 20.61 MB. 3.39MBから20.61MBまで検索しました。 0.48
In range of model sizes, ranging architecture suitable easily we words, other a select can for series EMARS all different models Besides, deploy devices. モデルサイズの範囲では、アーキテクチャの範囲は我々の言葉に相応しいが、EMARSシリーズのセレクト缶は、すべて異なるモデルに加えて、デバイスをデプロイする。
訳抜け防止モード: モデルサイズの範囲では、アーキテクチャの範囲は言葉に適しています。 その他のselectは、さまざまなモデルのシリーズをエミュレートする。
0.67
the with models outperform baseline a much smaller model EMARS-A achieves size. モデルがベースラインを上回り、より小さなモデル EMARS-A がサイズを達成する。 0.71
the best accuracy of 89.67% among all models, and it surpasses ResNet3D101, DenseNet3D121, respectively. 最高精度は89.67%で、それぞれresnet3d101, densenet3d121を上回っている。 0.64
and 3.05%, 4.83%, 4.07%, 18 by and MC3 achieves EMARS-C the best sensitivity other compared with EMARS-E models. そして3.5%, 4.83%, 4.07%, 18 by および MC3 は EMARS-C を EMARS-E モデルと比べ最も優れた感度で達成する。 0.69
achieves the best precision and f1-score and has the smallest size (3.39 MB), which is 98.96%, 92.13%, 92.27% smaller and and than ResNet3D101, DenseNet3D121, 18. 最高精度とf1スコアを達成し、最小サイズ(3.39MB)は98.96%、92.13%、92.27%、ResNet3D101、DenseNet3D121、18)である。 0.72
MC3 E. Transferability Based select we results, two the experimental above on EMARSand EMARS-B i.e., architectures, representative them training on the by transferability to evaluate the C, experimental The datasets. MC3 e. EMARSとEMARS-Bに関する2つの実験、すなわちアーキテクチャに基づいて、Cを評価するための転送可能性によるトレーニングを代表し、実験的なデータセット。 0.73
Covid-CTset and MosMedData baseline as the configuration experiment is same the (see final Section V-B). Covid-CTsetとMosMedDataのベースラインは構成実験と同じです(最終セクションV-Bを参照)。 0.75
The results presented in Table. 結果を表に示します。 0.77
show V transferability the of our searched architectures. 検索したアーキテクチャのV転送可能性を示す。 0.65
F. Interpretability an CAM is focuses model searched our F。 CAMはモデル検索に焦点をあてた解釈可能性 0.74
the that regions the visualize can algorithm that for interpretability provide hence on, the and volume scan CT 3D a to it apply models. したがって、視覚化可能な領域は、解釈可能なアルゴリズムが提供し、ボリュームスキャンCT 3D aがモデルを適用します。 0.73
We 私たち 0.65
英語(論文から抽出)日本語訳スコア
PERFORMANCE COMPARISON BETWEEN MANUALLY 性能 比較 手作業で 0.42
Model ResNet3D101 DenseNet3D121 MC3 18 EMARS-A EMARS-B EMARS-C EMARS-D EMARS-E モデル ResNet3D101 DenseNet3D121 MC3 18 EMARS-A EMARS-B EMARS-C EMARS-D EMARS-E 0.62
Model size (MB) 325.21 43.06 43.84 5.93 20.61 3.79 5.63 3.39 モデルサイズ(MB) 325.21 43.06 43.84 5.93 20.61 3.79 5.63 3.39 0.54
Search Method IV TABLE AND EMARS-DESIGNED MODELS DESIGNED MODELS DAYS=#GPUS×REAL SEARCH Search Cost (GPU days*)1.3 1.3 1.3 1.3 1.3 検索方法 IV TABLE and EMARS-DESIGNED MODELS DESIGNed MODELS DAYS=#GPUS×REAL SEARCH Search Cost (GPU days*)1.3 1.3 1.3 1.3 0.81
TIME Accuracy (%) 85.54 87.02 86.16 89.67 87.92 89.39 88.78 89.61 TIME Accuracy (%) 85.54 87.02 86.16 89.67 87.92 89.39 88.78 89.61 0.55
Precision (%) 89.62 88.97 87.11 91.07 95.80 93.13 93.68 98.16 Precision (%) 89.62 88.97 87.11 91.07 95.80 93.13 93.68 98.16 0.53
manual manual manual evolution evolution evolution evolution evolution 手作業による進化進化の進化進化のマニュアル 0.61
9 ON CLEAN-CC-CCII 9 クリーンCC-CCIIについて 0.58
DATASET. *GPU データセット。 ※GPU 0.53
Sensitivity (%) 77.15 82.78 82.78 87.75 83.11 89.74 88.41 88.41 Sensitivity (%) 77.15 82.78 82.78 87.75 83.11 89.74 88.41 88.41 0.53
F1-score 0.8292 0.8576 0.8489 0.8938 0.8901 0.9141 0.9097 0.9303 F1-score 0.8292 0.8576 0.8489 0.8938 0.8901 0.9141 0.9097 0.9303 0.41
PERFORMANCE COMPARISON EMARS-DESIGNED MODELS EMARS設計モデルの性能比較 0.46
BASELINE MODELS AND AND COVID-CTSET ベースラインモデル および、COVID-CTSET 0.62
TABLE V BETWEEN ON MOSMEDDATA DATASETS. MOSMEDDATAデータセット間のテーブルV。 0.58
Dataset Model データセット モデル 0.71
MosMedData MosMedData 0.85
Covid-CTset Covid-CTset 0.59
ResNet3D101 DenseNet3D121 MC3 18 EMARS-B EMARS-E ResNet3D101 DenseNet3D121 MC3 18 EMARS-B EMARS-E ResNet3D101 DenseNet3D121 MC3 18 EMARS-B EMARS-E ResNet3D101 DenseNet3D121 MC3 18 EMARS-B EMARS-E 0.44
Model size (MB) 325.21 43.06 43.84 20.61 3.39 325.21 43.06 43.84 20.61 3.39 モデルサイズ(MB) 325.21 43.06 43.84 20.61 3.39 325.21 43.06 43.84 20.61 3.39 0.51
Accuracy (%) 81.82 79.55 80.4 81.51 81.25 93.87 91.91 92.57 92.09 92.86 Accuracy (%) 81.82 79.55 80.4 81.51 81.25 93.87 91.91 92.57 92.09 92.86 0.50
of a Fig. というと フィギュア。 0.53
using EMARS-E model. EMARS-Eモデルを使用。 0.66
dataset from the Clean-CC-CCII maps generated the 6 some presents red heat slices. クリーンCC-CCIIマップからのデータセットは6つの赤い熱スライスを生成した。 0.67
A larger on it that have impact the brighter and region means COVID-19. より明るく、地域に影響を与えた大きなものは、COVID-19を意味します。 0.58
classify model’s decision to it as can we volume, scan of perspective the From that see the some have more than decision the model’s slices impacts on EMARSIn the others. モデルの決定をボリュームとして分類し、パースペクティブをスキャンします。その中には、モデルのスライスがEMARSに影響を与えるという決定以上のものもあります。 0.68
terms of a single slice, the areas that E focuses on has ground-glass opacity, which is proved a Chest COVID-19 of images feature distinctive CT CT of our of interpretability the [50]. 単一のスライスの用語では、Eが注目する領域は接地ガラスの不透明度であり、画像のChest COVID-19は、私たちの解釈可能性[50]の特徴的なCTCTを特徴としていることが証明されています。 0.53
CAM enables images searched help can models (e g , EMARS-E), which doctors quickly locate the discriminative lesion areas large CT volume. CAMにより、検索されたヘルプがモデル(例えばEMARS-E)になり、医師はCTボリュームの大きな識別病変領域を素早く見つけることができる。 0.65
in a 6. Fig. in a ~ 6. フィギュア。 0.69
The of scan the impact more darker region より暗い領域の衝撃をスキャンする 0.71
class Clean-CC-CCII on model’s has less. class clean-CC-CCII on model's less 0.90
chest CT by EMARS-E on generated activation mappings a dataset. EMARS-Eによる胸部CTはデータセットを生成するアクティベーションマッピングである。 0.67
red colored brighter and Regions has COVID-19 while of the to class grey and decision 赤い色の明るい色と地域は、クラスグレーと意思決定の間、COVID-19を持つ 0.69
in CONCLUSION VII. で コンキュレーションVII。 0.67
space, in a factorized 3D search In this work, we propose other. space, in a factorized 3D search この作品では、他のものを提案する。 0.73
each among share weights architectures child which all multi-objective neural evolutionary an introduce We efficient framework to search for 3D architecture search (EMARS) also propose classification. それぞれの共有重みアーキテクチャは、すべての多目的神経進化モデルを導入し、3Dアーキテクチャサーチ(EMARS)を探索する効率的なフレームワークも提案する。 0.70
We models for COVID-19 CT scan improve can potential, a effectively that namely new objective, three results process. われわれは、新型コロナウイルスのCTスキャンの改善の可能性、すなわち、新たな目的である3つの結果プロセスの可能性をモデル化する。
訳抜け防止モード: 私たちは、新型コロナウイルスのCTスキャンのモデルが缶の可能性を改善します。 3つの結果プロセス。
0.56
search of robustness the on the The series of models by a COVID-19 datasets show that searched EMARS cover a wide range over the model size, and they all outperform the baseline models on the Clean-CC-CCII dataset. 新型コロナウイルス(COVID-19)データセットによるモデルシリーズの堅牢性の検索 EMARSの検索はモデルサイズを広範囲にわたってカバーしており、いずれもClean-CC-CCIIデータセットのベースラインモデルを上回っている。 0.74
by transferability series EMARS the We models’ verify also and training two representative models on the MosMedData demonstrates Covid-CTset datasets. トランスファービリティシリーズ EMARS Weモデルの検証とMosMedDataでの2つの代表的なモデルのトレーニングは、Covid-CTsetデータセットを実証している。 0.71
Our work that NAS is a powerful and promising solution for assisting COVID-19 in CT EMARS apply will we future, In detection. NASは、CT EMARSでCOVID-19を支援するための強力で有望なソリューションである私たちの仕事は、将来的には、検出で適用されます。
訳抜け防止モード: NAS は CT EMARS で COVID-19 を支援する強力で有望なソリューションです。 私達は未来、検出で。
0.73
our the scan framework to more tasks, such as image complex 3D medical segmentation. 画像複雑な3D医療セグメンテーションなど、より多くのタスクに対応するスキャンフレームワークです。 0.78
[1] [2] [3] [1] [2] [3] 0.85
[4] [5] [6] [4] [5] [6] 0.85
[7] de REFERENCES Papanicolaou, N. Lentini, N. A. Ekman, Sousa, R. Smyrlaki, M. I. G. Rothfuchs, A. S. Muradrasoli, H. Aarum, J. Safari, M. Vondracek, H¨ogberg, rapid COVID-19 and B. Reinius, “Massive and J. Albert, B. [7] デ 参考: Papanicolaou, N. Lentini, N. A. Ekman, Sousa, R. Smyrlaki, M. I. G. Rothfuchs, A. S. Muradrasoli, H. Aarum, J. Safari, M. Vondracek, H sogberg, rapid COVID-19, B. Reinius, “Massive and J. Albert, B。 0.75
Nature testing SARS-CoV-2 extraction-free by RT-PCR,” feasible is Communications, Available: [Online]. RT-PCRによる自然試験SARS-CoV-2抽出フリー」の実現はコミュニケーション、利用可能: [オンライン]。 0.69
2020. 1, vol. 2020. 1、Vol。 0.72
no. 11, Sep. https://doi.org/10.1 038/s41467-020-18611 -5 J. Liu, C. Yan, Tang, X. J. Zhang, Shi, X. Chu, S. Wang, X. ダメよ 11. https://doi.org/10.1 038/s41467-020-18611 -5 J. Liu, C. Yan, Tang, X. J. Zhang, Shi, X. Chu, S. Wang, X。 0.59
He, S. and model and models G. Ding, “Benchmarking deep learning automated medRxiv, scans,” ct design for covid-19 detection with chest 2020. https://www.medrxiv. org/content/early/20 20/06/17/ Available: [Online]. Bnchmarking Deep Learning automated medRxiv, scans, ct design for covid-19 detection with chest 2020. https://www.medrxiv. org/content/early/20 20/06/17/ available: [Online] 0.82
2020.06.08.20125963 Davenport, Berhane, Adriano, A. S. J. J. J. Dinnes, Deeks, C. J. Takwoingi, Y. S. Dittrich, D. Emperador, S. Beese, Cunningham, J. I. M. Harris, M. J. Dretzke, L. F. di Ruffano, S. Taylor-Phillips, Price, “Rapid, and, den Bruel and A. V. Spijker, Leeflang, R. L. Hooft, M. M. point-of-care and molecular-based antigen tests for diagnosis SARSof Reviews, Systematic of Database Cochrane Aug. infection,” CoV-2 [Online]. 2020.06.08.20125963 Davenport, Berhane, Adriano, A.S. J. J. J. Dinnes, Deeks, C.J. Takwoingi, Y.S. Dittrich, D. Emperador, S. Beese, Cunningham, J.I.M. Harris, M.J. Dretzke, L.F. di Ruffano, S. Taylor-Phillips, Price, "Rapid, and, den Bruel and A.V. Spijker, Leeflang, R. L. Hooft, M.M. point-of-care and molecular-based antigen test for diagnosis SARSof Reviews, Systematic of Database Cochrane Aug. [V-2] 0.81
Available: 2020. https://doi.org/10.1 002/14651858.cd01370 5 W. Zheng, B. Xu, Y. Xing, J. Peng, Z. Tang, Y. 2020.https://doi.org /10.1002/14651858.cd 013705 W. Zheng, B. Xu, Y. Xing, J. Peng, Z. Tang, Y 0.66
Sun, C. Xu, and F. Peng, “Chest CT for systematic detecting COVID-19: a Radiology, European review and meta-analysis accuracy,” diagnostic of Available: [Online]. Sun, C. Xu, F. Peng, “Chhest CT for systematic detection COVID-19: a Radiology, European review and meta-analysis accuracy”, diagnosis of available: [Online]。 0.88
2020. 5720–5727, pp. 2020. 5720-5727頁。 0.81
10, no. vol. 10、いいえ。 Vol. 0.72
30, May https://doi.org/10.1 007/s00330-020-06934 -2 B. Zoph and Q. V. Le, “Neural architecture search with reinforcement arXiv:1611.01578, arXiv preprint learning,” 2016. 30, May https://doi.org/10.1 007/s00330-020-06934 -2 B.Zoph and Q.V.Le, “強化arXiv:1611.01578, arXiv preprint learning” 2016年。 0.59
Guan, H. “EffiDean, Le, Zoph, B. M. Pham, J. and V. Q. Y. arXiv preprint sharing,” parameter via search cient neural architecture arXiv:1802.03268, 2018. transferable “Learning Le, and Q. V. Shlens, J. Zoph, V. Vasudevan, B. in Proceedings of the IEEE architectures for scalable image recognition,” conference computer vision and pattern recognition, on 2018, pp. Guan, H. “EffiDean, Le, Zoph, B. M. Pham, J. and V. Q. Y. arXiv preprint sharing”パラメータ via search cient neural architecture arXiv:1802.03268, 2018. transferable “Learning Le, and Q. V. Shlens, J. Zoph, V. Vasudevan, B. in Proceedings of the IEEE architectures for scalable image recognition”, conference computer vision and pattern recognition, 2018, pp. 0.99
8697– 8710. 8697– 8710. 0.94
英語(論文から抽出)日本語訳スコア
[8] [9] [10] [8] [9] [10] 0.85
[11] [12] [13] [11] [12] [13] 0.85
[14] [15] [16] [14] [15] [16] 0.85
[17] [18] [19] [17] [18] [19] 0.85
[20] [21] [22] [20] [21] [22] 0.85
[23] [24] [25] [26] [23] [24] [25] [26] 0.85
[27] [28] [29] [27] [28] [29] 0.85
K. Murphy, image Fernando, K. Murphy image Fernando, 0.80
Howard, Sandler, A. M. Pang, V. Chen, B. Tan, M. R. Vasudevan, search architecture for neural Platform-aware “Mnasnet: Le, V. Q. and Computer on Vision Conference the of Proceedings IEEE mobile,” in Pattern and Recognition, 2820–2828. Howard, Sandler, A.M. Pang, V. Chen, B. Tan, M.R. Vasudevan, ニューラルネットワーク対応の検索アーキテクチャ “Mnasnet: Le, V.Q. and Computer on Vision Conference the Proceedings IEEE mobile” (パターンと認識, 2820–2828)。 0.88
pp. 2019, architecture Differentiable “Darts: Yang, Y. and Simonyan, Liu, H. K. 2018. search,” and Zhuang, K. W. Sun, Zhang, Huang, He, H. Liang, S. J. X. with early architecture differentiable Z. Li, “Darts+: Improved search arXiv preprint arXiv:1909.06035, stopping,” 2019. pp. 2019, architecture differentiable “Darts: Yang, Y. and Simonyan, Liu, H. K. K. search” and Zhuang, K. W. Sun, Zhang, Huang, He, H. Liang, S. J. X. with early architecture differentiable Z. Li, “Darts+: Improved search arXiv preprint arXiv:1909.06035, Stop” 2019 0.90
Vajda, P. Tian, Y. Wu, F. P. B. Wu, X. Y. Vajda, P. Tian, Y. Wu, F. P. B. Wu, X. Y。 0.86
Sun, Y. Wang, Zhang, Dai, design convnet efficient “Fbnet: Hardware-aware Y. Jia, and K. Keutzer, in Proceedings of the IEEE via architecture neural differentiable search,” Recognition, and Vision Conference Pattern on Computer 2019, pp. Sun, Y. Wang, Zhang, Dai, design convnet efficient “Fbnet: Hardware-aware Y. Jia, and K. Keutzer, in Proceedings of the IEEE via architecture neural differentiable search”, Recognition, and Vision Conference Pattern on Computer 2019, pp。 0.91
10 734–10 742. 10 734–10 742. 0.84
L.-J. C. Liu, B. Zoph, M. Neumann, J. Shlens, W. Hua, Li, L. Fei-Fei, architecture neural A. and Huang, Yuille, “Progressive J. LJ。 C. Liu, B. Zoph, M. Neumann, J. Shlens, W. Hua, Li, L. Fei-Fei, Architecture Neural A. and Huang, Yuille, “Progressive J。 0.79
19–34, search,” 2018. pp. 19–34, search”. 2018年 pp。 0.78
and J. Tan, Q. とJ. TanはQ。 0.81
Le, E. Real, S. Moore, A. Selle, S. Saxena, Y. L. Suematsu, arXiv preprint of evolution “Large-scale A. Kurakin, classifiers,” arXiv:1703.01041, 2017. Le, E. Real, S. Moore, A. Selle, S. Saxena, Y. L. Suematsu, arXiv preprint of Evolution “Large-scale A. Kurakin, Classifiers” arXiv:1703.01041, 2017 0.88
C. Vinyals, K. H. Kavukcuoglu, and Simonyan, K. O. Liu, arXiv search,” architecture efficient for representations “Hierarchical arXiv:1711.00436, preprint 2017. of Proceedings the IEEE cnn,” in “Genetic L. and A. Yuille, Xie vision, computer on international conference 2017, pp. C. Vinyals氏, K. H. Kavukcuoglu氏, Simonyan氏, K. O. Liu氏, arXiv search” アーキテクチャは,“Hierarchical arXiv:1711.00436, preprint 2017” で "Genetic L. and A. Yuille, Xie vision, computer on International conference 2017" で,“Hierarchical arXiv:1711.00436, Proceedings the IEEE cnn” の表現に効率的である。
訳抜け防止モード: C. Vinyals、K.H. Kavukcuoglu、Simonyan、K.O. Liu。 arXiv search, ” 表現に効率的なアーキテクチャ “Hierarchical arXiv:1711.00436, preprint 2017 . of Proceedings the IEEE cnn”。 遺伝子L. and A. Yuille, Xie Vision, Computer on International Conference 2017 pp。
0.90
1379–1388. 1379–1388. 0.71
E. Real, A. Aggarwal, Y. Huang, and Q. V. Le, “Regularized evolution of Proceedings aaai the search,” for architecture classifier in image intelligence, conference on artificial pp. E. Real, A. Aggarwal, Y. Huang, Q. V. Le, “Regularized Evolution of Proceedings aaai the search” for architecture classificationifier in image Intelligence, conference on artificial pp。 0.87
33, vol. 4780–4789. 33、Vol。 4780–4789. 0.68
2019, and C. Xu, Z. Yang, Y. Wang, X. Chen, B. Shi, C. Xu, C. Xu, Q. Tian, Continuous “Cars: for efficient neural architecture evolution search,” of Proceedings IEEE/CVF Conference Computer Vision and the on in Recognition, Pattern pp. 2019年、C. Xu, Z. Yang, Y. Wang, X. Chen, B. Shi, C. Xu, C. Xu, Q. Tian, Continuous “Cars: for efficient neural architecture evolution search” of Proceedings IEEE/CVF Conference Computer Vision and the on in Recognition, Pattern pp. 0.97
2020, 1829–1838. 2020, 1829–1838. 0.84
Zhang, X. rein“Multi-objective and Ma, Chu, B. R. Xu, H. preprint arXiv search,” architecture neural in evolution forced mobile arXiv:1901.01074, 2019. Zhang, X. rein “Multi-objective and Ma, Chu, B.R. Xu, H. preprint arXiv search” 進化中のアーキテクチャニューラルは、モバイル arXiv:1901.01074, 2019 を強制した。
訳抜け防止モード: Zhang, X. rein “Multi - objective and Ma, Chu, B. R. Xu, H. preprint arXiv search, ” architecture neural in evolution forced mobile arXiv:1901.01074, 2019。
0.88
C.-H. C.-H. Hsu, S.-H. Chang, J.-H. Liang, H.-P. Chou, Liu, S.-C. Chang, Pan, Y.-T. J.-Y. C.-H.C.H.Hsu, S.-H. Chang, J.-H. Liang, H.-P. Chou, Liu, S.-C. Chang, Pan, Y.-T. J.-Y 0.61
Chen, W. Wei, and D.-C. Juan, “Monas: MultiarXiv learning,” reinforcement using search architecture neural objective preprint arXiv:1806.10332, 2018. Chen, W. Wei, D.-C. Juan, “Monas: MultiarXiv learning”, reinforcement using search architecture neural objective preprint arXiv:1806.10332, 2018. 0.96
L.-C. Zhmoginov, A. M. Howard, and A. Sandler, M. Zhu, Chen, in Proceedings residuals “Mobilenetv2: and Inverted linear bottlenecks,” of the IEEE conference on computer vision and pattern recognition, 4510–4520. L.C. Zhmoginov, A. M. Howard, A. Sandler, M. Zhu, Chen, in Proceedings residuals “Mobilenetv2: and Inverted linear bottlenecks” of the IEEE conference on computer vision and pattern recognition, 4510–4520。 0.95
2018, pp. optimization many-objective evolutionary “An H. and Deb K. Jain, sorting nondominated reference-point-base d using algorithm approach, on IEEE transactions solving box with constraints,” part i: problems evolutionary computation, 4, no. 2018年、p。 最適化多対象進化論 “An H. and Deb K. Jain, sorting nondominated reference-point-base d using algorithm approach, on IEEE transaction solve box with constraints” パートi: problem evolutionary computing, 4, no。 0.70
pp. 577–601, 2013. vol. pp. 577-601, 2013。 0.83
18, K. Zhang, X. Liu, Shen, Z. Li, Y. 18, K. Zhang, X. Liu, Shen, Z. Li, Y。 0.97
Sang, X. Wu, Y. Zha, W. Liang, J. Sang, X. Wu, Y. Zha, W. Liang, J。 0.94
al., et applicable AI C. Wang, K. Wang accurate system for “Clinically of prognosis and quantitative measurements, diagnosis, pneucovid-19 Cell, 2020. tomography,” using monia computed Vladzymyrskyy, A. Andreychenko, S. N. Pavlov, Morozov, A. I. Gombolevskiy, N. Ledikhova, V. Blokhin, P. Gelezhe, Gonchar, A. V. Chernina, and V. “Mosmeddata: Chest ct with Babkin, scans medRxiv, https: Available: [Online]. al., et apply ai c. wang, k. wang correct system for "clinically of cancer and quantitative measurement, diagnosis, pneucovid-19 cell, 2020" using monia computed vladzymyrskyy, a. andreychenko, s. n. pavlov, morozov, a. i. gombolevskiy, n. ledikhova, v. blokhin, p. gelezhe, gonchar, a. v. chernina, v. “mosmeddata: chest ct with babkin, scans medrxiv, https: available: [オンライン] 0.85
2020. findings,” related covid-19 //www.medrxiv.org/co ntent/early/2020/05/ 22/2020.05.20.201003 62 automated “A and A. Rahimzadeh, fully Sakhaei, S. Attar, M. M. deep new learning-based network for detecting covid-19 from a and medRxiv, ct large lung scan dataset,” 2020. 2020. findings” related covid-19 //www.medrxiv.org/co ntent/2020/05/22/202 0.0362 automated “A and A. Rahimzadeh, fully Sakhaei, S. Attar, M. M. Deep new learning-based network for detect covid-19 from a and medRxiv, ct large lung scan dataset”. 2020 0.71
[Online]. Available: https: //www.medrxiv.org/co ntent/early/2020/06/ 12/2020.06.08.201215 41 Paluri, and M. LeCun, Y. Ray, J. Torresani, L. H. Wang, Tran, D. “A 2017. recognition,” action convolutions spatiotemporal look closer at for Arzani, H. Sharma, V. M. A. Fayyaz, A. Diba, Karami, M. M. R. Yousefzadeh, Van Gool, “Temporal 3d convnets: New arand L. arXiv preprint chitecture and transfer learning for video classification,” arXiv:1711.08200, 2017. [オンライン] 公開: https: //www.medrxiv.org/co ntent/early/2020/06/ 12/2020.06.20121541 Paluri, and M. LeCun, Y. Ray, J. Torresani, L.H. Wang, Tran, D. "2017 recognition", action convolutions spatiooral look for Arzani, H. Sharma, V.M. A. Fayyyaz, A. Diba, Karami, M.M.R. Yousefzadeh, Van Gool, "Temporal 3d convnets: New arand L. arXiv preprint chitecture and transfer for video classification" arXiv:11, 2017. 0.74
“Learning and A. Torralba, B. Zhou, A. Khosla, A. Lapedriza, A. Oliva, in Proceedings of the IEEE localization,” for discriminative deep features on conference pattern recognition, computer vision and 2016, pp. learning and a. torralba, b. zhou, a. khosla, a. lapedriza, a. oliva, in proceedings of the ieee localization” for discriminative deep features on conference pattern recognition, computer vision and 2016 pp。
訳抜け防止モード: 『学習とA. Torralba, B. Zhou, A. Khosla』 A. Lapedriza, A. Oliva, in Proceedings of the IEEE Localization”[原文へ] 会議のパターン認識やコンピュータビジョンに関する 差別的な深い特徴を 2016年、p。
0.82
2921– 2929. 2921– 2929. 0.94
Ciompi, A. E. B. T. Litjens, G. F. Setio, Kooi, A. Ciompi, A. E. B. T. Litjens, G. F. Setio, Kooi, A。 0.85
A. Bejnordi, S´anchez, van Ginneken, der Laak, B. van J. A. Bejnordi, S ́anchez, van Ginneken, der Laak, B. van J 0.96
A. M. Ghafoorian, and C. I. a. m. ghafoorian と c. i. 0.78
Image analysis,” Medical in medical learning on “A survey deep image Analysis, 2017. A Survey Deep Image Analysis, 2017”, Medical in Medical Learning on "A survey Deep Image Analysis, 2017” 0.86
1995, no. vol. 1995年、ノー。 Vol. 0.75
42, pp. 60–88, Interpretability and B. Ghoshal and A. Tucker, “Estimating Uncertainty Detection,” in Deep Learning for Coronavirus (COVID-19) 1–14, http://arxiv.org/abs /2003.10769 [Online]. 42, pp。 60-88, Interpretability and B. Ghoshal and A. Tucker, “Estimating Uncertainty Detection” in Deep Learning for Coronavirus (COVID-19) 1–14, http://arxiv.org/abs /2003.10769 [オンライン] 0.77
Available: 2020. pp. 2020年発売。 pp. 0.73
[30] [31] [32] [30] [31] [32] 0.85
[33] [34] [35] [33] [34] [35] 0.85
[36] [37] [38] [36] [37] [38] 0.85
[39] [40] [41] [42] [43] [39] [40] [41] [42] [43] 0.85
[44] [45] [46] [44] [45] [46] 0.85
[47] [48] [49] [50] [47] [48] [49] [50] 0.85
10 and and Y. Xia, “COVID-19 Shen, Li, C. Zhang, Y. Xie, Y. J. 10 そして Y.Xia, “COVID-19 Shen, Li, C. Zhang, Y. Xie, Y. J。 0.83
Screening on Learning based Anomaly Deep X-ray Using Chest Images Detection,” http://arxiv.org/abs /2003.12338 [Online]. Anomaly Deep X-ray using Chest Images Detection”. http://arxiv.org/abs /2003.12338 [オンライン] 0.72
Available: 2020. Pamuk, Detection “Automatic and Kaya, A. C. Z. Narin, of Using Coronavirus Deep Images Disease (COVID-19) X-ray and 2020. http: Available: [Online]. 2020年発売。 Pamuk, Detection “Automatic and Kaya, A. C. Z. Narin, of using Coronavirus Deep Images Disease (COVID-19) X-ray and 2020. http: available: [オンライン] 0.77
Networks,” Neural Convolutional //arxiv.org/abs/2003 .10849 Tang, X. J. Shi, X. Chu, X. Neural Convolutional //arxiv.org/abs/2003 .10849 Tang, X. J. Shi, X. Chu, X. 0.69
He, S. Wang, S. Liu, C. Yan, J. Zhang, and model G. “Benchmarking Ding, deep learning automated models scans,” medRxiv, 2020. chest detection with covid-19 design ct for COVIDof “Classification and M. Kaur, Singh, V. Kumar, Vaishali, D. differential multi-objective CT chest 19 using patients from images journal European of networks,” evolution-based convolutional neural clinical microbiology & infectious diseases : of official publication European Society of Clinical Microbiology, 2020. 彼は、S. Wang, S. Liu, C. Yan, J. Zhang, and model G. “Benchmarking Ding, Deep Learning automated model scans” medRxiv, 2020. chest detection with covid-19 design ct for COVIDof “Classification and M. Kaur, Singh, V. Kumar, Vaishali, D. differential multi-objective CT chest 19 using patients from images journal European of network””. evolution-based convolutional neural microbiology & infection disease: of European publication of Clinical Microbiology, 2020. 0.94
N. Acharya, U. R. A. Ardakani, A. R. Kanafi, A. and Khadem, manage to technique learning of “Application Mohammadi, A. deep CT using practice routine in images: COVID-19 clinical Results Computers in Biology and of 10 neural networks,” convolutional Medicine, no. N.Acharya, U.R.A. Ardakani, A.R. Kanafi, A.R. Kanafi, A.R. Kanafi, A. and Khademは、画像に練習ルーチンを使用した「Application Mohammadi, A. Deep CT using practice routine in images: COVID-19 Clinical Results Computers in Biology and of 10 neural Network」のテクニック学習を管理しています。
訳抜け防止モード: N. Acharya, U. R. A. Ardakani, A. R. Kanafi A. and Khadem, manage to technique learning of "Application Mohammadi, A. Deep CT using practice routine in image : COVID-19 Clinical Results Computers in Biology そして10のニューラルネットワーク、”畳み込み医療、ノー”。
0.94
March, vol. 121, p. 103795, 2020. 3月、。 121, p. 103795, 2020。 0.72
[Online]. Available: http://www.sciencedi rect.com/science/art icle/pii/S0010482520 301645 Alom, M. M. M. Taha, K. and T. M. Nasrin, S. Rahman, M. S. Z. V. “Covid Asari, learning deep detection with multi-task MTNet: Covid-19 2020. approaches,” Zhang, Y. Zhang, X. [オンライン] http://www.sciencedi rect.com/science/art icle/pii/S0010482530 1645 Alom, M.M.M. Taha, K. and T.M. Nasrin, S. Rahman, M.S.Z.V. “Covid Asari, learn deep detection with multi-task MTNet: Covid-19 2020. approach”, Zhang, Y. Zhang, X。 0.69
He, X. Yang, J. Zhao, Xing, and P. Xie, S. E. COVID-19 Deep “Sample-Efficient Learning for Diagnosis Based on Scans,” medRxiv, 2020. no. 彼はX. Yang, J. Zhao, Xing, P. Xie, S.E. COVID-19 Deep “Sample-Efficient Learning for diagnosis based on Scans”, medRxiv, 2020。 0.93
Xx, CT 2020.04.13.20063941, p. vol. Xx, CT 2020.04.13. 20063941, p。 0.68
XX, C. M. P. Zare, S. Cicalese, P. A. XX, C. M. P. Zare, S. Cicalese, P. A。 0.82
A. Yuan, Abavisani, C. Mobiny, P. M. Wu, J. Ahuja, de Groot, and H. Van Nguyen, “Radiologist-Level COVID-19 Detection Using CT Scans with Detail-Oriented Capsule Networks,” 2020. A. Yuan, Abavisani, C. Mobiny, P. M. Wu, J. Ahuja, de Groot, and H. Van Nguyen, “Radiologist-Level COVID-19 Detection Using CT Scans with Detail-Oriented Capsule Networks”, 2020”。 0.88
[Online]. Available: http://arxiv.org/abs /2004.07407 “Deep Chest from Detection Learning-based using CT COVID-19 for Label,” medRxiv, [Online]. [オンライン] 利用可能: http://arxiv.org/abs /2004.07407 “Deep Chest from Detection Learning-based using CT COVID-19 for Label”, medRxiv, [Online]。 0.70
Avail2020. 2020.03.12.20027185, p. Weak http://medrxiv.org/c ontent/early/2020/03 /17/2020.03.12.20027 185 able: B. Kong, Y. Xu, Qin, L. Y. Bai, Wang, X. 2020年。 2020.03.12.20027185, p. Weak http://medrxiv.org/c ontent/early/2020/03 /17/2020.03.12.20027 185 can: B. Kong, Y. Xu, Qin, L. Y. Bai, Wang, X 0.54
Z. L. Li, Yin, J. Lu, et al., intelligence covid-19 distinguishes “Artificial Song Q. Z. L. Li, Yin, J. Lu, al., Intelligence covid-19は、“Artificial Song Q”を区別する。 0.77
Z. Fang, ct,” Radiology, p. 200905, from community acquired pneumonia on chest 2020. state-of-the-art,” of “Automl: A survey and X. Chu, X. Radiology, p. 200905, from community acquired pneumonia on chest 2020. State-of-the-art”. “Automl: A survey and X. Chu, X. 0.85
He, K. Zhao, the arXiv:1908.00709, preprint arXiv 2019. He, K. Zhao, the arXiv:1908.00709, preprint arXiv 2019 0.89
H. Metzen, and F. architecture T. Elsken, “Neural search: A J. Hutter, preprint arXiv arXiv:1808.05377, survey,” 2018. H. Metzen, and F. architecture T. Elsken, “Neural search: A J. Hutter, preprint arXiv:1808.05377, survey”。 0.96
——, search neural “Efficient multi-objective lamarckvia architecture arXiv:1804.09081, arXiv preprint 2018. ian evolution,” A. G. Howard, M. Zhu, B. Chen, D. Kalenichenko, W. Wang, T. Weyand, convolutional “Efficient and H. A. Mobilenets, M. Andreetto, netarXiv:1704.04861, arXiv preprint works for mobile vision applications,” 2017. A.G. Howard, M. Zhu, B. Chen, D. Kalenichenko, W. Wang, T. Weyand, Convolutional “Efficient and H.A. Mobilenets, M. Andreetto, netarXiv:1704.04861, arXiv preprint Works for Mobile Vision Applications” 2017年。
訳抜け防止モード: を検索する。 arXiv:1804.09081。 arXiv preprint 2018 . ian evolution, A. G. Howard, M. Zhu, B. Chen, D. Kalenichenko, W. Wang, T. Weyand convolutional “Efficient and H. A. Mobilenets, M. Andreetto, netarXiv:1704.04861, arXivのプレプリントは、モバイルビジョンアプリケーションで使える。
0.84
Sun, J. and S. Ren, K. He, X. Zhang, image learning for residual “Deep vision computer the of in Proceedings IEEE conference on recognition,” and recognition, pattern 770–778. Sun, J. and S. Ren, K. He, X. Zhang, image learning for residual “Deep vision computer the of in Proceedings IEEE conference on recognition” and recognition, pattern 770–778。 0.94
2016, pp. preprint arXiv network,” M. Q. Chen, S. Yan, “Network Lin, and in arXiv:1312.4400, 2013. 2016年、p。 とM.Q. Chen, S. Yan, “Network Lin, and in arXiv:1312.4400, 2013。 0.80
Z. Guo, X. Zhang, H. Mu, W. Heng, Z. Liu, Y. Wei, and J. Z. Guo, X. Zhang, H. Mu, W. Heng, Z. Liu, Y. Wei, J。 0.90
Sun, “Single arXiv uniform sampling,” path architecture neural arXiv:1904.00420, preprint 2019. Sun, “Single arXiv uniform Sample”, path architecture neural arXiv:1904.00420, preprint 2019。 0.94
“Eena: and Y. Xu, efficient H. Zhu, Z. Eena: and Y. Xu, efficient H. Zhu, Z. 0.78
An, C. Yang, K. Xu, E. Zhao, evothe of IEEE Proceedings International neural architecture,” lution of in Vision Workshops, on Conference Computer 2019, pp. An, C. Yang, K. Xu, E. Zhao, evothe of IEEE Proceedings International Neural Architecture”. In Vision Workshops, on Conference Computer 2019, pp. 0.83
0–0. optimization,” stochastic for “Adam: A method J. Ba, and P. Kingma D. 2014. with descent gradient Stochastic “Sgdr: Hutter, and Loshchilov I. F. warm restarts,” 2016. 0–0. Adam: A method J. Ba, and P. Kingma D. 2014」の「Optimization」と、下降勾配の「Sgdr: Hutter, and Loshchilov I.F. warm restarts」の確率。 0.72
H. X. Bai, B. Hsieh, Z. K. Xiong, Halsey, J. W. Choi, T. M. L. Tran, Pan, L.-B. H. X. Bai, B. Hsieh, Z. K. Xiong, Halsey, J. W. Choi, T. M. L. Tran, Pan, L.-B 0.83
Shi, I. D.-C. Wang, J. Mei, X.-L. Jiang, Q.-H. Zeng, Healey, M. Li, S. Agarwal, P.-F. Egglin, T. T. Xie, F.-F. S. Hu, K. K. differentiating radiologists “Performance Liao, and W.-H. Atalay, of in Radiology, from covid-19 chest pneumonia non-covid-19 viral at ct,” vol. shi, i. d.-c. wang, j. mei, x.-l. jiang, q.-h. zeng, healey, m. li, s. agarwal, p.-f. egglin, t. t. xie, f.-f. hu, k. k. differentiating radioologists "performance liao, w.-h. atalay, from covid-19 chest pneumonia non-covid-19 viral at ct." vol. 0.72
296, 2, pp. 296, 2, pp。 0.80
E46–E54, 2020, pMID: [Online]. E46–E54, 2020, pMID: [オンライン]。 0.74
no. 32155105. ダメよ 32155105. 0.70
Available: https://doi.org/10.1 148/radiol.202020082 3 https://doi.org/10.1 148/radiol.202020082 3 0.38
search with one-shot 検索します。 one‐shot 0.55
neural 神経 0.65
                     ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。