論文の概要: Network architecture search of X-ray based scientific applications
- arxiv url: http://arxiv.org/abs/2404.10689v1
- Date: Tue, 16 Apr 2024 16:09:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-17 16:14:57.604658
- Title: Network architecture search of X-ray based scientific applications
- Title(参考訳): X線に基づく科学応用のネットワークアーキテクチャ探索
- Authors: Adarsha Balaji, Ramyad Hadidi, Gregory Kollmer, Mohammed E. Fouda, Prasanna Balaprakash,
- Abstract要約: X線および電子回折に基づく顕微鏡は、ブラッグピーク検出とポチグラフィーを用いて原子分解能で3Dイメージングを行う。
近年、ディープニューラルネットワークの使用により、既存の最先端アプローチが改善されている。
- 参考スコア(独自算出の注目度): 4.8287663496299755
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: X-ray and electron diffraction-based microscopy use bragg peak detection and ptychography to perform 3-D imaging at an atomic resolution. Typically, these techniques are implemented using computationally complex tasks such as a Psuedo-Voigt function or solving a complex inverse problem. Recently, the use of deep neural networks has improved the existing state-of-the-art approaches. However, the design and development of the neural network models depends on time and labor intensive tuning of the model by application experts. To that end, we propose a hyperparameter (HPS) and neural architecture search (NAS) approach to automate the design and optimization of the neural network models for model size, energy consumption and throughput. We demonstrate the improved performance of the auto-tuned models when compared to the manually tuned BraggNN and PtychoNN benchmark. We study and demonstrate the importance of the exploring the search space of tunable hyperparameters in enhancing the performance of bragg peak detection and ptychographic reconstruction. Our NAS and HPS of (1) BraggNN achieves a 31.03\% improvement in bragg peak detection accuracy with a 87.57\% reduction in model size, and (2) PtychoNN achieves a 16.77\% improvement in model accuracy and a 12.82\% reduction in model size when compared to the baseline PtychoNN model. When inferred on the Orin-AGX platform, the optimized Braggnn and Ptychonn models demonstrate a 10.51\% and 9.47\% reduction in inference latency and a 44.18\% and 15.34\% reduction in energy consumption when compared to their respective baselines, when inferred in the Orin-AGX edge platform.
- Abstract(参考訳): X線および電子回折に基づく顕微鏡は、ブラッグピーク検出とポチグラフィーを用いて原子分解能で3Dイメージングを行う。
通常、これらの手法は、Psuedo-Voigt関数や複雑な逆問題の解法のような計算的に複雑なタスクを用いて実装される。
近年、ディープニューラルネットワークの使用により、既存の最先端アプローチが改善されている。
しかし、ニューラルネットワークモデルの設計と開発は、アプリケーションの専門家による時間と労働集約的なチューニングに依存している。
そこで我々は,モデルサイズ,エネルギー消費,スループットのためのニューラルネットワークモデルの設計と最適化を自動化するために,ハイパーパラメータ (HPS) とニューラルアーキテクチャサーチ (NAS) アプローチを提案する。
手作業によるBraggNNとPtychoNNベンチマークと比較して,自動チューニングモデルの性能向上を示す。
本研究は,ブラッグピーク検出と画像再構成の性能を高めるために,調整可能なハイパーパラメータの探索空間について検討し,その重要性を実証するものである。
1)BraggNNのNASとHPSは,モデルサイズを87.57.%削減したブラッグピーク検出精度を31.03.%改善し,(2)PtychoNNはモデル精度を16.77.%改善し,ベースラインのPtychoNNモデルと比較してモデルサイズを12.82.%削減した。
Orin-AGXプラットフォーム上で推定された場合、最適化されたBraggnnとPtychonnモデルでは、推論遅延の10.51\%と9.47\%の削減と、Orin-AGXエッジプラットフォームで推定された各ベースラインと比較して44.18\%と15.34\%のエネルギー消費の削減が示されている。
関連論文リスト
- COVID-19 Electrocardiograms Classification using CNN Models [1.1172382217477126]
深層学習アルゴリズムの統合による心電図(ECG)データの利用により、COVID-19を自動的に診断するための新しいアプローチが提案されている。
CNNモデルは、VGG16、VGG19、InceptionResnetv2、InceptionV3、Resnet50、Densenet201を含む提案されたフレームワークで利用されている。
この結果,VGG16モデルと比較すると,他のモデルに比べて比較的精度が低いことがわかった。
論文 参考訳(メタデータ) (2021-12-15T08:06:45Z) - Rethinking Deconvolution for 2D Human Pose Estimation Light yet Accurate
Model for Real-time Edge Computing [0.0]
このシステムは精度が高く、SOTA HRNet 256x192の94.5%の精度を達成した。
我々のモデルはエンコーダ・デコーダアーキテクチャを採用し、その効率を改善するために注意深く縮小されている。
論文 参考訳(メタデータ) (2021-11-08T01:44:46Z) - Improving the Deployment of Recycling Classification through Efficient
Hyper-Parameter Analysis [0.0]
本稿では,協調的なリサイクル分類モデルであるWasteNetのより効率的なバージョンを開発する。
新たに開発されたモデルは、テストセット精度95.8%、実世界の精度95%、オリジナルよりも14%向上した。
私たちの加速パイプラインは、Jetson Nano組み込みデバイスで毎秒750%から24パーセントの速度でモデルスループットを向上しました。
論文 参考訳(メタデータ) (2021-10-21T10:42:14Z) - Towards Efficient Point Cloud Graph Neural Networks Through
Architectural Simplification [8.062534763028808]
我々は,グラフニューラルネットワーク(GNN)モデルの効率向上に向けて,これらのモデルが,最初の特徴抽出層(Feature extracting, layer)の表現力によって大きく制限されていることを観察する。
特徴抽出層がモデル性能の低下を最小限に抑えながら維持される限り、これらのモデルを根本的に単純化することは可能である。
我々のアプローチは、DGCNNのようなモデルにおけるグラフ層において、メモリ消費を20$times$、レイテンシを9.9$times$に削減します。
論文 参考訳(メタデータ) (2021-08-13T17:04:54Z) - Sparse Flows: Pruning Continuous-depth Models [107.98191032466544]
生成モデルにおいて,プルーニングによりニューラルネットワークの一般化が向上することを示す。
また、プルーニングは、元のネットワークに比べて最大98%少ないパラメータで、精度を損なうことなく、最小かつ効率的なニューラルODE表現を見出すことを示した。
論文 参考訳(メタデータ) (2021-06-24T01:40:17Z) - Effective Model Sparsification by Scheduled Grow-and-Prune Methods [73.03533268740605]
本稿では,高密度モデルの事前学習を伴わない新規なGrow-and-prune(GaP)手法を提案する。
実験により、そのようなモデルは様々なタスクにおいて80%の間隔で高度に最適化された高密度モデルの品質に適合または打ち勝つことができることが示された。
論文 参考訳(メタデータ) (2021-06-18T01:03:13Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - Accuracy Prediction with Non-neural Model for Neural Architecture Search [185.0651567642238]
精度予測に非神経モデルを用いる別の手法について検討する。
我々は、ニューラルネットワーク探索(NAS)の予測因子として、勾配向上決定木(GBDT)を活用する。
NASBench-101とImageNetの実験は、NASの予測器としてGBDTを使用することの有効性を示した。
論文 参考訳(メタデータ) (2020-07-09T13:28:49Z) - DrNAS: Dirichlet Neural Architecture Search [88.56953713817545]
ディリクレ分布をモデルとした連続緩和型混合重みをランダム変数として扱う。
最近開発されたパスワイズ微分により、ディリクレパラメータは勾配に基づく一般化で容易に最適化できる。
微分可能なNASの大きなメモリ消費を軽減するために, 単純かつ効果的な進行学習方式を提案する。
論文 参考訳(メタデータ) (2020-06-18T08:23:02Z) - FBNetV3: Joint Architecture-Recipe Search using Predictor Pretraining [65.39532971991778]
サンプル選択とランキングの両方を導くことで、アーキテクチャとトレーニングのレシピを共同でスコアする精度予測器を提案する。
高速な進化的検索をCPU分で実行し、さまざまなリソース制約に対するアーキテクチャと準備のペアを生成します。
FBNetV3は最先端のコンパクトニューラルネットワークのファミリーを構成しており、自動と手動で設計された競合より優れている。
論文 参考訳(メタデータ) (2020-06-03T05:20:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。