論文の概要: The hybrid approach -- Convolutional Neural Networks and Expectation
Maximization Algorithm -- for Tomographic Reconstruction of Hyperspectral
Images
- arxiv url: http://arxiv.org/abs/2205.15772v1
- Date: Tue, 31 May 2022 13:22:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-01 20:32:35.306241
- Title: The hybrid approach -- Convolutional Neural Networks and Expectation
Maximization Algorithm -- for Tomographic Reconstruction of Hyperspectral
Images
- Title(参考訳): ハイパースペクトル画像のトモグラフィ再構成のための畳み込みニューラルネットワークと期待最大化アルゴリズムのハイブリッドアプローチ
- Authors: Mads J. Ahleb{\ae}k, Mads S. Peters, Wei-Chih Huang, Mads T. Frandsen,
Ren\'e L. Eriksen, Bjarke J{\o}rgensen
- Abstract要約: 我々はCTIS(Computed tomography imaging spectrometry)画像から超スペクトルデータ立方体再構成法を提案する。
シミュレーションCTIS画像から,100times100times25$および100times100times100$ボクセルを25および100のスペクトルチャネルに対応付けて,データキューブを再構築する手法の訓練と試験を行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a simple but novel hybrid approach to hyperspectral data cube
reconstruction from computed tomography imaging spectrometry (CTIS) images that
sequentially combines neural networks and the iterative Expectation
Maximization (EM) algorithm. We train and test the ability of the method to
reconstruct data cubes of $100\times100\times25$ and $100\times100\times100$
voxels, corresponding to 25 and 100 spectral channels, from simulated CTIS
images generated by our CTIS simulator. The hybrid approach utilizes the
inherent strength of the Convolutional Neural Network (CNN) with regard to
noise and its ability to yield consistent reconstructions and make use of the
EM algorithm's ability to generalize to spectral images of any object without
training. The hybrid approach achieves better performance than both the CNNs
and EM alone for seen (included in CNN training) and unseen (excluded from CNN
training) cubes for both the 25- and 100-channel cases. For the 25 spectral
channels, the improvements from CNN to the hybrid model (CNN + EM) in terms of
the mean-squared errors are between 14-26%. For 100 spectral channels, the
improvements between 19-40% are attained with the largest improvement of 40%
for the unseen data, to which the CNNs are not exposed during the training.
- Abstract(参考訳): ニューラルネットワークと反復的期待最大化(em)アルゴリズムを逐次結合したct画像解析(ctis)画像から,超スペクトルデータキューブ再構成のための簡易かつ新しいハイブリッド手法を提案する。
我々は,ctisシミュレータによって生成されたシミュレーションctis画像から,25~100のスペクトルチャネルに対応する100\times100\times25$と100\times100$voxelsのデータキューブを再構成する手法の訓練とテストを行った。
このハイブリッドアプローチは、ノイズに対する畳み込みニューラルネットワーク(cnn)の固有の強みと一貫した再構成を可能にする能力を利用し、トレーニングなしで任意の物体のスペクトル画像に一般化するemアルゴリズムの能力を利用する。
ハイブリッドアプローチは、25チャンネルと100チャンネルの両方のケースにおいて、CNNトレーニング(CNNトレーニングを含む)と見えないキューブ(CNNトレーニングを除く)の両方に対して、CNNとEM単独よりも優れたパフォーマンスを達成する。
25のスペクトルチャネルでは、平均二乗誤差の点でCNNからハイブリッドモデル(CNN + EM)への改善は14~26%である。
100のスペクトルチャネルにおいて、19~40%の改善は、トレーニング中にCNNが露出しない、見えないデータに対する40%の最大の改善によって達成される。
関連論文リスト
- HybridAugment++: Unified Frequency Spectra Perturbations for Model
Robustness [9.62543698736491]
畳み込みニューラルネットワーク(CNN)は,分散シフト下での一般化性能が低いことが知られている。
本稿では,CNNの高周波数成分への依存性を低減するための,シンプルで効果的なデータ拡張手法であるHybridAugmentを提案する。
第二にHybridAugment++を提案する。これは階層的な拡張手法であり、様々な周波数スペクトルの増幅を統一しようとするものである。
論文 参考訳(メタデータ) (2023-07-21T18:00:23Z) - Attention-based Feature Compression for CNN Inference Offloading in Edge
Computing [93.67044879636093]
本稿では,デバイスエッジ共振器におけるCNN推論の計算負荷について検討する。
エンドデバイスにおける効率的な特徴抽出のための新しいオートエンコーダベースのCNNアーキテクチャ(AECNN)を提案する。
実験の結果、AECNNは中間データを約4%の精度で256倍圧縮できることがわかった。
論文 参考訳(メタデータ) (2022-11-24T18:10:01Z) - Decoupled Mixup for Generalized Visual Recognition [71.13734761715472]
視覚認識のためのCNNモデルを学習するための新しい「デカップリング・ミクスアップ」手法を提案する。
本手法は,各画像を識別領域と雑音発生領域に分離し,これらの領域を均一に組み合わせてCNNモデルを訓練する。
実験結果から,未知のコンテキストからなるデータに対する本手法の高一般化性能を示す。
論文 参考訳(メタデータ) (2022-10-26T15:21:39Z) - A heterogeneous group CNN for image super-resolution [127.2132400582117]
畳み込みニューラルネットワーク(CNN)は、深いアーキテクチャを通して顕著な性能を得た。
異種グループSR CNN(HGSRCNN)を,異なるタイプの構造情報を利用して高品質な画像を得る。
論文 参考訳(メタデータ) (2022-09-26T04:14:59Z) - Stable Parallel Training of Wasserstein Conditional Generative
Adversarial Neural Networks [0.0]
本稿では,固定計算予算の制約の下で,条件付き生成逆ニューラルネットワーク(W-CGAN)を訓練するための,安定かつ並列なアプローチを提案する。
CIFAR10、CIFAR100、ImageNet1kデータセットに対するアプローチについて説明する。
性能は、限られた計算時間と計算資源内でのスケーラビリティと最終的な精度の観点から評価される。
論文 参考訳(メタデータ) (2022-07-25T16:30:40Z) - Transformed CNNs: recasting pre-trained convolutional layers with
self-attention [17.96659165573821]
視覚変換器(ViT)は、畳み込みネットワーク(CNN)の強力な代替手段として登場した。
本研究では、これらレイヤを畳み込み層として初期化することによって、これらのレイヤのトレーニングに要する時間を短縮するアイデアについて検討する。
微調整は50回しか行われず、結果として得られたT-CNNの性能は著しく向上した。
論文 参考訳(メタデータ) (2021-06-10T14:56:10Z) - Evolving Deep Convolutional Neural Network by Hybrid Sine-Cosine and
Extreme Learning Machine for Real-time COVID19 Diagnosis from X-Ray Images [0.5249805590164902]
ディープ・コンボリューショナル・ネットワーク(CNN)は、COVID-19陽性症例の診断に応用できるツールとみなすことができる。
本稿では,最後の完全接続層ではなく,ELM(Extreme Learning Machine)を用いることを提案する。
提案手法は、COVID-Xray-5kデータセットで98.83%の最終的な精度で比較ベンチマークを上回っている。
論文 参考訳(メタデータ) (2021-05-14T19:40:16Z) - Fast and accurate learned multiresolution dynamical downscaling for
precipitation [0.9786690381850356]
低解像度と高分解能のシミュレーションを組み合わせることで、ニューラルネットワークをトレーニングし、前者から後者にマップします。
各CNNタイプは、平均二乗誤差(MSE)などの従来の損失関数と条件付き生成逆転ネットワーク(CGAN)の両方で訓練します。
CNNに基づく4つの新しい高分解能降水結果と、元の高分解能シミュレーション、双線形補間および最先端CNNに基づく超分解能(SR)技術から生じる降水量を比較した。
論文 参考訳(メタデータ) (2021-01-18T00:25:04Z) - Exploring Deep Hybrid Tensor-to-Vector Network Architectures for
Regression Based Speech Enhancement [53.47564132861866]
我々は、CNN-TTというハイブリッドアーキテクチャが、モデルパラメータを小さくして高品質な性能を維持することができることを見出した。
CNN-TTは、音声品質を改善するために、特徴抽出のために下部に複数の畳み込み層で構成されている。
論文 参考訳(メタデータ) (2020-07-25T22:21:05Z) - Curriculum By Smoothing [52.08553521577014]
畳み込みニューラルネットワーク(CNN)は、画像分類、検出、セグメンテーションなどのコンピュータビジョンタスクにおいて顕著な性能を示している。
アンチエイリアスフィルタやローパスフィルタを用いてCNNの機能埋め込みを円滑化するエレガントなカリキュラムベースのスキームを提案する。
トレーニング中に特徴マップ内の情報量が増加するにつれて、ネットワークはデータのより優れた表現を徐々に学習することができる。
論文 参考訳(メタデータ) (2020-03-03T07:27:44Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。