論文の概要: D3C2-Net: Dual-Domain Deep Convolutional Coding Network for Compressive
Sensing
- arxiv url: http://arxiv.org/abs/2207.13560v1
- Date: Wed, 27 Jul 2022 14:52:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-28 13:15:47.581769
- Title: D3C2-Net: Dual-Domain Deep Convolutional Coding Network for Compressive
Sensing
- Title(参考訳): D3C2-Net:圧縮センシングのためのデュアルドメイン深部畳み込み符号化ネットワーク
- Authors: Weiqi Li, Bin Chen, Jian Zhang
- Abstract要約: 深部展開ネットワーク(DUN)は圧縮センシング(CS)において顕著な成功を収めた
提案したフレームワークをディープニューラルネットワークに展開することにより、新たなデュアルドメインディープ畳み込み符号化ネットワーク(D3C2-Net)をさらに設計する。
自然画像とMR画像の実験により、我々のD3C2-Netは、他の最先端技術よりも高い性能と精度・複雑さのトレードオフを達成することが示された。
- 参考スコア(独自算出の注目度): 9.014593915305069
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mapping optimization algorithms into neural networks, deep unfolding networks
(DUNs) have achieved impressive success in compressive sensing (CS). From the
perspective of optimization, DUNs inherit a well-defined and interpretable
structure from iterative steps. However, from the viewpoint of neural network
design, most existing DUNs are inherently established based on traditional
image-domain unfolding, which takes one-channel images as inputs and outputs
between adjacent stages, resulting in insufficient information transmission
capability and inevitable loss of the image details. In this paper, to break
the above bottleneck, we first propose a generalized dual-domain optimization
framework, which is general for inverse imaging and integrates the merits of
both (1) image-domain and (2) convolutional-coding-domain priors to constrain
the feasible region in the solution space. By unfolding the proposed framework
into deep neural networks, we further design a novel Dual-Domain Deep
Convolutional Coding Network (D3C2-Net) for CS imaging with the capability of
transmitting high-throughput feature-level image representation through all the
unfolded stages. Experiments on natural and MR images demonstrate that our
D3C2-Net achieves higher performance and better accuracy-complexity trade-offs
than other state-of-the-arts.
- Abstract(参考訳): ニューラルネットワークへの最適化アルゴリズムのマッピング、ディープ・アンフォールディング・ネットワーク(duns)は圧縮センシング(cs)で素晴らしい成功を収めている。
最適化の観点からは、DUNは反復的なステップから明確に定義された解釈可能な構造を継承する。
しかし、ニューラルネットワーク設計の観点からは、既存のダンは従来のイメージドメイン展開に基づいて本質的に確立されており、これは隣接するステージ間の入力と出力として1チャンネルのイメージを取り込むため、情報伝達能力が不足し、画像詳細が必然的に失われる。
本稿では,まず,(1)画像領域と(2)畳み込み符号領域の両方の利点を統合して,解空間における実現可能な領域を制約する,一般化されたデュアルドメイン最適化フレームワークを提案する。
提案手法を深層ニューラルネットワークに展開することにより, csイメージングのための新しいデュアルドメイン深層畳み込み符号化ネットワーク(d3c2-net)を設計, その全段階にわたって高スループット特徴量画像表現を伝送する。
自然画像とMR画像の実験により、我々のD3C2-Netは、他の最先端技術よりも高い性能と精度・複雑さのトレードオフを達成することが示された。
関連論文リスト
- Double-Shot 3D Shape Measurement with a Dual-Branch Network [14.749887303860717]
我々は、異なる構造光(SL)変調を処理するために、デュアルブランチ畳み込みニューラルネットワーク(CNN)-トランスフォーマーネットワーク(PDCNet)を提案する。
PDCNet内では、Transformerブランチを使用してフリンジイメージのグローバルな認識をキャプチャし、CNNブランチはスペックルイメージのローカル詳細を収集するように設計されている。
提案手法は, 自己生成データセット上で高精度な結果が得られる一方で, フランジオーダーの曖昧さを低減できることを示す。
論文 参考訳(メタデータ) (2024-07-19T10:49:26Z) - Image Reconstruction for Accelerated MR Scan with Faster Fourier
Convolutional Neural Networks [87.87578529398019]
部分走査は、磁気共鳴イメージング(MRI)データ取得を2次元および3次元の両方で加速する一般的な手法である。
本稿では,Faster Fourier Convolution (FasterFC) と呼ばれる新しい畳み込み演算子を提案する。
2次元加速MRI法であるFasterFC-End-to-End-VarNetは、FasterFCを用いて感度マップと再構成品質を改善する。
k空間領域再構成を誘導する単一グループアルゴリズムを用いたFasterFC-based Single-to-group Network (FAS-Net) と呼ばれる3次元加速MRI法
論文 参考訳(メタデータ) (2023-06-05T13:53:57Z) - HKNAS: Classification of Hyperspectral Imagery Based on Hyper Kernel
Neural Architecture Search [104.45426861115972]
設計したハイパーカーネルを利用して,構造パラメータを直接生成することを提案する。
我々は1次元または3次元の畳み込みを伴う画素レベルの分類と画像レベルの分類を別々に行う3種類のネットワークを得る。
6つの公開データセットに関する一連の実験は、提案手法が最先端の結果を得ることを示した。
論文 参考訳(メタデータ) (2023-04-23T17:27:40Z) - Unsupervised Domain Transfer with Conditional Invertible Neural Networks [83.90291882730925]
条件付き可逆ニューラルネットワーク(cINN)に基づくドメイン転送手法を提案する。
提案手法は本質的に,その可逆的アーキテクチャによるサイクル一貫性を保証し,ネットワークトレーニングを最大限効率的に行うことができる。
提案手法は,2つの下流分類タスクにおいて,現実的なスペクトルデータの生成を可能にし,その性能を向上する。
論文 参考訳(メタデータ) (2023-03-17T18:00:27Z) - GraphCSPN: Geometry-Aware Depth Completion via Dynamic GCNs [49.55919802779889]
本稿では,グラフ畳み込みに基づく空間伝搬ネットワーク(GraphCSPN)を提案する。
本研究では、幾何学的表現学習において、畳み込みニューラルネットワークとグラフニューラルネットワークを相補的に活用する。
提案手法は,数段の伝搬ステップのみを使用する場合と比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-10-19T17:56:03Z) - Memory-efficient Segmentation of High-resolution Volumetric MicroCT
Images [11.723370840090453]
本稿では,3次元高解像度画像分割のためのメモリ効率の高いネットワークアーキテクチャを提案する。
このネットワークは、2段階のU-netベースのカスケードフレームワークを通じて、グローバル機能とローカル機能の両方を組み込んでいる。
実験により, セグメント化精度とメモリ効率の両方の観点から, 最先端の3Dセグメンテーション法より優れていることが示された。
論文 参考訳(メタデータ) (2022-05-31T16:42:48Z) - A Triple-Double Convolutional Neural Network for Panchromatic Sharpening [31.392337484731783]
パンシャルペニング(英: Pansharpening)とは、空間分解能の高いパンクロマティック画像と、空間分解能の低いマルチスペクトル画像の融合を指す。
本稿では,パンシャーピングのためのレベルドメインに基づく損失関数を持つ新しいディープニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-04T04:22:11Z) - RSI-Net: Two-Stream Deep Neural Network Integrating GCN and Atrous CNN
for Semantic Segmentation of High-resolution Remote Sensing Images [3.468780866037609]
本稿では,リモートセンシング画像(RSI-Net)のセマンティックセグメンテーションのための2ストリームディープニューラルネットワークを提案する。
実験はVayhingen、Potsdam、Gaofen RSIデータセットで実施されている。
その結果,6つの最先端RSIセマンティックセグメンテーション法と比較して,総合的精度,F1スコア,カッパ係数において,RSI-Netの優れた性能を示した。
論文 参考訳(メタデータ) (2021-09-19T15:57:20Z) - Online Exemplar Fine-Tuning for Image-to-Image Translation [32.556050882376965]
ディープ畳み込みニューラルネットワーク(CNN)において、既存の画像から画像への変換を解決するには、ネットワークパラメータを最適化するためのトレーニングフェーズが必要である。
入力画像ペアが与えられたオンライン最適化により,先進的な翻訳を初めて解決する新しいフレームワークを提案する。
我々のフレームワークは、既存の手法の主な課題であるオフライントレーニングフェーズを必要とせず、オンラインの最適化を可能にするためにトレーニング済みのネットワークを必要としています。
論文 参考訳(メタデータ) (2020-11-18T15:13:16Z) - Identity Enhanced Residual Image Denoising [61.75610647978973]
我々は、アイデンティティマッピングモジュールのチェーンと、画像の復号化のための残像アーキテクチャの残像からなる、完全な畳み込みネットワークモデルを学ぶ。
提案するネットワークは,従来の最先端・CNNアルゴリズムよりも極めて高い数値精度と画像品質を実現している。
論文 参考訳(メタデータ) (2020-04-26T04:52:22Z) - Dynamic Hierarchical Mimicking Towards Consistent Optimization
Objectives [73.15276998621582]
一般化能力を高めたCNN訓練を推進するための汎用的特徴学習機構を提案する。
DSNに部分的にインスパイアされた私たちは、ニューラルネットワークの中間層から微妙に設計されたサイドブランチをフォークしました。
カテゴリ認識タスクとインスタンス認識タスクの両方の実験により,提案手法の大幅な改善が示された。
論文 参考訳(メタデータ) (2020-03-24T09:56:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。