論文の概要: Deep Unfolding Network for Image Compressed Sensing by Content-adaptive
Gradient Updating and Deformation-invariant Non-local Modeling
- arxiv url: http://arxiv.org/abs/2310.10033v1
- Date: Mon, 16 Oct 2023 03:30:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 16:48:49.401126
- Title: Deep Unfolding Network for Image Compressed Sensing by Content-adaptive
Gradient Updating and Deformation-invariant Non-local Modeling
- Title(参考訳): コンテンツ適応勾配更新と変形不変非局所モデリングによる画像圧縮センシングのためのディープ展開ネットワーク
- Authors: Wenxue Cui, Xiaopeng Fan, Jian Zhang, Debin Zhao
- Abstract要約: 深部展開ネットワーク(DUN)は近年,画像圧縮センシング(CS)において注目されている。
本稿では,画像圧縮センシング(DUN-CSNet)のための新しいDUNを提案する。
第1号では、よく設計されたステップサイズ生成サブネットワークを開発するために、新しいコンテンツ適応勾配勾配ネットワークを提案する。
第2の課題は、画像中に類似したパッチが多数存在するが変形するという事実を考慮して、新しい変形不変な非局所近位写像網を開発することである。
- 参考スコア(独自算出の注目度): 35.17811080742471
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Inspired by certain optimization solvers, the deep unfolding network (DUN)
has attracted much attention in recent years for image compressed sensing (CS).
However, there still exist the following two issues: 1) In existing DUNs, most
hyperparameters are usually content independent, which greatly limits their
adaptability for different input contents. 2) In each iteration, a plain
convolutional neural network is usually adopted, which weakens the perception
of wider context prior and therefore depresses the expressive ability. In this
paper, inspired by the traditional Proximal Gradient Descent (PGD) algorithm, a
novel DUN for image compressed sensing (dubbed DUN-CSNet) is proposed to solve
the above two issues. Specifically, for the first issue, a novel content
adaptive gradient descent network is proposed, in which a well-designed step
size generation sub-network is developed to dynamically allocate the
corresponding step sizes for different textures of input image by generating a
content-aware step size map, realizing a content-adaptive gradient updating.
For the second issue, considering the fact that many similar patches exist in
an image but have undergone a deformation, a novel deformation-invariant
non-local proximal mapping network is developed, which can adaptively build the
long-range dependencies between the nonlocal patches by deformation-invariant
non-local modeling, leading to a wider perception on context priors. Extensive
experiments manifest that the proposed DUN-CSNet outperforms existing
state-of-the-art CS methods by large margins.
- Abstract(参考訳): 特定の最適化解法にインスパイアされたdeep unfolding network (dun) は、近年画像圧縮センシング (cs) において注目を集めている。
しかし、以下の2つの問題が存在する。
1)既存のDUNでは、ほとんどのハイパーパラメータはコンテンツに依存しないため、異なる入力内容への適応性が大幅に制限される。
2) 各イテレーションにおいて、通常、平易な畳み込みニューラルネットワークが採用され、より広い文脈の知覚が弱まり、表現能力が低下する。
本稿では,従来のPGDアルゴリズムにヒントを得て,画像圧縮センシング(DUN-CSNet)のための新しいDUNを提案する。
具体的には、コンテンツ対応ステップサイズマップを生成し、コンテンツ適応勾配更新を実現することにより、入力画像のテクスチャ毎に対応するステップサイズを動的に割り当てる、よく設計されたステップサイズ生成サブネットワークを開発した新しいコンテンツ適応勾配降下ネットワークを提案する。
第2の課題は、画像に類似するパッチが多数存在するが変形しているという事実を考慮して、非局所パッチ間の長距離依存関係を変形不変非局所モデリングによって適応的に構築し、コンテキスト優先の認識を広める、新しい変形不変非局所マッピングネットワークを開発したことである。
DUN-CSNetは、既存の最先端CS手法よりも大きなマージンで優れていた。
関連論文リスト
- Unleashing Network Potentials for Semantic Scene Completion [50.95486458217653]
本稿では,新しいSSCフレームワーク - Adrial Modality Modulation Network (AMMNet)を提案する。
AMMNetは、モダリティ間の勾配流の相互依存性を可能にするクロスモーダル変調と、動的勾配競争を利用するカスタマイズされた逆トレーニングスキームの2つのコアモジュールを導入している。
AMMNetは最先端のSSC法よりも大きなマージンで優れていた。
論文 参考訳(メタデータ) (2024-03-12T11:48:49Z) - Hyper-VolTran: Fast and Generalizable One-Shot Image to 3D Object
Structure via HyperNetworks [53.67497327319569]
画像から3Dまでを1つの視点から解く新しいニューラルレンダリング手法を提案する。
提案手法では, 符号付き距離関数を表面表現として使用し, 幾何エンコードボリュームとハイパーネットワークスによる一般化可能な事前処理を取り入れた。
本実験は,一貫した結果と高速な生成による提案手法の利点を示す。
論文 参考訳(メタデータ) (2023-12-24T08:42:37Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Fast Hierarchical Deep Unfolding Network for Image Compressed Sensing [31.71861820004099]
画像圧縮センシングのための高速階層型深部展開ネットワーク(DUN)を提案する。
提案したFHDUNは、より少ないイテレーションを維持しながら、既存の最先端のCSメソッドより優れている。
論文 参考訳(メタデータ) (2022-08-03T03:27:32Z) - D3C2-Net: Dual-Domain Deep Convolutional Coding Network for Compressive
Sensing [9.014593915305069]
深部展開ネットワーク(DUN)は圧縮センシング(CS)において顕著な成功を収めた
提案したフレームワークをディープニューラルネットワークに展開することにより、新たなデュアルドメインディープ畳み込み符号化ネットワーク(D3C2-Net)をさらに設計する。
自然画像とMR画像の実験により、我々のD3C2-Netは、他の最先端技術よりも高い性能と精度・複雑さのトレードオフを達成することが示された。
論文 参考訳(メタデータ) (2022-07-27T14:52:32Z) - Image Compressed Sensing Using Non-local Neural Network [43.51101614942895]
本稿では,非局所ニューラルネットワーク(NL-CSNet)を用いた新しい画像CSフレームワークを提案する。
提案したNL-CSNetでは,非局所的な自己相似性を生かした2つの非局所ワークが構築されている。
マルチスケール特徴領域のサブネットワークでは,高密度特徴表現間の親和性について検討する。
論文 参考訳(メタデータ) (2021-12-07T14:06:12Z) - Dynamic Proximal Unrolling Network for Compressive Sensing Imaging [29.00266254916676]
本稿では,DPUNetと呼ばれる動的近位アンローリングネットワークについて述べる。
具体的には、DPUNetは、勾配降下による埋め込み物理モデルと、学習された動的近位写像による画像のインポーティングの両方を活用できる。
実験結果から,提案したDPUNetは,サンプル比や雑音レベルの異なる複数のCSIモダリティを1つのモデルで効果的に処理できることがわかった。
論文 参考訳(メタデータ) (2021-07-23T03:04:44Z) - DSP: Dual Soft-Paste for Unsupervised Domain Adaptive Semantic
Segmentation [97.74059510314554]
セグメンテーションのための教師なしドメイン適応(UDA)は、ラベル付きソースドメインで訓練されたセグメンテーションモデルをラベル付きターゲットドメインに適応させることを目的としている。
既存の手法では、大きなドメインギャップに悩まされながら、ドメイン不変の特徴を学習しようとする。
本稿では,新しいDual Soft-Paste (DSP)法を提案する。
論文 参考訳(メタデータ) (2021-07-20T16:22:40Z) - Bilevel Online Adaptation for Out-of-Domain Human Mesh Reconstruction [94.25865526414717]
本稿では,事前に訓練されたヒトメッシュ再構築モデルをドメイン外ストリーミングビデオに適応させるという新たな問題を検討する。
重みプローブと重み更新の2つのステップに全体多対象の最適化プロセスを分割するBilevel Online Adaptationを提案します。
BOAが2つのヒューマンメッシュ再構築ベンチマークで最先端の結果をもたらすことを実証する。
論文 参考訳(メタデータ) (2021-03-30T15:47:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。