論文の概要: ISTA-Net++: Flexible Deep Unfolding Network for Compressive Sensing
- arxiv url: http://arxiv.org/abs/2103.11554v1
- Date: Mon, 22 Mar 2021 03:09:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-24 06:59:39.347335
- Title: ISTA-Net++: Flexible Deep Unfolding Network for Compressive Sensing
- Title(参考訳): ISTA-Net++:圧縮センシングのための柔軟な深層展開ネットワーク
- Authors: Di You, Jingfen Xie, Jian Zhang
- Abstract要約: 本稿では,ISTA-Net++と呼ばれる,エンドツーエンドのフレキシブルなISTAアンフォールディングディープネットワークを提案する。
本モデルでは,1つのモデルを用いて,異なる比のCS問題,すなわちマルチ比のタスクを扱うことの適応性を享受する。
4つのデータセットに関する実験では、ISTA-Net++は定量的指標と視覚的品質の両方の観点から最先端の結果を達成することが示されています。
- 参考スコア(独自算出の注目度): 6.568452964568836
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While deep neural networks have achieved impressive success in image
compressive sensing (CS), most of them lack flexibility when dealing with
multi-ratio tasks and multi-scene images in practical applications. To tackle
these challenges, we propose a novel end-to-end flexible ISTA-unfolding deep
network, dubbed ISTA-Net++, with superior performance and strong flexibility.
Specifically, by developing a dynamic unfolding strategy, our model enjoys the
adaptability of handling CS problems with different ratios, i.e., multi-ratio
tasks, through a single model. A cross-block strategy is further utilized to
reduce blocking artifacts and enhance the CS recovery quality. Furthermore, we
adopt a balanced dataset for training, which brings more robustness when
reconstructing images of multiple scenes. Extensive experiments on four
datasets show that ISTA-Net++ achieves state-of-the-art results in terms of
both quantitative metrics and visual quality. Considering its flexibility,
effectiveness and practicability, our model is expected to serve as a suitable
baseline in future CS research. The source code is available on
https://github.com/jianzhangcs/ISTA-Netpp.
- Abstract(参考訳): 深層ニューラルネットワークは画像圧縮センシング(cs)で目覚ましい成功を収めているが、そのほとんどは、実用上、マルチ比タスクやマルチシーンイメージを扱う際の柔軟性を欠いている。
これらの課題に対処するために,ISTA-Net++と呼ばれる,エンドツーエンドの柔軟なISTAアンフォールディングディープネットワークを提案する。
具体的には、動的展開戦略を開発することにより、一つのモデルを通して異なる比でCS問題を扱うことの適応性を享受する。
クロスブロック戦略はさらに、ブロッキングアーティファクトの削減とcsリカバリ品質の向上に利用される。
さらに,複数のシーンの画像を再構成する際の堅牢性を高めるために,バランスの取れたデータセットをトレーニングに適用する。
4つのデータセットに対する大規模な実験により、ISTA-Net++は定量的メトリクスと視覚的品質の両方の観点から、最先端の結果を達成することが示された。
その柔軟性、有効性、実践性を考慮すると、われわれのモデルは将来のCS研究において適切なベースラインとして機能することが期待される。
ソースコードはhttps://github.com/jianzhangcs/ISTA-Netpp.comで入手できる。
関連論文リスト
- Dynamic Pre-training: Towards Efficient and Scalable All-in-One Image Restoration [100.54419875604721]
オールインワン画像復元は、各分解に対してタスク固有の非ジェネリックモデルを持たずに、統一されたモデルで異なるタイプの劣化に対処する。
我々は、オールインワン画像復元タスクのためのエンコーダデコーダ方式で設計されたネットワークの動的ファミリであるDyNetを提案する。
我々のDyNetは、よりバルク化と軽量化をシームレスに切り替えることができるので、効率的なモデルデプロイメントのための柔軟性を提供します。
論文 参考訳(メタデータ) (2024-04-02T17:58:49Z) - VmambaIR: Visual State Space Model for Image Restoration [36.11385876754612]
VmambaIRは、画像復元タスクに線形に複雑な状態空間モデル(SSM)を導入する。
VmambaIRは、より少ない計算資源とパラメータで最先端(SOTA)性能を達成する。
論文 参考訳(メタデータ) (2024-03-18T02:38:55Z) - Unified-Width Adaptive Dynamic Network for All-In-One Image Restoration [50.81374327480445]
本稿では, 複雑な画像劣化を基本劣化の観点で表現できる, という新しい概念を提案する。
We propose the Unified-Width Adaptive Dynamic Network (U-WADN) which consist of two pivotal components: a Width Adaptive Backbone (WAB) and a Width Selector (WS)。
提案したU-WADNは、最大32.3%のFLOPを同時に削減し、約15.7%のリアルタイム加速を実現している。
論文 参考訳(メタデータ) (2024-01-24T04:25:12Z) - ViR: Towards Efficient Vision Retention Backbones [97.93707844681893]
視覚保持ネットワーク(ViR)と呼ばれる新しいコンピュータビジョンモデルを提案する。
ViRは並列および繰り返しの定式化を持ち、高速推論と並列トレーニングと競合性能の最適なバランスをとる。
我々は,様々なデータセットサイズと様々な画像解像度を用いた広範囲な実験により,ViRの有効性を検証した。
論文 参考訳(メタデータ) (2023-10-30T16:55:50Z) - Artificial-Spiking Hierarchical Networks for Vision-Language
Representation Learning [16.902924543372713]
最先端の手法は、大規模データセットの事前トレーニングによって、素晴らしいパフォーマンスを達成する。
本稿では,新しい視覚的セマンティックモジュールを導入することで,マルチモーダルアライメントのための効率的なフレームワークを提案する。
実験の結果、提案されたASH-Netsは競合する結果が得られることが示された。
論文 参考訳(メタデータ) (2023-08-18T10:40:25Z) - An Efficient General-Purpose Modular Vision Model via Multi-Task
Heterogeneous Training [79.78201886156513]
本稿では、複数の視覚タスクを実行でき、他の下流タスクに効率的に適応できるモデルを提案する。
提案手法は,単一タスク状態モデルに匹敵する結果を達成し,下流タスクの強力な一般化を実証する。
論文 参考訳(メタデータ) (2023-06-29T17:59:57Z) - Dynamic Contrastive Distillation for Image-Text Retrieval [90.05345397400144]
画像テキスト検索モデルを圧縮するための新しいプラグイン動的コントラスト蒸留(DCD)フレームワークを提案する。
提案したDCD戦略を2つの最先端の視覚言語事前訓練モデル、すなわち ViLT と METER に適用することに成功している。
MS-COCOとFlickr30Kベンチマークの実験では、DCDフレームワークの有効性と効率が示されている。
論文 参考訳(メタデータ) (2022-07-04T14:08:59Z) - Learning to Resize Images for Computer Vision Tasks [15.381549764216134]
そこで本研究では,リニアリシライザを学習リシライザに置き換えることで,性能を大幅に向上できることを示す。
我々の学習画像復調器はベースライン視覚モデルで共同で訓練されている。
提案手法は,他の視覚タスクの分類ベースラインの微調整にも有用であることを示す。
論文 参考訳(メタデータ) (2021-03-17T23:43:44Z) - ResNeSt: Split-Attention Networks [86.25490825631763]
このアーキテクチャは、異なるネットワークブランチにチャンネルワイズを応用し、機能間相互作用のキャプチャと多様な表現の学習の成功を活用する。
我々のモデルはResNeStと呼ばれ、画像分類の精度と遅延トレードオフにおいてEfficientNetより優れています。
論文 参考訳(メタデータ) (2020-04-19T20:40:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。