論文の概要: RFD-ECNet: Extreme Underwater Image Compression with Reference to
Feature Dictionar
- arxiv url: http://arxiv.org/abs/2308.08721v1
- Date: Thu, 17 Aug 2023 01:20:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-21 18:24:59.520509
- Title: RFD-ECNet: Extreme Underwater Image Compression with Reference to
Feature Dictionar
- Title(参考訳): rfd-ecnet:極端水中画像圧縮と特徴ディクショナ
- Authors: Mengyao Li, Liquan Shen, Peng Ye, Guorui Feng, Zheyin Wang
- Abstract要約: 本稿では,特徴辞書(RFD-ECNet)に着目した極端な圧縮ネットワークを提案する。
RFD-ECNetは、最も先進的なVVCよりも31%の大幅なBDレートの削減を実現した最初の研究である。
- 参考スコア(独自算出の注目度): 31.384641341162524
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Thriving underwater applications demand efficient extreme compression
technology to realize the transmission of underwater images (UWIs) in very
narrow underwater bandwidth. However, existing image compression methods
achieve inferior performance on UWIs because they do not consider the
characteristics of UWIs: (1) Multifarious underwater styles of color shift and
distance-dependent clarity, caused by the unique underwater physical imaging;
(2) Massive redundancy between different UWIs, caused by the fact that
different UWIs contain several common ocean objects, which have plenty of
similarities in structures and semantics. To remove redundancy among UWIs, we
first construct an exhaustive underwater multi-scale feature dictionary to
provide coarse-to-fine reference features for UWI compression. Subsequently, an
extreme UWI compression network with reference to the feature dictionary
(RFD-ECNet) is creatively proposed, which utilizes feature match and reference
feature variant to significantly remove redundancy among UWIs. To align the
multifarious underwater styles and improve the accuracy of feature match, an
underwater style normalized block (USNB) is proposed, which utilizes underwater
physical priors extracted from the underwater physical imaging model to
normalize the underwater styles of dictionary features toward the input.
Moreover, a reference feature variant module (RFVM) is designed to adaptively
morph the reference features, improving the similarity between the reference
and input features. Experimental results on four UWI datasets show that our
RFD-ECNet is the first work that achieves a significant BD-rate saving of 31%
over the most advanced VVC.
- Abstract(参考訳): 水中のアプリケーションは、非常に狭い水中帯域で水中画像(UWI)の伝送を実現するために効率的な極端な圧縮技術を必要とする。
しかし、既存の画像圧縮法では、UWIの特徴を考慮しないため、UWIに劣る性能が得られている。(1) 独特の水中物理画像による色の変化と距離依存の明瞭さ、(2) 異なるUWI間の大規模な冗長性、(2) 異なるUWIには、構造や意味において多くの類似点を持つ複数の共通海洋オブジェクトが含まれていることに起因する。
UWIの冗長性を除去するために,UWI圧縮のための粗大な参照特徴を提供するために,まず網羅的な水中マルチスケール特徴辞書を構築した。
その後、特徴辞書(RFD-ECNet)を参照した極端なUWI圧縮ネットワークを創造的に提案し、特徴マッチングと参照特徴変種を利用してUWI間の冗長性を著しく除去する。
多彩な水中スタイルを整列させ、特徴マッチングの精度を向上させるために、水中物理イメージングモデルから抽出した水中物理前処理を利用して、辞書特徴の水中スタイルを入力に向けて正規化する水中型正規化ブロック(usnb)を提案する。
さらに、参照特徴変種モジュール(RFVM)は、参照特徴を適応的に変形させ、参照特徴と入力特徴との類似性を改善するように設計されている。
UWIデータセット4つの実験結果から、RFD-ECNetは、最も進んだVVCに対して31%のBDレートの大幅な削減を達成する最初の成果であることが示された。
関連論文リスト
- FDCE-Net: Underwater Image Enhancement with Embedding Frequency and Dual Color Encoder [49.79611204954311]
水中画像は、低明度、色の変化、ぼやけた詳細、吸光光によるノイズ、水や懸濁粒子による散乱などの様々な問題に悩まされることが多い。
従来の水中画像強調法(UIE)は主に空間領域の強調に焦点を当てており、画像固有の周波数領域情報を無視している。
論文 参考訳(メタデータ) (2024-04-27T15:16:34Z) - DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - IA2U: A Transfer Plugin with Multi-Prior for In-Air Model to Underwater [18.491734287988304]
水中環境では、懸濁粒子濃度と濁度の変化が画像劣化を引き起こす。
室内モデルから水中アプリケーションへの変換に先駆けて, IA2U という名前のトランスファープラグインを開発した。
IA2Uと水中モデルを組み合わせることで,水中画像の強調や物体検出作業において優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2023-12-12T03:26:04Z) - A Generalized Physical-knowledge-guided Dynamic Model for Underwater
Image Enhancement [15.625794673532509]
我々は、物理知識誘導動的モデル(GUPDM用ショート)による一般化水中画像強調法を設計する。
本研究は, 大気光と透過率を変化させ, 様々な水中画像タイプをシミュレートする。
次に、動的畳み込みを用いて水中画像から事前情報を適応的に抽出し、PMSのパラメータを生成するADSとTDSを設計する。
論文 参考訳(メタデータ) (2023-08-10T09:09:15Z) - PUGAN: Physical Model-Guided Underwater Image Enhancement Using GAN with
Dual-Discriminators [120.06891448820447]
鮮明で視覚的に快適な画像を得る方法は、人々の共通の関心事となっている。
水中画像強調(UIE)の課題も、時間とともに現れた。
本稿では,UIE のための物理モデル誘導型 GAN モデルを提案する。
我々のPUGANは質的および定量的な測定値において最先端の手法より優れています。
論文 参考訳(メタデータ) (2023-06-15T07:41:12Z) - Unpaired Overwater Image Defogging Using Prior Map Guided CycleGAN [60.257791714663725]
オーバーウォーターシーンで画像をデフォグするための先行マップガイドサイクロン (PG-CycleGAN) を提案する。
提案手法は,最先端の教師付き,半教師付き,非教師付きデグジングアプローチより優れている。
論文 参考訳(メタデータ) (2022-12-23T03:00:28Z) - U-shape Transformer for Underwater Image Enhancement [0.0]
本研究では,5004枚の画像対を含む大規模水中画像データセットを構築した。
UIEタスクに初めてトランスモデルを導入したU字型トランスを報告した。
コントラストと彩度をさらに向上するため、RGB, LAB, LCH色空間を組み合わせた新しいロス関数を設計した。
論文 参考訳(メタデータ) (2021-11-23T13:15:56Z) - Wavelength-based Attributed Deep Neural Network for Underwater Image
Restoration [9.378355457555319]
本稿では,色チャネルの移動範囲に基づいて,適切な受容場サイズ(コンテキスト)を付与することで,大幅な性能向上が期待できることを示す。
第2の新規性として、学習したマルチコンテキスト特徴を適応的に洗練するための注意的スキップ機構を組み込んだ。
提案するフレームワークはDeep WaveNetと呼ばれ、従来のピクセル単位で機能ベースのコスト関数を使って最適化されている。
論文 参考訳(メタデータ) (2021-06-15T06:47:51Z) - Underwater Image Enhancement via Medium Transmission-Guided Multi-Color
Space Embedding [88.46682991985907]
本稿では,Ucolor と呼ばれる媒体透過誘導多色空間埋め込みによる水中画像強調ネットワークを提案する。
当社のネットワークは、複数の色空間を埋め込むことにより、水中画像の視覚的品質を効果的に改善できます。
論文 参考訳(メタデータ) (2021-04-27T07:35:30Z) - Underwater Image Enhancement via Learning Water Type Desensitized
Representations [29.05252230912826]
本稿では,これらの課題に対処するため,SCNetと呼ばれる新しい水中画像強調(UIE)フレームワークを提案する。
SCNetは、空間次元とチャネル次元の両方にわたる正規化スキームに基づいており、水型脱感応特徴を学習する鍵となるアイデアである。
2つの実世界のUIEデータセットによる実験結果から,提案手法は多様な水型で画像の強化に有効であることが示された。
論文 参考訳(メタデータ) (2021-02-01T07:34:54Z) - Conditional Variational Image Deraining [158.76814157115223]
キャラクタリゼーション性能向上のための条件変分画像レイニング(CVID)ネットワーク
本研究では,各画像の降雨密度マップを推定するための空間密度推定(SDE)モジュールを提案する。
合成および実世界のデータセットを用いた実験により,提案したCVIDネットワークは,画像のデライニングにおける従来の決定論的手法よりもはるかに優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2020-04-23T11:51:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。