論文の概要: Learning Parallax Transformer Network for Stereo Image JPEG Artifacts
Removal
- arxiv url: http://arxiv.org/abs/2207.07335v1
- Date: Fri, 15 Jul 2022 08:21:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-18 20:45:53.715725
- Title: Learning Parallax Transformer Network for Stereo Image JPEG Artifacts
Removal
- Title(参考訳): ステレオ画像jpegアーティファクト除去のための学習パララックストランスフォーマネットワーク
- Authors: Xuhao Jiang, Weimin Tan, Ri Cheng, Shili Zhou and Bo Yan
- Abstract要約: ステレオ設定では、第2のビューで提供される追加情報を活用することにより、画像JPEGアーティファクト削除のパフォーマンスをさらに向上することができる。
ステレオ画像JPEGアーティファクト除去のためのステレオ画像ペアからの情報を統合するための新しいパララックストランスフォーマーネットワーク(PTNet)を提案する。
- 参考スコア(独自算出の注目度): 17.289890973937318
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Under stereo settings, the performance of image JPEG artifacts removal can be
further improved by exploiting the additional information provided by a second
view. However, incorporating this information for stereo image JPEG artifacts
removal is a huge challenge, since the existing compression artifacts make
pixel-level view alignment difficult. In this paper, we propose a novel
parallax transformer network (PTNet) to integrate the information from stereo
image pairs for stereo image JPEG artifacts removal. Specifically, a
well-designed symmetric bi-directional parallax transformer module is proposed
to match features with similar textures between different views instead of
pixel-level view alignment. Due to the issues of occlusions and boundaries, a
confidence-based cross-view fusion module is proposed to achieve better feature
fusion for both views, where the cross-view features are weighted with
confidence maps. Especially, we adopt a coarse-to-fine design for the
cross-view interaction, leading to better performance. Comprehensive
experimental results demonstrate that our PTNet can effectively remove
compression artifacts and achieves superior performance than other testing
state-of-the-art methods.
- Abstract(参考訳): ステレオ設定では、第2ビューが提供する追加情報を活用することにより、画像JPEGアーティファクト削除のパフォーマンスをさらに向上することができる。
しかし、この情報をステレオ画像JPEGアーティファクトに組み込むことは、既存の圧縮アーティファクトがピクセルレベルのビューアライメントを困難にしているため、大きな課題である。
本稿では,ステレオ画像JPEGアーティファクト除去のためのステレオ画像ペアからの情報を統合するための新しいパララックストランスフォーマーネットワーク(PTNet)を提案する。
具体的には、よく設計された対称双方向パララックストランスモジュールが、画素レベルの表示アライメントではなく、異なるビュー間の類似したテクスチャに適合するように提案されている。
咬合と境界の問題から,両ビューのクロスビュー機能に信頼度マップを重み付けて機能融合を実現するために,信頼度ベースのクロスビュー融合モジュールが提案されている。
特に、クロスビューインタラクションに粗大な設計を採用することで、パフォーマンスが向上する。
総合的な実験結果から,ptnetは圧縮アーティファクトを効果的に除去し,他のテスト手法よりも優れた性能を得ることができた。
関連論文リスト
- OAPT: Offset-Aware Partition Transformer for Double JPEG Artifacts Removal [11.880153842710776]
OAPTと呼ばれるJPEGアーティファクト除去のためのオフセット対応分割変換器を提案する。
8×8ブロック毎に最大4パターンのJPEG圧縮を行う。
OAPTは圧縮オフセット予測器と画像再構成器の2つのコンポーネントから構成される。
論文 参考訳(メタデータ) (2024-08-21T09:47:54Z) - SGDFormer: One-stage Transformer-based Architecture for Cross-Spectral Stereo Image Guided Denoising [11.776198596143931]
本稿では,SGDFormer というワンステージトランスフォーマベースアーキテクチャを提案する。
我々の変圧器ブロックは、ノイズロストクロスアテンション(NRCA)モジュールと空間変化型特徴融合(SVFF)モジュールを含む。
SGDFormerは、上記の設計により、微細な構造でアーチファクトフリーなイメージを復元し、さまざまなデータセット上で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-03-30T12:55:19Z) - Content-aware Masked Image Modeling Transformer for Stereo Image Compression [15.819672238043786]
本稿では,CAMSICというステレオ画像圧縮フレームワークを提案する。
CAMSICは各画像を潜在表現に変換し、強力なデコーダフリートランスフォーマーエントロピーモデルを用いる。
実験により,本フレームワークは2つのステレオ画像データセット上で,最先端の速度歪み性能を実現することが示された。
論文 参考訳(メタデータ) (2024-03-13T13:12:57Z) - Unified Frequency-Assisted Transformer Framework for Detecting and
Grounding Multi-Modal Manipulation [109.1912721224697]
本稿では、DGM4問題に対処するため、UFAFormerという名前のUnified Frequency-Assisted TransFormerフレームワークを提案する。
離散ウェーブレット変換を利用して、画像を複数の周波数サブバンドに分解し、リッチな顔偽造品をキャプチャする。
提案する周波数エンコーダは、帯域内およびバンド間自己アテンションを組み込んだもので、多種多様なサブバンド内および多種多様なフォージェリー特徴を明示的に集約する。
論文 参考訳(メタデータ) (2023-09-18T11:06:42Z) - HAT: Hybrid Attention Transformer for Image Restoration [61.74223315807691]
トランスフォーマーに基づく手法は、画像の超解像や復調といった画像復元タスクにおいて顕著な性能を示している。
本稿では,新たなHAT(Hybrid Attention Transformer)を提案する。
我々のHATは,定量的かつ定性的に,最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-09-11T05:17:55Z) - Cross-View Hierarchy Network for Stereo Image Super-Resolution [14.574538513341277]
ステレオ画像スーパーレゾリューションは、ビュー間の相補的な情報を活用することにより、高解像度ステレオ画像ペアの品質を向上させることを目的としている。
ステレオ画像超解法(CVHSSR)のためのクロスビュー階層ネットワーク(Cross-View-Hierarchy Network)という新しい手法を提案する。
CVHSSRは、パラメータを減らしながら、他の最先端手法よりも最高のステレオ画像超解像性能を達成する。
論文 参考訳(メタデータ) (2023-04-13T03:11:30Z) - Multi-Projection Fusion and Refinement Network for Salient Object
Detection in 360{\deg} Omnidirectional Image [141.10227079090419]
我々は,360度全方位画像中の有向物体を検出するために,MPFR-Net(Multi-Projection Fusion and Refinement Network)を提案する。
MPFR-Netは、等角射影像と対応する4つの立方体展開像を入力として使用する。
2つの全方位データセットの実験結果から,提案手法は定性的かつ定量的に,最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2022-12-23T14:50:40Z) - MAT: Mask-Aware Transformer for Large Hole Image Inpainting [79.67039090195527]
本稿では, 変圧器と畳み込みの利点を統一する, 大穴塗装の新しいモデルを提案する。
実験では、複数のベンチマークデータセット上で、新しいモデルの最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2022-03-29T06:36:17Z) - Cross-View Panorama Image Synthesis [68.35351563852335]
PanoGANは、新しい敵対的フィードバックGANフレームワークである。
PanoGANは、最先端のアプローチよりもより説得力のある、高品質なパノラマ画像生成を可能にする。
論文 参考訳(メタデータ) (2022-03-22T15:59:44Z) - PPT Fusion: Pyramid Patch Transformerfor a Case Study in Image Fusion [37.993611194758195]
画像から意味情報を抽出する問題に対処するため,Patch Pyramid Transformer(PPT)を提案する。
実験により, 現状の核融合法に対して優れた性能を示した。
論文 参考訳(メタデータ) (2021-07-29T13:57:45Z) - Visual Saliency Transformer [127.33678448761599]
RGBとRGB-Dの液状物体検出(SOD)のための、純粋な変圧器であるVST(Visual Saliency Transformer)に基づく新しい統一モデルを開発しました。
イメージパッチを入力として取り、トランスフォーマーを利用してイメージパッチ間のグローバルコンテキストを伝搬する。
実験結果から,RGBとRGB-D SODのベンチマークデータセットにおいて,本モデルが既存の最新結果を上回っていることが示された。
論文 参考訳(メタデータ) (2021-04-25T08:24:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。