論文の概要: Toward Moir\'e-Free and Detail-Preserving Demosaicking
- arxiv url: http://arxiv.org/abs/2305.08585v1
- Date: Mon, 15 May 2023 12:12:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-16 14:45:57.756345
- Title: Toward Moir\'e-Free and Detail-Preserving Demosaicking
- Title(参考訳): Moir\'e-free and Deserving Demosaicking
- Authors: Xuanchen Li, Yan Niu, Bo Zhao, Haoyuan Shi, Zitong An
- Abstract要約: 3D畳み込みは一般的に神経モデルを破壊するために使用される。
3Dコンボリューションは相補的な情報交換からRGB色スペクトルを暗黙的に阻害することを示す。
浅い3D畳み込みネットワークはモイアのアーティファクトに苦しむが、深い3D畳み込みは過度に滑らかさを引き起こす。
- 参考スコア(独自算出の注目度): 3.9064624794570593
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D convolutions are commonly employed by demosaicking neural models, in the
same way as solving other image restoration problems. Counter-intuitively, we
show that 3D convolutions implicitly impede the RGB color spectra from
exchanging complementary information, resulting in spectral-inconsistent
inference of the local spatial high frequency components. As a consequence,
shallow 3D convolution networks suffer the Moir\'e artifacts, but deep 3D
convolutions cause over-smoothness. We analyze the fundamental difference
between demosaicking and other problems that predict lost pixels between
available ones (e.g., super-resolution reconstruction), and present the
underlying reasons for the confliction between Moir\'e-free and
detail-preserving. From the new perspective, our work decouples the common
standard convolution procedure to spectral and spatial feature aggregations,
which allow strengthening global communication in the spectral dimension while
respecting local contrast in the spatial dimension. We apply our demosaicking
model to two tasks: Joint Demosaicking-Denoising and Independently
Demosaicking. In both applications, our model substantially alleviates
artifacts such as Moir\'e and over-smoothness at similar or lower computational
cost to currently top-performing models, as validated by diverse evaluations.
Source code will be released along with paper publication.
- Abstract(参考訳): 3D畳み込みは、他の画像復元の問題を解決するのと同じように、神経モデルを破壊するために一般的に使用される。
反故意に、3Dコンボリューションは相補的な情報交換からRGB色スペクトルを暗黙的に阻害し、局所的な空間高周波成分のスペクトル不整合が生じることを示した。
その結果、浅い3D畳み込みネットワークはMoir\'eアーティファクトに悩まされるが、深い3D畳み込みは過度に滑らかになる。
デモサイクリングと、利用可能な画素間で失われた画素を予測する他の問題(例えば超解像再構成)との根本的な違いを分析し、moir\e-freeとディテール保存の衝突の原因を提示する。
新しい視点から,我々の研究は,共通標準畳み込み手順をスペクトルおよび空間特徴集合に分解し,空間次元における局所的なコントラストを尊重しながら,スペクトル次元におけるグローバルコミュニケーションを強化する。
デモサイクリングモデルを,共同デモサイクリングと独立デモサイクリングの2つのタスクに適用する。
いずれのアプリケーションにおいても,moir\'eやover-smoothnessといったアーチファクトを,現在のトップパフォーマンスモデルと同等あるいは低い計算コストで実質的に軽減する。
ソースコードは出版物とともに公開される。
関連論文リスト
- Point Cloud Denoising With Fine-Granularity Dynamic Graph Convolutional Networks [58.050130177241186]
ノイズの摂動は、しばしば3次元の点雲を破損させ、表面の再構成、レンダリング、さらなる処理といった下流のタスクを妨げる。
本稿では,GDGCNと呼ばれる粒度動的グラフ畳み込みネットワークについて紹介する。
論文 参考訳(メタデータ) (2024-11-21T14:19:32Z) - Reference-free Axial Super-resolution of 3D Microscopy Images using Implicit Neural Representation with a 2D Diffusion Prior [4.1326413814647545]
学習に基づく3次元超解像モデルの訓練には、真理等方性ボリュームが必要であり、次元の呪いに苦しむ。
既存の方法では、2Dニューラルネットワークを使用して各軸スライスを再構築し、最終的には体積全体をまとめる。
独立軸スライスにより最適化された場合でも3次元コヒーレンシを実現する暗黙的ニューラル表現(INR)に基づく再構成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-16T09:14:12Z) - Coarse-Fine Spectral-Aware Deformable Convolution For Hyperspectral Image Reconstruction [15.537910100051866]
Coded Aperture Snapshot Spectral Imaging (CASSI) の逆問題について検討する。
粗面スペクトル対応変形性畳み込みネットワーク(CFSDCN)を提案する。
我々のCFSDCNは、シミュレーションされたHSIデータセットと実際のHSIデータセットの両方において、従来の最先端(SOTA)メソッドよりも大幅に優れています。
論文 参考訳(メタデータ) (2024-06-18T15:15:12Z) - CVT-xRF: Contrastive In-Voxel Transformer for 3D Consistent Radiance Fields from Sparse Inputs [65.80187860906115]
スパース入力によるNeRFの性能向上のための新しい手法を提案する。
まず, サンプル線が, 3次元空間内の特定のボクセルと交差することを保証するために, ボクセルを用いた放射線サンプリング戦略を採用する。
次に、ボクセル内の追加点をランダムにサンプリングし、トランスフォーマーを適用して各線上の他の点の特性を推測し、ボリュームレンダリングに組み込む。
論文 参考訳(メタデータ) (2024-03-25T15:56:17Z) - StableDreamer: Taming Noisy Score Distillation Sampling for Text-to-3D [88.66678730537777]
本稿では3つの進歩を取り入れた方法論であるStableDreamerを紹介する。
まず、SDS生成前の等価性と、簡単な教師付きL2再構成損失を定式化する。
第2に,画像空間拡散は幾何学的精度に寄与するが,色調の鮮明化には潜時空間拡散が不可欠であることを示す。
論文 参考訳(メタデータ) (2023-12-02T02:27:58Z) - NerfDiff: Single-image View Synthesis with NeRF-guided Distillation from
3D-aware Diffusion [107.67277084886929]
単一の画像からの新しいビュー合成には、オブジェクトやシーンの隠蔽領域を推論すると同時に、入力とのセマンティックおよび物理的整合性を同時に維持する必要がある。
そこで我々は,NerfDiffを提案する。NerfDiffは3D対応条件拡散モデル(CDM)の知識を,テスト時に仮想ビューの集合を合成・精製することで,NeRFに抽出することでこの問題に対処する。
さらに,CDMサンプルから3次元一貫した仮想ビューを同時に生成し,改良された仮想ビューに基づいてNeRFを微調整する新しいNeRF誘導蒸留アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-20T17:12:00Z) - Orthogonal Matrix Retrieval with Spatial Consensus for 3D Unknown-View
Tomography [58.60249163402822]
未知視トモグラフィ(UVT)は、未知のランダムな向きで2次元投影から3次元密度マップを再構成する。
提案したOMRはより堅牢で、従来の最先端のOMRアプローチよりも大幅に性能が向上している。
論文 参考訳(メタデータ) (2022-07-06T21:40:59Z) - The KFIoU Loss for Rotated Object Detection [115.334070064346]
本稿では,SkewIoU損失とトレンドレベルアライメントを両立できる近似的損失を考案する上で,有効な方法の1つとして論じる。
具体的には、対象をガウス分布としてモデル化し、SkewIoUのメカニズムを本質的に模倣するためにカルマンフィルタを採用する。
KFIoUと呼ばれる新たな損失は実装が容易で、正確なSkewIoUよりもうまく動作する。
論文 参考訳(メタデータ) (2022-01-29T10:54:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。