論文の概要: PIE-Net: Photometric Invariant Edge Guided Network for Intrinsic Image
Decomposition
- arxiv url: http://arxiv.org/abs/2203.16670v1
- Date: Wed, 30 Mar 2022 20:46:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-01 15:06:52.472099
- Title: PIE-Net: Photometric Invariant Edge Guided Network for Intrinsic Image
Decomposition
- Title(参考訳): PIE-Net:固有画像分解のための測光不変エッジガイドネットワーク
- Authors: Partha Das, Sezer Karaoglu, Theo Gevers
- Abstract要約: 固有の画像分解は、画像から画像形成成分(反射および陰影)を回収する過程である。
本稿では,固有画像分解のためのエッジ駆動ハイブリッドCNN手法を提案する。
- 参考スコア(独自算出の注目度): 17.008724191799313
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Intrinsic image decomposition is the process of recovering the image
formation components (reflectance and shading) from an image. Previous methods
employ either explicit priors to constrain the problem or implicit constraints
as formulated by their losses (deep learning). These methods can be negatively
influenced by strong illumination conditions causing shading-reflectance
leakages.
Therefore, in this paper, an end-to-end edge-driven hybrid CNN approach is
proposed for intrinsic image decomposition. Edges correspond to illumination
invariant gradients. To handle hard negative illumination transitions, a
hierarchical approach is taken including global and local refinement layers. We
make use of attention layers to further strengthen the learning process.
An extensive ablation study and large scale experiments are conducted showing
that it is beneficial for edge-driven hybrid IID networks to make use of
illumination invariant descriptors and that separating global and local cues
helps in improving the performance of the network. Finally, it is shown that
the proposed method obtains state of the art performance and is able to
generalise well to real world images. The project page with pretrained models,
finetuned models and network code can be found at
https://ivi.fnwi.uva.nl/cv/pienet/.
- Abstract(参考訳): 内在的な画像分解は、画像から画像形成成分(反射と陰影)を回収する過程である。
従来の手法では、問題を制限するために明示的な前置法か、その損失(ディープラーニング)によって定式化される暗黙の制約を用いる。
これらの方法は、シェーディング反射漏れを引き起こす強い照明条件の影響を受けやすい。
そこで本研究では,固有画像分解のためのエッジ駆動ハイブリッドCNN手法を提案する。
エッジは照明不変勾配に対応する。
強い負の照明遷移を扱うために、グローバルおよび局所的な精錬層を含む階層的なアプローチを採る。
我々は注意層を利用して学習プロセスをさらに強化する。
エッジ駆動ハイブリッドiidネットワークが照明インバリアントディスクリプタを利用するのは,広範なアブレーション研究と大規模実験を行い,大域的および局所的な手がかりの分離がネットワークの性能向上に寄与することを示した。
最後に,提案手法は技術性能の状態を把握し,実世界の画像によく応用できることを示す。
事前訓練されたモデル、微調整されたモデル、ネットワークコードを備えたプロジェクトページはhttps://ivi.fnwi.uva.nl/cv/pienet/にある。
関連論文リスト
- ClassLIE: Structure- and Illumination-Adaptive Classification for
Low-Light Image Enhancement [17.51201873607536]
本稿では,CNN と変換器のポテンシャルを組み合わせた新しいフレームワーク ClassLIE を提案する。
低照度画像から、全体的かつ局所的に構造的および照明的情報を分類し、適応的に学習する。
5つのベンチマークデータセットの実験は、私たちのClassLIEが新しい最先端のパフォーマンスを達成することを一貫して示しています。
論文 参考訳(メタデータ) (2023-12-20T18:43:20Z) - Retinexformer: One-stage Retinex-based Transformer for Low-light Image
Enhancement [96.09255345336639]
低照度画像の高精細化のために,原理化された1段Retinex-based Framework (ORF) を定式化する。
ORFはまず照明情報を推定し、低照度画像を照らす。
我々のアルゴリズムであるRetinexformerは13のベンチマークで最先端の手法を大幅に上回っている。
論文 参考訳(メタデータ) (2023-03-12T16:54:08Z) - Parallax-Tolerant Unsupervised Deep Image Stitching [57.76737888499145]
本稿では,パララックス耐性の非教師あり深層画像縫合技術であるUDIS++を提案する。
まず,グローバルなホモグラフィから局所的な薄板スプライン運動への画像登録をモデル化するための,頑健で柔軟なワープを提案する。
本研究では, 縫合された画像をシームレスに合成し, シーム駆動合成マスクの教師なし学習を行うことを提案する。
論文 参考訳(メタデータ) (2023-02-16T10:40:55Z) - Designing An Illumination-Aware Network for Deep Image Relighting [69.750906769976]
本稿では、階層的なサンプリングから1つの画像からシーンを段階的にリライトするためのガイダンスに従うイルミネーション・アウェア・ネットワーク(IAN)を提案する。
さらに、物理レンダリングプロセスの近似として、イルミネーション・アウェア・残留ブロック(IARB)が設計されている。
実験の結果,提案手法は従来の最先端手法よりも定量的,定性的な照準結果が得られることがわかった。
論文 参考訳(メタデータ) (2022-07-21T16:21:24Z) - Low-light Image Enhancement by Retinex Based Algorithm Unrolling and
Adjustment [50.13230641857892]
本稿では,低照度画像強調(LIE)問題に対する新たなディープラーニングフレームワークを提案する。
提案フレームワークは,大域的明るさと局所的明るさ感度の両方を考慮したアルゴリズムアンロールと調整ネットワークに着想を得た分解ネットワークを含む。
一連の典型的なLIEデータセットの実験では,既存の手法と比較して,定量的かつ視覚的に,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-02-12T03:59:38Z) - Learning Discriminative Shrinkage Deep Networks for Image Deconvolution [122.79108159874426]
本稿では,これらの用語を暗黙的にモデル化する識別的縮小関数を学習することで,効果的に非盲検デコンボリューション手法を提案する。
実験結果から,提案手法は最先端の手法に対して,効率と精度の点で好適に動作することがわかった。
論文 参考訳(メタデータ) (2021-11-27T12:12:57Z) - Physically Inspired Dense Fusion Networks for Relighting [45.66699760138863]
物理的洞察でニューラルネットワークを豊かにするモデルを提案する。
2つの異なる戦略により、新しい照明設定でリライト画像を生成します。
提案手法は,よく知られた忠実度指標と知覚的損失の点で,最先端手法を上回ることができることを示す。
論文 参考訳(メタデータ) (2021-05-05T17:33:45Z) - Degrade is Upgrade: Learning Degradation for Low-light Image Enhancement [52.49231695707198]
2段階の工程で細部と色を精錬しながら、内在的な劣化と低照度画像を照らし出す。
カラー画像の定式化に触発されて,まず低照度入力からの劣化を推定し,環境照明色の歪みをシミュレーションし,そのコンテンツを精錬して拡散照明色の損失を回復した。
LOL1000データセットではPSNRで0.95dB、ExDarkデータセットでは3.18%のmAPでSOTAを上回った。
論文 参考訳(メタデータ) (2021-03-19T04:00:27Z) - Deep Gradient Projection Networks for Pan-sharpening [20.929492740317915]
本稿では,モデルに基づくディープパンシャーピング手法を提案する。
2つのブロックを積み重ねることで、グラデーションプロジェクションベースのパンスハーピングニューラルネットワークと呼ばれる新しいネットワークが構築される。
さまざまな種類の衛星データセットの実験結果は、新しいネットワークが視覚的および定量的に最先端の方法よりも優れていることを示しています。
論文 参考訳(メタデータ) (2021-03-08T07:51:58Z) - LEUGAN:Low-Light Image Enhancement by Unsupervised Generative
Attentional Networks [4.584570928928926]
低照度画像強調タスクを処理するために,注意誘導型教師なし生成ネットワークを提案する。
具体的には,よりシャープなエッジを復元するエッジ補助モジュールと,よりリアルなカラーを復元するアテンション誘導モジュールの2つを含む。
実験では,提案アルゴリズムが最新手法に対して好適に動作することを検証した。
論文 参考訳(メタデータ) (2020-12-24T16:49:19Z) - Physics-based Shading Reconstruction for Intrinsic Image Decomposition [20.44458250060927]
物理モデルから導出したアルベドおよびシェーディング勾配記述子を提案する。
学習自由な教師なし方法で対応するRGB画像勾配から直接、初期スパースシェーディングマップを算出する。
フル密度シェーディングマップを再構築する最適化手法を提案する。
我々はシェーディング推定のテクスチャと強度のあいまいさ問題に直接対処する最初の人物である。
論文 参考訳(メタデータ) (2020-09-03T09:30:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。