論文の概要: Defocus Blur Detection via Depth Distillation
- arxiv url: http://arxiv.org/abs/2007.08113v1
- Date: Thu, 16 Jul 2020 04:58:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 23:16:24.985406
- Title: Defocus Blur Detection via Depth Distillation
- Title(参考訳): 深度蒸留によるデフォーカスブラ検出
- Authors: Xiaodong Cun and Chi-Man Pun
- Abstract要約: 初めてDBDに深度情報を導入します。
より詳しくは, 地底の真理と, 十分に訓練された深度推定ネットワークから抽出した深度から, デフォーカスのぼかしを学習する。
我々の手法は、2つの一般的なデータセット上で11の最先端の手法より優れています。
- 参考スコア(独自算出の注目度): 64.78779830554731
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Defocus Blur Detection(DBD) aims to separate in-focus and out-of-focus
regions from a single image pixel-wisely. This task has been paid much
attention since bokeh effects are widely used in digital cameras and smartphone
photography. However, identifying obscure homogeneous regions and borderline
transitions in partially defocus images is still challenging. To solve these
problems, we introduce depth information into DBD for the first time. When the
camera parameters are fixed, we argue that the accuracy of DBD is highly
related to scene depth. Hence, we consider the depth information as the
approximate soft label of DBD and propose a joint learning framework inspired
by knowledge distillation. In detail, we learn the defocus blur from ground
truth and the depth distilled from a well-trained depth estimation network at
the same time. Thus, the sharp region will provide a strong prior for depth
estimation while the blur detection also gains benefits from the distilled
depth. Besides, we propose a novel decoder in the fully convolutional
network(FCN) as our network structure. In each level of the decoder, we design
the Selective Reception Field Block(SRFB) for merging multi-scale features
efficiently and reuse the side outputs as Supervision-guided Attention
Block(SAB). Unlike previous methods, the proposed decoder builds reception
field pyramids and emphasizes salient regions simply and efficiently.
Experiments show that our approach outperforms 11 other state-of-the-art
methods on two popular datasets. Our method also runs at over 30 fps on a
single GPU, which is 2x faster than previous works. The code is available at:
https://github.com/vinthony/depth-distillation
- Abstract(参考訳): Defocus Blur Detection(DBD)は、1つの画像ピクセルからインフォーカス領域とアウトフォーカス領域を分離することを目的としている。
ボケ効果はデジタルカメラやスマートフォンの撮影で広く使われているため、この課題は注目されている。
しかし、部分デフォーカス画像における不明瞭な同質領域と境界線遷移の同定は依然として困難である。
これらの問題を解決するため,dbdに初めて深層情報を導入する。
カメラパラメータが固定された場合,DBDの精度はシーン深度と高い関係があることを論じる。
そこで我々は,深度情報をDBDの近似ソフトラベルとみなし,知識蒸留に着想を得た共同学習フレームワークを提案する。
より詳しくは, 地底の真理からデフォーカスのぼかしと, 十分に訓練された深度推定ネットワークから抽出した深度を同時に学習する。
このように、鋭い領域は深度推定に強い先行を与える一方、ぼかし検出は蒸留深度から利益を得る。
さらに,ネットワーク構造として完全畳み込みネットワーク(FCN)における新しいデコーダを提案する。
このデコーダの各レベルにおいて、マルチスケール機能を効率的にマージするための選択受容フィールドブロック(SRFB)を設計し、サイド出力をスーパービジョン誘導アテンションブロック(SAB)として再利用する。
従来の方法とは異なり、デコーダは受信フィールドピラミッドを構築し、単純かつ効率的に突出領域を強調している。
実験によると、このアプローチは2つの人気のあるデータセットで11の最先端のメソッドよりも優れています。
また,1つのGPU上で30fps以上で動作し,従来よりも2倍高速である。
コードはhttps://github.com/vinthony/depth-distillationで入手できる。
関連論文リスト
- Towards Real-World Focus Stacking with Deep Learning [97.34754533628322]
焦点ブラケットを用いた94個の高解像度原画像のバーストからなる新しいデータセットを提案する。
このデータセットは、現実世界のアプリケーションに十分な長さのバーストを処理できるフォーカススタックのための最初のディープラーニングアルゴリズムをトレーニングするために使用される。
論文 参考訳(メタデータ) (2023-11-29T17:49:33Z) - Depth and DOF Cues Make A Better Defocus Blur Detector [27.33757097343283]
Defocus blur detection(DBD)は、画像内のin-focus領域とout-of-focus領域を分離する。
以前のアプローチでは、デフォーカスのぼやけた領域に焦点をあてた均一な領域を誤って間違えていた。
我々はD-DFFNetと呼ばれるアプローチを提案し、奥行きとDOFの手がかりを暗黙的に組み込む。
論文 参考訳(メタデータ) (2023-06-20T07:03:37Z) - Depth Estimation and Image Restoration by Deep Learning from Defocused
Images [2.6599014990168834]
2-headed Depth Estimation and Deblurring Network (2HDED:NET)は、Defocus(DFD)ネットワークからの従来のDepthを拡張し、deepブランチと同じエンコーダを共有するdeblurringブランチを持つ。
提案手法は,室内と屋外のシーンの2つのベンチマーク(NYU-v2とMake3D)で試験に成功した。
論文 参考訳(メタデータ) (2023-02-21T15:28:42Z) - Learning Depth from Focus in the Wild [16.27391171541217]
単一焦点スタックからの畳み込みニューラルネットワークによる深度推定を提案する。
本手法では,画像アライメントにおいても,奥行きマップをエンドツーエンドで推定することができる。
提案するネットワークの一般化のために,商用カメラの特徴を現実的に再現するシミュレータを開発した。
論文 参考訳(メタデータ) (2022-07-20T05:23:29Z) - Learning Dual-Pixel Alignment for Defocus Deblurring [73.80328094662976]
本稿では,デフォーカス除去のためのDPANet(Dual-Pixel Alignment Network)を提案する。
目に見える鋭い構造やテクスチャを回復しながら、デフォーカスのぼやけを減らし、最先端のデブロアリング法よりも優れている。
論文 参考訳(メタデータ) (2022-04-26T07:02:58Z) - Bridging Unsupervised and Supervised Depth from Focus via All-in-Focus
Supervision [10.547816678110417]
提案手法は、地上の真理深度で監督的に訓練するか、AiF画像で監督的に訓練することができる。
種々の実験において,本手法は定量的かつ定性的に,最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-08-24T17:09:13Z) - Single image deep defocus estimation and its applications [82.93345261434943]
画像パッチを20レベルの曖昧さの1つに分類するために、ディープニューラルネットワークをトレーニングします。
トレーニングされたモデルは、反復重み付きガイドフィルタを適用して改善するパッチのぼかしを決定するために使用される。
その結果、デフォーカスマップは各ピクセルのぼやけた度合いの情報を運ぶ。
論文 参考訳(メタデータ) (2021-07-30T06:18:16Z) - BaMBNet: A Blur-aware Multi-branch Network for Defocus Deblurring [74.34263243089688]
畳み込みニューラルネットワーク(CNN)は、デフォーカス劣化問題に導入され、大きな進歩を遂げた。
本研究では,異なる領域(ブラー量が異なる)を区別して扱う新しいマルチブランチネットワーク(BaMBNet)を設計する。
定量的および定性的な実験は、BaMBNetが最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2021-05-31T07:55:30Z) - Defocus Deblurring Using Dual-Pixel Data [41.201653787083735]
デフォーカスのぼかしは、広い開口部の使用により被写界深度が浅い画像に現れる。
最新のカメラで検出されるデュアルピクセル(DP)センサで利用可能なデータを活用する,効果的なデフォーカスデブロリング手法を提案する。
論文 参考訳(メタデータ) (2020-05-01T10:38:00Z) - Single Image Depth Estimation Trained via Depth from Defocus Cues [105.67073923825842]
単一のRGB画像から深度を推定することはコンピュータビジョンの基本的な課題である。
この作業では、異なる視点ではなく、フォーカスキューからの奥行きに依存しています。
我々は,KITTIとMake3Dデータセットの教師あり手法と同等な結果を提示し,教師なし学習手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-01-14T20:22:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。