論文の概要: Estimating Image Depth in the Comics Domain
- arxiv url: http://arxiv.org/abs/2110.03575v1
- Date: Thu, 7 Oct 2021 15:54:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-08 21:00:29.120491
- Title: Estimating Image Depth in the Comics Domain
- Title(参考訳): コミック領域における画像深度の推定
- Authors: Deblina Bhattacharjee, Martin Everaert, Mathieu Salzmann, Sabine
S\"usstrunk
- Abstract要約: 市販の教師なし画像を用いて、漫画の画像を自然なものに翻訳する画像変換を行う。
次に、注意誘導単眼深度推定器を用いて深度を推定する。
本モデルでは,コミックパネル内のテキストと画像の区別を学習し,奥行き推定におけるテキストベースアーティファクトの低減を図る。
- 参考スコア(独自算出の注目度): 59.275961069130304
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Estimating the depth of comics images is challenging as such images a) are
monocular; b) lack ground-truth depth annotations; c) differ across different
artistic styles; d) are sparse and noisy. We thus, use an off-the-shelf
unsupervised image to image translation method to translate the comics images
to natural ones and then use an attention-guided monocular depth estimator to
predict their depth. This lets us leverage the depth annotations of existing
natural images to train the depth estimator. Furthermore, our model learns to
distinguish between text and images in the comics panels to reduce text-based
artefacts in the depth estimates. Our method consistently outperforms the
existing state-ofthe-art approaches across all metrics on both the DCM and
eBDtheque images. Finally, we introduce a dataset to evaluate depth prediction
on comics.
- Abstract(参考訳): 漫画画像の深さ推定は、そのような画像として難しい
a)単分子である
b) 地中深さアノテーションの欠如
c) 異なる芸術様式の異なるもの
d) まばらでうるさい。
そこで,本研究では,市販の教師なし画像を用いて,漫画画像を自然なものに翻訳し,注意誘導単眼深度推定器を用いて深度を推定する。
これにより、既存の自然画像の奥行きアノテーションを利用して、深さ推定器をトレーニングできます。
さらに,本モデルは,マンガパネルのテキストと画像の区別を学習し,奥行き推定におけるテキストに基づくアーティファクトを削減する。
提案手法は,DCMおよびeBDtheque画像の両方において,既存の最先端手法よりも常に優れている。
最後に,漫画の深度予測を行うデータセットを提案する。
関連論文リスト
- ScaleDepth: Decomposing Metric Depth Estimation into Scale Prediction and Relative Depth Estimation [62.600382533322325]
本研究では,新しい単分子深度推定法であるScaleDepthを提案する。
提案手法は,距離深度をシーンスケールと相対深度に分解し,セマンティック・アウェア・スケール予測モジュールを用いて予測する。
本手法は,室内と屋外の両方のシーンを統一した枠組みで距離推定する。
論文 参考訳(メタデータ) (2024-07-11T05:11:56Z) - Depth-aware Volume Attention for Texture-less Stereo Matching [67.46404479356896]
実用的な屋外シナリオにおけるテクスチャ劣化に対処する軽量なボリューム改善手法を提案する。
画像テクスチャの相対的階層を抽出し,地中深度マップによって教師される深度体積を導入する。
局所的な微細構造と文脈は、体積凝集時のあいまいさと冗長性を緩和するために強調される。
論文 参考訳(メタデータ) (2024-02-14T04:07:44Z) - Dense Multitask Learning to Reconfigure Comics [63.367664789203936]
漫画パネルの密集予測を実現するために,MultiTask Learning (MTL) モデルを開発した。
本手法は,漫画パネルにおける意味単位と3D概念の同定に有効である。
論文 参考訳(メタデータ) (2023-07-16T15:10:34Z) - Understanding Depth Map Progressively: Adaptive Distance Interval
Separation for Monocular 3d Object Detection [38.96129204108353]
いくつかの単分子3D検出技術は、深度推定タスクからの補助深度マップに依存している。
本稿では,深度マップの新たな視点を取り入れたAdaptive Distance Interval Separation Network (ADISN) というフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-19T13:32:53Z) - Depth Completion with Twin Surface Extrapolation at Occlusion Boundaries [16.773787000535645]
前景深度と背景深度の両方を明示的にモデル化するマルチ仮説深度表現を提案する。
この手法の鍵となるのは、新しい双曲面表現で機能する非対称損失関数の利用である。
メソッドを3つの異なるデータセットで検証します。
論文 参考訳(メタデータ) (2021-04-06T02:36:35Z) - S2R-DepthNet: Learning a Generalizable Depth-specific Structural
Representation [63.58891781246175]
人間はリアルなイメージではなくスケッチからシーンの3次元幾何学を推測することができ、空間構造がシーンの深さを理解する上で基本的な役割を果たすことを示す。
我々は,深度推定に不可欠な特徴を捉え,無関係なスタイル情報を無視する,深度特異的な構造表現の学習を初めて行う。
当社のS2R-DepthNetは、合成データでのみ訓練されているにもかかわらず、目に見えない実際のデータに直接一般化できます。
論文 参考訳(メタデータ) (2021-04-02T03:55:41Z) - Learning Depth via Leveraging Semantics: Self-supervised Monocular Depth
Estimation with Both Implicit and Explicit Semantic Guidance [34.62415122883441]
シーン認識深度推定のための暗黙的意味特徴と深度特徴とを一致させるセマンティック認識空間特徴アライメント方式を提案する。
また,推定深度マップを実シーンの文脈特性と整合性に明示的に制約する意味誘導型ランキング損失を提案する。
複雑なシーンや多様なセマンティックカテゴリで一貫して優れた、高品質な深度マップを作成します。
論文 参考訳(メタデータ) (2021-02-11T14:29:51Z) - SAFENet: Self-Supervised Monocular Depth Estimation with Semantic-Aware
Feature Extraction [27.750031877854717]
本稿では,セマンティック情報を活用して光度損失の限界を克服するSAFENetを提案する。
私たちのキーとなるアイデアは、意味的知識と幾何学的知識を統合するセマンティック・アウェア・ディープ機能を活用することです。
KITTIデータセットの実験では、我々の手法が最先端の手法と競合するか、さらに優れています。
論文 参考訳(メタデータ) (2020-10-06T17:22:25Z) - Predicting Sharp and Accurate Occlusion Boundaries in Monocular Depth
Estimation Using Displacement Fields [25.3479048674598]
単眼画像からの深度マップ予測の現在の手法は、滑らかで、局所的でない輪郭を予測しがちである。
我々は,何らかの再構成法により予測される深度マップから,閉塞境界付近の画素をよりシャープな再構成に再サンプリングできる2次元変位場を予測することを学ぶ。
本手法は, エンド・ツー・エンドのトレーニング可能な方法で, 任意の深さ推定手法の出力に適用できる。
論文 参考訳(メタデータ) (2020-02-28T14:15:07Z) - Single Image Depth Estimation Trained via Depth from Defocus Cues [105.67073923825842]
単一のRGB画像から深度を推定することはコンピュータビジョンの基本的な課題である。
この作業では、異なる視点ではなく、フォーカスキューからの奥行きに依存しています。
我々は,KITTIとMake3Dデータセットの教師あり手法と同等な結果を提示し,教師なし学習手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-01-14T20:22:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。