論文の概要: Deep Learning-based Image and Video Inpainting: A Survey
- arxiv url: http://arxiv.org/abs/2401.03395v1
- Date: Sun, 7 Jan 2024 05:50:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-09 19:00:36.690096
- Title: Deep Learning-based Image and Video Inpainting: A Survey
- Title(参考訳): ディープラーニングに基づく画像とビデオのインペインティング:調査
- Authors: Weize Quan and Jiaxi Chen and Yanli Liu and Dong-Ming Yan and Peter
Wonka
- Abstract要約: 本稿では,深層学習に基づく画像と映像のインペイント手法について概観的にレビューする。
既存のメソッドを,ハイレベルなインペイントパイプラインの観点から,さまざまなカテゴリに分類する。
我々は,低レベルの画素と高レベルの知覚的類似性の評価指標を提示し,性能評価を行い,代表印字方法の長所と短所について議論する。
- 参考スコア(独自算出の注目度): 47.53641171826598
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Image and video inpainting is a classic problem in computer vision and
computer graphics, aiming to fill in the plausible and realistic content in the
missing areas of images and videos. With the advance of deep learning, this
problem has achieved significant progress recently. The goal of this paper is
to comprehensively review the deep learning-based methods for image and video
inpainting. Specifically, we sort existing methods into different categories
from the perspective of their high-level inpainting pipeline, present different
deep learning architectures, including CNN, VAE, GAN, diffusion models, etc.,
and summarize techniques for module design. We review the training objectives
and the common benchmark datasets. We present evaluation metrics for low-level
pixel and high-level perceptional similarity, conduct a performance evaluation,
and discuss the strengths and weaknesses of representative inpainting methods.
We also discuss related real-world applications. Finally, we discuss open
challenges and suggest potential future research directions.
- Abstract(参考訳): 画像とビデオのインペイントはコンピュータビジョンとコンピュータグラフィックスの古典的な問題であり、画像とビデオの欠落した領域における可視的で現実的なコンテンツを埋めることを目的としている。
ディープラーニングの進歩により、この問題は最近大きな進歩を遂げている。
本研究の目的は,深層学習に基づく画像や映像のインペイント手法を総合的に検討することである。
具体的には,既存の手法をハイレベルなインペインティングパイプラインの観点から異なるカテゴリに分類し,cnn,vae,gan,拡散モデルなど,さまざまなディープラーニングアーキテクチャを提示し,モジュール設計のための要約手法を提案する。
トレーニング目標と一般的なベンチマークデータセットについてレビューする。
本稿では,低レベル画素と高レベル知覚類似性の評価指標を示し,性能評価を行い,代表的な塗工方法の長所と短所について考察する。
関連した実世界のアプリケーションについても論じる。
最後に,オープンな課題を議論し,今後の研究の方向性を示唆する。
関連論文リスト
- Reimagining Reality: A Comprehensive Survey of Video Inpainting
Techniques [6.36998581871295]
ビデオ・インペイント(英: Video inpainting)とは、ビデオ・シーケンスの欠落や破損した部分を再生または埋めるプロセスである。
本研究は, 主要な技術, その基盤となる理論, 有効利用を分解する。
我々は、視覚的品質を評価するために人間中心のアプローチを採用し、異なる映像塗装技術の出力を評価するためにアノテータのパネルを登録する。
論文 参考訳(メタデータ) (2024-01-31T14:41:40Z) - NPF-200: A Multi-Modal Eye Fixation Dataset and Method for
Non-Photorealistic Videos [51.409547544747284]
NPF-200は、視線を固定した純粋にフォトリアリスティックでないビデオの大規模なマルチモーダルデータセットである。
私たちは一連の分析を行い、このタスクについてより深い洞察を得ます。
NPSNetと呼ばれる広帯域周波数対応マルチモーダル非フォトリアリスティックサリエンシ検出モデルを提案する。
論文 参考訳(メタデータ) (2023-08-23T14:25:22Z) - Stroke-based Rendering: From Heuristics to Deep Learning [0.17188280334580194]
近年のディープラーニング手法の発展は,ストロークベースの絵画と画素写真生成のギャップを埋めるのに役立つ。
我々は,ストロークベースのレンダリングアルゴリズムにおける共通課題とアプローチについて,構造化された紹介と理解を提供することを目指している。
論文 参考訳(メタデータ) (2022-12-30T05:34:54Z) - A domain adaptive deep learning solution for scanpath prediction of
paintings [66.46953851227454]
本稿では,ある絵画の視覚的体験における視聴者の眼球運動分析に焦点を当てた。
我々は、人間の視覚的注意を予測するための新しいアプローチを導入し、人間の認知機能に影響を及ぼす。
提案した新しいアーキテクチャは、画像を取り込んでスキャンパスを返す。
論文 参考訳(メタデータ) (2022-09-22T22:27:08Z) - Deep Image Deblurring: A Survey [165.32391279761006]
低レベルのコンピュータビジョンにおいて、デブロアリングは古典的な問題であり、ぼやけた入力画像からシャープなイメージを復元することを目的としている。
近年のディープラーニングの進歩は、この問題の解決に大きな進歩をもたらした。
論文 参考訳(メタデータ) (2022-01-26T01:31:30Z) - Lighting the Darkness in the Deep Learning Era [118.35081853500411]
低照度画像強調(LLIE)は、照明の弱い環境で撮影された画像の知覚や解釈性を改善することを目的としている。
この分野における最近の進歩は、ディープラーニングベースのソリューションが支配的です。
アルゴリズム分類から未解決の未解決問題まで,さまざまな側面をカバーする包括的な調査を行う。
論文 参考訳(メタデータ) (2021-04-21T19:12:19Z) - Image Segmentation Using Deep Learning: A Survey [58.37211170954998]
イメージセグメンテーションは、画像処理とコンピュータビジョンにおいて重要なトピックである。
深層学習モデルを用いた画像セグメンテーション手法の開発を目的とした研究が,これまでに数多く行われている。
論文 参考訳(メタデータ) (2020-01-15T21:37:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。