論文の概要: Dunhuang murals contour generation network based on convolution and
self-attention fusion
- arxiv url: http://arxiv.org/abs/2212.00935v1
- Date: Fri, 2 Dec 2022 02:47:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 15:56:34.679260
- Title: Dunhuang murals contour generation network based on convolution and
self-attention fusion
- Title(参考訳): 畳み込みと自己注意融合に基づくダンファン壁画の輪郭形成ネットワーク
- Authors: Baokai Liu, Fengjie He, Shiqiang Du, Kaiwu Zhang, Jianhua Wang
- Abstract要約: 本研究では,ダンファン壁画の線画を生成するために,自己注意と畳み込みを組み合わせた新しいエッジ検出器を提案する。
既存のエッジ検出手法と比較して、まず、特徴写像の局所的特徴とグローバル的特徴を融合させるために、新しい残差自己注意と畳み込み混合モジュール(Ramix)を提案する。
- 参考スコア(独自算出の注目度): 3.118384520557952
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dunhuang murals are a collection of Chinese style and national style, forming
a self-contained Chinese-style Buddhist art. It has very high historical and
cultural value and research significance. Among them, the lines of Dunhuang
murals are highly general and expressive. It reflects the character's
distinctive character and complex inner emotions. Therefore, the outline
drawing of murals is of great significance to the research of Dunhuang Culture.
The contour generation of Dunhuang murals belongs to image edge detection,
which is an important branch of computer vision, aims to extract salient
contour information in images. Although convolution-based deep learning
networks have achieved good results in image edge extraction by exploring the
contextual and semantic features of images. However, with the enlargement of
the receptive field, some local detail information is lost. This makes it
impossible for them to generate reasonable outline drawings of murals. In this
paper, we propose a novel edge detector based on self-attention combined with
convolution to generate line drawings of Dunhuang murals. Compared with
existing edge detection methods, firstly, a new residual self-attention and
convolution mixed module (Ramix) is proposed to fuse local and global features
in feature maps. Secondly, a novel densely connected backbone extraction
network is designed to efficiently propagate rich edge feature information from
shallow layers into deep layers. Compared with existing methods, it is shown on
different public datasets that our method is able to generate sharper and
richer edge maps. In addition, testing on the Dunhuang mural dataset shows that
our method can achieve very competitive performance.
- Abstract(参考訳): ダンフアン壁画(dunhuang murals)は、中国様式と民族様式のコレクションであり、自給自足の中国式仏教美術を形成している。
歴史的、文化的な価値と研究がとても高い。
その中でも、ダンファン壁画のラインは非常に一般的で表現力豊かなものである。
キャラクターの独特の性格と複雑な内面の感情を反映している。
そのため、壁画の輪郭図はダンフアン文化の研究にとって非常に重要である。
ダンファン壁画の輪郭生成は、コンピュータビジョンの重要な分野である画像エッジ検出に属し、画像中の有意な輪郭情報を抽出することを目的としている。
畳み込みに基づく深層学習ネットワークは,画像の文脈的特徴と意味的特徴を探索することにより,画像エッジ抽出において良好な結果を得た。
しかし、受容領域の拡大に伴い、いくつかの局所的な詳細情報が失われる。
このため、壁画の合理的な輪郭図を作成することは不可能である。
本稿では,ダンファン壁画の線画を生成するために,自己注意と畳み込みを組み合わせた新しいエッジ検出器を提案する。
既存のエッジ検出法と比較して, 特徴マップの局所的特徴と大域的特徴を融合させるために, 新たな残余自己結合・畳み込み混合モジュール (ramix) を提案する。
第2に、浅層から深層へのリッチエッジ特徴情報を効率的に伝播する新しいバックボーン抽出ネットワークを設計する。
既存の手法と比較して,提案手法がよりシャープでリッチなエッジマップを生成することができることを示す。
さらに,Dunhuangの壁画データセットを用いたテストにより,本手法が極めて競争力のある性能を実現することを示す。
関連論文リスト
- ARIN: Adaptive Resampling and Instance Normalization for Robust Blind
Inpainting of Dunhuang Cave Paintings [51.36804225712579]
この研究で我々は、ダンワン洞窟のイメージを描き出すという現実世界の環境に取り組みました。
ダンファンのデータセットは壁画で構成されており、その半数は腐食と老化に悩まされている。
我々は、最先端(SOTA)の超解像とデブロアリングネットワークに基づく2つの既存手法を修正した。
これらの劣化した洞窟画をうまく塗布し,向上させることができることを示す。
論文 参考訳(メタデータ) (2024-02-25T20:27:20Z) - Multi-stage Progressive Reasoning for Dunhuang Murals Inpainting [5.167943379184235]
ダンファンの壁画は、長期間の環境侵食の影響を受け、薄れ、壊れ、表面の脆さ、広範囲の剥離に悩まされている。
本稿では,多段階のプログレッシブ推論ネットワーク(MPR-Net)を設計する。
本手法は定性的および定量的な実験により評価され, 画像の塗装方法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-10T05:10:00Z) - Location-Free Camouflage Generation Network [82.74353843283407]
カモフラージュ(Camouflage)は一般的な視覚現象で、前景の物体を背景のイメージに隠すことで、人間の目からは一時的に見えなくなる。
本稿では,前景と背景像の高次特徴を融合させ,一つの推論によって結果を生成する,ロケーションフリーなカモフラージュ生成ネットワーク(LCG-Net)を提案する。
実験により,本手法は単一外観領域における最先端技術と同程度に良好であり,完全に見えない可能性が低いが,多外観領域における最先端技術の品質をはるかに上回っていることが示された。
論文 参考訳(メタデータ) (2022-03-18T10:33:40Z) - JPGNet: Joint Predictive Filtering and Generative Network for Image
Inpainting [21.936689731138213]
画像インパインティングは、欠落した領域を復元し、元の完全な画像と同じ回復結果を作成することを目的としている。
現存する作品は、これを純粋な生成問題とみなし、それに対応するために最先端の生成技術を採用している。
本稿では,2つの問題,すなわち予測フィルタリングと深部生成の混合として,画像のインペイントを定式化する。
論文 参考訳(メタデータ) (2021-07-09T07:49:52Z) - Noise Doesn't Lie: Towards Universal Detection of Deep Inpainting [42.189768203036394]
本研究は, ディープ・インパインティングの普遍的検出に向けた最初の試みであり, 検出ネットワークの一般化を図っている。
提案手法は,既存の検出手法を大きなマージンで上回り,未確認の深層塗膜技術に最適化する。
論文 参考訳(メタデータ) (2021-06-03T01:29:29Z) - Drafting and Revision: Laplacian Pyramid Network for Fast High-Quality
Artistic Style Transfer [115.13853805292679]
アートスタイルの転送は、サンプルイメージからコンテンツイメージへのスタイルの移行を目的としている。
図案作成と細部改訂の共通画法に触発されて,ラプラシアンピラミッドネットワーク(LapStyle)という新しいフィードフォワード方式を導入する。
本手法は, 定型的パターンを適切に伝達した高品質なスタイリズド画像をリアルタイムで合成する。
論文 参考訳(メタデータ) (2021-04-12T11:53:53Z) - Free-Form Image Inpainting via Contrastive Attention Network [64.05544199212831]
画像の塗装作業では、複雑なパターンを形成する画像のどこにでも、どんな形でもマスクが現れる。
エンコーダはこの複雑な状況下でこのような強力な表現を捕捉することは困難である。
本稿では,ロバスト性と一般化性を改善するための自己教師型シームズ推論ネットワークを提案する。
論文 参考訳(メタデータ) (2020-10-29T14:46:05Z) - Texture Memory-Augmented Deep Patch-Based Image Inpainting [121.41395272974611]
本研究では,未成熟領域から抽出したパッチサンプルのテクスチャメモリによってテクスチャ生成をガイドする,新しいディープ・インペイント・フレームワークを提案する。
このフレームワークは、テクスチャメモリの検索を、ディープ・インパインティング・ネットワークでエンドツーエンドにトレーニングできる新しい設計である。
提案手法は,3つの課題の画像ベンチマークにおいて,質的かつ定量的に優れた性能を示す。
論文 参考訳(メタデータ) (2020-09-28T12:09:08Z) - Very Long Natural Scenery Image Prediction by Outpainting [96.8509015981031]
アウトペイントには2つの課題があるため、あまり注意を払わない。
第一の課題は、生成された画像と元の入力の間の空間的および内容的整合性を維持する方法である。
第2の課題は、生成した結果の高品質を維持する方法です。
論文 参考訳(メタデータ) (2019-12-29T16:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。