論文の概要: End-to-End Rubbing Restoration Using Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2205.03743v1
- Date: Sun, 8 May 2022 00:09:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-15 05:59:50.519367
- Title: End-to-End Rubbing Restoration Using Generative Adversarial Networks
- Title(参考訳): 生成逆ネットワークを用いたエンドツーエンドラビング修復
- Authors: Gongbo Sun, Zijie Zheng, and Ming Zhang
- Abstract要約: 不完全なラビング文字の復元のためのRubbingGANモデルを提案する。
収集したデータセットに基づいて、Zhang Menglong Beiフォントスタイルを学習し、文字を復元するためにRubbingGANを適用します。
- 参考スコア(独自算出の注目度): 8.176704054425645
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Rubbing restorations are significant for preserving world cultural history.
In this paper, we propose the RubbingGAN model for restoring incomplete rubbing
characters. Specifically, we collect characters from the Zhang Menglong Bei and
build up the first rubbing restoration dataset. We design the first generative
adversarial network for rubbing restoration. Based on the dataset we collect,
we apply the RubbingGAN to learn the Zhang Menglong Bei font style and restore
the characters. The results of experiments show that RubbingGAN can repair both
slightly and severely incomplete rubbing characters fast and effectively.
- Abstract(参考訳): ルビング修復は世界文化史の保存に重要である。
本稿では,不完全なラビング文字の復元のためのRubbingGANモデルを提案する。
具体的には、zhang menglong beiから文字を収集し、最初のラビング復元データセットを構築する。
修復作業のための第1世代対向ネットワークを設計する。
収集したデータセットに基づいて、Zhang Menglong Beiフォントスタイルを学習し、文字を復元するためにRubbingGANを適用します。
実験の結果,rubbingganはわずかに不完全なrubingキャラクタを迅速かつ効果的に修復できることが判明した。
関連論文リスト
- InstructIR: High-Quality Image Restoration Following Human Instructions [68.73167409192746]
本稿では,人間の手書きによる画像復元モデルを導出する手法を提案する。
InstructIRという手法は、いくつかの修復作業において最先端の結果を得る。
論文 参考訳(メタデータ) (2024-01-29T18:53:33Z) - Scaling Up to Excellence: Practicing Model Scaling for Photo-Realistic
Image Restoration In the Wild [59.21387997903937]
SUPIR (Scaling-UP Image Restoration) は、生成前処理とモデルスケールアップのパワーを利用する、画期的な画像復元手法である。
モデルトレーニングのための2000万の高解像度高画質画像からなるデータセットを収集し、それぞれに記述的テキストアノテーションを付加する。
論文 参考訳(メタデータ) (2024-01-24T17:58:07Z) - Improving Image Restoration through Removing Degradations in Textual
Representations [60.79045963573341]
劣化画像のテキスト表現の劣化を除去し,画像復元を改善するための新たな視点を導入する。
クロスモーダル支援に対処するため,劣化した画像をテキスト表現にマッピングし,劣化を除去する手法を提案する。
特に、画像からテキストへのマッパーとテキスト復元モジュールをCLIP対応のテキストから画像へのモデルに組み込んで、ガイダンスを生成する。
論文 参考訳(メタデータ) (2023-12-28T19:18:17Z) - TIP: Text-Driven Image Processing with Semantic and Restoration
Instructions [69.58439476358595]
TIPは、自然言語をユーザフレンドリーなインターフェースとして活用し、画像復元プロセスを制御する、テキスト駆動の画像処理フレームワークである。
生成前の再スケールを学習することで既存のControlNetアーキテクチャを拡張できる新しい融合機構を導入する。
本実験は,TIPの回復性能を芸術的状況と比較し,テキストによる回復効果の制御の柔軟性を提供するとともに,TIPの回復性能を向上することを示した。
論文 参考訳(メタデータ) (2023-12-18T17:02:30Z) - Towards Authentic Face Restoration with Iterative Diffusion Models and
Beyond [30.114913184727]
我々は$textbfIDM$, $textbfI$teratively learned face restoration systemを$textbfD$iffusionに基づいて提案する。
ブラインドフェイス修復作業における優れた性能を示す。
論文 参考訳(メタデータ) (2023-07-18T06:31:01Z) - Understanding Reconstruction Attacks with the Neural Tangent Kernel and
Dataset Distillation [110.61853418925219]
我々は、データセット再構築攻撃のより強力なバージョンを構築し、無限の幅で設定されたエンペントリアルトレーニングを確実に回復する方法を示す。
理論的にも経験的にも再構成された画像は、データセットの「外部」に傾向を示す。
これらのリコンストラクション攻撃は, テクストデータセット蒸留において, 再構成画像上で再トレーニングを行い, 高い予測精度を得ることができる。
論文 参考訳(メタデータ) (2023-02-02T21:41:59Z) - Learning Dual Memory Dictionaries for Blind Face Restoration [75.66195723349512]
最近の研究は、主に2つの側面、すなわち、ジェネリックと特定の修復を別々に扱う。
本稿では,2つの辞書を通したジェネリックおよび特定の特徴を明示的に記憶することでDMDNetを提案する。
CelebRef-HQと呼ばれる新しい高品質なデータセットは、高解像度空間における特定の顔復元の探索を促進するために構築されている。
論文 参考訳(メタデータ) (2022-10-15T01:55:41Z) - Image Restoration using Feature-guidance [43.02281823557039]
そこで本稿では,画像の劣化の空間的特性と,画像固有の特性を扱うための新しいアプローチを提案する。
修復作業は,分解局所化と劣化地域誘導修復の2段階に分解する。
この補助作業のために訓練されたモデルは、修復ネットワークのトレーニングをガイドするために活用できる重要な地域知識を含んでいることを実証する。
論文 参考訳(メタデータ) (2022-01-01T13:10:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。