論文の概要: Manga Rescreening with Interpretable Screentone Representation
- arxiv url: http://arxiv.org/abs/2306.04114v1
- Date: Wed, 7 Jun 2023 02:55:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-08 16:28:19.395534
- Title: Manga Rescreening with Interpretable Screentone Representation
- Title(参考訳): 解釈可能なスクリーントーン表現によるマンガ再スクリーニング
- Authors: Minshan Xie, Chengze Li, and Tien-Tsin Wong
- Abstract要約: マンガページの適応または再購入のプロセスは、マンガアーティストがすべてのスクリーントーン領域で手作業で作業する必要がある時間を要する作業である。
マンガ適応に関わる人的労力を最小限に抑えることを目的とした自動マンガ再スクリーニングパイプラインを提案する。
パイプラインは自動的にスクリーントーン領域を認識し,新たに指定された特徴を持つ新規なスクリーントーンを生成する。
- 参考スコア(独自算出の注目度): 21.638561901817866
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The process of adapting or repurposing manga pages is a time-consuming task
that requires manga artists to manually work on every single screentone region
and apply new patterns to create novel screentones across multiple panels. To
address this issue, we propose an automatic manga rescreening pipeline that
aims to minimize the human effort involved in manga adaptation. Our pipeline
automatically recognizes screentone regions and generates novel screentones
with newly specified characteristics (e.g., intensity or type). Existing manga
generation methods have limitations in understanding and synthesizing complex
tone- or intensity-varying regions. To overcome these limitations, we propose a
novel interpretable representation of screentones that disentangles their
intensity and type features, enabling better recognition and synthesis of
screentones. This interpretable screentone representation reduces ambiguity in
recognizing intensity-varying regions and provides fine-grained controls during
screentone synthesis by decoupling and anchoring the type or the intensity
feature. Our proposed method is demonstrated to be effective and convenient
through various experiments, showcasing the superiority of the newly proposed
pipeline with the interpretable screentone representations.
- Abstract(参考訳): マンガページの適応または再購入のプロセスは、マンガアーティストがすべてのスクリーントーン領域で手作業で作業し、新しいパターンを適用して、複数のパネルにまたがる新しいスクリーントーンを作成するという、時間を要する作業である。
この問題に対処するために,マンガ適応に関わる人的労力を最小限に抑えることを目的とした自動マンガ再スクリーニングパイプラインを提案する。
パイプラインは自動的にスクリーントーン領域を認識し,新たに指定された特徴(強度やタイプなど)を持つ新規なスクリーントーンを生成する。
既存のマンガ生成法は、複雑なトーンまたは強度変化領域の理解と合成に制限がある。
これらの制約を克服するため,我々は,スクリーントーンの強度とタイプ特徴を区別し,より優れた認識と合成を可能にする新しいスクリーントーンの解釈可能な表現を提案する。
この解釈可能なスクリーントーン表現は、強度変動領域を認識する際の曖昧さを減少させ、タイプまたは強度特徴を分離してアンカーすることにより、スクリーントーン合成中の細粒度の制御を提供する。
提案手法は様々な実験により有効かつ有用であることが示され, 解釈可能なスクリーントーン表現を用いたパイプラインの優位性を示す。
関連論文リスト
- Zero-Painter: Training-Free Layout Control for Text-to-Image Synthesis [63.757624792753205]
レイアウト条件のテキスト-画像合成のためのZero-Painterを提案する。
本手法では,オブジェクトマスクと個々の記述とグローバルテキストプロンプトを組み合わせることで,忠実度の高い画像を生成する。
論文 参考訳(メタデータ) (2024-06-06T13:02:00Z) - ReShader: View-Dependent Highlights for Single Image View-Synthesis [5.736642774848791]
本稿では,ビュー合成過程を画素再構成と再配置の2つの独立したタスクに分割することを提案する。
再構成の過程では,1枚の画像を入力とし,新しいカメラに基づいてシェーディングを調整する。
そして、この再構成画像を既存のビュー合成法の入力として使用し、画素を移動させ、最終的な新規なビュー画像を生成する。
論文 参考訳(メタデータ) (2023-09-19T15:23:52Z) - Screentone-Aware Manga Super-Resolution Using DeepLearning [3.0638744222997034]
高品質な画像は送信を妨げ、視聴体験に影響を与える可能性がある。
従来のベクトル化法では、スクリーントーンの処理にかなりの量の手動パラメータ調整が必要となる。
超高解像度画像は、低透過率を維持し、高品質な結果を提供するとともに、高解像度画像を高解像度画像に変換することができる。
論文 参考訳(メタデータ) (2023-05-15T03:24:36Z) - SpaText: Spatio-Textual Representation for Controllable Image Generation [61.89548017729586]
SpaTextはオープン語彙シーン制御を用いたテキスト・ツー・イメージ生成の新しい手法である。
シーン全体を記述したグローバルテキストプロンプトに加えて、ユーザはセグメンテーションマップを提供する。
現状拡散モデルである画素ベースと潜在条件ベースでの有効性を示す。
論文 参考訳(メタデータ) (2022-11-25T18:59:10Z) - SceneComposer: Any-Level Semantic Image Synthesis [80.55876413285587]
任意の精度のセマンティックレイアウトから条件付き画像合成のための新しいフレームワークを提案する。
このフレームワークは、形状情報のない最低レベルのテキスト・トゥ・イメージ(T2I)に自然に還元され、最高レベルのセグメンテーション・トゥ・イメージ(S2I)となる。
本稿では,この新たなセットアップの課題に対処する,新しいテクニックをいくつか紹介する。
論文 参考訳(メタデータ) (2022-11-21T18:59:05Z) - Control-NeRF: Editable Feature Volumes for Scene Rendering and
Manipulation [58.16911861917018]
高品質な新規ビュー合成を実現しつつ,フレキシブルな3次元画像コンテンツ操作を実現するための新しい手法を提案する。
モデルペアはシーンに依存しないニューラルネットワークを用いてシーン固有の特徴ボリュームを学習する。
我々は、シーンの混合、オブジェクトの変形、シーンへのオブジェクト挿入など、さまざまなシーン操作を実証すると同時に、写真リアリスティックな結果も生成する。
論文 参考訳(メタデータ) (2022-04-22T17:57:00Z) - DT2I: Dense Text-to-Image Generation from Region Descriptions [3.883984493622102]
我々は、より直感的な画像生成への道を開くための新しいタスクとして、高密度テキスト・ツー・イメージ(DT2I)合成を導入する。
また,意味豊かな領域記述から画像を生成する新しい手法であるDTC-GANを提案する。
論文 参考訳(メタデータ) (2022-04-05T07:57:11Z) - Screentone-Preserved Manga Retargeting [27.415654292345355]
スクリーントーンを各スクリーン領域に保持しながら,再スケールしたマンガ画像を合成する手法を提案する。
再スケールされたマンガは,原漫画と同一領域のスクリーントーン対応を有しており,スクリーントーン問題を単純化することができる。
論文 参考訳(メタデータ) (2022-03-07T13:48:15Z) - NeLF: Practical Novel View Synthesis with Neural Light Field [93.41020940730915]
複雑なシーンの新規なビュー合成のための実用的で堅牢なディープラーニングソリューションを提案する。
我々のアプローチでは、連続的なシーンは光場、すなわち光線の集合として表現され、それぞれが対応する色を持つ。
インタラクティブなフレームレートを維持しながら、最新の新しいビュー合成結果を実現します。
論文 参考訳(メタデータ) (2021-05-15T01:20:30Z) - Exploiting Aliasing for Manga Restoration [14.978972444431832]
劣化したマンガから品質ビットマンガを復元する革新的な二段階法を提案する。
まず, スケール推定ネットワーク(SE-Net)を用いて, 劣化マンガから目標分解能を予測する。
そして、目標解像度で、マンガリカバリーネットワーク(MR-Net)を介して、地域単位のバイトンスクリーントーンを復元します。
論文 参考訳(メタデータ) (2021-05-14T13:47:04Z) - AniGAN: Style-Guided Generative Adversarial Networks for Unsupervised
Anime Face Generation [84.52819242283852]
本稿では,肖像画をアニメ化するための新しい枠組みを提案する。
私たちの目標は、特定の参照アニメフェイスとスタイル一貫性のあるアニメフェイスを合成することです。
既存の方法は、しばしば参照アニメフェイスのスタイルを転送したり、生成された顔の局所的な形状に顕著なアーティファクトや歪みを導入することに失敗する。
論文 参考訳(メタデータ) (2021-02-24T22:47:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。