論文の概要: PaCaNet: A Study on CycleGAN with Transfer Learning for Diversifying
Fused Chinese Painting and Calligraphy
- arxiv url: http://arxiv.org/abs/2301.13082v2
- Date: Tue, 31 Jan 2023 03:50:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-01 12:40:05.622953
- Title: PaCaNet: A Study on CycleGAN with Transfer Learning for Diversifying
Fused Chinese Painting and Calligraphy
- Title(参考訳): PaCaNet:中国絵画・書画の多様化のための移行学習によるCycleGANの研究
- Authors: Zuhao Yang, Huajun Bai, Zhang Luo, Yang Xu, Wei Pang, Yue Wang,
Yisheng Yuan, Yingfang Yuan
- Abstract要約: PaCaNetはCycleGANベースのパイプラインで、伝統的な中国絵画と書道の2つの異なる種類のアートを融合させる新しいアートワークを制作する。
われわれのアプローチは、中国語のヒエログリフ文字の起源に根ざした独特の美的体験を生み出す。
- 参考スコア(独自算出の注目度): 8.724826658340415
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: AI-Generated Content (AIGC) has recently gained a surge in popularity,
powered by its high efficiency and consistency in production, and its
capability of being customized and diversified. The cross-modality nature of
the representation learning mechanism in most AIGC technology allows for more
freedom and flexibility in exploring new types of art that would be impossible
in the past. Inspired by the pictogram subset of Chinese characters, we
proposed PaCaNet, a CycleGAN-based pipeline for producing novel artworks that
fuse two different art types, traditional Chinese painting and calligraphy. In
an effort to produce stable and diversified output, we adopted three main
technical innovations: 1. Using one-shot learning to increase the creativity of
pre-trained models and diversify the content of the fused images. 2.
Controlling the preference over generated Chinese calligraphy by freezing
randomly sampled parameters in pre-trained models. 3. Using a regularization
method to encourage the models to produce images similar to Chinese paintings.
Furthermore, we conducted a systematic study to explore the performance of
PaCaNet in diversifying fused Chinese painting and calligraphy, which showed
satisfying results. In conclusion, we provide a new direction of creating arts
by fusing the visual information in paintings and the stroke features in
Chinese calligraphy. Our approach creates a unique aesthetic experience rooted
in the origination of Chinese hieroglyph characters. It is also a unique
opportunity to delve deeper into traditional artwork and, in doing so, to
create a meaningful impact on preserving and revitalizing traditional heritage.
- Abstract(参考訳): AI-Generated Content(AIGC)は、その高効率性と本番環境での一貫性、カスタマイズと多様化の能力によって、最近人気が高まっている。
ほとんどのAIGC技術における表現学習メカニズムのクロスモダリティの性質は、過去には不可能だった新しいタイプのアートを探索する際の、より自由で柔軟性をもたらす。
漢字のピクトグラムのサブセットに触発されて、私たちは、伝統的な中国絵画と書道という2つの異なる芸術タイプを融合させる、新しい芸術作品を制作するためのサイクガンベースのパイプラインであるpacanetを提案しました。
安定的で多様化したアウトプットを生み出すために、私たちは3つの主要な技術革新を採用しました。
1 ワンショット学習を用いて、事前学習したモデルの創造性を高め、融合画像の内容の多様化を図る。
2. 事前学習モデルにおけるランダムサンプリングパラメータの凍結による中国語書道に対する嗜好の制御
3.中国絵画に類似した画像の制作を奨励するために正規化法を用いる。
さらに,中国絵画と書道の多様化にともなうPaCaNetの性能について,系統的研究を行い,満足な結果を得た。
結論として,絵画の視覚情報と中国書道の脳卒中の特徴を融合させることにより,芸術を創造する新たな方向性を提案する。
われわれのアプローチは、中国語のヒエログリフ文字の起源に根ざした独特の美的体験を生み出す。
また、伝統的な美術品を深く掘り下げて、伝統的遺産の保存と再生に有意義な影響を及ぼす特別な機会でもある。
関連論文リスト
- Empowering Backbone Models for Visual Text Generation with Input Granularity Control and Glyph-Aware Training [68.41837295318152]
拡散に基づくテキスト・ツー・イメージモデルでは、多様性と美学の素晴らしい成果が示されているが、視覚的なテキストで画像を生成するのに苦労している。
既存のバックボーンモデルには、ミススペル、テキスト生成の失敗、中国語テキストのサポートの欠如といった制限がある。
本稿では,英語と中国語の視覚テキスト生成にバックボーンモデルを活用するための一連の手法を提案する。
論文 参考訳(メタデータ) (2024-10-06T10:25:39Z) - Ada-adapter:Fast Few-shot Style Personlization of Diffusion Model with Pre-trained Image Encoder [57.574544285878794]
Ada-Adapterは拡散モデルの少数ショットスタイルのパーソナライズのための新しいフレームワークである。
提案手法は,単一の参照画像を用いたゼロショット方式の効率的な転送を可能にする。
フラットアートや3Dレンダリング,ロゴデザインなど,さまざまな芸術的スタイルに対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2024-07-08T02:00:17Z) - Few-shot Calligraphy Style Learning [0.0]
プレシディフスション(Presidifussion)は、周大統領の独自の書風を習得し、複製する新しいアプローチである。
フォント画像条件付けとストローク情報条件付けの革新的手法を導入し,漢字の複雑な構造要素を抽出する。
本研究は,書道芸術のデジタル保存におけるブレークスルーを示すだけでなく,文化遺産デジタル化分野におけるデータ効率生成モデリングの新たな標準となる。
論文 参考訳(メタデータ) (2024-04-26T07:17:09Z) - DLP-GAN: learning to draw modern Chinese landscape photos with
generative adversarial network [20.74857981451259]
中国の風景画は独特で芸術的な様式であり、その画法は色と現実的な物体表現の両方において非常に抽象的である。
従来は、近代の絵から古代の墨画への移行に焦点が当てられていたが、風景画を近代の絵に翻訳することにはほとんど関心が向けられていない。
論文 参考訳(メタデータ) (2024-03-06T04:46:03Z) - CalliPaint: Chinese Calligraphy Inpainting with Diffusion Model [17.857394263321538]
本稿では,中国書道の書道とイメージインペインティングの両面での最近の進歩を生かした新しいモデルを提案する。
提案したモデルであるCalliPaintは、説得力のある漢字を書けることを示す。
論文 参考訳(メタデータ) (2023-12-03T23:29:59Z) - Interactive Neural Painting [66.9376011879115]
本稿では,対話型ニューラルペイント(NP)の最初のアプローチを提案する。
2段デコーダを用いた条件変圧器変分自動エンコーダ(VAE)アーキテクチャに基づく新しい手法であるI-Paintを提案する。
実験の結果,本手法は良好なストローク提案を提供し,最先端技術と比較した。
論文 参考訳(メタデータ) (2023-07-31T07:02:00Z) - Calliffusion: Chinese Calligraphy Generation and Style Transfer with
Diffusion Modeling [1.856334276134661]
拡散モデルを用いて高品質な漢字書体を生成するシステムであるCaliffusionを提案する。
我々のモデルアーキテクチャはDDPM(Denoising Diffusion Probabilistic Models)に基づいている
論文 参考訳(メタデータ) (2023-05-30T15:34:45Z) - StyleAvatar3D: Leveraging Image-Text Diffusion Models for High-Fidelity
3D Avatar Generation [103.88928334431786]
高品質な3Dアバターを製作するための新しい手法を提案する。
データ生成には事前学習した画像テキスト拡散モデルとGANベースの3次元生成ネットワークを用いて訓練を行う。
提案手法は、生産されたアバターの視覚的品質と多様性の観点から、現在の最先端手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-30T13:09:21Z) - CCLAP: Controllable Chinese Landscape Painting Generation via Latent
Diffusion Model [54.74470985388726]
制御可能な中国の風景画作成方法CCLAP。
本手法は,特に芸術的・芸術的概念において,最先端の演奏を実現する。
論文 参考訳(メタデータ) (2023-04-09T04:16:28Z) - A domain adaptive deep learning solution for scanpath prediction of
paintings [66.46953851227454]
本稿では,ある絵画の視覚的体験における視聴者の眼球運動分析に焦点を当てた。
我々は、人間の視覚的注意を予測するための新しいアプローチを導入し、人間の認知機能に影響を及ぼす。
提案した新しいアーキテクチャは、画像を取り込んでスキャンパスを返す。
論文 参考訳(メタデータ) (2022-09-22T22:27:08Z) - A Framework and Dataset for Abstract Art Generation via CalligraphyGAN [0.0]
本研究では,コンディショナル・ジェネレーティブ・アドバイザリ・ネットワークと文脈ニューラル言語モデルに基づく創造的枠組みを提示し,抽象アートワークを生成する。
私たちの作品は中国書道に触発され、字そのものが美的絵画である独特の視覚芸術形式である。
論文 参考訳(メタデータ) (2020-12-02T16:24:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。