論文の概要: Stroke2Sketch: Harnessing Stroke Attributes for Training-Free Sketch Generation
- arxiv url: http://arxiv.org/abs/2510.16319v1
- Date: Sat, 18 Oct 2025 03:07:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:38.943307
- Title: Stroke2Sketch: Harnessing Stroke Attributes for Training-Free Sketch Generation
- Title(参考訳): Stroke2Sketch: トレーニング不要のスケッチ生成のためのハーネスングストローク属性
- Authors: Rui Yang, Huining Li, Yiyi Long, Xiaojun Wu, Shengfeng He,
- Abstract要約: Stroke2Sketchは、クロスイメージストロークアテンションを導入する、トレーニング不要のフレームワークである。
我々は、コンテンツ保存と前景強調を強化するために、適応コントラスト強化と意味重視の注意を発達させる。
Stroke2Sketchはスタイリスティックに忠実なスケッチを効果的に合成し、表現力のあるストローク制御とセマンティックコヒーレンスにおいて既存の手法より優れている。
- 参考スコア(独自算出の注目度): 54.053878919317526
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generating sketches guided by reference styles requires precise transfer of stroke attributes, such as line thickness, deformation, and texture sparsity, while preserving semantic structure and content fidelity. To this end, we propose Stroke2Sketch, a novel training-free framework that introduces cross-image stroke attention, a mechanism embedded within self-attention layers to establish fine-grained semantic correspondences and enable accurate stroke attribute transfer. This allows our method to adaptively integrate reference stroke characteristics into content images while maintaining structural integrity. Additionally, we develop adaptive contrast enhancement and semantic-focused attention to reinforce content preservation and foreground emphasis. Stroke2Sketch effectively synthesizes stylistically faithful sketches that closely resemble handcrafted results, outperforming existing methods in expressive stroke control and semantic coherence. Codes are available at https://github.com/rane7/Stroke2Sketch.
- Abstract(参考訳): 参照スタイルでガイドされたスケッチを生成するには、意味構造と内容の忠実さを保ちながら、線厚、変形、テクスチャ空間といったストローク属性を正確に転送する必要がある。
この目的のために,クロスイメージストロークアテンションを導入した新しいトレーニングフリーフレームワークであるStroke2Sketchを提案する。
これにより、構造的整合性を維持しつつ、基準ストローク特性をコンテンツ画像に適応的に統合することができる。
さらに,コンテンツ保存とフォアグラウンド強調を強化するために,適応的コントラスト強調と意味重視の注意を発達させる。
Stroke2Sketchは、手作りの結果によく似たスタイリスティックに忠実なスケッチを効果的に合成し、表現力のあるストローク制御とセマンティックコヒーレンスにおいて既存の手法より優れている。
コードはhttps://github.com/rane7/Stroke2Sketchで入手できる。
関連論文リスト
- A Training-Free Style-Personalization via Scale-wise Autoregressive Model [11.918925320254534]
本稿では、推論中のコンテンツやスタイル情報を制御するスタイルパーソナライズド画像生成のための学習自由フレームワークを提案する。
提案手法では,対応するテキストプロンプトで案内されるコンテンツ,スタイル,ジェネレーションの3経路設計を用いる。
論文 参考訳(メタデータ) (2025-07-06T17:42:11Z) - Only-Style: Stylistic Consistency in Image Generation without Content Leakage [21.68241134664501]
Only-Styleは、スタイリスティックな一貫性を維持しつつ、セマンティックなコヒーレントな方法でコンテンツの漏洩を軽減するために設計された方法である。
Only-Styleは、推論中にコンテンツのリークをローカライズすることで、スタイルアライメントプロセスを制御するパラメータの適応的なチューニングを可能にする。
提案手法は,多種多様なインスタンスにまたがる広範囲な評価により,最先端の手法よりも大幅に改善されたことを示す。
論文 参考訳(メタデータ) (2025-06-11T16:33:09Z) - StrokeFusion: Vector Sketch Generation via Joint Stroke-UDF Encoding and Latent Sequence Diffusion [13.862427684807486]
StrokeFusionはベクトルスケッチ生成のための2段階のフレームワークである。
デュアルモードのスケッチ機能学習ネットワークがあり、ストロークを高品質の潜伏空間にマッピングする。
これは、生成中のストローク位置、スケール、軌道を同時に調整するストロークレベルの潜在拡散モデルを利用する。
論文 参考訳(メタデータ) (2025-03-31T06:03:03Z) - AttenST: A Training-Free Attention-Driven Style Transfer Framework with Pre-Trained Diffusion Models [4.364797586362505]
AttenSTは、トレーニング不要の注意駆動型スタイル転送フレームワークである。
本稿では,参照スタイルに自己注意を条件付ける,スタイル誘導型自己注意機構を提案する。
また、コンテンツやスタイルの特徴を融合するための二重機能横断機構も導入する。
論文 参考訳(メタデータ) (2025-03-10T13:28:36Z) - SketchYourSeg: Mask-Free Subjective Image Segmentation via Freehand Sketches [116.1810651297801]
SketchYourSegは、主観的なイメージセグメンテーションのための強力なクエリモダリティとして、フリーハンドスケッチを確立している。
我々の評価は、様々なベンチマークで既存のアプローチよりも優れた性能を示している。
論文 参考訳(メタデータ) (2025-01-27T13:07:51Z) - ZePo: Zero-Shot Portrait Stylization with Faster Sampling [61.14140480095604]
本稿では,4つのサンプリングステップでコンテンツとスタイルの融合を実現する拡散モデルに基づく,インバージョンフリーなポートレートスタイリングフレームワークを提案する。
本稿では,一貫性機能における冗長な特徴をマージする機能統合戦略を提案し,注意制御の計算負荷を低減させる。
論文 参考訳(メタデータ) (2024-08-10T08:53:41Z) - ArtWeaver: Advanced Dynamic Style Integration via Diffusion Model [73.95608242322949]
Stylized Text-to-Image Generation (STIG)は、テキストプロンプトとスタイル参照画像から画像を生成することを目的としている。
我々は、事前訓練された安定拡散を利用して、誤解釈スタイルや一貫性のない意味論といった課題に対処する新しいフレームワーク、ArtWeaverを提案する。
論文 参考訳(メタデータ) (2024-05-24T07:19:40Z) - Cross-Image Attention for Zero-Shot Appearance Transfer [68.43651329067393]
画像間の意味的対応を暗黙的に確立するクロスイメージアテンション機構を導入する。
ノイズの多い潜在コードを操作する3つのメカニズムと、デノナイジングプロセスを通してモデルの内部表現を利用する。
実験により,本手法は多種多様な対象カテゴリに対して有効であり,形状,大きさ,視点の変動に頑健であることが示された。
論文 参考訳(メタデータ) (2023-11-06T18:33:24Z) - Bi-level Feature Alignment for Versatile Image Translation and
Manipulation [88.5915443957795]
GAN(Generative Adversarial Network)は画像翻訳と操作において大きな成功を収めている。
忠実なスタイル制御を備えた高忠実な画像生成は、コンピュータビジョンにおいて依然として大きな課題である。
本稿では,高精度なセマンティック・スタイル・ガイダンスを実現する多機能な画像翻訳・操作フレームワークを提案する。
論文 参考訳(メタデータ) (2021-07-07T05:26:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。