論文の概要: Neural Contrast: Leveraging Generative Editing for Graphic Design Recommendations
- arxiv url: http://arxiv.org/abs/2410.07211v1
- Date: Thu, 26 Sep 2024 08:52:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-31 21:37:02.370451
- Title: Neural Contrast: Leveraging Generative Editing for Graphic Design Recommendations
- Title(参考訳): ニューラルコントラスト:グラフィックデザイン推奨のための生成編集を活用する
- Authors: Marian Lupascu, Ionut Mironica, Mihai-Sorin Stupariu,
- Abstract要約: 視覚的に魅力的なコンポジットを作成するには、互換性のためにテキストとバックグラウンドの両方を最適化する必要がある。
これまでは、テキストの色を変えたり、コントラストに背景形状を追加したりといったシンプルなデザイン戦略に重点を置いてきた。
拡散モデルを用いた生成手法を提案する。
コントラストを高めつつ、設計資産の下の変化した領域が低い衛生性を示すことを保証し、設計資産の視認性を向上させる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Creating visually appealing composites requires optimizing both text and background for compatibility. Previous methods have focused on simple design strategies, such as changing text color or adding background shapes for contrast. These approaches are often destructive, altering text color or partially obstructing the background image. Another method involves placing design elements in non-salient and contrasting regions, but this isn't always effective, especially with patterned backgrounds. To address these challenges, we propose a generative approach using a diffusion model. This method ensures the altered regions beneath design assets exhibit low saliency while enhancing contrast, thereby improving the visibility of the design asset.
- Abstract(参考訳): 視覚的に魅力的なコンポジットを作成するには、互換性のためにテキストとバックグラウンドの両方を最適化する必要がある。
これまでは、テキストの色を変えたり、コントラストに背景形状を追加したりといったシンプルなデザイン戦略に重点を置いてきた。
これらのアプローチは、しばしば破壊的であり、テキストの色を変えるか、背景画像の一部を妨害する。
他の手法では、設計要素を非塩分でコントラストのあるリージョンに配置するが、これは必ずしも効果的ではない。
これらの課題に対処するため,拡散モデルを用いた生成手法を提案する。
コントラストを高めつつ、設計資産の下の変化した領域が低い衛生性を示すことを保証し、設計資産の視認性を向上させる。
関連論文リスト
- FontStudio: Shape-Adaptive Diffusion Model for Coherent and Consistent Font Effect Generation [38.730628018627975]
本研究の目的は,多言語フォントにおけるテキストエフェクトの生成である。
与えられた形状を解釈できる新しい形状適応拡散モデルを提案する。
また、生成した参照文字から他へテクスチャを転送するための学習不要な形状適応型エフェクト転送手法を提案する。
論文 参考訳(メタデータ) (2024-06-12T16:43:47Z) - Regional Style and Color Transfer [1.6993555918144923]
本稿では,地域スタイル移行の分野への新たな貢献について述べる。
既存の手法は、画像全体にわたって均一にスタイルを適用するという欠点に悩まされることが多い。
論文 参考訳(メタデータ) (2024-04-22T05:07:02Z) - TextCenGen: Attention-Guided Text-Centric Background Adaptation for Text-to-Image Generation [22.428046972339896]
Text-to-image (T2I) 世代は、テキストの適応から固定背景へのシフトを目撃している。
提案手法であるTextCenGenでは,テキストフレンドリーな画像生成のための空白領域の動的適応を導入している。
提案手法では,T2Iモデルにおいて,予め定義されたテキスト領域のホワイトスペースを戦略的に保留する画像を生成するために,力による注意誘導を用いる。
論文 参考訳(メタデータ) (2024-04-18T01:10:24Z) - InstantStyle: Free Lunch towards Style-Preserving in Text-to-Image Generation [5.364489068722223]
スタイルの概念は本質的に過小評価されており、色、材料、雰囲気、デザイン、構造といった様々な要素を含んでいる。
インバージョンベースの手法はスタイルの劣化を招きやすいため、細かな細部が失われることが多い。
アダプタベースのアプローチでは、スタイル強度とテキストの制御性のバランスをとるために、参照画像ごとに微妙な重み調整が必要となることが多い。
論文 参考訳(メタデータ) (2024-04-03T13:34:09Z) - Compositional Inversion for Stable Diffusion Models [64.79261401944994]
ユーザ画像から提供される関心の概念を取り入れてパーソナライズされた画像を生成する。
既存の方法はしばしば過度に適合する問題に悩まされ、倒立概念の圧倒的な存在が他の望ましい概念の欠如につながっている。
本稿では,合成埋め込みのコア分布への反転過程を導出する手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T10:57:46Z) - Style Aligned Image Generation via Shared Attention [61.121465570763085]
本稿では,一連の生成画像間のスタイルアライメントを確立する技術であるStyleAlignedを紹介する。
拡散過程において、最小限の注意共有を生かして、T2Iモデル内の画像間のスタイル整合性を維持する。
本手法は,多種多様なスタイルやテキストのプロンプトにまたがって評価を行い,高品質で忠実であることを示す。
論文 参考訳(メタデータ) (2023-12-04T18:55:35Z) - Portrait Diffusion: Training-free Face Stylization with
Chain-of-Painting [64.43760427752532]
顔のスタイリゼーション(face stylization)とは、顔の特定の肖像画スタイルへの変換を指す。
現在の手法では、ファインチューン事前訓練された生成モデルに対するサンプルベースの適応アプローチが必要とされる。
本稿では,ポートレートディフュージョン(Portrait Diffusion)という,トレーニング不要な顔スタイル化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-03T06:48:35Z) - Retinex-guided Channel-grouping based Patch Swap for Arbitrary Style
Transfer [54.25418866649519]
パッチマッチングベースのスタイル転送の基本原理は、コンテンツ画像特徴マップのパッチを、スタイル画像特徴マップから最も近いパッチで置き換えることである。
既存の手法では、全チャネルスタイルの特徴パッチを単純な信号テンソルとして扱い、信号レベル融合による新しいスタイルの特徴パッチを作成する。
本稿では、上記の課題を解決するために、チャネルグループベースのパッチスワップスワップ技術であるRetinex理論を提案する。
論文 参考訳(メタデータ) (2023-09-19T11:13:56Z) - Parallax-Tolerant Unsupervised Deep Image Stitching [57.76737888499145]
本稿では,パララックス耐性の非教師あり深層画像縫合技術であるUDIS++を提案する。
まず,グローバルなホモグラフィから局所的な薄板スプライン運動への画像登録をモデル化するための,頑健で柔軟なワープを提案する。
本研究では, 縫合された画像をシームレスに合成し, シーム駆動合成マスクの教師なし学習を行うことを提案する。
論文 参考訳(メタデータ) (2023-02-16T10:40:55Z) - Controllable Person Image Synthesis with Spatially-Adaptive Warped
Normalization [72.65828901909708]
制御可能な人物画像生成は、望ましい属性を持つ現実的な人間の画像を作成することを目的としている。
本稿では,学習フロー場とワープ変調パラメータを統合した空間適応型ワープ正規化(SAWN)を提案する。
本稿では,テクスチャ・トランスファータスクの事前学習モデルを洗練するための,新たな自己学習部分置換戦略を提案する。
論文 参考訳(メタデータ) (2021-05-31T07:07:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。