論文の概要: De-rendering Stylized Texts
- arxiv url: http://arxiv.org/abs/2110.01890v1
- Date: Tue, 5 Oct 2021 09:23:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-06 14:11:38.281511
- Title: De-rendering Stylized Texts
- Title(参考訳): スタイリッシュテキストのデレンダリング
- Authors: Wataru Shimoda, Daichi Haraguchi, Seiichi Uchida, Kota Yamaguchi
- Abstract要約: 我々はテキストベクトル化モデルを学び、テキスト、位置、サイズ、フォント、スタイル、エフェクト、隠れた背景を含む全てのレンダリングパラメータを解析する。
テキストベクタライゼーションは,テキストの解像度のないフォーマットで入力テキストを正確に再現するために,微分可能なテキストレンダリングを利用する。
- 参考スコア(独自算出の注目度): 15.07931991279975
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Editing raster text is a promising but challenging task. We propose to apply
text vectorization for the task of raster text editing in display media, such
as posters, web pages, or advertisements. In our approach, instead of applying
image transformation or generation in the raster domain, we learn a text
vectorization model to parse all the rendering parameters including text,
location, size, font, style, effects, and hidden background, then utilize those
parameters for reconstruction and any editing task. Our text vectorization
takes advantage of differentiable text rendering to accurately reproduce the
input raster text in a resolution-free parametric format. We show in the
experiments that our approach can successfully parse text, styling, and
background information in the unified model, and produces artifact-free text
editing compared to a raster baseline.
- Abstract(参考訳): ラスターテキストの編集は有望だが難しい作業だ。
本稿では,ポスター,Webページ,広告などの表示メディアにおけるラスタテキスト編集作業にテキストベクトル化を適用することを提案する。
提案手法では,ラスタ領域に画像変換や生成を適用する代わりに,テキスト,位置,サイズ,フォント,スタイル,エフェクト,隠れた背景を含むすべてのレンダリングパラメータを解析するテキストベクトル化モデルを学習し,それらのパラメータを再構成や編集作業に利用する。
テキストベクタライゼーションはテキストの異なるレンダリングを利用して、解像度のないパラメトリックフォーマットで入力されたラスタテキストを正確に再現する。
実験では,本手法を用いてテキスト,スタイリング,背景情報を統一されたモデルで解析し,ラスタベースラインと比較してアーティファクトフリーなテキスト編集を実現する。
関連論文リスト
- First Creating Backgrounds Then Rendering Texts: A New Paradigm for Visual Text Blending [5.3798706094384725]
背景作成とテキストのレンダリングの両方を含む新しいビジュアルテキストブレンディングパラダイムを提案する。
具体的には、背景生成装置を開発し、高忠実でテキストフリーな自然画像を生成する。
また,シーンテキスト検出のためのシーンテキストデータセット合成など,本手法に基づくダウンストリームアプリケーションについても検討する。
論文 参考訳(メタデータ) (2024-10-14T05:23:43Z) - DragText: Rethinking Text Embedding in Point-based Image Editing [3.1923251959845214]
拡散モデルにおける入力画像のプログレッシブな編集において,テキスト埋め込みは一定であることを示す。
そこで我々はDragTextを提案する。DragTextはドラッグ処理と同時にテキスト埋め込みを最適化し、修正された画像埋め込みと組み合わせる。
論文 参考訳(メタデータ) (2024-07-25T07:57:55Z) - Enhancing Scene Text Detectors with Realistic Text Image Synthesis Using
Diffusion Models [63.99110667987318]
DiffTextは、前景のテキストと背景の本質的な特徴をシームレスにブレンドするパイプラインです。
テキストインスタンスが少なくなると、生成したテキストイメージはテキスト検出を支援する他の合成データを一貫して上回ります。
論文 参考訳(メタデータ) (2023-11-28T06:51:28Z) - FASTER: A Font-Agnostic Scene Text Editing and Rendering Framework [19.564048493848272]
STE(Scene Text Editing)は、画像中の既存のテキストの変更を主な目的とする、難しい研究課題である。
既存のスタイル変換ベースのアプローチでは、複雑な画像背景、多様なフォント属性、テキスト内の様々な単語長によるサブパー編集性能が示されている。
フォントに依存しない新しいシーンテキスト編集・レンダリングフレームワークであるFASTERを提案し,任意のスタイルや場所のテキストを同時に生成する。
論文 参考訳(メタデータ) (2023-08-05T15:54:06Z) - TextDiffuser: Diffusion Models as Text Painters [118.30923824681642]
我々は、背景に忠実な視覚的に魅力的なテキストで画像を生成することに焦点を当てたTextDiffuserを紹介した。
我々は,OCRアノテーションを用いた最初の大規模テキスト画像データセットであるMARIO-10Mに,1000万の画像テキストペアをコントリビュートする。
テキストプロンプトのみまたはテキストテンプレート画像と併用して高品質なテキスト画像を作成し,テキストによる不完全な画像の再構成を行う,テキストディフューザは柔軟かつ制御可能であることを示す。
論文 参考訳(メタデータ) (2023-05-18T10:16:19Z) - iEdit: Localised Text-guided Image Editing with Weak Supervision [53.082196061014734]
テキスト誘導画像編集のための新しい学習法を提案する。
ソースイメージに条件付けされた画像とテキスト編集プロンプトを生成する。
画像の忠実度、CLIPアライメントスコア、および生成された画像と実際の画像の両方を定性的に編集する点において、画像に対して好ましい結果を示す。
論文 参考訳(メタデータ) (2023-05-10T07:39:14Z) - Scene Style Text Editing [7.399980683013072]
クアッドネット(QuadNet)は、前景のテキストスタイルを潜在機能空間に埋め込んで調整するフレームワークである。
実験によると、QuadNetは写真リアルなフォアグラウンドテキストを生成し、現実世界のシーンでソーステキストの影を避けることができる。
論文 参考訳(メタデータ) (2023-04-20T05:36:49Z) - Imagen Editor and EditBench: Advancing and Evaluating Text-Guided Image
Inpainting [53.708523312636096]
本稿では,テキスト誘導画像のインペイントを微調整し,カスケード拡散モデルであるImagen Editorを提案する。
編集はテキストプロンプトに忠実で、オブジェクト検出器を使用してトレーニング中に塗装マスクを提案する。
質的,定量的な評価を改善するために,テキスト誘導画像の塗り絵の体系的ベンチマークであるEditBenchを導入する。
論文 参考訳(メタデータ) (2022-12-13T21:25:11Z) - Exploring Stroke-Level Modifications for Scene Text Editing [86.33216648792964]
シーンテキスト編集(STE)は、元のテキストの背景とスタイルを保存しながら、テキストを所望のテキストに置き換えることを目的としている。
画像全体を編集するには、背景領域とテキスト領域の異なる翻訳規則を同時に学習する必要がある。
Scene Text Image at strokE Level (MOSTEL) を用いた新しいネットワークを提案する。
論文 参考訳(メタデータ) (2022-12-05T02:10:59Z) - DiffEdit: Diffusion-based semantic image editing with mask guidance [64.555930158319]
DiffEditは、セマンティック画像編集のタスクにテキスト条件付き拡散モデルを利用する方法である。
私たちの主なコントリビューションは、編集が必要な入力画像の領域をハイライトするマスクを自動的に生成できることです。
論文 参考訳(メタデータ) (2022-10-20T17:16:37Z) - SwapText: Image Based Texts Transfer in Scenes [13.475726959175057]
スワップテキスト(SwapText)はシーンイメージ間でテキストを転送するフレームワークである。
前景画像のみにテキストラベルを置換する新しいテキストスワップネットワークを提案する。
生成された前景画像と背景画像を用いて、融合ネットワークにより単語画像を生成する。
論文 参考訳(メタデータ) (2020-03-18T11:02:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。