論文の概要: Natural Scene Text Editing Based on AI
- arxiv url: http://arxiv.org/abs/2111.15475v1
- Date: Fri, 26 Nov 2021 00:42:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-01 15:19:59.565642
- Title: Natural Scene Text Editing Based on AI
- Title(参考訳): AIに基づく自然シーンテキスト編集
- Authors: Yujie Zhang
- Abstract要約: 本研究は,文字レベルと桁レベルの画像テキストの変更方法を示す。
デジタル画像のエンコードと復号を行うための2部構成のレター・ディジット・ネットワーク(LDN)を考案しました。
- 参考スコア(独自算出の注目度): 6.212267829689601
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In a recorded situation, textual information is crucial for scene
interpretation and decision making. The ability to edit text directly on images
has a number of advantages, including error correction, text restoration, and
image reusability. This research shows how to change image text at the letter
and digits level. I devised a two-part letters-digits network (LDN) to encode
and decode digital images, as well as learn and transfer the font style of the
source characters to the target characters. This method allows you to update
the uppercase letters, lowercase letters and digits in the picture.
- Abstract(参考訳): 記録された状況では、テキスト情報はシーンの解釈と意思決定に不可欠である。
画像に直接テキストを編集できる機能には、誤り訂正、テキスト復元、画像再利用性など、多くの利点がある。
本研究は,文字レベルと桁レベルの画像テキストの変更方法を示す。
デジタル画像のエンコードと復号化,およびソース文字のフォントスタイルを学習し,対象文字に転送する,2部構成の文字桁ネットワーク(LDN)を考案した。
この方法では、画像の上位文字、下位文字、桁を更新できる。
関連論文リスト
- VIXEN: Visual Text Comparison Network for Image Difference Captioning [59.907924668417934]
画像間の視覚的差異をテキストで簡潔に要約する手法であるVIXENを提案する。
提案するネットワークは,事前学習された大規模言語モデルに対するソフトプロンプトを構築し,画像特徴を一対にマッピングする。
論文 参考訳(メタデータ) (2024-02-29T12:56:18Z) - FAST: Font-Agnostic Scene Text Editing [22.666387184216678]
STE(Scene Text Editing)は、画像のオリジナルのテキストの背景とフォントスタイルを保存しながら、画像内の既存のテキストを変更することを目的としている。
既存のSTE手法の多くは、複雑な画像背景、様々なフォントスタイル、テキスト内の様々な単語の長さのために、編集性能が劣っている。
フォントに依存しない新しいシーンテキスト編集フレームワークであるFASTを提案し,任意のスタイルや場所のテキストを同時に生成する。
論文 参考訳(メタデータ) (2023-08-05T15:54:06Z) - Exploring Stroke-Level Modifications for Scene Text Editing [86.33216648792964]
シーンテキスト編集(STE)は、元のテキストの背景とスタイルを保存しながら、テキストを所望のテキストに置き換えることを目的としている。
画像全体を編集するには、背景領域とテキスト領域の異なる翻訳規則を同時に学習する必要がある。
Scene Text Image at strokE Level (MOSTEL) を用いた新しいネットワークを提案する。
論文 参考訳(メタデータ) (2022-12-05T02:10:59Z) - Make-A-Scene: Scene-Based Text-to-Image Generation with Human Priors [58.71128866226768]
近年のテキスト・ツー・イメージ生成手法は、生成した画像の忠実度とテキスト関連性を漸進的に改善している。
i)シーンの形式でテキストを補完する単純な制御機構を実現することで,これらのギャップに対処する新しいテキスト・ツー・イメージ手法を提案する。
このモデルにより,512×512ピクセルの解像度で高忠実度画像を生成することができる。
論文 参考訳(メタデータ) (2022-03-24T15:44:50Z) - Language Matters: A Weakly Supervised Pre-training Approach for Scene
Text Detection and Spotting [69.77701325270047]
本稿では,シーンテキストを効果的に表現できる弱教師付き事前学習手法を提案する。
本ネットワークは,画像エンコーダと文字認識型テキストエンコーダから構成され,視覚的特徴とテキスト的特徴を抽出する。
実験により、事前訓練されたモデルは、重みを他のテキスト検出やスポッティングネットワークに転送しながら、Fスコアを+2.5%、+4.8%改善することが示された。
論文 参考訳(メタデータ) (2022-03-08T08:10:45Z) - RewriteNet: Realistic Scene Text Image Generation via Editing Text in
Real-world Image [17.715320405808935]
シーンテキスト編集(STE)は、テキストとスタイルの複雑な介入のために難しい作業である。
本稿ではRewriteNetと呼ばれる新しい表現学習型STEモデルを提案する。
我々の実験は、RewriteNetが他の比較よりも定量的かつ定性的な性能を達成することを示した。
論文 参考訳(メタデータ) (2021-07-23T06:32:58Z) - I2C2W: Image-to-Character-to-Word Transformers for Accurate Scene Text
Recognition [68.95544645458882]
本稿では,シーンの様々なノイズに対して正確かつ耐性のある新しいシーンテキスト認識装置I2C2Wについて述べる。
i2c2wはイメージ・ツー・キャラクタモジュール(i2c)と文字・ワードモジュール(c2w)から構成される。
論文 参考訳(メタデータ) (2021-05-18T09:20:58Z) - Text as Neural Operator: Image Manipulation by Text Instruction [68.53181621741632]
本稿では、複雑なテキスト命令を用いて複数のオブジェクトで画像を編集し、オブジェクトの追加、削除、変更を可能にする設定について検討する。
タスクの入力は、(1)参照画像を含むマルチモーダルであり、(2)所望の修正を記述した自然言語の命令である。
提案モデルは,最近の3つの公開データセットの強いベースラインに対して良好に動作することを示す。
論文 参考訳(メタデータ) (2020-08-11T07:07:10Z) - SwapText: Image Based Texts Transfer in Scenes [13.475726959175057]
スワップテキスト(SwapText)はシーンイメージ間でテキストを転送するフレームワークである。
前景画像のみにテキストラベルを置換する新しいテキストスワップネットワークを提案する。
生成された前景画像と背景画像を用いて、融合ネットワークにより単語画像を生成する。
論文 参考訳(メタデータ) (2020-03-18T11:02:17Z) - STEFANN: Scene Text Editor using Font Adaptive Neural Network [18.79337509555511]
画像中のテキストを文字レベルで修正する手法を提案する。
本稿では,(a)FANnetと(b)Colornetという2つの異なるニューラルネットワークアーキテクチャを提案する。
本手法は画像中のテキストを編集するための統一的なプラットフォームとして機能する。
論文 参考訳(メタデータ) (2019-03-04T11:56:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。