論文の概要: VisualTextRank: Unsupervised Graph-based Content Extraction for
Automating Ad Text to Image Search
- arxiv url: http://arxiv.org/abs/2108.02725v1
- Date: Thu, 5 Aug 2021 16:47:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-06 14:57:02.852948
- Title: VisualTextRank: Unsupervised Graph-based Content Extraction for
Automating Ad Text to Image Search
- Title(参考訳): VisualTextRank: 画像検索のための広告テキストの自動化のための教師なしグラフベースのコンテンツ抽出
- Authors: Shaunak Mishra, Mikhail Kuznetsov, Gaurav Srivastava, and Maxim
Sviridenko
- Abstract要約: 意味論的に類似した広告を用いて入力広告テキストを拡大するための教師なし手法としてVisualTextRankを提案する。
VisualTextRankは、グラフベースのコンテキスト抽出に関する以前の作業に基づいて構築されている。
簡易版によるオンラインテストは、ストックイメージ検索の使用率が28.7%増加した。
- 参考スコア(独自算出の注目度): 6.107273836558503
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Numerous online stock image libraries offer high quality yet copyright free
images for use in marketing campaigns. To assist advertisers in navigating such
third party libraries, we study the problem of automatically fetching relevant
ad images given the ad text (via a short textual query for images). Motivated
by our observations in logged data on ad image search queries (given ad text),
we formulate a keyword extraction problem, where a keyword extracted from the
ad text (or its augmented version) serves as the ad image query. In this
context, we propose VisualTextRank: an unsupervised method to (i) augment input
ad text using semantically similar ads, and (ii) extract the image query from
the augmented ad text. VisualTextRank builds on prior work on graph based
context extraction (biased TextRank in particular) by leveraging both the text
and image of similar ads for better keyword extraction, and using advertiser
category specific biasing with sentence-BERT embeddings. Using data collected
from the Verizon Media Native (Yahoo Gemini) ad platform's stock image search
feature for onboarding advertisers, we demonstrate the superiority of
VisualTextRank compared to competitive keyword extraction baselines (including
an $11\%$ accuracy lift over biased TextRank). For the case when the stock
image library is restricted to English queries, we show the effectiveness of
VisualTextRank on multilingual ads (translated to English) while leveraging
semantically similar English ads. Online tests with a simplified version of
VisualTextRank led to a 28.7% increase in the usage of stock image search, and
a 41.6% increase in the advertiser onboarding rate in the Verizon Media Native
ad platform.
- Abstract(参考訳): 多数のオンラインストックイメージライブラリは、高品質だが著作権のない画像を提供し、マーケティングキャンペーンに利用されている。
このようなサードパーティライブラリをナビゲートする広告主を支援するために、広告テキストが与えられた関連広告画像を自動的に取得する問題を(画像に対する短いテキストクエリを通じて)検討する。
広告画像検索クエリ(given ad text)のログデータの観察に動機づけられ、広告テキスト(またはその拡張バージョン)から抽出されたキーワードが広告画像クエリとして機能するキーワード抽出問題を定式化した。
この文脈では、視覚的に類似した広告を用いて入力広告テキストを増強するための教師なし手法であるvisualtextrankを提案し、(ii)拡張広告テキストから画像クエリを抽出する。
VisualTextRankは、グラフベースのコンテキスト抽出(特にバイアス付きTextRank)に関する以前の作業に基づいて、類似広告のテキストとイメージの両方を活用して、キーワード抽出を改善する。
ベライゾンメディアネイティブ(Yahoo Gemini)広告プラットフォームのストックイメージ検索機能から収集したデータを広告主に搭載するために利用し、競合するキーワード抽出ベースラインと比較してVisualTextRankの優位性を示す(バイアス付きTextRankよりも111\%$精度アップを含む)。
ストックイメージライブラリが英語クエリに限定されている場合、意味論的に類似した英語広告を活用しながら、多言語広告(英訳)におけるVisualTextRankの有効性を示す。
visualtextrankの簡易版によるオンラインテストでは、ストック画像検索の利用が28.7%増加し、ベライゾンのメディアネイティブ広告プラットフォームにおける広告主の加入率は41.6%増加した。
関連論文リスト
- AdSEE: Investigating the Impact of Image Style Editing on Advertisement
Attractiveness [25.531489722164178]
本稿では,広告画像のセマンティック編集がオンライン広告の人気に影響を与えるか,あるいは変化させるかを検討する。
そこで我々は,StyleGANに基づく顔のセマンティック編集と広告画像へのインバージョンを導入し,GANベースの顔の潜在表現をクリックレートに寄与させるクリックレート予測器を訓練した。
5日間にわたって行われたオンラインA/Bテストでは、AdSEE編集サンプルのクリックスルー率の増加が、オリジナルの広告のコントロールグループと比較された。
論文 参考訳(メタデータ) (2023-09-15T04:52:49Z) - Orientation-Independent Chinese Text Recognition in Scene Images [61.34060587461462]
本研究は,テキスト画像のコンテンツと方向情報を切り離すことにより,向きに依存しない視覚特徴を抽出する試みである。
具体的には,不整合コンテンツと向き情報を用いて対応する文字イメージを復元する文字画像再構成ネットワーク(CIRN)を提案する。
論文 参考訳(メタデータ) (2023-09-03T05:30:21Z) - Improving Multimodal Datasets with Image Captioning [65.74736570293622]
生成したキャプションが非記述テキストによるWebスクラッピングデータポイントの有用性を高める方法について検討する。
DataComp の大規模字幕 (1.28B 画像テキストペア) を用いた実験により,合成テキストの限界について考察した。
論文 参考訳(メタデータ) (2023-07-19T17:47:12Z) - Text-based Person Search without Parallel Image-Text Data [52.63433741872629]
テキストベースの人物探索(TBPS)は,対象者の画像を与えられた自然言語記述に基づいて大きな画像ギャラリーから検索することを目的としている。
既存の手法は、並列画像テキストペアによるトレーニングモデルによって支配されており、収集には非常にコストがかかる。
本稿では,並列画像テキストデータなしでTBPSを探索する試みについて述べる。
論文 参考訳(メタデータ) (2023-05-22T12:13:08Z) - Efficient Image-Text Retrieval via Keyword-Guided Pre-Screening [53.1711708318581]
現在の画像テキスト検索法は、N$関連時間複雑さに悩まされている。
本稿では,画像テキスト検索のための簡易かつ効果的なキーワード誘導事前スクリーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-14T09:36:42Z) - SpaText: Spatio-Textual Representation for Controllable Image Generation [61.89548017729586]
SpaTextはオープン語彙シーン制御を用いたテキスト・ツー・イメージ生成の新しい手法である。
シーン全体を記述したグローバルテキストプロンプトに加えて、ユーザはセグメンテーションマップを提供する。
現状拡散モデルである画素ベースと潜在条件ベースでの有効性を示す。
論文 参考訳(メタデータ) (2022-11-25T18:59:10Z) - Revising Image-Text Retrieval via Multi-Modal Entailment [25.988058843564335]
多対多のマッチング現象は、広く使われている画像テキスト検索データセットで非常によく見られる。
文が画像と関連キャプションによって関連付けられているかどうかを判定するマルチモーダル・エンターメント分類器を提案する。
論文 参考訳(メタデータ) (2022-08-22T07:58:54Z) - NewsStories: Illustrating articles with visual summaries [49.924916589209374]
我々は,3300万記事,2200万画像,100万ビデオを含む大規模マルチモーダルデータセットを提案する。
現状の画像テキストアライメント手法は、複数の画像を持つ長い物語に対して堅牢ではないことを示す。
本稿では,GoodNewsデータセット上で,ゼロショット画像セット検索において,これらの手法を10%向上させる直感的なベースラインを提案する。
論文 参考訳(メタデータ) (2022-07-26T17:34:11Z) - TSI: an Ad Text Strength Indicator using Text-to-CTR and
Semantic-Ad-Similarity [16.10904771281746]
i)入力広告テキストのクリックスルーレート(CTR)を予測し、(ii)類似の既存の広告をフェッチして入力広告の周辺に近づき、その周辺で予測されたCTRを比較して、入力広告が強いか弱いかを判断する。
広告テキストの改善の提案として、TSIは近隣の優れた広告(より高い予測CTR)の匿名化バージョンを示す。
論文 参考訳(メタデータ) (2021-08-18T16:24:40Z) - Learning to Create Better Ads: Generation and Ranking Approaches for Ad
Creative Refinement [26.70647666598025]
i)新しい広告テキストを生成すること、(ii)新しい広告テキストにキーフレーズを推奨すること、(iii)画像タグ(画像中のオブジェクト)を推奨すること。
複数の広告主が実施したA/Bテストに基づいて、劣悪な広告クリエイティブと優良な広告クリエイティブのペアワイズな例を作成します。
また、Yahoo Geminiの広告プラットフォームからのデータを使って、実験から広く適用可能な洞察を共有しています。
論文 参考訳(メタデータ) (2020-08-17T16:46:28Z) - Query-Variant Advertisement Text Generation with Association Knowledge [21.18443320935013]
従来のテキスト生成手法は、高頻度で一般的な検索ニーズに焦点を当てる傾向にある。
本稿では,異なるWeb検索クエリに対して候補となる広告テキストを生成することを目的とした,問合せ型広告テキスト生成タスクを提案する。
提案モデルでは,クエリにパーソナライズされたニーズを多用し,クエリ変数の広告テキストを生成する。
論文 参考訳(メタデータ) (2020-04-14T12:04:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。