論文の概要: Detecting Generated Native Ads in Conversational Search
- arxiv url: http://arxiv.org/abs/2402.04889v1
- Date: Wed, 7 Feb 2024 14:22:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 15:02:41.441041
- Title: Detecting Generated Native Ads in Conversational Search
- Title(参考訳): 会話検索における生成ネイティブ広告の検出
- Authors: Sebastian Schmidt, Ines Zelch, Janek Bevendorff, Benno Stein, Matthias
Hagen, Martin Potthast
- Abstract要約: YouChatやMicrosoft Copilotといった会話型検索エンジンは、大きな言語モデル(LLM)を使用してクエリの回答を生成する。
この技術を使ってこれらの回答の中で広告を生成し、統合するのは、ほんのわずかのステップにすぎない。
本稿では, LLM が生成したネイティブ広告(すなわちブロックするネイティブ広告)に対する対策としても利用できるかどうかを検討する。
- 参考スコア(独自算出の注目度): 35.57069612119438
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conversational search engines such as YouChat and Microsoft Copilot use large
language models (LLMs) to generate answers to queries. It is only a small step
to also use this technology to generate and integrate advertising within these
answers - instead of placing ads separately from the organic search results.
This type of advertising is reminiscent of native advertising and product
placement, both of which are very effective forms of subtle and manipulative
advertising. It is likely that information seekers will be confronted with such
use of LLM technology in the near future, especially when considering the high
computational costs associated with LLMs, for which providers need to develop
sustainable business models. This paper investigates whether LLMs can also be
used as a countermeasure against generated native ads, i.e., to block them. For
this purpose we compile a large dataset of ad-prone queries and of generated
answers with automatically integrated ads to experiment with fine-tuned
sentence transformers and state-of-the-art LLMs on the task of recognizing the
ads. In our experiments sentence transformers achieve detection precision and
recall values above 0.9, while the investigated LLMs struggle with the task.
- Abstract(参考訳): YouChatやMicrosoft Copilotといった会話型検索エンジンは、大きな言語モデル(LLM)を使用してクエリの回答を生成する。
オーガニック検索結果から広告を分離するのではなく、このテクノロジーを使ってこれらの回答に広告を生成・統合するのはほんの少しのステップにすぎない。
この種の広告は、ネイティブ広告と製品配置を思い起こさせるものであり、どちらも非常に効果的な微妙かつマニピュレーション的な広告形態である。
情報探索者は, 将来, LLM技術の利用に直面する可能性が高く, 特に, 持続可能なビジネスモデルを開発する必要があるLCMの計算コストが高いことが考えられる。
本稿では,LLMが生成したネイティブ広告(すなわちブロック)に対する対策としても利用できるかどうかを検討する。
この目的のために,文変換器や最先端llmを,広告認識タスクで実験するために,アドインクエリと自動統合広告で生成した回答の大規模なデータセットをコンパイルする。
実験では,LLMが課題に対処する一方,文変換器は0.9以上の検出精度とリコール値を達成する。
関連論文リスト
- RuAG: Learned-rule-augmented Generation for Large Language Models [62.64389390179651]
本稿では,大量のオフラインデータを解釈可能な一階述語論理規則に自動抽出する新しいフレームワーク,RuAGを提案する。
我々は,自然言語処理,時系列,意思決定,産業タスクなど,公共および民間の産業タスクに関する枠組みを評価する。
論文 参考訳(メタデータ) (2024-11-04T00:01:34Z) - MOBIUS: Towards the Next Generation of Query-Ad Matching in Baidu's Sponsored Search [27.752810150893552]
Mobiusプロジェクトは、クエリ-ad関連性に加えて、CPMをさらなる最適化目標として考えるために、マッチングレイヤをトレーニングすることを目的としている。
本稿では、マッチング層におけるクリック履歴の欠如を克服するために、アクティブラーニングをどのように導入するかについて詳述する。
次世代クエリ-アドマッチングシステムの最初のバージョンとしてMobius-V1にソリューションをコントリビュートする。
論文 参考訳(メタデータ) (2024-09-05T11:56:40Z) - Automating Knowledge Discovery from Scientific Literature via LLMs: A Dual-Agent Approach with Progressive Ontology Prompting [59.97247234955861]
LLM-Duoという,プログレッシブプロンプトアルゴリズムとデュアルエージェントシステムを組み合わせた,大規模言語モデル(LLM)に基づく新しいフレームワークを提案する。
言語治療領域における64,177論文からの2,421件の介入を同定した。
論文 参考訳(メタデータ) (2024-08-20T16:42:23Z) - Ranking Manipulation for Conversational Search Engines [7.958276719131612]
本稿では,対話型検索エンジンが参照するソースのランク付け順序に対するインジェクションのインジェクションの影響について検討する。
低品位製品を確実に促進する攻撃木を用いた脱獄技術を提案する。
論文 参考訳(メタデータ) (2024-06-05T19:14:21Z) - Scaling Up LLM Reviews for Google Ads Content Moderation [22.43127685744644]
大規模言語モデル(LLM)は、コンテンツモデレーションのための強力なツールであるが、その推論コストとレイテンシは、大規模なデータセットでカジュアルな使用を禁止している。
本研究では,Google Ads におけるコンテンツに対する LLM レビューのスケールアップ手法を提案する。
論文 参考訳(メタデータ) (2024-02-07T23:47:02Z) - Generative Context-aware Fine-tuning of Self-supervised Speech Models [54.389711404209415]
生成型大規模言語モデル(LLM)生成コンテキスト情報の利用について検討する。
自己教師型音声モデルの微調整中に生成した情報を抽出する手法を提案する。
本稿では,SLUE と Libri-light のベンチマークを用いて,自動音声認識,名前付きエンティティ認識,感情分析を行う手法を提案する。
論文 参考訳(メタデータ) (2023-12-15T15:46:02Z) - Check Your Facts and Try Again: Improving Large Language Models with
External Knowledge and Automated Feedback [127.75419038610455]
大規模言語モデル(LLM)は、ダウンストリームタスクの多くに対して、人間のような、流動的な応答を生成することができる。
本稿では,プラグ・アンド・プレイモジュールのセットでブラックボックスのLSMを増強するLSM-Augmenterシステムを提案する。
論文 参考訳(メタデータ) (2023-02-24T18:48:43Z) - Learning to Create Better Ads: Generation and Ranking Approaches for Ad
Creative Refinement [26.70647666598025]
i)新しい広告テキストを生成すること、(ii)新しい広告テキストにキーフレーズを推奨すること、(iii)画像タグ(画像中のオブジェクト)を推奨すること。
複数の広告主が実施したA/Bテストに基づいて、劣悪な広告クリエイティブと優良な広告クリエイティブのペアワイズな例を作成します。
また、Yahoo Geminiの広告プラットフォームからのデータを使って、実験から広く適用可能な洞察を共有しています。
論文 参考訳(メタデータ) (2020-08-17T16:46:28Z) - Do Interruptions Pay Off? Effects of Interruptive Ads on Consumers
Willingness to Pay [79.9312329825761]
本研究は,広告主ブランドの商品に対する消費者の支払い意欲に及ぼす割り込み広告の影響を計測する研究結果である。
本研究は, 広告の経済的影響に関する研究に寄与し, 実験マーケティング研究における実際の(自己申告の)支払意欲を測定する方法を紹介した。
論文 参考訳(メタデータ) (2020-05-14T09:26:57Z) - Query-Variant Advertisement Text Generation with Association Knowledge [21.18443320935013]
従来のテキスト生成手法は、高頻度で一般的な検索ニーズに焦点を当てる傾向にある。
本稿では,異なるWeb検索クエリに対して候補となる広告テキストを生成することを目的とした,問合せ型広告テキスト生成タスクを提案する。
提案モデルでは,クエリにパーソナライズされたニーズを多用し,クエリ変数の広告テキストを生成する。
論文 参考訳(メタデータ) (2020-04-14T12:04:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。