論文の概要: JU-NLP at Touché: Covert Advertisement in Conversational AI-Generation and Detection Strategies
- arxiv url: http://arxiv.org/abs/2509.14256v1
- Date: Fri, 12 Sep 2025 14:53:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-19 17:26:52.883909
- Title: JU-NLP at Touché: Covert Advertisement in Conversational AI-Generation and Detection Strategies
- Title(参考訳): JU-NLP at Touché: Covert, in Conversational AI-Generation and Detection Strategies
- Authors: Arka Dutta, Agrik Majumdar, Sombrata Biswas, Dipankar Das, Sivaji Bandyopadhyay,
- Abstract要約: AIが生成するレスポンスの中で、いかに微妙なプロモーションコンテンツを作ることができるかを探求し、そのような秘密の広告戦略を特定し緩和する方法を紹介している。
生成のために,ユーザコンテキストとクエリインテントを活用して,コンテキストに関連のある広告を生成する新しいフレームワークを提案する。
検出(サブタスク2)のために、直接分類のための微調整のCrossEncoder(textttall-mpnet-base-v2)と、微調整のtexttDeBERTa-v3-baseを用いた即時改定の2つの効果的な戦略を検討する。
- 参考スコア(独自算出の注目度): 22.324944278737167
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper proposes a comprehensive framework for the generation of covert advertisements within Conversational AI systems, along with robust techniques for their detection. It explores how subtle promotional content can be crafted within AI-generated responses and introduces methods to identify and mitigate such covert advertising strategies. For generation (Sub-Task~1), we propose a novel framework that leverages user context and query intent to produce contextually relevant advertisements. We employ advanced prompting strategies and curate paired training data to fine-tune a large language model (LLM) for enhanced stealthiness. For detection (Sub-Task~2), we explore two effective strategies: a fine-tuned CrossEncoder (\texttt{all-mpnet-base-v2}) for direct classification, and a prompt-based reformulation using a fine-tuned \texttt{DeBERTa-v3-base} model. Both approaches rely solely on the response text, ensuring practicality for real-world deployment. Experimental results show high effectiveness in both tasks, achieving a precision of 1.0 and recall of 0.71 for ad generation, and F1-scores ranging from 0.99 to 1.00 for ad detection. These results underscore the potential of our methods to balance persuasive communication with transparency in conversational AI.
- Abstract(参考訳): 本稿では,会話型AIシステムにおける隠蔽広告生成のための包括的枠組みと,その検出のための堅牢な手法を提案する。
AIが生成するレスポンスの中で、いかに微妙なプロモーションコンテンツを作ることができるかを探求し、そのような秘密の広告戦略を特定し緩和する方法を紹介している。
生成のために、ユーザコンテキストとクエリインテントを活用して、コンテキストに関連のある広告を生成する新しいフレームワークを提案する。
我々は、高度なプロンプト戦略を採用し、ステルスネスを高めるためにペアトレーニングデータをキュレートし、大きな言語モデル(LLM)を微調整する。
検出には、直接分類のための微調整のCrossEncoder (\texttt{all-mpnet-base-v2}) と、微調整の \texttt{DeBERTa-v3-base} モデルを用いたプロンプトベースの再構築の2つの効果的な戦略を検討する。
どちらのアプローチも応答テキストのみに依存しており、現実のデプロイメントの実用性を保証する。
実験の結果,両タスクの精度は1.0,広告生成は0.71,F1スコアは0.99から1.00であった。
これらの結果は,会話型AIにおける説得的コミュニケーションと透明性のバランスをとる手法の可能性を明らかにするものである。
関連論文リスト
- TeamCMU at Touché: Adversarial Co-Evolution for Advertisement Integration and Detection in Conversational Search [1.187456026346823]
広告を生成された応答に統合することは、商業的機会とユーザエクスペリエンスの課題の両方を示します。
本稿では,RAGに基づく対話システムにおいて,シームレスな広告統合のためのアドリライターと,検出のための堅牢な広告分類器からなる広告管理のためのモジュールパイプラインを提案する。
論文 参考訳(メタデータ) (2025-07-01T07:24:29Z) - AuthorMist: Evading AI Text Detectors with Reinforcement Learning [4.806579822134391]
AuthorMistは、AI生成したテキストを人間ライクな文章に変換する、新しい強化学習ベースのシステムだ。
AuthorMistは,本来の意味を保ちながら,AI生成テキストの検出性を効果的に低減することを示す。
論文 参考訳(メタデータ) (2025-03-10T12:41:05Z) - Decoupling Content and Expression: Two-Dimensional Detection of AI-Generated Text [18.809271485302897]
我々は、AIリスクレベルの階層的なフレームワークであるHARTを紹介し、それぞれが検出タスクに対応する。
以上の結果から, コンテンツは表面変化に耐性があり, 検出の重要な特徴となる可能性が示唆された。
実験により、2D法は既存の検出器を著しく上回り、AUROCは0.705から0.849に、RAIDは0.807から0.886に改善された。
論文 参考訳(メタデータ) (2025-03-01T00:19:13Z) - Sarang at DEFACTIFY 4.0: Detecting AI-Generated Text Using Noised Data and an Ensemble of DeBERTa Models [0.0]
本稿では,AI生成テキストの検出に有効な手法を提案する。
Defactify 4.0共有タスクのために、マルチモーダルな事実チェックとヘイトスピーチ検出に関する第4ワークショップで開発された。
私たちのチーム(Sarang)は、それぞれ1.0点と0.9531点のF1スコアで、両方のタスクで1位を獲得しました。
論文 参考訳(メタデータ) (2025-02-24T05:32:00Z) - DeTeCtive: Detecting AI-generated Text via Multi-Level Contrastive Learning [24.99797253885887]
このタスクを達成するための鍵は、異なる著者のスタイルを区別することにある、と我々は主張する。
DeTeCtiveは,マルチタスクの補助的,マルチレベルのコントラスト学習フレームワークである。
我々の手法はテキストエンコーダと互換性がある。
論文 参考訳(メタデータ) (2024-10-28T12:34:49Z) - Contrastive Transformer Learning with Proximity Data Generation for
Text-Based Person Search [60.626459715780605]
記述的なテキストクエリーを与えられたテキストベースの人物検索は、画像ギャラリーからベストマッチした人物を検索することを目的としている。
このようなクロスモーダル検索タスクは、重要なモダリティギャップ、きめ細かい相違、注釈付きデータの不十分さのため、かなり難しい。
本稿では,テキストに基づく人物検索のための2つのトランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2023-11-15T16:26:49Z) - SCP: Soft Conditional Prompt Learning for Aerial Video Action Recognition [48.456059482589495]
本研究では,航空映像行動認識において,迅速な学習の強みを生かした新しい学習手法であるSoft Conditional Prompt Learning(SCP)を提案する。
本手法は,航空機/ロボットの視覚知覚のための入力ビデオにおける動作に関する記述や指示に,モデルが焦点を当てることによって,各エージェントの動作を予測するように設計されている。
論文 参考訳(メタデータ) (2023-05-21T11:51:09Z) - Turning a CLIP Model into a Scene Text Detector [56.86413150091367]
近年,視覚言語モデルに基づく事前学習手法がテキスト検出の分野で有効な進歩を遂げている。
本稿では,CLIPモデルを事前学習せずにテキスト検出に利用することを目的とした,TCMと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-02-28T06:06:12Z) - Bag of Tricks for Effective Language Model Pretraining and Downstream
Adaptation: A Case Study on GLUE [93.98660272309974]
このレポートでは、ジェネラル言語理解評価のリーダーボードに関するVega v1を簡潔に紹介します。
GLUEは、質問応答、言語受容性、感情分析、テキスト類似性、パラフレーズ検出、自然言語推論を含む9つの自然言語理解タスクのコレクションである。
最適化された事前学習と微調整の戦略により、13億のモデルは4/9タスクに新しい最先端のタスクを設定し、91.3の平均スコアを達成しました。
論文 参考訳(メタデータ) (2023-02-18T09:26:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。