論文の概要: Uncovering Hidden Intentions: Exploring Prompt Recovery for Deeper Insights into Generated Texts
- arxiv url: http://arxiv.org/abs/2406.15871v1
- Date: Sat, 22 Jun 2024 15:16:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-25 20:03:15.737815
- Title: Uncovering Hidden Intentions: Exploring Prompt Recovery for Deeper Insights into Generated Texts
- Title(参考訳): 隠れた意図を明らかにする: 生成したテキストのより深い洞察のためのプロンプトリカバリを探る
- Authors: Louis Give, Timo Zaoral, Maria Antonietta Bruno,
- Abstract要約: 本稿では,タスクのクローズドなセットを伴わずに,この領域における最初の調査を紹介する。
ゼロショットと少数ショットのインコンテキスト学習に加えて,LoRAファインチューニングも試行する。
その結果,元のプロンプトをある程度の精度で復元できることが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Today, the detection of AI-generated content is receiving more and more attention. Our idea is to go beyond detection and try to recover the prompt used to generate a text. This paper, to the best of our knowledge, introduces the first investigation in this particular domain without a closed set of tasks. Our goal is to study if this approach is promising. We experiment with zero-shot and few-shot in-context learning but also with LoRA fine-tuning. After that, we evaluate the benefits of using a semi-synthetic dataset. For this first study, we limit ourselves to text generated by a single model. The results show that it is possible to recover the original prompt with a reasonable degree of accuracy.
- Abstract(参考訳): 今日では、AI生成コンテンツの検出がますます注目を集めている。
私たちの考えは、検出を超えて、テキストを生成するために使われるプロンプトを復元することです。
本稿は、我々の知る限り、タスクのクローズドなセットなしに、この特定の領域における最初の調査を紹介します。
私たちの目標は、このアプローチが有望かどうかを研究することです。
ゼロショットと少数ショットのインコンテキスト学習に加えて,LoRAファインチューニングも試行する。
その後、半合成データセットを使用することの利点を評価する。
この最初の研究では、1つのモデルで生成されたテキストに限定する。
その結果,元のプロンプトをある程度の精度で復元できることが示唆された。
関連論文リスト
- 'Quis custodiet ipsos custodes?' Who will watch the watchmen? On Detecting AI-generated peer-reviews [20.030884734361358]
AIが生成したテキストが、ピアレビューを含む科学出版を損なうのではないかという懸念が高まっている。
本稿では,AIが頻繁にトークンを繰り返すことを示唆するTF(Term Frequency)モデルと,ChatGPTが再プロンプト時に同様の出力を生成するという考え方に基づくRR(Review Regeneration)モデルを紹介する。
以上の結果から,提案手法は,他のAIテキスト検出方法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-10-13T08:06:08Z) - DeepEraser: Deep Iterative Context Mining for Generic Text Eraser [103.39279154750172]
DeepEraserは反復操作によってイメージ内のテキストを消去するリカレントアーキテクチャである。
DeepEraserは1.4Mのパラメータしか持たず、エンドツーエンドでトレーニングされている。
論文 参考訳(メタデータ) (2024-02-29T12:39:04Z) - Enriching Relation Extraction with OpenIE [70.52564277675056]
関係抽出(RE)は情報抽出(IE)のサブ分野である
本稿では,オープン情報抽出(OpenIE)の最近の取り組みがREの課題の改善にどのように役立つかを検討する。
本稿では,2つの注釈付きコーパスであるKnowledgeNetとFewRelを用いた実験により,拡張モデルの精度向上を実証した。
論文 参考訳(メタデータ) (2022-12-19T11:26:23Z) - Momentum Decoding: Open-ended Text Generation As Graph Exploration [49.812280360794894]
自動回帰言語モデル(LM)を用いたオープンエンドテキスト生成は、自然言語処理における中核的なタスクの1つである。
我々は、新しい視点から、すなわち、有向グラフ内の探索プロセスとして、オープンエンドテキスト生成を定式化する。
本稿では,新しい復号法であるtextitmomentum decodingを提案する。
論文 参考訳(メタデータ) (2022-12-05T11:16:47Z) - Synthetic Text Detection: Systemic Literature Review [0.45687771576879593]
合成テキスト検出は研究のトピックとしてますます有効になっている。
このレビューは、現在の文献のスナップショットを作成し、将来の著者の参入障壁を緩和するために書かれています。
論文 参考訳(メタデータ) (2022-10-01T04:43:41Z) - LAMP: Extracting Text from Gradients with Language Model Priors [9.242965489146398]
最近の研究は、センシティブなユーザデータを勾配更新から再構築できることを示し、フェデレートされた学習における重要なプライバシーの約束を破っている。
我々は,テキストデータに適した新しい攻撃であるLAMPを提案し,勾配からオリジナルテキストを再構築することに成功した。
論文 参考訳(メタデータ) (2022-02-17T18:49:25Z) - Subsentence Extraction from Text Using Coverage-Based Deep Learning
Language Models [3.3461339691835277]
カバレッジに基づく感情・サブセンテンス抽出システムを提案する。
予測サブセンテンスは、感情を表す補助情報からなる。
我々のアプローチは、最先端のアプローチよりも、subsentence予測の大きなマージンで勝っている。
論文 参考訳(メタデータ) (2021-04-20T06:24:49Z) - TEACHTEXT: CrossModal Generalized Distillation for Text-Video Retrieval [103.85002875155551]
本研究では,大規模言語前訓練を利用した一般化蒸留法TeachTextを提案する。
提案手法をビデオ側モダリティに拡張し,テスト時に使用するモダリティの数を効果的に削減できることを示す。
提案手法は,いくつかのビデオ検索ベンチマークの精度を著しく向上させ,テスト時の計算オーバーヘッドを増加させない。
論文 参考訳(メタデータ) (2021-04-16T17:55:28Z) - Text Mining to Identify and Extract Novel Disease Treatments From
Unstructured Datasets [56.38623317907416]
Google Cloudを使って、NPRラジオ番組のポッドキャストのエピソードを書き起こします。
次に、テキストを体系的に前処理するためのパイプラインを構築します。
我々のモデルは、Omeprazoleが心臓熱傷の治療に役立てることに成功しました。
論文 参考訳(メタデータ) (2020-10-22T19:52:49Z) - TextHide: Tackling Data Privacy in Language Understanding Tasks [54.11691303032022]
TextHideは、トレーニングを遅くしたり、精度を下げることなく、プライバシー上のリスクを軽減する。
すべての参加者は、盗聴攻撃者がプライベートテキストデータを復元するのを防ぐために、簡単な暗号化ステップを追加する必要がある。
我々は、GLUEベンチマーク上でTextHideを評価し、TextHideが共有勾配や表現に対する攻撃を効果的に防御できることを示す。
論文 参考訳(メタデータ) (2020-10-12T22:22:15Z) - Towards Discourse Parsing-inspired Semantic Storytelling [0.8974184539413771]
セマンティックストーリーテリングに関する長期的なビジョンを概説し、現在の概念的および技術的なアプローチについて説明する。
長期的な目標の1つは、幅広いカバレッジを持ち、さらに堅牢なセマンティックストーリーテリングのアプローチを開発することである。
論文 参考訳(メタデータ) (2020-04-25T17:09:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。