論文の概要: How You Prompt Matters! Even Task-Oriented Constraints in Instructions
Affect LLM-Generated Text Detection
- arxiv url: http://arxiv.org/abs/2311.08369v1
- Date: Tue, 14 Nov 2023 18:32:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-15 13:00:27.535661
- Title: How You Prompt Matters! Even Task-Oriented Constraints in Instructions
Affect LLM-Generated Text Detection
- Title(参考訳): 貴様らはどうだ!
LLMテキスト検出に影響を及ぼす指示におけるタスク指向制約
- Authors: Ryuto Koike, Masahiro Kaneko, Naoaki Okazaki
- Abstract要約: 命令におけるタスク指向の制約でさえ、電流検出器が生成したテキストに対して一貫性のない性能を引き起こす可能性がある。
そこで本研究では,タスク指向の制約による分散シフトを検出可能なロバスト検出器の開発について,さらなる研究を求める。
- 参考スコア(独自算出の注目度): 44.118047780553006
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Against the misuse (e.g., plagiarism or spreading misinformation) of Large
Language Models (LLMs), many recent works have presented LLM-generated-text
detectors with promising detection performance. Spotlighting a situation where
users instruct LLMs to generate texts (e.g., essay writing), there are various
ways to write the instruction (e.g., what task-oriented constraint to include).
In this paper, we discover that even a task-oriented constraint in instruction
can cause the inconsistent performance of current detectors to the generated
texts. Specifically, we focus on student essay writing as a realistic domain
and manually create the task-oriented constraint for each factor on essay
quality by Ke and Ng (2019). Our experiment shows that the detection
performance variance of the current detector on texts generated by instruction
with each task-oriented constraint is up to 20 times larger than the variance
caused by generating texts multiple times and paraphrasing the instruction. Our
finding calls for further research on developing robust detectors that can
detect such distributional shifts caused by a task-oriented constraint in the
instruction.
- Abstract(参考訳): LLM(Large Language Models)の誤用(盗用や誤報の拡散など)に対して、近年の多くの研究がLLM生成テキスト検出器を有望な検出性能で提示している。
ユーザーがLSMにテキストを生成するように指示する状況(例えばエッセイを書く)に光を当てると、命令を書くには様々な方法がある(例えば、どのタスク指向の制約を含めるか)。
本稿では,命令におけるタスク指向制約でさえ,電流検出器の不整合性能を生成テキストにもたらすことを明らかにする。
具体的には,学生論文執筆を現実的なドメインとして重視し,ke と ng (2019) による論文品質に関する各因子のタスク指向制約を手作業で作成する。
本実験により,各タスク指向制約による命令によって生成されたテキストに対する電流検出性能のばらつきは,テキストを複数回生成し,命令を言い換えることによる分散よりも最大20倍大きいことがわかった。
我々は,命令のタスク指向制約による分布シフトを検出可能なロバスト検出器の開発について,さらなる研究を求める。
関連論文リスト
- DetectRL: Benchmarking LLM-Generated Text Detection in Real-World Scenarios [38.952481877244644]
我々は,最新技術(SOTA)検出技術でさえも,このタスクにおいてまだ性能が劣っていることを強調した新しいベンチマークであるTectorRLを提案する。
我々は,現在のSOTA検出器の強度と限界を明らかにした。
DetectRLは、実世界のシナリオにおける検出器の評価に有効なベンチマークになり得ると考えている。
論文 参考訳(メタデータ) (2024-10-31T09:01:25Z) - CUDRT: Benchmarking the Detection Models of Human vs. Large Language Models Generated Texts [9.682499180341273]
大規模言語モデル(LLM)は、産業全体にわたってテキスト生成を大幅に強化した。
彼らの人間的なアウトプットは、人間とAIの作者の区別を困難にしている。
現在のベンチマークは主に静的データセットに依存しており、モデルベースの検出器の評価の有効性を制限している。
論文 参考訳(メタデータ) (2024-06-13T12:43:40Z) - Are you still on track!? Catching LLM Task Drift with Activations [55.75645403965326]
タスクドリフトは攻撃者がデータを流出させたり、LLMの出力に影響を与えたりすることを可能にする。
そこで, 簡易線形分類器は, 分布外テストセット上で, ほぼ完全なLOC AUCでドリフトを検出することができることを示す。
このアプローチは、プロンプトインジェクション、ジェイルブレイク、悪意のある指示など、目に見えないタスクドメインに対して驚くほどうまく一般化する。
論文 参考訳(メタデータ) (2024-06-02T16:53:21Z) - Benchmarking Large Language Models on Controllable Generation under
Diversified Instructions [34.89012022437519]
大型言語モデル (LLM) は命令追従能力に優れていた。
様々な命令に関係のある明示的な制約にどの程度対応できるかは、いまだに不明である。
命令に対するLLMの応答を様々な制約で評価する新しいベンチマークであるCoDI-Evalを提案する。
論文 参考訳(メタデータ) (2024-01-01T07:35:31Z) - A Survey on LLM-Generated Text Detection: Necessity, Methods, and Future Directions [39.36381851190369]
LLM生成テキストを検出できる検出器を開発する必要がある。
このことは、LLMが生成するコンテンツの有害な影響から、LLMの潜在的な誤用や、芸術的表現やソーシャルネットワークのような保護領域の軽減に不可欠である。
この検出器技術は、ウォーターマーキング技術、統計ベースの検出器、神経ベース検出器、そして人間の支援手法の革新によって、最近顕著な進歩をみせている。
論文 参考訳(メタデータ) (2023-10-23T09:01:13Z) - TRACE: A Comprehensive Benchmark for Continual Learning in Large
Language Models [52.734140807634624]
調整された大規模言語モデル(LLM)は、タスク解決、指示に従うこと、安全性を確保することにおいて、例外的な能力を示す。
既存の連続学習ベンチマークでは、LLMをリードする上で十分な課題が欠如している。
LLMにおける継続学習を評価するための新しいベンチマークであるTRACEを紹介する。
論文 参考訳(メタデータ) (2023-10-10T16:38:49Z) - OUTFOX: LLM-Generated Essay Detection Through In-Context Learning with
Adversarially Generated Examples [44.118047780553006]
OUTFOXは、LLM生成テキスト検出器の堅牢性を改善するフレームワークであり、検出器と攻撃者の両方が互いの出力を考慮できるようにする。
実験の結果,提案した検出器は攻撃者が生成したテキストの検出性能を最大41.3点F1スコアまで向上させることがわかった。
この検出器は最先端の検知性能を示し、96.9ポイントのF1スコアまで到達し、既存の検出器を非攻撃テキストで打ち負かした。
論文 参考訳(メタデータ) (2023-07-21T17:40:47Z) - Red Teaming Language Model Detectors with Language Models [114.36392560711022]
大規模言語モデル(LLM)は、悪意のあるユーザによって悪用された場合、重大な安全性と倫理的リスクをもたらす。
近年,LLM生成テキストを検出し,LLMを保護するアルゴリズムが提案されている。
1) LLMの出力中の特定の単語を, 文脈が与えられたシノニムに置き換えること, 2) 生成者の書き方を変更するための指示プロンプトを自動で検索すること,である。
論文 参考訳(メタデータ) (2023-05-31T10:08:37Z) - MAGE: Machine-generated Text Detection in the Wild [82.70561073277801]
大規模言語モデル(LLM)は人間レベルのテキスト生成を実現し、効果的なAI生成テキスト検出の必要性を強調している。
我々は、異なるLLMによって生成される多様な人文やテキストからテキストを収集することで、包括的なテストベッドを構築する。
問題にもかかわらず、トップパフォーマンス検出器は、新しいLCMによって生成された86.54%のドメイン外のテキストを識別することができ、アプリケーションシナリオの実現可能性を示している。
論文 参考訳(メタデータ) (2023-05-22T17:13:29Z) - Multi-Task Instruction Tuning of LLaMa for Specific Scenarios: A
Preliminary Study on Writing Assistance [60.40541387785977]
小さな基礎モデルは、命令駆動データを用いて微調整された場合、多様なタスクに対処する際、顕著な習熟度を示すことができる。
本研究は, 汎用的な指導よりも, 1つないし数つの特定のタスクに主眼を置いている, 実践的な問題設定について検討する。
実験結果から,命令データに対する微調整LLaMAは,タスクの記述能力を大幅に向上することが示された。
論文 参考訳(メタデータ) (2023-05-22T16:56:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。