論文の概要: Persona is a Double-edged Sword: Mitigating the Negative Impact of Role-playing Prompts in Zero-shot Reasoning Tasks
- arxiv url: http://arxiv.org/abs/2408.08631v2
- Date: Sat, 19 Oct 2024 12:57:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:13:36.377343
- Title: Persona is a Double-edged Sword: Mitigating the Negative Impact of Role-playing Prompts in Zero-shot Reasoning Tasks
- Title(参考訳): ペルソナはダブルエッジソード:ゼロショット推論タスクにおけるロールプレイングプロンプトの負の影響を緩和する
- Authors: Junseok Kim, Nakyeong Yang, Kyomin Jung,
- Abstract要約: 言語モデルにペルソナを注入することによる潜在的な負の影響について検討する。
我々は、ロールプレイングと中立的なプロンプトの両方の結果をまとめる新しいフレームワーク、Jekyll & Hydeを提案する。
- 参考スコア(独自算出の注目度): 18.31329470667862
- License:
- Abstract: Recent studies demonstrate that prompting a role-playing persona to an LLM improves reasoning capability. However, assigning an adequate persona is difficult since LLMs are extremely sensitive to assigned prompts; thus, inaccurately defined personas sometimes hinder LLMs and degrade their reasoning capabilities. In this paper, we first investigate the potential negative impact of injecting persona into language models. Furthermore, we propose a novel framework, Jekyll \& Hyde, which ensembles the outcomes of both role-playing and neutral prompts to enhance the robustness of reasoning ability. Specifically, Jekyll \& Hyde predicts an appropriate persona using an LLM when defining the role-playing prompt. Then, Jekyll \& Hyde collects two potential solutions from role-playing and neutral prompts and selects a better solution using the LLM evaluator. The experimental analysis demonstrates that role-playing prompts sometimes distract LLMs, degrading their reasoning abilities in 7 out of 12 datasets in llama3. Meanwhile, Jekyll \& Hyde improve reasoning capabilities by selecting better choices among the potential solutions on twelve widely-used natural language reasoning datasets. In addition, we reveal that assigning LLM-generated personas obtains more stable results than handcrafted personas.
- Abstract(参考訳): 近年の研究では、ロールプレイングペルソナをLLMに誘導することで推論能力が向上することが示されている。
しかし、LLMが割り当てられたプロンプトに対して極めて敏感であるため、適切なペルソナの割り当ては困難であり、不正確なペルソナがLLMを妨げ、それらの推論能力を低下させることがある。
本稿ではまず,言語モデルにペルソナを注入することによる負の影響について検討する。
さらに,ロールプレイングとニュートラルプロンプトの両方の結果をアンサンブル化し,推論能力の堅牢性を高める新しいフレームワークであるJerkyll \& Hydeを提案する。
特に、Jekyll \&Hydeはロールプレイングプロンプトを定義する際に、LLMを使用して適切なペルソナを予測する。
次に、Jekyll \&Hyde はロールプレイングとニュートラルプロンプトから2つの潜在的な解を収集し、LLM評価器を用いてより良い解を選択する。
実験分析では、ロールプレイングプロンプトがLLMを混乱させ、ラマ3の12のデータセットのうち7つの推論能力を低下させることが示されている。
一方、Jekyll \&Hydeは、広く使用されている12の自然言語推論データセット上で、潜在的なソリューションの中からよりよい選択肢を選択することで、推論機能を改善している。
さらに,LLM生成したペルソナを割り当てることで,手作りペルソナよりも安定した結果が得られることを明らかにした。
関連論文リスト
- Self-Prompt Tuning: Enable Autonomous Role-Playing in LLMs [12.615896145500393]
自己プロンプトチューニングされたLLMは、任意の質問に対して専門家の役割プロンプトを自動的に生成することができる。
我々は、広く使われているNLPベンチマークとオープンエンド質問テストに基づいて、自己プロンプト調整LPMを広範囲に評価した。
論文 参考訳(メタデータ) (2024-07-12T05:26:24Z) - Are Large Language Models Strategic Decision Makers? A Study of Performance and Bias in Two-Player Non-Zero-Sum Games [56.70628673595041]
大規模言語モデル(LLM)は、現実世界での利用が増えているが、その戦略能力はほとんど解明されていない。
戦略ゲーム,Stag Hunt と Prisoner Dilemma における LLM の動作について検討し,異なる設定とプロンプト下での性能変動を分析した。
以上の結果から,(1)位置バイアス,(2)支払いバイアス,(3)行動バイアスの少なくとも1つが評価された。
論文 参考訳(メタデータ) (2024-07-05T12:30:02Z) - Auto Arena of LLMs: Automating LLM Evaluations with Agent Peer-battles and Committee Discussions [77.83767077859835]
LLM エージェントによる評価プロセス全体を自動化した LLM の自動アリーナを提案する。
最新のLLM17実験において,オートアリーナは人間の嗜好と最も高い相関関係を示した。
論文 参考訳(メタデータ) (2024-05-30T17:19:19Z) - Towards Efficient LLM Grounding for Embodied Multi-Agent Collaboration [70.09561665520043]
本稿では,多エージェント協調のための新しいフレームワークを提案する。これは,効率的な自己調整のための強化アドバンテージフィードバック(Reinforced Advantage feedback, ReAd)を導入する。
強化学習における重み付き回帰を多エージェントシステムに拡張して理論的解析を行う。
Over-AIと難解なRoCoBenchの実験は、ReAdが成功率のベースラインを超え、エージェントの相互作用ステップを著しく減少させることを示している。
論文 参考訳(メタデータ) (2024-05-23T08:33:19Z) - Toward Self-Improvement of LLMs via Imagination, Searching, and Criticizing [56.75702900542643]
大規模言語モデルの自己改善のためのAlphaLLMを紹介する。
モンテカルロ木探索(MCTS)とLLMを統合し、自己改善ループを確立する。
実験の結果,AlphaLLM は付加アノテーションを使わずに LLM の性能を大幅に向上することがわかった。
論文 参考訳(メタデータ) (2024-04-18T15:21:34Z) - Enabling Weak LLMs to Judge Response Reliability via Meta Ranking [38.63721941742435]
我々は、$textitMeta Ranking$ (MR) と呼ばれるクロスクエリベースの新しい手法を提案する。
MRは、ターゲットクエリ-レスポンスペアを複数の参照クエリ-レスポンスペアにペアでランク付けすることで、信頼性を評価する。
MRはモデルカスケーディングとインストラクションチューニングの2つの実用的応用において、強力なLLMの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2024-02-19T13:57:55Z) - Are Large Language Models Really Robust to Word-Level Perturbations? [68.60618778027694]
本稿では,事前学習した報酬モデルを診断ツールとして活用する,新たな合理的評価手法を提案する。
より長い会話は、質問を理解する能力の観点から言語モデルの包括的把握を示す。
この結果から,LLMは日常言語でよく使われる単語レベルの摂動に対する脆弱性をしばしば示している。
論文 参考訳(メタデータ) (2023-09-20T09:23:46Z) - Encouraging Divergent Thinking in Large Language Models through Multi-Agent Debate [85.89346248535922]
複数のエージェントが"tit for tat"の状態で議論を表現するマルチエージェント議論(MAD)フレームワークを提案し、審査員が議論プロセスを管理して最終解を得る。
我々のフレームワークは、深い熟考を必要とするタスクに役立ちそうなLSMにおける散発的思考を奨励する。
論文 参考訳(メタデータ) (2023-05-30T15:25:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。