論文の概要: Persona Switch: Mixing Distinct Perspectives in Decoding Time
- arxiv url: http://arxiv.org/abs/2601.15708v1
- Date: Thu, 22 Jan 2026 07:30:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.52274
- Title: Persona Switch: Mixing Distinct Perspectives in Decoding Time
- Title(参考訳): ペルソナスイッチ:復号時間における個別視点の混合
- Authors: Junseok Kim, Nakyeong Yang, Kyomin Jung,
- Abstract要約: ロールプレイプロンプトはペルソナをプロンプトに注入し、ゼロショット推論機能を改善する。
この矛盾は、ゼロショットとロールプレイの促進が相補的な強みをもたらすことを示唆している。
両戦略の利点を動的に組み合わせた新しい復号法であるペルソナスイッチを提案する。
- 参考スコア(独自算出の注目度): 21.49017923823084
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Role-play prompting is known to steer the behavior of language models by injecting a persona into the prompt, improving their zero-shot reasoning capabilities. However, such improvements are inconsistent across different tasks or instances. This inconsistency suggests that zero-shot and role-play prompting may offer complementary strengths rather than one being universally superior. Building on this insight, we propose Persona Switch, a novel decoding method that dynamically combines the benefits of both prompting strategies. Our method proceeds step-by-step, selecting the better output between zero-shot and role-play prompting at each step by comparing their output confidence, as measured by the logit gap. Experiments with widely-used LLMs demonstrate that Persona Switch consistently outperforms competitive baselines, achieving up to 5.13% accuracy improvement. Furthermore, we show that output confidence serves as an informative measure for selecting the more reliable output.
- Abstract(参考訳): ロールプレイプロンプトは、プロンプトにペルソナを注入することで言語モデルの振る舞いを制御し、ゼロショット推論能力を改善することで知られている。
しかし、このような改善は異なるタスクやインスタンス間で矛盾する。
この矛盾は、ゼロショットとロールプレイのプロンプトが、普遍的に優れているというよりも補完的な強みをもたらすことを示唆している。
この知見に基づいて,両戦略のメリットを動的に組み合わせた新しい復号法であるペルソナスイッチを提案する。
提案手法では,ロジットギャップで測定した出力信頼度を比較して,ゼロショットとロールプレイのプロンプト間のより良い出力を選択する。
広く使われているLLMの実験では、Persona Switchは競争ベースラインを一貫して上回り、最大5.13%の精度向上を実現している。
さらに,より信頼性の高い出力を選択するための情報手段として,出力信頼度が有効であることを示す。
関連論文リスト
- Scalable Best-of-N Selection for Large Language Models via Self-Certainty [75.1351701045874]
Best-of-N selectionは、Large Language Models(LLMs)の推論性能を改善するための重要なテクニックである。
本稿では, LLM出力の固有確率分布を利用して, 外部報酬モデルを必要としない応答品質を推定する, 新規で効率的な指標である自己確実性を提案する。
本研究は, LLM推論能力を向上させるための実用的で効率的な方法として, 自己確実性を確立した。
論文 参考訳(メタデータ) (2025-02-25T19:08:07Z) - FamiCom: Further Demystifying Prompts for Language Models with Task-Agnostic Performance Estimation [73.454943870226]
言語モデルは、コンテキスト内学習能力に優れています。
本稿では,タスク非依存のパフォーマンス推定のためのより包括的な尺度であるFamiComを提案する。
論文 参考訳(メタデータ) (2024-06-17T06:14:55Z) - RankPrompt: Step-by-Step Comparisons Make Language Models Better Reasoners [38.30539869264287]
大きな言語モデル(LLM)は、様々な推論タスクで素晴らしいパフォーマンスを実現しています。
しかし、ChatGPTのような最先端のLCMでさえ、推論プロセス中に論理的な誤りを犯しやすい。
新たなプロンプト手法である RankPrompt を導入し,LLM が追加リソースを必要とせずに応答を自己ランクできる手法を提案する。
論文 参考訳(メタデータ) (2024-03-19T02:34:18Z) - PsyCoT: Psychological Questionnaire as Powerful Chain-of-Thought for
Personality Detection [50.66968526809069]
PsyCoTと呼ばれる新しい人格検出手法を提案する。これは、個人がマルチターン対話方式で心理的質問を完遂する方法を模倣するものである。
実験の結果,PsyCoTは人格検出におけるGPT-3.5の性能とロバスト性を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2023-10-31T08:23:33Z) - Better Zero-Shot Reasoning with Role-Play Prompting [10.90357246745529]
ロールプレイプロンプトは、ほとんどのデータセットで標準のゼロショットアプローチを一貫して上回っている。
これは、大きな言語モデルの推論能力を増強する可能性を強調している。
論文 参考訳(メタデータ) (2023-08-15T11:08:30Z) - Prompt Consistency for Zero-Shot Task Generalization [118.81196556175797]
本稿では,ラベルのないデータを用いてゼロショット性能を向上させる手法について検討する。
具体的には,複数のプロンプトを使ってひとつのタスクを指定できることを利用して,プロンプトの一貫性を規則化する手法を提案する。
我々のアプローチは、4つのNLPタスクにまたがる11のデータセットのうち9つにおいて、最先端のゼロショット学習者であるT0を精度で最大10.6の絶対点で上回ります。
論文 参考訳(メタデータ) (2022-04-29T19:18:37Z) - Rethinking Zero-shot Neural Machine Translation: From a Perspective of
Latent Variables [28.101782382170306]
従来の訓練対象にピボット言語に基づく自動エンコーダ目標を導入し,ゼロショット方向の翻訳精度を向上させる。
提案手法は, 突発的相関を効果的に排除し, 顕著な性能で最先端の手法を著しく上回ることを示す。
論文 参考訳(メタデータ) (2021-09-10T07:18:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。