論文の概要: SHARP: Unlocking Interactive Hallucination via Stance Transfer in Role-Playing Agents
- arxiv url: http://arxiv.org/abs/2411.07965v3
- Date: Mon, 16 Dec 2024 19:24:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-18 13:55:25.769623
- Title: SHARP: Unlocking Interactive Hallucination via Stance Transfer in Role-Playing Agents
- Title(参考訳): SHARP:ロールプレイングエージェントにおけるスタンス転送による対話型幻覚の解錠
- Authors: Chuyi Kong, Ziyang Luo, Hongzhan Lin, Zhiyuan Fan, Yaxin Fan, Yuxi Sun, Jing Ma,
- Abstract要約: 多様な世界観においてインタラクティブなパターンを解き放つための、一般化可能で明示的で効果的なパラダイムを提案する。
具体的には、姿勢伝達に基づく対話型幻覚を定義し、一般的なコモンセンス知識グラフから関係を抽出し、ベンチマークSHARPを構築する。
本研究は,これらの指標に影響を及ぼす要因を考察し,役割に対する盲目の忠誠心と,RPAにおける事実への固執とのトレードオフについて考察した。
- 参考スコア(独自算出の注目度): 12.990119925990477
- License:
- Abstract: The advanced role-playing capabilities of Large Language Models (LLMs) have paved the way for developing Role-Playing Agents (RPAs). However, existing benchmarks in social interaction such as HPD and SocialBench have not investigated hallucination and face limitations like poor generalizability and implicit judgments for character fidelity. To address these issues, we propose a generalizable, explicit and effective paradigm to unlock the interactive patterns in diverse worldviews. Specifically, we define the interactive hallucination based on stance transfer and construct a benchmark, SHARP, by extracting relations from a general commonsense knowledge graph and leveraging the inherent hallucination properties of RPAs to simulate interactions across roles. Extensive experiments validate the effectiveness and stability of our paradigm. Our findings further explore the factors influencing these metrics and discuss the trade-off between blind loyalty to roles and adherence to facts in RPAs.
- Abstract(参考訳): LLM(Large Language Models)の高度なロールプレイング能力は、ロールプレイングエージェント(RPAs)の開発の道を開いた。
しかし、HPD や SocialBench のような既存の社会的相互作用のベンチマークでは、幻覚や一般性に乏しい、文字の忠実さを暗黙的に判断するといった制限は研究されていない。
これらの課題に対処するために,多種多様な世界観における対話的パターンを解き放つための,汎用的で明示的で効果的なパラダイムを提案する。
具体的には、姿勢伝達に基づく対話型幻覚を定義し、一般的な常識知識グラフから関係を抽出し、RPA固有の幻覚特性を利用して役割間の相互作用をシミュレートすることで、SHARPというベンチマークを構築する。
大規模な実験により、我々のパラダイムの有効性と安定性が検証された。
さらに,これらの指標に影響を及ぼす要因について検討し,役割に対する盲目の忠誠心と,RPAにおける事実への固執とのトレードオフについて考察した。
関連論文リスト
- Enhancing adversarial robustness in Natural Language Inference using explanations [41.46494686136601]
自然言語推論(NLI)の未探索課題に注目点を当てた。
我々は、広範囲な実験を通じて、モデルに依存しない防衛戦略として、自然言語説明の使用を検証した。
本研究では,広範に使用されている言語生成指標と人間の知覚との相関について検討し,それらが堅牢なNLIモデルへのプロキシとして機能するようにした。
論文 参考訳(メタデータ) (2024-09-11T17:09:49Z) - Iterative Utility Judgment Framework via LLMs Inspired by Relevance in Philosophy [66.95501113584541]
ユーティリティとトピック関連性は、情報検索において重要な手段である。
本稿では,リトリーバル拡張生成のサイクルの各ステップを促進させるために,反復的ユーティリティである JudgmEnt fraMework を提案する。
論文 参考訳(メタデータ) (2024-06-17T07:52:42Z) - VALOR-EVAL: Holistic Coverage and Faithfulness Evaluation of Large Vision-Language Models [57.43276586087863]
LVLM(Large Vision-Language Models)は幻覚に悩まされ、このモデルでは可聴音を発生させるが、実際には誤出力を発生させる。
既存のベンチマークはスコープに限られており、主にオブジェクト幻覚に焦点を当てている。
対象,属性,関係を多次元のベンチマークで表現し,連想バイアスに基づいて画像を選択する。
論文 参考訳(メタデータ) (2024-04-22T04:49:22Z) - Discovery of the Hidden World with Large Language Models [95.58823685009727]
本稿では,大きな言語モデル(LLM)を導入してギャップを埋めるCausal representatiOn AssistanT(COAT)を提案する。
LLMは世界中の大規模な観測に基づいて訓練されており、構造化されていないデータから重要な情報を抽出する優れた能力を示している。
COATはまた、特定変数間の因果関係を見つけるためにCDを採用し、提案された要因を反復的に洗練するためにLSMにフィードバックを提供する。
論文 参考訳(メタデータ) (2024-02-06T12:18:54Z) - Interactive Autonomous Navigation with Internal State Inference and
Interactivity Estimation [58.21683603243387]
本稿では,関係時間的推論を伴う3つの補助的タスクを提案し,それらを標準のディープラーニングフレームワークに統合する。
これらの補助的なタスクは、他の対話的エージェントの行動パターンを推測するための追加の監視信号を提供する。
提案手法は,標準評価指標の観点から,頑健かつ最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-11-27T18:57:42Z) - Understanding Robust Overfitting from the Feature Generalization Perspective [61.770805867606796]
逆行訓練(AT)は、逆行摂動を自然データに組み込むことで、堅牢なニューラルネットワークを構築する。
これはロバストオーバーフィッティング(RO)の問題に悩まされ、モデルのロバスト性を著しく損なう。
本稿では,新しい特徴一般化の観点からROを考察する。
論文 参考訳(メタデータ) (2023-10-01T07:57:03Z) - Robust Stance Detection: Understanding Public Perceptions in Social Media [15.460495567765362]
スタンス検出は、明確に定義されたトピックに対する正確な位置を特定する。
従来のスタンス検出モデルは、新しいドメインやトピックに適用すると、パフォーマンスが低下することが多い。
本稿では,反実データ拡張と対照的な学習を組み合わせることで,姿勢検出の堅牢性を高める方法を提案する。
論文 参考訳(メタデータ) (2023-09-26T18:19:51Z) - Better Zero-Shot Reasoning with Role-Play Prompting [10.90357246745529]
ロールプレイプロンプトは、ほとんどのデータセットで標準のゼロショットアプローチを一貫して上回っている。
これは、大きな言語モデルの推論能力を増強する可能性を強調している。
論文 参考訳(メタデータ) (2023-08-15T11:08:30Z) - Harnessing Perceptual Adversarial Patches for Crowd Counting [92.79051296850405]
群衆のカウントは、物理的な世界の敵の例に弱い。
本稿では,モデル間での知覚的特徴の共有を学習するためのPAP(Perceptual Adrial Patch)生成フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:51:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。