論文の概要: Improving Language Model Personas via Rationalization with Psychological Scaffolds
- arxiv url: http://arxiv.org/abs/2504.17993v2
- Date: Tue, 20 May 2025 21:58:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:58.312619
- Title: Improving Language Model Personas via Rationalization with Psychological Scaffolds
- Title(参考訳): 心理学者による合理化による言語モデルペルソナの改善
- Authors: Brihi Joshi, Xiang Ren, Swabha Swayamdipta, Rik Koncel-Kedziorski, Tim Paek,
- Abstract要約: 我々は,ユーザがある判断を下す可能性の有意な根拠を取り入れて,LMペルソナを改善するフレームワークPB&Jを紹介する。
我々の合理性は言語モデルによって生成され、経験、性格特性、信念に基づいてユーザーの行動を明確に推論する。
提案手法は心理的な足場を用いており、例えばビッグ5パーソナリティ・トラッツ(Big 5 Personality Traits)やプリマル・ワールド・ブリーフ(Primal World Beliefs)のような構造化されたフレームワークは、既存の理論で生成された理論的根拠を基礎づけるのに役立つ。
- 参考スコア(独自算出の注目度): 41.95479674995431
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Language models prompted with a user description or persona are being used to predict the user's preferences and opinions. However, existing approaches to building personas mostly rely on a user's demographic attributes and/or prior judgments, but not on any underlying reasoning behind a user's judgments. We introduce PB&J (Psychology of Behavior and Judgments), a framework that improves LM personas by incorporating potential rationales for why the user could have made a certain judgment. Our rationales are generated by a language model to explicitly reason about a user's behavior on the basis of their experiences, personality traits, or beliefs. Our method employs psychological scaffolds: structured frameworks such as the Big 5 Personality Traits or Primal World Beliefs to help ground the generated rationales in existing theories. Experiments on public opinion and movie preference prediction tasks demonstrate that language model personas augmented with PB&J rationales consistently outperform personas conditioned only on user demographics and / or judgments, including those that use a model's default chain-of-thought, which is not grounded in psychological theories. Additionally, our PB&J personas perform competitively with those using human-written rationales, suggesting the potential of synthetic rationales guided by existing theories.
- Abstract(参考訳): ユーザ記述やペルソナによって引き起こされる言語モデルは、ユーザの好みや意見を予測するために使用されている。
しかしながら、既存のペルソナ構築アプローチは、主にユーザの人口統計特性や/または事前の判断に依存しているが、ユーザの判断の背後にある基本的な理由には依存していない。
PB&J (Psychology of Behavior and Judgments, 行動と判断の心理学) は、ユーザがなぜある判断を下すことができたのかについての潜在的根拠を取り入れて、LMのペルソナを改善するフレームワークである。
我々の合理性は言語モデルによって生成され、経験、性格特性、信念に基づいてユーザーの行動を明確に推論する。
提案手法は心理的な足場を用いており、例えばビッグ5パーソナリティ・トラッツ(Big 5 Personality Traits)やプリマル・ワールド・ブリーフ(Primal World Beliefs)のような構造化されたフレームワークは、既存の理論で生成された理論的根拠を基礎づけるのに役立つ。
世論と映画嗜好予測タスクの実験では、PB&Jの理論的根拠で強化された言語モデルペルソナは、心理的理論に根ざしていないモデルのデフォルトのチェーン・オブ・シンクレットを使用するものを含め、ユーザー人口や/または判断にのみ条件付けられたペルソナよりも一貫して優れていた。
さらに, PB&Jのペルソナは, 人文的合理性を用いた人文的合理性と競合し, 既存の理論で導かれる合理性の可能性も示唆した。
関連論文リスト
- Bayesian Teaching Enables Probabilistic Reasoning in Large Language Models [50.16340812031201]
我々は,大規模言語モデル (LLM) がベイジアンフレームワークから期待されているように,その信念を更新しないことを示す。
我々は、最適ベイズモデルの予測を模倣するように訓練することで、ベイズ的な推論をLLMに教える。
論文 参考訳(メタデータ) (2025-03-21T20:13:04Z) - CBEval: A framework for evaluating and interpreting cognitive biases in LLMs [1.4633779950109127]
大きな言語モデルは、認知過程において顕著なギャップを示す。
人間の生成したデータのリフレクションとして、これらのモデルは認知バイアスを継承する可能性がある。
論文 参考訳(メタデータ) (2024-12-04T05:53:28Z) - Large Language Models Assume People are More Rational than We Really are [10.857040292234984]
AIが人と効果的にコミュニケーションするためには、意思決定の仕方を理解する必要があります。
以前の実証的な証拠は、これらの暗黙のモデルが正確であることを示唆しているようである。
人々の選択をシミュレートし、予測する場合は、実際にはそうではありません。
論文 参考訳(メタデータ) (2024-06-24T18:15:27Z) - Can LLM be a Personalized Judge? [24.858529542496367]
LLM-as-a-Personalized-Judgeの信頼性を検討した。
LLM-as-a-Personalized-Judgeの直接適用は,従来想定されていたよりも信頼性が低いことが示唆された。
本研究では,LLM-as-a-Personalized-Judgeパイプラインに不確実性推定を導入し,不確実性判定に対する信頼度を低く表現する。
論文 参考訳(メタデータ) (2024-06-17T15:41:30Z) - PHAnToM: Persona-based Prompting Has An Effect on Theory-of-Mind Reasoning in Large Language Models [25.657579792829743]
我々は,ロールプレイングの促進が理論・オブ・ミンド(ToM)推論能力にどのように影響するかを実証的に評価した。
本稿では、推論タスクの複雑さの固有のばらつきを超えて、社会的に動機づけられた相違が原因で、パフォーマンスの違いが発生するメカニズムを提案する。
論文 参考訳(メタデータ) (2024-03-04T17:34:34Z) - On the steerability of large language models toward data-driven personas [98.9138902560793]
大規模言語モデル(LLM)は、特定のグループや集団の意見が不足している偏りのある応答を生成することが知られている。
本稿では, LLM を用いて特定の視点の制御可能な生成を実現するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T19:01:13Z) - MoCa: Measuring Human-Language Model Alignment on Causal and Moral
Judgment Tasks [49.60689355674541]
認知科学の豊富な文献は人々の因果関係と道徳的直観を研究してきた。
この研究は、人々の判断に体系的に影響を及ぼす多くの要因を明らかにした。
大規模言語モデル(LLM)が、人間の参加者と一致するテキストベースのシナリオについて因果的、道徳的な判断を下すかどうかを検証する。
論文 参考訳(メタデータ) (2023-10-30T15:57:32Z) - Character-LLM: A Trainable Agent for Role-Playing [67.35139167985008]
大規模言語モデル(LLM)は、人間の振る舞いをシミュレートするエージェントとして用いられる。
本稿では, ベートーヴェン, クレオパトラ女王, ユリウス・カエサルなど, LLM に特定の人物として行動するように教えるキャラクタ-LLMを紹介する。
論文 参考訳(メタデータ) (2023-10-16T07:58:56Z) - Aligning Language Models to User Opinions [10.953326025836475]
ユーザの意見や人口統計やイデオロギーが相互予測者ではないことが判明した。
ユーザの意見とユーザ人口、イデオロギーの両方をモデル化することで、LCMを整合させる。
人口統計学とイデオロギーを併用したLCMの典型的なアプローチに加えて,個人ユーザからの最も関連性の高い過去の意見を活用すれば,より正確なユーザ意見の予測が可能になることが判明した。
論文 参考訳(メタデータ) (2023-05-24T09:11:11Z) - Can ChatGPT Assess Human Personalities? A General Evaluation Framework [70.90142717649785]
大きな言語モデル(LLM)は、様々な分野で印象的な成果を上げてきたが、その潜在的な人間のような心理学はいまだに研究されていない。
本稿では,Mers Briggs Type Indicator (MBTI) テストに基づく人格評価のための総合評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-01T06:16:14Z) - A Neural Topical Expansion Framework for Unstructured Persona-oriented
Dialogue Generation [52.743311026230714]
Persona Exploration and Exploitation (PEE)は、事前に定義されたユーザペルソナ記述を意味論的に相関したコンテンツで拡張することができる。
PEEはペルソナ探索とペルソナ搾取という2つの主要なモジュールで構成されている。
提案手法は, 自動評価と人的評価の両面で, 最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2020-02-06T08:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。