論文の概要: Improving LLM Personas via Rationalization with Psychological Scaffolds
- arxiv url: http://arxiv.org/abs/2504.17993v1
- Date: Fri, 25 Apr 2025 00:36:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.601994
- Title: Improving LLM Personas via Rationalization with Psychological Scaffolds
- Title(参考訳): 心理学的スカフォルドを用いた合理化によるLLMペルソナの改善
- Authors: Brihi Joshi, Xiang Ren, Swabha Swayamdipta, Rik Koncel-Kedziorski, Tim Paek,
- Abstract要約: ユーザ記述やペルソナによって引き起こされる言語モデルは、ユーザの好みや意見を予測することができる。
既存のペルソナ構築アプローチでは、そのユーザ判断の背後にある根底にある理由を捉えられません。
PB&Jは,ユーザが特定の判断を下す理由の理論的根拠を取り入れ,LLMのペルソナを改善するフレームワークである。
- 参考スコア(独自算出の注目度): 41.95479674995431
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Language models prompted with a user description or persona can predict a user's preferences and opinions, but existing approaches to building personas -- based solely on a user's demographic attributes and/or prior judgments -- fail to capture the underlying reasoning behind said user judgments. We introduce PB&J (Psychology of Behavior and Judgments), a framework that improves LLM personas by incorporating rationales of why a user might make specific judgments. These rationales are LLM-generated, and aim to reason about a user's behavior on the basis of their experiences, personality traits or beliefs. This is done using psychological scaffolds -- structured frameworks grounded in theories such as the Big 5 Personality Traits and Primal World Beliefs -- that help provide structure to the generated rationales. Experiments on public opinion and movie preference prediction tasks demonstrate that LLM personas augmented with PB&J rationales consistently outperform methods using only a user's demographics and/or judgments. Additionally, LLM personas constructed using scaffolds describing user beliefs perform competitively with those using human-written rationales.
- Abstract(参考訳): ユーザ記述やペルソナによって引き起こされる言語モデルは、ユーザの好みや意見を予測することができるが、ユーザの人口統計特性や/または以前の判断のみに基づく、ペルソナを構築するための既存のアプローチは、そのユーザの判断の背後にある根底にある理由を捉えることができない。
PB&J (Psychology of Behavior and Judgments, 行動と判断の心理学) は, LLMのペルソナを改善するためのフレームワークである。
これらの理性は LLM の生成であり、経験、性格特性、信念に基づいてユーザの行動について推論することを目的としている。
これは心理的な足場(Big 5 Personality TraitsやPrimal World Beliefsのような理論に基づく構造化されたフレームワーク)を使って行われ、生成された合理性の構造を提供する。
世論と映画嗜好予測タスクの実験は、PB&Jの合理性で強化されたLLMペルソナが、ユーザの人口統計学的および/または判断のみを用いて、メソッドを一貫して上回ることを示す。
また、ユーザ信念を記述した足場を用いて構築されたLLMペルソナは、人文論理を用いたものと競争的に機能する。
関連論文リスト
- PrefPalette: Personalized Preference Modeling with Latent Attributes [59.58648056175468]
PrefPaletteは、好みを属性の次元に分解するフレームワークである。
好みの予測を、異なる社会的価値に合わせる。
PrefPaletteは平均予測精度でGPT-4oを46.6%上回っている。
論文 参考訳(メタデータ) (2025-07-17T21:21:54Z) - Bayesian Teaching Enables Probabilistic Reasoning in Large Language Models [50.16340812031201]
我々は,大規模言語モデル (LLM) がベイジアンフレームワークから期待されているように,その信念を更新しないことを示す。
我々は、最適ベイズモデルの予測を模倣するように訓練することで、ベイズ的な推論をLLMに教える。
論文 参考訳(メタデータ) (2025-03-21T20:13:04Z) - Does Your AI Agent Get You? A Personalizable Framework for Approximating Human Models from Argumentation-based Dialogue Traces [4.178382980763478]
本稿では,議論に基づく対話を通じて,AIエージェントが人間の理解に適応できるフレームワークを提案する。
パーソナと呼ばれる我々のアプローチは、確率理論に基づいて、確率重み付け関数とベイズ的信念更新機構を統合する。
我々はペルソナが進化する人間の信念を効果的に捉え、パーソナライズされた相互作用を促進し、最先端の手法を上回ることを実証する。
論文 参考訳(メタデータ) (2025-02-22T22:37:16Z) - CBEval: A framework for evaluating and interpreting cognitive biases in LLMs [1.4633779950109127]
大きな言語モデルは、認知過程において顕著なギャップを示す。
人間の生成したデータのリフレクションとして、これらのモデルは認知バイアスを継承する可能性がある。
論文 参考訳(メタデータ) (2024-12-04T05:53:28Z) - Beyond Text: Leveraging Multi-Task Learning and Cognitive Appraisal Theory for Post-Purchase Intention Analysis [10.014248704653]
本研究では,ユーザの行動を予測するための認知評価理論に基づくマルチタスク学習フレームワークを評価する。
実験の結果, ユーザの言語や特徴は, テキストのみから予測するモデル以上の予測を改善することがわかった。
論文 参考訳(メタデータ) (2024-07-11T04:57:52Z) - Large Language Models Assume People are More Rational than We Really are [10.857040292234984]
AIが人と効果的にコミュニケーションするためには、意思決定の仕方を理解する必要があります。
以前の実証的な証拠は、これらの暗黙のモデルが正確であることを示唆しているようである。
人々の選択をシミュレートし、予測する場合は、実際にはそうではありません。
論文 参考訳(メタデータ) (2024-06-24T18:15:27Z) - Can LLM be a Personalized Judge? [24.858529542496367]
LLM-as-a-Personalized-Judgeの信頼性を検討した。
LLM-as-a-Personalized-Judgeの直接適用は,従来想定されていたよりも信頼性が低いことが示唆された。
本研究では,LLM-as-a-Personalized-Judgeパイプラインに不確実性推定を導入し,不確実性判定に対する信頼度を低く表現する。
論文 参考訳(メタデータ) (2024-06-17T15:41:30Z) - PHAnToM: Persona-based Prompting Has An Effect on Theory-of-Mind Reasoning in Large Language Models [25.657579792829743]
我々は,ロールプレイングの促進が理論・オブ・ミンド(ToM)推論能力にどのように影響するかを実証的に評価した。
本稿では、推論タスクの複雑さの固有のばらつきを超えて、社会的に動機づけられた相違が原因で、パフォーマンスの違いが発生するメカニズムを提案する。
論文 参考訳(メタデータ) (2024-03-04T17:34:34Z) - On the steerability of large language models toward data-driven personas [98.9138902560793]
大規模言語モデル(LLM)は、特定のグループや集団の意見が不足している偏りのある応答を生成することが知られている。
本稿では, LLM を用いて特定の視点の制御可能な生成を実現するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T19:01:13Z) - MoCa: Measuring Human-Language Model Alignment on Causal and Moral
Judgment Tasks [49.60689355674541]
認知科学の豊富な文献は人々の因果関係と道徳的直観を研究してきた。
この研究は、人々の判断に体系的に影響を及ぼす多くの要因を明らかにした。
大規模言語モデル(LLM)が、人間の参加者と一致するテキストベースのシナリオについて因果的、道徳的な判断を下すかどうかを検証する。
論文 参考訳(メタデータ) (2023-10-30T15:57:32Z) - Character-LLM: A Trainable Agent for Role-Playing [67.35139167985008]
大規模言語モデル(LLM)は、人間の振る舞いをシミュレートするエージェントとして用いられる。
本稿では, ベートーヴェン, クレオパトラ女王, ユリウス・カエサルなど, LLM に特定の人物として行動するように教えるキャラクタ-LLMを紹介する。
論文 参考訳(メタデータ) (2023-10-16T07:58:56Z) - Are Personalized Stochastic Parrots More Dangerous? Evaluating Persona
Biases in Dialogue Systems [103.416202777731]
我々は、対話モデルが採用するペルソナに付随する有害な行動の感度であると定義する「ペルソナバイアス」について検討する。
我々は,人格バイアスを有害な表現と有害な合意のバイアスに分類し,攻撃性,有害継続性,関連性,ステレオタイプ合意,および有害合意の5つの側面において,人格バイアスを測定する包括的な評価枠組みを確立する。
論文 参考訳(メタデータ) (2023-10-08T21:03:18Z) - The Neuro-Symbolic Inverse Planning Engine (NIPE): Modeling
Probabilistic Social Inferences from Linguistic Inputs [50.32802502923367]
確率的目標推論領域における言語駆動の過程と社会的推論への影響について検討する。
本稿では,エージェントシナリオの言語入力から目標推定を行うニューロシンボリックモデルを提案する。
我々のモデルは人間の反応パターンと密に一致し、LLM単独の使用よりも人間の判断をより良く予測する。
論文 参考訳(メタデータ) (2023-06-25T19:38:01Z) - Aligning Language Models to User Opinions [10.953326025836475]
ユーザの意見や人口統計やイデオロギーが相互予測者ではないことが判明した。
ユーザの意見とユーザ人口、イデオロギーの両方をモデル化することで、LCMを整合させる。
人口統計学とイデオロギーを併用したLCMの典型的なアプローチに加えて,個人ユーザからの最も関連性の高い過去の意見を活用すれば,より正確なユーザ意見の予測が可能になることが判明した。
論文 参考訳(メタデータ) (2023-05-24T09:11:11Z) - Can ChatGPT Assess Human Personalities? A General Evaluation Framework [70.90142717649785]
大きな言語モデル(LLM)は、様々な分野で印象的な成果を上げてきたが、その潜在的な人間のような心理学はいまだに研究されていない。
本稿では,Mers Briggs Type Indicator (MBTI) テストに基づく人格評価のための総合評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-01T06:16:14Z) - AGENT: A Benchmark for Core Psychological Reasoning [60.35621718321559]
直観心理学は、観察可能な行動を駆動する隠された精神変数を推論する能力です。
他のエージェントを推論する機械エージェントに対する近年の関心にもかかわらず、そのようなエージェントが人間の推論を駆動するコア心理学の原則を学ぶか保持するかは明らかではない。
本稿では,プロシージャが生成する3dアニメーション,エージェントを4つのシナリオで構成したベンチマークを提案する。
論文 参考訳(メタデータ) (2021-02-24T14:58:23Z) - A Neural Topical Expansion Framework for Unstructured Persona-oriented
Dialogue Generation [52.743311026230714]
Persona Exploration and Exploitation (PEE)は、事前に定義されたユーザペルソナ記述を意味論的に相関したコンテンツで拡張することができる。
PEEはペルソナ探索とペルソナ搾取という2つの主要なモジュールで構成されている。
提案手法は, 自動評価と人的評価の両面で, 最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2020-02-06T08:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。