論文の概要: Augmenting Dialog with Think-Aloud Utterances for Modeling Individual Personality Traits by LLM
- arxiv url: http://arxiv.org/abs/2510.09158v1
- Date: Fri, 10 Oct 2025 09:03:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:48.505491
- Title: Augmenting Dialog with Think-Aloud Utterances for Modeling Individual Personality Traits by LLM
- Title(参考訳): LLMによる個人性特性のモデル化のための思考音声による対話の強化
- Authors: Seiya Ishikura, Hiroaki Yamada, Tatsuya Hiraoka, Hiroaki Yamada, Takenobu Tokunaga,
- Abstract要約: 本研究は,テキストチャットにおける個人の個人性をモデル化するために,シンク・アラウド・発話(TAU)を用いた対話データの拡張を提案する。
我々は,訓練されたペルソナLLMが,ビッグファイブに対して人格を得るかどうかを検証した。
その結果, TAU強化データを用いたLLMは, 従来のダイアログデータを用いた場合よりも, 話者のビッグファイブのアグリエブルネスとニューロティシズムと密接に一致していることが判明した。
- 参考スコア(独自算出の注目度): 6.346736402813318
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study proposes augmenting dialog data with think-aloud utterances (TAUs) for modeling individual personalities in text chat by LLM. TAU is a verbalization of a speaker's thought before articulating the utterance. We expect "persona LLMs" trained with TAU-augmented data can mimic the speaker's personality trait better. We tested whether the trained persona LLMs obtain the human personality with respect to Big Five, a framework characterizing human personality traits from five aspects. The results showed that LLMs trained with TAU-augmented data more closely align to the speakers' Agreeableness and Neuroticism of Big Five than those trained with original dialog data. We also found that the quality of TAU-augmentation impacts persona LLM's performance.
- Abstract(参考訳): 本研究では,LLMによるテキストチャットにおける個人の個人性をモデル化するために,シンク・アラウド・発話(TAU)を用いた対話データの拡張を提案する。
TAUは、発話の前に話者の思考を言葉化したものである。
TAUデータで訓練された「ペルソナLLM」は、話者の性格特性をより良く模倣できると期待している。
我々は,5つの側面から人格の特徴を特徴づける枠組みであるビッグファイブについて,訓練されたペルソナLLMが人格を得るかどうかを検証した。
その結果, TAU強化データを用いたLLMは, 従来のダイアログデータを用いた場合よりも, 話者のビッグファイブのアグリエブルネスとニューロティシズムと密接に一致していることが判明した。
また,TAU向上の質がペルソナLLMの性能に影響を及ぼすことも見出した。
関連論文リスト
- Scaling Personality Control in LLMs with Big Five Scaler Prompts [1.534667887016089]
制御可能なパーソナリティ特性を持つ大規模言語モデルを条件付けるための,プロンプトベースのフレームワークであるBig5-Scalerを提案する。
自然言語のプロンプトに数値特性値を埋め込むことで,学習を伴わずに微粒なパーソナリティ制御が可能となる。
論文 参考訳(メタデータ) (2025-08-08T09:11:05Z) - Orca: Enhancing Role-Playing Abilities of Large Language Models by Integrating Personality Traits [4.092862870428798]
我々は,人格特性を統合することで,カスタム文字のLLMをデータ処理し,訓練するためのフレームワークOrcaを提案する。
Orcaは4つのステージで構成されている。 パーソナリティ特性の推測、LCMの活用により、ユーザのBigFiveパーソナリティ特性のレポートとスコアを推測する。
提案手法は,本ベンチマークにおいて優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2024-11-15T07:35:47Z) - The Dark Patterns of Personalized Persuasion in Large Language Models: Exposing Persuasive Linguistic Features for Big Five Personality Traits in LLMs Responses [0.0]
我々は、ビッグファイブ・パーソナリティの様々なレベルにおけるパーソナリティに影響を与えるのに不可欠な13の言語的特徴を同定する。
モデルでは、不安関連語を神経症に用い、達成関連語を良心に用い、経験へのオープンネスのために認知過程語を減らしている。
論文 参考訳(メタデータ) (2024-11-08T23:02:59Z) - LMLPA: Language Model Linguistic Personality Assessment [11.599282127259736]
大規模言語モデル(LLM)は、日常の生活や研究にますます利用されている。
与えられたLLMの性格を測定することは、現在課題である。
言語モデル言語パーソナリティアセスメント(LMLPA)は,LLMの言語的パーソナリティを評価するシステムである。
論文 参考訳(メタデータ) (2024-10-23T07:48:51Z) - Can LLMs Understand the Implication of Emphasized Sentences in Dialogue? [64.72966061510375]
強調は人間のコミュニケーションにおいて重要な要素であり、対話における純粋テキストを超えて話者の意図と含意を示す。
本稿では,強調の意味を抽出した強調注釈付き対話サンプルを用いたベンチマークであるEmphasized-Talkを紹介する。
オープンソースと商用の両方で様々な大規模言語モデル(LLM)を評価し,その性能を重要視して評価する。
論文 参考訳(メタデータ) (2024-06-16T20:41:44Z) - LLMs Simulate Big Five Personality Traits: Further Evidence [51.13560635563004]
Llama2, GPT4, Mixtralでシミュレートされた性格特性を解析した。
このことは、パーソナリティ特性をシミュレートするLLMの能力のより広範な理解に寄与する。
論文 参考訳(メタデータ) (2024-01-31T13:45:25Z) - UPLex: Fine-Grained Personality Control in Large Language Models via Unsupervised Lexical Modulation [52.043831554626685]
パーソナリティは人間のコミュニケーションパターンを形作る重要な要素であり、それによって大きな言語モデル(LLM)のパーソナリティを調節する。
LLMの性格特性を操作するために,Unsupervisedly-Built Personalal lexicon (UPL) を用いた UPLex を提案する。
UPLexは、教師なしの方法で新たに構築された状況判断テストデータセットから構築することができ、LLMの性格表現を変調するために使用される。
論文 参考訳(メタデータ) (2023-10-25T12:16:33Z) - BotChat: Evaluating LLMs' Capabilities of Having Multi-Turn Dialogues [72.65163468440434]
本報告では,人間型マルチターンチャットのための既存大規模言語モデルの予備的評価を行う。
そこで我々は,ChatSEEDに基づくマルチターン対話を発話によって生成する大規模言語モデル(LLM)を提案する。
GPT-4は優れた品質の人型多元対話を生成できるが、その性能は著しく上回っている。
論文 参考訳(メタデータ) (2023-10-20T16:53:51Z) - TouchStone: Evaluating Vision-Language Models by Language Models [91.69776377214814]
本稿では,LVLMの様々な能力を総合的に評価するために,強大な言語モデルを用いた評価手法を提案する。
オープンワールドイメージと質問からなる包括的ビジュアル対話データセットTouchStoneを構築し,5つの主要な機能カテゴリと27のサブタスクをカバーした。
GPT-4のような強力なLVLMは、テキスト機能のみを活用することで、対話品質を効果的に評価できることを実証する。
論文 参考訳(メタデータ) (2023-08-31T17:52:04Z) - Revisiting the Reliability of Psychological Scales on Large Language Models [62.57981196992073]
本研究の目的は,大規模言語モデルにパーソナリティアセスメントを適用することの信頼性を明らかにすることである。
GPT-3.5、GPT-4、Gemini-Pro、LLaMA-3.1などのモデル毎の2,500設定の分析により、様々なLCMがビッグファイブインベントリに応答して一貫性を示すことが明らかになった。
論文 参考訳(メタデータ) (2023-05-31T15:03:28Z) - PersonaLLM: Investigating the Ability of Large Language Models to Express Personality Traits [30.770525830385637]
本研究では,ビッグファイブ・パーソナリティ・モデルに基づく大規模言語モデル(LLM)の行動について検討する。
その結果, LLMペルソナの自己申告したBFIスコアは, 指定した性格タイプと一致していることがわかった。
人間の評価は、人間は最大80%の精度でいくつかの性格特性を知覚できることを示している。
論文 参考訳(メタデータ) (2023-05-04T04:58:00Z) - Evaluating and Inducing Personality in Pre-trained Language Models [78.19379997967191]
人間の個性理論を機械行動研究のツールとして活用することで,心理測定研究からインスピレーションを得た。
これらの疑問に答えるために,機械の動作を研究するためのMachine Personality Inventory(MPI)ツールを紹介した。
MPIは、ビッグファイブ・パーソナリティ・ファクター(Big Five Personality Factors、ビッグファイブ・パーソナリティ・ファクター)理論とパーソナリティ評価在庫に基づく標準化されたパーソナリティ・テストに従う。
パーソナリティ・プロンプト法(P2法)を考案し、特定のパーソナリティを持つLSMを制御可能な方法で誘導する。
論文 参考訳(メタデータ) (2022-05-20T07:32:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。