論文の概要: Augmenting Dialog with Think-Aloud Utterances for Modeling Individual Personality Traits by LLM
- arxiv url: http://arxiv.org/abs/2510.09158v1
- Date: Fri, 10 Oct 2025 09:03:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:48.505491
- Title: Augmenting Dialog with Think-Aloud Utterances for Modeling Individual Personality Traits by LLM
- Title(参考訳): LLMによる個人性特性のモデル化のための思考音声による対話の強化
- Authors: Seiya Ishikura, Hiroaki Yamada, Tatsuya Hiraoka, Hiroaki Yamada, Takenobu Tokunaga,
- Abstract要約: 本研究は,テキストチャットにおける個人の個人性をモデル化するために,シンク・アラウド・発話(TAU)を用いた対話データの拡張を提案する。
我々は,訓練されたペルソナLLMが,ビッグファイブに対して人格を得るかどうかを検証した。
その結果, TAU強化データを用いたLLMは, 従来のダイアログデータを用いた場合よりも, 話者のビッグファイブのアグリエブルネスとニューロティシズムと密接に一致していることが判明した。
- 参考スコア(独自算出の注目度): 6.346736402813318
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study proposes augmenting dialog data with think-aloud utterances (TAUs) for modeling individual personalities in text chat by LLM. TAU is a verbalization of a speaker's thought before articulating the utterance. We expect "persona LLMs" trained with TAU-augmented data can mimic the speaker's personality trait better. We tested whether the trained persona LLMs obtain the human personality with respect to Big Five, a framework characterizing human personality traits from five aspects. The results showed that LLMs trained with TAU-augmented data more closely align to the speakers' Agreeableness and Neuroticism of Big Five than those trained with original dialog data. We also found that the quality of TAU-augmentation impacts persona LLM's performance.
- Abstract(参考訳): 本研究では,LLMによるテキストチャットにおける個人の個人性をモデル化するために,シンク・アラウド・発話(TAU)を用いた対話データの拡張を提案する。
TAUは、発話の前に話者の思考を言葉化したものである。
TAUデータで訓練された「ペルソナLLM」は、話者の性格特性をより良く模倣できると期待している。
我々は,5つの側面から人格の特徴を特徴づける枠組みであるビッグファイブについて,訓練されたペルソナLLMが人格を得るかどうかを検証した。
その結果, TAU強化データを用いたLLMは, 従来のダイアログデータを用いた場合よりも, 話者のビッグファイブのアグリエブルネスとニューロティシズムと密接に一致していることが判明した。
また,TAU向上の質がペルソナLLMの性能に影響を及ぼすことも見出した。
関連論文リスト
- Can LLMs Understand the Implication of Emphasized Sentences in Dialogue? [64.72966061510375]
強調は人間のコミュニケーションにおいて重要な要素であり、対話における純粋テキストを超えて話者の意図と含意を示す。
本稿では,強調の意味を抽出した強調注釈付き対話サンプルを用いたベンチマークであるEmphasized-Talkを紹介する。
オープンソースと商用の両方で様々な大規模言語モデル(LLM)を評価し,その性能を重要視して評価する。
論文 参考訳(メタデータ) (2024-06-16T20:41:44Z) - BotChat: Evaluating LLMs' Capabilities of Having Multi-Turn Dialogues [72.65163468440434]
本報告では,人間型マルチターンチャットのための既存大規模言語モデルの予備的評価を行う。
そこで我々は,ChatSEEDに基づくマルチターン対話を発話によって生成する大規模言語モデル(LLM)を提案する。
GPT-4は優れた品質の人型多元対話を生成できるが、その性能は著しく上回っている。
論文 参考訳(メタデータ) (2023-10-20T16:53:51Z) - Revisiting the Reliability of Psychological Scales on Large Language Models [62.57981196992073]
本研究の目的は,大規模言語モデルにパーソナリティアセスメントを適用することの信頼性を明らかにすることである。
GPT-3.5、GPT-4、Gemini-Pro、LLaMA-3.1などのモデル毎の2,500設定の分析により、様々なLCMがビッグファイブインベントリに応答して一貫性を示すことが明らかになった。
論文 参考訳(メタデータ) (2023-05-31T15:03:28Z) - PersonaLLM: Investigating the Ability of Large Language Models to Express Personality Traits [30.770525830385637]
本研究では,ビッグファイブ・パーソナリティ・モデルに基づく大規模言語モデル(LLM)の行動について検討する。
その結果, LLMペルソナの自己申告したBFIスコアは, 指定した性格タイプと一致していることがわかった。
人間の評価は、人間は最大80%の精度でいくつかの性格特性を知覚できることを示している。
論文 参考訳(メタデータ) (2023-05-04T04:58:00Z) - Evaluating and Inducing Personality in Pre-trained Language Models [78.19379997967191]
人間の個性理論を機械行動研究のツールとして活用することで,心理測定研究からインスピレーションを得た。
これらの疑問に答えるために,機械の動作を研究するためのMachine Personality Inventory(MPI)ツールを紹介した。
MPIは、ビッグファイブ・パーソナリティ・ファクター(Big Five Personality Factors、ビッグファイブ・パーソナリティ・ファクター)理論とパーソナリティ評価在庫に基づく標準化されたパーソナリティ・テストに従う。
パーソナリティ・プロンプト法(P2法)を考案し、特定のパーソナリティを持つLSMを制御可能な方法で誘導する。
論文 参考訳(メタデータ) (2022-05-20T07:32:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。