論文の概要: From Classification to Ranking: Enhancing LLM Reasoning Capabilities for MBTI Personality Detection
- arxiv url: http://arxiv.org/abs/2601.18582v1
- Date: Mon, 26 Jan 2026 15:28:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.898226
- Title: From Classification to Ranking: Enhancing LLM Reasoning Capabilities for MBTI Personality Detection
- Title(参考訳): 分類からランキングへ:MBTIパーソナリティ検出のためのLLM推論機能を強化する
- Authors: Yuan Cao, Feixiang Liu, Xinyue Wang, Yihan Zhu, Hui Xu, Zheng Wang, Qiang Qiu,
- Abstract要約: パーソナリティ検出は、ソーシャルメディア投稿を通じて個人の性格特性を測定することを目的としている。
既存のアプローチは、Large Language Models (LLMs)を活用してパーソナリティ特性分析を促進する
本稿では,人格検出のための強化学習訓練パラダイムを提案する。
- 参考スコア(独自算出の注目度): 25.825456002235967
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Personality detection aims to measure an individual's corresponding personality traits through their social media posts. The advancements in Large Language Models (LLMs) offer novel perspectives for personality detection tasks. Existing approaches enhance personality trait analysis by leveraging LLMs to extract semantic information from textual posts as prompts, followed by training classifiers for categorization. However, accurately classifying personality traits remains challenging due to the inherent complexity of human personality and subtle inter-trait distinctions. Moreover, prompt-based methods often exhibit excessive dependency on expert-crafted knowledge without autonomous pattern-learning capacity. To address these limitations, we view personality detection as a ranking task rather than a classification and propose a corresponding reinforcement learning training paradigm. First, we employ supervised fine-tuning (SFT) to establish personality trait ranking capabilities while enforcing standardized output formats, creating a robust initialization. Subsequently, we introduce Group Relative Policy Optimization (GRPO) with a specialized ranking-based reward function. Unlike verification tasks with definitive solutions, personality assessment involves subjective interpretations and blurred boundaries between trait categories. Our reward function explicitly addresses this challenge by training LLMs to learn optimal answer rankings. Comprehensive experiments have demonstrated that our method achieves state-of-the-art performance across multiple personality detection benchmarks.
- Abstract(参考訳): パーソナリティ検出は、ソーシャルメディア投稿を通じて個人の性格特性を測定することを目的としている。
LLM(Large Language Models)の進歩は、パーソナリティ検出タスクに新しい視点を提供する。
既存のアプローチは、LLMを活用してテキスト投稿から意味情報をプロンプトとして抽出し、次に分類のための訓練分類器を付加することで、性格特性分析を強化している。
しかしながら、人格の特徴を正確に分類することは、人格固有の複雑さと微妙な貿易間の区別のため、依然として困難である。
さらに、プロンプトベースの手法は、自律的なパターン学習能力のない専門家による知識への過剰な依存を示すことが多い。
これらの制約に対処するため、私たちは人格検出を分類ではなくランキングタスクとみなし、それに対応する強化学習訓練パラダイムを提案する。
まず、教師付き微調整(SFT)を用いて、標準化された出力フォーマットを強制しながら人格特性ランキング機能を確立し、堅牢な初期化を作成する。
その後,グループ相対政策最適化 (GRPO) を導入し,特定のランク付けに基づく報酬関数を導入した。
決定的な解を持つ検証タスクとは異なり、性格評価は主観的解釈と特徴カテゴリー間の曖昧な境界を含む。
我々の報酬関数は、最適回答ランキングを学習するためにLLMを訓練することで、この課題に明示的に対処する。
包括的実験により,本手法は複数の人格検出ベンチマークにまたがって最先端の性能を達成できることが実証された。
関連論文リスト
- Ask, Answer, and Detect: Role-Playing LLMs for Personality Detection with Question-Conditioned Mixture-of-Experts [4.618735978506653]
ROMEは、心理的知識を人格検出に明示的に注入する新しいフレームワークである。
ROMEは、実世界の2つのデータセットの実験において、最先端のベースラインを一貫して上回ることを示す。
論文 参考訳(メタデータ) (2025-12-09T17:07:54Z) - Profile-LLM: Dynamic Profile Optimization for Realistic Personality Expression in LLMs [11.672385046863655]
PersonaPulseは、状況対応ベンチマークをスコアリングツールとして統合しながら、ロールプレイプロンプトを反復的に強化するフレームワークである。
定量的評価は、PersonaPulseが生成したプロンプトが先行作業のプロンプトより優れていることを示している。
特定の性格特性に対しては、最適化過程を緩和することにより、人格評価の程度を部分的に制御することができる。
論文 参考訳(メタデータ) (2025-11-25T02:31:40Z) - IROTE: Human-like Traits Elicitation of Large Language Model via In-Context Self-Reflective Optimization [66.6349183886101]
IROTEは,安定かつ伝達可能な特性抽出のための新しいインコンテキスト手法である。
IROTEが生成する1つの自己反射は、様々な下流タスクにまたがる目標特性の安定な偽造を LLM が引き起こすことを示す。
論文 参考訳(メタデータ) (2025-08-12T08:04:28Z) - Evaluating Large Language Models with Psychometrics [59.821829073478376]
本稿では,Large Language Models (LLMs) の心理的構造を定量化するための総合的ベンチマークを提案する。
私たちの研究は、13のデータセットで評価された5つの重要な心理的構成要素、人格、価値観、感情的知性、心の理論、自己効力性を特定します。
LLMの自己報告特性と実際のシナリオにおける応答パターンとの間に大きな相違が発見され,その挙動の複雑さが明らかになった。
論文 参考訳(メタデータ) (2024-06-25T16:09:08Z) - LLMvsSmall Model? Large Language Model Based Text Augmentation Enhanced
Personality Detection Model [58.887561071010985]
パーソナリティ検出は、ソーシャルメディア投稿に根ざした性格特性を検出することを目的としている。
既存のほとんどのメソッドは、事前訓練された言語モデルを微調整することで、ポスト機能を直接学習する。
本稿では,大規模言語モデル (LLM) に基づくテキスト拡張強化人格検出モデルを提案する。
論文 参考訳(メタデータ) (2024-03-12T12:10:18Z) - PsyCoT: Psychological Questionnaire as Powerful Chain-of-Thought for
Personality Detection [50.66968526809069]
PsyCoTと呼ばれる新しい人格検出手法を提案する。これは、個人がマルチターン対話方式で心理的質問を完遂する方法を模倣するものである。
実験の結果,PsyCoTは人格検出におけるGPT-3.5の性能とロバスト性を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2023-10-31T08:23:33Z) - Revisiting the Reliability of Psychological Scales on Large Language Models [62.57981196992073]
本研究の目的は,大規模言語モデルにパーソナリティアセスメントを適用することの信頼性を明らかにすることである。
GPT-3.5、GPT-4、Gemini-Pro、LLaMA-3.1などのモデル毎の2,500設定の分析により、様々なLCMがビッグファイブインベントリに応答して一貫性を示すことが明らかになった。
論文 参考訳(メタデータ) (2023-05-31T15:03:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。