論文の概要: Cognitive Alignment in Personality Reasoning: Leveraging Prototype Theory for MBTI Inference
- arxiv url: http://arxiv.org/abs/2511.00115v1
- Date: Fri, 31 Oct 2025 02:45:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.617641
- Title: Cognitive Alignment in Personality Reasoning: Leveraging Prototype Theory for MBTI Inference
- Title(参考訳): パーソナリティ推論における認知的アライメント:MBTI推論のためのプロトタイプ理論の活用
- Authors: Haoyuan Li, Yuanbo Tong, Yuchen Li, Zirui Wang, Chunhou Liu, Jiamou Liu,
- Abstract要約: ProtoMBTIは、LLMベースのパイプライン内でプロトタイプ理論を運用するMBTI推論のためのフレームワークである。
その結果, 推論プロセスと心理的プロトタイプ推論の整合性は, テキストベースパーソナリティモデリングの精度, 解釈可能性, 伝達性が向上することが示唆された。
- 参考スコア(独自算出の注目度): 33.207642254711
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Personality recognition from text is typically cast as hard-label classification, which obscures the graded, prototype-like nature of human personality judgments. We present ProtoMBTI, a cognitively aligned framework for MBTI inference that operationalizes prototype theory within an LLM-based pipeline. First, we construct a balanced, quality-controlled corpus via LLM-guided multi-dimensional augmentation (semantic, linguistic, sentiment). Next, we LoRA-fine-tune a lightweight (<=2B) encoder to learn discriminative embeddings and to standardize a bank of personality prototypes. At inference, we retrieve top-k prototypes for a query post and perform a retrieve--reuse--revise--retain cycle: the model aggregates prototype evidence via prompt-based voting, revises when inconsistencies arise, and, upon correct prediction, retains the sample to continually enrich the prototype library. Across Kaggle and Pandora benchmarks, ProtoMBTI improves over baselines on both the four MBTI dichotomies and the full 16-type task, and exhibits robust cross-dataset generalization. Our results indicate that aligning the inference process with psychological prototype reasoning yields gains in accuracy, interpretability, and transfer for text-based personality modeling.
- Abstract(参考訳): テキストからのパーソナリティの認識は、典型的にはハードレーベルの分類として扱われ、人間のパーソナリティ判断の格付けされたプロトタイプのような性質を曖昧にしている。
本稿では,LLMに基づくパイプライン内でプロトタイプ理論を運用する,MBTI推論のための認知整合フレームワークであるProtoMBTIを提案する。
まず,LLM誘導多次元拡張(セマンティック,言語,感情)を用いて,バランスの取れた品質管理コーパスを構築する。
次に,LoRA-fine-tune a light (=2B) encoder to learn discriminative embeddeds and to standardize a bank of personality prototypes。
提案手法は,クエリーポストの上位k個のプロトタイプを検索し,検索-再利用-更新-更新サイクルを実行する。このモデルは,プロンプトベースの投票を通じてプロトタイプのエビデンスを集約し,不整合発生時に修正し,正しい予測を行うと,サンプルを保持してプロトタイプライブラリを継続的に強化する。
KaggleとPandoraのベンチマークを通じて、ProtoMBTIは4つのMBTIディコトミーとフル16タイプのタスクのベースラインを改善し、堅牢なクロスデータセットの一般化を示している。
その結果, 推論プロセスと心理的プロトタイプ推論の整合性は, テキストベースパーソナリティモデリングの精度, 解釈可能性, 伝達性が向上することが示唆された。
関連論文リスト
- Probabilistic Prototype Calibration of Vision-Language Models for Generalized Few-shot Semantic Segmentation [75.18058114915327]
一般化されたFew-Shot Semanticnative(GFSS)は、いくつかの注釈付き例だけでセグメンテーションモデルを新しいクラスに拡張することを目的としている。
プリトレーニング済みCLIPのマルチモーダルプロトタイプ上での確率的プロトタイプ校正フレームワークであるFewCLIPを提案する。
FewCLIPはGFSSとクラスインクリメンタルセッティングの両方で最先端のアプローチを著しく上回っている。
論文 参考訳(メタデータ) (2025-06-28T18:36:22Z) - Advancing Interpretability in Text Classification through Prototype Learning [1.9526476410335776]
ProtoLensはプロトタイプベースのモデルで、テキスト分類のための詳細なサブ文レベルの解釈機能を提供する。
ProtoLensは、Prototype-aware Span extractモジュールを使用して、関連するテキストスパンを識別する。
ProtoLensは、競争精度を維持しながら解釈可能な予測を提供する。
論文 参考訳(メタデータ) (2024-10-23T03:53:46Z) - MProto: Multi-Prototype Network with Denoised Optimal Transport for
Distantly Supervised Named Entity Recognition [75.87566793111066]
本稿では,DS-NERタスクのためのMProtoというノイズロスのプロトタイプネットワークを提案する。
MProtoは、各エンティティタイプを複数のプロトタイプで表現し、クラス内の分散を特徴付ける。
不完全なラベリングからノイズを緩和するために,新しい復号化最適輸送(DOT)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-12T13:02:34Z) - Prototype-based Aleatoric Uncertainty Quantification for Cross-modal
Retrieval [139.21955930418815]
クロスモーダル検索手法は、共通表現空間を共同学習することにより、視覚と言語モダリティの類似性関係を構築する。
しかし、この予測は、低品質なデータ、例えば、腐敗した画像、速いペースの動画、詳細でないテキストによって引き起こされるアレタリック不確実性のために、しばしば信頼性が低い。
本稿では, 原型に基づくAleatoric Uncertainity Quantification (PAU) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-29T09:41:19Z) - A Prototypical Semantic Decoupling Method via Joint Contrastive Learning
for Few-Shot Name Entity Recognition [24.916377682689955]
名前付きエンティティ認識(NER)は、わずかにラベル付きインスタンスに基づいて名前付きエンティティを識別することを目的としている。
連立コントラスト学習(PSDC)を用いた数発NERのためのプロトタイプセマンティックデカップリング手法を提案する。
2つの数ショットのNERベンチマークによる実験結果から、PSDCは全体の性能において従来のSOTA法よりも一貫して優れていたことが示されている。
論文 参考訳(メタデータ) (2023-02-27T09:20:00Z) - Prototypical Contrastive Learning of Unsupervised Representations [171.3046900127166]
原型コントラスト学習(Prototypeal Contrastive Learning, PCL)は、教師なし表現学習法である。
PCLは暗黙的にデータのセマンティック構造を学習された埋め込み空間にエンコードする。
PCLは、複数のベンチマークで最先端のインスタンスワイド・コントラスト学習法より優れている。
論文 参考訳(メタデータ) (2020-05-11T09:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。