論文の概要: Cognitive Alignment in Personality Reasoning: Leveraging Prototype Theory for MBTI Inference
- arxiv url: http://arxiv.org/abs/2511.00115v1
- Date: Fri, 31 Oct 2025 02:45:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.617641
- Title: Cognitive Alignment in Personality Reasoning: Leveraging Prototype Theory for MBTI Inference
- Title(参考訳): パーソナリティ推論における認知的アライメント:MBTI推論のためのプロトタイプ理論の活用
- Authors: Haoyuan Li, Yuanbo Tong, Yuchen Li, Zirui Wang, Chunhou Liu, Jiamou Liu,
- Abstract要約: ProtoMBTIは、LLMベースのパイプライン内でプロトタイプ理論を運用するMBTI推論のためのフレームワークである。
その結果, 推論プロセスと心理的プロトタイプ推論の整合性は, テキストベースパーソナリティモデリングの精度, 解釈可能性, 伝達性が向上することが示唆された。
- 参考スコア(独自算出の注目度): 33.207642254711
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Personality recognition from text is typically cast as hard-label classification, which obscures the graded, prototype-like nature of human personality judgments. We present ProtoMBTI, a cognitively aligned framework for MBTI inference that operationalizes prototype theory within an LLM-based pipeline. First, we construct a balanced, quality-controlled corpus via LLM-guided multi-dimensional augmentation (semantic, linguistic, sentiment). Next, we LoRA-fine-tune a lightweight (<=2B) encoder to learn discriminative embeddings and to standardize a bank of personality prototypes. At inference, we retrieve top-k prototypes for a query post and perform a retrieve--reuse--revise--retain cycle: the model aggregates prototype evidence via prompt-based voting, revises when inconsistencies arise, and, upon correct prediction, retains the sample to continually enrich the prototype library. Across Kaggle and Pandora benchmarks, ProtoMBTI improves over baselines on both the four MBTI dichotomies and the full 16-type task, and exhibits robust cross-dataset generalization. Our results indicate that aligning the inference process with psychological prototype reasoning yields gains in accuracy, interpretability, and transfer for text-based personality modeling.
- Abstract(参考訳): テキストからのパーソナリティの認識は、典型的にはハードレーベルの分類として扱われ、人間のパーソナリティ判断の格付けされたプロトタイプのような性質を曖昧にしている。
本稿では,LLMに基づくパイプライン内でプロトタイプ理論を運用する,MBTI推論のための認知整合フレームワークであるProtoMBTIを提案する。
まず,LLM誘導多次元拡張(セマンティック,言語,感情)を用いて,バランスの取れた品質管理コーパスを構築する。
次に,LoRA-fine-tune a light (=2B) encoder to learn discriminative embeddeds and to standardize a bank of personality prototypes。
提案手法は,クエリーポストの上位k個のプロトタイプを検索し,検索-再利用-更新-更新サイクルを実行する。このモデルは,プロンプトベースの投票を通じてプロトタイプのエビデンスを集約し,不整合発生時に修正し,正しい予測を行うと,サンプルを保持してプロトタイプライブラリを継続的に強化する。
KaggleとPandoraのベンチマークを通じて、ProtoMBTIは4つのMBTIディコトミーとフル16タイプのタスクのベースラインを改善し、堅牢なクロスデータセットの一般化を示している。
その結果, 推論プロセスと心理的プロトタイプ推論の整合性は, テキストベースパーソナリティモデリングの精度, 解釈可能性, 伝達性が向上することが示唆された。
関連論文リスト
- Proto-Former: Unified Facial Landmark Detection by Prototype Transformer [77.47431726595111]
Proto-Formerは、統一的で適応的でエンドツーエンドの顔ランドマーク検出フレームワークである。
統一されたアーキテクチャ内で、複数のデータセットをまたいだ共同トレーニングを可能にする。
Proto-Formerは、既存の最先端手法よりも優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-10-17T06:00:25Z) - Probabilistic Prototype Calibration of Vision-Language Models for Generalized Few-shot Semantic Segmentation [75.18058114915327]
一般化されたFew-Shot Semanticnative(GFSS)は、いくつかの注釈付き例だけでセグメンテーションモデルを新しいクラスに拡張することを目的としている。
プリトレーニング済みCLIPのマルチモーダルプロトタイプ上での確率的プロトタイプ校正フレームワークであるFewCLIPを提案する。
FewCLIPはGFSSとクラスインクリメンタルセッティングの両方で最先端のアプローチを著しく上回っている。
論文 参考訳(メタデータ) (2025-06-28T18:36:22Z) - Efficient Prototype Consistency Learning in Medical Image Segmentation via Joint Uncertainty and Data Augmentation [32.47805202531351]
半教師付き医療画像セグメンテーションにプロトタイプ学習が出現している。
共同不確実性定量化とデータ拡張による効率的なプロトタイプの整合性学習を提案する。
我々のフレームワークは従来の最先端のアプローチよりも優れている。
論文 参考訳(メタデータ) (2025-05-22T06:25:32Z) - Bidirectional Prototype-Reward co-Evolution for Test-Time Adaptation of Vision-Language Models [38.63571023556356]
テスト時適応(TTA)は,分散シフトに直面した場合の視覚言語モデル(VLM)の性能維持に不可欠である。
BPRE(Underline Bidirectional Prototype-Reward co-Evolution)を提案する。
BPREは、機能品質評価とプロトタイプの進化を相乗的なフィードバックループを通じて統合する。
我々のモデルは、他のSOTA法と比較して一貫して優れた性能を達成し、VLMの一般化能力を向上させる。
論文 参考訳(メタデータ) (2025-03-12T13:40:33Z) - Advancing Interpretability in Text Classification through Prototype Learning [1.9526476410335776]
ProtoLensはプロトタイプベースのモデルで、テキスト分類のための詳細なサブ文レベルの解釈機能を提供する。
ProtoLensは、Prototype-aware Span extractモジュールを使用して、関連するテキストスパンを識別する。
ProtoLensは、競争精度を維持しながら解釈可能な予測を提供する。
論文 参考訳(メタデータ) (2024-10-23T03:53:46Z) - MProto: Multi-Prototype Network with Denoised Optimal Transport for
Distantly Supervised Named Entity Recognition [75.87566793111066]
本稿では,DS-NERタスクのためのMProtoというノイズロスのプロトタイプネットワークを提案する。
MProtoは、各エンティティタイプを複数のプロトタイプで表現し、クラス内の分散を特徴付ける。
不完全なラベリングからノイズを緩和するために,新しい復号化最適輸送(DOT)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-12T13:02:34Z) - Prototype-based Aleatoric Uncertainty Quantification for Cross-modal
Retrieval [139.21955930418815]
クロスモーダル検索手法は、共通表現空間を共同学習することにより、視覚と言語モダリティの類似性関係を構築する。
しかし、この予測は、低品質なデータ、例えば、腐敗した画像、速いペースの動画、詳細でないテキストによって引き起こされるアレタリック不確実性のために、しばしば信頼性が低い。
本稿では, 原型に基づくAleatoric Uncertainity Quantification (PAU) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-29T09:41:19Z) - A Prototypical Semantic Decoupling Method via Joint Contrastive Learning
for Few-Shot Name Entity Recognition [24.916377682689955]
名前付きエンティティ認識(NER)は、わずかにラベル付きインスタンスに基づいて名前付きエンティティを識別することを目的としている。
連立コントラスト学習(PSDC)を用いた数発NERのためのプロトタイプセマンティックデカップリング手法を提案する。
2つの数ショットのNERベンチマークによる実験結果から、PSDCは全体の性能において従来のSOTA法よりも一貫して優れていたことが示されている。
論文 参考訳(メタデータ) (2023-02-27T09:20:00Z) - Learning Sparse Prototypes for Text Generation [120.38555855991562]
プロトタイプ駆動のテキスト生成は、トレーニングコーパス全体の保存とインデックスを必要とするため、テスト時に非効率である。
本稿では,言語モデリング性能を向上するスパースなプロトタイプサポートセットを自動的に学習する新しい生成モデルを提案する。
実験では,1000倍のメモリ削減を実現しつつ,従来のプロトタイプ駆動型言語モデルよりも優れていた。
論文 参考訳(メタデータ) (2020-06-29T19:41:26Z) - Prototypical Contrastive Learning of Unsupervised Representations [171.3046900127166]
原型コントラスト学習(Prototypeal Contrastive Learning, PCL)は、教師なし表現学習法である。
PCLは暗黙的にデータのセマンティック構造を学習された埋め込み空間にエンコードする。
PCLは、複数のベンチマークで最先端のインスタンスワイド・コントラスト学習法より優れている。
論文 参考訳(メタデータ) (2020-05-11T09:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。