論文の概要: From Visual Perception to Deep Empathy: An Automated Assessment Framework for House-Tree-Person Drawings Using Multimodal LLMs and Multi-Agent Collaboration
- arxiv url: http://arxiv.org/abs/2512.21360v1
- Date: Tue, 23 Dec 2025 09:26:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-29 20:48:41.756753
- Title: From Visual Perception to Deep Empathy: An Automated Assessment Framework for House-Tree-Person Drawings Using Multimodal LLMs and Multi-Agent Collaboration
- Title(参考訳): 視覚認識から深い共感へ:マルチモーダルLLMとマルチエージェントコラボレーションを用いた家庭内人物図作成のための自動評価フレームワーク
- Authors: Shuide Wen, Yu Sun, Beier Ku, Zhi Gao, Lijun Ma, Yang Yang, Can Jiao,
- Abstract要約: 1948年にジョン・バックによって導入されたハウス・トレー・パーソンの描画テストは、臨床心理学において広く使われている射影技術である。
異種スコアリング基準、試験員の主観的経験への依存、統一的な定量的コーディングシステムがないといった課題に長年直面してきた。
役割を分割することで、心理的推論から特徴認識を分離し、デジタルメンタルヘルスサービスのための新しいパラダイムを提供するマルチエージェントフレームワークを提案する。
- 参考スコア(独自算出の注目度): 18.359999860873426
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Background: The House-Tree-Person (HTP) drawing test, introduced by John Buck in 1948, remains a widely used projective technique in clinical psychology. However, it has long faced challenges such as heterogeneous scoring standards, reliance on examiners subjective experience, and a lack of a unified quantitative coding system. Results: Quantitative experiments showed that the mean semantic similarity between Multimodal Large Language Model (MLLM) interpretations and human expert interpretations was approximately 0.75 (standard deviation about 0.05). In structurally oriented expert data sets, this similarity rose to 0.85, indicating expert-level baseline comprehension. Qualitative analyses demonstrated that the multi-agent system, by integrating social-psychological perspectives and destigmatizing narratives, effectively corrected visual hallucinations and produced psychological reports with high ecological validity and internal coherence. Conclusions: The findings confirm the potential of multimodal large models as standardized tools for projective assessment. The proposed multi-agent framework, by dividing roles, decouples feature recognition from psychological inference and offers a new paradigm for digital mental-health services. Keywords: House-Tree-Person test; multimodal large language model; multi-agent collaboration; cosine similarity; computational psychology; artificial intelligence
- Abstract(参考訳): 背景:1948年にジョン・バックが導入したHTP (House-Tree-Person) 図面テストは、臨床心理学において広く使われている。
しかし、異種スコアリング基準、試験員の主観的経験への依存、統一的な定量的コーディングシステムがないといった課題に長年直面してきた。
その結果,Multimodal Large Language Model (MLLM) の解釈と人間の専門家の解釈の平均的意味的類似性は約0.75(標準偏差約0.05)であった。
構造指向のエキスパートデータセットでは、この類似性は0.85まで上昇し、専門家レベルのベースラインの理解が示唆された。
質的な分析により、社会心理学的視点を統合し、物語を台無しにすることで視覚幻覚を効果的に修正し、生態学的妥当性と内部コヒーレンスの高い心理学的報告を生み出した。
結論: この結果から, 射影評価の標準化ツールとして, マルチモーダル大モデルの可能性が確認された。
役割を分割することで、心理的推論から特徴認識を分離し、デジタルメンタルヘルスサービスのための新しいパラダイムを提供するマルチエージェントフレームワークを提案する。
キーワード:House-Tree-Personテスト、マルチモーダル大言語モデル、マルチエージェントコラボレーション、コサイン類似性、計算心理学、人工知能
関連論文リスト
- The Linguistic Architecture of Reflective Thought: Evaluation of a Large Language Model as a Tool to Isolate the Formal Structure of Mentalization [0.0]
メンタライゼーションは認知的、感情的、他者間のコンポーネントを統合する。
大きな言語モデル(LLM)は、反射テキストを生成する能力の増大を示す。
論文 参考訳(メタデータ) (2025-11-20T23:51:34Z) - Reasoning Like Experts: Leveraging Multimodal Large Language Models for Drawing-based Psychoanalysis [38.98188484491387]
PICKは階層的分析と知識注入を通じて精神分析画像のために設計された多段階のフレームワークである。
HTP(House-Tree-Person)テスト(House-Tree-Person)は、臨床実践において広く用いられる心理学的評価である。
我々のアプローチはMLLMと専門分野のギャップを埋め、視覚的表現を通じて人間の精神状態を理解するための構造化され解釈可能な枠組みを提供する。
論文 参考訳(メタデータ) (2025-10-22T10:29:14Z) - The Social Laboratory: A Psychometric Framework for Multi-Agent LLM Evaluation [0.16921396880325779]
マルチエージェント討論を制御された「社会実験室」として活用する新しい評価枠組みを導入する。
特に認知活動において、割り当てられたペルソナが安定した、測定可能な心理測定プロファイルを誘導することを示す。
この研究は、動的、心理学的に基礎付けられた評価プロトコルの新しいクラスの青写真を提供する。
論文 参考訳(メタデータ) (2025-10-01T07:10:28Z) - Evaluating Cognitive-Behavioral Fixation via Multimodal User Viewing Patterns on Social Media [52.313084466769375]
本稿では,ユーザのマルチモーダルなソーシャルメディアエンゲージメントパターンを分析し,認知行動の定着を評価する新しい枠組みを提案する。
既存のベンチマークと、新しくキュレートされたマルチモーダルデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2025-09-05T05:50:00Z) - Measuring How LLMs Internalize Human Psychological Concepts: A preliminary analysis [0.0]
本研究では,大規模言語モデルと人間の心理的次元間の概念整合性を評価する枠組みを開発する。
GPT-4モデルは優れた分類精度(66.2%)を獲得し、GPT-3.5(55.9%)とBERT(48.1%)を大きく上回った。
以上の結果から,現代のLLMは人間の心理的構造を計測可能な精度で近似できることが示された。
論文 参考訳(メタデータ) (2025-06-29T01:56:56Z) - MoodAngels: A Retrieval-augmented Multi-agent Framework for Psychiatry Diagnosis [58.67342568632529]
MoodAngelsは、気分障害の診断のための最初の特殊なマルチエージェントフレームワークである。
MoodSynは、合成精神医学の1,173件のオープンソースデータセットである。
論文 参考訳(メタデータ) (2025-06-04T09:18:25Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
データ構築とモデルチューニングを改善するためのフレームワークPersLLMを提案する。
データ利用が不十分な場合には、Chain-of-Thoughtプロンプトやアンチインダクションといった戦略を取り入れます。
厳密な振舞いパターンを設計し,モデルの性格の特異性とダイナミズムを高めるために自動DPOを導入する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - Evaluating Large Language Models with Psychometrics [59.821829073478376]
本稿では,Large Language Models (LLMs) の心理的構造を定量化するための総合的ベンチマークを提案する。
私たちの研究は、13のデータセットで評価された5つの重要な心理的構成要素、人格、価値観、感情的知性、心の理論、自己効力性を特定します。
LLMの自己報告特性と実際のシナリオにおける応答パターンとの間に大きな相違が発見され,その挙動の複雑さが明らかになった。
論文 参考訳(メタデータ) (2024-06-25T16:09:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。