論文の概要: PersonaX: Multimodal Datasets with LLM-Inferred Behavior Traits
- arxiv url: http://arxiv.org/abs/2509.11362v1
- Date: Sun, 14 Sep 2025 17:30:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.050333
- Title: PersonaX: Multimodal Datasets with LLM-Inferred Behavior Traits
- Title(参考訳): PersonaX: LLM-Inferred Behavior Traits を用いたマルチモーダルデータセット
- Authors: Loka Li, Wong Yu Kang, Minghao Fu, Guangyi Chen, Zhenhao Chen, Gongxu Luo, Yuewen Sun, Salman Khan, Peter Spirtes, Kun Zhang,
- Abstract要約: モーダル性にまたがる公共特性の包括的分析を可能にするために,多モーダルデータセットのキュレートされたコレクションであるPersonaXを提案する。
PersonaXは,(1)CelebPersona,(2)AthlePersona,(1)CelebPersona,(4)AthlePersonaの4181名のスポーツ選手を対象とする。
各データセットには、3つのハイパフォーマンスな大規模言語モデルによって推定される行動特性評価と、顔画像と構造化された伝記特徴が含まれている。
- 参考スコア(独自算出の注目度): 30.425825274563536
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Understanding human behavior traits is central to applications in human-computer interaction, computational social science, and personalized AI systems. Such understanding often requires integrating multiple modalities to capture nuanced patterns and relationships. However, existing resources rarely provide datasets that combine behavioral descriptors with complementary modalities such as facial attributes and biographical information. To address this gap, we present PersonaX, a curated collection of multimodal datasets designed to enable comprehensive analysis of public traits across modalities. PersonaX consists of (1) CelebPersona, featuring 9444 public figures from diverse occupations, and (2) AthlePersona, covering 4181 professional athletes across 7 major sports leagues. Each dataset includes behavioral trait assessments inferred by three high-performing large language models, alongside facial imagery and structured biographical features. We analyze PersonaX at two complementary levels. First, we abstract high-level trait scores from text descriptions and apply five statistical independence tests to examine their relationships with other modalities. Second, we introduce a novel causal representation learning (CRL) framework tailored to multimodal and multi-measurement data, providing theoretical identifiability guarantees. Experiments on both synthetic and real-world data demonstrate the effectiveness of our approach. By unifying structured and unstructured analysis, PersonaX establishes a foundation for studying LLM-inferred behavioral traits in conjunction with visual and biographical attributes, advancing multimodal trait analysis and causal reasoning.
- Abstract(参考訳): 人間の行動特性を理解することは、人間とコンピュータの相互作用、計算社会科学、パーソナライズされたAIシステムにおける応用の中心である。
このような理解はしばしば、ニュアンスドパターンと関係を捉えるために複数のモダリティを統合する必要がある。
しかし、既存のリソースは、行動記述子と顔の特徴や伝記情報などの相補的なモダリティを組み合わせたデータセットをほとんど提供しない。
このギャップに対処するため,多モードデータセットのキュレートされたコレクションであるPersonaXを紹介した。
PersonaXは,(1)CelebPersona,(2)AthlePersona,(1)CelebPersona,(4)AthlePersonaの4181名のスポーツ選手を対象とする。
各データセットには、3つのハイパフォーマンスな大規模言語モデルによって推定される行動特性評価と、顔画像と構造化された伝記特徴が含まれている。
我々はPersonaXを2つの相補的なレベルで分析する。
まず、テキスト記述からハイレベルな特徴スコアを抽象化し、5つの統計的独立性テストを適用し、それらと他のモダリティとの関係について検討する。
第2に、マルチモーダル・マルチ計測データに適した新しい因果表現学習(CRL)フレームワークを導入し、理論的な識別可能性を保証する。
合成データと実世界のデータの両方の実験は、我々のアプローチの有効性を実証している。
構造的および非構造的分析を統一することにより、ペルソナXは、視覚的および伝記的属性とともに、LLMが推論する行動特性を研究する基盤を確立し、マルチモーダルな特徴分析と因果推論を前進させる。
関連論文リスト
- PersonaTwin: A Multi-Tier Prompt Conditioning Framework for Generating and Evaluating Personalized Digital Twins [20.77710199900999]
本稿では,適応型ディジタルツインを構築する多層プロンプトコンディショニングフレームワークであるPersonaTwinを紹介する。
8500人以上の医療状況における包括的データセットを用いて、PersonaTwinを標準LLM出力に対してベンチマークする。
実験結果から,本フレームワークは設定と同等のシミュレーション忠実度が得られることがわかった。
論文 参考訳(メタデータ) (2025-07-30T04:57:30Z) - BookWorm: A Dataset for Character Description and Analysis [59.186325346763184]
本稿では,短い事実プロファイルを生成する文字記述と,詳細な解釈を提供する文字解析という2つのタスクを定義する。
本稿では,Gutenbergプロジェクトからの書籍と,人間による記述と分析のペアリングを行うBookWormデータセットを紹介する。
その結果,検索に基づくアプローチは両タスクにおいて階層的アプローチよりも優れていた。
論文 参考訳(メタデータ) (2024-10-14T10:55:58Z) - MMSci: A Dataset for Graduate-Level Multi-Discipline Multimodal Scientific Understanding [59.41495657570397]
本稿では,72の科学分野をカバーするNature Communicationsの記事からまとめられた包括的データセットについて述べる。
2つのベンチマークタスク(図のキャプションと複数選択)で19のプロプライエタリモデルとオープンソースモデルを評価し,人手による注釈を行った。
タスク固有データを用いた細調整Qwen2-VL-7Bは、GPT-4oや人間の専門家でさえも、マルチチョイス評価において優れた性能を示した。
論文 参考訳(メタデータ) (2024-07-06T00:40:53Z) - From Persona to Personalization: A Survey on Role-Playing Language Agents [52.783043059715546]
大規模言語モデル(LLM)の最近の進歩はロールプレイング言語エージェント(RPLA)の台頭を後押ししている。
RPLAは、人間の類似性と鮮明なロールプレイングパフォーマンスの素晴らしい感覚を達成します。
彼らは感情的な仲間、インタラクティブなビデオゲーム、パーソナライズされたアシスタント、コピロなど、多くのAI応用を触媒してきた。
論文 参考訳(メタデータ) (2024-04-28T15:56:41Z) - Personality-aware Human-centric Multimodal Reasoning: A New Task,
Dataset and Baselines [32.82738983843281]
我々はPersonality-aware Human-centric Multimodal Reasoning (PHMR) (T1)と呼ばれる新しいタスクを導入する。
課題は、過去の事例から得たマルチモーダル情報を用いて、個性要素を統合しながら、特定の個人の将来行動を予測することである。
実験の結果,性格特性を取り入れることで,人間中心の多モーダル推論性能が向上することが示された。
論文 参考訳(メタデータ) (2023-04-05T09:09:10Z) - Domain-specific Learning of Multi-scale Facial Dynamics for Apparent
Personality Traits Prediction [3.19935268158731]
本稿では,新しい映像に基づく人格特徴認識手法を提案する。
本研究は,(1)人格関係の短期的顔行動の特徴を抽出する顔行動モデリングモジュール,(2)ビデオの短期的特徴をすべて長期的・ビデオレベルの人格表現として要約する顔行動モデリングモジュール,(3)全ての特徴間の関係をモデル化し,映像レベルの人格表現に基づいて共同で予測する人格特性予測モジュールからなる。
論文 参考訳(メタデータ) (2022-09-09T07:08:55Z) - Vyaktitv: A Multimodal Peer-to-Peer Hindi Conversations based Dataset
for Personality Assessment [50.15466026089435]
本稿では,ピアツーピアのHindi会話データセットであるVyaktitvを提案する。
参加者の高品質な音声とビデオの録音と、会話ごとにヒングリッシュのテキストによる書き起こしで構成されている。
データセットには、収入、文化的指向など、すべての参加者のための豊富な社会デコグラフィー的特徴が含まれています。
論文 参考訳(メタデータ) (2020-08-31T17:44:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。