論文の概要: Systematic Evaluation of Multi-modal Approaches to Complex Player Profile Classification
- arxiv url: http://arxiv.org/abs/2509.05624v1
- Date: Sat, 06 Sep 2025 07:03:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.61694
- Title: Systematic Evaluation of Multi-modal Approaches to Complex Player Profile Classification
- Title(参考訳): 複雑プレイヤープロファイル分類におけるマルチモーダルアプローチの体系的評価
- Authors: Jason Starace, Terence Soule,
- Abstract要約: 大規模マルチモーダル分類の体系的評価について述べる。
AI制御されたテキストベースRPGによる19,413のゲームプレイセッションを用いて,行動のみのベースラインとマルチモーダルアプローチを比較した。
行動データだけでは36のカテゴリで10%近く増加し,マルチモーダル統合では25%が達成できた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Modern adaptive games require nuanced player understanding, yet most models use simplified 5-10 category taxonomies that fail to capture diversity. Behavioral clustering cannot distinguish players with different motivations who act similarly. We present a systematic evaluation of multi-modal classification at scale, combining behavioral telemetry with semantic context to support 36 player profiles. Using 19,413 gameplay sessions from an AI-controlled text-based RPG, we compared behavioral-only baselines with multi-modal approaches that integrate action sequences and semantic descriptions. Traditional clustering achieved only 10% accuracy for 36-category classification, limited by semantic conflation where opposite actions produced identical features. Our multi-modal LSTM processing action-text pairs improved accuracy to 21%, showing both potential and limits of non-conversational data. Analysis by behavioral complexity revealed that non-neutral profiles reached 42% accuracy (15x above random), while neutral profiles dropped to 25% (9x above random). Identical actions such as "help the merchant" cannot reveal whether a player is neutral or strategically waiting. Without access to reasoning, even multi-modal models struggle, though above-baseline results confirm a meaningful signal. Since prediction beyond 20 categories remains unexplored, our findings establish benchmarks for complex player modeling. Behavioral data alone plateaus near 10% for 36 categories, while multi-modal integration enables 25%. For designers, this shows that personality-based adaptation requires conversational interaction, as predefined choices cannot capture intent. Our evaluation at 36-category scale offers guidance for building adaptive games that better understand their players.
- Abstract(参考訳): 現代のアダプティブゲームでは、プレーヤーの理解が微妙だが、ほとんどのモデルは、多様性を捉えない単純な5-10カテゴリーの分類を用いる。
行動クラスタリングは、同様に振舞う異なるモチベーションを持つプレイヤーを区別することはできない。
我々は,行動テレメトリと意味的コンテキストを組み合わせた大規模マルチモーダル分類の体系的評価を行い,36人のプレイヤープロファイルをサポートする。
AI制御されたテキストベースRPGからの19,413のゲームプレイセッションを用いて、動作のみのベースラインとアクションシーケンスとセマンティック記述を統合したマルチモーダルアプローチを比較した。
従来のクラスタリングは36カテゴリの分類において10%の精度しか達成しなかった。
マルチモーダルLSTM処理の動作テキストペアは精度を21%向上させ,非会話データの可能性と限界を示した。
非中立プロファイルは42%(ランダムより15倍)、中立プロファイルは25%(ランダムより9倍)に低下した。
商人のヘルプ」のような確実な行動は、プレイヤーが中立であるか戦略的に待機しているかを明らかにすることはできない。
推論へのアクセスがないと、マルチモーダルモデルでさえ苦戦するが、上のベースラインの結果は有意義なシグナルである。
20以上のカテゴリーの予測はいまだ探索されていないため、我々は複雑なプレイヤーモデリングのベンチマークを構築した。
行動データだけでは36のカテゴリで10%近く、マルチモーダル統合では25%に近い。
デザイナーにとってこれは、事前に定義された選択が意図を捉えられないため、パーソナリティに基づく適応は会話の相互作用を必要とすることを示している。
36カテゴリの評価では,プレイヤーをよりよく理解する適応型ゲームを構築するためのガイダンスが提供されている。
関連論文リスト
- Contra4: Evaluating Contrastive Cross-Modal Reasoning in Audio, Video, Image, and 3D [107.69104331520677]
Contra4は、画像、オーディオ、ビデオ、および3Dの4つのモードにまたがる、対照的な相互モーダル推論のためのデータセットである。
コントラ4は、人間の注釈付きキャプションとモデルの混合フィルタを組み合わせて高品質な監視を確実にし、174kのトレーニング例と2.3kの試験セットを手作業で検証する。
タスク固有の微調整はベースラインと比較してパフォーマンスを56%向上させるが、最先端のモデルでは全体の56%の精度と4つのモダリティ設定で42%の精度しか達成していない。
論文 参考訳(メタデータ) (2025-06-02T03:12:13Z) - Cream of the Crop: Harvesting Rich, Scalable and Transferable Multi-Modal Data for Instruction Fine-Tuning [59.56171041796373]
我々は、堅牢で効率的なマルチモーダル・インストラクショナルデータを収集する。
インタラクションスタイルを多様性指標とし、マルチモーダルリッチなスタイルラーを用いてデータインストラクションパターンを識別する。
14のマルチモーダルベンチマークによって検証された10以上の実験環境において、ランダムサンプリング、ベースライン戦略、最先端の選択方法に対する一貫した改善を示す。
論文 参考訳(メタデータ) (2025-03-17T17:11:22Z) - iNews: A Multimodal Dataset for Modeling Personalized Affective Responses to News [25.367927300697424]
iNewsは、ニュースコンテンツに対するパーソナライズされた感情反応のモデリングを容易にするために設計された、新しいデータセットである。
当社のデータセットは、英国の主要メディアの2,899件のマルチモーダルなFacebookニュース投稿に対して、291件の英国住民のアノテーションで構成されています。
論文 参考訳(メタデータ) (2025-03-05T10:09:53Z) - Mind the Gap! Static and Interactive Evaluations of Large Audio Models [55.87220295533817]
大型オーディオモデル(LAM)は、音声ネイティブな体験をパワーアップするために設計されている。
本研究は,484名の参加者から,LAMを評価し,7,500名のLAMインタラクションを収集する対話的アプローチを提案する。
論文 参考訳(メタデータ) (2025-02-21T20:29:02Z) - The MuSe 2024 Multimodal Sentiment Analysis Challenge: Social Perception and Humor Recognition [64.5207572897806]
マルチモーダル・センティメント・アナリティクス・チャレンジ (MuSe) 2024は、現代の2つのマルチモーダル・インフルエンスと感情分析の問題に対処する。
Social Perception Sub-Challenge (MuSe-Perception)では、参加者は16種類の個人の社会的属性を予測する。
クロスカルカルカルチャー・ヒューモー検出サブチャレンジ(MuSe-Humor)データセットは、Passau Spontaneous Football Coach Humorデータセット上に拡張される。
論文 参考訳(メタデータ) (2024-06-11T22:26:20Z) - GaitFormer: Learning Gait Representations with Noisy Multi-Task Learning [4.831663144935878]
本稿では,217Kの匿名トラックレットを含む歩行分析システムのための最大データセットであるDenseGaitを提案する。
また、CASIA-Bで92.5%、FVGで85.33%の精度を実現するトランスフォーマーベースのモデルであるGaitFormerを提案する。
論文 参考訳(メタデータ) (2023-10-30T10:28:44Z) - Matcher: Segment Anything with One Shot Using All-Purpose Feature
Matching [63.88319217738223]
市販の視覚基礎モデルを用いて様々な知覚課題に対処する新しい知覚パラダイムであるMatcherを提案する。
Matcherは、様々なセグメンテーションタスクにまたがる印象的な一般化パフォーマンスを、すべてトレーニングなしでデモする。
我々の結果は、野生の画像に適用されたMatcherのオープンワールドの一般性と柔軟性をさらに示すものである。
論文 参考訳(メタデータ) (2023-05-22T17:59:43Z) - Perceptual Score: What Data Modalities Does Your Model Perceive? [73.75255606437808]
モデルが入力特徴の異なる部分集合に依存する度合いを評価する指標である知覚スコアを導入する。
近年,視覚的質問応答に対するマルチモーダルモデルでは,前者よりも視覚的データを知覚しにくい傾向がみられた。
知覚スコアを使用することで、スコアをデータサブセットのコントリビューションに分解することで、モデルのバイアスを分析することもできる。
論文 参考訳(メタデータ) (2021-10-27T12:19:56Z) - Large Scale Multi-Actor Generative Dialog Modeling [22.286624163849893]
本稿では,俳優のペルソナにおける複数回会話を確率的にモデル化するために,過去の参照会話を条件づけた言語モデルである生成会話制御モデルを紹介する。
モデルのサイズを117Mから8.3Bに拡大すると、1.7Mの会話で23.14から13.14に改善される。
過去の会話を条件付きでモデル化することで、自動評価において難易度が0.47向上することがわかった。
論文 参考訳(メタデータ) (2020-05-13T01:56:00Z) - Recognizing Affiliation: Using Behavioural Traces to Predict the Quality
of Social Interactions in Online Games [26.131859388185646]
我々は、オンラインゲーム環境でのソーシャルな交流を通じて、ディヤドの見知らぬ人との親和性を予測するために行動トレースを使用する。
我々は23のダイアドから音声、ビデオ、ゲーム内、および自己報告データを収集し、75の特徴を抽出し、ランダムフォレストとサポートベクターマシンモデルを訓練し、その性能予測バイナリ(ハイ/ロー)とパートナーへの継続的なアフィリエイトを評価した。
本研究は,マルチプレイヤーゲームやゲームコミュニティの設計について報告し,オンラインゲームにおける有害行為を軽減・軽減するためのシステム開発を指導するものである。
論文 参考訳(メタデータ) (2020-03-06T20:56:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。