論文の概要: RecruitView: A Multimodal Dataset for Predicting Personality and Interview Performance for Human Resources Applications
- arxiv url: http://arxiv.org/abs/2512.00450v1
- Date: Sat, 29 Nov 2025 11:33:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.246234
- Title: RecruitView: A Multimodal Dataset for Predicting Personality and Interview Performance for Human Resources Applications
- Title(参考訳): RecruitView: ヒューマンリソースアプリケーションのパーソナリティとインタビューパフォーマンスを予測するマルチモーダルデータセット
- Authors: Amit Kumar Gupta, Farhan Sheth, Hammad Shaikh, Dheeraj Kumar, Angkul Puniya, Deepak Panwar, Sandeep Chaurasia, Priya Mathur,
- Abstract要約: RecruitViewは、300人以上の被験者と27,000人のペアワイド比較判定者による、2,011の自然主義的ビデオインタビュークリップのデータセットである。
このデータを活用するために,マニフォールド融合を用いたクロスモーダル回帰を提案する。
CRMFが選択したベースラインを大幅に上回ることを示す。
- 参考スコア(独自算出の注目度): 2.640396662115501
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automated personality and soft skill assessment from multimodal behavioral data remains challenging due to limited datasets and methods that fail to capture geometric structure inherent in human traits. We introduce RecruitView, a dataset of 2,011 naturalistic video interview clips from 300+ participants with 27,000 pairwise comparative judgments across 12 dimensions: Big Five personality traits, overall personality score, and six interview performance metrics. To leverage this data, we propose Cross-Modal Regression with Manifold Fusion (CRMF), a geometric deep learning framework that explicitly models behavioral representations across hyperbolic, spherical, and Euclidean manifolds. CRMF employs geometry-specific expert networks to capture hierarchical trait structures, directional behavioral patterns, and continuous performance variations simultaneously. An adaptive routing mechanism dynamically weights expert contributions based on input characteristics. Through principled tangent space fusion, CRMF achieves superior performance while training 40-50% fewer trainable parameters than large multimodal models. Extensive experiments demonstrate that CRMF substantially outperforms the selected baselines, achieving up to 11.4% improvement in Spearman correlation and 6.0% in concordance index. Our RecruitView dataset is publicly available at https://huggingface.co/datasets/AI4A-lab/RecruitView
- Abstract(参考訳): マルチモーダルな行動データからの人格自動評価とソフトスキル評価は、人間の特性に固有の幾何学的構造を捉えるのに失敗する限られたデータセットや手法のため、依然として困難である。
リクルートビュー(RecruitView)は、300人以上の被験者を対象に、12次元にわたる27,000のペアワイド比較判定(ビッグファイブパーソナリティ特性、全体的なパーソナリティスコア、および6つのインタビューパフォーマンスメトリクス)による、2,011のナチュラルビデオインタビュークリップをデータセットとして紹介する。
このデータを活用するために,双曲,球面,ユークリッド多様体間の挙動表現を明示的にモデル化する幾何学的深層学習フレームワークであるCRMF(Cross-Modal Regression with Manifold Fusion)を提案する。
CRMFは、階層的な特徴構造、方向性の行動パターン、連続的なパフォーマンスの変動を同時に捉えるために、幾何学固有の専門家ネットワークを使用している。
適応的ルーティング機構は、入力特性に基づいて専門家の貢献を動的に重み付けする。
CRMFは、基本的タンジェント空間融合により、大規模なマルチモーダルモデルよりも40-50%少ないトレーニング可能なパラメータをトレーニングしながら、優れた性能を達成する。
大規模な実験により、CRMFは選択されたベースラインを大幅に上回り、スピアマン相関が最大11.4%改善し、コンコーダンス指数が6.0%向上した。
私たちのRecruitViewデータセットはhttps://huggingface.co/datasets/AI4A-lab/RecruitViewで公開されています。
関連論文リスト
- HyperComplEx: Adaptive Multi-Space Knowledge Graph Embeddings [0.0]
HyperComplExは、ハイパーボリック、複雑、ユークリッド空間を学習された注意機構を通じて組み合わせたハイブリッドな埋め込みフレームワークである。
関係性特異的な空間重み付け戦略は、関係型ごとに最適なジオメトリを動的に選択する。
10Mペーパーデータセットでは、HyperComplExが0.612 MRRを達成した。
論文 参考訳(メタデータ) (2025-11-13T23:06:06Z) - Scaling Generalist Data-Analytic Agents [95.05161133349242]
DataMindは、汎用データ分析エージェントを構築するために設計されたスケーラブルなデータ合成およびエージェントトレーニングレシピである。
DataMindは、オープンソースのデータ分析エージェントを構築する上で重要な3つの課題に取り組む。
論文 参考訳(メタデータ) (2025-09-29T17:23:08Z) - Multimodal-Guided Dynamic Dataset Pruning for Robust and Efficient Data-Centric Learning [49.10890099624699]
本稿では,タスク駆動の難易度とモダリティ間のセマンティクスの整合性に基づいて,トレーニングサンプルを適応的に選択する動的データセット解析フレームワークを提案する。
私たちの研究は、堅牢なサンプル選択のためのモダリティアライメントの統合の可能性を強調し、アプリケーションドメイン全体のより効率的で堅牢なプラクティスに向けて、データ中心の学習を進めています。
論文 参考訳(メタデータ) (2025-07-17T03:08:26Z) - MT-Eval: A Multi-Turn Capabilities Evaluation Benchmark for Large
Language Models [70.92847554971065]
MT-Evalは,マルチターン対話能力を評価するための総合的なベンチマークである。
人間のLLM会話を解析することにより,インタラクションパターンを,再現,拡張,洗練,フォローアップの4つのタイプに分類する。
11個の有名なLCMを評価したところ、クローズドソースモデルは一般的にオープンソースモデルを上回るが、特定のタスクにおいて特定のオープンソースモデルの方がGPT-3.5-Turboを上回っていることがわかった。
論文 参考訳(メタデータ) (2024-01-30T04:50:28Z) - AlignDiff: Aligning Diverse Human Preferences via Behavior-Customisable
Diffusion Model [69.12623428463573]
AlignDiffは、人間の好みを定量化し、抽象性をカバーし、拡散計画をガイドする新しいフレームワークである。
ユーザがカスタマイズした動作と正確に一致し、効率的に切り替えることができます。
選好マッチング,スイッチング,カバーにおいて,他のベースラインに比べて優れた性能を示す。
論文 参考訳(メタデータ) (2023-10-03T13:53:08Z) - FaceFusion: Exploiting Full Spectrum of Multiple Datasets [4.438240667468304]
我々はFaceFusionという新しいトレーニング手法を提案する。
ビューを使用して埋め込みネットワークを同時にトレーニングしながら、アイデンティティの衝突によって達成されない、さまざまなデータセットの融合ビューを生成する。
統合データセットの統一ビューを使用することで、組み込みネットワークはデータセットのスペクトル全体に対してトレーニングされ、顕著なパフォーマンス向上につながる。
論文 参考訳(メタデータ) (2023-05-24T00:51:04Z) - Offline Q-Learning on Diverse Multi-Task Data Both Scales And
Generalizes [100.69714600180895]
オフラインのQ-ラーニングアルゴリズムは、モデルキャパシティでスケールする強力なパフォーマンスを示す。
最大8000万のパラメータネットワークを用いて,40のゲームに対してほぼ人間に近いパフォーマンスで1つのポリシーをトレーニングする。
リターン条件付き教師付きアプローチと比較して、オフラインQラーニングはモデルキャパシティと同様にスケールし、特にデータセットが最適以下である場合にはパフォーマンスが向上する。
論文 参考訳(メタデータ) (2022-11-28T08:56:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。