論文の概要: Leveraging Multimodal Behavioral Analytics for Automated Job Interview
Performance Assessment and Feedback
- arxiv url: http://arxiv.org/abs/2006.07909v2
- Date: Tue, 16 Jun 2020 14:18:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 09:43:23.375678
- Title: Leveraging Multimodal Behavioral Analytics for Automated Job Interview
Performance Assessment and Feedback
- Title(参考訳): 自動面接性能評価とフィードバックのためのマルチモーダル行動分析の活用
- Authors: Anumeha Agrawal, Rosa Anil George, Selvan Sunitha Ravi, Sowmya Kamath
S, Anand Kumar M
- Abstract要約: 行動的手がかりは人間のコミュニケーションや認知に重要な役割を果たす。
本稿では,インタビューシナリオにおける候補の分析を行うマルチモーダル分析フレームワークを提案する。
我々はこれらのマルチモーダルデータソースを用いて複合表現を構築し、機械学習分類器を訓練してクラスラベルを予測する。
- 参考スコア(独自算出の注目度): 0.5872014229110213
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Behavioral cues play a significant part in human communication and cognitive
perception. In most professional domains, employee recruitment policies are
framed such that both professional skills and personality traits are adequately
assessed. Hiring interviews are structured to evaluate expansively a potential
employee's suitability for the position - their professional qualifications,
interpersonal skills, ability to perform in critical and stressful situations,
in the presence of time and resource constraints, etc. Therefore, candidates
need to be aware of their positive and negative attributes and be mindful of
behavioral cues that might have adverse effects on their success. We propose a
multimodal analytical framework that analyzes the candidate in an interview
scenario and provides feedback for predefined labels such as engagement,
speaking rate, eye contact, etc. We perform a comprehensive analysis that
includes the interviewee's facial expressions, speech, and prosodic
information, using the video, audio, and text transcripts obtained from the
recorded interview. We use these multimodal data sources to construct a
composite representation, which is used for training machine learning
classifiers to predict the class labels. Such analysis is then used to provide
constructive feedback to the interviewee for their behavioral cues and body
language. Experimental validation showed that the proposed methodology achieved
promising results.
- Abstract(参考訳): 行動的手がかりは人間のコミュニケーションや認知に重要な役割を果たす。
ほとんどの専門分野において、人材採用政策は、職業スキルと性格特性の両方が適切に評価されるように枠付けされている。
採用面接は、専門的な資格、対人的スキル、批判的かつストレスの多い状況、時間と資源の制約の有無など、従業員のポジションに適合する可能性のある可能性を評価するために構成される。
したがって、候補者は肯定的かつ否定的な属性を認識し、その成功に悪影響を及ぼす可能性のある行動的手がかりに留意する必要がある。
本稿では,面接シナリオの候補を分析し,エンゲージメントや発話率,アイコンタクトなど,予め定義されたラベルに対するフィードバックを提供するマルチモーダル分析フレームワークを提案する。
録音されたインタビューから得られた映像,音声,テキストの書き起こしを用いて,面接者の表情,音声,韻律情報を含む包括的分析を行う。
我々はこれらのマルチモーダルデータソースを用いて複合表現を構築し、機械学習分類器を訓練してクラスラベルを予測する。
このような分析は、インタビュアーの行動的手がかりと身体言語に対する建設的なフィードバックを提供するために使用される。
実験の結果,提案手法は有望な結果を得た。
関連論文リスト
- AI Conversational Interviewing: Transforming Surveys with LLMs as Adaptive Interviewers [40.80290002598963]
本研究では,人間のインタビュアーを大規模言語モデル (LLM) に置き換えて,スケーラブルな対話型インタビュアーを実現する可能性について検討する。
大学生を対象に,AIとヒューマンインタビュアーの双方にランダムにインタビューを依頼された学生を対象に,小規模で詳細な調査を行った。
様々な量的・質的な尺度は, インタビュアーのガイドライン, 応答品質, 参加者参加率, 総合的な面接効果に順応した。
論文 参考訳(メタデータ) (2024-09-16T16:03:08Z) - PsyCoT: Psychological Questionnaire as Powerful Chain-of-Thought for
Personality Detection [50.66968526809069]
PsyCoTと呼ばれる新しい人格検出手法を提案する。これは、個人がマルチターン対話方式で心理的質問を完遂する方法を模倣するものである。
実験の結果,PsyCoTは人格検出におけるGPT-3.5の性能とロバスト性を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2023-10-31T08:23:33Z) - Evaluating Subjective Cognitive Appraisals of Emotions from Large
Language Models [47.890846082224066]
この研究は、24の評価次元を評価する最も包括的なデータセットであるCovidET-Appraisalsを提示することでギャップを埋める。
CovidET-Appraisalsは、認知的評価を自動的に評価し、説明するための大規模言語モデルの能力を評価するのに理想的なテストベッドを提供する。
論文 参考訳(メタデータ) (2023-10-22T19:12:17Z) - Acoustic and linguistic representations for speech continuous emotion
recognition in call center conversations [2.0653090022137697]
本稿では,AlloSat corpus へのトランスファー学習の一形態として,事前学習した音声表現の利用について検討する。
実験により,事前学習した特徴を用いて得られた性能の大きな向上を確認した。
驚いたことに、言語内容が満足度予測の主要な要因であることは明らかでした。
論文 参考訳(メタデータ) (2023-10-06T10:22:51Z) - Measuring the Effect of Influential Messages on Varying Personas [67.1149173905004]
我々は、ニュースメッセージを見る際にペルソナが持つ可能性のある応答を推定するために、ニュースメディア向けのペルソナに対するレスポンス予測という新しいタスクを提示する。
提案課題は,モデルにパーソナライズを導入するだけでなく,各応答の感情極性と強度も予測する。
これにより、ペルソナの精神状態に関するより正確で包括的な推測が可能になる。
論文 参考訳(メタデータ) (2023-05-25T21:01:00Z) - Integrating Psychometrics and Computing Perspectives on Bias and
Fairness in Affective Computing: A Case Study of Automated Video Interviews [7.8034219994196174]
本稿では、感情コンピューティングのための典型的な機械学習パイプラインに適用されるバイアスと公平性の表現を提供する。
公正さと偏見を測定するための様々な方法と指標が、米国の法的文脈における関連する意味とともに議論されている。
論文 参考訳(メタデータ) (2023-05-04T08:05:05Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z) - "GAN I hire you?" -- A System for Personalized Virtual Job Interview
Training [49.201250723083]
本研究では,GAN(Generative Adversarial Network)に基づく対話型面接訓練システムを開発した。
その結果,GANをベースとした行動フィードバックが有用であることが示唆された。
論文 参考訳(メタデータ) (2022-06-08T13:03:39Z) - Estimating Presentation Competence using Multimodal Nonverbal Behavioral
Cues [7.340483819263093]
社会的相互作用の多くの領域において、公的な講演やプレゼンテーション能力が重要な役割を担っている。
プレゼンテーション能力の効率的な開発を促進する1つのアプローチは、スピーチ中の人間の行動の自動分析である。
本研究では, 表情, ポーズベース, 音声関連機能など, さまざまな非言語行動手がかりの提示能力評価への寄与について検討する。
論文 参考訳(メタデータ) (2021-05-06T13:09:41Z) - Vyaktitv: A Multimodal Peer-to-Peer Hindi Conversations based Dataset
for Personality Assessment [50.15466026089435]
本稿では,ピアツーピアのHindi会話データセットであるVyaktitvを提案する。
参加者の高品質な音声とビデオの録音と、会話ごとにヒングリッシュのテキストによる書き起こしで構成されている。
データセットには、収入、文化的指向など、すべての参加者のための豊富な社会デコグラフィー的特徴が含まれています。
論文 参考訳(メタデータ) (2020-08-31T17:44:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。