論文の概要: Exploring a New Competency Modeling Process with Large Language Models
- arxiv url: http://arxiv.org/abs/2602.13084v1
- Date: Fri, 13 Feb 2026 16:46:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 23:37:54.037676
- Title: Exploring a New Competency Modeling Process with Large Language Models
- Title(参考訳): 大規模言語モデルを用いた新しいコンピテンシーモデリングプロセスの探索
- Authors: Silin Du, Manqing Xin, Raymond Jia Wang,
- Abstract要約: 本研究では,大規模言語モデル(LLM)に基づく新しい能力モデリングプロセスを提案する。
具体的には、LLMを利用して、生のテキストデータから行動的・心理的記述を抽出する。
学習可能なパラメータを導入し、異なる情報ソースを適応的に統合し、モデルが行動信号と心理信号の相対的重要性を決定できるようにする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Competency modeling is widely used in human resource management to select, develop, and evaluate talent. However, traditional expert-driven approaches rely heavily on manual analysis of large volumes of interview transcripts, making them costly and prone to randomness, ambiguity, and limited reproducibility. This study proposes a new competency modeling process built on large language models (LLMs). Instead of merely automating isolated steps, we reconstruct the workflow by decomposing expert practices into structured computational components. Specifically, we leverage LLMs to extract behavioral and psychological descriptions from raw textual data and map them to predefined competency libraries through embedding-based similarity. We further introduce a learnable parameter that adaptively integrates different information sources, enabling the model to determine the relative importance of behavioral and psychological signals. To address the long-standing challenge of validation, we develop an offline evaluation procedure that allows systematic model selection without requiring additional large-scale data collection. Empirical results from a real-world implementation in a software outsourcing company demonstrate strong predictive validity, cross-library consistency, and structural robustness. Overall, our framework transforms competency modeling from a largely qualitative and expert-dependent practice into a transparent, data-driven, and evaluable analytical process.
- Abstract(参考訳): 能力モデリングは人材を選定、開発、評価するために人的資源管理において広く用いられている。
しかし、従来の専門家主導のアプローチは、大量のインタビュー文書のマニュアル分析に大きく依存しており、コストがかかり、ランダム性、曖昧さ、再現性に制限がある。
本研究では,大規模言語モデル(LLM)に基づく新たな能力モデリングプロセスを提案する。
分離されたステップを単に自動化するのではなく、専門家のプラクティスを構造化された計算コンポーネントに分解することでワークフローを再構築する。
具体的には、LLMを利用して生のテキストデータから行動的・心理的記述を抽出し、埋め込みに基づく類似性を通じて事前に定義された能力ライブラリにマッピングする。
さらに、異なる情報ソースを適応的に統合する学習可能なパラメータを導入し、モデルが行動信号と心理信号の相対的重要性を決定できるようにする。
長期にわたる検証の課題に対処するため,大規模なデータ収集を必要とせず,体系的なモデル選択を可能にするオフライン評価手法を開発した。
ソフトウェアアウトソーシング企業における実世界の実装による実証的な結果は、強い予測的妥当性、クロスライブラリ一貫性、構造的堅牢性を示している。
全体として、我々のフレームワークは能力モデリングを、主に質的で専門家に依存したプラクティスから透明でデータ駆動で評価可能な分析プロセスに変換します。
関連論文リスト
- Large Language Model Sourcing: A Survey [84.63438376832471]
大規模言語モデル(LLM)は人工知能に革命をもたらし、目的的タスクのサポートから主観的な意思決定の強化へと移行した。
LLMのブラックボックスの性質と生成したコンテンツの人間的品質のため、幻覚、偏見、不公平さ、著作権侵害などの問題が重要になる。
本研究は,4つの相互関連次元を中心に整理されたLCMによるコンテンツの出所追跡について,系統的研究を行った。
論文 参考訳(メタデータ) (2025-10-11T10:52:30Z) - Knowledge-Driven Hallucination in Large Language Models: An Empirical Study on Process Modeling [46.05103857535919]
解析的タスクにおける大規模言語モデルの実用性は、その膨大な事前訓練された知識に根ざしている。
この能力は、私たちが知識駆動幻覚と呼ぶものに対して、重大なリスクをもたらします。
本稿では,自動プロセスモデリングのタスクにおけるLCMの評価により,この現象を考察する。
論文 参考訳(メタデータ) (2025-09-18T18:27:30Z) - A Survey of Model Architectures in Information Retrieval [59.61734783818073]
2019年から現在までの期間は、情報検索(IR)と自然言語処理(NLP)における最大のパラダイムシフトの1つとなっている。
従来の用語ベースの手法から現代のニューラルアプローチまで,特にトランスフォーマーベースのモデルとそれに続く大規模言語モデル(LLM)の影響が注目されている。
今後の課題と今後の方向性について、先見的な議論で締めくくります。
論文 参考訳(メタデータ) (2025-02-20T18:42:58Z) - Large Language Models for Extrapolative Modeling of Manufacturing Processes [5.705795836910535]
この斬新さは、文献に埋め込まれたプロセス関連知識の自動抽出と、少量の実験データに基づく反復的モデル改良を組み合わせることにある。
以上の結果から,本フレームワークから派生したモデルでは予期せぬ高い外挿性能が得られた。
論文 参考訳(メタデータ) (2025-02-15T02:43:22Z) - Generating Computational Cognitive Models using Large Language Models [13.201934636532577]
我々は、GeCCo(Computational Cognitive Models)のガイド生成のためのパイプラインを導入する。
GeCCo は LLM に候補モデルの提案を促し,データ保持に適合させ,予測性能に基づいて反復的に改良する。
このアプローチを4つの異なる認知領域にわたってベンチマークします。
論文 参考訳(メタデータ) (2025-02-02T19:07:13Z) - Data Analysis in the Era of Generative AI [56.44807642944589]
本稿では,AIを活用したデータ分析ツールの可能性について考察する。
我々は、大規模言語とマルチモーダルモデルの出現が、データ分析ワークフローの様々な段階を強化する新しい機会を提供する方法について検討する。
次に、直感的なインタラクションを促進し、ユーザ信頼を構築し、AI支援分析ワークフローを複数のアプリにわたって合理化するための、人間中心の設計原則を調べます。
論文 参考訳(メタデータ) (2024-09-27T06:31:03Z) - Process Modeling With Large Language Models [42.0652924091318]
本稿では,大規模言語モデル(LLM)のプロセスモデリングへの統合について検討する。
プロセスモデルの自動生成と反復的改善にLLMを利用するフレームワークを提案する。
予備的な結果は、プロセスモデリングタスクを合理化するフレームワークの能力を示している。
論文 参考訳(メタデータ) (2024-03-12T11:27:47Z) - Learning to Extract Structured Entities Using Language Models [52.281701191329]
機械学習の最近の進歩は、情報抽出の分野に大きな影響を与えている。
タスクをエンティティ中心にすることで、さまざまなメトリクスの使用を可能にします。
我々は、Structured Entity extractを導入し、Adroximate Entity Set OverlaPメトリックを提案し、この分野にコントリビュートします。
論文 参考訳(メタデータ) (2024-02-06T22:15:09Z) - QualEval: Qualitative Evaluation for Model Improvement [82.73561470966658]
モデル改善のための手段として,自動定性評価による定量的スカラー指標を付加するQualEvalを提案する。
QualEvalは強力なLCM推論器と新しいフレキシブルリニアプログラミングソルバを使用して、人間の読みやすい洞察を生成する。
例えば、その洞察を活用することで、Llama 2モデルの絶対性能が最大15%向上することを示す。
論文 参考訳(メタデータ) (2023-11-06T00:21:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。