論文の概要: Retention Is All You Need
- arxiv url: http://arxiv.org/abs/2304.03103v2
- Date: Sat, 26 Aug 2023 21:06:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-30 00:16:14.485692
- Title: Retention Is All You Need
- Title(参考訳): 維持が必要なのは
- Authors: Karishma Mohiuddin, Mirza Ariful Alam, Mirza Mohtashim Alam, Pascal
Welke, Michael Martin, Jens Lehmann, Sahar Vahdati
- Abstract要約: 本稿では,人的資源(HR)意思決定支援システムであるHR-DSS手法を提案する。
このシステムは、機械学習モデルによって提供される予測を解釈するHR部門を支援するように設計されている。
- 参考スコア(独自算出の注目度): 9.570332155350055
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Skilled employees are the most important pillars of an organization. Despite
this, most organizations face high attrition and turnover rates. While several
machine learning models have been developed to analyze attrition and its causal
factors, the interpretations of those models remain opaque. In this paper, we
propose the HR-DSS approach, which stands for Human Resource (HR) Decision
Support System, and uses explainable AI for employee attrition problems. The
system is designed to assist HR departments in interpreting the predictions
provided by machine learning models. In our experiments, we employ eight
machine learning models to provide predictions. We further process the results
achieved by the best-performing model by the SHAP explainability process and
use the SHAP values to generate natural language explanations which can be
valuable for HR. Furthermore, using "What-if-analysis", we aim to observe
plausible causes for attrition of an individual employee. The results show that
by adjusting the specific dominant features of each individual, employee
attrition can turn into employee retention through informative business
decisions.
- Abstract(参考訳): 熟練した従業員は組織の最も重要な柱です。
それにもかかわらず、ほとんどの組織は高い負担と離職率に直面しています。
いくつかの機械学習モデルは、誘惑とその因果要因を分析するために開発されたが、これらのモデルの解釈は不透明のままである。
本稿では,人的資源(HR)意思決定支援システム(HR-DSS)を提案する。
このシステムは、機械学習モデルが提供する予測を解釈するHR部門を支援するように設計されている。
実験では8つの機械学習モデルを用いて予測を行った。
我々は、SHAP説明可能性プロセスによる最高の性能モデルによる結果をさらに処理し、SHAP値を用いて、HRに有用な自然言語説明を生成する。
さらに,「What-if-analysis」を用いて,個人従業員の誘惑に対する妥当な原因を観察することを目的とする。
その結果、各個人の特定の支配的特徴を調整することで、情報的ビジネス決定を通じて、従業員の誘惑が従業員の保持に変わる可能性が示唆された。
関連論文リスト
- On the Modeling Capabilities of Large Language Models for Sequential Decision Making [52.128546842746246]
大規模な事前訓練されたモデルでは、推論や計画タスクのパフォーマンスがますます向上している。
我々は、直接的または間接的に、意思決定ポリシーを作成する能力を評価する。
未知の力学を持つ環境において、合成データを用いた微調整LDMが報酬モデリング能力を大幅に向上させる方法について検討する。
論文 参考訳(メタデータ) (2024-10-08T03:12:57Z) - WorkArena++: Towards Compositional Planning and Reasoning-based Common Knowledge Work Tasks [85.95607119635102]
大型言語モデル(LLM)は人間のような知性を模倣することができる。
WorkArena++は、Webエージェントの計画、問題解決、論理的/論理的推論、検索、コンテキスト的理解能力を評価するように設計されている。
論文 参考訳(メタデータ) (2024-07-07T07:15:49Z) - Explain To Decide: A Human-Centric Review on the Role of Explainable
Artificial Intelligence in AI-assisted Decision Making [1.0878040851638]
機械学習モデルはエラーを起こしやすく、自律的に使用することはできない。
説明可能な人工知能(XAI)は、エンドユーザーによるモデルの理解を支援する。
本稿では,XAIの人間-AI意思決定への影響に関する最近の実証的研究について報告する。
論文 参考訳(メタデータ) (2023-12-11T22:35:21Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Ecosystem-level Analysis of Deployed Machine Learning Reveals Homogeneous Outcomes [72.13373216644021]
本研究では,機械学習の社会的影響を,特定の文脈に展開されるモデルの集合を考慮し検討する。
デプロイされた機械学習はシステム障害を起こしやすいため、利用可能なすべてのモデルに排他的に誤分類されているユーザもいます。
これらの例は、エコシステムレベルの分析が、機械学習の社会的影響を特徴づける独自の強みを持っていることを示している。
論文 参考訳(メタデータ) (2023-07-12T01:11:52Z) - Designing Closed-Loop Models for Task Allocation [36.04165658325371]
我々は、ブートストラップモデルトレーニングと人間とタスクの類似性に関する弱い事前情報を利用する。
このような弱い事前の使用は、人間の意思決定者が誤りを犯したりバイアスを受けたりしても、タスク割り当て精度を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-05-31T13:57:56Z) - Predicting and Understanding Human Action Decisions during Skillful
Joint-Action via Machine Learning and Explainable-AI [1.3381749415517021]
本研究では、教師付き機械学習と説明可能な人工知能を用いて、人間の意思決定をモデル化し、予測し、理解する。
長期記憶ネットワークは、専門家と初心者アクターのターゲット選択決定を予測するために訓練された。
論文 参考訳(メタデータ) (2022-06-06T16:54:43Z) - Investigations of Performance and Bias in Human-AI Teamwork in Hiring [30.046502708053097]
AIによる意思決定では、効果的なハイブリッドチームワーク(ヒューマンAI)は、AIのパフォーマンスにのみ依存するものではない。
本研究では,モデルの予測性能とバイアスの両方が,推薦型意思決定タスクにおいてどのように人間に伝達されるかを検討する。
論文 参考訳(メタデータ) (2022-02-21T17:58:07Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [62.61153549123407]
建設のギャップを狭めるために観測結果と組み合わせることができる情報源として,歴史専門家による意思決定の利用について検討する。
本研究では,データ内の各ケースが1人の専門家によって評価された場合に,専門家の一貫性を間接的に推定する影響関数に基づく手法を提案する。
本研究は, 児童福祉領域における臨床現場でのシミュレーションと実世界データを用いて, 提案手法が構成ギャップを狭めることに成功していることを示す。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - DECE: Decision Explorer with Counterfactual Explanations for Machine
Learning Models [36.50754934147469]
我々は,機械学習モデルの振る舞いを理解し,探索するために,反実的説明の可能性を利用する。
我々は、個別のインスタンスとデータサブセットに関するモデルの判断を理解し、調査するのに役立つインタラクティブな可視化システムであるDECEを設計する。
論文 参考訳(メタデータ) (2020-08-19T09:44:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。