論文の概要: Retention Is All You Need
- arxiv url: http://arxiv.org/abs/2304.03103v2
- Date: Sat, 26 Aug 2023 21:06:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-30 00:16:14.485692
- Title: Retention Is All You Need
- Title(参考訳): 維持が必要なのは
- Authors: Karishma Mohiuddin, Mirza Ariful Alam, Mirza Mohtashim Alam, Pascal
Welke, Michael Martin, Jens Lehmann, Sahar Vahdati
- Abstract要約: 本稿では,人的資源(HR)意思決定支援システムであるHR-DSS手法を提案する。
このシステムは、機械学習モデルによって提供される予測を解釈するHR部門を支援するように設計されている。
- 参考スコア(独自算出の注目度): 9.570332155350055
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Skilled employees are the most important pillars of an organization. Despite
this, most organizations face high attrition and turnover rates. While several
machine learning models have been developed to analyze attrition and its causal
factors, the interpretations of those models remain opaque. In this paper, we
propose the HR-DSS approach, which stands for Human Resource (HR) Decision
Support System, and uses explainable AI for employee attrition problems. The
system is designed to assist HR departments in interpreting the predictions
provided by machine learning models. In our experiments, we employ eight
machine learning models to provide predictions. We further process the results
achieved by the best-performing model by the SHAP explainability process and
use the SHAP values to generate natural language explanations which can be
valuable for HR. Furthermore, using "What-if-analysis", we aim to observe
plausible causes for attrition of an individual employee. The results show that
by adjusting the specific dominant features of each individual, employee
attrition can turn into employee retention through informative business
decisions.
- Abstract(参考訳): 熟練した従業員は組織の最も重要な柱です。
それにもかかわらず、ほとんどの組織は高い負担と離職率に直面しています。
いくつかの機械学習モデルは、誘惑とその因果要因を分析するために開発されたが、これらのモデルの解釈は不透明のままである。
本稿では,人的資源(HR)意思決定支援システム(HR-DSS)を提案する。
このシステムは、機械学習モデルが提供する予測を解釈するHR部門を支援するように設計されている。
実験では8つの機械学習モデルを用いて予測を行った。
我々は、SHAP説明可能性プロセスによる最高の性能モデルによる結果をさらに処理し、SHAP値を用いて、HRに有用な自然言語説明を生成する。
さらに,「What-if-analysis」を用いて,個人従業員の誘惑に対する妥当な原因を観察することを目的とする。
その結果、各個人の特定の支配的特徴を調整することで、情報的ビジネス決定を通じて、従業員の誘惑が従業員の保持に変わる可能性が示唆された。
関連論文リスト
- Explain To Decide: A Human-Centric Review on the Role of Explainable
Artificial Intelligence in AI-assisted Decision Making [1.0878040851638]
機械学習モデルはエラーを起こしやすく、自律的に使用することはできない。
説明可能な人工知能(XAI)は、エンドユーザーによるモデルの理解を支援する。
本稿では,XAIの人間-AI意思決定への影響に関する最近の実証的研究について報告する。
論文 参考訳(メタデータ) (2023-12-11T22:35:21Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Ecosystem-level Analysis of Deployed Machine Learning Reveals
Homogeneous Outcomes [76.07093761206377]
本研究では,機械学習の社会的影響を,特定の文脈に展開されるモデルの集合を考慮し検討する。
デプロイされた機械学習はシステム障害を起こしやすいため、利用可能なすべてのモデルに排他的に誤分類されているユーザもいます。
これらの例は、エコシステムレベルの分析が、機械学習の社会的影響を特徴づける独自の強みを持っていることを示している。
論文 参考訳(メタデータ) (2023-07-12T01:11:52Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Designing Closed-Loop Models for Task Allocation [36.04165658325371]
我々は、ブートストラップモデルトレーニングと人間とタスクの類似性に関する弱い事前情報を利用する。
このような弱い事前の使用は、人間の意思決定者が誤りを犯したりバイアスを受けたりしても、タスク割り当て精度を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-05-31T13:57:56Z) - Denoised MDPs: Learning World Models Better Than the World Itself [94.74665254213588]
本研究は,野生の情報を制御可能性と報酬との関係に基づく4つのタイプに分類し,制御性および報酬関連性の両方に有用な情報を定式化する。
DeepMind Control Suite と RoboDesk の変種に関する実験では、生の観測のみを用いた場合よりも、認知された世界モデルの優れた性能が示されている。
論文 参考訳(メタデータ) (2022-06-30T17:59:49Z) - Predicting and Understanding Human Action Decisions during Skillful
Joint-Action via Machine Learning and Explainable-AI [1.3381749415517021]
本研究では、教師付き機械学習と説明可能な人工知能を用いて、人間の意思決定をモデル化し、予測し、理解する。
長期記憶ネットワークは、専門家と初心者アクターのターゲット選択決定を予測するために訓練された。
論文 参考訳(メタデータ) (2022-06-06T16:54:43Z) - Investigations of Performance and Bias in Human-AI Teamwork in Hiring [30.046502708053097]
AIによる意思決定では、効果的なハイブリッドチームワーク(ヒューマンAI)は、AIのパフォーマンスにのみ依存するものではない。
本研究では,モデルの予測性能とバイアスの両方が,推薦型意思決定タスクにおいてどのように人間に伝達されるかを検討する。
論文 参考訳(メタデータ) (2022-02-21T17:58:07Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z) - DECE: Decision Explorer with Counterfactual Explanations for Machine
Learning Models [36.50754934147469]
我々は,機械学習モデルの振る舞いを理解し,探索するために,反実的説明の可能性を利用する。
我々は、個別のインスタンスとデータサブセットに関するモデルの判断を理解し、調査するのに役立つインタラクティブな可視化システムであるDECEを設計する。
論文 参考訳(メタデータ) (2020-08-19T09:44:47Z) - oLMpics -- On what Language Model Pre-training Captures [84.60594612120173]
本研究では,比較,協調,合成などの操作を必要とする8つの推論タスクを提案する。
基本的な課題は、タスク上でのLMのパフォーマンスが、事前訓練された表現やタスクデータの微調整のプロセスに起因すべきかどうかを理解することである。
論文 参考訳(メタデータ) (2019-12-31T12:11:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。