論文の概要: Autoencoders for strategic decision support
- arxiv url: http://arxiv.org/abs/2005.01075v1
- Date: Sun, 3 May 2020 12:54:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 06:14:30.399214
- Title: Autoencoders for strategic decision support
- Title(参考訳): 戦略的意思決定支援のためのオートエンコーダ
- Authors: Sam Verboven, Jeroen Berrevoets, Chris Wuytens, Bart Baesens, Wouter
Verbeke
- Abstract要約: 戦略的に関連する粒度のフィードバックを提供するために,オートエンコーダを導入,拡張する。
最初の実験は、専門家が意思決定に不整合であることを示し、戦略的な意思決定支援の必要性を強調している。
本研究は,人間の意思決定におけるいくつかの主要な弱点を確認し,モデルと人間の相乗効果の重要性を強調した。
- 参考スコア(独自算出の注目度): 5.922780668675565
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the majority of executive domains, a notion of normality is involved in
most strategic decisions. However, few data-driven tools that support strategic
decision-making are available. We introduce and extend the use of autoencoders
to provide strategically relevant granular feedback. A first experiment
indicates that experts are inconsistent in their decision making, highlighting
the need for strategic decision support. Furthermore, using two large
industry-provided human resources datasets, the proposed solution is evaluated
in terms of ranking accuracy, synergy with human experts, and dimension-level
feedback. This three-point scheme is validated using (a) synthetic data, (b)
the perspective of data quality, (c) blind expert validation, and (d)
transparent expert evaluation. Our study confirms several principal weaknesses
of human decision-making and stresses the importance of synergy between a model
and humans. Moreover, unsupervised learning and in particular the autoencoder
are shown to be valuable tools for strategic decision-making.
- Abstract(参考訳): ほとんどの行政領域では、通常性の概念がほとんどの戦略的決定に関与している。
しかし、戦略的意思決定をサポートするデータ駆動ツールはほとんどない。
戦略的に関連する粒度のフィードバックを提供するために,オートエンコーダを導入,拡張する。
最初の実験は、専門家が意思決定に不整合であることを示し、戦略的な意思決定支援の必要性を強調している。
さらに,2つの大規模産業提供人材データセットを用いて,評価精度,人間専門家との相乗効果,次元レベルのフィードバックの観点から提案手法を評価した。
この三点スキームは検証される
(a)合成データ
b) データ品質の観点から
(c)盲人専門家の検証、及び
(d)透明な専門家評価。
本研究は、人間の意思決定におけるいくつかの主要な弱点を確認し、モデルと人間のシナジーの重要性を強調した。
さらに,教師なし学習,特にオートエンコーダは戦略的意思決定に有用なツールであることが示されている。
関連論文リスト
- Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - PresAIse, A Prescriptive AI Solution for Enterprises [6.523929486550928]
本稿は、IBM Researchのイニシアチブの概要であり、一連の規範的AIソリューションを提供することによって、これらの課題のいくつかに対処することを目的としている。
ソリューションスイートには、スケーラブルな因果推論方法、解釈可能な意思決定アプローチ、大規模言語モデルの統合が含まれている。
概念実証であるPresAIseは、非MLの専門家が自然言語インターフェースを介して規範的なAIモデルと対話できるようにすることで、ソリューションの可能性を示している。
論文 参考訳(メタデータ) (2024-02-03T03:23:08Z) - Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - Risk-reducing design and operations toolkit: 90 strategies for managing
risk and uncertainty in decision problems [65.268245109828]
本稿では,このような戦略のカタログを開発し,それらのためのフレームワークを開発する。
高い不確実性のために難解であるように見える決定問題に対して、効率的な応答を提供する、と論じている。
次に、多目的最適化を用いた決定理論にそれらを組み込む枠組みを提案する。
論文 参考訳(メタデータ) (2023-09-06T16:14:32Z) - Learning Personalized Decision Support Policies [56.949897454209186]
$texttModiste$は、パーソナライズされた意思決定支援ポリシーを学ぶためのインタラクティブツールである。
パーソナライズされたポリシは、オフラインポリシよりも優れており、コストを意識した環境では、パフォーマンスの低下を最小限に抑えて、発生したコストを削減することができる。
論文 参考訳(メタデータ) (2023-04-13T17:53:34Z) - On solving decision and risk management problems subject to uncertainty [91.3755431537592]
不確実性は意思決定とリスク管理において広範囲にわたる課題である。
本稿では,このような戦略を体系的に理解し,その適用範囲を判断し,それらをうまく活用するための枠組みを開発する。
論文 参考訳(メタデータ) (2023-01-18T19:16:23Z) - Algorithmic Decision-Making Safeguarded by Human Knowledge [8.482569811904028]
我々は人的知識によるアルゴリズム決定の強化について研究する。
アルゴリズム決定が大規模データに対して最適である場合、非データ駆動のヒューマンガードレールは、通常、何の利益も与えないことを示す。
これらのケースでは、十分なデータであっても、人間の知識による増強は、アルゴリズムによる決定の性能を向上させることができる。
論文 参考訳(メタデータ) (2022-11-20T17:13:32Z) - A Human-Centric Perspective on Fairness and Transparency in Algorithmic
Decision-Making [0.0]
自動意思決定システム(ADS)は、連続的な意思決定にますます利用されている。
非透明なシステムは、健全性の評価と校正が難しいため、不公平な結果をもたらす傾向にある。
私は博士論文を通じて以下の3つの主要な貢献をしたいと考えています。
論文 参考訳(メタデータ) (2022-04-29T18:31:04Z) - A Machine Learning Framework Towards Transparency in Experts' Decision
Quality [0.0]
多くの重要な設定において、専門家の意思決定の質の透明性は、専門家の判断を評価するための根拠となる真理のデータがコストが高く、限られた一連の決定のためにのみ利用できるため、めったに不可能である。
まず、この設定で専門家の判断精度を推定し、それに対応するための機械学習ベースのフレームワークを開発するという問題を定式化する。
本手法は, 労働者の過去の意思決定に関する豊富な歴史的データと, 根拠となる真理情報による意思決定事例の不足を効果的に活用する。
論文 参考訳(メタデータ) (2021-10-21T18:50:40Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [62.61153549123407]
建設のギャップを狭めるために観測結果と組み合わせることができる情報源として,歴史専門家による意思決定の利用について検討する。
本研究では,データ内の各ケースが1人の専門家によって評価された場合に,専門家の一貫性を間接的に推定する影響関数に基づく手法を提案する。
本研究は, 児童福祉領域における臨床現場でのシミュレーションと実世界データを用いて, 提案手法が構成ギャップを狭めることに成功していることを示す。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。