論文の概要: PresAIse, A Prescriptive AI Solution for Enterprises
- arxiv url: http://arxiv.org/abs/2402.02006v2
- Date: Tue, 13 Feb 2024 01:59:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-14 18:18:32.957098
- Title: PresAIse, A Prescriptive AI Solution for Enterprises
- Title(参考訳): presaise - 企業のための規範型aiソリューション
- Authors: Wei Sun, Scott McFaddin, Linh Ha Tran, Shivaram Subramanian, Kristjan
Greenewald, Yeshi Tenzin, Zack Xue, Youssef Drissi, Markus Ettl
- Abstract要約: 本稿は、IBM Researchのイニシアチブの概要であり、一連の規範的AIソリューションを提供することによって、これらの課題のいくつかに対処することを目的としている。
ソリューションスイートには、スケーラブルな因果推論方法、解釈可能な意思決定アプローチ、大規模言語モデルの統合が含まれている。
概念実証であるPresAIseは、非MLの専門家が自然言語インターフェースを介して規範的なAIモデルと対話できるようにすることで、ソリューションの可能性を示している。
- 参考スコア(独自算出の注目度): 6.523929486550928
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prescriptive AI represents a transformative shift in decision-making,
offering causal insights and actionable recommendations. Despite its huge
potential, enterprise adoption often faces several challenges. The first
challenge is caused by the limitations of observational data for accurate
causal inference which is typically a prerequisite for good decision-making.
The second pertains to the interpretability of recommendations, which is
crucial for enterprise decision-making settings. The third challenge is the
silos between data scientists and business users, hindering effective
collaboration. This paper outlines an initiative from IBM Research, aiming to
address some of these challenges by offering a suite of prescriptive AI
solutions. Leveraging insights from various research papers, the solution suite
includes scalable causal inference methods, interpretable decision-making
approaches, and the integration of large language models (LLMs) to bridge
communication gaps via a conversation agent. A proof-of-concept, PresAIse,
demonstrates the solutions' potential by enabling non-ML experts to interact
with prescriptive AI models via a natural language interface, democratizing
advanced analytics for strategic decision-making.
- Abstract(参考訳): 規範的AIは意思決定の変革であり、因果的な洞察と行動可能なレコメンデーションを提供する。
その大きな可能性にもかかわらず、企業の採用はしばしばいくつかの課題に直面している。
最初の課題は、適切な意思決定の前提条件である正確な因果推論のための観測データの制限によって引き起こされる。
2つ目は、企業の意思決定設定に不可欠なレコメンデーションの解釈可能性に関するものである。
第3の課題は、データサイエンティストとビジネスユーザの間のサイロであり、効果的なコラボレーションを妨げる。
本稿は、IBM Researchのイニシアチブの概要であり、一連の規範的AIソリューションを提供することによって、これらの課題のいくつかに対処することを目的としている。
さまざまな研究論文から洞察を得て、ソリューションスイートには、スケーラブルな因果推論方法、解釈可能な意思決定アプローチ、対話エージェントを介して通信ギャップを橋渡しする大規模言語モデル(LLM)の統合が含まれている。
概念実証であるPresAIseは、非MLの専門家が自然言語インターフェースを介して規範的なAIモデルと対話できるようにし、戦略的意思決定のための高度な分析を民主化することで、ソリューションの可能性を示す。
関連論文リスト
- Optimising Human-AI Collaboration by Learning Convincing Explanations [62.81395661556852]
本研究では,人間による意思決定によって安全を保ちながら協調的なシステムを構築する手法を提案する。
Ardentは、説明のための個人の好みに適応することで、効率的で効果的な意思決定を可能にする。
論文 参考訳(メタデータ) (2023-11-13T16:00:16Z) - Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - In Search of Verifiability: Explanations Rarely Enable Complementary
Performance in AI-Advised Decision Making [25.18203172421461]
説明は、人間の意思決定者がAIの予測の正しさを検証できる範囲でのみ有用である、と我々は主張する。
また、補完性能の目的と適切な依存度を比較し、後者を結果段階と戦略段階の信頼度の概念に分解する。
論文 参考訳(メタデータ) (2023-05-12T18:28:04Z) - Explainable Data-Driven Optimization: From Context to Decision and Back
Again [76.84947521482631]
データ駆動最適化では、コンテキスト情報と機械学習アルゴリズムを使用して、不確実なパラメータによる決定問題の解決策を見つける。
本稿では,データ駆動型問題に対する解法を説明するために,対実的説明手法を提案する。
在庫管理やルーティングといった運用管理における重要な問題を説明することで,我々のアプローチを実証する。
論文 参考訳(メタデータ) (2023-01-24T15:25:16Z) - On solving decision and risk management problems subject to uncertainty [91.3755431537592]
不確実性は意思決定とリスク管理において広範囲にわたる課題である。
本稿では,このような戦略を体系的に理解し,その適用範囲を判断し,それらをうまく活用するための枠組みを開発する。
論文 参考訳(メタデータ) (2023-01-18T19:16:23Z) - Explainability's Gain is Optimality's Loss? -- How Explanations Bias
Decision-making [0.0]
説明は、アルゴリズムと人間の意思決定者とのコミュニケーションを促進するのに役立つ。
因果モデルに関する特徴に基づく説明のセマンティクスは、意思決定者の以前の信念から漏れを引き起こす。
このような違いは、準最適かつ偏った決定結果をもたらす可能性がある。
論文 参考訳(メタデータ) (2022-06-17T11:43:42Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - Learning MDPs from Features: Predict-Then-Optimize for Sequential
Decision Problems by Reinforcement Learning [52.74071439183113]
我々は、強化学習を通して解決された逐次決定問題(MDP)の文脈における予測列最適化フレームワークについて検討した。
2つの重要な計算課題は、意思決定中心の学習をMDPに適用することである。
論文 参考訳(メタデータ) (2021-06-06T23:53:31Z) - A survey of algorithmic recourse: definitions, formulations, solutions,
and prospects [24.615500469071183]
我々は、自動意思決定システムによって不当に扱われる個人に対して、説明とレコメンデーションを提供するアルゴリズムの講義に焦点をあてる。
我々は、広範な文献レビューを行い、統一された定義、定式化、言論への解決策を提示することで、多くの著者の努力を一致させます。
論文 参考訳(メタデータ) (2020-10-08T15:15:34Z) - Automatic Discovery of Interpretable Planning Strategies [9.410583483182657]
我々は、慣用的ポリシーを単純かつ解釈可能な記述に変換する方法であるAI-Interpretを紹介する。
フローチャートとしてAI-Interpretが生み出す決定ルールを守れば、人々の計画戦略や意思決定は大幅に改善される。
論文 参考訳(メタデータ) (2020-05-24T12:24:52Z) - Autoencoders for strategic decision support [5.922780668675565]
戦略的に関連する粒度のフィードバックを提供するために,オートエンコーダを導入,拡張する。
最初の実験は、専門家が意思決定に不整合であることを示し、戦略的な意思決定支援の必要性を強調している。
本研究は,人間の意思決定におけるいくつかの主要な弱点を確認し,モデルと人間の相乗効果の重要性を強調した。
論文 参考訳(メタデータ) (2020-05-03T12:54:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。