論文の概要: Beyond Recommendations: From Backward to Forward AI Support of Pilots' Decision-Making Process
- arxiv url: http://arxiv.org/abs/2406.08959v1
- Date: Thu, 13 Jun 2024 09:44:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-14 18:34:37.190752
- Title: Beyond Recommendations: From Backward to Forward AI Support of Pilots' Decision-Making Process
- Title(参考訳): 推奨を超えて - パイロットの意思決定プロセスの後方から前方へのAIサポート
- Authors: Zelun Tony Zhang, Sebastian S. Feger, Lucas Dullenkopf, Rulu Liao, Lukas Süsslin, Yuanting Liu, Andreas Butz,
- Abstract要約: 航空における転向の文脈において、リコメンデーション中心のサポートを代替パラダイムである継続的サポートと比較する。
継続的サポートは、パイロットの意思決定を前方に支援し、システムの限界を超えて考えることができることがわかった。
- 参考スコア(独自算出の注目度): 12.742338558480064
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: AI is anticipated to enhance human decision-making in high-stakes domains like aviation, but adoption is often hindered by challenges such as inappropriate reliance and poor alignment with users' decision-making. Recent research suggests that a core underlying issue is the recommendation-centric design of many AI systems, i.e., they give end-to-end recommendations and ignore the rest of the decision-making process. Alternative support paradigms are rare, and it remains unclear how the few that do exist compare to recommendation-centric support. In this work, we aimed to empirically compare recommendation-centric support to an alternative paradigm, continuous support, in the context of diversions in aviation. We conducted a mixed-methods study with 32 professional pilots in a realistic setting. To ensure the quality of our study scenarios, we conducted a focus group with four additional pilots prior to the study. We found that continuous support can support pilots' decision-making in a forward direction, allowing them to think more beyond the limits of the system and make faster decisions when combined with recommendations, though the forward support can be disrupted. Participants' statements further suggest a shift in design goal away from providing recommendations, to supporting quick information gathering. Our results show ways to design more helpful and effective AI decision support that goes beyond end-to-end recommendations.
- Abstract(参考訳): AIは、航空のような高度な領域における人間の意思決定を強化することが期待されているが、不適切な依存やユーザの意思決定との整合性の低下といった課題によって、採用が妨げられることが多い。
最近の研究によると、根底にある問題は、多くのAIシステムのレコメンデーション中心の設計、すなわち、エンドツーエンドのレコメンデーションを与え、残りの意思決定プロセスを無視していることである。
代替的なサポートパラダイムはまれであり、レコメンデーション中心のサポートと比較して、存在するものはほとんどない。
本研究は,航空における転倒の文脈において,代替パラダイムである継続的支援とレコメンデーション中心のサポートを実証的に比較することを目的とした。
現実的な条件下で,32名のパイロットと混合メソドス実験を行った。
研究シナリオの品質を確保するため,研究に先立って4人のパイロットによるフォーカスグループを実施した。
継続的サポートは、パイロットの意思決定を前方に支援し、システムの限界を超えて、推奨と組み合わせることでより迅速な意思決定を可能にするが、前方サポートは破壊される可能性がある。
参加者の発言は、デザイン目標が推奨を提供することから、迅速な情報収集をサポートすることへのシフトをさらに示唆している。
私たちの結果は、エンドツーエンドのレコメンデーションを超えて、より便利で効果的なAI意思決定サポートを設計する方法を示しています。
関連論文リスト
- An Empirical Examination of the Evaluative AI Framework [0.0]
本研究は,AIユーザの意思決定プロセスを強化することを目的とした「評価AI」フレームワークを実証的に検討する。
このフレームワークは、直接的なレコメンデーションを提供するのではなく、ユーザがより情報的な決定をサポートするための仮説を証明し、証明する。
論文 参考訳(メタデータ) (2024-11-13T13:03:49Z) - Beyond Recommender: An Exploratory Study of the Effects of Different AI
Roles in AI-Assisted Decision Making [48.179458030691286]
Recommender、Analyzer、Devil's Advocateの3つのAIの役割について検討する。
以上の結果から,各役割のタスクパフォーマンス,信頼性の適切性,ユーザエクスペリエンスにおける長所と短所が明らかとなった。
これらの洞察は、異なる状況に応じて適応的な機能的役割を持つAIアシスタントを設計する上で、貴重な意味を提供する。
論文 参考訳(メタデータ) (2024-03-04T07:32:28Z) - Optimising Human-AI Collaboration by Learning Convincing Explanations [62.81395661556852]
本研究では,人間による意思決定によって安全を保ちながら協調的なシステムを構築する手法を提案する。
Ardentは、説明のための個人の好みに適応することで、効率的で効果的な意思決定を可能にする。
論文 参考訳(メタデータ) (2023-11-13T16:00:16Z) - Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - Learning Personalized Decision Support Policies [56.949897454209186]
$texttModiste$は、パーソナライズされた意思決定支援ポリシーを学ぶためのインタラクティブツールである。
パーソナライズされたポリシは、オフラインポリシよりも優れており、コストを意識した環境では、パフォーマンスの低下を最小限に抑えて、発生したコストを削減することができる。
論文 参考訳(メタデータ) (2023-04-13T17:53:34Z) - Explainable AI is Dead, Long Live Explainable AI! Hypothesis-driven
decision support [4.452019519213712]
我々は、現在の説明可能な人工知能(XAI)モデルからのパラダイムシフトを議論する。
早期意思決定支援システムでは、人々に推奨を与え、それらを考慮し、必要なときにそれに従うことができると仮定した。
論文 参考訳(メタデータ) (2023-02-24T01:33:25Z) - Learning When to Advise Human Decision Makers [12.47847261193524]
本稿では,アルゴリズムがユーザと双方向に対話するAIシステムの設計を提案する。
大規模な実験の結果,私たちのアドバイスアプローチは,必要な時にアドバイスを提供することができることがわかった。
論文 参考訳(メタデータ) (2022-09-27T17:52:13Z) - Doubting AI Predictions: Influence-Driven Second Opinion Recommendation [92.30805227803688]
我々は,補完的な意見を提供する可能性のある専門家を識別する,共通の組織的実践に基づいて,人間とAIのコラボレーションを強化する方法を提案する。
提案手法は、一部の専門家がアルゴリズムによる評価に異を唱えるかどうかを特定することによって、生産的な不一致を活用することを目的としている。
論文 参考訳(メタデータ) (2022-04-29T20:35:07Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - Towards Explainable Scientific Venue Recommendations [0.09668407688201358]
本稿では,この領域における最先端の手法を提案する。
まず,非負行列分解に基づくトピックモデルを用いて,推薦の解釈可能性を高める。
第二に、より単純な学習方法を用いて、驚くほど競争力のあるレコメンデーション性能を得ることができる。
論文 参考訳(メタデータ) (2021-09-21T10:25:26Z) - Dealing with Expert Bias in Collective Decision-Making [4.588028371034406]
本稿では,コンテキスト型マルチアームバンディット問題(CMAB)に基づく新たなアルゴリズムアプローチを提案する。
CMABにインスパイアされた新しいアプローチは、従来の適応アルゴリズムよりも高速に収束しながら、より高い最終性能を達成する。
論文 参考訳(メタデータ) (2021-06-25T10:17:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。