論文の概要: A Taxonomy of Questions for Critical Reflection in Machine-Assisted Decision-Making
- arxiv url: http://arxiv.org/abs/2504.12830v2
- Date: Sat, 24 May 2025 12:09:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 14:32:54.25254
- Title: A Taxonomy of Questions for Critical Reflection in Machine-Assisted Decision-Making
- Title(参考訳): 機械支援意思決定における臨界反射に対する質問の分類
- Authors: Simon W. S. Fischer, Hanna Schraffenberger, Serge Thill, Pim Haselager,
- Abstract要約: 意思決定者は、マシンレコメンデーションに過剰に依存するリスクを負う。
反射は認知的エンゲージメントを高め、批判的思考を改善することが示されている。
本稿では,機械による意思決定に関する質問を体系的に作成するための分類法を提案する。
- 参考スコア(独自算出の注目度): 1.653063784045972
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Decision-makers run the risk of relying too much on machine recommendations, which is associated with lower cognitive engagement. Reflection has been shown to increase cognitive engagement and improve critical thinking and reasoning and therefore decision-making. However, there is currently no approach to support reflection in machine-assisted decision-making. We therefore present a taxonomy that serves to systematically create questions related to machine-assisted decision-making that promote reflection and thus cognitive engagement and ultimately a deliberate decision-making process. Our taxonomy builds on a taxonomy of Socratic questions and a question bank for human-centred explainable AI (XAI), and illustrates how XAI techniques can be utilised and repurposed to formulate questions. As a use case, we focus on clinical decision-making. An evaluation in education confirms the applicability and expected benefits of our taxonomy. Our work contributes to the growing research on human-AI interaction that goes beyond the paradigm of machine recommendations and explanations and aims to enable effective human oversight as required by the European AI Act.
- Abstract(参考訳): 意思決定者は、認知的エンゲージメントの低いマシンレコメンデーションに過剰に依存するリスクを負う。
リフレクションは認知的エンゲージメントを高め、批判的思考と推論を改善し、意思決定を促進することが示されている。
しかし、現在、機械による意思決定におけるリフレクションをサポートするためのアプローチはない。
そこで我々は、リフレクションを促進し、認知的関与を促進し、究極的には意図的な意思決定プロセスであるマシン支援意思決定に関する質問を体系的に作成するのに役立つ分類法を提案する。
我々の分類学は、ソクラティックな質問の分類と、人間中心の説明可能なAI(XAI)のための質問銀行に基づいており、XAI技術がどのように活用され、質問を定式化するために再利用されるかを示している。
症例として臨床的意思決定に焦点をあてる。
教育における評価は、我々の分類学の適用性と期待された利益を裏付けるものである。
私たちの研究は、マシンレコメンデーションと説明のパラダイムを越えて、欧州AI法で要求される効果的な人間の監視を可能にすることを目的とした、人間とAIのインタラクションに関する研究の増加に貢献しています。
関連論文リスト
- Can AI Model the Complexities of Human Moral Decision-Making? A Qualitative Study of Kidney Allocation Decisions [31.11473190744529]
倫理的AIでは、単純な計算モデルを通じて人間の道徳的判断を捉えようとする動きが増えている。
参加者は腎臓の受注者についての判断の根拠を説明するため,20回のインタビューを行った。
参加者を観察する: (a) 患者の道徳的関連属性を異なる学位に価値づけする; (b) 意思決定の複雑さを減らすために様々な意思決定プロセスを使用する; (c) 意見を変える; (e) 腎臓の割り当て決定においてAIを補助するAIに対する熱意と関心を表現する。
論文 参考訳(メタデータ) (2025-03-02T15:42:17Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Distilling Reasoning Ability from Large Language Models with Adaptive Thinking [54.047761094420174]
思考の微調整(cot-finetuning)の連鎖は、小さな言語モデル(SLM)を特定のタスクに対するパフォーマンス向上の推論能力で実現することを目的としている。
既存のコトファインタニング法の多くは事前に考えられたメカニズムを採用しており、SLMは答えを出す前に理性を生成することができる。
このメカニズムにより、SLMは複雑な質問を分析して考えることができるが、答えの正しさは論理的に小さな誤りに非常に敏感になる。
理性よりも先に回答を生成するための頑健な後思考機構を提案する。
論文 参考訳(メタデータ) (2024-04-14T07:19:27Z) - Towards Human-AI Deliberation: Design and Evaluation of LLM-Empowered Deliberative AI for AI-Assisted Decision-Making [47.33241893184721]
AIによる意思決定において、人間はしばしばAIの提案を受動的にレビューし、それを受け入れるか拒否するかを決定する。
意思決定における人間-AIの意見の対立に関する議論と人間のリフレクションを促進する新しい枠組みであるHuman-AI Deliberationを提案する。
人間の熟考の理論に基づいて、この枠組みは人間とAIを次元レベルの意見の引用、熟考的議論、意思決定の更新に携わる。
論文 参考訳(メタデータ) (2024-03-25T14:34:06Z) - Perspectives on Large Language Models for Relevance Judgment [56.935731584323996]
大型言語モデル(LLM)は、関連判断を支援することができると主張している。
自動判定が検索システムの評価に確実に利用できるかどうかは不明である。
論文 参考訳(メタデータ) (2023-04-13T13:08:38Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - Thinking Fast and Slow in AI [38.8581204791644]
本稿では,人間の意思決定の認知理論からインスピレーションを得たAI研究の方向性を提案する。
前提は、AIでまだ不足しているいくつかの人間の能力の原因について洞察を得ることができれば、AIシステムで同様の能力を得ることができるということです。
論文 参考訳(メタデータ) (2020-10-12T20:10:05Z) - Implications of Human Irrationality for Reinforcement Learning [26.76732313120685]
人間の意思決定は、機械学習の問題がどのように定義されているかを制限するためのアイデアのより良い源であるかもしれない、と私たちは主張する。
ある有望なアイデアは、選択コンテキストの明らかに無関係な側面に依存する人間の意思決定に関するものである。
本研究では,文脈選択タスクのための新しいPOMDPモデルを提案する。
論文 参考訳(メタデータ) (2020-06-07T07:44:53Z) - A Case for Humans-in-the-Loop: Decisions in the Presence of Erroneous
Algorithmic Scores [85.12096045419686]
本研究では,児童虐待のホットラインスクリーニング決定を支援するアルゴリズムツールの採用について検討した。
まず、ツールがデプロイされたときに人間が行動を変えることを示します。
表示されたスコアが誤ったリスク推定である場合、人間はマシンの推奨に従わない可能性が低いことを示す。
論文 参考訳(メタデータ) (2020-02-19T07:27:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。