論文の概要: Challenging the Human-in-the-loop in Algorithmic Decision-making
- arxiv url: http://arxiv.org/abs/2405.10706v2
- Date: Tue, 20 Aug 2024 07:48:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-21 19:59:41.034590
- Title: Challenging the Human-in-the-loop in Algorithmic Decision-making
- Title(参考訳): アルゴリズムによる意思決定における人間とループの整合性
- Authors: Sebastian Tschiatschek, Eugenia Stamboliev, Timothée Schmude, Mark Coeckelbergh, Laura Koesten,
- Abstract要約: 技術的・哲学的な観点から,社会問題に対するアルゴリズム意思決定(ADM)における人間の役割を論じる。
特に、関係する人間による様々な期待、価値観、制約から生じる緊張について説明する。
- 参考スコア(独自算出の注目度): 7.8142062370321845
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We discuss the role of humans in algorithmic decision-making (ADM) for socially relevant problems from a technical and philosophical perspective. In particular, we illustrate tensions arising from diverse expectations, values, and constraints by and on the humans involved. To this end, we assume that a strategic decision-maker (SDM) introduces ADM to optimize strategic and societal goals while the algorithms' recommended actions are overseen by a practical decision-maker (PDM) - a specific human-in-the-loop - who makes the final decisions. While the PDM is typically assumed to be a corrective, it can counteract the realization of the SDM's desired goals and societal values not least because of a misalignment of these values and unmet information needs of the PDM. This has significant implications for the distribution of power between the stakeholders in ADM, their constraints, and information needs. In particular, we emphasize the overseeing PDM's role as a potential political and ethical decision maker, who acts expected to balance strategic, value-driven objectives and on-the-ground individual decisions and constraints. We demonstrate empirically, on a machine learning benchmark dataset, the significant impact an overseeing PDM's decisions can have even if the PDM is constrained to performing only a limited amount of actions differing from the algorithms' recommendations. To ensure that the SDM's intended values are realized, the PDM needs to be provided with appropriate information conveyed through tailored explanations and its role must be characterized clearly. Our findings emphasize the need for an in-depth discussion of the role and power of the PDM and challenge the often-taken view that just including a human-in-the-loop in ADM ensures the 'correct' and 'ethical' functioning of the system.
- Abstract(参考訳): 技術的・哲学的な観点から,社会問題に対するアルゴリズム意思決定(ADM)における人間の役割を論じる。
特に、関係する人間による様々な期待、価値観、制約から生じる緊張について説明する。
この目的のために、戦略的意思決定者(SDM)がADMを導入し、戦略的および社会的目標を最適化し、アルゴリズムの推奨行動は、最終的な決定を行う実践的意思決定者(PDM)によって監督されると仮定する。
通常、PDMは正当であると仮定されるが、これらの値の不正な調整とPDMの情報要求のため、SDMの望ましい目標と社会的価値の実現に反する可能性がある。
これは、ADMの利害関係者間の権力分配、その制約、および情報要求に重大な影響を及ぼす。
特に、戦略的、価値駆動的な目標と地上での個人的決定と制約のバランスをとることを期待する政治的・倫理的な意思決定者としてのPDMの役割の監督を強調します。
我々は、機械学習ベンチマークデータセットにおいて、PDMがアルゴリズムの推奨と異なる限られたアクションのみを実行することを制約されている場合でも、PDMの決定を監督する重大な影響を実証的に示す。
SDMが意図する値を実現するためには、適切な情報を提供し、その役割を明確化する必要がある。
本研究は, PDMの役割と能力について深く議論することの必要性を強調し, ADMに人為的なループを含めることで, システムの「正しい」「倫理的な」機能を保証するという, しばしば取り上げられる見解に挑戦するものである。
関連論文リスト
- Dynamic Detection of Relevant Objectives and Adaptation to Preference Drifts in Interactive Evolutionary Multi-Objective Optimization [2.4374097382908477]
意思決定過程を通じて進化し,目的の関連性に影響を与えるDM選好の動的性質について検討する。
このような変化が起こると、時代遅れや相反する好みを解消する手法を提案する。
実験により,提案手法は進化する嗜好を効果的に管理し,アルゴリズムが生成するソリューションの品質と望ましさを著しく向上することを示した。
論文 参考訳(メタデータ) (2024-11-07T09:09:06Z) - Meta Reasoning for Large Language Models [58.87183757029041]
大規模言語モデル(LLM)の新規かつ効率的なシステムプロセッシング手法であるメタ推論プロンプト(MRP)を導入する。
MRPは、各タスクの特定の要求に基づいて異なる推論メソッドを動的に選択し、適用するようLLMに誘導する。
総合的なベンチマークによりMPPの有効性を評価する。
論文 参考訳(メタデータ) (2024-06-17T16:14:11Z) - LLM as a Mastermind: A Survey of Strategic Reasoning with Large Language Models [75.89014602596673]
戦略推論は、戦略を調整しながら、マルチエージェント設定における敵の行動を理解し、予測する必要がある。
大規模言語モデルを用いた戦略的推論に関連するスコープ,アプリケーション,方法論,評価指標について検討する。
戦略的推論を重要な認知能力として重要視し、将来の研究の方向性や潜在的な改善に関する洞察を提供する。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - A Decision Theoretic Framework for Measuring AI Reliance [23.353778024330165]
人間はしばしば人工知能(AI)システムの助けを借りて意思決定をする。
研究者は、補完的なパフォーマンスを達成する上で重要な要素として、人間がAIに適切に依存していることを確認する。
本稿では, 統計的決定理論に基づく信頼の形式的定義を提案し, 意思決定者がAIの推奨に従う確率として信頼の概念を分離する。
論文 参考訳(メタデータ) (2024-01-27T09:13:09Z) - Reinforcement Learning Interventions on Boundedly Rational Human Agents
in Frictionful Tasks [25.507656595628376]
本稿では,AIエージェントがマルコフ決定プロセス(MDP)のパラメータに介入する枠組みを紹介する。
私たちは、人間のモデルによるAI計画が、より複雑で地道な人間の幅広い政策に結びつくことを示しています。
論文 参考訳(メタデータ) (2024-01-26T14:59:48Z) - On the Foundation of Distributionally Robust Reinforcement Learning [19.621038847810198]
我々は、分布的堅牢性強化学習(DRRL)の理論的基礎に貢献する。
この枠組みは、意思決定者に対して、相手が編成した最悪の分散シフトの下で最適な政策を選択することを義務付ける。
このDRMDPフレームワーク内では、動的プログラミング原理(DPP)の存在の有無を調査する。
論文 参考訳(メタデータ) (2023-11-15T15:02:23Z) - A State-Augmented Approach for Learning Optimal Resource Management
Decisions in Wireless Networks [58.720142291102135]
マルチユーザ無線ネットワークにおける無線リソース管理(RRM)問題について考察する。
目標は、ユーザのエルゴード平均パフォーマンスに制約を受けるネットワーク全体のユーティリティ機能を最適化することである。
本稿では, RRM の制約に対応する2変数の集合を入力として, 瞬時ネットワーク状態と並行して, RRM のパラメータ化を提案する。
論文 参考訳(メタデータ) (2022-10-28T21:24:13Z) - Strategic Decision-Making in the Presence of Information Asymmetry:
Provably Efficient RL with Algorithmic Instruments [55.41685740015095]
我々は,戦略MDPと呼ばれる新しいモデルの下で,オフライン強化学習について検討する。
アルゴリズムiNstruments(PLAN)を用いたペシミスティックポリシー学習法を提案する。
論文 参考訳(メタデータ) (2022-08-23T15:32:44Z) - Reinforcement Learning with a Terminator [80.34572413850186]
我々は, TerMDP のパラメータを学習し, 推定問題の構造を活用し, 状態ワイドな信頼境界を提供する。
我々はこれらを用いて証明可能な効率のよいアルゴリズムを構築し、終端を考慮し、その後悔を抑える。
論文 参考訳(メタデータ) (2022-05-30T18:40:28Z) - Generalizing Off-Policy Evaluation From a Causal Perspective For
Sequential Decision-Making [32.06576007608403]
我々は,OPEの基本的な限界を理解する上で,この協会を明確に強調することが重要な意味を持つと主張している。
この関係がどのようにして自然デシラタを動機付け、因果推定の一般的なセットを考えるかを実証する。
我々は,これらの側面を,大規模OPE研究のための実用的なデシラタとして論じるとともに,実用性でインラインで論じる。
論文 参考訳(メタデータ) (2022-01-20T16:13:16Z) - Proximal Reinforcement Learning: Efficient Off-Policy Evaluation in
Partially Observed Markov Decision Processes [65.91730154730905]
医療や教育などの観察データへのオフライン強化学習の適用においては、観察された行動は観測されていない要因に影響される可能性があるという一般的な懸念がある。
ここでは、部分的に観察されたマルコフ決定過程(POMDP)における非政治評価を考慮し、この問題に取り組む。
我々は、近位因果推論の枠組みをPOMDP設定に拡張し、識別が可能となる様々な設定を提供する。
論文 参考訳(メタデータ) (2021-10-28T17:46:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。