論文の概要: Reviewable Automated Decision-Making: A Framework for Accountable
Algorithmic Systems
- arxiv url: http://arxiv.org/abs/2102.04201v2
- Date: Wed, 10 Feb 2021 11:48:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-14 06:29:39.285104
- Title: Reviewable Automated Decision-Making: A Framework for Accountable
Algorithmic Systems
- Title(参考訳): Reviewable Automated Decision-Making: a Framework for Accountable Algorithmic Systems
- Authors: Jennifer Cobbe, Michelle Seng Ah Lee, Jatinder Singh
- Abstract要約: 本稿では,adm(automated and algorithmic decision-making)のアカウンタビリティ向上のためのフレームワークとして,reviewabilityを提案する。
我々は、ADMを人間と技術の両方の要素を含む社会技術的プロセスであると理解し、決定が下される前に開始し、決定そのものを超えて拡張する。
我々は、人間の意思決定をレビューする行政法のアプローチに基づいたレビュー可能性枠組みは、admに対してより包括的かつ法的に関連のある説明責任の形式を進めるための実用的な方法であると主張する。
- 参考スコア(独自算出の注目度): 1.7403133838762448
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces reviewability as a framework for improving the
accountability of automated and algorithmic decision-making (ADM) involving
machine learning. We draw on an understanding of ADM as a socio-technical
process involving both human and technical elements, beginning before a
decision is made and extending beyond the decision itself. While explanations
and other model-centric mechanisms may assist some accountability concerns,
they often provide insufficient information of these broader ADM processes for
regulatory oversight and assessments of legal compliance. Reviewability
involves breaking down the ADM process into technical and organisational
elements to provide a systematic framework for determining the contextually
appropriate record-keeping mechanisms to facilitate meaningful review - both of
individual decisions and of the process as a whole. We argue that a
reviewability framework, drawing on administrative law's approach to reviewing
human decision-making, offers a practical way forward towards more a more
holistic and legally-relevant form of accountability for ADM.
- Abstract(参考訳): 本稿では,機械学習を含むアルゴリズム的意思決定(adm)のアカウンタビリティ向上のためのフレームワークとして,reviewabilityを提案する。
我々は、ADMを人間と技術の両方の要素を含む社会技術的プロセスであると理解し、決定が下される前に開始し、決定そのものを超えて拡張する。
説明やその他のモデル中心のメカニズムは、いくつかの説明責任の懸念を助長するかもしれないが、規制の監督と法的コンプライアンスの評価のためにこれらの幅広いadmプロセスの不十分な情報を提供することが多い。
レビュー容易性は、ADMプロセスを技術的および組織的な要素に分解して、意味のあるレビューを促進するためにコンテキスト的に適切なレコード管理メカニズムを決定するための体系的なフレームワークを提供する。
我々は、人間の意思決定をレビューする行政法のアプローチに基づいたレビュー可能性枠組みは、admに対してより包括的かつ法的に関連のある説明責任の形式を進めるための実用的な方法であると主張する。
関連論文リスト
- Aiding Humans in Financial Fraud Decision Making: Toward an XAI-Visualization Framework [6.040452803295326]
金融詐欺捜査員は、大量の構造化されていない情報を手動で合成するという課題に直面している。
現在のVisual Analyticsシステムは、主にこのプロセスの独立した側面をサポートしている。
本稿では,金融不正調査のあらゆる段階において,VAシステムが意思決定者を支援する枠組みを提案する。
論文 参考訳(メタデータ) (2024-08-26T18:10:07Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - Accountability in Offline Reinforcement Learning: Explaining Decisions
with a Corpus of Examples [70.84093873437425]
本稿では、オフラインデータセットを決定コーパスとして利用するAOC(Accountable Offline Controller)を紹介する。
AOCはローデータシナリオで効果的に動作し、厳密なオフラインの模倣設定まで拡張でき、保存性と適応性の両方の品質を示す。
シミュレーションおよび実世界の医療シナリオにおいて、AOCのパフォーマンスを評価し、説明責任を維持しながら高いレベルのパフォーマンスでオフライン制御タスクを管理する能力を強調した。
論文 参考訳(メタデータ) (2023-10-11T17:20:32Z) - Rational Decision-Making Agent with Internalized Utility Judgment [91.80700126895927]
大規模言語モデル(LLM)は目覚ましい進歩を示し、従来のNLPアプリケーションを超えて複雑な多段階決定タスクを実行できるエージェントにLLMを開発するための重要な努力を惹きつけている。
本稿では,RadAgentを提案する。このRadAgentは,経験探索とユーティリティ学習を含む反復的なフレームワークを通じて,合理性の発展を促進する。
ToolBenchデータセットの実験結果は、RadAgentがベースラインよりも優れていることを示している。
論文 参考訳(メタデータ) (2023-08-24T03:11:45Z) - The Conflict Between Explainable and Accountable Decision-Making
Algorithms [10.64167691614925]
意思決定アルゴリズムは、誰が医療プログラムに登録され、雇用されるべきかといった重要な決定に使われています。
XAIイニシアチブは、法的要件に準拠し、信頼を促進し、説明責任を維持するために、アルゴリズムを説明可能にすることを目的としている。
本稿では,自律型AIシステムによって引き起こされる責任問題の解決に,説明可能性がどの程度役立つのかを問う。
論文 参考訳(メタデータ) (2022-05-11T07:19:28Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - Ethics-Based Auditing of Automated Decision-Making Systems: Intervention
Points and Policy Implications [0.0]
本稿では,倫理に基づく監査(EBA)の実施が実現可能かつ効果的である状況について概説する。
我々はADMSを、より大規模な社会技術システムの一部とみなし、実現可能かつ効果的であるためには、EBAの手続きが介入ポイントにリンクする必要があることを実証する。
論文 参考訳(メタデータ) (2021-11-08T10:57:26Z) - "A cold, technical decision-maker": Can AI provide explainability,
negotiability, and humanity? [47.36687555570123]
参加者60名からなる5つのワークショップからなるアルゴリズム決定の質的研究の結果を報告する。
意思決定における参加者の人間性に関する考察を議論し,「交渉可能性」という概念を導入する。
論文 参考訳(メタデータ) (2020-12-01T22:36:54Z) - Contestable Black Boxes [10.552465253379134]
本稿では,アルゴリズムブラックボックスが関与する際の競合プロセスに必要な保証の種類について検討する。
本論では, 自動意思決定を評価するための補完的手法を考案した。
論文 参考訳(メタデータ) (2020-06-09T09:09:00Z) - Closing the AI Accountability Gap: Defining an End-to-End Framework for
Internal Algorithmic Auditing [8.155332346712424]
本稿では,人工知能システム開発をエンドツーエンドでサポートするアルゴリズム監査フレームワークを提案する。
提案する監査フレームワークは,大規模人工知能システムの開発と展開において,説明責任のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2020-01-03T20:19:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。