論文の概要: Five policy uses of algorithmic explainability
- arxiv url: http://arxiv.org/abs/2302.03080v1
- Date: Mon, 6 Feb 2023 19:34:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-08 18:21:12.215347
- Title: Five policy uses of algorithmic explainability
- Title(参考訳): アルゴリズム的説明可能性の5つの政策利用
- Authors: Matthew O'Shaughnessy
- Abstract要約: アルゴリズムシステムは「説明可能」であるべきだ
政策や法的アクターは説明責任から何を求めているのか?
それらのデシラタは、機械学習の文献で開発された説明可能性技術とどのように比較しますか?
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The notion that algorithmic systems should be "explainable" is common in the
many statements of consensus principles developed by governments, companies,
and advocacy organizations. But what exactly do these policy and legal actors
want from explainability, and how do their desiderata compare with the
explainability techniques developed in the machine learning literature? We
explore this question in hopes of better connecting the policy and technical
communities. We outline five settings in which policymakers seek to use
explainability: complying with specific requirements for explanation; helping
to obtain regulatory approval in highly regulated settings; enabling or
interfacing with liability; flexibly managing risk as part of a self-regulatory
process; and providing model and data transparency. We illustrate each setting
with an in-depth case study contextualizing the purpose and role of
explanation. Drawing on these case studies, we discuss common factors limiting
policymakers' use of explanation and promising ways in which explanation can be
used in policy. We conclude with recommendations for researchers and
policymakers.
- Abstract(参考訳): アルゴリズムシステムは「説明可能」であるべきだという考えは、政府、企業、擁護団体によって開発された合意原則の多くの言明に共通している。
しかし、これらのポリシーと法的なアクターは、説明可能性から何を求めているのか、そして機械学習の文献で開発された説明可能性技術とどのように比較するのか?
我々は、政策と技術コミュニティのより良い結合を期待して、この問題を探究する。
政策立案者が説明可能性を利用することを目指す5つの設定を概説する。説明のための特定の要件を遵守すること、高度に規制された設定で規制当局の承認を得るのを助けること、責任を許容またはinterfaceすること、自己統制プロセスの一部としてリスクを柔軟に管理すること、モデルとデータの透明性を提供すること。
説明の目的と役割をコンテキスト化した詳細なケーススタディで各設定を説明する。
これらのケーススタディをもとに,政策立案者による説明の使用を制限する共通要因と,説明が政策で使用可能な有望な方法について議論する。
研究者や政策立案者に対する勧告で締めくくります。
関連論文リスト
- Explainability in AI Based Applications: A Framework for Comparing Different Techniques [2.5874041837241304]
ビジネスアプリケーションでは、理解可能性と精度のバランスをとる適切な説明可能性方法を選択することが課題である。
本稿では,異なる説明可能性手法の一致を評価するための新しい手法を提案する。
多様な説明可能性手法の合意を理解するための実践的な枠組みを提供することにより、ビジネスアプリケーションにおける解釈可能なAIシステムのより広範な統合を促進することを目的としている。
論文 参考訳(メタデータ) (2024-10-28T09:45:34Z) - Leveraging Counterfactual Paths for Contrastive Explanations of POMDP Policies [2.4332936182093197]
XAIは、エージェント行動の説明を提供することで、混乱を減らし、システムの信頼を高めることを目的としている。
POMDPは、遷移と状態の不確実性を推論できる柔軟なフレームワークを提供する。
本研究は,POMDPポリシーの対照的な説明を生成するために,ユーザが提供する反ファクトファクトの活用について検討する。
論文 参考訳(メタデータ) (2024-03-28T18:19:38Z) - Explainability in AI Policies: A Critical Review of Communications,
Reports, Regulations, and Standards in the EU, US, and UK [1.5039745292757671]
我々は、EU、米国、英国における説明可能性に関する政策と標準に関する最初のテーマとギャップの分析を行う。
政策は、しばしば説明のための粗い概念と要求によって知らされる。
本稿では,AIシステムの規則における説明可能性への対処法を提案する。
論文 参考訳(メタデータ) (2023-04-20T07:53:07Z) - Users are the North Star for AI Transparency [111.5679109784322]
透明な人工知能システムを求める声が広まっているにもかかわらず、この用語は、厳密な政策の目的や具体的な研究ラインのオリエント化を表すために、多義的な意味に過大評価されている。
このことが起こる理由の1つは、AI透明性の明確な理想が、この仕事の体で実現されないことである。
透明性はユーザ中心で、ユーザ指向で、誠実です。
論文 参考訳(メタデータ) (2023-03-09T18:53:29Z) - Bounded Robustness in Reinforcement Learning via Lexicographic
Objectives [54.00072722686121]
強化学習における政策の堅牢性は、いかなるコストでも望ましいものではないかもしれない。
本研究では,任意の観測ノイズに対して,政策が最大限に頑健になる方法について検討する。
本稿では,どのような政策アルゴリズムにも適用可能なロバストネス誘導方式を提案する。
論文 参考訳(メタデータ) (2022-09-30T08:53:18Z) - Transparency, Compliance, And Contestability When Code Is(n't) Law [91.85674537754346]
技術的なセキュリティ機構と法的なプロセスの両方が、一連の規範に従って誤った行動を扱うメカニズムとして機能する。
彼らは一般的な類似点を共有しているが、どう定義されているか、行動し、被験者に与える影響にも明確な違いがある。
本稿では,両機構の類似点と相違点を,誤動作の対処方法として考察する。
論文 参考訳(メタデータ) (2022-05-08T18:03:07Z) - Post-Hoc Explanations Fail to Achieve their Purpose in Adversarial
Contexts [12.552080951754963]
既存の計画された法律は、機械学習アルゴリズムに関する情報を提供するための様々な義務を規定している。
多くの研究者がこの目的のためにポストホックな説明アルゴリズムを使うことを提案する。
法則の目的を達成するには,ポストホックな説明アルゴリズムが適さないことを示す。
論文 参考訳(メタデータ) (2022-01-25T13:12:02Z) - Is Disentanglement all you need? Comparing Concept-based &
Disentanglement Approaches [24.786152654589067]
概念に基づく説明と非絡み合いのアプローチの概要を述べる。
両クラスからの最先端のアプローチは、データ非効率、分類/回帰タスクの特定の性質に敏感、あるいは採用した概念表現に敏感であることを示す。
論文 参考訳(メタデータ) (2021-04-14T15:06:34Z) - Dimensions of Transparency in NLP Applications [64.16277166331298]
aiシステムに関する記述とコミュニケーションに関する幅広い透明性が望ましいと考えられている。
以前の研究は、システムの透明性向上とユーザの混乱の間にトレードオフが存在することを示唆している。
論文 参考訳(メタデータ) (2021-01-02T11:46:17Z) - Privacy-Constrained Policies via Mutual Information Regularized Policy Gradients [54.98496284653234]
報酬を最大化しつつ、行動を通じて特定の機密状態変数の開示を最小限に抑えながら、報酬を最大化する政策を訓練する課題を考察する。
本稿では, 感性状態と行動の相互情報に基づく正則化器を導入することで, この問題を解決する。
プライバシ制約のあるポリシーを最適化するためのモデルベース推定器を開発した。
論文 参考訳(メタデータ) (2020-12-30T03:22:35Z) - Preventing Imitation Learning with Adversarial Policy Ensembles [79.81807680370677]
模倣学習は、政策プライバシに関する問題を引き起こす専門家を観察することで、ポリシーを再現することができる。
プロプライエタリなポリシーをクローンする外部オブザーバに対して、どうすれば保護できるのか?
新しい強化学習フレームワークを導入し、準最適政策のアンサンブルを訓練する。
論文 参考訳(メタデータ) (2020-01-31T01:57:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。