論文の概要: Five policy uses of algorithmic transparency and explainability
- arxiv url: http://arxiv.org/abs/2302.03080v2
- Date: Fri, 15 Sep 2023 03:46:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-18 18:46:40.184309
- Title: Five policy uses of algorithmic transparency and explainability
- Title(参考訳): アルゴリズム的透明性と説明可能性の5つの政策利用
- Authors: Matthew O'Shaughnessy
- Abstract要約: 本稿では,ポリシー設定において,アルゴリズムの透明性と説明可能性を用いた5つの方法を示すケーススタディを提案する。
説明のための特定の要件;アルゴリズムの内部統制のための非拘束的ガイドライン;高度に規制された設定に適用可能な規則。
ケーススタディは、特定のタイプの説明のための正確な要件から、より広範な透明性の概念に焦点を当てた非特定の要件まで、幅広い範囲にわたっている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The notion that algorithmic systems should be "transparent" and "explainable"
is common in the many statements of consensus principles developed by
governments, companies, and advocacy organizations. But what exactly do policy
and legal actors want from these technical concepts, and how do their
desiderata compare with the explainability techniques developed in the machine
learning literature? In hopes of better connecting the policy and technical
communities, we provide case studies illustrating five ways in which
algorithmic transparency and explainability have been used in policy settings:
specific requirements for explanations; in nonbinding guidelines for internal
governance of algorithms; in regulations applicable to highly regulated
settings; in guidelines meant to increase the utility of legal liability for
algorithms; and broad requirements for model and data transparency. The case
studies span a spectrum from precise requirements for specific types of
explanations to nonspecific requirements focused on broader notions of
transparency, illustrating the diverse needs, constraints, and capacities of
various policy actors and contexts. Drawing on these case studies, we discuss
promising ways in which transparency and explanation could be used in policy,
as well as common factors limiting policymakers' use of algorithmic
explainability. We conclude with recommendations for researchers and
policymakers.
- Abstract(参考訳): アルゴリズムシステムは「透明」で「説明可能な」という概念は、政府、企業、擁護団体によって開発された合意原則の多くの言明に共通している。
しかし、これらの技術的概念から政策や法的なアクターが正確に何を望んでいるのか、そしてそのデシラタは、機械学習の文献で開発された説明可能性技術とどのように比較するのか?
政策と技術コミュニティをより良く結びつけるために、我々は、アルゴリズムの透明性と説明可能性が政策設定で使用される5つの方法を示すケーススタディを提供する: 説明のための具体的な要件、アルゴリズムの内部ガバナンスのための非拘束的ガイドライン、高度に規制された設定に適用可能な規制、アルゴリズムの法的責任の有効性を高めるためのガイドライン、モデルとデータの透明性に対する幅広い要件。
ケーススタディは、特定のタイプの説明に対する正確な要求から、透明性のより広い概念に焦点を当てた非特定の要求まで、様々な政策担当者や文脈の多様なニーズ、制約、能力を示す範囲にまたがる。
これらのケーススタディに基づき、政策における透明性と説明の活用の有望な方法と、政策立案者のアルゴリズム的説明可能性の使用を制限する共通要因について論じる。
研究者や政策立案者に対する勧告で締めくくります。
関連論文リスト
- Explainability in AI Based Applications: A Framework for Comparing Different Techniques [2.5874041837241304]
ビジネスアプリケーションでは、理解可能性と精度のバランスをとる適切な説明可能性方法を選択することが課題である。
本稿では,異なる説明可能性手法の一致を評価するための新しい手法を提案する。
多様な説明可能性手法の合意を理解するための実践的な枠組みを提供することにより、ビジネスアプリケーションにおける解釈可能なAIシステムのより広範な統合を促進することを目的としている。
論文 参考訳(メタデータ) (2024-10-28T09:45:34Z) - Leveraging Counterfactual Paths for Contrastive Explanations of POMDP Policies [2.4332936182093197]
XAIは、エージェント行動の説明を提供することで、混乱を減らし、システムの信頼を高めることを目的としている。
POMDPは、遷移と状態の不確実性を推論できる柔軟なフレームワークを提供する。
本研究は,POMDPポリシーの対照的な説明を生成するために,ユーザが提供する反ファクトファクトの活用について検討する。
論文 参考訳(メタデータ) (2024-03-28T18:19:38Z) - Explainability in AI Policies: A Critical Review of Communications,
Reports, Regulations, and Standards in the EU, US, and UK [1.5039745292757671]
我々は、EU、米国、英国における説明可能性に関する政策と標準に関する最初のテーマとギャップの分析を行う。
政策は、しばしば説明のための粗い概念と要求によって知らされる。
本稿では,AIシステムの規則における説明可能性への対処法を提案する。
論文 参考訳(メタデータ) (2023-04-20T07:53:07Z) - Users are the North Star for AI Transparency [111.5679109784322]
透明な人工知能システムを求める声が広まっているにもかかわらず、この用語は、厳密な政策の目的や具体的な研究ラインのオリエント化を表すために、多義的な意味に過大評価されている。
このことが起こる理由の1つは、AI透明性の明確な理想が、この仕事の体で実現されないことである。
透明性はユーザ中心で、ユーザ指向で、誠実です。
論文 参考訳(メタデータ) (2023-03-09T18:53:29Z) - Bounded Robustness in Reinforcement Learning via Lexicographic
Objectives [54.00072722686121]
強化学習における政策の堅牢性は、いかなるコストでも望ましいものではないかもしれない。
本研究では,任意の観測ノイズに対して,政策が最大限に頑健になる方法について検討する。
本稿では,どのような政策アルゴリズムにも適用可能なロバストネス誘導方式を提案する。
論文 参考訳(メタデータ) (2022-09-30T08:53:18Z) - Transparency, Compliance, And Contestability When Code Is(n't) Law [91.85674537754346]
技術的なセキュリティ機構と法的なプロセスの両方が、一連の規範に従って誤った行動を扱うメカニズムとして機能する。
彼らは一般的な類似点を共有しているが、どう定義されているか、行動し、被験者に与える影響にも明確な違いがある。
本稿では,両機構の類似点と相違点を,誤動作の対処方法として考察する。
論文 参考訳(メタデータ) (2022-05-08T18:03:07Z) - Post-Hoc Explanations Fail to Achieve their Purpose in Adversarial
Contexts [12.552080951754963]
既存の計画された法律は、機械学習アルゴリズムに関する情報を提供するための様々な義務を規定している。
多くの研究者がこの目的のためにポストホックな説明アルゴリズムを使うことを提案する。
法則の目的を達成するには,ポストホックな説明アルゴリズムが適さないことを示す。
論文 参考訳(メタデータ) (2022-01-25T13:12:02Z) - Is Disentanglement all you need? Comparing Concept-based &
Disentanglement Approaches [24.786152654589067]
概念に基づく説明と非絡み合いのアプローチの概要を述べる。
両クラスからの最先端のアプローチは、データ非効率、分類/回帰タスクの特定の性質に敏感、あるいは採用した概念表現に敏感であることを示す。
論文 参考訳(メタデータ) (2021-04-14T15:06:34Z) - Dimensions of Transparency in NLP Applications [64.16277166331298]
aiシステムに関する記述とコミュニケーションに関する幅広い透明性が望ましいと考えられている。
以前の研究は、システムの透明性向上とユーザの混乱の間にトレードオフが存在することを示唆している。
論文 参考訳(メタデータ) (2021-01-02T11:46:17Z) - Privacy-Constrained Policies via Mutual Information Regularized Policy Gradients [54.98496284653234]
報酬を最大化しつつ、行動を通じて特定の機密状態変数の開示を最小限に抑えながら、報酬を最大化する政策を訓練する課題を考察する。
本稿では, 感性状態と行動の相互情報に基づく正則化器を導入することで, この問題を解決する。
プライバシ制約のあるポリシーを最適化するためのモデルベース推定器を開発した。
論文 参考訳(メタデータ) (2020-12-30T03:22:35Z) - Preventing Imitation Learning with Adversarial Policy Ensembles [79.81807680370677]
模倣学習は、政策プライバシに関する問題を引き起こす専門家を観察することで、ポリシーを再現することができる。
プロプライエタリなポリシーをクローンする外部オブザーバに対して、どうすれば保護できるのか?
新しい強化学習フレームワークを導入し、準最適政策のアンサンブルを訓練する。
論文 参考訳(メタデータ) (2020-01-31T01:57:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。