論文の概要: Bridging the Transparency Gap: What Can Explainable AI Learn From the AI
Act?
- arxiv url: http://arxiv.org/abs/2302.10766v5
- Date: Sat, 29 Jul 2023 21:28:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-01 23:36:51.031598
- Title: Bridging the Transparency Gap: What Can Explainable AI Learn From the AI
Act?
- Title(参考訳): 透明性ギャップのブリッジ: 説明可能なAIはAI法から何を学ぶことができるのか?
- Authors: Balint Gyevnar, Nick Ferguson, Burkhard Schafer
- Abstract要約: 欧州連合は、AIシステムの透明性に関する詳細な要件を導入している。
XAIと透明性に関する法律には根本的な違いがある。
XAIと規制の異なる見解を比較することで、実践的な作業が透明性のギャップを埋める可能性のある4つの軸に到達します。
- 参考スコア(独自算出の注目度): 0.8287206589886881
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The European Union has proposed the Artificial Intelligence Act which
introduces detailed requirements of transparency for AI systems. Many of these
requirements can be addressed by the field of explainable AI (XAI), however,
there is a fundamental difference between XAI and the Act regarding what
transparency is. The Act views transparency as a means that supports wider
values, such as accountability, human rights, and sustainable innovation. In
contrast, XAI views transparency narrowly as an end in itself, focusing on
explaining complex algorithmic properties without considering the
socio-technical context. We call this difference the ``transparency gap''.
Failing to address the transparency gap, XAI risks leaving a range of
transparency issues unaddressed. To begin to bridge this gap, we overview and
clarify the terminology of how XAI and European regulation -- the Act and the
related General Data Protection Regulation (GDPR) -- view basic definitions of
transparency. By comparing the disparate views of XAI and regulation, we arrive
at four axes where practical work could bridge the transparency gap: defining
the scope of transparency, clarifying the legal status of XAI, addressing
issues with conformity assessment, and building explainability for datasets.
- Abstract(参考訳): 欧州連合は、AIシステムの透明性に関する詳細な要件を導入する人工知能法を提案した。
これらの要件の多くは、説明可能なAI(XAI)の分野によって対処できるが、透明性に関する法律とXAIの間には根本的な違いがある。
この法律は透明性を、説明責任、人権、持続可能なイノベーションなど、より広い価値をサポートする手段と見なしている。
対照的にxaiは透明性を狭義の終わりと見ており、社会技術的文脈を考慮せずに複雑なアルゴリズム特性を説明することに焦点を当てている。
私たちはこの違いを '`transparency gap'' と呼びます。
透明性のギャップに対処できないため、XAIはさまざまな透明性問題を未解決のまま残すリスクを負う。
このギャップを埋めるため、我々は透明性の基本的な定義をxaiと欧州の規制 -- 法と関連する一般データ保護規則 (gdpr) -- の用語を概観し、明確化する。
XAIと規制の異なる見解を比較することで、透明性の範囲の定義、XAIの法的地位の明確化、適合性評価の問題への対処、データセットの説明可能性の構築という、実践的な作業が透明性ギャップを埋める4つの軸に到達します。
関連論文リスト
- Algorithmic Transparency and Participation through the Handoff Lens: Lessons Learned from the U.S. Census Bureau's Adoption of Differential Privacy [1.999925939110439]
我々は、2020年国勢調査のための情報開示回避システムにおいて、米国国勢調査局による差分プライバシーの採用について検討する。
このケーススタディは、技術的なシフトが価値をどう意味するかについての理解を深めようとしている。
このケーススタディから,アルゴリズムの透明性と参加に関する理解を深めるための3つの教訓を提示する。
論文 参考訳(メタデータ) (2024-05-29T15:29:16Z) - False Sense of Security in Explainable Artificial Intelligence (XAI) [3.298597939573779]
我々は、AI規制と現在の市場条件が効果的なAIガバナンスと安全性を脅かすと主張している。
政府は明確な立法と政策ステートメントを通じて説明可能性の問題に明示的に対処しない限り、AIガバナンスのリスクは空虚な「ボックス・ティック」のエクササイズになる。
論文 参考訳(メタデータ) (2024-05-06T20:02:07Z) - Foundation Model Transparency Reports [61.313836337206894]
本稿では,ソーシャルメディアにおける透明性レポートの実践を参考に,基礎モデル透明性レポートを提案する。
ソーシャルメディアの透明性レポートの成功と欠点から、6つの設計原則を特定します。
十分に設計された透明性レポートは、規制要件の重複によるコンプライアンスコストの低減につながる可能性がある。
論文 参考訳(メタデータ) (2024-02-26T03:09:06Z) - Explainable AI is Responsible AI: How Explainability Creates Trustworthy
and Socially Responsible Artificial Intelligence [9.844540637074836]
これは責任あるAIのトピックであり、信頼できるAIシステムを開発する必要性を強調している。
XAIは、責任あるAI(RAI)のためのビルディングブロックとして広く考えられている。
以上の結果から,XAIはRAIのすべての柱にとって不可欠な基盤である,という結論に至った。
論文 参考訳(メタデータ) (2023-12-04T00:54:04Z) - Users are the North Star for AI Transparency [111.5679109784322]
透明な人工知能システムを求める声が広まっているにもかかわらず、この用語は、厳密な政策の目的や具体的な研究ラインのオリエント化を表すために、多義的な意味に過大評価されている。
このことが起こる理由の1つは、AI透明性の明確な理想が、この仕事の体で実現されないことである。
透明性はユーザ中心で、ユーザ指向で、誠実です。
論文 参考訳(メタデータ) (2023-03-09T18:53:29Z) - Think About the Stakeholders First! Towards an Algorithmic Transparency
Playbook for Regulatory Compliance [14.043062659347427]
世界中の政府によって、公共および民間セクターに導入された人工知能(AI)システムを規制するための法律が提案され、可決されている。
これらの規則の多くは、AIシステムの透明性と、関連する市民意識の問題に対処している。
我々は,透明で規制に適合したシステムを設計する上で,技術者を支援する新たな利害関係者優先のアプローチを提案する。
論文 参考訳(メタデータ) (2022-06-10T09:39:00Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Trustworthy Transparency by Design [57.67333075002697]
本稿では,ユーザ信頼とエクスペリエンスに関する研究を取り入れた,ソフトウェア設計のための透明性フレームワークを提案する。
私たちのフレームワークは、その設計に透明性を取り入れたソフトウェアの開発を可能にします。
論文 参考訳(メタデータ) (2021-03-19T12:34:01Z) - Dimensions of Transparency in NLP Applications [64.16277166331298]
aiシステムに関する記述とコミュニケーションに関する幅広い透明性が望ましいと考えられている。
以前の研究は、システムの透明性向上とユーザの混乱の間にトレードオフが存在することを示唆している。
論文 参考訳(メタデータ) (2021-01-02T11:46:17Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。