論文の概要: Aligning Explainable AI and the Law: The European Perspective
- arxiv url: http://arxiv.org/abs/2302.10766v2
- Date: Wed, 22 Feb 2023 16:26:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-23 12:09:25.593747
- Title: Aligning Explainable AI and the Law: The European Perspective
- Title(参考訳): 説明可能なAIと法則の調整:欧州の展望
- Authors: Balint Gyevnar and Nick Ferguson
- Abstract要約: XAIが提供するソリューションとAI法の要件との間には、大きな違いがある。
我々は、これらの違いに対処するために、弁護士とXAI研究者の協力が不可欠であると主張している。
- 参考スコア(独自算出の注目度): 0.9790236766474201
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The European Union has proposed the Artificial Intelligence Act intending to
regulate AI systems, especially those used in high-risk, safety-critical
applications such as healthcare. Among the Act's articles are detailed
requirements for transparency and explainability. The field of explainable AI
(XAI) offers technologies that could address many of these requirements.
However, there are significant differences between the solutions offered by XAI
and the requirements of the AI Act, for instance, the lack of an explicit
definition of transparency. We argue that collaboration is essential between
lawyers and XAI researchers to address these differences. To establish common
ground, we give an overview of XAI and its legal relevance followed by a
reading of the transparency and explainability requirements of the AI Act and
the related General Data Protection Regulation (GDPR). We then discuss four
main topics where the differences could induce issues. Specifically, the legal
status of XAI, the lack of a definition of transparency, issues around
conformity assessments, and the use of XAI for dataset-related transparency. We
hope that increased clarity will promote interdisciplinary research between the
law and XAI and support the creation of a sustainable regulation that fosters
responsible innovation.
- Abstract(参考訳): 欧州連合(eu)は、aiシステム、特に医療などのリスクの高い安全クリティカルなアプリケーションで使用されるものを規制する人工知能法を提案した。
法律の論文には透明性と説明可能性に関する詳細な要件がある。
説明可能なAI(XAI)の分野は、これらの要求の多くに対処できる技術を提供している。
しかしながら、XAIが提供するソリューションとAI Actの要件との間には、明確な透明性の定義の欠如など、大きな違いがある。
我々は、これらの違いに対処するために、弁護士とXAI研究者の協力が不可欠であると主張している。
共通基盤を確立するため、XAIとその法的関連性の概要と、AI法及び関連する一般データ保護規則(GDPR)の透明性と説明可能性要件の読解について述べる。
次に、違いが問題を引き起こす可能性のある4つの主要なトピックについて論じる。
具体的には、XAIの法的地位、透明性の定義の欠如、適合性評価に関する問題、データセット関連の透明性にXAIを使用する。
明確化が法律とXAIの学際的な研究を促進し、責任あるイノベーションを促進する持続可能な規制の創出を支援することを願っている。
関連論文リスト
- Algorithmic Transparency and Participation through the Handoff Lens: Lessons Learned from the U.S. Census Bureau's Adoption of Differential Privacy [1.999925939110439]
我々は、2020年国勢調査のための情報開示回避システムにおいて、米国国勢調査局による差分プライバシーの採用について検討する。
このケーススタディは、技術的なシフトが価値をどう意味するかについての理解を深めようとしている。
このケーススタディから,アルゴリズムの透明性と参加に関する理解を深めるための3つの教訓を提示する。
論文 参考訳(メタデータ) (2024-05-29T15:29:16Z) - False Sense of Security in Explainable Artificial Intelligence (XAI) [3.298597939573779]
我々は、AI規制と現在の市場条件が効果的なAIガバナンスと安全性を脅かすと主張している。
政府は明確な立法と政策ステートメントを通じて説明可能性の問題に明示的に対処しない限り、AIガバナンスのリスクは空虚な「ボックス・ティック」のエクササイズになる。
論文 参考訳(メタデータ) (2024-05-06T20:02:07Z) - Foundation Model Transparency Reports [61.313836337206894]
本稿では,ソーシャルメディアにおける透明性レポートの実践を参考に,基礎モデル透明性レポートを提案する。
ソーシャルメディアの透明性レポートの成功と欠点から、6つの設計原則を特定します。
十分に設計された透明性レポートは、規制要件の重複によるコンプライアンスコストの低減につながる可能性がある。
論文 参考訳(メタデータ) (2024-02-26T03:09:06Z) - Explainable AI is Responsible AI: How Explainability Creates Trustworthy
and Socially Responsible Artificial Intelligence [9.844540637074836]
これは責任あるAIのトピックであり、信頼できるAIシステムを開発する必要性を強調している。
XAIは、責任あるAI(RAI)のためのビルディングブロックとして広く考えられている。
以上の結果から,XAIはRAIのすべての柱にとって不可欠な基盤である,という結論に至った。
論文 参考訳(メタデータ) (2023-12-04T00:54:04Z) - Users are the North Star for AI Transparency [111.5679109784322]
透明な人工知能システムを求める声が広まっているにもかかわらず、この用語は、厳密な政策の目的や具体的な研究ラインのオリエント化を表すために、多義的な意味に過大評価されている。
このことが起こる理由の1つは、AI透明性の明確な理想が、この仕事の体で実現されないことである。
透明性はユーザ中心で、ユーザ指向で、誠実です。
論文 参考訳(メタデータ) (2023-03-09T18:53:29Z) - Think About the Stakeholders First! Towards an Algorithmic Transparency
Playbook for Regulatory Compliance [14.043062659347427]
世界中の政府によって、公共および民間セクターに導入された人工知能(AI)システムを規制するための法律が提案され、可決されている。
これらの規則の多くは、AIシステムの透明性と、関連する市民意識の問題に対処している。
我々は,透明で規制に適合したシステムを設計する上で,技術者を支援する新たな利害関係者優先のアプローチを提案する。
論文 参考訳(メタデータ) (2022-06-10T09:39:00Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Trustworthy Transparency by Design [57.67333075002697]
本稿では,ユーザ信頼とエクスペリエンスに関する研究を取り入れた,ソフトウェア設計のための透明性フレームワークを提案する。
私たちのフレームワークは、その設計に透明性を取り入れたソフトウェアの開発を可能にします。
論文 参考訳(メタデータ) (2021-03-19T12:34:01Z) - Dimensions of Transparency in NLP Applications [64.16277166331298]
aiシステムに関する記述とコミュニケーションに関する幅広い透明性が望ましいと考えられている。
以前の研究は、システムの透明性向上とユーザの混乱の間にトレードオフが存在することを示唆している。
論文 参考訳(メタデータ) (2021-01-02T11:46:17Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。