論文の概要: Get Your Act Together: A Comparative View on Transparency in the AI Act
and Technology
- arxiv url: http://arxiv.org/abs/2302.10766v4
- Date: Thu, 11 May 2023 01:26:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-12 11:21:20.497989
- Title: Get Your Act Together: A Comparative View on Transparency in the AI Act
and Technology
- Title(参考訳): get your act together: ai act and technologyにおける透明性に関する比較見解
- Authors: Balint Gyevnar, Nick Ferguson, and Burkhard Schafer
- Abstract要約: 欧州連合はAI規制に比例的なリスクベースのアプローチを導入する人工知能法を提案した。
これらの要件の多くは、説明可能なAI(XAI)の分野によって実際に対処される可能性がある。
これらの基本的な定義は、規制と規制が継続的に適切な技術的慣行に変換されることを保証するように調整されるべきである。
- 参考スコア(独自算出の注目度): 0.7373617024876725
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The European Union has proposed the Artificial Intelligence Act which
introduces a proportional risk-based approach to AI regulation including
detailed requirements for transparency and explainability. Many of these
requirements may be addressed in practice by the field of explainable AI (XAI),
however, there are fundamental differences between XAI and the Act regarding
what transparency and explainability are. These basic definitions should be
aligned to assure that regulation continually translates into appropriate
technical practices. To facilitate this alignment, we first give an overview of
how XAI and European regulation view basic definitions of transparency with a
particular focus on the AI Act and the related General Data Protection
Regulation (GDPR). We then present a comparison of XAI and regulatory
approaches to identify the main points that would improve alignment between the
fields: clarification of the scope of transparency, the legal status of XAI,
oversight issues in conformity assessments, and dataset-related transparency.
- Abstract(参考訳): 欧州連合は、透明性と説明可能性に関する詳細な要件を含むAI規制に比例するリスクベースのアプローチを導入する人工知能法を提案した。
これらの要件の多くは、実際に説明可能なAI(XAI)の分野によって解決されるかもしれないが、透明性と説明可能性について、XAIと法の間には根本的な違いがある。
これらの基本的な定義は、規制が継続的に適切な技術的プラクティスに変換されることを保証するために一致すべきである。
この調整を容易にするために、まず、AI法と関連する一般データ保護規則(GDPR)に特に焦点をあてて、XAIと欧州の規制が透明性の基本的な定義をどのように見ているかの概要を示す。
次に、XAIと規制アプローチを比較して、透明性の範囲の明確化、XAIの法的地位、整合性評価の問題の監視、データセット関連透明性といった分野間の整合性を改善する主要なポイントを特定する。
関連論文リスト
- Algorithmic Transparency and Participation through the Handoff Lens: Lessons Learned from the U.S. Census Bureau's Adoption of Differential Privacy [1.999925939110439]
我々は、2020年国勢調査のための情報開示回避システムにおいて、米国国勢調査局による差分プライバシーの採用について検討する。
このケーススタディは、技術的なシフトが価値をどう意味するかについての理解を深めようとしている。
このケーススタディから,アルゴリズムの透明性と参加に関する理解を深めるための3つの教訓を提示する。
論文 参考訳(メタデータ) (2024-05-29T15:29:16Z) - False Sense of Security in Explainable Artificial Intelligence (XAI) [3.298597939573779]
我々は、AI規制と現在の市場条件が効果的なAIガバナンスと安全性を脅かすと主張している。
政府は明確な立法と政策ステートメントを通じて説明可能性の問題に明示的に対処しない限り、AIガバナンスのリスクは空虚な「ボックス・ティック」のエクササイズになる。
論文 参考訳(メタデータ) (2024-05-06T20:02:07Z) - Foundation Model Transparency Reports [61.313836337206894]
本稿では,ソーシャルメディアにおける透明性レポートの実践を参考に,基礎モデル透明性レポートを提案する。
ソーシャルメディアの透明性レポートの成功と欠点から、6つの設計原則を特定します。
十分に設計された透明性レポートは、規制要件の重複によるコンプライアンスコストの低減につながる可能性がある。
論文 参考訳(メタデータ) (2024-02-26T03:09:06Z) - Explainable AI is Responsible AI: How Explainability Creates Trustworthy
and Socially Responsible Artificial Intelligence [9.844540637074836]
これは責任あるAIのトピックであり、信頼できるAIシステムを開発する必要性を強調している。
XAIは、責任あるAI(RAI)のためのビルディングブロックとして広く考えられている。
以上の結果から,XAIはRAIのすべての柱にとって不可欠な基盤である,という結論に至った。
論文 参考訳(メタデータ) (2023-12-04T00:54:04Z) - Users are the North Star for AI Transparency [111.5679109784322]
透明な人工知能システムを求める声が広まっているにもかかわらず、この用語は、厳密な政策の目的や具体的な研究ラインのオリエント化を表すために、多義的な意味に過大評価されている。
このことが起こる理由の1つは、AI透明性の明確な理想が、この仕事の体で実現されないことである。
透明性はユーザ中心で、ユーザ指向で、誠実です。
論文 参考訳(メタデータ) (2023-03-09T18:53:29Z) - Think About the Stakeholders First! Towards an Algorithmic Transparency
Playbook for Regulatory Compliance [14.043062659347427]
世界中の政府によって、公共および民間セクターに導入された人工知能(AI)システムを規制するための法律が提案され、可決されている。
これらの規則の多くは、AIシステムの透明性と、関連する市民意識の問題に対処している。
我々は,透明で規制に適合したシステムを設計する上で,技術者を支援する新たな利害関係者優先のアプローチを提案する。
論文 参考訳(メタデータ) (2022-06-10T09:39:00Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Trustworthy Transparency by Design [57.67333075002697]
本稿では,ユーザ信頼とエクスペリエンスに関する研究を取り入れた,ソフトウェア設計のための透明性フレームワークを提案する。
私たちのフレームワークは、その設計に透明性を取り入れたソフトウェアの開発を可能にします。
論文 参考訳(メタデータ) (2021-03-19T12:34:01Z) - Dimensions of Transparency in NLP Applications [64.16277166331298]
aiシステムに関する記述とコミュニケーションに関する幅広い透明性が望ましいと考えられている。
以前の研究は、システムの透明性向上とユーザの混乱の間にトレードオフが存在することを示唆している。
論文 参考訳(メタデータ) (2021-01-02T11:46:17Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。