論文の概要: Unlocking the Black Box: Analysing the EU Artificial Intelligence Act's Framework for Explainability in AI
- arxiv url: http://arxiv.org/abs/2502.14868v1
- Date: Fri, 24 Jan 2025 16:30:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-02 04:52:15.066252
- Title: Unlocking the Black Box: Analysing the EU Artificial Intelligence Act's Framework for Explainability in AI
- Title(参考訳): ブラックボックスのアンロック:EU人工知能法のAIにおける説明可能性フレームワークの分析
- Authors: Georgios Pavlidis,
- Abstract要約: eXplainable AI(XAI)の必要性は、医療、信用スコアリング、警察、刑事司法制度などの分野において明らかである。
EUレベルでは、説明可能性の概念は、AI法を支える基本的な原則の1つである。
本稿では,AIガバナンスと政策における説明可能性の原則を実装する上での課題とともに,XAIの推進を約束する様々なアプローチとテクニックについて考察する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The lack of explainability of Artificial Intelligence (AI) is one of the first obstacles that the industry and regulators must overcome to mitigate the risks associated with the technology. The need for eXplainable AI (XAI) is evident in fields where accountability, ethics and fairness are critical, such as healthcare, credit scoring, policing and the criminal justice system. At the EU level, the notion of explainability is one of the fundamental principles that underpin the AI Act, though the exact XAI techniques and requirements are still to be determined and tested in practice. This paper explores various approaches and techniques that promise to advance XAI, as well as the challenges of implementing the principle of explainability in AI governance and policies. Finally, the paper examines the integration of XAI into EU law, emphasising the issues of standard setting, oversight, and enforcement.
- Abstract(参考訳): 人工知能(AI)の説明可能性の欠如は、業界と規制当局がテクノロジーに関連するリスクを軽減するために克服しなければならない最初の障害の1つである。
eXplainable AI(XAI)の必要性は、医療、信用スコア、警察、刑事司法制度など、説明責任、倫理、公正性が重要である分野において明らかである。
EUレベルでは、説明可能性の概念はAI法を支える基本的な原則の1つだが、正確なXAI技術と要件はまだ決定され、実際にテストされる。
本稿では,AIガバナンスと政策における説明可能性の原則を実装する上での課題とともに,XAIの推進を約束する様々なアプローチとテクニックについて考察する。
最後に、XAIのEU法への統合について検討し、標準設定、監視、執行の課題を強調した。
関連論文リスト
- The Fundamental Rights Impact Assessment (FRIA) in the AI Act: Roots, legal obligations and key elements for a model template [55.2480439325792]
基本権利影響評価(FRIA)の理論的・方法論的検討における既存のギャップを埋めることを目的とする。
この記事では、FRIAのモデルテンプレートの主要なビルディングブロックについて概説する。
これは、AIが人権と完全に整合していることを保証するために、他の国家および国際規制イニシアチブの青写真として機能する。
論文 参考訳(メタデータ) (2024-11-07T11:55:55Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - The Artificial Intelligence Act: critical overview [0.0]
この記事では、最近承認された人工知能法を概観する。
これはまず、2024/1689年のEU(Regulation)の主要な構造、目的、アプローチを示すことから始まる。
テキストは、全体的なフレームワークが適切かつバランスが取れたとしても、アプローチは非常に複雑であり、それ自体の目的を損なうリスクがある、と結論付けている。
論文 参考訳(メタデータ) (2024-08-30T21:38:02Z) - Open Problems in Technical AI Governance [93.89102632003996]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - False Sense of Security in Explainable Artificial Intelligence (XAI) [3.298597939573779]
我々は、AI規制と現在の市場条件が効果的なAIガバナンスと安全性を脅かすと主張している。
政府は明確な立法と政策ステートメントを通じて説明可能性の問題に明示的に対処しない限り、AIガバナンスのリスクは空虚な「ボックス・ティック」のエクササイズになる。
論文 参考訳(メタデータ) (2024-05-06T20:02:07Z) - How should AI decisions be explained? Requirements for Explanations from the Perspective of European Law [0.20971479389679337]
本稿は、国際的概念や規制はあるものの、ヨーロッパ(および一部ドイツ人)の法律に焦点をあてる。
XAI-タコノミに基づき、XAI(メソッド)の要件はそれぞれの法的根拠から導かれる。
論文 参考訳(メタデータ) (2024-04-19T10:08:28Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Explainable AI is Responsible AI: How Explainability Creates Trustworthy
and Socially Responsible Artificial Intelligence [9.844540637074836]
これは責任あるAIのトピックであり、信頼できるAIシステムを開発する必要性を強調している。
XAIは、責任あるAI(RAI)のためのビルディングブロックとして広く考えられている。
以上の結果から,XAIはRAIのすべての柱にとって不可欠な基盤である,という結論に至った。
論文 参考訳(メタデータ) (2023-12-04T00:54:04Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。