論文の概要: Addressing the Regulatory Gap: Moving Towards an EU AI Audit Ecosystem Beyond the AIA by Including Civil Society
- arxiv url: http://arxiv.org/abs/2403.07904v2
- Date: Fri, 17 May 2024 23:17:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-21 23:00:48.533834
- Title: Addressing the Regulatory Gap: Moving Towards an EU AI Audit Ecosystem Beyond the AIA by Including Civil Society
- Title(参考訳): 規制ギャップに対処する - 市民社会を取り入れたEUのAI監査生態系を目指して
- Authors: David Hartmann, José Renato Laranjeira de Pereira, Chiara Streitbörger, Bettina Berendt,
- Abstract要約: 欧州議会は、プラットフォームとAI製品を規制するためのデジタルサービス法(DSA)と人工知能法(AIA)を提案した。
我々は、サードパーティの監査がどちらの法律にもどの程度含まれているか、また、モデルやデータへのアクセス範囲についてレビューする。
我々は、人工知能法が研究者や市民社会のデータへのアクセスを提供していないという規制のギャップを特定します。
- 参考スコア(独自算出の注目度): 4.9873153106566575
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The European legislature has proposed the Digital Services Act (DSA) and Artificial Intelligence Act (AIA) to regulate platforms and Artificial Intelligence (AI) products. We review to what extent third-party audits are part of both laws and to what extent access to models and data is provided. By considering the value of third-party audits and third-party data access in an audit ecosystem, we identify a regulatory gap in that the Artificial Intelligence Act does not provide access to data for researchers and civil society. Our contributions to the literature include: (1) Defining an AI audit ecosystem that incorporates compliance and oversight. (2) Highlighting a regulatory gap within the DSA and AIA regulatory framework, preventing the establishment of an AI audit ecosystem. (3) Emphasizing that third-party audits by research and civil society must be part of that ecosystem and demand that the AIA include data and model access for certain AI products. We call for the DSA to provide NGOs and investigative journalists with data access to platforms by delegated acts and for adaptions and amendments of the AIA to provide third-party audits and data and model access at least for high-risk systems to close the regulatory gap. Regulations modeled after European Union AI regulations should enable data access and third-party audits, fostering an AI audit ecosystem that promotes compliance and oversight mechanisms.
- Abstract(参考訳): 欧州議会は、プラットフォームと人工知能(AI)製品を規制するためのデジタルサービス法(DSA)と人工知能法(AIA)を提案した。
我々は、サードパーティの監査がどちらの法律にもどの程度含まれているか、また、モデルやデータへのアクセス範囲についてレビューする。
監査エコシステムにおけるサードパーティの監査とサードパーティのデータアクセスの価値を考慮することで、人工知能法が研究者や市民社会にデータへのアクセスを提供していないという規制上のギャップを特定します。
1)コンプライアンスと監視を取り入れたAI監査エコシステムの定義。
2) DSA及びAIA規制枠組みにおける規制ギャップの強調,AI監査エコシステムの確立の防止。
(3)研究・市民社会による第三者監査は、AIAが特定のAI製品にデータとモデルアクセスを含むことを要求するエコシステムの一部でなければならないことを強調する。
我々は、規制ギャップを埋めるために、少なくともリスクの高いシステムに対して、NGOや調査ジャーナリストに委任された行為によるプラットフォームへのデータアクセスを提供し、サードパーティの監査とデータおよびモデルアクセスを提供するためのAIAの適応と修正を要請する。
欧州連合(EU)のAI規制をモデルとした規制は、データアクセスとサードパーティの監査を可能にし、コンプライアンスと監視メカニズムを促進するAI監査エコシステムを育成する。
関連論文リスト
- Auditing of AI: Legal, Ethical and Technical Approaches [0.0]
AI監査は、研究と実践の急速に成長している分野である。
AI監査に対する異なるアプローチには、さまざまな余裕と制約がある。
AIガバナンスメカニズムとしての監査の進化における次のステップは、これらの利用可能なアプローチのインターリンクであるべきです。
論文 参考訳(メタデータ) (2024-07-07T12:49:58Z) - A Blueprint for Auditing Generative AI [0.9999629695552196]
生成AIシステムは創発的な能力を示し、幅広い下流タスクに適応できる。
既存の監査手順は、生成的AIシステムによって引き起こされるガバナンスの課題に対処できない。
本稿では、生成AIシステムの設計と普及を行う技術提供者のガバナンス監査、事前学習後の生成AIシステムのモデル監査、生成AIシステムに基づくアプリケーションのアプリケーション監査という3層的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-07-07T11:56:54Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - Advancing AI Audits for Enhanced AI Governance [1.875782323187985]
このポリシーレコメンデーションは、AIサービスやシステムの監査に関する問題を要約する。
健全なAIガバナンスに寄与するAI監査を促進するための3つの推奨事項を提示している。
論文 参考訳(メタデータ) (2023-11-26T16:18:17Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Who Audits the Auditors? Recommendations from a field scan of the
algorithmic auditing ecosystem [0.971392598996499]
AI監査エコシステムの最初の包括的なフィールドスキャンを提供する。
私たちは、新たなベストプラクティスと、一般的になりつつある方法やツールを特定します。
これらの監査の質と影響を改善するための政策勧告を概説する。
論文 参考訳(メタデータ) (2023-10-04T01:40:03Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Conformity Assessments and Post-market Monitoring: A Guide to the Role
of Auditing in the Proposed European AI Regulation [0.0]
欧州人工知能法(European Artificial Intelligence Act)において提案されている2つの主要な執行機構について解説し議論する。
我々はAI監査を行うためのヨーロッパ規模のエコシステムを確立するための提案としてAIAが解釈できると論じる。
論文 参考訳(メタデータ) (2021-11-09T11:59:47Z) - Trustworthy AI Inference Systems: An Industry Research View [58.000323504158054]
我々は、信頼できるAI推論システムの設計、展開、運用にアプローチするための業界調査ビューを提供する。
信頼された実行環境を用いたAIシステムの機会と課題を強調します。
我々は,産業,アカデミック,政府研究者のグローバルな集団的注意を必要とする,さらなる発展の分野を概説する。
論文 参考訳(メタデータ) (2020-08-10T23:05:55Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。