論文の概要: Red Teaming AI Policy: A Taxonomy of Avoision and the EU AI Act
- arxiv url: http://arxiv.org/abs/2506.01931v1
- Date: Mon, 02 Jun 2025 17:48:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:34.684157
- Title: Red Teaming AI Policy: A Taxonomy of Avoision and the EU AI Act
- Title(参考訳): Red Teaming AI Policy: 回避の分類法とEU AI法
- Authors: Rui-Jie Yew, Bill Marino, Suresh Venkatasubramanian,
- Abstract要約: もっとも顕著なのは、EU AI Act(「AIA」)を通じて、AI規制の形式が出現し始めていることである。
2027年までにAIAは完全な効力を発揮し、企業はこの新しい法律に照らして行動を調整する。
我々は、AIAが課す規制負担を最小限に抑えるため、企業が関与する可能性のある「回避」を推論するための枠組みと分類について提示する。
- 参考スコア(独自算出の注目度): 4.596221278839826
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The shape of AI regulation is beginning to emerge, most prominently through the EU AI Act (the "AIA"). By 2027, the AIA will be in full effect, and firms are starting to adjust their behavior in light of this new law. In this paper, we present a framework and taxonomy for reasoning about "avoision" -- conduct that walks the line between legal avoidance and evasion -- that firms might engage in so as to minimize the regulatory burden the AIA poses. We organize these avoision strategies around three "tiers" of increasing AIA exposure that regulated entities face depending on: whether their activities are (1) within scope of the AIA, (2) exempted from provisions of the AIA, or are (3) placed in a category with higher regulatory scrutiny. In each of these tiers and for each strategy, we specify the organizational and technological forms through which avoision may manifest. Our goal is to provide an adversarial framework for "red teaming" the AIA and AI regulation on the horizon.
- Abstract(参考訳): AI規制の形式が出現し始めており、最も顕著なのはEU AI Act(AIA)である。
2027年までにAIAは完全な効力を発揮し、企業はこの新しい法律に照らして行動を調整する。
本稿では、AIAが課す規制負担を最小限に抑えるため、法的な回避と回避の線を歩む「回避」を推論するための枠組みと分類について述べる。
これらの回避策は,(1)AIAの範囲内にあるか,(2)AIAの規定から除外されているか,あるいは(2)規制の厳しい分野に置かれているかという,規制機関が直面する3つの「段階」のAIA被曝の増加に関連付けられている。
それぞれの階層と戦略において、回避が現れる可能性のある組織的および技術的形態を規定する。
私たちのゴールは、AIAとAIの規制を水平線上で"レッドチーム化"するための敵対的なフレームワークを提供することです。
関連論文リスト
- Comparing Apples to Oranges: A Taxonomy for Navigating the Global Landscape of AI Regulation [0.0]
我々は,AI規制のグローバルな展望を地図化するための分類法を提案する。
このフレームワークは、欧州連合のAI法、米国執行命令14110、カナダのAIおよびデータ法、中国の生成AIサービスに関する暫定措置、ブラジルのAI法案2338/2023の5つの早期移行者に適用される。
論文 参考訳(メタデータ) (2025-05-19T19:23:41Z) - Automation Bias in the AI Act: On the Legal Implications of Attempting to De-Bias Human Oversight of AI [0.0]
本稿では,人工知能法(AIA)における自動化バイアス(AB)の明示的言及の法的意味について検討する。
TheAIAは、リスクの高いAIシステムに対する人間の監視を義務付け、プロバイダがABの認識を可能にすることを要求する。
論文 参考訳(メタデータ) (2025-02-14T09:26:59Z) - The Fundamental Rights Impact Assessment (FRIA) in the AI Act: Roots, legal obligations and key elements for a model template [55.2480439325792]
基本権利影響評価(FRIA)の理論的・方法論的検討における既存のギャップを埋めることを目的とする。
この記事では、FRIAのモデルテンプレートの主要なビルディングブロックについて概説する。
これは、AIが人権と完全に整合していることを保証するために、他の国家および国際規制イニシアチブの青写真として機能する。
論文 参考訳(メタデータ) (2024-11-07T11:55:55Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Do Responsible AI Artifacts Advance Stakeholder Goals? Four Key Barriers Perceived by Legal and Civil Stakeholders [59.17981603969404]
責任あるAI(RAI)コミュニティは、透明性を促進し、AIシステムのガバナンスをサポートするために、多数のプロセスとアーティファクトを導入している。
我々は、責任あるAI活動に関する政策と擁護を通知する19の政府、法律、市民社会の利害関係者と半構造化されたインタビューを行う。
我々は、これらの信念を4つの障壁にまとめて、RAIアーティファクトが(必然的に)市民社会、政府、産業間での権力関係を再構成する方法を説明する。
論文 参考訳(メタデータ) (2024-08-22T00:14:37Z) - A Robust Governance for the AI Act: AI Office, AI Board, Scientific Panel, and National Authorities [2.6517270606061203]
EUの新しい人工知能法(AIA)は、様々な機関によってどのように実施され、施行されるかを説明する。
規則的なガバナンスモデルを提案し、AIAの均一かつ協調的な実行を保証するための勧告を提供する。
欧州連合の規制が制度構造や運営にどのように影響するかを強調し、超国家的、国家的レベルの役割について調査している。
論文 参考訳(メタデータ) (2024-05-11T09:22:16Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Both eyes open: Vigilant Incentives help Regulatory Markets improve AI
Safety [69.59465535312815]
Regulatory Markets for AIは、適応性を考慮して設計された提案である。
政府はAI企業が達成すべき結果に基づく目標を設定する必要がある。
我々は、規制市場がこの目標を達成するのを阻止するインセンティブについて、非常に簡単に対応できることを警告する。
論文 参考訳(メタデータ) (2023-03-06T14:42:05Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Conformity Assessments and Post-market Monitoring: A Guide to the Role
of Auditing in the Proposed European AI Regulation [0.0]
欧州人工知能法(European Artificial Intelligence Act)において提案されている2つの主要な執行機構について解説し議論する。
我々はAI監査を行うためのヨーロッパ規模のエコシステムを確立するための提案としてAIAが解釈できると論じる。
論文 参考訳(メタデータ) (2021-11-09T11:59:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。