論文の概要: Anti-Regulatory AI: How "AI Safety" is Leveraged Against Regulatory Oversight
- arxiv url: http://arxiv.org/abs/2509.22872v2
- Date: Thu, 02 Oct 2025 17:35:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 14:32:17.130943
- Title: Anti-Regulatory AI: How "AI Safety" is Leveraged Against Regulatory Oversight
- Title(参考訳): 反規制的AI:「AI安全」が規制監督にどう影響するか
- Authors: Rui-Jie Yew, Brian Judge,
- Abstract要約: AI企業は、プライバシ強化技術、バイアス抑制対策、評価フレームワーク、アライメントテクニックの開発と展開をますます進めている。
本稿では,法的な影響のメカニズムとして,これらの技術の内面的機能について考察する。
- 参考スコア(独自算出の注目度): 0.9883261192383612
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: AI companies increasingly develop and deploy privacy-enhancing technologies, bias-constraining measures, evaluation frameworks, and alignment techniques -- framing them as addressing concerns related to data privacy, algorithmic fairness, and AI safety. This paper examines the ulterior function of these technologies as mechanisms of legal influence. First, we examine how encryption, federated learning, and synthetic data -- presented as enhancing privacy and reducing bias -- can operate as mechanisms of avoidance with existing regulations in attempts to place data operations outside the scope of traditional regulatory frameworks. Second, we investigate how emerging AI safety practices including open-source model releases, evaluations, and alignment techniques can be used as mechanisms of change that direct regulatory focus towards industry-controlled voluntary standards and self-governance. We term this phenomenon "anti-regulatory AI" -- the deployment of ostensibly protective technologies that simultaneously shapes the terms of regulatory oversight. Our analysis additionally reveals how technologies' anti-regulatory functions are enabled through framing that legitimizes their deployment while obscuring their use as regulatory workarounds. This paper closes with a discussion of policy implications that centers on the consideration of business incentives that drive AI development and the role of technical expertise in assessing whether these technologies fulfill their purported protections.
- Abstract(参考訳): AI企業は、プライバシー強化技術、バイアス抑制対策、評価フレームワーク、アライメント技術 -- データプライバシ、アルゴリズムの公正性、AI安全性に関する懸念に対処するものとして、ますます発展し、展開している。この記事では、これらの技術の耕作機能を法的影響のメカニズムとして検討する。まず、暗号化、フェデレートドラーニング、合成データ -- プライバシーの強化とバイアスの低減として提示される -- が、従来の規制フレームワークの範囲外にデータ操作を配置しようとする既存の規制の回避のメカニズムとして機能するかを検討する。
第2に,オープンソースモデルリリースや評価,アライメント技術など,AIの新たな安全性プラクティスが,業界が管理する自主的な標準や自己管理に規制を直接重視する変革のメカニズムとして,どのように活用できるかを検討する。
私たちはこの現象を"反規制的AI"と呼びます -- 規制の監督という用語を同時に形作る、目に見える保護技術の展開です。
さらに、我々の分析は、規制の回避策としての利用を防ぎつつ、デプロイメントを正当化するフレーミングを通じて、テクノロジの抗規制機能を有効にする方法を明らかにします。
本稿は、AI開発を促進するビジネスインセンティブの考察と、これらの技術がそれらの保護を満たすかどうかを評価するための技術的専門知識の役割に焦点を当てた政策含意に関する議論を締めくくります。
関連論文リスト
- Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Regulating Ai In Financial Services: Legal Frameworks And Compliance Challenges [0.0]
金融サービスにおける人工知能(AI)規制の進展状況について考察する。
不正検出からアルゴリズム取引まで、AI駆動のプロセスがいかに効率性を高め、重大なリスクをもたらすかを強調している。
この研究は、欧州連合、米国、英国などの主要な司法管轄区域における規制のアプローチを比較している。
論文 参考訳(メタデータ) (2025-03-17T14:29:09Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - Mapping the Regulatory Learning Space for the EU AI Act [0.8987776881291145]
EU AI法は、具体的な執行措置による世界最初の国際的AI規制である。
それは、製品の健康と安全性を規制する既存のEUメカニズムの上に構築されているが、基本的権利を保護するためにそれらを拡張している。
これはAI法の施行における複数の不確実性につながると我々は主張する。
論文 参考訳(メタデータ) (2025-02-27T12:46:30Z) - Beyond Benchmarks: On The False Promise of AI Regulation [13.125853211532196]
有効な科学的規制は、観測可能なテスト結果と将来のパフォーマンスを結びつける因果理論を必要とすることを示す。
本研究では,学習データから複雑な統計的パターンを明示的な因果関係なく学習する深層学習モデルにおいて,そのような保証を妨げていることを示す。
論文 参考訳(メタデータ) (2025-01-26T22:43:07Z) - Securing the AI Frontier: Urgent Ethical and Regulatory Imperatives for AI-Driven Cybersecurity [0.0]
本稿では,サイバーセキュリティにおける人工知能の統合によって引き起こされる倫理的・規制上の課題について批判的に考察する。
我々は、1940年代の理論的議論から、欧州連合のAI法のような最近のグローバルなフレームワークの実装に至るまで、AI規制の歴史的発展を辿った。
バイアス、透明性、説明責任、プライバシ、人間の監視といった倫理的な懸念は、AI駆動のサイバーセキュリティシステムに影響を及ぼすとともに、深く調査されている。
論文 参考訳(メタデータ) (2025-01-15T18:17:37Z) - Position: Mind the Gap-the Growing Disconnect Between Established Vulnerability Disclosure and AI Security [56.219994752894294]
我々は、AIセキュリティレポートに既存のプロセスを適用することは、AIシステムの特徴的な特徴に対する根本的な欠点のために失敗する運命にあると主張している。
これらの欠点に対処する私たちの提案に基づき、AIセキュリティレポートへのアプローチと、新たなAIパラダイムであるAIエージェントが、AIセキュリティインシデント報告の進展をさらに強化する方法について論じる。
論文 参考訳(メタデータ) (2024-12-19T13:50:26Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Voluntary safety commitments provide an escape from over-regulation in
AI development [8.131948859165432]
この研究は、ピアまたは機関による制裁による自発的なコミットメントが、社会的に有益な結果をもたらすことを初めて明らかにしている。
結果は、倫理的で責任あるAI技術開発プロセスを保証することを目的としたガバナンスと規制ポリシーの設計に直接関係しています。
論文 参考訳(メタデータ) (2021-04-08T12:54:56Z) - Trustworthy AI Inference Systems: An Industry Research View [58.000323504158054]
我々は、信頼できるAI推論システムの設計、展開、運用にアプローチするための業界調査ビューを提供する。
信頼された実行環境を用いたAIシステムの機会と課題を強調します。
我々は,産業,アカデミック,政府研究者のグローバルな集団的注意を必要とする,さらなる発展の分野を概説する。
論文 参考訳(メタデータ) (2020-08-10T23:05:55Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。