論文の概要: Mapping Industry Practices to the EU AI Act's GPAI Code of Practice Safety and Security Measures
- arxiv url: http://arxiv.org/abs/2504.15181v2
- Date: Tue, 22 Jul 2025 19:27:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-24 14:06:49.190315
- Title: Mapping Industry Practices to the EU AI Act's GPAI Code of Practice Safety and Security Measures
- Title(参考訳): 産業の実践をEU AI Act GPAI Code of Practice Safety and Security measures にマッピングする
- Authors: Lily Stelling, Mick Yang, Rokas Gipiškis, Leon Staufer, Ze Shen Chin, Siméon Campos, Ariel Gil, Michael Chen,
- Abstract要約: 本報告では、EU AI Actの汎用AI(GPAI)コード(第三ドラフト)で提案されている安全とセキュリティ対策と、主要なAI企業によって自発的に採用されている現在のコミットメントとプラクティスとを詳細に比較する。
本分析は、各個別の措置に関連する現在の公的な文書からの抜粋を文書化した草案の安全安全部門(コミットII.1-II.16)に焦点をあてる。
本報告書は、法律遵守の表示であってはならない。また、慣行法又は企業の方針に関する規定的な視点も持っていない。
- 参考スコア(独自算出の注目度): 0.10539847330971804
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This report provides a detailed comparison between the Safety and Security measures proposed in the EU AI Act's General-Purpose AI (GPAI) Code of Practice (Third Draft) and the current commitments and practices voluntarily adopted by leading AI companies. As the EU moves toward enforcing binding obligations for GPAI model providers, the Code of Practice will be key for bridging legal requirements with concrete technical commitments. Our analysis focuses on the draft's Safety and Security section (Commitments II.1-II.16), documenting excerpts from current public-facing documents that are relevant to each individual measure. We systematically reviewed different document types, such as companies' frontier safety frameworks and model cards, from over a dozen companies, including OpenAI, Anthropic, Google DeepMind, Microsoft, Meta, Amazon, and others. This report is not meant to be an indication of legal compliance, nor does it take any prescriptive viewpoint about the Code of Practice or companies' policies. Instead, it aims to inform the ongoing dialogue between regulators and General-Purpose AI model providers by surfacing evidence of industry precedent for various measures. Nonetheless, we were able to find relevant quotes from at least 5 companies' documents for the majority of the measures in Commitments II.1-II.16.
- Abstract(参考訳): 本報告では、EU AI Actの汎用AI(GPAI)コード(第三ドラフト)で提案されている安全とセキュリティ対策と、主要なAI企業によって自発的に採用されている現在のコミットメントとプラクティスとを詳細に比較する。
EUがGPAIモデルプロバイダの拘束義務を執行する方向に進むにつれ、具体的な技術的コミットメントで法的要件をブリッジする上では、実践法が鍵となるでしょう。
本分析は、各個別の措置に関連する現在の公的な文書からの抜粋を文書化した草案の安全安全部門(コミットII.1-II.16)に焦点をあてる。
私たちは、OpenAI、Anthropic、Google DeepMind、Microsoft、Meta、Amazonなどを含む数十以上の企業から、企業のフロンティア安全フレームワークやモデルカードなど、さまざまなドキュメントタイプを体系的にレビューしました。
本報告書は、法律遵守の表示であってはならない。また、慣行法又は企業の方針に関する規定的な視点も持っていない。
その代わり、規制当局と一般目的のAIモデル提供者との対話を、さまざまな対策の先例の証拠として提示することを目的としている。
それでも、コミットII.1-II.16の措置の大部分について、少なくとも5社の文書から、関連する引用を見つけることができた。
関連論文リスト
- In-House Evaluation Is Not Enough: Towards Robust Third-Party Flaw Disclosure for General-Purpose AI [93.33036653316591]
我々はシステムの安全性を高めるために3つの介入を要求します。
まず、標準化されたAI欠陥レポートと研究者へのエンゲージメントのルールを用いることを提案する。
第2に,GPAIシステムプロバイダが広視野欠陥開示プログラムを採用することを提案する。
第3に,欠陥報告の分布を調整するための改良されたインフラの開発を提唱する。
論文 参考訳(メタデータ) (2025-03-21T05:09:46Z) - International Agreements on AI Safety: Review and Recommendations for a Conditional AI Safety Treaty [0.0]
GPAI(Advanced General-purpose AI)の悪意的使用や誤動作は「結婚や人類の絶滅」につながる可能性のあるリスクを引き起こす
これらのリスクに対処するため、AIの安全性に関する国際協定に関する提案が増えている。
本稿では,開発に厳格な監督を要する計算しきい値を確立する条約を提案する。
論文 参考訳(メタデータ) (2025-03-18T16:29:57Z) - AI Companies Should Report Pre- and Post-Mitigation Safety Evaluations [5.984437476321095]
フロンティアAI企業は、事前および後安全評価の両方を報告すべきである。
両段階におけるモデルの評価は、政策立案者に、配備、アクセス、安全基準を規制するための重要な証拠を提供する。
論文 参考訳(メタデータ) (2025-03-17T17:56:43Z) - Position: A taxonomy for reporting and describing AI security incidents [57.98317583163334]
AIシステムのセキュリティインシデントを記述し報告するためには、具体的が必要である、と我々は主張する。
非AIセキュリティまたは汎用AI安全インシデントレポートの既存のフレームワークは、AIセキュリティの特定の特性をキャプチャするには不十分である。
論文 参考訳(メタデータ) (2024-12-19T13:50:26Z) - The Fundamental Rights Impact Assessment (FRIA) in the AI Act: Roots, legal obligations and key elements for a model template [55.2480439325792]
基本権利影響評価(FRIA)の理論的・方法論的検討における既存のギャップを埋めることを目的とする。
この記事では、FRIAのモデルテンプレートの主要なビルディングブロックについて概説する。
これは、AIが人権と完全に整合していることを保証するために、他の国家および国際規制イニシアチブの青写真として機能する。
論文 参考訳(メタデータ) (2024-11-07T11:55:55Z) - COMPL-AI Framework: A Technical Interpretation and LLM Benchmarking Suite for the EU Artificial Intelligence Act [40.233017376716305]
EUの人工知能法(AI Act)は、AI開発の責任を負うための重要なステップである。
明確な技術的解釈がなく、モデルのコンプライアンスを評価するのが難しい。
この研究は、この法律の最初の技術的解釈からなる包括的枠組みであるComple-AIを提示する。
論文 参考訳(メタデータ) (2024-10-10T14:23:51Z) - Operationalizing the Blueprint for an AI Bill of Rights: Recommendations for Practitioners, Researchers, and Policy Makers [20.16404495546234]
世界の様々な国でいくつかの規制の枠組みが導入されている。
これらのフレームワークの多くは、AIツールの監査と信頼性向上の必要性を強調している。
これらの規制の枠組みは実施の必要性を強調しているが、実践者はしばしば実施に関する詳細なガイダンスを欠いている。
我々は、最先端の文献の分かりやすい要約を提供し、規制ガイドラインと既存のAI研究の間に存在する様々なギャップを強調します。
論文 参考訳(メタデータ) (2024-07-11T17:28:07Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Use case cards: a use case reporting framework inspired by the European
AI Act [0.0]
ユースケースの文書化のための新しいフレームワークを提案する。
他のドキュメンテーションの方法論とは異なり、私たちはAIシステムの目的と運用に重点を置いています。
提案された枠組みは、関連するEU政策の専門家と科学者のチームを含む共同設計プロセスの結果である。
論文 参考訳(メタデータ) (2023-06-23T15:47:19Z) - The Case for a Legal Compliance API for the Enforcement of the EU's
Digital Services Act on Social Media Platforms [1.0312968200748118]
本稿では,デジタル化を目的としたソーシャルメディアデータアクセスに関する課題を批判的に解決する。
デジタルサービス法(Digital Services Act)の遵守を容易にする手段として,法的コンプライアンスアプリケーションプログラミングインターフェース(API)の使用を提案する。
この議論を文脈化するために、ソーシャルメディア利用者の特に脆弱なカテゴリーに影響を及ぼすコンテンツ収益化から生じる害を実証する2つのシナリオを追求する。
論文 参考訳(メタデータ) (2022-05-13T14:16:23Z) - Transparency, Compliance, And Contestability When Code Is(n't) Law [91.85674537754346]
技術的なセキュリティ機構と法的なプロセスの両方が、一連の規範に従って誤った行動を扱うメカニズムとして機能する。
彼らは一般的な類似点を共有しているが、どう定義されているか、行動し、被験者に与える影響にも明確な違いがある。
本稿では,両機構の類似点と相違点を,誤動作の対処方法として考察する。
論文 参考訳(メタデータ) (2022-05-08T18:03:07Z) - A Methodology for Creating AI FactSheets [67.65802440158753]
本稿では、FactSheetsと呼ぶAIドキュメントの形式を作るための方法論について述べる。
方法論の各ステップの中で、検討すべき問題と探求すべき質問について説明する。
この方法論は、透明なAIドキュメントの採用を加速する。
論文 参考訳(メタデータ) (2020-06-24T15:08:59Z) - Response to Office of the Privacy Commissioner of Canada Consultation
Proposals pertaining to amendments to PIPEDA relative to Artificial
Intelligence [0.0]
モントリオールAI倫理研究所(MAIEI)は、カナダプライバシー局(OPCC)からコメントの提供を依頼された。
本文書は、執筆におけるMAIEIコメントとレコメンデーションを含む。
論文 参考訳(メタデータ) (2020-06-12T09:20:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。