論文の概要: Existing Industry Practice for the EU AI Act's General-Purpose AI Code of Practice Safety and Security Measures
- arxiv url: http://arxiv.org/abs/2504.15181v1
- Date: Mon, 21 Apr 2025 15:44:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-29 15:42:42.287243
- Title: Existing Industry Practice for the EU AI Act's General-Purpose AI Code of Practice Safety and Security Measures
- Title(参考訳): EU AI Actの一般目的AIコードにおける既存の産業慣行の安全性と安全対策
- Authors: Lily Stelling, Mick Yang, Rokas Gipiškis, Leon Staufer, Ze Shen Chin, Siméon Campos, Michael Chen,
- Abstract要約: 本報告では、EU AI ActのGPAI(General-Purpose AI)コード・オブ・プラクティス(Third Draft)で提案されている措置と、主要なAI企業によって採用されている現在のプラクティスとを詳細に比較する。
EUはGPAIモデル提供者に対する拘束義務の履行に向け、具体的な技術的コミットメントで法的要件をブリッジする鍵を握る。
本報告は、法律遵守の表示であっても、実務法規又は企業の方針に関する規定的な視点を取らないことを意図したものではない。
- 参考スコア(独自算出の注目度): 0.10993800728351737
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This report provides a detailed comparison between the measures proposed in the EU AI Act's General-Purpose AI (GPAI) Code of Practice (Third Draft) and current practices adopted by leading AI companies. As the EU moves toward enforcing binding obligations for GPAI model providers, the Code of Practice will be key to bridging legal requirements with concrete technical commitments. Our analysis focuses on the draft's Safety and Security section which is only relevant for the providers of the most advanced models (Commitments II.1-II.16) and excerpts from current public-facing documents quotes that are relevant to each individual measure. We systematically reviewed different document types - including companies' frontier safety frameworks and model cards - from over a dozen companies, including OpenAI, Anthropic, Google DeepMind, Microsoft, Meta, Amazon, and others. This report is not meant to be an indication of legal compliance nor does it take any prescriptive viewpoint about the Code of Practice or companies' policies. Instead, it aims to inform the ongoing dialogue between regulators and GPAI model providers by surfacing evidence of precedent.
- Abstract(参考訳): 本報告では、EU AI ActのGPAI(General-Purpose AI)コード・オブ・プラクティス(Third Draft)で提案されている措置と、主要なAI企業によって採用されている現在のプラクティスとを詳細に比較する。
EUはGPAIモデル提供者に対する拘束義務の履行に向け、具体的な技術的コミットメントで法的要件をブリッジする鍵を握る。
我々の分析は、最も先進的なモデルの提供者(コミットII.1-II.16)にのみ関係するドラフトの安全・セキュリティセクションに焦点を当て、個々の指標に関連する現在の公開文書の引用から抜粋する。
私たちは、OpenAI、Anthropic、Google DeepMind、Microsoft、Meta、Amazonなどを含む数十以上の企業から、企業のフロンティア安全フレームワークやモデルカードを含む、さまざまなドキュメントタイプを体系的にレビューしました。
本報告は、法律遵守の表示であっても、実務法又は企業の方針に関する規定的な視点を取らないことを意図したものではない。
その代わり、前例の証拠を提示することで、規制当局とGPAIモデル提供者との対話の継続を知らせることを目的とする。
関連論文リスト
- In-House Evaluation Is Not Enough: Towards Robust Third-Party Flaw Disclosure for General-Purpose AI [93.33036653316591]
我々はシステムの安全性を高めるために3つの介入を要求します。
まず、標準化されたAI欠陥レポートと研究者へのエンゲージメントのルールを用いることを提案する。
第2に,GPAIシステムプロバイダが広視野欠陥開示プログラムを採用することを提案する。
第3に,欠陥報告の分布を調整するための改良されたインフラの開発を提唱する。
論文 参考訳(メタデータ) (2025-03-21T05:09:46Z) - International Agreements on AI Safety: Review and Recommendations for a Conditional AI Safety Treaty [0.0]
GPAI(Advanced General-purpose AI)の悪意的使用や誤動作は「結婚や人類の絶滅」につながる可能性のあるリスクを引き起こす
これらのリスクに対処するため、AIの安全性に関する国際協定に関する提案が増えている。
本稿では,開発に厳格な監督を要する計算しきい値を確立する条約を提案する。
論文 参考訳(メタデータ) (2025-03-18T16:29:57Z) - Position: A taxonomy for reporting and describing AI security incidents [57.98317583163334]
AIシステムのセキュリティインシデントを記述し報告するためには、具体的が必要である、と我々は主張する。
非AIセキュリティまたは汎用AI安全インシデントレポートの既存のフレームワークは、AIセキュリティの特定の特性をキャプチャするには不十分である。
論文 参考訳(メタデータ) (2024-12-19T13:50:26Z) - The Fundamental Rights Impact Assessment (FRIA) in the AI Act: Roots, legal obligations and key elements for a model template [55.2480439325792]
基本権利影響評価(FRIA)の理論的・方法論的検討における既存のギャップを埋めることを目的とする。
この記事では、FRIAのモデルテンプレートの主要なビルディングブロックについて概説する。
これは、AIが人権と完全に整合していることを保証するために、他の国家および国際規制イニシアチブの青写真として機能する。
論文 参考訳(メタデータ) (2024-11-07T11:55:55Z) - COMPL-AI Framework: A Technical Interpretation and LLM Benchmarking Suite for the EU Artificial Intelligence Act [40.233017376716305]
EUの人工知能法(AI Act)は、AI開発の責任を負うための重要なステップである。
明確な技術的解釈がなく、モデルのコンプライアンスを評価するのが難しい。
この研究は、この法律の最初の技術的解釈からなる包括的枠組みであるComple-AIを提示する。
論文 参考訳(メタデータ) (2024-10-10T14:23:51Z) - Operationalizing the Blueprint for an AI Bill of Rights: Recommendations for Practitioners, Researchers, and Policy Makers [20.16404495546234]
世界の様々な国でいくつかの規制の枠組みが導入されている。
これらのフレームワークの多くは、AIツールの監査と信頼性向上の必要性を強調している。
これらの規制の枠組みは実施の必要性を強調しているが、実践者はしばしば実施に関する詳細なガイダンスを欠いている。
我々は、最先端の文献の分かりやすい要約を提供し、規制ガイドラインと既存のAI研究の間に存在する様々なギャップを強調します。
論文 参考訳(メタデータ) (2024-07-11T17:28:07Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Use case cards: a use case reporting framework inspired by the European
AI Act [0.0]
ユースケースの文書化のための新しいフレームワークを提案する。
他のドキュメンテーションの方法論とは異なり、私たちはAIシステムの目的と運用に重点を置いています。
提案された枠組みは、関連するEU政策の専門家と科学者のチームを含む共同設計プロセスの結果である。
論文 参考訳(メタデータ) (2023-06-23T15:47:19Z) - A Methodology for Creating AI FactSheets [67.65802440158753]
本稿では、FactSheetsと呼ぶAIドキュメントの形式を作るための方法論について述べる。
方法論の各ステップの中で、検討すべき問題と探求すべき質問について説明する。
この方法論は、透明なAIドキュメントの採用を加速する。
論文 参考訳(メタデータ) (2020-06-24T15:08:59Z) - Response to Office of the Privacy Commissioner of Canada Consultation
Proposals pertaining to amendments to PIPEDA relative to Artificial
Intelligence [0.0]
モントリオールAI倫理研究所(MAIEI)は、カナダプライバシー局(OPCC)からコメントの提供を依頼された。
本文書は、執筆におけるMAIEIコメントとレコメンデーションを含む。
論文 参考訳(メタデータ) (2020-06-12T09:20:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。