論文の概要: The science and practice of proportionality in AI risk evaluations
- arxiv url: http://arxiv.org/abs/2603.10017v1
- Date: Sat, 21 Feb 2026 08:53:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-15 16:38:22.571849
- Title: The science and practice of proportionality in AI risk evaluations
- Title(参考訳): AIリスク評価における比例性の科学と実践
- Authors: Carlos Mougan, Lauritz Morlock, Jair Aguirre, James R. M. Black, Jan Brauner, Simeon Campos, Sunishchal Dev, David Fernández Llorca, Alberto Franzin, Mario Fritz, Emilia Gómez, Friederike Grosse-Holz, Eloise Hamilton, Max Hasin, Jose Hernandez-Orallo, Dan Lahav, Luca Massarelli, Vasilios Mavroudis, Malcolm Murray, Patricia Paskov, Jaime Raldua, Wout Schellaert,
- Abstract要約: 欧州連合(EU)人工知能法(EU)は、この緊張を拘束力のあるリスクベースの枠組みの形でナビゲートする、世界で最初の規制の試みである。
比例律の原則は、EU法の下での拘束要件であり、規制当局が彼らの意図した目的に対してその行動を調整する必要がある。
AIリスクに対するモデル評価への比例性の適用は、具体的な評価慣行の中でそのようなキャリブレーションを運用する科学的手法を開発する機会を開く。
- 参考スコア(独自算出の注目度): 28.343787278068604
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A global challenge in artificial intelligence (AI) regulation lies in achieving effective risk management without compromising innovation and technical progress. The European Union (EU) Artificial Intelligence Act represents the first regulatory attempt worldwide to navigate this tension in the form of a binding, risk-based framework. In August 2025, obligations for providers of general-purpose AI (GPAI) models under the EU AI Act entered into application. They require providers of the most advanced GPAI models to evaluate possible systemic risks stemming from their models. This raises the regulatory challenge of ensuring that the evaluations provide meaningful risk information without imposing excessive burden on providers. The principle of proportionality, a binding requirement under EU law, requires the regulator to calibrate its actions to their intended objectives. The application of proportionality to model evaluations for AI risk opens opportunities to develop scientific methods that operationalize such calibration within concrete evaluation practices.
- Abstract(参考訳): 人工知能(AI)規制におけるグローバルな課題は、イノベーションと技術的進歩を損なうことなく効果的なリスク管理を実現することである。
欧州連合(EU)人工知能法(EU)は、この緊張を拘束力のあるリスクベースの枠組みの形でナビゲートする、世界で最初の規制の試みである。
2025年8月、EU AI法に基づく汎用AI(GPAI)モデルの提供者に対する義務が申請された。
それらのモデルから生じるシステム的リスクを評価するためには、最も先進的なGPAIモデルの提供者が必要である。
これにより、評価がプロバイダに過剰な負担を課すことなく、有意義なリスク情報を提供することを保証するという規制上の課題が提起される。
比例律の原則は、EU法の下での拘束要件であり、規制当局が彼らの意図した目的に対してその行動を調整する必要がある。
AIリスクに対するモデル評価への比例性の適用は、具体的な評価慣行の中でそのようなキャリブレーションを運用する科学的手法を開発する機会を開く。
関連論文リスト
- Frontier AI Risk Management Framework in Practice: A Risk Analysis Technical Report v1.5 [61.787178868669265]
この技術レポートは、サイバー犯罪、説得と操作、戦略上の詐欺、制御されていないAIR&D、自己複製の5つの重要な側面について、更新されきめ細かな評価を提示する。
この作業は、現在のAIフロンティアのリスクに対する理解を反映し、これらの課題を軽減するための集団行動を促します。
論文 参考訳(メタデータ) (2026-02-16T04:30:06Z) - International AI Safety Report 2025: Second Key Update: Technical Safeguards and Risk Management [115.92752850425272]
2025年の国際AI安全レポートの第2の更新は、この1年で汎用AIリスク管理の新しい展開を評価している。
研究者、公共機関、AI開発者が汎用AIのリスク管理にどのようにアプローチしているかを調べる。
論文 参考訳(メタデータ) (2025-11-25T03:12:56Z) - An Overview of the Risk-based Model of AI Governance [0.0]
セクションでは、AIガバナンスに対するリスクベースのアプローチに対するいくつかの批判が提案されている。
リスクの概念は、その固有の規範が、その利益が重要となる支配的かつ有害な物語を再現するので、問題であると主張する。
本稿では、リスクベースのAIガバナンスを改善する上で、既存のリスクガバナンス奨学金が貴重な洞察を得られることを示唆して結論付ける。
論文 参考訳(メタデータ) (2025-07-21T06:56:04Z) - Enhancing Trust Through Standards: A Comparative Risk-Impact Framework for Aligning ISO AI Standards with Global Ethical and Regulatory Contexts [0.0]
ISO標準は、公正性、透明性、リスク管理をAIシステムに組み込むことで責任ある開発を促進することを目的としている。
それらの効果は、EUのリスクベースのAI法から中国の安定性にフォーカスした措置まで、さまざまな規制の状況によって異なる。
本稿では,ISO標準がいかに倫理的リスクに対処するかを評価するための,新たなリスク・即効性評価フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-22T00:44:20Z) - HH4AI: A methodological Framework for AI Human Rights impact assessment under the EUAI ACT [1.7754875105502606]
論文では、自律性、データ、目標指向設計によって駆動される、AIの変革的な性質を強調している。
重要な課題は、業界全体での“ハイリスク”なAIシステムの定義と評価である。
リスクを分離し、評価するために設計されたゲートベースのフレームワークである、基本的権利影響評価(FRIA)手法を提案する。
論文 参考訳(メタデータ) (2025-03-23T19:10:14Z) - AILuminate: Introducing v1.0 of the AI Risk and Reliability Benchmark from MLCommons [62.374792825813394]
本稿ではAI製品リスクと信頼性を評価するための業界標準ベンチマークとして,AIluminate v1.0を紹介する。
このベンチマークは、危険、違法、または望ましくない行動を12の危険カテゴリーで引き起こすように設計されたプロンプトに対するAIシステムの抵抗を評価する。
論文 参考訳(メタデータ) (2025-02-19T05:58:52Z) - Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - The Dilemma of Uncertainty Estimation for General Purpose AI in the EU AI Act [6.9060054915724]
AI法は、欧州連合全体のAIシステムの規制である。
我々は、不確実性推定が、実世界でモデルをデプロイするために必要なコンポーネントであるべきだと論じる。
論文 参考訳(メタデータ) (2024-08-20T23:59:51Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Quantitative AI Risk Assessments: Opportunities and Challenges [7.35411010153049]
リスクを減らす最善の方法は、包括的なAIライフサイクルガバナンスを実装することです。
リスクは技術コミュニティのメトリクスを使って定量化できます。
本稿では,このようなアプローチの機会,課題,潜在的影響に焦点をあてて,これらの課題について考察する。
論文 参考訳(メタデータ) (2022-09-13T21:47:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。