論文の概要: Computational Compliance for AI Regulation: Blueprint for a New Research Domain
- arxiv url: http://arxiv.org/abs/2601.04474v1
- Date: Thu, 08 Jan 2026 01:22:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:52.970328
- Title: Computational Compliance for AI Regulation: Blueprint for a New Research Domain
- Title(参考訳): AI規制のための計算コンプライアンス:新しい研究領域の青写真
- Authors: Bill Marino, Nicholas D. Lane,
- Abstract要約: 私たちは、従来の類似のコンプライアンス手法を引き続き頼りにすることで、AIシステムは必要なスピードと規模で規制に従えないと論じています。
その代わり、これらの規則の遵守は、AIシステムのライフサイクルを横断するアルゴリズムで現実的にのみ達成され、ダイナミックな条件に直面して自動的にAIRコンプライアンスに向けて制御される。
個々のアルゴリズムがこれらの設計目標を満たすかどうかを定量的に測定できるベンチマークデータセットを指定する。
- 参考スコア(独自算出の注目度): 9.574040041651372
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The era of AI regulation (AIR) is upon us. But AI systems, we argue, will not be able to comply with these regulations at the necessary speed and scale by continuing to rely on traditional, analogue methods of compliance. Instead, we posit that compliance with these regulations will only realistically be achieved computationally: that is, with algorithms that run across the life cycle of an AI system, automatically steering it toward AIR compliance in the face of dynamic conditions. Yet despite their (we would argue) inevitability, the research community has yet to specify exactly how these algorithms for computational AIR compliance should behave - or how we should benchmark their performance. To fill these gaps, we specify a set of design goals for such algorithms. In addition, we specify a benchmark dataset that can be used to quantitatively measure whether individual algorithms satisfy these design goals. By delivering this blueprint, we hope to give shape to an important but uncrystallized new domain of research - and, in doing so, incite necessary investment in it.
- Abstract(参考訳): AI規制(AIR)の時代が近づいている。
しかし、私たちの主張するAIシステムは、従来の類似のコンプライアンス手法を引き続き頼りにすることで、これらの規制を必要なスピードと規模で遵守することはできないでしょう。
つまり、AIシステムのライフサイクルを横断するアルゴリズムで、動的条件に直面して自動的にAIRコンプライアンスに向けて制御するのです。
しかし、その必然性にも拘わらず、研究コミュニティは、計算的AIRコンプライアンスのためのこれらのアルゴリズムがどのように振る舞うべきか、どのようにパフォーマンスをベンチマークするかを、まだ明らかにしていません。
これらのギャップを埋めるために、そのようなアルゴリズムの設計目標のセットを指定する。
さらに,各アルゴリズムがこれらの設計目標を満たすかどうかを定量的に測定することのできるベンチマークデータセットも提案する。
この青写真を提供することで、我々は重要なが、未確立の新たな研究領域に形を与えたいと思っています。
関連論文リスト
- Barbarians at the Gate: How AI is Upending Systems Research [58.95406995634148]
システム研究は、新しいパフォーマンス指向アルゴリズムの設計と評価に長年注力してきたが、AI駆動のソリューション発見には特に適している、と私たちは主張する。
このアプローチをAI駆動システム研究(ADRS)と呼び、ソリューションを反復的に生成し、評価し、洗練する。
我々の研究結果は、AI時代のシステム研究の実践に急激な適応の必要性と破壊的な可能性を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-10-07T17:49:24Z) - Benchmarking End-To-End Performance of AI-Based Chip Placement Algorithms [77.71341200638416]
ChiPBenchはAIベースのチップ配置アルゴリズムの有効性を評価するために設計されたベンチマークである。
評価のために、さまざまなドメイン(CPU、GPU、マイクロコントローラなど)から20の回路を集めました。
その結果, 単点アルゴリズムの中間距離が支配的であったとしても, 最終的なPPA結果は満足できないことがわかった。
論文 参考訳(メタデータ) (2024-07-03T03:29:23Z) - Algorithms for learning value-aligned policies considering admissibility relaxation [1.8336820954218835]
価値認識工学の新たな分野は、ソフトウェアエージェントとシステムは価値を意識すべきである、と主張している。
本稿では,局所的なアライメントに基づく戦略のための$epsilontext-ADQL$と,一連の決定のための$epsilontext-CADQL$という2つのアルゴリズムを提案する。
干ばつシナリオにおいて,水分散問題における効率性を検証した。
論文 参考訳(メタデータ) (2024-06-07T11:10:07Z) - Training Compute Thresholds: Features and Functions in AI Regulation [0.7234862895932991]
米国とEUのレギュレータは、トレーニング計算に基づくしきい値を使用して、大規模社会被害のリスクを引き起こす可能性のあるGPAIモデルを特定している。
現在、トレーニング計算は、規制の監視とさらなる精査に値するGPAIモデルを特定するのに最も適した指標である、と我々は主張する。
GPAI技術と市場構造が進化するにつれて、規制当局は計算しきい値を更新し、他のメトリクスを規制審査プロセスに補完する必要がある。
論文 参考訳(メタデータ) (2024-05-17T14:10:24Z) - A Strong Baseline for Batch Imitation Learning [25.392006064406967]
厳密なデータパラダイムの下での模倣学習のための,実装が容易で斬新なアルゴリズムを提供する。
このパラダイムにより、安全やコストが重要となる環境において、我々のアルゴリズムが利用できるようになる。
論文 参考訳(メタデータ) (2023-02-06T14:03:33Z) - Exploring the Nuances of Designing (with/for) Artificial Intelligence [0.0]
我々は,AIの設計において,アルゴリズムと社会の問題に同時に対処する手段として,インフラストラクチャの構築について検討する。
アルゴリズム的なソリューションも、純粋にヒューマニズム的なソリューションも、AIの狭い状態において完全に望ましくない結果をもたらすには十分ではない。
論文 参考訳(メタデータ) (2020-10-22T20:34:35Z) - Policy Gradient for Continuing Tasks in Non-stationary Markov Decision
Processes [112.38662246621969]
強化学習は、マルコフ決定プロセスにおいて期待される累積報酬を最大化するポリシーを見つけることの問題を考える。
我々は、ポリシーを更新するために上昇方向として使用する値関数の偏りのないナビゲーション勾配を計算する。
ポリシー勾配型アルゴリズムの大きな欠点は、定常性の仮定が課せられない限り、それらがエピソジックなタスクに限定されていることである。
論文 参考訳(メタデータ) (2020-10-16T15:15:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。