論文の概要: Incentive Aware AI Regulations: A Credal Characterisation
- arxiv url: http://arxiv.org/abs/2603.05175v1
- Date: Thu, 05 Mar 2026 13:42:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 22:06:11.252191
- Title: Incentive Aware AI Regulations: A Credal Characterisation
- Title(参考訳): Incentive Aware AI Regulations: クレダルなキャラクタライゼーション
- Authors: Anurag Singh, Julian Rodemann, Rajeev Verma, Siu Lun Chau, Krikamol Muandet,
- Abstract要約: 高度なMLアプリケーションは厳格な規制を要求するが、戦略的なMLプロバイダは開発コストを下げるためにそれらを回避していることが多い。
モデルから経験的証拠をマーケットシェアのライセンスにマッピングするフレームワークである。
非コンプライアンス分布の集合が不規則な確率測度の集合を形成する場合に限って、その機構が完全な市場結果を持つことを証明する。
- 参考スコア(独自算出の注目度): 14.228416693145649
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While high-stakes ML applications demand strict regulations, strategic ML providers often evade them to lower development costs. To address this challenge, we cast AI regulation as a mechanism design problem under uncertainty and introduce regulation mechanisms: a framework that maps empirical evidence from models to a license for some market share. The providers can select from a set of licenses, effectively forcing them to bet on their model's ability to fulfil regulation. We aim at regulation mechanisms that achieve perfect market outcome, i.e. (a) drive non-compliant providers to self-exclude, and (b) ensure participation from compliant providers. We prove that a mechanism has perfect market outcome if and only if the set of non-compliant distributions forms a credal set, i.e., a closed, convex set of probability measures. This result connects mechanism design and imprecise probability by establishing a duality between regulation mechanisms and the set of non-compliant distributions. We also demonstrate these mechanisms in practice via experiments on regulating use of spurious features for prediction and fairness. Our framework provides new insights at the intersection of mechanism design and imprecise probability, offering a foundation for development of enforceable AI regulations.
- Abstract(参考訳): 高度なMLアプリケーションは厳格な規制を要求するが、戦略的なMLプロバイダはしばしば開発コストを下げるためにそれらを回避している。
この課題に対処するため、我々は、AI規制を不確実性の下でのメカニズム設計の問題として捉え、規制メカニズムを導入しました。
プロバイダは一連のライセンスから選択でき、効果的にモデルの規制を満たす能力に賭けざるを得ない。
我々は、市場効果を完璧に達成する規制機構、すなわち、目標を掲げている。
(a)非コンプライアンスプロバイダを自己排他化させ、
(b)コンプライアンスプロバイダの参加を保証する。
機構が完全な市場結果を持つことは、非コンプライアンス分布の集合がクレダル集合、すなわち閉凸な確率測度の集合を形成する場合に限る。
この結果は、規制機構と非コンプライアンス分布の集合の双対性を確立することによって、メカニズム設計と不正確な確率を結びつける。
また,これらのメカニズムを,予測と公正性のための刺激的特徴の利用を規制する実験を通じて実演する。
我々のフレームワークは、メカニズム設計と不正確な確率の交差に関する新たな洞察を提供し、強制可能なAI規制の開発のための基盤を提供する。
関連論文リスト
- Quantifying Automation Risk in High-Automation AI Systems: A Bayesian Framework for Failure Propagation and Optimal Oversight [1.6328866317851185]
本稿では,3項の積として期待損失を表す同相のベイズリスク分解を提案する。
このフレームワークは、モデル精度のみではなく、実行と監視のリスクをキャプチャする。
われわれは、2012年のナイト・キャピタル事件を、広く適用可能な障害パターンの1つのインスタンス化として、実証的なケーススタディで、このフレームワークを動機付けている。
論文 参考訳(メタデータ) (2026-02-22T00:18:23Z) - Agentic Confidence Calibration [67.50096917021521]
Holistic Trajectory (HTC)はAIエージェントの新しい診断フレームワークである。
HTCはキャリブレーションと差別の両方において、強力なベースラインを一貫して超えている。
HTCは、障害の背後にあるシグナルを明らかにすることによって、解釈可能性を提供する。
論文 参考訳(メタデータ) (2026-01-22T09:08:25Z) - LEC: Linear Expectation Constraints for False-Discovery Control in Selective Prediction and Routing Systems [95.35293543918762]
大規模言語モデル(LLM)はしばしば信頼できない答えを生成するが、不確実性のある手法は誤った予測と完全に区別することができない。
我々は、この問題を、偽発見率(FDR)制御のレンズを通して解決し、全ての許容された予測のうち、エラーの割合が目標のリスクレベルを超えないことを保証する。
本稿では,線形期待制約を強制することで,選択予測を制約付き決定問題として再解釈するLECを提案する。
論文 参考訳(メタデータ) (2025-12-01T11:27:09Z) - Normative active inference: A numerical proof of principle for a computational and economic legal analytic approach to AI governance [0.6267988254367711]
本稿では,AIエージェントの行動に法的規範がどう影響するかを計算学的に考察する。
我々は,エージェントに意図的な制御システムを与える設計による規制によって,合法的で規範に敏感なAI行動が達成可能であることを提案する。
我々は、文脈依存の嗜好が自律エージェントの安全メカニズムとしてどのように機能するかを議論することで結論付けた。
論文 参考訳(メタデータ) (2025-11-24T17:30:51Z) - Agentic AI for Financial Crime Compliance [0.0]
本稿では、デジタルネイティブ金融プラットフォームにおける金融犯罪コンプライアンス(FCC)のためのエージェントAIシステムの設計と展開について述べる。
このコントリビューションには、リファレンスアーキテクチャ、現実世界のプロトタイプ、およびAgentic AIが規制下で再構成できる方法に関する洞察が含まれている。
論文 参考訳(メタデータ) (2025-09-16T14:53:51Z) - Toward a Global Regime for Compute Governance: Building the Pause Button [0.4952055253916912]
計算資源へのアクセスを制限することにより,AIシステムのトレーニングを防止するためのガバナンスシステムを提案する。
技術的、トレーサビリティ、規制という3つの重要な介入ポイントを特定し、それらをガバナンス-執行-検証フレームワークにまとめます。
技術的メカニズムとしては、改ざん防止FLOPキャップ、モデルロック、オフラインライセンスなどがある。
論文 参考訳(メタデータ) (2025-06-25T15:18:19Z) - Auction-Based Regulation for Artificial Intelligence [28.86995747151915]
規制当局は、AIの展開が壊れた後に残された安全、偏見、法的な破片をゆっくりと拾い上げている。
本稿では,デバイスに適合したモデルをデプロイする動機付けを確実に行う,オークションベースの規制機構を提案する。
規制入札は,基準規制機構と比較して,コンプライアンス率を20%,参加率を15%向上させることを示す。
論文 参考訳(メタデータ) (2024-10-02T17:57:02Z) - Refined Mechanism Design for Approximately Structured Priors via Active
Regression [50.71772232237571]
我々は、大量の商品を戦略的入札者に販売する収益を最大化する販売業者の問題を考える。
この設定の最適かつほぼ最適のメカニズムは、特徴付けや計算が難しいことで有名である。
論文 参考訳(メタデータ) (2023-10-11T20:34:17Z) - Calibrating AI Models for Wireless Communications via Conformal
Prediction [55.47458839587949]
コンフォーマル予測は,通信システムにおけるAIの設計に初めて適用される。
本稿では,形式的校正保証付き決定を生成するAIモデルを得るための一般フレームワークとしての共形予測の適用について検討する。
論文 参考訳(メタデータ) (2022-12-15T12:52:23Z) - Right Decisions from Wrong Predictions: A Mechanism Design Alternative
to Individual Calibration [107.15813002403905]
意思決定者は、しばしば不完全な確率予測に頼る必要がある。
本稿では,予測ユーティリティが実際に取得したユーティリティと一致することを保証する補償機構を提案する。
本研究では、乗客が飛行遅延確率に基づいて、個々の旅行計画をどのように確実に最適化できるかを示すアプリケーションを示す。
論文 参考訳(メタデータ) (2020-11-15T08:22:39Z) - VCG Mechanism Design with Unknown Agent Values under Stochastic Bandit
Feedback [104.06766271716774]
本研究では,エージェントが自己の価値を知らない場合に,マルチラウンドの福祉最大化機構設計問題について検討する。
まず、福祉に対する後悔の3つの概念、各エージェントの個々のユーティリティ、メカニズムの3つの概念を定義します。
当社のフレームワークは価格体系を柔軟に制御し、エージェントと販売者の後悔のトレードオフを可能にする。
論文 参考訳(メタデータ) (2020-04-19T18:00:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。