論文の概要: AI Deployment Authorisation: A Global Standard for Machine-Readable Governance of High-Risk Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2601.08869v1
- Date: Sun, 11 Jan 2026 18:14:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.10911
- Title: AI Deployment Authorisation: A Global Standard for Machine-Readable Governance of High-Risk Artificial Intelligence
- Title(参考訳): AI Deployment Authorisation: ハイリスク人工知能のマシン可読ガバナンスのためのグローバル標準
- Authors: Daniel Djan Saparning,
- Abstract要約: 本稿では,AIシステムを評価する機械可読制御フレームワークであるAI Deployment Authorisation Score(ADAS)を紹介する。
ADASは暗号的に検証可能なデプロイメント証明書を生成しており、規制当局、保険会社、インフラオペレーターが運用するライセンスとして使用することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern artificial intelligence governance lacks a formal, enforceable mechanism for determining whether a given AI system is legally permitted to operate in a specific domain and jurisdiction. Existing tools such as model cards, audits, and benchmark evaluations provide descriptive information about model behavior and training data but do not produce binding deployment decisions with legal or financial force. This paper introduces the AI Deployment Authorisation Score (ADAS), a machine-readable regulatory framework that evaluates AI systems across five legally and economically grounded dimensions: risk, alignment, externality, control, and auditability. ADAS produces a cryptographically verifiable deployment certificate that regulators, insurers, and infrastructure operators can consume as a license to operate, using public-key verification and transparency mechanisms adapted from secure software supply chain and certificate transparency systems. The paper presents the formal specification, decision logic, evidence model, and policy architecture of ADAS and demonstrates how it operationalizes the European Union Artificial Intelligence Act, United States critical infrastructure governance, and insurance underwriting requirements by compiling statutory and regulatory obligations into machine-executable deployment gates. We argue that deployment-level authorization, rather than model-level evaluation, constitutes the missing institutional layer required for safe, lawful, and economically scalable artificial intelligence.
- Abstract(参考訳): 現代の人工知能ガバナンスには、特定のドメインと管轄領域で法的に運用が許可されているかどうかを決定するための正式な強制力のあるメカニズムが欠けている。
モデルカードや監査、ベンチマーク評価といった既存のツールでは、モデル行動やトレーニングデータに関する記述的な情報を提供するが、法的あるいは財政的な力によるデプロイメント決定は発生しない。
本稿では,AI Deployment Authorisation Score(ADAS)を紹介した。AIシステムは,リスク,アライメント,外部性,コントロール,監査性という,法的および経済的に根ざした5つの分野にわたるAIシステムを評価する,機械可読な規制フレームワークである。
ADASは、セキュアなソフトウェアサプライチェーンと証明書透明性システムから適合した公開鍵検証と透明性メカニズムを使用して、規制当局、保険会社、インフラオペレーターが運用するライセンスとして使用可能な、暗号的に検証可能なデプロイメント証明書を生成する。
本稿は、ADASの正式な仕様、決定ロジック、エビデンスモデル、および政策アーキテクチャを提示し、欧州連合人工知能法、米国クリティカルインフラストラクチャガバナンス、保険保険の引受要件をマシン実行可能な展開ゲートにコンパイルすることによってどのように運用するかを実証する。
我々は、モデルレベルの評価ではなく、デプロイメントレベルの認可が、安全で合法的で経済的にスケーラブルな人工知能に必要な制度層を欠いていると論じる。
関連論文リスト
- Binding Agent ID: Unleashing the Power of AI Agents with accountability and credibility [46.323590135279126]
BAID(Binding Agent ID)は、検証可能なユーザコードバインディングを確立するための総合的なアイデンティティ基盤である。
ブロックチェーンベースのID管理とzkVMベースの認証プロトコルの実現可能性を実証し、完全なプロトタイプシステムの実装と評価を行った。
論文 参考訳(メタデータ) (2025-12-19T13:01:54Z) - Normative active inference: A numerical proof of principle for a computational and economic legal analytic approach to AI governance [0.6267988254367711]
本稿では,AIエージェントの行動に法的規範がどう影響するかを計算学的に考察する。
我々は,エージェントに意図的な制御システムを与える設計による規制によって,合法的で規範に敏感なAI行動が達成可能であることを提案する。
我々は、文脈依存の嗜好が自律エージェントの安全メカニズムとしてどのように機能するかを議論することで結論付けた。
論文 参考訳(メタデータ) (2025-11-24T17:30:51Z) - Policy Cards: Machine-Readable Runtime Governance for Autonomous AI Agents [0.0]
Policy Cardは、AIエージェントの運用、規制、倫理的制約を表現するための、マシン可読なデプロイ層標準である。
各ポリシカードは、自動検証、バージョン管理、ランタイムの実施、あるいは継続的監査パイプラインにリンクすることができる。
論文 参考訳(メタデータ) (2025-10-28T12:59:55Z) - Agentic AI for Financial Crime Compliance [0.0]
本稿では、デジタルネイティブ金融プラットフォームにおける金融犯罪コンプライアンス(FCC)のためのエージェントAIシステムの設計と展開について述べる。
このコントリビューションには、リファレンスアーキテクチャ、現実世界のプロトタイプ、およびAgentic AIが規制下で再構成できる方法に関する洞察が含まれている。
論文 参考訳(メタデータ) (2025-09-16T14:53:51Z) - Safe and Certifiable AI Systems: Concepts, Challenges, and Lessons Learned [45.44933002008943]
この白書は、T"UV AUSTRIA Trusted AIフレームワークを提示する。
エンド・ツー・エンドの監査カタログであり、機械学習システムの評価と認定のための方法論である。
セキュアなソフトウェア開発、機能要件、倫理とデータプライバシという3つの柱の上に構築されているのは、EU AI Actの高レベルの義務を、特定かつテスト可能な基準に翻訳するものです。
論文 参考訳(メタデータ) (2025-09-08T17:52:08Z) - Explainable AI Systems Must Be Contestable: Here's How to Make It Happen [2.5875936082584623]
本稿では、説明可能なAIにおける競合性の最初の厳密な形式的定義について述べる。
我々は、ヒューマン中心のインターフェース、技術プロセス、組織アーキテクチャにまたがる、設計やポストホックメカニズムのモジュール化されたフレームワークを紹介します。
私たちの作業は実践者に、真のリコースと説明責任をAIシステムに組み込むためのツールを提供しています。
論文 参考訳(メタデータ) (2025-06-02T13:32:05Z) - Watermarking Without Standards Is Not AI Governance [46.71493672772134]
現在の実装は、効果的な監視を提供するのではなく、象徴的なコンプライアンスとして機能するリスクがある、と私たちは主張する。
本稿では,技術標準,監査インフラストラクチャ,実施機構を含む3層フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-27T18:10:04Z) - CryptoFormalEval: Integrating LLMs and Formal Verification for Automated Cryptographic Protocol Vulnerability Detection [41.94295877935867]
我々は,新たな暗号プロトコルの脆弱性を自律的に識別する大規模言語モデルの能力を評価するためのベンチマークを導入する。
私たちは、新しい、欠陥のある通信プロトコルのデータセットを作成し、AIエージェントが発見した脆弱性を自動的に検証する方法を設計しました。
論文 参考訳(メタデータ) (2024-11-20T14:16:55Z) - A Formal Model for Artificial Intelligence Applications in Automation Systems [41.19948826527649]
本稿では,自動化システムにおけるAIアプリケーションの明確かつ構造化されたドキュメンテーションを提供するために,標準を用いた形式モデルを提案する。
自動化システム(AIAS)における人工知能の情報モデルは、設計パターンを利用して、自動化システムとAIソフトウェアの様々な側面をマッピングし、リンクする。
論文 参考訳(メタデータ) (2024-07-03T15:05:32Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。