論文の概要: Trustworthy Orchestration Artificial Intelligence by the Ten Criteria with Control-Plane Governance
- arxiv url: http://arxiv.org/abs/2512.10304v1
- Date: Thu, 11 Dec 2025 05:49:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:42.203579
- Title: Trustworthy Orchestration Artificial Intelligence by the Ten Criteria with Control-Plane Governance
- Title(参考訳): コントロールプレーンガバナンスを用いた10基準による信頼できるオーケストレーション人工知能
- Authors: Byeong Ho Kang, Wenli Yang, Muhammad Bilal Amin,
- Abstract要約: 本稿では,信頼に値するオーケストレーションAIの10基準について述べる。
人間の入力、セマンティックコヒーレンス、監査、証明の整合性を統合されたコントロール・パネルアーキテクチャに統合する。
- 参考スコア(独自算出の注目度): 1.9691447018712314
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As Artificial Intelligence (AI) systems increasingly assume consequential decision-making roles, a widening gap has emerged between technical capabilities and institutional accountability. Ethical guidance alone is insufficient to counter this challenge; it demands architectures that embed governance into the execution fabric of the ecosystem. This paper presents the Ten Criteria for Trustworthy Orchestration AI, a comprehensive assurance framework that integrates human input, semantic coherence, audit and provenance integrity into a unified Control-Panel architecture. Unlike conventional agentic AI initiatives that primarily focus on AI-to-AI coordination, the proposed framework provides an umbrella of governance to the entire AI components, their consumers and human participants. By taking aspiration from international standards and Australia's National Framework for AI Assurance initiative, this work demonstrates that trustworthiness can be systematically incorporated (by engineering) into AI systems, ensuring the execution fabric remains verifiable, transparent, reproducible and under meaningful human control.
- Abstract(参考訳): 人工知能(AI)システムは、次々に意思決定の役割を担っているため、技術的能力と制度的説明責任のギャップが広がる。
この課題に対処するには倫理的ガイダンスだけでは不十分です – エコシステムの実行ファブリックにガバナンスを組み込むアーキテクチャが必要です。
本稿では,人間の入力,セマンティックコヒーレンス,監査,証明の整合性を統一した制御パネルアーキテクチャに統合する総合的な保証フレームワークである,信頼に値するオーケストレーションAIのための10の基準を提案する。
主にAIとAIの協調に焦点を当てた従来のエージェントAIイニシアチブとは異なり、提案されたフレームワークは、AIコンポーネント全体、コンシューマ、および人間の参加者に対するガバナンスの傘を提供する。
この研究は、国際標準とオーストラリアのAI保証のためのNational Framework for AI Assuranceイニシアチブから着想を得て、信頼性を(エンジニアリングによって)AIシステムに体系的に組み込むことで、実行ファブリックが検証可能で透明性があり、再現可能であり、有意義な人的制御下にあることを実証している。
関連論文リスト
- Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Decentralized Governance of Autonomous AI Agents [0.0]
ETHOSは、ブロックチェーン、スマートコントラクト、分散自律組織(DAO)など、Web3テクノロジを活用する分散ガバナンス(DeGov)モデルである。
AIエージェントのグローバルレジストリを確立し、動的リスク分類、比例監視、自動コンプライアンス監視を可能にする。
合理性、倫理的根拠、ゴールアライメントの哲学的原則を統合することで、ETHOSは信頼、透明性、参加的ガバナンスを促進するための堅牢な研究アジェンダを作ることを目指している。
論文 参考訳(メタデータ) (2024-12-22T18:01:49Z) - Putting AI Ethics into Practice: The Hourglass Model of Organizational
AI Governance [0.0]
AIシステムの開発と利用を目標とする,AIガバナンスフレームワークを提案する。
このフレームワークは、AIシステムをデプロイする組織が倫理的AI原則を実践に翻訳するのを助けるように設計されている。
論文 参考訳(メタデータ) (2022-06-01T08:55:27Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。