論文の概要: From Cloud-Native to Trust-Native: A Protocol for Verifiable Multi-Agent Systems
- arxiv url: http://arxiv.org/abs/2507.22077v1
- Date: Fri, 25 Jul 2025 04:38:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-31 16:14:17.747392
- Title: From Cloud-Native to Trust-Native: A Protocol for Verifiable Multi-Agent Systems
- Title(参考訳): Cloud-NativeからTrust-Nativeへ: 検証可能なマルチエージェントシステムのためのプロトコル
- Authors: Muyang Li,
- Abstract要約: エージェントインフラストラクチャに直接構造保証を組み込むプロトコルであるTrustTrackを導入する。
TrustTrackは、知的エージェントが組織や司法機関をまたいでどのように機能するかを再設定する。
Cloud -> AI -> Agent -> Trust transitionは、自律システムのための次のアーキテクチャレイヤである、と私たちは主張する。
- 参考スコア(独自算出の注目度): 7.002091295810318
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As autonomous agents powered by large language models (LLMs) proliferate in high-stakes domains -- from pharmaceuticals to legal workflows -- the challenge is no longer just intelligence, but verifiability. We introduce TrustTrack, a protocol that embeds structural guarantees -- verifiable identity, policy commitments, and tamper-resistant behavioral logs -- directly into agent infrastructure. This enables a new systems paradigm: trust-native autonomy. By treating compliance as a design constraint rather than post-hoc oversight, TrustTrack reframes how intelligent agents operate across organizations and jurisdictions. We present the protocol design, system requirements, and use cases in regulated domains such as pharmaceutical R&D, legal automation, and AI-native collaboration. We argue that the Cloud -> AI -> Agent -> Trust transition represents the next architectural layer for autonomous systems.
- Abstract(参考訳): 大規模言語モデル(LLM)を利用した自律エージェントは、製薬から法的ワークフローに至るまで、高い領域で増殖するので、もはや知性だけでなく、検証可能性も問題だ。
私たちはTrustTrackを紹介します。TrustTrackは構造的な保証 -- 検証可能なアイデンティティ、ポリシのコミットメント、改ざんされた動作ログ -- をエージェントインフラストラクチャに直接組み込むプロトコルです。
これにより、新たなシステムパラダイム、信頼とネイティブの自律性が可能になります。
コンプライアンスをポストホック監視ではなく設計制約として扱うことで、TrustTrackは、インテリジェントエージェントが組織や司法機関間でどのように機能するかを再定義する。
本稿では,医薬品R&D,法的な自動化,AIネイティブなコラボレーションなど,規制された領域におけるプロトコル設計,システム要件,ユースケースについて述べる。
Cloud -> AI -> Agent -> Trust transitionは、自律システムのための次のアーキテクチャレイヤである、と私たちは主張する。
関連論文リスト
- Using the NANDA Index Architecture in Practice: An Enterprise Perspective [9.707223291705601]
自律型AIエージェントの普及は、従来のWebアーキテクチャから協調的なインテリジェントシステムへのパラダイムシフトを表している。
本稿では,セキュアで信頼性が高く,相互運用可能なAIエージェントエコシステムの基盤要件に対処する包括的なフレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-05T05:27:27Z) - Cognitive Kernel-Pro: A Framework for Deep Research Agents and Agent Foundation Models Training [67.895981259683]
汎用AIエージェントは、次世代人工知能の基礎となるフレームワークとして、ますます認識されている。
現在のエージェントシステムはクローズドソースか、さまざまな有料APIやプロプライエタリなツールに大きく依存している。
我々は,完全オープンソースかつ(最大限に)フリーなマルチモジュールエージェントフレームワークであるCognitive Kernel-Proを提案する。
論文 参考訳(メタデータ) (2025-08-01T08:11:31Z) - Agentic Web: Weaving the Next Web with AI Agents [109.13815627467514]
大規模言語モデル(LLM)を活用したAIエージェントの出現は、エージェントWebに対する重要な転換点である。
このパラダイムでは、エージェントが直接対話して、ユーザに代わって複雑なタスクを計画、コーディネート、実行します。
本稿では,エージェントWebの理解と構築のための構造化フレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-28T17:58:12Z) - LLM Agents Should Employ Security Principles [60.03651084139836]
本稿では,大規模言語モデル(LLM)エージェントを大規模に展開する際には,情報セキュリティの確立した設計原則を採用するべきであることを論じる。
AgentSandboxは、エージェントのライフサイクル全体を通して保護を提供するために、これらのセキュリティ原則を組み込んだ概念的なフレームワークである。
論文 参考訳(メタデータ) (2025-05-29T21:39:08Z) - A Novel Zero-Trust Identity Framework for Agentic AI: Decentralized Authentication and Fine-Grained Access Control [7.228060525494563]
本稿では,Agentic AI IAMフレームワークの提案について述べる。
リッチで検証可能なエージェント識別子(ID)に基づく包括的フレームワークを提案する。
また、Zero-Knowledge Proofs(ZKPs)によって、プライバシ保護属性の開示と検証可能なポリシーコンプライアンスを実現する方法について検討する。
論文 参考訳(メタデータ) (2025-05-25T20:21:55Z) - SAGA: A Security Architecture for Governing AI Agentic Systems [13.106925341037046]
大規模言語モデル(LLM)ベースのエージェントは、最小限の人間インタラクションでタスクを自律的に相互に対話し、協力し、委譲する傾向にある。
エージェントシステムガバナンスの業界ガイドラインは、ユーザがエージェントの包括的な制御を維持する必要性を強調している。
我々はエージェントシステムのセキュリティアーキテクチャであるSAGAを提案し,エージェントのライフサイクルをユーザから監視する。
論文 参考訳(メタデータ) (2025-04-27T23:10:00Z) - Trusted Identities for AI Agents: Leveraging Telco-Hosted eSIM Infrastructure [0.0]
テレコムグレードのeSIMインフラを利用する概念アーキテクチャを提案する。
SIM認証情報をハードウェアデバイスに埋め込むのではなく、通信会社がセキュアで認証されたハードウェアモジュールをホストするモデルを想定する。
本論文は,標準化,セキュリティアーキテクチャ,およびエージェント経済の進展における通信インフラの役割について,オープンな議論を行うための概念的枠組みとして意図されている。
論文 参考訳(メタデータ) (2025-04-17T15:36:26Z) - LOKA Protocol: A Decentralized Framework for Trustworthy and Ethical AI Agent Ecosystems [0.0]
我々は倫理的に統制された相互運用可能なAIエージェントエコシステムを構築するための統一されたシステムレベルのアーキテクチャであるLoka Protocol(Layered Orchestration for Knowledgeful Agents)を提示する。
Lokaは、分散化された検証可能なアイデンティティのためのUniversal Agent Identity Layer (UAIL)、多種多様なエージェント間のセマンティックコーディネーションのためのインテント中心の通信プロトコル、そしてエージェントが共有倫理的ベースラインに根ざしたコンテキスト認識決定を可能にするDecentralized Ethical Consensus Protocol (DECP)を導入している。
論文 参考訳(メタデータ) (2025-04-15T06:51:35Z) - Do LLMs trust AI regulation? Emerging behaviour of game-theoretic LLM agents [61.132523071109354]
本稿では、異なる規制シナリオ下での戦略選択をモデル化する、AI開発者、規制当局、ユーザ間の相互作用について検討する。
我々の研究は、純粋なゲーム理論エージェントよりも「悲観的」な姿勢を採用する傾向にある戦略的AIエージェントの出現する振る舞いを特定する。
論文 参考訳(メタデータ) (2025-04-11T15:41:21Z) - Agent-as-a-Judge: Evaluate Agents with Agents [61.33974108405561]
本稿ではエージェント・アズ・ア・ジャッジ(Agent-as-a-Judge)フレームワークを紹介し,エージェント・システムを用いてエージェント・システムの評価を行う。
これはLLM-as-a-Judgeフレームワークの有機的拡張であり、タスク解決プロセス全体の中間フィードバックを可能にするエージェント的特徴を取り入れている。
55のリアルな自動化AI開発タスクのベンチマークであるDevAIを紹介します。
論文 参考訳(メタデータ) (2024-10-14T17:57:02Z) - Internet of Agents: Weaving a Web of Heterogeneous Agents for Collaborative Intelligence [79.5316642687565]
既存のマルチエージェントフレームワークは、多種多様なサードパーティエージェントの統合に苦慮することが多い。
我々はこれらの制限に対処する新しいフレームワークであるInternet of Agents (IoA)を提案する。
IoAはエージェント統合プロトコル、インスタントメッセージのようなアーキテクチャ設計、エージェントのチーム化と会話フロー制御のための動的メカニズムを導入している。
論文 参考訳(メタデータ) (2024-07-09T17:33:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。