論文の概要: Governing the Agent-to-Agent Economy of Trust via Progressive Decentralization
- arxiv url: http://arxiv.org/abs/2501.16606v1
- Date: Tue, 28 Jan 2025 00:50:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-29 16:40:48.496879
- Title: Governing the Agent-to-Agent Economy of Trust via Progressive Decentralization
- Title(参考訳): 進歩的分権化による信頼のエージェント・ツー・エージェント・エコノミーの統治
- Authors: Tomer Jordi Chaffer,
- Abstract要約: 本稿ではエージェントバウンドトークンを用いたエージェント・ツー・エージェント信頼の問題に対処する研究課題を提案する。
ABTをエージェントとエージェントのネットワーク内での自律的な行動の担保として、実証・オブ・テイク機構を介して取り込むことによって、エージェントは倫理的行動にインセンティブを与えることができる。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Current approaches to AI governance often fall short in anticipating a future where AI agents manage critical tasks, such as financial operations, administrative functions, and beyond. As AI agents may eventually delegate tasks among themselves to optimize efficiency, understanding the foundational principles of human value exchange could offer insights into how AI-driven economies might operate. Just as trust and value exchange are central to human interactions in open marketplaces, they may also be critical for enabling secure and efficient interactions among AI agents. While cryptocurrencies could serve as the foundation for monetizing value exchange in a collaboration and delegation dynamic among AI agents, a critical question remains: how can these agents reliably determine whom to trust, and how can humans ensure meaningful oversight and control as an economy of AI agents scales and evolves? This paper is a call for a collective exploration of cryptoeconomic incentives, which can help design decentralized governance systems that allow AI agents to autonomously interact and exchange value while ensuring human oversight via progressive decentralization. Toward this end, I propose a research agenda to address the question of agent-to-agent trust using AgentBound Tokens, which are non-transferable, non-fungible tokens uniquely tied to individual AI agents, akin to Soulbound tokens for humans in Web3. By staking ABTs as collateral for autonomous actions within an agent-to-agent network via a proof-of-stake mechanism, agents may be incentivized towards ethical behavior, and penalties for misconduct are automatically enforced.
- Abstract(参考訳): AIガバナンスに対する現在のアプローチは、金融業務や管理機能など、AIエージェントが重要なタスクを管理する未来を予測できない場合が多い。
AIエージェントが最終的にタスクを委譲して効率を最適化する可能性があるため、人間の価値交換の基本原則を理解することは、AI主導の経済がどのように機能するかについての洞察を与えるかもしれない。
信頼と価値の交換がオープンなマーケットプレースにおけるヒューマンインタラクションの中心であるのと同じように、AIエージェント間のセキュアで効率的なインタラクションを実現する上でも重要である。
暗号通貨は、AIエージェント間のコラボレーションやデリゲートのダイナミクスにおける価値交換の収益化の基礎として機能する可能性があるが、重要な疑問が残る。
これは、AIエージェントが自律的に対話し、価値を交換し、進歩的な分散化を通じて人間の監督を確実にすることを可能にする分散ガバナンスシステムを設計するのに役立つ。
そこで本研究では,Web3における人為的ソウルバウンドトークンに類する,個々のAIエージェントに一意に結びついている非伝達性,非拡散性トークンであるAgensBound Tokensを用いたエージェント・ツー・エージェント信頼の問題に対処する研究課題を提案する。
ABTをエージェント対エージェントネットワーク内の自律的行動の担保として、証明・オブ・テイク機構を介して、エージェントを倫理的行動にインセンティブを与えることができ、不正行為に対する罰則が自動的に強制される。
関連論文リスト
- Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Principal-Agent Reinforcement Learning: Orchestrating AI Agents with Contracts [20.8288955218712]
本稿では,マルコフ決定プロセス(MDP)のエージェントを一連の契約でガイドするフレームワークを提案する。
我々は,主観とエージェントの方針を反復的に最適化するメタアルゴリズムを提示し,分析する。
次に,本アルゴリズムを深層Q-ラーニングで拡張し,近似誤差の存在下での収束度を解析する。
論文 参考訳(メタデータ) (2024-07-25T14:28:58Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - Computing Power and the Governance of Artificial Intelligence [51.967584623262674]
政府や企業は、AIを管理する手段として計算を活用し始めている。
計算ベースのポリシーと技術は、これらの領域を補助する可能性があるが、実装の準備ができている点で大きなバリエーションがある。
プライバシーや経済的影響、権力の中央集権化といった分野において、ガバナンスの計算方法の素早い、あるいは不十分なアプローチは重大なリスクを伴います。
論文 参考訳(メタデータ) (2024-02-13T21:10:21Z) - Ensuring trustworthy and ethical behaviour in intelligent logical agents [1.9580473532948401]
本稿では動的(実行時)な論理に基づく自己チェック手法を提案する。
本稿では,動的(実行時)な論理に基づく自己チェック手法を提案する。
論文 参考訳(メタデータ) (2024-02-12T10:19:17Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Cooperative AI via Decentralized Commitment Devices [0.8796370521782165]
信頼できるコミットメントデバイスは、堅牢なマルチエージェント調整のための一般的なアプローチである。
私たちが研究している協調AI技術が現実世界のインセンティブやアタックベクターに対して堅牢かどうかは不明だ。
論文 参考訳(メタデータ) (2023-11-14T00:23:21Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - A Cognitive Framework for Delegation Between Error-Prone AI and Human
Agents [0.0]
本研究では,認知にインスパイアされた行動モデルを用いて,人間エージェントとAIエージェントの両方の行動を予測する。
予測された振る舞いは、仲介者の使用を通じて人間とAIエージェントの制御を委譲するために使用される。
論文 参考訳(メタデータ) (2022-04-06T15:15:21Z) - Building Affordance Relations for Robotic Agents - A Review [7.50722199393581]
Affordancesは、エージェントがオブジェクトでアクションを実行する可能性を記述する。
我々は,ロボット作業における余裕の概念を用いて,さまざまな戦略の共通基盤をレビューし,発見する。
AIエージェントの能力を向上させる可能性を秘めたアプライアンスを含むさまざまな興味深い研究方向を特定し、議論します。
論文 参考訳(メタデータ) (2021-05-14T08:35:18Z) - Learning Latent Representations to Influence Multi-Agent Interaction [65.44092264843538]
エージェントのポリシーの潜在表現を学習するための強化学習に基づくフレームワークを提案する。
提案手法は代替手段よりも優れており,他のエージェントに影響を与えることを学習している。
論文 参考訳(メタデータ) (2020-11-12T19:04:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。