論文の概要: Trustless Autonomy: Understanding Motivations, Benefits and Governance Dilemma in Self-Sovereign Decentralized AI Agents
- arxiv url: http://arxiv.org/abs/2505.09757v1
- Date: Wed, 14 May 2025 19:42:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-16 22:29:06.091496
- Title: Trustless Autonomy: Understanding Motivations, Benefits and Governance Dilemma in Self-Sovereign Decentralized AI Agents
- Title(参考訳): 信頼できない自律: 自律的な分散AIエージェントにおけるモチベーション、利益、ガバナンスのジレンマを理解する
- Authors: Botao Amber Hu, Yuhan Liu, Helena Rong,
- Abstract要約: 自己主権型分散AIエージェント(DeAgents)の最近のトレンドは、Large Language Model(LLM)ベースのAIエージェントと、ブロックチェーンスマートコントラクトや信頼できる実行環境(TEE)などの分散テクノロジを組み合わせたものだ。
DeAgentは集中管理を排除し、人間の介入を減らす。
この研究は、DeAgentsの利害関係者-専門家、創業者、開発者-へのインタビューを通じて、彼らのモチベーション、利益、ガバナンスのジレンマを調べることで、この経験的な研究ギャップに対処する。
- 参考スコア(独自算出の注目度): 14.287042083260204
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The recent trend of self-sovereign Decentralized AI Agents (DeAgents) combines Large Language Model (LLM)-based AI agents with decentralization technologies such as blockchain smart contracts and trusted execution environments (TEEs). These tamper-resistant trustless substrates allow agents to achieve self-sovereignty through ownership of cryptowallet private keys and control of digital assets and social media accounts. DeAgent eliminates centralized control and reduces human intervention, addressing key trust concerns inherent in centralized AI systems. However, given ongoing challenges in LLM reliability such as hallucinations, this creates paradoxical tension between trustlessness and unreliable autonomy. This study addresses this empirical research gap through interviews with DeAgents stakeholders-experts, founders, and developers-to examine their motivations, benefits, and governance dilemmas. The findings will guide future DeAgents system and protocol design and inform discussions about governance in sociotechnical AI systems in the future agentic web.
- Abstract(参考訳): 自己主権型分散AIエージェント(DeAgents)の最近のトレンドは、Large Language Model(LLM)ベースのAIエージェントと、ブロックチェーンスマートコントラクトや信頼できる実行環境(TEE)などの分散テクノロジを組み合わせたものだ。
これらの改ざん耐性の無信頼な基板は、暗号ウォレットの秘密鍵の所有とデジタル資産とソーシャルメディアアカウントの制御を通じて、エージェントが自己主権を達成することを可能にする。
DeAgentは集中管理を排除し、人間の介入を減らす。
しかし、幻覚のようなLLMの信頼性に関する継続的な課題を考えると、これは信頼の欠如と信頼できない自律性の間にパラドックス的な緊張をもたらす。
この研究は、DeAgentsの利害関係者-専門家、創業者、開発者-へのインタビューを通じて、彼らのモチベーション、利益、ガバナンスのジレンマを調べることで、この経験的な研究ギャップに対処する。
この発見は、未来のDeAgentsシステムとプロトコル設計をガイドし、未来のエージェントWebにおける社会技術AIシステムのガバナンスに関する議論を通知する。
関連論文リスト
- Internet of Agents: Fundamentals, Applications, and Challenges [66.44234034282421]
異種エージェント間のシームレスな相互接続、動的発見、協調的なオーケストレーションを可能にする基盤となるフレームワークとして、エージェントのインターネット(IoA)を紹介した。
我々は,機能通知と発見,適応通信プロトコル,動的タスクマッチング,コンセンサスとコンフリクト解決機構,インセンティブモデルなど,IoAの重要な運用イネーラを分析した。
論文 参考訳(メタデータ) (2025-05-12T02:04:37Z) - LOKA Protocol: A Decentralized Framework for Trustworthy and Ethical AI Agent Ecosystems [0.0]
我々は倫理的に統制された相互運用可能なAIエージェントエコシステムを構築するための統一されたシステムレベルのアーキテクチャであるLoka Protocol(Layered Orchestration for Knowledgeful Agents)を提示する。
Lokaは、分散化された検証可能なアイデンティティのためのUniversal Agent Identity Layer (UAIL)、多種多様なエージェント間のセマンティックコーディネーションのためのインテント中心の通信プロトコル、そしてエージェントが共有倫理的ベースラインに根ざしたコンテキスト認識決定を可能にするDecentralized Ethical Consensus Protocol (DECP)を導入している。
論文 参考訳(メタデータ) (2025-04-15T06:51:35Z) - Do LLMs trust AI regulation? Emerging behaviour of game-theoretic LLM agents [61.132523071109354]
本稿では、異なる規制シナリオ下での戦略選択をモデル化する、AI開発者、規制当局、ユーザ間の相互作用について検討する。
我々の研究は、純粋なゲーム理論エージェントよりも「悲観的」な姿勢を採用する傾向にある戦略的AIエージェントの出現する振る舞いを特定する。
論文 参考訳(メタデータ) (2025-04-11T15:41:21Z) - Real AI Agents with Fake Memories: Fatal Context Manipulation Attacks on Web3 Agents [36.49717045080722]
本稿では,ブロックチェーンベースの金融エコシステムにおけるAIエージェントの脆弱性を,現実のシナリオにおける敵対的脅威に曝露した場合に検討する。
我々は、保護されていないコンテキスト表面を利用する包括的攻撃ベクトルであるコンテキスト操作の概念を導入する。
これらの脆弱性を定量化するために、コンテキスト操作攻撃に対するAIエージェントの堅牢性を評価するWeb3ドメイン固有のベンチマークであるCrAIBenchを設計する。
論文 参考訳(メタデータ) (2025-03-20T15:44:31Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - Can We Govern the Agent-to-Agent Economy? [0.0]
AIガバナンスに対する現在のアプローチは、AIエージェントが重要なタスクを管理する未来を予測できないことが多い。
我々は、将来の分散化エージェント経済を期待して、研究開発活動に情報を提供するために、業界における新たな概念を強調します。
論文 参考訳(メタデータ) (2025-01-28T00:50:35Z) - Decentralized Governance of Autonomous AI Agents [0.0]
ETHOSは、ブロックチェーン、スマートコントラクト、分散自律組織(DAO)など、Web3テクノロジを活用する分散ガバナンス(DeGov)モデルである。
AIエージェントのグローバルレジストリを確立し、動的リスク分類、比例監視、自動コンプライアンス監視を可能にする。
合理性、倫理的根拠、ゴールアライメントの哲学的原則を統合することで、ETHOSは信頼、透明性、参加的ガバナンスを促進するための堅牢な研究アジェンダを作ることを目指している。
論文 参考訳(メタデータ) (2024-12-22T18:01:49Z) - Large Model Based Agents: State-of-the-Art, Cooperation Paradigms, Security and Privacy, and Future Trends [64.57762280003618]
近い将来、LM駆動の汎用AIエージェントが、生産タスクにおいて不可欠なツールとして機能することが予想される。
本稿では,将来のLMエージェントの自律的協調に関わるシナリオについて検討する。
論文 参考訳(メタデータ) (2024-09-22T14:09:49Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。