論文の概要: QOC DAO - Stepwise Development Towards an AI Driven Decentralized Autonomous Organization
- arxiv url: http://arxiv.org/abs/2511.08641v1
- Date: Thu, 13 Nov 2025 01:01:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 22:34:54.167397
- Title: QOC DAO - Stepwise Development Towards an AI Driven Decentralized Autonomous Organization
- Title(参考訳): QOC DAO - AI駆動の分散型自律組織に向けたステップワイドな開発
- Authors: Marc Jansen, Christophe Verdot,
- Abstract要約: 本稿では、分散型自治組織(DAO)における意思決定改善のための構造的アプローチを紹介する。
人間の主導による評価から、完全に自律的でAI駆動のプロセスへと進化する、段階的なガバナンスフレームワークを概説する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces a structured approach to improving decision making in Decentralized Autonomous Organizations (DAO) through the integration of the Question-Option-Criteria (QOC) model and AI agents. We outline a stepwise governance framework that evolves from human led evaluations to fully autonomous, AI-driven processes. By decomposing decisions into weighted, criterion based evaluations, the QOC model enhances transparency, fairness, and explainability in DAO voting. We demonstrate how large language models (LLMs) and stakeholder aligned AI agents can support or automate evaluations, while statistical safeguards help detect manipulation. The proposed framework lays the foundation for scalable and trustworthy governance in the Web3 ecosystem.
- Abstract(参考訳): 本稿では、QOCモデルとAIエージェントの統合により、分散自律組織(DAO)における意思決定を改善するための構造化アプローチを提案する。
人間の主導による評価から、完全に自律的でAI駆動のプロセスへと進化する、段階的なガバナンスフレームワークを概説する。
決定を重み付けされた基準に基づく評価に分解することで、QOCモデルはDAO投票における透明性、公平性、説明可能性を高める。
我々は、大規模言語モデル(LLM)と利害関係者のAIエージェントがどのように評価をサポートし、自動化できるかを実証し、統計的保護は操作を検出するのに役立ちます。
提案されたフレームワークは、Web3エコシステムにおけるスケーラブルで信頼できるガバナンスの基礎を成している。
関連論文リスト
- Increasing AI Explainability by LLM Driven Standard Processes [0.0]
本稿では,Large Language Models (LLM) を標準化された分析プロセスに組み込むことにより,人工知能(AI)システムの説明可能性を高めるアプローチを提案する。
LLMの推論空間と、その上の説明可能なプロセス空間とを分離する階層アーキテクチャが提示される。
実証的な評価は、システムが分散ガバナンス、システム分析、戦略的推論コンテキストにおいて、人間レベルの決定ロジックを再現可能であることを示している。
論文 参考訳(メタデータ) (2025-11-10T13:16:10Z) - DAO-AI: Evaluating Collective Decision-Making through Agentic AI in Decentralized Governance [7.230919380272301]
本稿では,分散型ガバナンスにおける自律的意思決定者としてのエージェントAIの実証的研究について述べる。
我々は、提案コンテキストを解釈し、過去の審議データを検索し、その投票位置を独立して決定するエージェントAI投票者を構築する。
この研究は、分散金融システムのための説明可能な、経済的に厳格なAIエージェントの設計に寄与する。
論文 参考訳(メタデータ) (2025-10-24T03:13:14Z) - A Comprehensive Survey of Self-Evolving AI Agents: A New Paradigm Bridging Foundation Models and Lifelong Agentic Systems [53.37728204835912]
既存のAIシステムは、デプロイ後も静的な手作業による構成に依存している。
近年,インタラクションデータと環境フィードバックに基づいてエージェントシステムを自動拡張するエージェント進化手法が研究されている。
この調査は、自己進化型AIエージェントの体系的な理解を研究者や実践者に提供することを目的としている。
論文 参考訳(メタデータ) (2025-08-10T16:07:32Z) - Web3 x AI Agents: Landscape, Integrations, and Foundational Challenges [49.69200207497795]
Web3テクノロジとAIエージェントの収束は、分散化されたエコシステムを再形成する、急速に進化するフロンティアを表している。
本稿では, ランドスケープ, 経済, ガバナンス, セキュリティ, 信頼メカニズムの5つの重要な側面について, Web3 と AI エージェントの交わりについて, 初めてかつ最も包括的な分析を行った。
論文 参考訳(メタデータ) (2025-08-04T15:44:58Z) - The AI Imperative: Scaling High-Quality Peer Review in Machine Learning [49.87236114682497]
AIによるピアレビューは、緊急の研究とインフラの優先事項になるべきだ、と私たちは主張する。
我々は、事実検証の強化、レビュアーのパフォーマンスの指導、品質改善における著者の支援、意思決定におけるAC支援におけるAIの具体的な役割を提案する。
論文 参考訳(メタデータ) (2025-06-09T18:37:14Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - Decentralized Governance of Autonomous AI Agents [0.0]
ETHOSは、ブロックチェーン、スマートコントラクト、分散自律組織(DAO)など、Web3テクノロジを活用する分散ガバナンス(DeGov)モデルである。
AIエージェントのグローバルレジストリを確立し、動的リスク分類、比例監視、自動コンプライアンス監視を可能にする。
合理性、倫理的根拠、ゴールアライメントの哲学的原則を統合することで、ETHOSは信頼、透明性、参加的ガバナンスを促進するための堅牢な研究アジェンダを作ることを目指している。
論文 参考訳(メタデータ) (2024-12-22T18:01:49Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Measuring Value Alignment [12.696227679697493]
本稿では,AIシステムと人的価値の整合性を定量化する新しいフォーマリズムを提案する。
このフォーマリズムを利用することで、AI開発者と倫理学者は、人間の価値と調和して動作するように、AIシステムを設計し、評価することができる。
論文 参考訳(メタデータ) (2023-12-23T12:30:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。