論文の概要: Decentralized Governance of Autonomous AI Agents
- arxiv url: http://arxiv.org/abs/2412.17114v3
- Date: Sat, 11 Jan 2025 16:14:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-14 21:19:24.860918
- Title: Decentralized Governance of Autonomous AI Agents
- Title(参考訳): 自律型AIエージェントの分散ガバナンス
- Authors: Tomer Jordi Chaffer, Charles von Goins II, Bayo Okusanya, Dontrail Cotlage, Justin Goldston,
- Abstract要約: ETHOSは、ブロックチェーン、スマートコントラクト、分散自律組織(DAO)など、Web3テクノロジを活用する分散ガバナンス(DeGov)モデルである。
AIエージェントのグローバルレジストリを確立し、動的リスク分類、比例監視、自動コンプライアンス監視を可能にする。
合理性、倫理的根拠、ゴールアライメントの哲学的原則を統合することで、ETHOSは信頼、透明性、参加的ガバナンスを促進するための堅牢な研究アジェンダを作ることを目指している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous AI agents present transformative opportunities and significant governance challenges. Existing frameworks, such as the EU AI Act and the NIST AI Risk Management Framework, fall short of addressing the complexities of these agents, which are capable of independent decision-making, learning, and adaptation. To bridge these gaps, we propose the ETHOS (Ethical Technology and Holistic Oversight System) framework, a decentralized governance (DeGov) model leveraging Web3 technologies, including blockchain, smart contracts, and decentralized autonomous organizations (DAOs). ETHOS establishes a global registry for AI agents, enabling dynamic risk classification, proportional oversight, and automated compliance monitoring through tools like soulbound tokens and zero-knowledge proofs. Furthermore, the framework incorporates decentralized justice systems for transparent dispute resolution and introduces AI specific legal entities to manage limited liability, supported by mandatory insurance to ensure financial accountability and incentivize ethical design. By integrating philosophical principles of rationality, ethical grounding, and goal alignment, ETHOS aims to create a robust research agenda for promoting trust, transparency, and participatory governance. This innovative framework offers a scalable and inclusive strategy for regulating AI agents, balancing innovation with ethical responsibility to meet the demands of an AI-driven future.
- Abstract(参考訳): 自律型AIエージェントは、変革的な機会と重要なガバナンス課題を提示します。
EU AI ActやNIST AI Risk Management Frameworkといった既存のフレームワークは、独立した意思決定、学習、適応が可能なこれらのエージェントの複雑さに対処できない。
これらのギャップを埋めるために、ブロックチェーン、スマートコントラクト、分散自律組織(DAOs)を含むWeb3テクノロジを活用する分散ガバナンス(DeGov)モデルであるETHOS(Ethical Technology and Holistic Oversight System)フレームワークを提案する。
ETHOSは、動的リスク分類、比例監視、ソウルバウンドトークンやゼロ知識証明といったツールによる自動コンプライアンス監視を可能にする、AIエージェントのグローバルレジストリを確立する。
さらに、この枠組みには、透明性のある紛争解決のための分散正義システムが含まれており、金融説明責任の確保と倫理的デザインのインセンティブを高めるために、義務付き保険によって支援された、限定的な負債を管理するためのAI固有の法的実体を導入している。
合理性、倫理的根拠、ゴールアライメントの哲学的原則を統合することで、ETHOSは信頼、透明性、参加的ガバナンスを促進するための堅牢な研究アジェンダを作ることを目指している。
この革新的なフレームワークは、AIエージェントを規制するスケーラブルで包括的な戦略を提供し、AI駆動の未来の要求を満たすために、イノベーションと倫理的責任のバランスをとる。
関連論文リスト
- The Role of Legal Frameworks in Shaping Ethical Artificial Intelligence Use in Corporate Governance [0.0]
本稿では、企業統治における倫理的人工知能(AI)利用の形成における法的枠組みの進化的役割について考察する。
企業AIアプリケーションにおける透明性、説明責任、公正性の促進を目的とした、重要な法的および規制的なアプローチを探求する。
論文 参考訳(メタデータ) (2025-03-17T14:21:58Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - Fairness in Agentic AI: A Unified Framework for Ethical and Equitable Multi-Agent System [0.0]
本稿では,公正性をエージェント相互作用の動的,創発的特性として扱う新しい枠組みを提案する。
この枠組みは、公正な制約、バイアス軽減戦略、および自律的なエージェント行動と社会的価値を整合させるインセンティブメカニズムを統合する。
論文 参考訳(メタデータ) (2025-02-11T04:42:00Z) - Agentic AI: Autonomy, Accountability, and the Algorithmic Society [0.2209921757303168]
エージェント人工知能(AI)は、自律的に長期的な目標を追求し、意思決定を行い、複雑なマルチターンを実行することができる。
この指導的役割から積極的執行課題への移行は、法的、経済的、創造的な枠組みを確立した。
我々は,創造性と知的財産,法的・倫理的考察,競争効果の3つの分野における課題を探求する。
論文 参考訳(メタデータ) (2025-02-01T03:14:59Z) - A Blockchain-Enabled Approach to Cross-Border Compliance and Trust [0.0]
本稿では,ブロックチェーンと分散台帳技術(DLT)を活用した,AIガバナンスの新しいアプローチを提案する。
ブロックチェーン、AI倫理、サイバーセキュリティの進歩を合成することにより、分散AIガバナンスフレームワークの包括的なロードマップを提供する。
論文 参考訳(メタデータ) (2025-01-15T22:19:34Z) - Towards a Privacy and Security-Aware Framework for Ethical AI: Guiding
the Development and Assessment of AI Systems [0.0]
本研究は2020年から2023年までの系統的な文献レビューを行う。
本研究は,SLRから抽出した知識の合成を通じて,プライバシとセキュリティを意識したAIシステムに適した概念的枠組みを提案する。
論文 参考訳(メタデータ) (2024-03-13T15:39:57Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - International Institutions for Advanced AI [47.449762587672986]
国際機関は、高度なAIシステムが人類に利益をもたらすための重要な役割を担っているかもしれない。
本稿では,これらの課題に対処するために,国際レベルで実施可能な一連のガバナンス機能について述べる。
これらの機能を4つの組織モデルに分類し、内部のシナジーを示し、既存の組織で先例を持つ。
論文 参考訳(メタデータ) (2023-07-10T16:55:55Z) - Connecting the Dots in Trustworthy Artificial Intelligence: From AI
Principles, Ethics, and Key Requirements to Responsible AI Systems and
Regulation [22.921683578188645]
私たちは、真に信頼できるAIを達成することは、システムのライフサイクルの一部であるすべてのプロセスとアクターの信頼性を懸念する、と論じています。
AIベースのシステムの倫理的利用と開発のためのグローバルな原則、AI倫理に対する哲学的な見解、AI規制に対するリスクベースのアプローチである。
信頼できるAIに関する私たちの学際的なビジョンは、最近発表されたAIの未来に関するさまざまな見解に関する議論で頂点に達した。
論文 参考訳(メタデータ) (2023-05-02T09:49:53Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Putting AI Ethics into Practice: The Hourglass Model of Organizational
AI Governance [0.0]
AIシステムの開発と利用を目標とする,AIガバナンスフレームワークを提案する。
このフレームワークは、AIシステムをデプロイする組織が倫理的AI原則を実践に翻訳するのを助けるように設計されている。
論文 参考訳(メタデータ) (2022-06-01T08:55:27Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - A Decentralized Approach Towards Responsible AI in Social Ecosystems [0.0]
社会生態系の当事者が望ましいAI行動を生み出すための計算施設を提供する枠組みを提示する。
アーキテクチャレベルでAIシステムを分析し、AIシステムアーキテクチャのための2つの暗号メカニズムを提案する。
我々は、分散アプローチがコンピュータ科学と社会科学の両方の観点から、責任あるaiへの最も有望な道であると主張する。
論文 参考訳(メタデータ) (2021-02-12T06:33:42Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。