論文の概要: Decentralised Governance for Foundation Model based Systems: Exploring
the Role of Blockchain in Responsible AI
- arxiv url: http://arxiv.org/abs/2308.05962v1
- Date: Fri, 11 Aug 2023 06:41:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-14 14:54:07.026724
- Title: Decentralised Governance for Foundation Model based Systems: Exploring
the Role of Blockchain in Responsible AI
- Title(参考訳): ファンデーションモデルに基づくシステムの分散ガバナンス - 責任あるAIにおけるブロックチェーンの役割を探る
- Authors: Yue Liu, Qinghua Lu, Liming Zhu, Hye-Young Paik
- Abstract要約: 基礎モデルに基づくAIシステムのライフサイクル全体の8つのガバナンス課題を特定します。
課題に対処するためのソリューションとしてブロックチェーンの可能性を探る。
基礎モデルに基づくAIシステムにおいて,ブロックチェーンをどのように活用してガバナンスを実現するかを示すアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 14.499657680595776
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Foundation models are increasingly attracting interest worldwide for their
distinguished capabilities and potential to perform a wide variety of tasks.
Nevertheless, people are concerned about whether foundation model based AI
systems are properly governed to ensure trustworthiness of foundation model
based AI systems and to prevent misuse that could harm humans, society and the
environment. In this paper, we identify eight governance challenges in the
entire lifecycle of foundation model based AI systems regarding the three
fundamental dimensions of governance: decision rights, incentives, and
accountability. Furthermore, we explore the potential of blockchain as a
solution to address the challenges by providing a distributed ledger to
facilitate decentralised governance. We present an architecture that
demonstrates how blockchain can be leveraged to realise governance in
foundation model based AI systems.
- Abstract(参考訳): ファンデーションモデルは、その優れた能力と幅広いタスクを実行する可能性のために、世界中で関心を集めています。
それでも、ファンデーションモデルベースのAIシステムが、ファンデーションモデルベースのAIシステムの信頼性を確保するために適切に管理されているか、人間、社会、環境を傷つける可能性のある誤用を防ぐために、人々は懸念している。
本稿では,基本モデルに基づくAIシステムのライフサイクル全体において,決定権,インセンティブ,説明責任の3つの基本的な側面に関する8つのガバナンス課題を特定する。
さらに,分散ガバナンスを促進する分散型台帳を提供することによって,課題に対処するソリューションとしてのブロックチェーンの可能性についても検討する。
基礎モデルに基づくAIシステムにおいて,ブロックチェーンをどのように活用してガバナンスを実現するかを示すアーキテクチャを提案する。
関連論文リスト
- SoK: Decentralized AI (DeAI) [4.651101982820699]
ブロックチェーンベースのDeAIソリューションのためのSoK(Systematization of Knowledge)を提案する。
モデルライフサイクルに基づいて既存のDeAIプロトコルを分類する分類法を提案する。
我々は、ブロックチェーン機能がAIプロセスのセキュリティ、透明性、信頼性の向上にどのように貢献するかを調査する。
論文 参考訳(メタデータ) (2024-11-26T14:28:25Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - DAOs of Collective Intelligence? Unraveling the Complexity of Blockchain Governance in Decentralized Autonomous Organizations [0.7499722271664144]
分散自律組織(DAO)は、従来の制御から分散制御へ移行することで、組織構造を変革してきた。
重要な資金を管理し、グローバルネットワークを構築するにもかかわらず、DAOは参加の減少、集中化の増大、変化する環境に適応できないといった課題に直面している。
本稿では,複雑なシステムについて考察し,その非効率性を説明するために複雑性科学を適用した。
論文 参考訳(メタデータ) (2024-09-03T12:06:15Z) - Enhancing Trust and Privacy in Distributed Networks: A Comprehensive Survey on Blockchain-based Federated Learning [51.13534069758711]
ブロックチェーンのような分散型アプローチは、複数のエンティティ間でコンセンサスメカニズムを実装することで、魅力的なソリューションを提供する。
フェデレートラーニング(FL)は、参加者がデータのプライバシを保護しながら、協力的にモデルをトレーニングすることを可能にする。
本稿では,ブロックチェーンのセキュリティ機能とFLのプライバシ保護モデルトレーニング機能の相乗効果について検討する。
論文 参考訳(メタデータ) (2024-03-28T07:08:26Z) - Generative AI-enabled Blockchain Networks: Fundamentals, Applications,
and Case Study [73.87110604150315]
Generative Artificial Intelligence(GAI)は、ブロックチェーン技術の課題に対処するための有望なソリューションとして登場した。
本稿では、まずGAI技術を紹介し、そのアプリケーションの概要を説明し、GAIをブロックチェーンに統合するための既存のソリューションについて議論する。
論文 参考訳(メタデータ) (2024-01-28T10:46:17Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - A Reference Architecture for Designing Foundation Model based Systems [28.826700360670515]
ファンデーションモデルが将来のAIシステムの基本的なビルディングブロックになる、という広いコンセンサスがある。
基礎モデルをAIシステムに組み込むことは、責任と安全性に関する重要な懸念を提起する。
本稿では,基礎モデルに基づくシステム設計のためのパターン指向参照アーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-04-13T05:01:03Z) - On the Opportunities and Risks of Foundation Models [256.61956234436553]
これらのモデルの基礎モデルは、批判的に中心的だが不完全な性格を根底から立証するものです。
本報告では,基礎モデルの可能性とリスクについて概説する。
これらの疑問に対処するためには、基礎モデルに関する重要な研究の多くは、深い学際的なコラボレーションが必要であると信じている。
論文 参考訳(メタデータ) (2021-08-16T17:50:08Z) - A Decentralized Approach Towards Responsible AI in Social Ecosystems [0.0]
社会生態系の当事者が望ましいAI行動を生み出すための計算施設を提供する枠組みを提示する。
アーキテクチャレベルでAIシステムを分析し、AIシステムアーキテクチャのための2つの暗号メカニズムを提案する。
我々は、分散アプローチがコンピュータ科学と社会科学の両方の観点から、責任あるaiへの最も有望な道であると主張する。
論文 参考訳(メタデータ) (2021-02-12T06:33:42Z) - Distributed and Democratized Learning: Philosophy and Research
Challenges [80.39805582015133]
民主化学習(Dem-AI)という新しいデザイン哲学を提案する。
ヒトの社会的グループに触発され、提案されたDem-AIシステムの学習エージェントの専門グループは階層構造で自己組織化され、より効率的に学習タスクを遂行する。
本稿では,様々な学際分野に触発された未来のDem-AIシステムを実現するためのガイドラインとして,参照設計を提案する。
論文 参考訳(メタデータ) (2020-03-18T08:45:10Z) - AAAI FSS-19: Human-Centered AI: Trustworthiness of AI Models and Data
Proceedings [8.445274192818825]
予測モデルは不確実性を認識し、信頼できる予測をもたらすことが不可欠である。
このシンポジウムの焦点は、データ品質と技術的堅牢性と安全性を改善するAIシステムであった。
広く定義された領域からの提出はまた、説明可能なモデル、人間の信頼、AIの倫理的側面といった要求に対処するアプローチについても論じた。
論文 参考訳(メタデータ) (2020-01-15T15:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。