論文の概要: SoK: Decentralized AI (DeAI)
- arxiv url: http://arxiv.org/abs/2411.17461v1
- Date: Tue, 26 Nov 2024 14:28:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-27 13:32:54.046014
- Title: SoK: Decentralized AI (DeAI)
- Title(参考訳): SoK: 分散AI(DeAI)
- Authors: Zhipeng Wang, Rui Sun, Elizabeth Lui, Vatsal Shah, Xihan Xiong, Jiahao Sun, Davide Crapis, William Knottenbelt,
- Abstract要約: ブロックチェーンベースのDeAIソリューションのためのSoK(Systematization of Knowledge)を提案する。
モデルライフサイクルに基づいて既存のDeAIプロトコルを分類する分類法を提案する。
我々は、ブロックチェーン機能がAIプロセスのセキュリティ、透明性、信頼性の向上にどのように貢献するかを調査する。
- 参考スコア(独自算出の注目度): 4.651101982820699
- License:
- Abstract: The centralization of Artificial Intelligence (AI) poses significant challenges, including single points of failure, inherent biases, data privacy concerns, and scalability issues. These problems are especially prevalent in closed-source large language models (LLMs), where user data is collected and used without transparency. To mitigate these issues, blockchain-based decentralized AI (DeAI) has emerged as a promising solution. DeAI combines the strengths of both blockchain and AI technologies to enhance the transparency, security, decentralization, and trustworthiness of AI systems. However, a comprehensive understanding of state-of-the-art DeAI development, particularly for active industry solutions, is still lacking. In this work, we present a Systematization of Knowledge (SoK) for blockchain-based DeAI solutions. We propose a taxonomy to classify existing DeAI protocols based on the model lifecycle. Based on this taxonomy, we provide a structured way to clarify the landscape of DeAI protocols and identify their similarities and differences. We analyze the functionalities of blockchain in DeAI, investigating how blockchain features contribute to enhancing the security, transparency, and trustworthiness of AI processes, while also ensuring fair incentives for AI data and model contributors. In addition, we identify key insights and research gaps in developing DeAI protocols, highlighting several critical avenues for future research.
- Abstract(参考訳): 人工知能(AI)の中央集権化は、単一障害点、固有のバイアス、データプライバシの懸念、スケーラビリティの問題など、重大な課題を提起する。
これらの問題は、ユーザデータを収集し、透過性なしで使用する、クローズドソースの大規模言語モデル(LLM)で特に顕著である。
これらの問題を緩和するため、ブロックチェーンベースの分散AI(DeAI)が有望なソリューションとして登場した。
DeAIは、ブロックチェーンとAI技術の強みを組み合わせて、AIシステムの透明性、セキュリティ、分散化、信頼性を高める。
しかし、最先端のDeAI開発に関する包括的理解、特にアクティブな業界ソリューションについては、依然として不足している。
本稿では,ブロックチェーンベースのDeAIソリューションのためのSoK(Systematization of Knowledge)を提案する。
モデルライフサイクルに基づいて既存のDeAIプロトコルを分類する分類法を提案する。
この分類に基づいて、我々はDeAIプロトコルの状況を明確にし、それらの類似点と相違点を特定するための構造化された方法を提供する。
DeAIにおけるブロックチェーンの機能を分析し、ブロックチェーン機能がAIプロセスのセキュリティ、透明性、信頼性の向上にどのように貢献するかを調査し、AIデータとモデルコントリビュータに対する公正なインセンティブを確保します。
さらに,DeAIプロトコル開発における重要な洞察と研究ギャップを明らかにし,今後の研究へのいくつかの重要な道のりを強調した。
関連論文リスト
- OML: Open, Monetizable, and Loyal AI [39.63122342758896]
OML は Open, Monetizable, Loyal AI の略である。
OMLはAI開発を民主化するためのアプローチである。
私たちの研究の重要なイノベーションは、新たな科学分野であるAIネイティブ暗号の導入です。
論文 参考訳(メタデータ) (2024-11-01T18:46:03Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - opp/ai: Optimistic Privacy-Preserving AI on Blockchain [0.0]
これらの問題の先駆的なソリューションとして、最適化プライバシ保護AI(opp/ai)フレームワークが導入されている。
このフレームワークはプライバシーのためのZero-Knowledge Machine Learning (zkML)と効率のためのOptimistic Machine Learning (opML)を統合している。
そこで本研究では,zkMLのプライバシ機能に関するopp/aiフレームワークを提案するとともに,さまざまなシナリオにおけるフレームワークのパフォーマンスと適応性を評価する。
論文 参考訳(メタデータ) (2024-02-22T22:54:41Z) - Generative AI-enabled Blockchain Networks: Fundamentals, Applications,
and Case Study [73.87110604150315]
Generative Artificial Intelligence(GAI)は、ブロックチェーン技術の課題に対処するための有望なソリューションとして登場した。
本稿では、まずGAI技術を紹介し、そのアプリケーションの概要を説明し、GAIをブロックチェーンに統合するための既存のソリューションについて議論する。
論文 参考訳(メタデータ) (2024-01-28T10:46:17Z) - Trust, Accountability, and Autonomy in Knowledge Graph-based AI for
Self-determination [1.4305544869388402]
知識グラフ(KG)は、インテリジェントな意思決定を支えるための基盤として登場した。
KGと神経学習の統合は、現在活発な研究のトピックである。
本稿では,KGベースのAIによる自己決定を支援するための基礎的なトピックと研究の柱を概念化する。
論文 参考訳(メタデータ) (2023-10-30T12:51:52Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Data-centric AI: Perspectives and Challenges [51.70828802140165]
データ中心AI(DCAI)は、モデル進歩からデータ品質と信頼性の確保への根本的なシフトを提唱している。
データ開発、推論データ開発、データメンテナンスの3つの一般的なミッションをまとめます。
論文 参考訳(メタデータ) (2023-01-12T05:28:59Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Is Decentralized AI Safer? [0.0]
さまざまなグループがオープンなAIシステムを構築し、リスクを調査し、倫理について議論している。
本稿では,ブロックチェーン技術がこれらの取り組みをどのように促進し,形式化するかを実証する。
AIの分散化は、AIのリスクと倫理的懸念を軽減するだけでなく、今後の作業で考慮すべき新しい問題も導入する、と私たちは主張する。
論文 参考訳(メタデータ) (2022-11-04T01:01:31Z) - APPFLChain: A Privacy Protection Distributed Artificial-Intelligence
Architecture Based on Federated Learning and Consortium Blockchain [6.054775780656853]
APPFLChainと呼ばれる新しいシステムアーキテクチャを提案する。
これはHyperledger Fabricベースのブロックチェーンとフェデレーション学習パラダイムの統合アーキテクチャである。
我々の新しいシステムは、機密性の高い個人情報をサーバに共有する必要がないため、高いセキュリティとプライバシを維持することができる。
論文 参考訳(メタデータ) (2022-06-26T05:30:07Z) - Distributed and Democratized Learning: Philosophy and Research
Challenges [80.39805582015133]
民主化学習(Dem-AI)という新しいデザイン哲学を提案する。
ヒトの社会的グループに触発され、提案されたDem-AIシステムの学習エージェントの専門グループは階層構造で自己組織化され、より効率的に学習タスクを遂行する。
本稿では,様々な学際分野に触発された未来のDem-AIシステムを実現するためのガイドラインとして,参照設計を提案する。
論文 参考訳(メタデータ) (2020-03-18T08:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。