論文の概要: A Blockchain-based Platform for Reliable Inference and Training of
Large-Scale Models
- arxiv url: http://arxiv.org/abs/2305.04062v1
- Date: Sat, 6 May 2023 14:21:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-09 18:00:17.423311
- Title: A Blockchain-based Platform for Reliable Inference and Training of
Large-Scale Models
- Title(参考訳): 大規模モデルの信頼できる推論とトレーニングのためのブロックチェーンベースのプラットフォーム
- Authors: Sanghyeon Park, Junmo Lee, Soo-Mook Moon
- Abstract要約: 我々は、大規模モデルの信頼性の高い推論とトレーニングを保証するために特別に設計された、新しいプラットフォームであるBRAINを紹介する。
BRAINはユニークな2フェーズトランザクション機構を利用し、パイプライニングによるリアルタイム処理を可能にする。
BRAINは、合理的なガス料金でかなり高い推論スループットを提供する。
- 参考スコア(独自算出の注目度): 1.323497585762675
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: As artificial intelligence (AI) continues to permeate various domains,
concerns surrounding trust and transparency in AI-driven inference and training
processes have emerged, particularly with respect to potential biases and
traceability challenges. Decentralized solutions such as blockchain have been
proposed to tackle these issues, but they often struggle when dealing with
large-scale models, leading to time-consuming inference and inefficient
training verification. To overcome these limitations, we introduce BRAIN, a
Blockchain-based Reliable AI Network, a novel platform specifically designed to
ensure reliable inference and training of large models. BRAIN harnesses a
unique two-phase transaction mechanism, allowing real-time processing via
pipelining by separating request and response transactions. Each
randomly-selected inference committee commits and reveals the inference
results, and upon reaching an agreement through a smart contract, then the
requested operation is executed using the consensus result. Additionally, BRAIN
carries out training by employing a randomly-selected training committee. They
submit commit and reveal transactions along with their respective scores,
enabling local model aggregation based on the median value of the scores.
Experimental results demonstrate that BRAIN delivers considerably higher
inference throughput at reasonable gas fees. In particular, BRAIN's
tasks-per-second performance is 454.4293 times greater than that of a naive
single-phase implementation.
- Abstract(参考訳): 人工知能(AI)がさまざまな領域に浸透し続けており、AIによる推論とトレーニングプロセスにおける信頼と透明性に関する懸念が生まれている。
ブロックチェーンのような分散ソリューションはこれらの問題に対処するために提案されているが、大規模なモデルを扱う場合にはしばしば苦労する。
これらの制限を克服するため、BRAINはブロックチェーンベースのReliable AI Networkで、大規模モデルの信頼性の高い推論とトレーニングを保証するように設計された、新しいプラットフォームである。
リクエストとレスポンスのトランザクションを分離することで、パイプライン化によるリアルタイム処理を可能にする。
各ランダム選択された推論委員会は、推論結果をコミットして公開し、スマートコントラクトを介して合意に達すると、コンセンサス結果を用いて要求された操作を実行する。
さらに、脳はランダムに選択された訓練委員会を用いてトレーニングを行う。
彼らはコミットを送信し、各スコアと共にトランザクションを明らかにし、スコアの中央値に基づいてローカルモデルアグリゲーションを可能にする。
実験の結果,BRAINは適切なガス料金でかなり高い推算スループットを提供することがわかった。
特に、BRAINのタスク/秒のパフォーマンスは、単純な単一フェーズの実装の454.4293倍である。
関連論文リスト
- Bidirectional Decoding: Improving Action Chunking via Closed-Loop Resampling [51.38330727868982]
双方向デコーディング(BID)は、クローズドループ操作で動作チャンキングをブリッジするテスト時間推論アルゴリズムである。
BIDは、7つのシミュレーションベンチマークと2つの実世界のタスクにまたがって、最先端の2つの生成ポリシーの性能を向上させることを示す。
論文 参考訳(メタデータ) (2024-08-30T15:39:34Z) - LoRA-Ensemble: Efficient Uncertainty Modelling for Self-attention Networks [52.46420522934253]
本稿では,自己注意ネットワークのためのパラメータ効率の高いディープアンサンブル手法であるLoRA-Ensembleを紹介する。
全メンバー間で重みを共有できる1つの事前学習型自己注意ネットワークを利用することで、注意投影のために、メンバー固有の低ランク行列を訓練する。
提案手法は明示的なアンサンブルよりも優れたキャリブレーションを示し,様々な予測タスクやデータセットに対して類似あるいは良好な精度を実現する。
論文 参考訳(メタデータ) (2024-05-23T11:10:32Z) - Task-agnostic Decision Transformer for Multi-type Agent Control with Federated Split Training [34.80971707794908]
Federated Split Decision Transformer (FSDT)は、AIエージェント決定タスク用に明示的に設計された革新的なフレームワークである。
FSDTフレームワークは、トレーニングに分散データを活用することで、パーソナライズされたエージェントの複雑さをナビゲートする。
本研究は、分散オフライン強化学習データを効果的に活用し、強力なマルチタイプエージェント決定システムを実現するためのFSDTフレームワークの有効性を裏付けるものである。
論文 参考訳(メタデータ) (2024-05-22T08:37:37Z) - Ranking-based Client Selection with Imitation Learning for Efficient Federated Learning [20.412469498888292]
フェデレートラーニング(FL)は、複数のデバイスが共同で共有モデルをトレーニングすることを可能にする。
各トレーニングラウンドにおける参加デバイスの選択は、モデル性能とトレーニング効率の両方に重大な影響を及ぼす。
我々は、エンドツーエンドのランキングベースのアプローチであるFedRankという新しいデバイス選択ソリューションを導入する。
論文 参考訳(メタデータ) (2024-05-07T08:44:29Z) - Secure Decentralized Learning with Blockchain [13.795131629462798]
Federated Learning(FL)は、モバイルとIoTデバイスにおける分散機械学習のパラダイムとしてよく知られている。
FLにおける単一障害点問題を回避するため、分散学習(DFL)がモデル集約にピアツーピア通信を使用することが提案されている。
論文 参考訳(メタデータ) (2023-10-10T23:45:17Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - Anomaly Detection through Unsupervised Federated Learning [0.0]
フェデレートラーニングは、分散リソースを活用する上で最も有望なパラダイムの1つであることが証明されています。
本稿では,前処理フェーズを通じて,クライアントをコミュニティにグループ化する手法を提案する。
結果の異常検出モデルは共有され、同じコミュニティのクライアント内の異常を検出するために使用される。
論文 参考訳(メタデータ) (2022-09-09T08:45:47Z) - Towards a Better Microcredit Decision [0.0]
まず、融資プロセス全体を通じて順次依存する3つの段階を定義し、例えば、貸付(AR)、引受申告書(WS)、返済契約(GB)を定めます。
提案手法は単純かつ効果的であり,中国のトップローンプラットフォームから得られた実データを用いた実験結果から,人口バイアスを緩和し,モデル一般化能力を向上させる能力を示した。
論文 参考訳(メタデータ) (2022-08-23T12:24:19Z) - Asynchronous Parallel Incremental Block-Coordinate Descent for
Decentralized Machine Learning [55.198301429316125]
機械学習(ML)は、巨大なIoT(Internet of Things)ベースのインテリジェントでユビキタスなコンピューティングのビッグデータ駆動モデリングと分析のための重要なテクニックである。
急成長するアプリケーションやデータ量にとって、分散学習は有望な新興パラダイムである。
本稿では,多くのユーザデバイスに分散した分散システム上でMLモデルをトレーニングする問題について検討する。
論文 参考訳(メタデータ) (2022-02-07T15:04:15Z) - Secure Distributed Training at Scale [65.7538150168154]
ピアの存在下でのトレーニングには、ビザンティン寛容な特殊な分散トレーニングアルゴリズムが必要である。
本稿では,コミュニケーション効率を重視したセキュアな(ビザンチン耐性)分散トレーニングのための新しいプロトコルを提案する。
論文 参考訳(メタデータ) (2021-06-21T17:00:42Z) - Low-Latency Federated Learning over Wireless Channels with Differential
Privacy [142.5983499872664]
フェデレートラーニング(FL)では、モデルトレーニングはクライアントに分散し、ローカルモデルは中央サーバによって集約される。
本稿では,各クライアントの差分プライバシ(DP)要件だけでなく,全体としてのトレーニング性能に制約された無線チャネル上でのFLトレーニング遅延を最小限に抑えることを目的とする。
論文 参考訳(メタデータ) (2021-06-20T13:51:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。