論文の概要: Survey on the Convergence of Machine Learning and Blockchain
- arxiv url: http://arxiv.org/abs/2201.00976v1
- Date: Tue, 4 Jan 2022 04:47:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-05 14:15:46.638877
- Title: Survey on the Convergence of Machine Learning and Blockchain
- Title(参考訳): 機械学習とブロックチェーンの収束性に関する調査
- Authors: Shengwen Ding, Chenhui Hu
- Abstract要約: 機械学習(ML)は近年広く研究されており、現実の多くの面で応用されている。
しかし、モデルとデータの問題は依然としてMLの開発に付随している。
ブロックチェーンを利用することで、これらの問題は効率的に解決できる。
- 参考スコア(独自算出の注目度): 4.45999674917158
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Machine learning (ML) has been pervasively researched nowadays and it has
been applied in many aspects of real life. Nevertheless, issues of model and
data still accompany the development of ML. For instance, training of
traditional ML models is limited to the access of data sets, which are
generally proprietary; published ML models may soon be out of date without
update of new data and continuous training; malicious data contributors may
upload wrongly labeled data that leads to undesirable training results; and the
abuse of private data and data leakage also exit. With the utilization of
blockchain, an emerging and swiftly developing technology, these problems can
be efficiently solved. In this paper, we conduct a survey of the convergence of
collaborative ML and blockchain. We investigate different ways of combination
of these two technologies, and their fields of application. We also discuss the
limitations of current research and their future directions.
- Abstract(参考訳): 機械学習(ML)は近年広く研究されており、現実の多くの面で応用されている。
それでも、モデルとデータの問題はmlの開発に伴うものだ。
例えば、従来のMLモデルのトレーニングは、一般的にプロプライエタリなデータセットへのアクセスに限られている。発行されたMLモデルは、新しいデータや継続的トレーニングを更新することなく、すぐに時代遅れになる可能性がある。
新興かつ迅速に開発される技術であるブロックチェーンを利用することで、これらの問題を効率的に解決することができる。
本稿では、協調型MLとブロックチェーンの収束に関する調査を行う。
これら2つの技術の組み合わせ方法と応用分野について検討する。
また、現在の研究の限界と今後の方向性についても論じる。
関連論文リスト
- Federated Large Language Models: Current Progress and Future Directions [63.68614548512534]
本稿では,LLM(FedLLM)のフェデレーション学習について調査し,最近の進歩と今後の方向性を明らかにする。
ファインチューニングと迅速な学習という2つの重要な側面に注目し、既存の作業と関連する研究課題について議論する。
論文 参考訳(メタデータ) (2024-09-24T04:14:33Z) - TDML -- A Trustworthy Distributed Machine Learning Framework [7.302091381583343]
大規模モデル(LM)の急速な進歩は、計算資源の需要を増大させた。
この需要は、サプライチェーンの遅延と大手テック企業による独占的な買収により、可用性の限界によって悪化している。
本稿では、リモートトレーナーのコーディネートとワークロードの検証にガイダンスを活用する、テキスト信頼に値する分散機械学習(TDML)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-10T03:22:28Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Second-Order Information Matters: Revisiting Machine Unlearning for Large Language Models [1.443696537295348]
プライバシーの漏洩と著作権侵害はまだ未発見だ。
我々の未学習のアルゴリズムは、データに依存しない/モデルに依存しないだけでなく、ユーティリティの保存やプライバシー保証の観点からも堅牢であることが証明されている。
論文 参考訳(メタデータ) (2024-03-13T18:57:30Z) - Learn to Unlearn: A Survey on Machine Unlearning [29.077334665555316]
本稿では,最近の機械学習技術,検証機構,潜在的攻撃について概説する。
新たな課題と今後の研究方向性を強調します。
本稿では、プライバシ、エクイティ、レジリエンスをMLシステムに統合するための貴重なリソースの提供を目的としている。
論文 参考訳(メタデータ) (2023-05-12T14:28:02Z) - AI Model Disgorgement: Methods and Choices [127.54319351058167]
本稿では,現代の機械学習システムに適用可能な分類法を紹介する。
学習モデルにおけるデータ「効果の除去」の意味を,スクラッチからリトレーニングする必要のない方法で検討する。
論文 参考訳(メタデータ) (2023-04-07T08:50:18Z) - Federated Learning and Meta Learning: Approaches, Applications, and
Directions [94.68423258028285]
本稿では,FL,メタラーニング,フェデレーションメタラーニング(FedMeta)について概観する。
他のチュートリアルと異なり、私たちの目標はFL、メタラーニング、FedMetaの方法論をどのように設計、最適化、進化させ、無線ネットワーク上で応用するかを探ることです。
論文 参考訳(メタデータ) (2022-10-24T10:59:29Z) - A Survey of Machine Unlearning [56.017968863854186]
最近の規制では、要求に応じて、ユーザに関する個人情報をコンピュータシステムから削除する必要がある。
MLモデルは古いデータをよく記憶します。
機械学習に関する最近の研究は、この問題を完全に解決することはできなかった。
論文 参考訳(メタデータ) (2022-09-06T08:51:53Z) - Survey: Leakage and Privacy at Inference Time [59.957056214792665]
公開されている機械学習(ML)モデルからのデータの漏洩は、ますます重要になっている分野である。
公開モデルの最も可能性の高いシナリオとして、推論時のリークに注目します。
本稿では,不随意・不随意の漏洩,防御,そして現在利用可能な評価指標と応用にまたがる分類法を提案する。
論文 参考訳(メタデータ) (2021-07-04T12:59:16Z) - SoK: Training Machine Learning Models over Multiple Sources with Privacy
Preservation [1.567576360103422]
プライバシ保護を伴う複数のデータコントローラからの高品質なトレーニングデータは、高品質な機械学習モデルをトレーニングする上で重要な課題である。
学術研究者と産業ベンダーの双方が,(1)セキュア多人数学習(MPL)と(2)フェデレートラーニング(FL)の2つのソリューションのメインストリームフォルダーを提案する動機付けが強くなっている。
これら2つのソリューションには、プライバシ保護、通信方法、通信オーバーヘッド、データのフォーマット、トレーニング済みモデルの正確性、アプリケーションシナリオから評価する際のメリットと制限があります。
論文 参考訳(メタデータ) (2020-12-06T22:24:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。