論文の概要: Survey on the Convergence of Machine Learning and Blockchain
- arxiv url: http://arxiv.org/abs/2201.00976v1
- Date: Tue, 4 Jan 2022 04:47:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-05 14:15:46.638877
- Title: Survey on the Convergence of Machine Learning and Blockchain
- Title(参考訳): 機械学習とブロックチェーンの収束性に関する調査
- Authors: Shengwen Ding, Chenhui Hu
- Abstract要約: 機械学習(ML)は近年広く研究されており、現実の多くの面で応用されている。
しかし、モデルとデータの問題は依然としてMLの開発に付随している。
ブロックチェーンを利用することで、これらの問題は効率的に解決できる。
- 参考スコア(独自算出の注目度): 4.45999674917158
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Machine learning (ML) has been pervasively researched nowadays and it has
been applied in many aspects of real life. Nevertheless, issues of model and
data still accompany the development of ML. For instance, training of
traditional ML models is limited to the access of data sets, which are
generally proprietary; published ML models may soon be out of date without
update of new data and continuous training; malicious data contributors may
upload wrongly labeled data that leads to undesirable training results; and the
abuse of private data and data leakage also exit. With the utilization of
blockchain, an emerging and swiftly developing technology, these problems can
be efficiently solved. In this paper, we conduct a survey of the convergence of
collaborative ML and blockchain. We investigate different ways of combination
of these two technologies, and their fields of application. We also discuss the
limitations of current research and their future directions.
- Abstract(参考訳): 機械学習(ML)は近年広く研究されており、現実の多くの面で応用されている。
それでも、モデルとデータの問題はmlの開発に伴うものだ。
例えば、従来のMLモデルのトレーニングは、一般的にプロプライエタリなデータセットへのアクセスに限られている。発行されたMLモデルは、新しいデータや継続的トレーニングを更新することなく、すぐに時代遅れになる可能性がある。
新興かつ迅速に開発される技術であるブロックチェーンを利用することで、これらの問題を効率的に解決することができる。
本稿では、協調型MLとブロックチェーンの収束に関する調査を行う。
これら2つの技術の組み合わせ方法と応用分野について検討する。
また、現在の研究の限界と今後の方向性についても論じる。
関連論文リスト
- TDML -- A Trustworthy Distributed Machine Learning Framework [7.302091381583343]
大規模モデル(LM)の急速な進歩は、計算資源の需要を増大させた。
この需要は、サプライチェーンの遅延と大手テック企業による独占的な買収により、可用性の限界によって悪化している。
本稿では、リモートトレーナーのコーディネートとワークロードの検証にガイダンスを活用する、テキスト信頼に値する分散機械学習(TDML)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-10T03:22:28Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Second-Order Information Matters: Revisiting Machine Unlearning for Large Language Models [1.443696537295348]
プライバシーの漏洩と著作権侵害はまだ未発見だ。
我々の未学習のアルゴリズムは、データに依存しない/モデルに依存しないだけでなく、ユーティリティの保存やプライバシー保証の観点からも堅牢であることが証明されている。
論文 参考訳(メタデータ) (2024-03-13T18:57:30Z) - Learn to Unlearn: A Survey on Machine Unlearning [29.077334665555316]
本稿では,最近の機械学習技術,検証機構,潜在的攻撃について概説する。
新たな課題と今後の研究方向性を強調します。
本稿では、プライバシ、エクイティ、レジリエンスをMLシステムに統合するための貴重なリソースの提供を目的としている。
論文 参考訳(メタデータ) (2023-05-12T14:28:02Z) - AI Model Disgorgement: Methods and Choices [127.54319351058167]
本稿では,現代の機械学習システムに適用可能な分類法を紹介する。
学習モデルにおけるデータ「効果の除去」の意味を,スクラッチからリトレーニングする必要のない方法で検討する。
論文 参考訳(メタデータ) (2023-04-07T08:50:18Z) - Federated Learning and Meta Learning: Approaches, Applications, and
Directions [94.68423258028285]
本稿では,FL,メタラーニング,フェデレーションメタラーニング(FedMeta)について概観する。
他のチュートリアルと異なり、私たちの目標はFL、メタラーニング、FedMetaの方法論をどのように設計、最適化、進化させ、無線ネットワーク上で応用するかを探ることです。
論文 参考訳(メタデータ) (2022-10-24T10:59:29Z) - A Survey of Machine Unlearning [43.272767023563254]
近年の規制では、ユーザに関する個人情報は一般にコンピュータシステムから、特に要求に応じてMLモデルから削除することが要求されている。
この現象は、機械学習モデルを特定のデータを忘れるようにするための新しいパラダイム、すなわち機械学習を求めている。
我々は、マシンアンラーニングの定義、シナリオ、メカニズム、アプリケーションについて、徹底的に調査することを目指している。
論文 参考訳(メタデータ) (2022-09-06T08:51:53Z) - Survey: Leakage and Privacy at Inference Time [59.957056214792665]
公開されている機械学習(ML)モデルからのデータの漏洩は、ますます重要になっている分野である。
公開モデルの最も可能性の高いシナリオとして、推論時のリークに注目します。
本稿では,不随意・不随意の漏洩,防御,そして現在利用可能な評価指標と応用にまたがる分類法を提案する。
論文 参考訳(メタデータ) (2021-07-04T12:59:16Z) - Automated Machine Learning Techniques for Data Streams [91.3755431537592]
本稿では、最先端のオープンソースAutoMLツールを調査し、ストリームから収集したデータに適用し、時間とともにパフォーマンスがどのように変化するかを測定する。
この結果から,既製のAutoMLツールで十分な結果が得られることが示されたが,概念ドリフトや検出,適応といった手法が適用されれば,予測精度を時間とともに維持することが可能になる。
論文 参考訳(メタデータ) (2021-06-14T11:42:46Z) - SoK: Training Machine Learning Models over Multiple Sources with Privacy
Preservation [1.567576360103422]
プライバシ保護を伴う複数のデータコントローラからの高品質なトレーニングデータは、高品質な機械学習モデルをトレーニングする上で重要な課題である。
学術研究者と産業ベンダーの双方が,(1)セキュア多人数学習(MPL)と(2)フェデレートラーニング(FL)の2つのソリューションのメインストリームフォルダーを提案する動機付けが強くなっている。
これら2つのソリューションには、プライバシ保護、通信方法、通信オーバーヘッド、データのフォーマット、トレーニング済みモデルの正確性、アプリケーションシナリオから評価する際のメリットと制限があります。
論文 参考訳(メタデータ) (2020-12-06T22:24:28Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。