論文の概要: Beimingwu: A Learnware Dock System
- arxiv url: http://arxiv.org/abs/2401.14427v1
- Date: Wed, 24 Jan 2024 09:27:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-29 16:59:23.388560
- Title: Beimingwu: A Learnware Dock System
- Title(参考訳): Beimingwu: 学習用ドックシステム
- Authors: Zhi-Hao Tan, Jian-Dong Liu, Xiao-Dong Bi, Peng Tan, Qin-Cheng Zheng,
Hai-Tian Liu, Yi Xie, Xiao-Chuan Zou, Yang Yu, Zhi-Hua Zhou
- Abstract要約: 本稿では,Beimingwuについて述べる。Beimingwuはオープンソースのラーニングウェアドックシステムであり,将来のラーニングウェアパラダイムの研究に基盤的支援を提供する。
このシステムは、統合アーキテクチャとエンジン設計のおかげで、新しいユーザータスクのためのモデル開発を大幅に効率化する。
特に、生データのセキュリティを損なうことなく、限られたデータと機械学習に関する最小限の専門知識を持つユーザでも、これは可能だ。
- 参考スコア(独自算出の注目度): 42.54363998206648
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The learnware paradigm proposed by Zhou [2016] aims to enable users to reuse
numerous existing well-trained models instead of building machine learning
models from scratch, with the hope of solving new user tasks even beyond
models' original purposes. In this paradigm, developers worldwide can submit
their high-performing models spontaneously to the learnware dock system
(formerly known as learnware market) without revealing their training data.
Once the dock system accepts the model, it assigns a specification and
accommodates the model. This specification allows the model to be adequately
identified and assembled to reuse according to future users' needs, even if
they have no prior knowledge of the model. This paradigm greatly differs from
the current big model direction and it is expected that a learnware dock system
housing millions or more high-performing models could offer excellent
capabilities for both planned tasks where big models are applicable; and
unplanned, specialized, data-sensitive scenarios where big models are not
present or applicable.
This paper describes Beimingwu, the first open-source learnware dock system
providing foundational support for future research of learnware paradigm.The
system significantly streamlines the model development for new user tasks,
thanks to its integrated architecture and engine design, extensive engineering
implementations and optimizations, and the integration of various algorithms
for learnware identification and reuse. Notably, this is possible even for
users with limited data and minimal expertise in machine learning, without
compromising the raw data's security. Beimingwu supports the entire process of
learnware paradigm. The system lays the foundation for future research in
learnware-related algorithms and systems, and prepares the ground for hosting a
vast array of learnwares and establishing a learnware ecosystem.
- Abstract(参考訳): zhou [2016]によって提案されたlearnwareパラダイムは、ユーザがスクラッチから機械学習モデルを構築するのではなく、既存のトレーニング済みモデルを再利用できるようにすることを目的としている。
このパラダイムでは、世界中の開発者がトレーニングデータを公開することなく、ハイパフォーマンスなモデルをlearnware dockシステム(以前はlearnware marketと呼ばれていた)に自発的に提出することができる。
ドックシステムがモデルを受け入れると、仕様を割り当て、モデルを適合させる。
この仕様により、モデルに関する事前の知識がなくても、将来のユーザのニーズに応じて適切な識別と再利用が可能になる。
このパラダイムは、現在のビッグモデル方向とは大きく異なり、数百万以上のハイパフォーマンスモデルを収容するlearnware dockシステムでは、大きなモデルが適用可能な計画されたタスクと、大きなモデルが存在しない、あるいは適用できない、計画されていない、専門的なデータセンシティブなシナリオの両方に優れた機能を提供することが期待されている。
本稿では,learnwareパラダイムの今後の研究のための基礎的サポートを提供する,オープンソースの初のlearnwareドックシステムbeimingwuについて述べる。このシステムは,その統合アーキテクチャとエンジン設計,広範なエンジニアリング実装と最適化,learnware識別と再利用のための各種アルゴリズムの統合により,新たなユーザタスクのモデル開発を大幅に合理化する。
特に、生データのセキュリティを損なうことなく、限られたデータと機械学習の専門知識を持つユーザでも可能です。
beimingwuはlearnwareパラダイムのプロセス全体をサポートする。
このシステムは、ラーニングウェア関連のアルゴリズムとシステムに関する将来の研究の基礎を築き、多数のラーニングウェアをホストし、ラーニングウェアエコシステムを確立するための基盤を準備している。
関連論文リスト
- Reusable MLOps: Reusable Deployment, Reusable Infrastructure and
Hot-Swappable Machine Learning models and services [0.0]
私たちは、Reusable MLOpsと呼ばれるAI/MLオペレーションの分野で、持続可能な新しい概念を紹介します。
既存のデプロイメントとインフラストラクチャを再利用して、インフラストラクチャやマイクロサービスを分解することなく、それらをホットスワッピングすることで、新しいモデルを提供しています。
論文 参考訳(メタデータ) (2024-02-19T23:40:46Z) - ZhiJian: A Unifying and Rapidly Deployable Toolbox for Pre-trained Model
Reuse [59.500060790983994]
本稿では、PyTorchバックエンドを利用して、モデル再利用のための包括的でユーザフレンドリなツールボックスであるZhiJianを紹介する。
ZhiJianは、PTMによるターゲットアーキテクチャ構築、PTMによるターゲットモデルチューニング、およびPTMに基づく推論を含む、モデル再利用に関するさまざまな視点を統一する新しいパラダイムを提示している。
論文 参考訳(メタデータ) (2023-08-17T19:12:13Z) - Model Ratatouille: Recycling Diverse Models for Out-of-Distribution
Generalization [99.6826401545377]
ファウンデーションモデルは、AIシステムの構築方法を再定義している。実践者は、機械学習ソリューションを構築するための標準手順に従う。
我々は,多種多様な補助的タスクにおいて,同じ基礎モデルの複数の微調整をリサイクルする新しい戦略であるモデルラタトゥーイユを提案する。
論文 参考訳(メタデータ) (2022-12-20T17:21:46Z) - On-device Training: A First Overview on Existing Systems [8.0653715405809]
リソース制約のあるデバイスにいくつかのモデルをデプロイする努力も行われている。
この研究は、デバイス上でモデルトレーニングを可能にする最先端のシステム研究を要約し、分析することを目的としている。
論文 参考訳(メタデータ) (2022-12-01T19:22:29Z) - Synthetic Model Combination: An Instance-wise Approach to Unsupervised
Ensemble Learning [92.89846887298852]
ラベル付きデータのトレーニングセットから学ぶ機会のない、新しいテストデータに対する予測を検討する。
専門家モデルのセットと予測へのアクセスと、トレーニングに使用するデータセットに関する制限された情報を提供すること。
論文 参考訳(メタデータ) (2022-10-11T10:20:31Z) - Learnware: Small Models Do Big [69.88234743773113]
自然言語処理やコンピュータビジョンの応用で目覚ましい成果を上げてきた、一般的なビッグモデルパラダイムは、これらの問題にまだ対応していないが、炭素排出量の深刻な源となっている。
この記事では、マシンラーニングモデルをスクラッチから構築する必要がないようにするための学習ソフトウェアパラダイムの概要を紹介します。
論文 参考訳(メタデータ) (2022-10-07T15:55:52Z) - Retrieval-Enhanced Machine Learning [110.5237983180089]
本稿では,いくつかの既存モデルを含む汎用的な検索強化機械学習フレームワークについて述べる。
REMLは情報検索の慣例に挑戦し、最適化を含む中核領域における新たな進歩の機会を提示している。
REMLリサーチアジェンダは、情報アクセス研究の新しいスタイルの基礎を築き、機械学習と人工知能の進歩への道を開く。
論文 参考訳(メタデータ) (2022-05-02T21:42:45Z) - A Model-Driven Engineering Approach to Machine Learning and Software
Modeling [0.5156484100374059]
モデルは、ソフトウェア工学(SE)と人工知能(AI)のコミュニティで使われている。
主な焦点はIoT(Internet of Things)とCPS(Smart Cyber-Physical Systems)のユースケースである。
論文 参考訳(メタデータ) (2021-07-06T15:50:50Z) - Green Lighting ML: Confidentiality, Integrity, and Availability of
Machine Learning Systems in Deployment [4.2317391919680425]
プロダクション機械学習では、一般的にモデルを構築している人からモデルをデプロイしている人への手引きがある。
この手引きで、モデルデプロイメントを担当するエンジニアは、モデルの詳細を秘密にしないことが多い。
この問題を緩和するためには、モデルのプライバシとセキュリティを検証する自動化システムを開発する必要がある。
論文 参考訳(メタデータ) (2020-07-09T10:38:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。