論文の概要: Assisted Learning for Organizations with Limited Imbalanced Data
- arxiv url: http://arxiv.org/abs/2109.09307v4
- Date: Sat, 2 Mar 2024 10:29:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-05 21:29:21.804730
- Title: Assisted Learning for Organizations with Limited Imbalanced Data
- Title(参考訳): 限られた不均衡データを持つ組織の学習支援
- Authors: Cheng Chen, Jiaying Zhou, Jie Ding, Yi Zhou
- Abstract要約: 組織が学習能力を向上させるための支援学習フレームワークを開発する。
当社のフレームワークでは,学習者が時々サービスプロバイダと情報を共有するだけでなく,ニアオーラルなパフォーマンスを実現するモデルも取得できる。
- 参考スコア(独自算出の注目度): 17.34334881241701
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the era of big data, many big organizations are integrating machine
learning into their work pipelines to facilitate data analysis. However, the
performance of their trained models is often restricted by limited and
imbalanced data available to them. In this work, we develop an assisted
learning framework for assisting organizations to improve their learning
performance. The organizations have sufficient computation resources but are
subject to stringent data-sharing and collaboration policies. Their limited
imbalanced data often cause biased inference and sub-optimal decision-making.
In assisted learning, an organizational learner purchases assistance service
from an external service provider and aims to enhance its model performance
within only a few assistance rounds. We develop effective stochastic training
algorithms for both assisted deep learning and assisted reinforcement learning.
Different from existing distributed algorithms that need to frequently transmit
gradients or models, our framework allows the learner to only occasionally
share information with the service provider, but still obtain a model that
achieves near-oracle performance as if all the data were centralized.
- Abstract(参考訳): ビッグデータの時代、多くの大企業が、データ分析を容易にするために機械学習を作業パイプラインに統合しています。
しかしながら、トレーニングされたモデルの性能は、制限された不均衡なデータによって制限されることが多い。
本研究では,組織が学習能力を向上させるための学習支援フレームワークを開発する。
組織には十分な計算リソースがあるが、厳格なデータ共有とコラボレーションのポリシーに従う。
限られた不均衡なデータはしばしば偏りのある推論と最適でない意思決定を引き起こす。
支援学習では、組織学習者が外部サービスプロバイダから支援サービスを購入し、いくつかの補助ラウンドでモデルパフォーマンスを向上させる。
深層学習と強化学習の両方に有効な確率的学習アルゴリズムを開発した。
勾配やモデルを頻繁に送信する必要のある既存の分散アルゴリズムとは異なり、このフレームワークでは、学習者が時々サービスプロバイダと情報を共有するだけでなく、すべてのデータが集中しているかのように、oracleに近いパフォーマンスを実現するモデルを得ることができます。
関連論文リスト
- Unlearnable Algorithms for In-context Learning [36.895152458323764]
本稿では,事前訓練された大規模言語モデルのタスク適応フェーズに対する効率的なアンラーニング手法に着目した。
タスク適応のための文脈内学習を行うLLMの能力は、タスク適応トレーニングデータの効率的なアンラーニングを可能にする。
本稿では,様々な推論コストを考慮に入れた非学習コストの包括的尺度を提案する。
論文 参考訳(メタデータ) (2024-02-01T16:43:04Z) - On Efficient Training of Large-Scale Deep Learning Models: A Literature
Review [90.87691246153612]
ディープラーニングの分野は特にコンピュータビジョン(CV)、自然言語処理(NLP)、音声などにおいて大きな進歩を遂げている。
大量のデータに基づいてトレーニングされた大規模なモデルを使用することは、実用的なアプリケーションにとって大きな可能性を秘めている。
計算能力の需要が増大する中で、ディープラーニングモデルの訓練の加速技術に関する包括的な要約が期待されている。
論文 参考訳(メタデータ) (2023-04-07T11:13:23Z) - Federated Pruning: Improving Neural Network Efficiency with Federated
Learning [24.36174705715827]
フェデレーテッド・プルーニング(Federated Pruning)は、フェデレーテッド・セッティングの下で縮小モデルのトレーニングを行う。
異なる刈り取り方式を探索し,提案手法の有効性の実証的証拠を提供する。
論文 参考訳(メタデータ) (2022-09-14T00:48:37Z) - A Survey of Learning on Small Data: Generalization, Optimization, and
Challenge [101.27154181792567]
ビッグデータの一般化能力を近似した小さなデータについて学ぶことは、AIの究極の目的の1つである。
この調査はPACフレームワークの下でのアクティブサンプリング理論に従い、小さなデータにおける学習の一般化誤差とラベルの複雑さを分析した。
効率的な小さなデータ表現の恩恵を受けるかもしれない複数のデータアプリケーションについて調査する。
論文 参考訳(メタデータ) (2022-07-29T02:34:19Z) - Asynchronous Collaborative Learning Across Data Silos [9.094748832034746]
データサイロ間で機械学習モデルの非同期協調トレーニングを可能にするフレームワークを提案する。
これにより、データサイエンスチームは、データを共有することなく、機械学習モデルを協調的にトレーニングすることができる。
論文 参考訳(メタデータ) (2022-03-23T18:00:19Z) - Efficient Device Scheduling with Multi-Job Federated Learning [64.21733164243781]
本稿では,複数のジョブの並列学習プロセスを実現するための,新しいマルチジョブフェデレーション学習フレームワークを提案する。
コストを最小化しつつ、複数のジョブに対してデバイスをスケジュールする強化学習法とベイズ最適化法を提案する。
提案手法は,トレーニング時間(最大8.67倍高速)と精度(最大44.6%高)において,ベースラインアプローチよりも有意に優れていた。
論文 参考訳(メタデータ) (2021-12-11T08:05:11Z) - Privacy-Preserving Serverless Edge Learning with Decentralized Small
Data [13.254530176359182]
最近、分散トレーニング戦略は、ディープモデルをトレーニングする際のデータプライバシを保証するための有望なアプローチになっている。
本稿では、従来のサーバレスプラットフォームをサーバレスエッジ学習アーキテクチャで拡張し、ネットワークの観点から効率的な分散トレーニングフレームワークを提供する。
論文 参考訳(メタデータ) (2021-11-29T21:04:49Z) - Understanding the World Through Action [91.3755431537592]
ラベルのないデータを利用するための汎用的で原則的で強力なフレームワークは、強化学習から導き出すことができると私は主張する。
このような手順が、下流の潜在的なタスクとどのように密接に一致しているかについて論じます。
論文 参考訳(メタデータ) (2021-10-24T22:33:52Z) - Distributed Deep Learning in Open Collaborations [49.240611132653456]
協調学習に特化して設計された新しいアルゴリズムフレームワークを提案する。
現実的な条件下でのSwaVとALBERTの事前学習に対するアプローチの有効性を実証し,コストのごく一部で従来の設定に匹敵する性能を実現する。
論文 参考訳(メタデータ) (2021-06-18T16:23:13Z) - From Distributed Machine Learning to Federated Learning: A Survey [49.7569746460225]
分散学習は、分散データとコンピューティングリソースを利用するための効率的なアプローチとして現れる。
本論文では,連合学習システムの機能構造と関連手法の分類法を提案する。
本稿では,flシステムの分散トレーニング,データ通信,セキュリティについて述べる。
論文 参考訳(メタデータ) (2021-04-29T14:15:11Z) - Assisted Learning: A Framework for Multi-Organization Learning [16.6491720806269]
我々は、組織のアルゴリズム、データ、あるいはタスクを明らかにすることなく、教師付き学習タスクで互いに助け合うための支援学習フレームワークを紹介します。
組織は、タスク固有の統計を放送し、他の人のフィードバックを1つ以上のイテレーションに取り入れ、最終的に予測性能を改善することで支援を求める。
論文 参考訳(メタデータ) (2020-04-01T16:54:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。