論文の概要: Assisted Learning for Organizations with Limited Data
- arxiv url: http://arxiv.org/abs/2109.09307v2
- Date: Tue, 21 Sep 2021 23:06:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-23 10:36:20.975656
- Title: Assisted Learning for Organizations with Limited Data
- Title(参考訳): 限られたデータを持つ組織の学習支援
- Authors: Cheng Chen, Jiaying Zhou, Jie Ding, Yi Zhou
- Abstract要約: 我々は,組織レベルの学習者を支援するための学習支援フレームワークを開発し,限られたデータと不均衡なデータを用いて学習性能を向上させる。
私たちのフレームワークでは、学習者がサービスプロバイダと情報をたまに共有することしかできず、すべてのデータが集中しているかのように、ほぼ奇跡に近いモデルを達成することができます。
- 参考スコア(独自算出の注目度): 13.031258169841202
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We develop an assisted learning framework for assisting organization-level
learners to improve their learning performance with limited and imbalanced
data. In particular, learners at the organization level usually have sufficient
computation resource, but are subject to stringent collaboration policy and
information privacy. Their limited imbalanced data often cause biased inference
and sub-optimal decision-making. In our assisted learning framework, an
organizational learner purchases assistance service from a service provider and
aims to enhance its model performance within a few assistance rounds. We
develop effective stochastic training algorithms for assisted deep learning and
assisted reinforcement learning. Different from existing distributed algorithms
that need to frequently transmit gradients or models, our framework allows the
learner to only occasionally share information with the service provider, and
still achieve a near-oracle model as if all the data were centralized.
- Abstract(参考訳): 組織レベルの学習者に対して,限定的かつ不均衡なデータを用いて学習性能の向上を支援する学習フレームワークを開発した。
特に、組織レベルの学習者は、通常は十分な計算リソースを持っているが、厳格なコラボレーションポリシーと情報プライバシの対象となる。
限られた不均衡なデータはしばしば偏りのある推論と最適でない意思決定を引き起こす。
私たちの学習フレームワークでは、組織学習者がサービス提供者から支援サービスを購入し、いくつかの支援ラウンドでモデルパフォーマンスの向上を目標としています。
深層学習支援と強化学習支援のための効果的な確率的学習アルゴリズムを開発した。
勾配やモデルを頻繁に送信する必要のある既存の分散アルゴリズムとは異なり、このフレームワークでは、学習者は時々サービスプロバイダと情報を共有するだけで、すべてのデータが集中しているかのように、oracleに近いモデルを達成できます。
関連論文リスト
- Unlearnable Algorithms for In-context Learning [36.895152458323764]
本稿では,事前訓練された大規模言語モデルのタスク適応フェーズに対する効率的なアンラーニング手法に着目した。
タスク適応のための文脈内学習を行うLLMの能力は、タスク適応トレーニングデータの効率的なアンラーニングを可能にする。
本稿では,様々な推論コストを考慮に入れた非学習コストの包括的尺度を提案する。
論文 参考訳(メタデータ) (2024-02-01T16:43:04Z) - On Efficient Training of Large-Scale Deep Learning Models: A Literature
Review [90.87691246153612]
ディープラーニングの分野は特にコンピュータビジョン(CV)、自然言語処理(NLP)、音声などにおいて大きな進歩を遂げている。
大量のデータに基づいてトレーニングされた大規模なモデルを使用することは、実用的なアプリケーションにとって大きな可能性を秘めている。
計算能力の需要が増大する中で、ディープラーニングモデルの訓練の加速技術に関する包括的な要約が期待されている。
論文 参考訳(メタデータ) (2023-04-07T11:13:23Z) - Federated Pruning: Improving Neural Network Efficiency with Federated
Learning [24.36174705715827]
フェデレーテッド・プルーニング(Federated Pruning)は、フェデレーテッド・セッティングの下で縮小モデルのトレーニングを行う。
異なる刈り取り方式を探索し,提案手法の有効性の実証的証拠を提供する。
論文 参考訳(メタデータ) (2022-09-14T00:48:37Z) - A Survey of Learning on Small Data: Generalization, Optimization, and
Challenge [101.27154181792567]
ビッグデータの一般化能力を近似した小さなデータについて学ぶことは、AIの究極の目的の1つである。
この調査はPACフレームワークの下でのアクティブサンプリング理論に従い、小さなデータにおける学習の一般化誤差とラベルの複雑さを分析した。
効率的な小さなデータ表現の恩恵を受けるかもしれない複数のデータアプリケーションについて調査する。
論文 参考訳(メタデータ) (2022-07-29T02:34:19Z) - Asynchronous Collaborative Learning Across Data Silos [9.094748832034746]
データサイロ間で機械学習モデルの非同期協調トレーニングを可能にするフレームワークを提案する。
これにより、データサイエンスチームは、データを共有することなく、機械学習モデルを協調的にトレーニングすることができる。
論文 参考訳(メタデータ) (2022-03-23T18:00:19Z) - Efficient Device Scheduling with Multi-Job Federated Learning [64.21733164243781]
本稿では,複数のジョブの並列学習プロセスを実現するための,新しいマルチジョブフェデレーション学習フレームワークを提案する。
コストを最小化しつつ、複数のジョブに対してデバイスをスケジュールする強化学習法とベイズ最適化法を提案する。
提案手法は,トレーニング時間(最大8.67倍高速)と精度(最大44.6%高)において,ベースラインアプローチよりも有意に優れていた。
論文 参考訳(メタデータ) (2021-12-11T08:05:11Z) - Privacy-Preserving Serverless Edge Learning with Decentralized Small
Data [13.254530176359182]
最近、分散トレーニング戦略は、ディープモデルをトレーニングする際のデータプライバシを保証するための有望なアプローチになっている。
本稿では、従来のサーバレスプラットフォームをサーバレスエッジ学習アーキテクチャで拡張し、ネットワークの観点から効率的な分散トレーニングフレームワークを提供する。
論文 参考訳(メタデータ) (2021-11-29T21:04:49Z) - Understanding the World Through Action [91.3755431537592]
ラベルのないデータを利用するための汎用的で原則的で強力なフレームワークは、強化学習から導き出すことができると私は主張する。
このような手順が、下流の潜在的なタスクとどのように密接に一致しているかについて論じます。
論文 参考訳(メタデータ) (2021-10-24T22:33:52Z) - Distributed Deep Learning in Open Collaborations [49.240611132653456]
協調学習に特化して設計された新しいアルゴリズムフレームワークを提案する。
現実的な条件下でのSwaVとALBERTの事前学習に対するアプローチの有効性を実証し,コストのごく一部で従来の設定に匹敵する性能を実現する。
論文 参考訳(メタデータ) (2021-06-18T16:23:13Z) - From Distributed Machine Learning to Federated Learning: A Survey [49.7569746460225]
分散学習は、分散データとコンピューティングリソースを利用するための効率的なアプローチとして現れる。
本論文では,連合学習システムの機能構造と関連手法の分類法を提案する。
本稿では,flシステムの分散トレーニング,データ通信,セキュリティについて述べる。
論文 参考訳(メタデータ) (2021-04-29T14:15:11Z) - Assisted Learning: A Framework for Multi-Organization Learning [16.6491720806269]
我々は、組織のアルゴリズム、データ、あるいはタスクを明らかにすることなく、教師付き学習タスクで互いに助け合うための支援学習フレームワークを紹介します。
組織は、タスク固有の統計を放送し、他の人のフィードバックを1つ以上のイテレーションに取り入れ、最終的に予測性能を改善することで支援を求める。
論文 参考訳(メタデータ) (2020-04-01T16:54:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。