論文の概要: Towards Utilizing Unlabeled Data in Federated Learning: A Survey and
Prospective
- arxiv url: http://arxiv.org/abs/2002.11545v2
- Date: Mon, 11 May 2020 11:44:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 14:14:51.625417
- Title: Towards Utilizing Unlabeled Data in Federated Learning: A Survey and
Prospective
- Title(参考訳): 連合学習におけるラベルなしデータ活用に向けて--調査と展望
- Authors: Yilun Jin, Xiguang Wei, Yang Liu, Qiang Yang
- Abstract要約: 近年,フェデレートラーニング(FL)が研究者から注目されている。
FLのほとんどのアプリケーション、例えばキーボードの予測、ラベル付けデータでは、ほとんど追加の努力は必要ありません。
FLにおけるラベルなしデータの活用の必要性を特定し,その目的に寄与する可能性のある研究分野を調査する。
- 参考スコア(独自算出の注目度): 18.40606952418594
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) proposed in recent years has received significant
attention from researchers in that it can bring separate data sources together
and build machine learning models in a collaborative but private manner. Yet,
in most applications of FL, such as keyboard prediction, labeling data requires
virtually no additional efforts, which is not generally the case. In reality,
acquiring large-scale labeled datasets can be extremely costly, which motivates
research works that exploit unlabeled data to help build machine learning
models. However, to the best of our knowledge, few existing works aim to
utilize unlabeled data to enhance federated learning, which leaves a
potentially promising research topic. In this paper, we identify the need to
exploit unlabeled data in FL, and survey possible research fields that can
contribute to the goal.
- Abstract(参考訳): 近年提案されたフェデレートラーニング(FL)は、データソースを分離し、コラボレーティブでプライベートな方法で機械学習モデルを構築することができるという点で、研究者から大きな注目を集めている。
しかし、キーボード予測のようなflのほとんどのアプリケーションでは、データラベリングは事実上追加の労力を必要とせず、一般的にはそうではない。
実際には、大規模なラベル付きデータセットの取得は非常にコストがかかり、ラベル付きデータを利用して機械学習モデルを構築する研究が動機となる。
しかし、私たちの知る限りでは、ラベルのないデータを活用して連合学習を強化する研究はほとんどなく、潜在的に有望な研究トピックを残している。
本稿では,flにおけるラベルなしデータの利用の必要性を特定し,その目的に寄与する可能性のある研究分野を調査した。
関連論文リスト
- Non-IID data in Federated Learning: A Systematic Review with Taxonomy, Metrics, Methods, Frameworks and Future Directions [2.9434966603161072]
この体系的なレビューは、非IIDデータ、パーティションプロトコル、メトリクスの詳細な分類を提供することによってギャップを埋めることを目的としている。
非IIDデータに対処するための一般的なソリューションと、異種データを用いたフェデレートラーニングで使用される標準化されたフレームワークについて述べる。
論文 参考訳(メタデータ) (2024-11-19T09:53:28Z) - Learning with Less: Knowledge Distillation from Large Language Models via Unlabeled Data [54.934578742209716]
現実世界のNLPアプリケーションでは、Large Language Models (LLMs) は巨大なデータセットの広範なトレーニングのために、有望なソリューションを提供する。
LLKDは、教師と学生の両方の信号を組み込んだ適応的なサンプル選択法である。
総合的な実験により,LLKDは高いデータ効率で,様々なデータセットで優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-11-12T18:57:59Z) - Data-Centric AI in the Age of Large Language Models [51.20451986068925]
本稿では,大規模言語モデル(LLM)に着目した,AI研究におけるデータ中心の視点を提案する。
本研究では,LLMの発達段階(事前学習や微調整など)や推論段階(文脈内学習など)において,データが有効であることを示す。
データを中心とした4つのシナリオを特定し、データ中心のベンチマークとデータキュレーション、データ属性、知識伝達、推論コンテキスト化をカバーします。
論文 参考訳(メタデータ) (2024-06-20T16:34:07Z) - A Survey on Data Selection for Language Models [148.300726396877]
データ選択方法は、トレーニングデータセットに含まれるデータポイントを決定することを目的としている。
ディープラーニングは、主に実証的な証拠によって駆動され、大規模なデータに対する実験は高価である。
広範なデータ選択研究のリソースを持つ組織はほとんどない。
論文 参考訳(メタデータ) (2024-02-26T18:54:35Z) - Federated Learning without Full Labels: A Survey [23.49131075675469]
本稿では,フェデレーション学習と半教師付き学習,自己教師型学習,移動学習を併用する手法について検討する。
また、フルラベルなしでFLメソッドを評価するために使われるデータセットを要約する。
論文 参考訳(メタデータ) (2023-03-25T12:13:31Z) - Understanding the World Through Action [91.3755431537592]
ラベルのないデータを利用するための汎用的で原則的で強力なフレームワークは、強化学習から導き出すことができると私は主張する。
このような手順が、下流の潜在的なタスクとどのように密接に一致しているかについて論じます。
論文 参考訳(メタデータ) (2021-10-24T22:33:52Z) - Federated Learning on Non-IID Data Silos: An Experimental Study [34.28108345251376]
トレーニングデータは断片化され、複数のデータサイロの分散データベースを形成している。
本稿では,典型的な非IIDデータケースをカバーする包括的データ分割手法を提案する。
非IIDはFLアルゴリズムの精度を学習する上で大きな課題をもたらしており、既存のFLアルゴリズムが他のどの場合よりも優れているものはない。
論文 参考訳(メタデータ) (2021-02-03T14:29:09Z) - Adversarial Knowledge Transfer from Unlabeled Data [62.97253639100014]
本稿では,インターネット規模の未ラベルデータから知識を伝達し,分類器の性能を向上させるための新しいAdversarial Knowledge Transferフレームワークを提案する。
我々の手法の重要な新しい側面は、ラベル付けされていないソースデータは、ラベル付けされたターゲットデータと異なるクラスであることができ、個別のプリテキストタスクを定義する必要がないことである。
論文 参考訳(メタデータ) (2020-08-13T08:04:27Z) - DeGAN : Data-Enriching GAN for Retrieving Representative Samples from a
Trained Classifier [58.979104709647295]
我々は、トレーニングされたネットワークの将来の学習タスクのために、利用可能なデータの豊富さと関連するデータの欠如の間のギャップを埋める。
利用可能なデータは、元のトレーニングデータセットまたは関連するドメインデータセットの不均衡なサブセットである可能性があるため、代表サンプルを検索するために使用します。
関連ドメインからのデータを活用して最先端のパフォーマンスを実現することを実証する。
論文 参考訳(メタデータ) (2019-12-27T02:05:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。