論文の概要: Federated Learning -- Methods, Applications and beyond
- arxiv url: http://arxiv.org/abs/2212.11729v1
- Date: Thu, 22 Dec 2022 14:25:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 13:59:16.591913
- Title: Federated Learning -- Methods, Applications and beyond
- Title(参考訳): 連合学習 -- 方法、応用、そしてその先
- Authors: Moritz Heusinger, Christoph Raab, Fabrice Rossi (CEREMADE),
Frank-Michael Schleif
- Abstract要約: Googleはこれらの問題を解決するために、emphFederated Learningというフレームワークを考案した。
縦・横のemphFederated LearningとemphFderated Transfer Learningの分野における既存の方法と応用の概要について概説する。
- 参考スコア(独自算出の注目度): 1.2234742322758418
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years the applications of machine learning models have increased
rapidly, due to the large amount of available data and technological
progress.While some domains like web analysis can benefit from this with only
minor restrictions, other fields like in medicine with patient data are
strongerregulated. In particular \emph{data privacy} plays an important role as
recently highlighted by the trustworthy AI initiative of the EU or general
privacy regulations in legislation. Another major challenge is, that the
required training \emph{data is} often \emph{distributed} in terms of features
or samples and unavailable for classicalbatch learning approaches. In 2016
Google came up with a framework, called \emph{Federated Learning} to solve both
of these problems. We provide a brief overview on existing Methods and
Applications in the field of vertical and horizontal \emph{Federated Learning},
as well as \emph{Fderated Transfer Learning}.
- Abstract(参考訳): 近年、大量のデータと技術進歩により機械学習モデルの応用が急速に増加しており、Web分析のような領域では、わずかな制限で恩恵を受けることができるが、患者データを持つ医学などの分野はより厳しく規制されている。
特に‘emph{data privacy’は、EUの信頼できるAIイニシアチブや法律における一般的なプライバシー規制によって強調されたように、重要な役割を果たす。
もうひとつの大きな課題は、要求されるトレーニングである \emph{data is} が、機能やサンプルの観点からはしばしば \emph{distributed} であり、古典的なバッチ学習アプローチでは利用できないことである。
2016年、googleはこれらの問題を解決するためのフレームワーク \emph{federated learning} を考案した。
本稿では, 垂直および水平の伝授学習の分野における既存手法と応用について, および, \emph{fderated transfer learning} について概説する。
関連論文リスト
- Accelerating Large Language Model Pretraining via LFR Pedagogy: Learn, Focus, and Review [50.78587571704713]
大規模言語モデル(LLM)の事前トレーニングは伝統的に、Webスケールデータセットからランダムにサンプリングされたデータブロックの自己回帰言語モデリングに依存している。
我々は、空間的反復のような人間の学習技術からインスピレーションを得て、LLMのランダムなデータサンプリングが、データを忘れがちな高いトレーニングコストと低品質モデルをもたらすという仮説を立てる。
ウェブスケール情報を長期記憶に効果的にコミットするために,LFR(Learn, Focus, and Review)ペタゴギーを提案する。
論文 参考訳(メタデータ) (2024-09-10T00:59:18Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Second-Order Information Matters: Revisiting Machine Unlearning for Large Language Models [1.443696537295348]
プライバシーの漏洩と著作権侵害はまだ未発見だ。
我々の未学習のアルゴリズムは、データに依存しない/モデルに依存しないだけでなく、ユーティリティの保存やプライバシー保証の観点からも堅牢であることが証明されている。
論文 参考訳(メタデータ) (2024-03-13T18:57:30Z) - PIVOT: Prompting for Video Continual Learning [50.80141083993668]
PIVOTは、画像領域から事前学習したモデルにおける広範な知識を活用する新しい手法である。
実験の結果,PIVOTは20タスクのアクティビティネット設定において,最先端の手法を27%向上することがわかった。
論文 参考訳(メタデータ) (2022-12-09T13:22:27Z) - From Weakly Supervised Learning to Active Learning [1.52292571922932]
この論文は、教師付き学習よりも汎用的なフレームワークを導き出せるか?
私たちは、ユニークなターゲットではなく、ターゲット候補のセットを与えるものとして、弱い監督をモデル化します。
我々は、ほとんどの観測値と一致する楽観的な'関数を求めるべきだと論じる。これにより、部分ラベルを曖昧にするための原則を導出できる。
論文 参考訳(メタデータ) (2022-09-23T14:55:43Z) - Understanding the World Through Action [91.3755431537592]
ラベルのないデータを利用するための汎用的で原則的で強力なフレームワークは、強化学習から導き出すことができると私は主張する。
このような手順が、下流の潜在的なタスクとどのように密接に一致しているかについて論じます。
論文 参考訳(メタデータ) (2021-10-24T22:33:52Z) - Text-Based Person Search with Limited Data [66.26504077270356]
テキストベースの人物検索(TBPS)は、画像ギャラリーから対象人物を記述的なテキストクエリで検索することを目的としている。
限られたデータによってもたらされる問題に対処する2つの新しいコンポーネントを持つフレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-20T22:20:47Z) - Training Deep Networks from Zero to Hero: avoiding pitfalls and going
beyond [59.94347858883343]
このチュートリアルでは、基本的なステップと、モデルを改善するためのより最近のオプションを取り上げている。
これは特に、課題のデータセットほど準備が不十分なデータセットで有用である。
論文 参考訳(メタデータ) (2021-09-06T21:31:42Z) - Knowledge Consolidation based Class Incremental Online Learning with
Limited Data [41.87919913719975]
本稿では,限定的なデータ環境下での授業段階的なオンライン学習のための新しい手法を提案する。
我々は、破滅的な忘れ込みと過度な適合の問題に悩まされることなく、タスク間で一般化可能な堅牢な表現を学習する。
論文 参考訳(メタデータ) (2021-06-12T15:18:29Z) - Instance exploitation for learning temporary concepts from sparsely
labeled drifting data streams [15.49323098362628]
ストリーミングデータソースからの継続的な学習がますます人気を博している。
動的で絶え間ない問題に対処することは 新たな課題を引き起こします
最も重要な制限の1つは、有限で完全なデータセットにアクセスできないことである。
論文 参考訳(メタデータ) (2020-09-20T08:11:43Z) - FLUID: A Unified Evaluation Framework for Flexible Sequential Data [42.44973069520298]
我々は新しい統合評価フレームワーク、FLUID(Flexible Sequential Data)を導入する。
FLUIDは、少数ショット、継続、転送、表現学習の目的を統合している。
我々は、現在のソリューションの利点と限界に関する新たな洞察をもたらす、幅広い手法の実験を行う。
論文 参考訳(メタデータ) (2020-07-06T04:31:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。