論文の概要: Training With Data Dependent Dynamic Learning Rates
- arxiv url: http://arxiv.org/abs/2105.13464v1
- Date: Thu, 27 May 2021 21:52:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-31 23:36:53.294912
- Title: Training With Data Dependent Dynamic Learning Rates
- Title(参考訳): データ依存型動的学習率によるトレーニング
- Authors: Shreyas Saxena, Nidhi Vyas, Dennis DeCoste
- Abstract要約: 本稿では,インスタンス間の損失関数特性の違いを考慮に入れた最適化フレームワークを提案する。
我々のフレームワークはデータセットに存在する各インスタンスの動的学習率を学習する。
我々のフレームワークは、機械学習モデルのパーソナライズに、既知のターゲットデータ分布に対して使用できることを示す。
- 参考スコア(独自算出の注目度): 8.833548357664608
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently many first and second order variants of SGD have been proposed to
facilitate training of Deep Neural Networks (DNNs). A common limitation of
these works stem from the fact that they use the same learning rate across all
instances present in the dataset. This setting is widely adopted under the
assumption that loss functions for each instance are similar in nature, and
hence, a common learning rate can be used. In this work, we relax this
assumption and propose an optimization framework which accounts for difference
in loss function characteristics across instances. More specifically, our
optimizer learns a dynamic learning rate for each instance present in the
dataset. Learning a dynamic learning rate for each instance allows our
optimization framework to focus on different modes of training data during
optimization. When applied to an image classification task, across different
CNN architectures, learning dynamic learning rates leads to consistent gains
over standard optimizers. When applied to a dataset containing corrupt
instances, our framework reduces the learning rates on noisy instances, and
improves over the state-of-the-art. Finally, we show that our optimization
framework can be used for personalization of a machine learning model towards a
known targeted data distribution.
- Abstract(参考訳): 近年、深層ニューラルネットワーク(dnn)の訓練を容易にするために、sgdの1次および2次変種が提案されている。
これらの作業の一般的な制限は、データセットに存在するすべてのインスタンスで同じ学習率を使用しているという事実にある。
この設定は、各インスタンスの損失関数が本質的に類似しているという仮定の下で広く採用されており、共通の学習率を用いることができる。
本稿では,この仮定を緩和し,インスタンス間の損失関数特性の違いを考慮した最適化フレームワークを提案する。
具体的には、データセットに存在する各インスタンスの動的学習率について学習する。
各インスタンスに対する動的学習率の学習により、最適化フレームワークは最適化中のトレーニングデータのさまざまなモードに集中することができます。
画像分類タスクに適用すると、異なるCNNアーキテクチャで動的学習率が標準オプティマイザよりも一貫して向上する。
破損したインスタンスを含むデータセットに適用した場合、我々のフレームワークはノイズの多いインスタンスの学習率を低減し、最先端技術よりも改善する。
最後に,機械学習モデルから既知のターゲットデータ分布へのパーソナライズに,我々の最適化フレームワークが利用できることを示す。
関連論文リスト
- Unlearning as multi-task optimization: A normalized gradient difference approach with an adaptive learning rate [105.86576388991713]
正規化勾配差(NGDiff)アルゴリズムを導入し、目的間のトレードオフをよりよく制御できるようにする。
本研究では,TOFUおよびMUSEデータセットにおける最先端の未学習手法において,NGDiffの優れた性能を実証的に実証し,理論的解析を行った。
論文 参考訳(メタデータ) (2024-10-29T14:41:44Z) - A CLIP-Powered Framework for Robust and Generalizable Data Selection [51.46695086779598]
実世界のデータセットは、しばしば冗長でノイズの多いデータを含み、トレーニング効率とモデルパフォーマンスに悪影響を及ぼす。
データ選択は、データセット全体から最も代表的なサンプルを特定することを約束している。
より堅牢で一般化可能なサンプル選択にマルチモーダル情報を活用するCLIPを利用した新しいデータ選択フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-15T03:00:58Z) - Narrowing the Focus: Learned Optimizers for Pretrained Models [24.685918556547055]
本稿では,一連の基本作業タスクによって提供される更新方向の階層固有の線形結合を学習する手法を提案する。
画像上で評価すると、これはAdamのような従来の既成の方法と既存の一般的な学習の両方で著しく優れています。
論文 参考訳(メタデータ) (2024-08-17T23:55:19Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - Cost-Sensitive Self-Training for Optimizing Non-Decomposable Metrics [9.741019160068388]
本稿では,非分解性メトリクスを最適化するための自己学習手法を一般化したCSSTフレームワークを紹介する。
以上の結果から,CSSTはデータセットや目的にまたがるほとんどのケースにおいて,最先端の改善を実現していることが示された。
論文 参考訳(メタデータ) (2023-04-28T10:31:12Z) - Neural Collapse Inspired Federated Learning with Non-iid Data [31.576588815816095]
非独立かつ同一に分散された(非ID)特性は、ローカル更新に大きな違いをもたらし、中央サーバの性能に影響する。
神経崩壊の現象にインスパイアされた私たちは、各クライアントを最適なグローバル構造に最適化するよう強制する。
提案手法は, 異なるサイズのデータセット上での収束速度を高速化して, 性能を向上することができる。
論文 参考訳(メタデータ) (2023-03-27T05:29:53Z) - An Optimization-Based Meta-Learning Model for MRI Reconstruction with
Diverse Dataset [4.9259403018534496]
メタラーニングフレームワークを用いた一般化可能なMRI再構成モデルを構築した。
提案するネットワークは,学習者適応モデルを用いて正規化関数を学習する。
メタトレーニング後および半減期における未確認課題の即時訓練の結果を検証した。
論文 参考訳(メタデータ) (2021-10-02T03:21:52Z) - Learning to Continuously Optimize Wireless Resource in a Dynamic
Environment: A Bilevel Optimization Perspective [52.497514255040514]
この研究は、データ駆動メソッドが動的環境でリソース割り当て戦略を継続的に学び、最適化することを可能にする新しいアプローチを開発しています。
学習モデルが新たなエピソードに段階的に適応できるように、連続学習の概念を無線システム設計に組み込むことを提案する。
我々の設計は、異なるデータサンプルにまたがる公平性を保証する、新しい二段階最適化定式化に基づいている。
論文 参考訳(メタデータ) (2021-05-03T07:23:39Z) - Learning to Continuously Optimize Wireless Resource In Episodically
Dynamic Environment [55.91291559442884]
この研究は、データ駆動型手法が動的環境で継続的に学習し、最適化できる方法論を開発する。
本稿では,無線システム学習のモデリングプロセスに連続学習の概念を構築することを提案する。
我々の設計は、異なるデータサンプル間で「一定の公正性を保証する」新しいmin-maxの定式化に基づいている。
論文 参考訳(メタデータ) (2020-11-16T08:24:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。