論文の概要: Reinforced Data Sampling for Model Diversification
- arxiv url: http://arxiv.org/abs/2006.07100v1
- Date: Fri, 12 Jun 2020 11:46:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 03:33:19.632441
- Title: Reinforced Data Sampling for Model Diversification
- Title(参考訳): モデル多様化のための強化データサンプリング
- Authors: Hoang D. Nguyen, Xuan-Son Vu, Quoc-Tuan Truong, Duc-Trong Le
- Abstract要約: 本稿では,データを適切にサンプリングする方法を学ぶための新しいReinforced Data Smpling (RDS)法を提案する。
モデルダイバーシフィケーションの最適化問題である$delta-div$をデータサンプリングで定式化し,モデルダイバーシフィケーションを注入することで学習ポテンシャルと最適アロケーションを最大化する。
モデル多様化のためのトレーニング可能なサンプリングは,各種機械学習タスクの潜在能力を追求する競技組織,研究者,さらには開始者にとって有用であることが示唆された。
- 参考スコア(独自算出の注目度): 15.547681142342846
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rising number of machine learning competitions, the world has
witnessed an exciting race for the best algorithms. However, the involved data
selection process may fundamentally suffer from evidence ambiguity and concept
drift issues, thereby possibly leading to deleterious effects on the
performance of various models. This paper proposes a new Reinforced Data
Sampling (RDS) method to learn how to sample data adequately on the search for
useful models and insights. We formulate the optimisation problem of model
diversification $\delta{-div}$ in data sampling to maximise learning potentials
and optimum allocation by injecting model diversity. This work advocates the
employment of diverse base learners as value functions such as neural networks,
decision trees, or logistic regressions to reinforce the selection process of
data subsets with multi-modal belief. We introduce different ensemble reward
mechanisms, including soft voting and stochastic choice to approximate optimal
sampling policy. The evaluation conducted on four datasets evidently highlights
the benefits of using RDS method over traditional sampling approaches. Our
experimental results suggest that the trainable sampling for model
diversification is useful for competition organisers, researchers, or even
starters to pursue full potentials of various machine learning tasks such as
classification and regression. The source code is available at
https://github.com/probeu/RDS.
- Abstract(参考訳): 機械学習のコンペが増えている今、世界は最高のアルゴリズムに対するエキサイティングな競争を目の当たりにしている。
しかし、関連するデータ選択プロセスは、基本的に曖昧さと概念ドリフトの問題に苦しむ可能性があるため、様々なモデルのパフォーマンスに有害な影響を与える可能性がある。
本稿では、有用なモデルや洞察の探索において、データを適切にサンプリングする方法を学ぶための新しいReinforced Data Smpling(RDS)手法を提案する。
モデルの多様性を注入することで学習ポテンシャルと最適割り当てを最大化するためにデータサンプリングにおけるモデルの多様化の最適化問題を定式化する。
この研究は、ニューラルネットワーク、決定木、ロジスティック回帰といった価値関数としての多様なベース学習者の雇用を提唱し、マルチモーダル信念を持つデータサブセットの選択プロセスを強化する。
最適サンプリングポリシーを近似するために,ソフト投票や確率的選択など,異なるアンサンブル報酬機構を導入する。
4つのデータセットで行った評価は、従来のサンプリング手法よりもRDS法を使うことの利点を強調している。
実験結果から,モデル多様化のためのトレーニング可能なサンプリングは,分類や回帰といった機械学習タスクの潜在能力を追求するために,コンペティションオーガナイザや研究者,さらには開始者にとって有用であることが示唆された。
ソースコードはhttps://github.com/probeu/RDS.comで入手できる。
関連論文リスト
- CorrSynth -- A Correlated Sampling Method for Diverse Dataset Generation from LLMs [5.89889361990138]
大規模言語モデル(LLM)は、ゼロショットプロンプトと少数ショットプロンプトを使用して、多様なタスクにおいて顕著な性能を示した。
本研究では,下流の課題に対して,学生モデルが訓練されるような,多様性の高いデータセットを生成するという課題に取り組む。
復号時間誘導に基づくアプローチの経路を考慮し、相関したサンプリング戦略を用いて、入力プロンプトにより多様で忠実なデータを生成するCorr Synthを提案する。
論文 参考訳(メタデータ) (2024-11-13T12:09:23Z) - Diversified Batch Selection for Training Acceleration [68.67164304377732]
オンラインバッチ選択として知られる一般的な研究ラインでは、トレーニングプロセス中の情報サブセットの選択について検討している。
バニラ参照モデルフリーメソッドは、独立してデータをサンプリング的にスコア付けし、選択する。
DivBS(Diversified Batch Selection)を提案する。
論文 参考訳(メタデータ) (2024-06-07T12:12:20Z) - Secrets of RLHF in Large Language Models Part II: Reward Modeling [134.97964938009588]
本稿では,データセットにおける不正確で曖昧な嗜好の影響を軽減するために,一連の新しい手法を紹介する。
また、選択された応答と拒否された応答を区別する報酬モデルの有用性を高めるために、対照的な学習を導入する。
論文 参考訳(メタデータ) (2024-01-11T17:56:59Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Self-Evolved Diverse Data Sampling for Efficient Instruction Tuning [47.02160072880698]
モデル自体が等しくあるいはそれ以上に効果的であるサブセットを積極的にサンプリングできる自己進化メカニズムを導入します。
データサンプリング技術の鍵は、選択したサブセットの多様性の向上にあります。
3つのデータセットとベンチマークにわたる大規模な実験は、DiverseEvolの有効性を示している。
論文 参考訳(メタデータ) (2023-11-14T14:10:40Z) - Optimal Sample Selection Through Uncertainty Estimation and Its
Application in Deep Learning [22.410220040736235]
コアセット選択とアクティブラーニングの両方に対処するための理論的に最適な解を提案する。
提案手法であるCOPSは,サブサンプルデータに基づいてトレーニングされたモデルの損失を最小限に抑えるために設計されている。
論文 参考訳(メタデータ) (2023-09-05T14:06:33Z) - Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - Towards Automated Imbalanced Learning with Deep Hierarchical
Reinforcement Learning [57.163525407022966]
不均衡学習はデータマイニングにおいて基本的な課題であり、各クラスにトレーニングサンプルの不均等な比率が存在する。
オーバーサンプリングは、少数民族のための合成サンプルを生成することによって、不均衡な学習に取り組む効果的な手法である。
我々は,異なるレベルの意思決定を共同で最適化できる自動オーバーサンプリングアルゴリズムであるAutoSMOTEを提案する。
論文 参考訳(メタデータ) (2022-08-26T04:28:01Z) - Multimodal Adversarially Learned Inference with Factorized
Discriminators [10.818838437018682]
本稿では,生成逆ネットワークに基づくマルチモーダルデータの生成モデリングのための新しい手法を提案する。
コヒーレントなマルチモーダル生成モデルを学習するためには、異なるエンコーダ分布とジョイントデコーダ分布を同時に整合させることが必要であることを示す。
判別器を分解することで、対照的な学習を生かし、単調なデータに基づいてモデルを訓練する。
論文 参考訳(メタデータ) (2021-12-20T08:18:49Z) - SelectAugment: Hierarchical Deterministic Sample Selection for Data
Augmentation [72.58308581812149]
そこで我々は,SelectAugmentと呼ばれる効果的な手法を提案し,決定論的かつオンラインに拡張するサンプルを選択する。
具体的には、各バッチにおいて、まず増分比率を決定し、次にこの比で各トレーニングサンプルを増分するかを決定する。
これにより、サンプルを増量する際のランダム性による負の効果を効果的に軽減し、DAの有効性を向上させることができる。
論文 参考訳(メタデータ) (2021-12-06T08:38:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。