論文の概要: Achieving Representative Data via Convex Hull Feasibility Sampling
Algorithms
- arxiv url: http://arxiv.org/abs/2204.06664v1
- Date: Wed, 13 Apr 2022 23:14:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-15 12:18:24.345929
- Title: Achieving Representative Data via Convex Hull Feasibility Sampling
Algorithms
- Title(参考訳): 凸ハル可能性サンプリングアルゴリズムによる代表データ取得
- Authors: Laura Niss, Yuekai Sun, Ambuj Tewari
- Abstract要約: トレーニングデータのバイアスをサンプリングすることは、機械学習システムにおけるアルゴリズムバイアスの主要な原因である。
得られたデータから代表的データセットを収集できるかどうかを高信頼で判断するために,適応的なサンプリング手法を提案する。
- 参考スコア(独自算出の注目度): 35.29582673348303
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sampling biases in training data are a major source of algorithmic biases in
machine learning systems. Although there are many methods that attempt to
mitigate such algorithmic biases during training, the most direct and obvious
way is simply collecting more representative training data. In this paper, we
consider the task of assembling a training dataset in which minority groups are
adequately represented from a given set of data sources. In essence, this is an
adaptive sampling problem to determine if a given point lies in the convex hull
of the means from a set of unknown distributions. We present adaptive sampling
methods to determine, with high confidence, whether it is possible to assemble
a representative dataset from the given data sources. We also demonstrate the
efficacy of our policies in simulations in the Bernoulli and a multinomial
setting.
- Abstract(参考訳): トレーニングデータのバイアスサンプリングは、機械学習システムにおけるアルゴリズムバイアスの主な原因である。
このようなアルゴリズムバイアスをトレーニング中に軽減しようとする方法は数多く存在するが、最も直接的かつ明白な方法は、より代表的なトレーニングデータを集めることだ。
本稿では,少数グループが与えられたデータ集合から適切に表現される訓練データセットを組み立てる作業について考察する。
本質的にこれは、与えられた点が未知の分布の集合から手段の凸殻にあるかどうかを決定する適応サンプリング問題である。
得られたデータから代表的データセットを収集できるかどうかを高信頼で判断するために,適応的なサンプリング手法を提案する。
また,ベルヌーイのシミュレーションと多項的設定における政策の有効性を実証する。
関連論文リスト
- Adaptive teachers for amortized samplers [76.88721198565861]
償却推論(英: Amortized inference)とは、ニューラルネットワークなどのパラメトリックモデルをトレーニングし、正確なサンプリングが可能な所定の非正規化密度で分布を近似するタスクである。
オフ・ポリティクスのRLトレーニングは多様でハイ・リワードな候補の発見を促進するが、既存の手法は依然として効率的な探索の課題に直面している。
そこで本研究では,高次領域の優先順位付けにより,初等補正標本作成者(学生)の指導を指導する適応学習分布(教師)を提案する。
論文 参考訳(メタデータ) (2024-10-02T11:33:13Z) - Personalized Federated Learning via Active Sampling [50.456464838807115]
本稿では,類似した(あるいは関連する)データジェネレータを逐次同定する手法を提案する。
本手法は,局所的なデータセットを用いて勾配ステップの効果を評価することにより,データ生成の関連性を評価する。
データ生成器が提供する局所的データセットを用いて仮説を更新するために、勾配ステップの適切な一般化により、この手法を非パラメトリックモデルに拡張する。
論文 参考訳(メタデータ) (2024-09-03T17:12:21Z) - Downstream-Pretext Domain Knowledge Traceback for Active Learning [138.02530777915362]
本稿では、下流知識と事前学習指導のデータ相互作用をトレースするダウンストリーム・プレテキスト・ドメイン知識トレース(DOKT)手法を提案する。
DOKTは、トレースバックの多様性指標とドメインベースの不確実性推定器から構成される。
10のデータセットで行った実験は、我々のモデルが他の最先端の手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2024-07-20T01:34:13Z) - Balanced Data Sampling for Language Model Training with Clustering [96.46042695333655]
本稿では,学習データのテキスト分布のバランスをとるためにClusterClip Smplingを提案する。
大規模な実験は、ClusterClip Smplingの有効性を検証する。
論文 参考訳(メタデータ) (2024-02-22T13:20:53Z) - Group Distributionally Robust Dataset Distillation with Risk
Minimization [18.07189444450016]
本稿では,クラスタリングとリスク尺度の最小化を組み合わせ,DDを遂行する損失を最小化するアルゴリズムを提案する。
数値実験により,その有効一般化と部分群間のロバスト性を示す。
論文 参考訳(メタデータ) (2024-02-07T09:03:04Z) - Open-Sampling: Exploring Out-of-Distribution data for Re-balancing
Long-tailed datasets [24.551465814633325]
深層ニューラルネットワークは通常、トレーニングデータセットが極端なクラス不均衡に苦しむ場合、パフォーマンスが良くない。
近年の研究では、半教師付き方式でアウト・オブ・ディストリビューションデータによる直接トレーニングが一般化性能を損なうことが報告されている。
そこで我々は,オープンセットノイズラベルを用いて学習データセットのクラス前のバランスを再調整する,オープンサンプリングと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-06-17T14:29:52Z) - Sampling Bias Correction for Supervised Machine Learning: A Bayesian
Inference Approach with Practical Applications [0.0]
本稿では,データセットがラベルの不均衡などの意図的なサンプルバイアスを受ける可能性がある問題について議論する。
次に、この解をバイナリロジスティック回帰に適用し、データセットが意図的にサンプルバイアスを受けるシナリオについて議論する。
この手法は, 医療科学から画像認識, マーケティングに至るまで, ビッグデータの統計的推測に広く応用できる。
論文 参考訳(メタデータ) (2022-03-11T20:46:37Z) - Sequential Targeting: an incremental learning approach for data
imbalance in text classification [7.455546102930911]
不均衡なデータセットを扱う方法は、分散スキューを軽減するために不可欠である。
本稿では,提案手法の有効性によらず,新たなトレーニング手法であるシーケンスターゲティング(ST)を提案する。
シミュレーションベンチマークデータセット(IMDB)とNAVERから収集したデータを用いて,本手法の有効性を示す。
論文 参考訳(メタデータ) (2020-11-20T04:54:00Z) - Optimal Importance Sampling for Federated Learning [57.14673504239551]
フェデレートラーニングには、集中型と分散化された処理タスクが混在する。
エージェントとデータのサンプリングは概して一様であるが、本研究では一様でないサンプリングについて考察する。
エージェント選択とデータ選択の両方に最適な重要サンプリング戦略を導出し、置換のない一様サンプリングが元のFedAvgアルゴリズムの性能を向上させることを示す。
論文 参考訳(メタデータ) (2020-10-26T14:15:33Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z) - Domain Adaptive Bootstrap Aggregating [5.444459446244819]
ブートストラップ集約(英: bootstrap aggregating)は、予測アルゴリズムの安定性を改善する一般的な方法である。
本稿では, ドメイン適応型バッグング手法と, 隣り合う新しい反復型サンプリング手法を提案する。
論文 参考訳(メタデータ) (2020-01-12T20:02:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。