論文の概要: Biquality Learning: a Framework to Design Algorithms Dealing with
Closed-Set Distribution Shifts
- arxiv url: http://arxiv.org/abs/2308.15132v1
- Date: Tue, 29 Aug 2023 08:57:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-30 14:58:09.973462
- Title: Biquality Learning: a Framework to Design Algorithms Dealing with
Closed-Set Distribution Shifts
- Title(参考訳): バイクオリティ・ラーニング:クローズドセット分布シフトを扱うアルゴリズムを設計するフレームワーク
- Authors: Pierre Nodet and Vincent Lemaire and Alexis Bondu and Antoine
Cornu\'ejols
- Abstract要約: このようなアルゴリズムを設計するのには、バイ品質のデータ設定が適していると考えています。
トレーニング時に利用可能な信頼できないデータセットは、任意の分散シフトを扱うアルゴリズムの設計を可能にする。
実世界のデータセットに概念ドリフトとクラス条件シフトを合成的に導入する2つの新しい手法を実験した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Training machine learning models from data with weak supervision and dataset
shifts is still challenging. Designing algorithms when these two situations
arise has not been explored much, and existing algorithms cannot always handle
the most complex distributional shifts. We think the biquality data setup is a
suitable framework for designing such algorithms. Biquality Learning assumes
that two datasets are available at training time: a trusted dataset sampled
from the distribution of interest and the untrusted dataset with dataset shifts
and weaknesses of supervision (aka distribution shifts). The trusted and
untrusted datasets available at training time make designing algorithms dealing
with any distribution shifts possible. We propose two methods, one inspired by
the label noise literature and another by the covariate shift literature for
biquality learning. We experiment with two novel methods to synthetically
introduce concept drift and class-conditional shifts in real-world datasets
across many of them. We opened some discussions and assessed that developing
biquality learning algorithms robust to distributional changes remains an
interesting problem for future research.
- Abstract(参考訳): 弱い監視とデータセットシフトを持つデータから機械学習モデルをトレーニングすることは依然として難しい。
これらの2つの状況が発生した時にアルゴリズムを設計することはあまり研究されておらず、既存のアルゴリズムが常に最も複雑な分布シフトを扱うことはできない。
このようなアルゴリズムを設計するのには、バイ品質のデータ設定が適していると考えています。
興味の分散からサンプリングされた信頼されたデータセットと、データセットのシフトと監督の弱点(別名分布シフト)を持つ信頼できないデータセットである。
トレーニング時に利用可能な信頼できないデータセットは、任意の分散シフトを扱うアルゴリズムの設計を可能にする。
本研究では,ラベル雑音文学と共変量シフト文学に触発された2つの手法を提案する。
実世界のデータセットにおける概念ドリフトとクラス条件シフトを合成的に導入する2つの新しい手法を実験した。
両品質学習アルゴリズムの開発が分散的変化に頑健であることは今後の研究にとって興味深い問題である。
関連論文リスト
- Continual Learning for Multimodal Data Fusion of a Soft Gripper [1.0589208420411014]
あるデータモダリティに基づいてトレーニングされたモデルは、異なるモダリティでテストした場合、しばしば失敗する。
異なるデータモダリティを漸進的に学習できる連続学習アルゴリズムを提案する。
我々は、アルゴリズムの有効性を、挑戦的なカスタムマルチモーダルデータセット上で評価する。
論文 参考訳(メタデータ) (2024-09-20T09:53:27Z) - Binary Quantification and Dataset Shift: An Experimental Investigation [54.14283123210872]
量子化は教師付き学習タスクであり、未学習データの集合のクラス有病率の予測器を訓練する。
定量化と他のタイプのデータセットシフトの関係は、いまだ大きく、未調査のままである。
本稿では,これらのシフトに影響を受けるデータセットの生成プロトコルを確立することにより,データセットシフトの種類を詳細に分類する手法を提案する。
論文 参考訳(メタデータ) (2023-10-06T20:11:27Z) - biquality-learn: a Python library for Biquality Learning [0.0]
バイ品質学習は、監督とデータセットシフトの弱点を扱うアルゴリズムを設計するためのフレームワークとして提案されている。
Python Library for Biquality Learningは、バイ品質データから機械学習モデルを学ぶための直感的で一貫性のあるAPIである。
論文 参考訳(メタデータ) (2023-08-18T16:01:18Z) - Data Quality in Imitation Learning [15.939363481618738]
ロボット工学のオフライン学習では、インターネットのスケールデータがないだけで、高品質なデータセットが必要なのです。
これは特に、専門家によるデモンストレーションを用いたロボット学習のためのサンプル効率のよいパラダイムである模倣学習(IL)において当てはまる。
本研究では,分散シフトのレンズによる模倣学習のためのデータ品質の形式化に向けた第一歩を踏み出す。
論文 参考訳(メタデータ) (2023-06-04T18:48:32Z) - OoD-Bench: Benchmarking and Understanding Out-of-Distribution
Generalization Datasets and Algorithms [28.37021464780398]
1つの分布シフトにおいて経験的リスク最小化よりも優れた既存のOoDアルゴリズムは、通常、他の分布シフトに制限があることを示す。
新しいベンチマークは、将来のOoD一般化研究で活用できる強力な基盤として機能する可能性がある。
論文 参考訳(メタデータ) (2021-06-07T15:34:36Z) - Semi-supervised Long-tailed Recognition using Alternate Sampling [95.93760490301395]
ロングテール認識の主な課題は、データ分布の不均衡とテールクラスにおけるサンプル不足である。
半教師付き長尾認識という新しい認識設定を提案する。
2つのデータセットで、他の競合方法よりも大幅な精度向上を実証します。
論文 参考訳(メタデータ) (2021-05-01T00:43:38Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z) - Byzantine-Robust Learning on Heterogeneous Datasets via Bucketing [55.012801269326594]
ビザンチンの堅牢な分散学習では、中央サーバは、複数のワーカーに分散したデータよりも、機械学習モデルを訓練したい。
これらの労働者のごく一部は、所定のアルゴリズムから逸脱し、任意のメッセージを送ることができる。
本稿では,既存のロバストなアルゴリズムを無視可能な計算コストでヘテロジニアスなデータセットに適応させる,シンプルなバケット方式を提案する。
論文 参考訳(メタデータ) (2020-06-16T17:58:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。