論文の概要: Enhancing Counterfactual Classification via Self-Training
- arxiv url: http://arxiv.org/abs/2112.04461v1
- Date: Wed, 8 Dec 2021 18:42:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-09 14:36:00.699057
- Title: Enhancing Counterfactual Classification via Self-Training
- Title(参考訳): 自己学習による対物分類の強化
- Authors: Ruijiang Gao, Max Biggs, Wei Sun, Ligong Han
- Abstract要約: 本研究では, 擬似ラベルによるランダム化試行をシミュレートするために, 観測データ中の有限未確認動作に対して, カテゴリ値で結果を示唆する自己学習アルゴリズムを提案する。
提案アルゴリズムは,合成データセットと実データセットの両方において有効であることを示す。
- 参考スコア(独自算出の注目度): 9.484178349784264
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unlike traditional supervised learning, in many settings only partial
feedback is available. We may only observe outcomes for the chosen actions, but
not the counterfactual outcomes associated with other alternatives. Such
settings encompass a wide variety of applications including pricing, online
marketing and precision medicine. A key challenge is that observational data
are influenced by historical policies deployed in the system, yielding a biased
data distribution. We approach this task as a domain adaptation problem and
propose a self-training algorithm which imputes outcomes with categorical
values for finite unseen actions in the observational data to simulate a
randomized trial through pseudolabeling, which we refer to as Counterfactual
Self-Training (CST). CST iteratively imputes pseudolabels and retrains the
model. In addition, we show input consistency loss can further improve CST
performance which is shown in recent theoretical analysis of pseudolabeling. We
demonstrate the effectiveness of the proposed algorithms on both synthetic and
real datasets.
- Abstract(参考訳): 従来の教師付き学習とは異なり、多くの設定では部分的なフィードバックしか利用できない。
我々は、選択した行動の結果のみを観察できるが、他の選択肢に関連する反実的な結果ではない。
このような設定は、価格、オンラインマーケティング、精密医療など、さまざまなアプリケーションをカバーする。
重要な課題は、観測データはシステムに展開された歴史的政策に影響され、偏りのあるデータ分布をもたらすことである。
本稿では,この課題をドメイン適応問題としてアプローチし,観察データにおける有限非知覚動作のカテゴリ値を用いて結果を導出し,擬似ラベルによるランダム化試行をシミュレートする自己学習アルゴリズムを提案する。
CST は疑似ラベルを反復的に入力し、モデルを再訓練する。
また,近年のpseudolabelingの理論解析で示された入力一貫性損失により,cstの性能がさらに向上することを示す。
本研究では,合成データと実データの両方に対する提案アルゴリズムの有効性を示す。
関連論文リスト
- Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Rethinking Precision of Pseudo Label: Test-Time Adaptation via
Complementary Learning [10.396596055773012]
本稿では,テスト時間適応性を高めるための新しい補完学習手法を提案する。
テスト時適応タスクでは、ソースドメインからの情報は通常利用できない。
我々は,相補ラベルのリスク関数がバニラ損失式と一致することを強調した。
論文 参考訳(メタデータ) (2023-01-15T03:36:33Z) - Neighbour Consistency Guided Pseudo-Label Refinement for Unsupervised
Person Re-Identification [80.98291772215154]
教師なしの人物再識別(ReID)は、アノテーションを使わずに人物検索のための識別的アイデンティティの特徴を学習することを目的としている。
近年の進歩はクラスタリングに基づく擬似ラベルを活用することで実現されている。
本稿では, Pseudo Label Refinement フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-30T09:39:57Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Data-Centric Machine Learning in the Legal Domain [0.2624902795082451]
本稿では,データセットの変化がモデルの性能に与える影響について考察する。
法律ドメインから公開されている3つのデータセットを用いて,そのサイズ,列車/テストの分割,および人間のラベル付け精度がパフォーマンスに与える影響について検討する。
観察された効果は、特にクラスごとのパフォーマンスを考慮した場合、驚くほど顕著である。
論文 参考訳(メタデータ) (2022-01-17T23:05:14Z) - Cycle-Balanced Representation Learning For Counterfactual Inference [42.229586802733806]
本稿では,Cycle-Balanced Representation Learning for counterfactual Inference (CBRE) に基づく新しいフレームワークを提案する。
具体的には,異なるグループに対して,逆行訓練を用いて頑健なバランスの取れた表現を実現し,一方,元データ特性を循環的に保存する情報ループを構築する。
実世界の3つのデータセットの結果は、CBREが最先端の手法にマッチ/アウトパフォーマンスを示し、反現実的推論に適用できる大きな可能性を持っている。
論文 参考訳(メタデータ) (2021-10-29T01:15:16Z) - Adaptive Affinity Loss and Erroneous Pseudo-Label Refinement for Weakly
Supervised Semantic Segmentation [48.294903659573585]
本稿では,多段階アプローチの親和性学習を単一段階モデルに組み込むことを提案する。
深層ニューラルネットワークは、トレーニングフェーズで包括的なセマンティック情報を提供するために使用される。
提案手法の有効性を評価するため,PASCAL VOC 2012データセットを用いて実験を行った。
論文 参考訳(メタデータ) (2021-08-03T07:48:33Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Unsupervised Domain Adaptation for Speech Recognition via Uncertainty
Driven Self-Training [55.824641135682725]
WSJ をソースドメインとし,TED-Lium 3 とSWITCHBOARD を併用したドメイン適応実験を行った。
論文 参考訳(メタデータ) (2020-11-26T18:51:26Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。