論文の概要: Distributional Shift Adaptation using Domain-Specific Features
- arxiv url: http://arxiv.org/abs/2211.04670v1
- Date: Wed, 9 Nov 2022 04:16:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 17:24:19.651650
- Title: Distributional Shift Adaptation using Domain-Specific Features
- Title(参考訳): 領域特徴量を用いた分布シフト適応
- Authors: Anique Tahir, Lu Cheng, Ruocheng Guo and Huan Liu
- Abstract要約: オープンワールドのシナリオでは、ビッグデータのストリーミングはOut-Of-Distribution(OOD)になる。
特徴が不変か否かにかかわらず、一般の相関に依拠する単純かつ効果的な手法を提案する。
提案手法では,OODベースモデルによって同定された最も確実なサンプルを用いて,対象領域に効果的に適応する新しいモデルを訓練する。
- 参考スコア(独自算出の注目度): 41.91388601229745
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Machine learning algorithms typically assume that the training and test
samples come from the same distributions, i.e., in-distribution. However, in
open-world scenarios, streaming big data can be Out-Of-Distribution (OOD),
rendering these algorithms ineffective. Prior solutions to the OOD challenge
seek to identify invariant features across different training domains. The
underlying assumption is that these invariant features should also work
reasonably well in the unlabeled target domain. By contrast, this work is
interested in the domain-specific features that include both invariant features
and features unique to the target domain. We propose a simple yet effective
approach that relies on correlations in general regardless of whether the
features are invariant or not. Our approach uses the most confidently predicted
samples identified by an OOD base model (teacher model) to train a new model
(student model) that effectively adapts to the target domain. Empirical
evaluations on benchmark datasets show that the performance is improved over
the SOTA by ~10-20%
- Abstract(参考訳): 機械学習アルゴリズムは典型的には、トレーニングとテストサンプルは同じ分布、すなわち分布内から来ていると仮定する。
しかし、オープンワールドのシナリオでは、ビッグデータのストリーミングは分散(ood)外になり、これらのアルゴリズムは非効率になる。
OODチャレンジの以前のソリューションは、異なるトレーニングドメイン間で不変の機能を識別しようとしていた。
基本的な前提は、これらの不変機能はラベルなしのターゲットドメインでも合理的に機能するべきである、ということである。
対照的に、この研究は、不変な特徴と対象ドメイン特有の特徴の両方を含むドメイン固有の機能に興味を持っている。
我々は,その特徴が不変であるか否かに関わらず,一般の相関に依存する単純かつ効果的なアプローチを提案する。
提案手法では,OODベースモデル(教師モデル)によって同定された最も確実なサンプルを用いて,対象領域に効果的に適応する新しいモデル(学生モデル)を訓練する。
ベンチマークデータセットの実証評価では、SOTA上でのパフォーマンスが約10-20%向上している。
関連論文リスト
- Self-training through Classifier Disagreement for Cross-Domain Opinion
Target Extraction [62.41511766918932]
オピニオンターゲット抽出(OTE)またはアスペクト抽出(AE)は意見マイニングの基本的な課題である。
最近の研究は、現実世界のシナリオでよく見られるクロスドメインのOTEに焦点を当てている。
そこで本稿では,ドメイン固有の教師と学生のネットワークから出力されるモデルが未学習のターゲットデータと一致しない対象サンプルを選択するためのSSLアプローチを提案する。
論文 参考訳(メタデータ) (2023-02-28T16:31:17Z) - Low-confidence Samples Matter for Domain Adaptation [47.552605279925736]
ドメイン適応(DA)は、知識をラベルの豊富なソースドメインから関連するがラベルの少ないターゲットドメインに転送することを目的としている。
低信頼度サンプルの処理による新しいコントラスト学習法を提案する。
提案手法を教師なしと半教師付きの両方のDA設定で評価する。
論文 参考訳(メタデータ) (2022-02-06T15:45:45Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - On Universal Black-Box Domain Adaptation [53.7611757926922]
実践的な展開という観点から,ドメイン適応の最小限の制約条件について検討する。
ソースモデルのインターフェースのみがターゲットドメインで利用可能であり、2つのドメイン間のラベル空間関係が異なることや未知であることが許されている。
対象試料の局所近傍における予測の整合性によって正規化された自己訓練フレームワークに統一することを提案する。
論文 参考訳(メタデータ) (2021-04-10T02:21:09Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Domain Impression: A Source Data Free Domain Adaptation Method [27.19677042654432]
教師なしドメイン適応法は、ソースデータセットがすべてのラベルで利用可能であると仮定して、ラベルなしのターゲットセットの適応問題を解決する。
本稿では,ソースデータを必要としないドメイン適応手法を提案する。
ソースデータの代わりに、ソースデータに基づいてトレーニングされた分類器のみを提供しています。
論文 参考訳(メタデータ) (2021-02-17T19:50:49Z) - Domain Adaptation Using Class Similarity for Robust Speech Recognition [24.951852740214413]
本稿では,クラス類似性を用いたディープニューラルネットワーク(DNN)音響モデルの新しい適応法を提案する。
実験の結果, アクセントと雑音適応の両タスクにおいて, ワンホットラベルを用いた微調整よりも優れていた。
論文 参考訳(メタデータ) (2020-11-05T12:26:43Z) - Adaptive Risk Minimization: Learning to Adapt to Domain Shift [109.87561509436016]
ほとんどの機械学習アルゴリズムの基本的な前提は、トレーニングとテストデータは、同じ基礎となる分布から引き出されることである。
本研究では,学習データをドメインに構造化し,複数のテスト時間シフトが存在する場合の領域一般化の問題点について考察する。
本稿では、適応リスク最小化(ARM)の枠組みを紹介し、モデルがトレーニング領域に適応することを学ぶことで、効果的な適応のために直接最適化される。
論文 参考訳(メタデータ) (2020-07-06T17:59:30Z) - Incremental Unsupervised Domain-Adversarial Training of Neural Networks [17.91571291302582]
教師付き統計学習の文脈では通常、トレーニングセットはテストサンプルを描画する同じ分布から来ていると仮定される。
ここでは、モデルが新しいドメインに反復的に適応される段階的な視点から、別の道を選び、問題にアプローチします。
その結果,いくつかのデータセットにおける非増加事例に対する明らかな改善が報告され,他の最先端のドメイン適応アルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2020-01-13T09:54:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。