論文の概要: Induced Domain Adaptation
- arxiv url: http://arxiv.org/abs/2107.05911v1
- Date: Tue, 13 Jul 2021 08:21:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-14 14:53:29.391793
- Title: Induced Domain Adaptation
- Title(参考訳): ドメイン適応の誘導
- Authors: Yang Liu, Yatong Chen, Jiaheng Wei
- Abstract要約: IDAは、デプロイされるモデルによって基礎となる分散/ドメインシフトが導入されたときの問題である。
IDA設定における学習の伝達可能性に関する議論を形式化する。
IDAの重要な特徴と、計算と学習の課題を強調します。
- 参考スコア(独自算出の注目度): 5.084731309706487
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We formulate the problem of induced domain adaptation (IDA) when the
underlying distribution/domain shift is introduced by the model being deployed.
Our formulation is motivated by applications where the deployed machine
learning models interact with human agents, and will ultimately face responsive
and interactive data distributions. We formalize the discussions of the
transferability of learning in our IDA setting by studying how the model
trained on the available source distribution (data) would translate to the
performance on the induced domain. We provide both upper bounds for the
performance gap due to the induced domain shift, as well as lower bound for the
trade-offs a classifier has to suffer on either the source training
distribution or the induced target distribution. We provide further
instantiated analysis for two popular domain adaptation settings with covariate
shift and label shift. We highlight some key properties of IDA, as well as
computational and learning challenges.
- Abstract(参考訳): 本稿では,本モデルが展開する分散/ドメインシフトを導入した場合の誘導ドメイン適応(IDA)問題を定式化する。
私たちの定式化は、デプロイされた機械学習モデルがヒューマンエージェントと相互作用するアプリケーションによって動機付けられています。
IDA設定における学習の伝達可能性に関する議論は、利用可能なソース分布(データ)に基づいてトレーニングされたモデルが、誘導されたドメインのパフォーマンスにどのように変換するかを研究することで定式化する。
我々は, 誘導領域シフトによる性能差の上限と, 分類器がソーストレーニング分布と誘導目標分布のいずれかに負担しなければならないトレードオフの上限の両方を提供する。
共変量シフトとラベルシフトを含む2つの人気ドメイン適応設定のさらなるインスタンス化解析を提供する。
IDAの重要な特徴と、計算と学習の課題を強調します。
関連論文リスト
- Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Fairness Hub Technical Briefs: Definition and Detection of Distribution Shift [0.5825410941577593]
分散シフトは機械学習タスクにおいて一般的な状況であり、モデルのトレーニングに使用されるデータは、モデルが現実世界に適用されるデータとは異なる。
本稿では,教育環境における分布変化の定義と検出に焦点をあてる。
論文 参考訳(メタデータ) (2024-05-23T05:29:36Z) - Delta-AI: Local objectives for amortized inference in sparse graphical models [64.5938437823851]
スパース確率的グラフィカルモデル(PGM)における補正推論のための新しいアルゴリズムを提案する。
提案手法は, PGMにおける変数のサンプリングをエージェントが行う一連の行動とみなす場合, エージェントのポリシー学習目的において, PGMの疎結合が局所的な信用割当を可能にするという観察に基づいている。
合成PGMからサンプリングし、スパース因子構造を持つ潜在変数モデルを訓練するための$Delta$-AIの有効性について説明する。
論文 参考訳(メタデータ) (2023-10-03T20:37:03Z) - Diagnosing Model Performance Under Distribution Shift [9.143551270841858]
予測モデルは、トレーニングディストリビューションとは異なるターゲットディストリビューションにデプロイされた場合、パフォーマンスが良くない。
提案手法は,1)トレーニングの難易度が高いが頻繁な例の増加,2)特徴と成果の関係の変化,3)トレーニング中の頻度の低い例や見当たらない例のパフォーマンス低下など,パフォーマンスの低下を用語に分解する。
論文 参考訳(メタデータ) (2023-03-03T15:27:16Z) - Explaining Cross-Domain Recognition with Interpretable Deep Classifier [100.63114424262234]
解釈可能なDeep(IDC)は、ターゲットサンプルの最も近いソースサンプルを、分類器が決定を下す証拠として学習する。
我々のIDCは、精度の劣化がほとんどなく、最適なリジェクションオプションの分類を効果的に調整する、より説明可能なモデルに導かれる。
論文 参考訳(メタデータ) (2022-11-15T15:58:56Z) - Domain Adaptation meets Individual Fairness. And they get along [48.95808607591299]
アルゴリズムフェアネスの介入は、機械学習モデルが分散シフトを克服するのに役立つことを示す。
特に,個人フェアネス(IF)の適切な概念を強制することで,MLモデルの分布外精度が向上することを示す。
論文 参考訳(メタデータ) (2022-05-01T16:19:55Z) - Predicting with Confidence on Unseen Distributions [90.68414180153897]
ドメイン適応と予測不確実性文学を結びつけて、挑戦的な未知分布のモデル精度を予測する。
分類器の予測における信頼度(DoC)の差は,様々な変化に対して,分類器の性能変化を推定することに成功した。
具体的には, 合成分布と自然分布の区別について検討し, その単純さにもかかわらず, DoCは分布差の定量化に優れることを示した。
論文 参考訳(メタデータ) (2021-07-07T15:50:18Z) - Estimating Generalization under Distribution Shifts via Domain-Invariant
Representations [75.74928159249225]
未知の真のターゲットラベルのプロキシとして、ドメイン不変の予測器のセットを使用します。
結果として生じるリスク見積の誤差は、プロキシモデルのターゲットリスクに依存する。
論文 参考訳(メタデータ) (2020-07-06T17:21:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。