論文の概要: Model Transferability With Responsive Decision Subjects
- arxiv url: http://arxiv.org/abs/2107.05911v4
- Date: Thu, 1 Jun 2023 16:07:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-03 02:34:02.103407
- Title: Model Transferability With Responsive Decision Subjects
- Title(参考訳): 応答性判断課題によるモデル伝達可能性
- Authors: Yatong Chen, Zeyu Tang, Kun Zhang, Yang Liu
- Abstract要約: 我々は、利用可能なソース分布でトレーニングされたモデルの性能が、その誘導されたドメインのパフォーマンスにどのように変換されるかを研究することによって、モデルの転送可能性に関する議論を形式化する。
我々は、誘導されたドメインシフトによるパフォーマンスギャップの上限と、分類器がソーストレーニング分布または誘導されたターゲット分布に悩まさなければならないトレードオフの上限の両方を提供する。
- 参考スコア(独自算出の注目度): 11.07759054787023
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given an algorithmic predictor that is accurate on some source population
consisting of strategic human decision subjects, will it remain accurate if the
population respond to it? In our setting, an agent or a user corresponds to a
sample $(X,Y)$ drawn from a distribution $\cal{D}$ and will face a model $h$
and its classification result $h(X)$. Agents can modify $X$ to adapt to $h$,
which will incur a distribution shift on $(X,Y)$. Our formulation is motivated
by applications where the deployed machine learning models are subjected to
human agents, and will ultimately face responsive and interactive data
distributions. We formalize the discussions of the transferability of a model
by studying how the performance of the model trained on the available source
distribution (data) would translate to the performance on its induced domain.
We provide both upper bounds for the performance gap due to the induced domain
shift, as well as lower bounds for the trade-offs that a classifier has to
suffer on either the source training distribution or the induced target
distribution. We provide further instantiated analysis for two popular domain
adaptation settings, including covariate shift and target shift.
- Abstract(参考訳): 戦略的な人的決定課題からなる情報源の集団で正確であるアルゴリズム的予測器を考えると、人口がそれに対応していれば正確か?
私たちの設定では、エージェントまたはユーザは、分布$\cal{D}$から引き出されたサンプル$(X,Y)$に対応し、モデル$h$とその分類結果$h(X)$に直面する。
エージェントは$X$を$h$に適応させることができ、$(X,Y)$の分散シフトが発生する。
当社の定式化は、デプロイされた機械学習モデルがヒューマンエージェントに従属し、最終的に応答性とインタラクティブなデータ分散に直面するアプリケーションによって動機付けられたものです。
我々は、利用可能なソース分散(データ)でトレーニングされたモデルのパフォーマンスが、その誘導されたドメインのパフォーマンスにどのように変換されるかを研究することによって、モデルの転送可能性に関する議論を形式化する。
我々は、誘導されたドメインシフトによるパフォーマンスギャップの上限と、分類器がソーストレーニング分布または誘導されたターゲット分布に悩まさなければならないトレードオフの上限の両方を提供する。
共変量シフトと目標シフトを含む2つの一般的なドメイン適応設定のさらなるインスタンス化分析を提供する。
関連論文リスト
- Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Fairness Hub Technical Briefs: Definition and Detection of Distribution Shift [0.5825410941577593]
分散シフトは機械学習タスクにおいて一般的な状況であり、モデルのトレーニングに使用されるデータは、モデルが現実世界に適用されるデータとは異なる。
本稿では,教育環境における分布変化の定義と検出に焦点をあてる。
論文 参考訳(メタデータ) (2024-05-23T05:29:36Z) - Delta-AI: Local objectives for amortized inference in sparse graphical models [64.5938437823851]
スパース確率的グラフィカルモデル(PGM)における補正推論のための新しいアルゴリズムを提案する。
提案手法は, PGMにおける変数のサンプリングをエージェントが行う一連の行動とみなす場合, エージェントのポリシー学習目的において, PGMの疎結合が局所的な信用割当を可能にするという観察に基づいている。
合成PGMからサンプリングし、スパース因子構造を持つ潜在変数モデルを訓練するための$Delta$-AIの有効性について説明する。
論文 参考訳(メタデータ) (2023-10-03T20:37:03Z) - Diagnosing Model Performance Under Distribution Shift [9.143551270841858]
予測モデルは、トレーニングディストリビューションとは異なるターゲットディストリビューションにデプロイされた場合、パフォーマンスが良くない。
提案手法は,1)トレーニングの難易度が高いが頻繁な例の増加,2)特徴と成果の関係の変化,3)トレーニング中の頻度の低い例や見当たらない例のパフォーマンス低下など,パフォーマンスの低下を用語に分解する。
論文 参考訳(メタデータ) (2023-03-03T15:27:16Z) - Explaining Cross-Domain Recognition with Interpretable Deep Classifier [100.63114424262234]
解釈可能なDeep(IDC)は、ターゲットサンプルの最も近いソースサンプルを、分類器が決定を下す証拠として学習する。
我々のIDCは、精度の劣化がほとんどなく、最適なリジェクションオプションの分類を効果的に調整する、より説明可能なモデルに導かれる。
論文 参考訳(メタデータ) (2022-11-15T15:58:56Z) - Domain Adaptation meets Individual Fairness. And they get along [48.95808607591299]
アルゴリズムフェアネスの介入は、機械学習モデルが分散シフトを克服するのに役立つことを示す。
特に,個人フェアネス(IF)の適切な概念を強制することで,MLモデルの分布外精度が向上することを示す。
論文 参考訳(メタデータ) (2022-05-01T16:19:55Z) - Predicting with Confidence on Unseen Distributions [90.68414180153897]
ドメイン適応と予測不確実性文学を結びつけて、挑戦的な未知分布のモデル精度を予測する。
分類器の予測における信頼度(DoC)の差は,様々な変化に対して,分類器の性能変化を推定することに成功した。
具体的には, 合成分布と自然分布の区別について検討し, その単純さにもかかわらず, DoCは分布差の定量化に優れることを示した。
論文 参考訳(メタデータ) (2021-07-07T15:50:18Z) - Estimating Generalization under Distribution Shifts via Domain-Invariant
Representations [75.74928159249225]
未知の真のターゲットラベルのプロキシとして、ドメイン不変の予測器のセットを使用します。
結果として生じるリスク見積の誤差は、プロキシモデルのターゲットリスクに依存する。
論文 参考訳(メタデータ) (2020-07-06T17:21:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。