論文の概要: Optimal Classification under Performative Distribution Shift
- arxiv url: http://arxiv.org/abs/2411.02023v1
- Date: Mon, 04 Nov 2024 12:20:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:43:58.439742
- Title: Optimal Classification under Performative Distribution Shift
- Title(参考訳): 最適分布シフトに基づく最適分類
- Authors: Edwige Cyffers, Muni Sreenivas Pydi, Jamal Atif, Olivier Cappé,
- Abstract要約: 本稿では,動作効果をプッシュフォワード尺度としてモデル化した新しい視点を提案する。
我々は、新しい仮定のセットの下で、パフォーマンスリスクの凸性を証明する。
また, 性能リスクの最小化を min-max 変動問題として再定義することにより, 逆向きの頑健な分類との関係を確立する。
- 参考スコア(独自算出の注目度): 13.508249764979075
- License:
- Abstract: Performative learning addresses the increasingly pervasive situations in which algorithmic decisions may induce changes in the data distribution as a consequence of their public deployment. We propose a novel view in which these performative effects are modelled as push-forward measures. This general framework encompasses existing models and enables novel performative gradient estimation methods, leading to more efficient and scalable learning strategies. For distribution shifts, unlike previous models which require full specification of the data distribution, we only assume knowledge of the shift operator that represents the performative changes. This approach can also be integrated into various change-of-variablebased models, such as VAEs or normalizing flows. Focusing on classification with a linear-in-parameters performative effect, we prove the convexity of the performative risk under a new set of assumptions. Notably, we do not limit the strength of performative effects but rather their direction, requiring only that classification becomes harder when deploying more accurate models. In this case, we also establish a connection with adversarially robust classification by reformulating the minimization of the performative risk as a min-max variational problem. Finally, we illustrate our approach on synthetic and real datasets.
- Abstract(参考訳): Performative Learningは、アルゴリズムによる決定が、公開デプロイメントの結果、データ分散の変化を誘発する、ますます広まる状況に対処する。
本稿では,これらの効果をプッシュフォワード尺度としてモデル化する新しい視点を提案する。
この一般的なフレームワークは、既存のモデルを包含し、新しい性能勾配推定方法を可能にし、より効率的でスケーラブルな学習戦略をもたらす。
データ分散の完全な仕様を必要とする従来のモデルとは異なり、分散シフトについては、性能変化を表すシフト演算子の知識のみを仮定する。
このアプローチは、VAEや正規化フローなど、さまざまな変更可能なベースモデルに統合することもできる。
線形パラメーター性能効果による分類に着目し、新しい仮定の集合の下で性能リスクの凸性を証明した。
特に、我々はパフォーマンス効果の強さを制限せず、むしろその方向を制限し、より正確なモデルをデプロイする際には分類が困難になる。
この場合、性能リスクの最小化を min-max 変動問題として再定義することにより、逆堅牢な分類との接続を確立する。
最後に、合成および実際のデータセットに対する我々のアプローチについて説明する。
関連論文リスト
- Influence Functions for Scalable Data Attribution in Diffusion Models [52.92223039302037]
拡散モデルは、生成的モデリングに大きな進歩をもたらした。
しかし、彼らの普及はデータ属性と解釈可能性に関する課題を引き起こす。
本稿では,テキスト・インフルエンス・ファンクション・フレームワークを開発することにより,このような課題に対処することを目的とする。
論文 参考訳(メタデータ) (2024-10-17T17:59:02Z) - Low-rank finetuning for LLMs: A fairness perspective [54.13240282850982]
低ランク近似技術は、微調整された大規模言語モデルのデファクトスタンダードとなっている。
本稿では,これらの手法が初期訓練済みデータ分布から微調整データセットのシフトを捉える上での有効性について検討する。
低ランク微調整は好ましくない偏見や有害な振る舞いを必然的に保存することを示す。
論文 参考訳(メタデータ) (2024-05-28T20:43:53Z) - Data augmentation and explainability for bias discovery and mitigation
in deep learning [0.0]
この論文は、ディープニューラルネットワークにおけるバイアスの影響を調査し、モデルパフォーマンスへの影響を減らす方法を提案する。
最初の部分は、データやモデルのバイアスやエラーの潜在的な原因を分類し、記述することから始まり、特に機械学習パイプラインのバイアスに焦点を当てている。
次の章では、予測と制御を正当化し、モデルを改善する手段として、説明可能なAIの分類と方法について概説する。
論文 参考訳(メタデータ) (2023-08-18T11:02:27Z) - Variational Classification [51.2541371924591]
我々は,変分オートエンコーダの訓練に用いるエビデンスローバウンド(ELBO)に類似した,モデルの訓練を目的とした変分目的を導出する。
軟質マックス層への入力を潜伏変数のサンプルとして扱うことで, 抽象化された視点から, 潜在的な矛盾が明らかとなった。
我々は、標準ソフトマックス層に見られる暗黙の仮定の代わりに、選択された潜在分布を誘導する。
論文 参考訳(メタデータ) (2023-05-17T17:47:19Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Regularizing Variational Autoencoder with Diversity and Uncertainty
Awareness [61.827054365139645]
変分オートエンコーダ(VAE)は、償却変分推論に基づいて潜伏変数の後部を近似する。
よりディバースで不確実な潜在空間を学習するための代替モデルDU-VAEを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:58:13Z) - Learning Neural Models for Natural Language Processing in the Face of
Distributional Shift [10.990447273771592]
特定のデータセットでひとつのタスクを実行するための強力な神経予測器をトレーニングするNLPのパラダイムが、さまざまなアプリケーションで最先端のパフォーマンスを実現している。
データ分布が定常である、すなわち、トレーニングとテストの時間の両方で、データは固定された分布からサンプリングされる、という仮定に基づいて構築される。
この方法でのトレーニングは、人間が絶えず変化する情報の流れの中で学習し、操作できる方法と矛盾する。
データ分散がモデル寿命の経過とともにシフトすることが期待される実世界のユースケースに不適応である。
論文 参考訳(メタデータ) (2021-09-03T14:29:20Z) - Approximate Regions of Attraction in Learning with Decision-Dependent
Distributions [11.304363655760513]
我々は、繰り返しリスク最小化を、実行リスク最小化の勾配流の軌跡として分析する。
この設定において、様々な平衡に対するアトラクションの領域を特徴付ける条件を提供する。
本稿では、繰り返しリスク最小化の収束に関する幾何学的条件を提供する性能的アライメントの概念を、性能的リスク最小化に導入する。
論文 参考訳(メタデータ) (2021-06-30T18:38:08Z) - Post-Hoc Domain Adaptation via Guided Data Homogenization [0.0]
ガイドデータ均質化によるデータ分布の変化への対応を提案する。
このアプローチは、ディープラーニングモデルに含まれるトレーニングデータに関する情報を利用して、ドメイン転送機能を学ぶ。
CIFAR-10およびMNISTデータセットの実験を通じて、データ均質化の可能性を示す。
論文 参考訳(メタデータ) (2021-04-08T09:18:48Z) - Learning Diverse Representations for Fast Adaptation to Distribution
Shift [78.83747601814669]
本稿では,複数のモデルを学習する手法を提案する。
分散シフトへの迅速な適応を促進するフレームワークの能力を実証する。
論文 参考訳(メタデータ) (2020-06-12T12:23:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。