論文の概要: Multi-learner risk reduction under endogenous participation dynamics
- arxiv url: http://arxiv.org/abs/2206.02667v1
- Date: Mon, 6 Jun 2022 15:12:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-07 15:21:11.049067
- Title: Multi-learner risk reduction under endogenous participation dynamics
- Title(参考訳): 内因性参加動態下におけるマルチリーナーリスク低減
- Authors: Sarah Dean, Mihaela Curmei, Lillian J. Ratliff, Jamie Morgenstern,
Maryam Fazel
- Abstract要約: 本研究は,emphrisk-reduce Learningers と sub-populations を用いたシステムの挙動について考察する。
我々の研究は、複数のミオピック学習者と市場力の結果を分析します。
- 参考スコア(独自算出の注目度): 26.64051345340538
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prediction systems face exogenous and endogenous distribution shift -- the
world constantly changes, and the predictions the system makes change the
environment in which it operates. For example, a music recommender observes
exogeneous changes in the user distribution as different communities have
increased access to high speed internet. If users under the age of 18 enjoy
their recommendations, the proportion of the user base comprised of those under
18 may endogeneously increase. Most of the study of endogenous shifts has
focused on the single decision-maker setting, where there is one learner that
users either choose to use or not.
This paper studies participation dynamics between sub-populations and
possibly many learners. We study the behavior of systems with
\emph{risk-reducing} learners and sub-populations. A risk-reducing learner
updates their decision upon observing a mixture distribution of the
sub-populations $\mathcal{D}$ in such a way that it decreases the risk of the
learner on that mixture. A risk reducing sub-population updates its
apportionment amongst learners in a way which reduces its overall loss.
Previous work on the single learner case shows that myopic risk minimization
can result in high overall loss~\citep{perdomo2020performative,
miller2021outside} and representation disparity~\citep{hashimoto2018fairness,
zhang2019group}. Our work analyzes the outcomes of multiple myopic learners and
market forces, often leading to better global loss and less representation
disparity.
- Abstract(参考訳): 予測システムは、外因的かつ内因的分布シフトに直面する -- 世界は常に変化し、システムが運用する環境を変える予測を行う。
例えば、音楽レコメンデータは、異なるコミュニティが高速インターネットへのアクセスを増やしているため、ユーザ分布の異質な変化を観察する。
18歳未満の利用者がレコメンデーションを享受すれば、18歳未満のユーザーの割合は内生的に増加する可能性がある。
内因性シフトの研究の多くは、ユーザーが使うか使わないかを選択する1人の学習者がいる単一の意思決定者設定に焦点を当てている。
本稿では,サブ人口と多人数学習者の参加動態について考察する。
本研究では,学習者およびサブ人口を持つシステムの行動について検討する。
リスク還元学習者は、その混合物上の学習者のリスクを減少させるように、サブポピュレーション $\mathcal{d}$ の混合分布を観察してその決定を更新する。
リスク低減サブ人口は、学習者間の配分を、全体の損失を減らす方法で更新する。
単一学習者のケースに関する以前の研究は、ミオピックリスクの最小化は、高い全体的な損失を生じることを示しており、その代表差は、--\citep{perdomo2020performative, miller2021outside} と zhang2019group である。
私たちの研究は、複数の近視的学習者と市場力の結果を分析し、しばしば世界的な損失と表現格差の低減につながる。
関連論文リスト
- Improved Bayes Risk Can Yield Reduced Social Welfare Under Competition [99.7047087527422]
本研究は,機械学習のスケーリングトレンドの振る舞いを根本的に変化させることを実証する。
データ表現品質の改善により、ユーザ間での全体的な予測精度が低下する、多くの設定が見つかる。
概念レベルでは,各モデルプロジェクタのスケーリング傾向が,社会福祉の下流改善に寄与する必要はないことが示唆された。
論文 参考訳(メタデータ) (2023-06-26T13:06:34Z) - Data Quality in Imitation Learning [15.939363481618738]
ロボット工学のオフライン学習では、インターネットのスケールデータがないだけで、高品質なデータセットが必要なのです。
これは特に、専門家によるデモンストレーションを用いたロボット学習のためのサンプル効率のよいパラダイムである模倣学習(IL)において当てはまる。
本研究では,分散シフトのレンズによる模倣学習のためのデータ品質の形式化に向けた第一歩を踏み出す。
論文 参考訳(メタデータ) (2023-06-04T18:48:32Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Time Will Change Things: An Empirical Study on Dynamic Language
Understanding in Social Media Classification [5.075802830306718]
我々は、実験的にソーシャルメディアのNLUを動的に研究し、モデルが過去のデータに基づいてトレーニングされ、将来のテストが行われる。
自動エンコーディングと擬似ラベルが協調して、動的性の最良の堅牢性を示すことを示す。
論文 参考訳(メタデータ) (2022-10-06T12:18:28Z) - A Survey of Learning on Small Data: Generalization, Optimization, and
Challenge [101.27154181792567]
ビッグデータの一般化能力を近似した小さなデータについて学ぶことは、AIの究極の目的の1つである。
この調査はPACフレームワークの下でのアクティブサンプリング理論に従い、小さなデータにおける学習の一般化誤差とラベルの複雑さを分析した。
効率的な小さなデータ表現の恩恵を受けるかもしれない複数のデータアプリケーションについて調査する。
論文 参考訳(メタデータ) (2022-07-29T02:34:19Z) - New Insights on Reducing Abrupt Representation Change in Online
Continual Learning [69.05515249097208]
我々は、以前に観測されていないクラスが入ってくるデータストリームに現れるときに発生する観測データの表現の変化に焦点を当てる。
Experience Replayを適用すると、新たに追加されたクラスの表現が以前のクラスと大幅に重複することを示します。
本稿では,新しいクラスに対応するために,学習した表現を劇的な適応から保護することで,この問題を緩和する手法を提案する。
論文 参考訳(メタデータ) (2022-03-08T01:37:00Z) - Minority Class Oriented Active Learning for Imbalanced Datasets [6.009262446889319]
本研究では,不均衡なデータセットを対象とした新しいアクティブ学習手法を提案する。
これは、ラベル付きサブセットの不均衡を減らすために、マイノリティクラスにある可能性が高いサンプルを好む。
また、アクティブラーニングのための2つのトレーニングスキームを比較した。
論文 参考訳(メタデータ) (2022-02-01T13:13:41Z) - Learning from Heterogeneous Data Based on Social Interactions over
Graphs [58.34060409467834]
本研究では,個別のエージェントが異なる次元のストリーミング特徴を観察しながら分類問題の解決を目指す分散アーキテクチャを提案する。
私たちはそれを示します。
戦略により、エージェントはこの高度に異質な環境下で一貫して学習することができる。
私たちはそれを示します。
戦略により、エージェントはこの高度に異質な環境下で一貫して学習することができる。
論文 参考訳(メタデータ) (2021-12-17T12:47:18Z) - Exponentiated Gradient Reweighting for Robust Training Under Label Noise
and Beyond [21.594200327544968]
ノイズの多い例から学ぶための柔軟なアプローチを提案する。
具体的には、各トレーニング例を専門家として扱い、すべての例に分散を維持します。
他の関連する手法とは異なり、このアプローチは損失関数の一般的なクラスを扱い、幅広いノイズタイプやアプリケーションに適用できる。
論文 参考訳(メタデータ) (2021-04-03T22:54:49Z) - Contrastive Examples for Addressing the Tyranny of the Majority [83.93825214500131]
我々は,グループメンバーシップを介在する,オリジナルのデータセットと新たなデータポイントからなるバランスの取れたトレーニングデータセットを作成することを提案する。
コントラッシブ・サンプル(英語版)と呼ばれるこれらのデータポイントを学習するための強力なツールとして、現在の生成的敵ネットワークが重要であることを示す。
論文 参考訳(メタデータ) (2020-04-14T14:06:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。