論文の概要: Emergent segmentation from participation dynamics and multi-learner
retraining
- arxiv url: http://arxiv.org/abs/2206.02667v2
- Date: Wed, 23 Aug 2023 16:18:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-24 19:18:51.735210
- Title: Emergent segmentation from participation dynamics and multi-learner
retraining
- Title(参考訳): 参加ダイナミクスとマルチリーナーリトレーニングからの創発的セグメンテーション
- Authors: Sarah Dean, Mihaela Curmei, Lillian J. Ratliff, Jamie Morgenstern,
Maryam Fazel
- Abstract要約: 利用者の学習者とサブ人口の双方が激減している場合に生じる参加とリトレーニングのダイナミクスについて検討する。
複数の学習者と繰り返し更新することで、より良い結果が得られます。
- 参考スコア(独自算出の注目度): 28.873573616274978
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The choice to participate in a data-driven service, often made on the basis
of quality of that service, influences the ability of the service to learn and
improve. We study the participation and retraining dynamics that arise when
both the learners and sub-populations of users are \emph{risk-reducing}, which
cover a broad class of updates including gradient descent, multiplicative
weights, etc. Suppose, for example, that individuals choose to spend their time
amongst social media platforms proportionally to how well each platform works
for them. Each platform also gathers data about its active users, which it uses
to update parameters with a gradient step. For this example and for our general
class of dynamics, we show that the only asymptotically stable equilibria are
segmented, with sub-populations allocated to a single learner. Under mild
assumptions, the utilitarian social optimum is a stable equilibrium. In
contrast to previous work, which shows that repeated risk minimization can
result in representation disparity and high overall loss for a single learner
\citep{hashimoto2018fairness,miller2021outside}, we find that repeated myopic
updates with multiple learners lead to better outcomes. We illustrate the
phenomena via a simulated example initialized from real data.
- Abstract(参考訳): データ駆動型サービスに参加する選択は、そのサービスの品質に基づいて行われることが多いが、サービスの学習と改善の能力に影響を与える。
本研究では,ユーザの学習者とサブ人口の両方が,勾配降下や乗法重みなど,幅広い更新クラスをカバーする \emph{risk-reducing} である場合の参加と再訓練のダイナミクスについて検討する。
例えば、個人がソーシャルメディアプラットフォームで過ごす時間と、それぞれのプラットフォームがどれだけうまく機能するかを比例して考えるとよいだろう。
各プラットフォームはアクティブユーザーに関するデータを収集し、パラメータをグラデーションステップで更新する。
この例と我々の一般力学クラスでは、漸近的に安定な平衡のみがセグメンテーションされ、サブポピュレーションは1人の学習者に割り当てられている。
軽度の仮定では、実用的社会最適度は安定均衡である。
従来の研究とは対照的に,反復的リスク最小化は,単一学習者の表現格差や全体的な損失を増大させる可能性があり,複数の学習者による筋電図の更新がより良い結果をもたらすことが示唆された。
実データから初期化した模擬例を通して現象を説明する。
関連論文リスト
- Automating Data Annotation under Strategic Human Agents: Risks and Potential Solutions [10.448052192725168]
本稿では,機械学習モデルがモデル注釈付きサンプルで再訓練される場合の長期的影響について検討する。
モデルが再訓練されるにつれて、エージェントが肯定的な判断を受けやすいことが分かっています。
そこで本研究では,力学を安定化させる改良されたリトレーニングプロセスを提案する。
論文 参考訳(メタデータ) (2024-05-12T13:36:58Z) - Strategic Usage in a Multi-Learner Setting [4.810166064205261]
現実世界のシステムは、サービスのセットを選択するユーザのプールを伴います。
戦略的ユーザがいくつかの利用可能なサービスの中から選択し、肯定的な分類を追求する環境について分析する。
また,全てのユーザが異なる時間に観察された場合でも,ナイーブリトレーニングは依然として振動を引き起こす可能性があることを示す。
論文 参考訳(メタデータ) (2024-01-29T18:59:22Z) - Initializing Services in Interactive ML Systems for Diverse Users [29.445931639366325]
異種データ分布を持つ複数のサブポピュレーションにまたがるユーザから対話的に学習するMLシステムについて検討する。
そこで本稿では,サービスセットを初期化しながら,ごく少数のユーザの好みデータ収集を適応的に行うランダム化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-12-19T04:26:12Z) - Ecosystem-level Analysis of Deployed Machine Learning Reveals Homogeneous Outcomes [72.13373216644021]
本研究では,機械学習の社会的影響を,特定の文脈に展開されるモデルの集合を考慮し検討する。
デプロイされた機械学習はシステム障害を起こしやすいため、利用可能なすべてのモデルに排他的に誤分類されているユーザもいます。
これらの例は、エコシステムレベルの分析が、機械学習の社会的影響を特徴づける独自の強みを持っていることを示している。
論文 参考訳(メタデータ) (2023-07-12T01:11:52Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - New Insights on Reducing Abrupt Representation Change in Online
Continual Learning [69.05515249097208]
我々は、以前に観測されていないクラスが入ってくるデータストリームに現れるときに発生する観測データの表現の変化に焦点を当てる。
Experience Replayを適用すると、新たに追加されたクラスの表現が以前のクラスと大幅に重複することを示します。
本稿では,新しいクラスに対応するために,学習した表現を劇的な適応から保護することで,この問題を緩和する手法を提案する。
論文 参考訳(メタデータ) (2022-03-08T01:37:00Z) - Online Learning Demands in Max-min Fairness [91.37280766977923]
本稿では,複数のユーザ間の希少リソースの割り当て機構について,効率的で公平で戦略に準拠した方法で記述する。
このメカニズムは複数のラウンドで繰り返され、各ラウンドでユーザの要求が変更される可能性がある。
各ラウンドの最後には、ユーザは受け取ったアロケーションに関するフィードバックを提供し、そのメカニズムが時間の経過とともにユーザの好みを学習することを可能にする。
論文 参考訳(メタデータ) (2020-12-15T22:15:20Z) - Learning Transferrable Parameters for Long-tailed Sequential User
Behavior Modeling [70.64257515361972]
テールユーザに注力することで、より多くのメリットをもたらし、長いテールの問題に対処できる、と私たちは主張しています。
具体的には、頭部から尾部への知識伝達を容易にするために、勾配アライメントを提案し、敵のトレーニングスキームを採用する。
論文 参考訳(メタデータ) (2020-10-22T03:12:02Z) - Never Stop Learning: The Effectiveness of Fine-Tuning in Robotic
Reinforcement Learning [109.77163932886413]
本稿では,ロボットによるロボット操作ポリシーを,政治以外の強化学習を通じて微調整することで,新たなバリエーションに適応する方法を示す。
この適応は、タスクをゼロから学習するために必要なデータの0.2%未満を使用する。
事前訓練されたポリシーを適用するという私たちのアプローチは、微調整の過程で大きなパフォーマンス向上につながります。
論文 参考訳(メタデータ) (2020-04-21T17:57:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。