論文の概要: Emergent specialization from participation dynamics and multi-learner retraining
- arxiv url: http://arxiv.org/abs/2206.02667v3
- Date: Mon, 29 Apr 2024 17:16:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-01 03:47:11.339847
- Title: Emergent specialization from participation dynamics and multi-learner retraining
- Title(参考訳): 参加ダイナミクスとマルチラーナーリトレーニングからの創発的特殊化
- Authors: Sarah Dean, Mihaela Curmei, Lillian J. Ratliff, Jamie Morgenstern, Maryam Fazel,
- Abstract要約: 我々は、ユーザがサービスへの参加を割り当てるダイナミクスのクラスを分析し、経験する個人のリスクを減らす。
複数の学習者とミオピックを繰り返すと、より良い結果が得られます。
- 参考スコア(独自算出の注目度): 26.913065669463247
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Numerous online services are data-driven: the behavior of users affects the system's parameters, and the system's parameters affect the users' experience of the service, which in turn affects the way users may interact with the system. For example, people may choose to use a service only for tasks that already works well, or they may choose to switch to a different service. These adaptations influence the ability of a system to learn about a population of users and tasks in order to improve its performance broadly. In this work, we analyze a class of such dynamics -- where users allocate their participation amongst services to reduce the individual risk they experience, and services update their model parameters to reduce the service's risk on their current user population. We refer to these dynamics as \emph{risk-reducing}, which cover a broad class of common model updates including gradient descent and multiplicative weights. For this general class of dynamics, we show that asymptotically stable equilibria are always segmented, with sub-populations allocated to a single learner. Under mild assumptions, the utilitarian social optimum is a stable equilibrium. In contrast to previous work, which shows that repeated risk minimization can result in (Hashimoto et al., 2018; Miller et al., 2021), we find that repeated myopic updates with multiple learners lead to better outcomes. We illustrate the phenomena via a simulated example initialized from real data.
- Abstract(参考訳): ユーザの振る舞いはシステムのパラメータに影響を与え、システムのパラメータはサービスのユーザエクスペリエンスに影響を与える。
例えば、すでにうまく機能しているタスクにのみサービスを使用するか、別のサービスに切り替える選択をするかもしれません。
これらの適応は、ユーザやタスクの集団について学習し、そのパフォーマンスを広範囲に向上するシステムの能力に影響を及ぼす。
本研究では、ユーザが経験する個々のリスクを減らすためにサービス間の参加を割り当て、現在のユーザ人口に対するサービスのリスクを低減するためにモデルパラメータを更新する、このようなダイナミクスのクラスを分析します。
これらのダイナミクスを 'emph{risk-reducing} と呼び、勾配降下や乗法重みを含む一般的なモデル更新の幅広いクラスをカバーする。
このダイナミクスの一般的なクラスでは、漸近的に安定な平衡は常にセグメンテーションされ、サブポピュレーションは1人の学習者に割り当てられる。
軽度の仮定では、実用的社会最適度は安定均衡である。
リスクの最小化を繰り返している以前の研究とは対照的に(橋本ら、2018年、ミラーら、2021年)、複数の学習者による筋電図の更新がより良い結果をもたらすことが判明した。
実データから初期化した模擬例を用いて,その現象を説明する。
関連論文リスト
- Automating Data Annotation under Strategic Human Agents: Risks and Potential Solutions [10.448052192725168]
本稿では,機械学習モデルがモデル注釈付きサンプルで再訓練される場合の長期的影響について検討する。
モデルが再訓練されるにつれて、エージェントが肯定的な判断を受けやすいことが分かっています。
そこで本研究では,力学を安定化させる改良されたリトレーニングプロセスを提案する。
論文 参考訳(メタデータ) (2024-05-12T13:36:58Z) - Strategic Usage in a Multi-Learner Setting [4.810166064205261]
現実世界のシステムは、サービスのセットを選択するユーザのプールを伴います。
戦略的ユーザがいくつかの利用可能なサービスの中から選択し、肯定的な分類を追求する環境について分析する。
また,全てのユーザが異なる時間に観察された場合でも,ナイーブリトレーニングは依然として振動を引き起こす可能性があることを示す。
論文 参考訳(メタデータ) (2024-01-29T18:59:22Z) - Initializing Services in Interactive ML Systems for Diverse Users [29.445931639366325]
異種データ分布を持つ複数のサブポピュレーションにまたがるユーザから対話的に学習するMLシステムについて検討する。
そこで本稿では,サービスセットを初期化しながら,ごく少数のユーザの好みデータ収集を適応的に行うランダム化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-12-19T04:26:12Z) - Ecosystem-level Analysis of Deployed Machine Learning Reveals Homogeneous Outcomes [72.13373216644021]
本研究では,機械学習の社会的影響を,特定の文脈に展開されるモデルの集合を考慮し検討する。
デプロイされた機械学習はシステム障害を起こしやすいため、利用可能なすべてのモデルに排他的に誤分類されているユーザもいます。
これらの例は、エコシステムレベルの分析が、機械学習の社会的影響を特徴づける独自の強みを持っていることを示している。
論文 参考訳(メタデータ) (2023-07-12T01:11:52Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - New Insights on Reducing Abrupt Representation Change in Online
Continual Learning [69.05515249097208]
我々は、以前に観測されていないクラスが入ってくるデータストリームに現れるときに発生する観測データの表現の変化に焦点を当てる。
Experience Replayを適用すると、新たに追加されたクラスの表現が以前のクラスと大幅に重複することを示します。
本稿では,新しいクラスに対応するために,学習した表現を劇的な適応から保護することで,この問題を緩和する手法を提案する。
論文 参考訳(メタデータ) (2022-03-08T01:37:00Z) - Online Learning Demands in Max-min Fairness [91.37280766977923]
本稿では,複数のユーザ間の希少リソースの割り当て機構について,効率的で公平で戦略に準拠した方法で記述する。
このメカニズムは複数のラウンドで繰り返され、各ラウンドでユーザの要求が変更される可能性がある。
各ラウンドの最後には、ユーザは受け取ったアロケーションに関するフィードバックを提供し、そのメカニズムが時間の経過とともにユーザの好みを学習することを可能にする。
論文 参考訳(メタデータ) (2020-12-15T22:15:20Z) - Learning Transferrable Parameters for Long-tailed Sequential User
Behavior Modeling [70.64257515361972]
テールユーザに注力することで、より多くのメリットをもたらし、長いテールの問題に対処できる、と私たちは主張しています。
具体的には、頭部から尾部への知識伝達を容易にするために、勾配アライメントを提案し、敵のトレーニングスキームを採用する。
論文 参考訳(メタデータ) (2020-10-22T03:12:02Z) - Never Stop Learning: The Effectiveness of Fine-Tuning in Robotic
Reinforcement Learning [109.77163932886413]
本稿では,ロボットによるロボット操作ポリシーを,政治以外の強化学習を通じて微調整することで,新たなバリエーションに適応する方法を示す。
この適応は、タスクをゼロから学習するために必要なデータの0.2%未満を使用する。
事前訓練されたポリシーを適用するという私たちのアプローチは、微調整の過程で大きなパフォーマンス向上につながります。
論文 参考訳(メタデータ) (2020-04-21T17:57:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。