論文の概要: Initializing Services in Interactive ML Systems for Diverse Users
- arxiv url: http://arxiv.org/abs/2312.11846v1
- Date: Tue, 19 Dec 2023 04:26:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-20 16:58:58.805333
- Title: Initializing Services in Interactive ML Systems for Diverse Users
- Title(参考訳): 対話型MLシステムにおけるリバースユーザ向け初期化サービス
- Authors: Avinandan Bose, Mihaela Curmei, Daniel L. Jiang, Jamie Morgenstern,
Sarah Dean, Lillian J.Ratliff, Maryam Fazel
- Abstract要約: 異種データ分布を持つ複数のサブポピュレーションにまたがるユーザから対話的に学習するMLシステムについて検討する。
そこで本稿では,サービスセットを初期化しながら,ごく少数のユーザの好みデータ収集を適応的に行うランダム化アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 29.445931639366325
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper studies ML systems that interactively learn from users across
multiple subpopulations with heterogeneous data distributions. The primary
objective is to provide specialized services for different user groups while
also predicting user preferences. Once the users select a service based on how
well the service anticipated their preference, the services subsequently adapt
and refine themselves based on the user data they accumulate, resulting in an
iterative, alternating minimization process between users and services
(learning dynamics). Employing such tailored approaches has two main
challenges: (i) Unknown user preferences: Typically, data on user preferences
are unavailable without interaction, and uniform data collection across a large
and diverse user base can be prohibitively expensive. (ii) Suboptimal Local
Solutions: The total loss (sum of loss functions across all users and all
services) landscape is not convex even if the individual losses on a single
service are convex, making it likely for the learning dynamics to get stuck in
local minima. The final outcome of the aforementioned learning dynamics is thus
strongly influenced by the initial set of services offered to users, and is not
guaranteed to be close to the globally optimal outcome. In this work, we
propose a randomized algorithm to adaptively select very few users to collect
preference data from, while simultaneously initializing a set of services. We
prove that under mild assumptions on the loss functions, the expected total
loss achieved by the algorithm right after initialization is within a factor of
the globally optimal total loss with complete user preference data, and this
factor scales only logarithmically in the number of services. Our theory is
complemented by experiments on real as well as semi-synthetic datasets.
- Abstract(参考訳): 本稿では,異種データ分布を持つ複数のサブポピュレーションでユーザから対話的に学習するMLシステムについて検討する。
主な目的は、ユーザーの好みを予測しながら、異なるユーザーグループ向けに専門サービスを提供することである。
ユーザがサービスがどれだけ好まれるかに基づいてサービスを選択すると、サービスは、蓄積したユーザデータに基づいて順応し、自らを洗練し、ユーザとサービスの間の反復的かつ交代的な最小化プロセス(学習ダイナミクス)を生み出す。
このような調整されたアプローチを採用するには2つの大きな課題があります。
(i)未知のユーザー選好:典型的には、ユーザ選好のデータはインタラクションなしでは利用できず、大規模で多様なユーザーベースで統一されたデータ収集は禁止的に高価である。
(II) 最適部分解: 単一サービスにおける個々の損失が凸である場合でも、全体の損失(全ユーザおよび全サービスにわたる損失関数の仮定)は凸ではなく、学習ダイナミクスが局所的なミニマムで立ち往生する可能性が高い。
上記の学習力学の最終結果は、ユーザに提供するサービスの初期セットの影響を強く受けており、グローバルな最適結果に近いことが保証されていない。
そこで本研究では,サービス群を初期化しながら,ユーザを適応的に選択して選好データを収集するランダム化アルゴリズムを提案する。
損失関数の軽度な仮定の下では、初期化直後のアルゴリズムが達成した総損失は、全ユーザの選好データによる世界的最適総損失の係数の範囲内であり、この係数はサービス数において対数的にしかスケールしない。
我々の理論は、実および半合成データセットの実験によって補完される。
関連論文リスト
- A CLIP-Powered Framework for Robust and Generalizable Data Selection [51.46695086779598]
実世界のデータセットは、しばしば冗長でノイズの多いデータを含み、トレーニング効率とモデルパフォーマンスに悪影響を及ぼす。
データ選択は、データセット全体から最も代表的なサンプルを特定することを約束している。
より堅牢で一般化可能なサンプル選択にマルチモーダル情報を活用するCLIPを利用した新しいデータ選択フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-15T03:00:58Z) - Learning from Streaming Data when Users Choose [3.2429724835345692]
多くの競合するサービスからなるデジタルマーケットでは、ユーザーは好みに応じて複数のサービスプロバイダを選択し、選択したサービスはユーザーデータを使用してモデルを漸進的に改善する。
サービス提供者のモデルが次のステップでどのサービスを選択するかに影響し、その代わりにユーザの選択がモデルの更新に影響を与え、フィードバックループにつながる。
我々は,ユーザ全体の損失を最小限に抑える,シンプルで効率的な分散アルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-06-03T16:07:52Z) - AAA: an Adaptive Mechanism for Locally Differential Private Mean Estimation [42.95927712062214]
ローカルディファレンシャルプライバシ(LDP)は、一般的なソフトウェアシステムで採用されている強力なプライバシ標準である。
本稿では, 平均効用に対処する分布認識手法である, 適応型アダプティブ (AAA) 機構を提案する。
我々は、厳密なプライバシー証明、ユーティリティ分析、そしてAAAと最先端のメカニズムを比較した広範な実験を提供する。
論文 参考訳(メタデータ) (2024-04-02T04:22:07Z) - Strategic Usage in a Multi-Learner Setting [4.810166064205261]
現実世界のシステムは、サービスのセットを選択するユーザのプールを伴います。
戦略的ユーザがいくつかの利用可能なサービスの中から選択し、肯定的な分類を追求する環境について分析する。
また,全てのユーザが異なる時間に観察された場合でも,ナイーブリトレーニングは依然として振動を引き起こす可能性があることを示す。
論文 参考訳(メタデータ) (2024-01-29T18:59:22Z) - Mean Estimation with User-level Privacy under Data Heterogeneity [54.07947274508013]
異なるユーザーは、非常に多くの異なるデータポイントを持っているかもしれない。
すべてのユーザが同じディストリビューションからサンプルを採取していると仮定することはできない。
本研究では,データの分布と量の両方でユーザデータが異なる異質なユーザデータの単純なモデルを提案する。
論文 参考訳(メタデータ) (2023-07-28T23:02:39Z) - Sample-Efficient Personalization: Modeling User Parameters as Low Rank
Plus Sparse Components [30.32486162748558]
個人ユーザ/ドメイン/エンタプライズに対する機械学習(ML)予測のパーソナライズは,実践的なレコメンデーションシステムにおいて重要である。
ネットワーク重みを低ランクおよびスパース成分の和としてモデル化するメタラーニング方式を提案する。
AMHT-LRSは、ほぼ最適なサンプル複雑さで効率よく問題を解く。
論文 参考訳(メタデータ) (2022-10-07T12:50:34Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - Low-Cost Algorithmic Recourse for Users With Uncertain Cost Functions [74.00030431081751]
本稿では,ユーザ固有のコスト関数の概念を定式化し,ユーザのための行動可能なリコースを識別する新しい手法を提案する。
本手法は,強いベースライン法に比べて最大25.89パーセントのユーザを満足させる。
論文 参考訳(メタデータ) (2021-11-01T19:49:35Z) - Multi-Center Federated Learning [62.57229809407692]
本稿では,フェデレート学習のための新しい多中心集約機構を提案する。
非IIDユーザデータから複数のグローバルモデルを学び、同時にユーザとセンタ間の最適なマッチングを導出する。
ベンチマークデータセットによる実験結果から,本手法はいくつかの一般的なフェデレーション学習法より優れていることが示された。
論文 参考訳(メタデータ) (2020-05-03T09:14:31Z) - Personalized Federated Learning: A Meta-Learning Approach [28.281166755509886]
フェデレートラーニング(Federated Learning)では、複数のコンピューティングユニット(ユーザ)にまたがるモデルをトレーニングすることを目的としています。
本稿では,現在あるいは新規利用者が自身のデータに対して1段階ないし数段階の勾配降下を実行することで,ローカルデータセットに容易に適応できるような,初歩的な共有モデルを見つけることを目標とする,フェデレーション学習のパーソナライズされたバリエーションについて検討する。
論文 参考訳(メタデータ) (2020-02-19T01:08:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。