論文の概要: Initializing Services in Interactive ML Systems for Diverse Users
- arxiv url: http://arxiv.org/abs/2312.11846v2
- Date: Mon, 24 Feb 2025 00:18:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:49:33.398846
- Title: Initializing Services in Interactive ML Systems for Diverse Users
- Title(参考訳): 対話型MLシステムにおけるリバースユーザ向け初期化サービス
- Authors: Avinandan Bose, Mihaela Curmei, Daniel L. Jiang, Jamie Morgenstern, Sarah Dean, Lillian J. Ratliff, Maryam Fazel,
- Abstract要約: 本稿では,複数のモデル/サービスを持つユーザグループを対象としたMLシステムについて検討する。
一連のサービスをデプロイする際、ユーザは個人的損失を最小限に抑えるものを選び、学習者は多様なユーザと対話して反復的に学習する。
- 参考スコア(独自算出の注目度): 28.230057253701368
- License:
- Abstract: This paper investigates ML systems serving a group of users, with multiple models/services, each aimed at specializing to a sub-group of users. We consider settings where upon deploying a set of services, users choose the one minimizing their personal losses and the learner iteratively learns by interacting with diverse users. Prior research shows that the outcomes of learning dynamics, which comprise both the services' adjustments and users' service selections, hinge significantly on the initialization. However, finding good initializations faces two main challenges: (i) Bandit feedback: Typically, data on user preferences are not available before deploying services and observing user behavior; (ii) Suboptimal local solutions: The total loss landscape (i.e., the sum of loss functions across all users and services) is not convex and gradient-based algorithms can get stuck in poor local minima. We address these challenges with a randomized algorithm to adaptively select a minimal set of users for data collection in order to initialize a set of services. Under mild assumptions on the loss functions, we prove that our initialization leads to a total loss within a factor of the globally optimal total loss with complete user preference data}, and this factor scales logarithmically in the number of services. This result is a generalization of the well-known $k$-means++ guarantee to a broad problem class, which is also of independent interest. The theory is complemented by experiments on real as well as semi-synthetic datasets.
- Abstract(参考訳): 本稿では,複数のモデル/サービスを持つユーザグループを対象としたMLシステムについて検討する。
一連のサービスをデプロイする際、ユーザは個人的損失を最小限に抑え、学習者は多様なユーザと対話して反復的に学習する。
これまでの研究では、サービスの調整とユーザのサービス選択の両方を構成する学習力学の結果が、初期化に大きく依存していることが示されている。
しかし、良い初期化を見つけることは2つの大きな課題に直面します。
(i)帯域フィードバック:通常、サービスのデプロイやユーザの振る舞いの観察の前に、ユーザの好みに関するデータが利用できない。
(ii) 最適部分解: 全体の損失状況(すなわち、全ユーザとサービス間での損失関数の合計)は凸ではなく、勾配に基づくアルゴリズムは、ローカルの低いミニマで立ち往生する可能性がある。
我々はこれらの課題にランダム化アルゴリズムを用いて対処し、サービスセットを初期化するために、データ収集のための最小限のユーザセットを適応的に選択する。
損失関数の軽度な仮定の下では、当社の初期化が全ユーザ嗜好データによる世界的最適総損失率の範囲内での総損失につながることを証明し、サービス数で対数的にスケールする。
この結果は、よく知られた$k$-means++保証を幅広い問題クラスに一般化したもので、これも独立した関心事である。
この理論は、実および半合成データセットの実験によって補完される。
関連論文リスト
- Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - Fuzzy Information Entropy and Region Biased Matrix Factorization for Web Service QoS Prediction [2.0475265337665336]
本稿では,ユーザ情報エントロピーと領域バイアスに基づく行列分解手法を提案する。
ユーザとサービス間の領域バイアスを行列分解に線形に組み込んで、ユーザとサービス間の非インタラクティブな特徴をキャプチャします。
提案手法は, 行列密度が5%から20%の分野において, 最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2025-01-07T10:54:25Z) - A CLIP-Powered Framework for Robust and Generalizable Data Selection [51.46695086779598]
実世界のデータセットは、しばしば冗長でノイズの多いデータを含み、トレーニング効率とモデルパフォーマンスに悪影響を及ぼす。
データ選択は、データセット全体から最も代表的なサンプルを特定することを約束している。
より堅牢で一般化可能なサンプル選択にマルチモーダル情報を活用するCLIPを利用した新しいデータ選択フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-15T03:00:58Z) - Learning from Streaming Data when Users Choose [3.2429724835345692]
多くの競合するサービスからなるデジタルマーケットでは、ユーザーは好みに応じて複数のサービスプロバイダを選択し、選択したサービスはユーザーデータを使用してモデルを漸進的に改善する。
サービス提供者のモデルが次のステップでどのサービスを選択するかに影響し、その代わりにユーザの選択がモデルの更新に影響を与え、フィードバックループにつながる。
我々は,ユーザ全体の損失を最小限に抑える,シンプルで効率的な分散アルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-06-03T16:07:52Z) - AAA: an Adaptive Mechanism for Locally Differential Private Mean Estimation [42.95927712062214]
ローカルディファレンシャルプライバシ(LDP)は、一般的なソフトウェアシステムで採用されている強力なプライバシ標準である。
本稿では, 平均効用に対処する分布認識手法である, 適応型アダプティブ (AAA) 機構を提案する。
我々は、厳密なプライバシー証明、ユーティリティ分析、そしてAAAと最先端のメカニズムを比較した広範な実験を提供する。
論文 参考訳(メタデータ) (2024-04-02T04:22:07Z) - Strategic Usage in a Multi-Learner Setting [4.810166064205261]
現実世界のシステムは、サービスのセットを選択するユーザのプールを伴います。
戦略的ユーザがいくつかの利用可能なサービスの中から選択し、肯定的な分類を追求する環境について分析する。
また,全てのユーザが異なる時間に観察された場合でも,ナイーブリトレーニングは依然として振動を引き起こす可能性があることを示す。
論文 参考訳(メタデータ) (2024-01-29T18:59:22Z) - Mean Estimation with User-level Privacy under Data Heterogeneity [54.07947274508013]
異なるユーザーは、非常に多くの異なるデータポイントを持っているかもしれない。
すべてのユーザが同じディストリビューションからサンプルを採取していると仮定することはできない。
本研究では,データの分布と量の両方でユーザデータが異なる異質なユーザデータの単純なモデルを提案する。
論文 参考訳(メタデータ) (2023-07-28T23:02:39Z) - Sample-Efficient Personalization: Modeling User Parameters as Low Rank
Plus Sparse Components [30.32486162748558]
個人ユーザ/ドメイン/エンタプライズに対する機械学習(ML)予測のパーソナライズは,実践的なレコメンデーションシステムにおいて重要である。
ネットワーク重みを低ランクおよびスパース成分の和としてモデル化するメタラーニング方式を提案する。
AMHT-LRSは、ほぼ最適なサンプル複雑さで効率よく問題を解く。
論文 参考訳(メタデータ) (2022-10-07T12:50:34Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - Low-Cost Algorithmic Recourse for Users With Uncertain Cost Functions [74.00030431081751]
本稿では,ユーザ固有のコスト関数の概念を定式化し,ユーザのための行動可能なリコースを識別する新しい手法を提案する。
本手法は,強いベースライン法に比べて最大25.89パーセントのユーザを満足させる。
論文 参考訳(メタデータ) (2021-11-01T19:49:35Z) - Multi-Center Federated Learning [62.57229809407692]
本稿では,フェデレート学習のための新しい多中心集約機構を提案する。
非IIDユーザデータから複数のグローバルモデルを学び、同時にユーザとセンタ間の最適なマッチングを導出する。
ベンチマークデータセットによる実験結果から,本手法はいくつかの一般的なフェデレーション学習法より優れていることが示された。
論文 参考訳(メタデータ) (2020-05-03T09:14:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。