論文の概要: Safe Collaborative Filtering
- arxiv url: http://arxiv.org/abs/2306.05292v2
- Date: Wed, 28 Feb 2024 06:59:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-29 19:14:24.370684
- Title: Safe Collaborative Filtering
- Title(参考訳): 安全な協調フィルタリング
- Authors: Riku Togashi, Tatsushi Oka, Naoto Ohsaka, Tetsuro Morimura
- Abstract要約: 本研究では、満足度が低いユーザに対して、推奨品質を優先する「安全な」協調フィルタリング手法を提案する。
我々は、最もスケーラブルな最小二乗(iALS)を暗黙的に交互に拡張する頑健で実用的なアルゴリズムを開発した。
実世界のデータセットに対する実証的な評価は、我々のアプローチの優れたテール性能を示す。
- 参考スコア(独自算出の注目度): 12.391773055695609
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Excellent tail performance is crucial for modern machine learning tasks, such
as algorithmic fairness, class imbalance, and risk-sensitive decision making,
as it ensures the effective handling of challenging samples within a dataset.
Tail performance is also a vital determinant of success for personalized
recommender systems to reduce the risk of losing users with low satisfaction.
This study introduces a "safe" collaborative filtering method that prioritizes
recommendation quality for less-satisfied users rather than focusing on the
average performance. Our approach minimizes the conditional value at risk
(CVaR), which represents the average risk over the tails of users' loss. To
overcome computational challenges for web-scale recommender systems, we develop
a robust yet practical algorithm that extends the most scalable method,
implicit alternating least squares (iALS). Empirical evaluation on real-world
datasets demonstrates the excellent tail performance of our approach while
maintaining competitive computational efficiency.
- Abstract(参考訳): アルゴリズムの公正性、クラス不均衡、リスクに敏感な意思決定といった現代の機械学習タスクでは、データセット内の挑戦的なサンプルの効果的な処理が保証されるため、優れたテールパフォーマンスが不可欠である。
テールパフォーマンスは、満足度の低いユーザを失うリスクを減らすために、パーソナライズされたレコメンデーションシステムにとって成功の重要な決定要因でもある。
本研究では、平均的なパフォーマンスではなく、満足度の低いユーザの推薦品質を優先する「安全な」協調フィルタリング手法を提案する。
提案手法は,ユーザの損失に対する平均リスクを表す,リスクの条件値(CVaR)を最小化する。
ウェブスケールレコメンデータシステムの計算課題を克服するため、最もスケーラブルな手法を拡張し、最小二乗(iALS)を暗黙的に交互に拡張する頑健で実用的なアルゴリズムを開発した。
実世界のデータセットに対する実証的な評価は、競争力のある計算効率を維持しながら、我々のアプローチの優れたテール性能を示す。
関連論文リスト
- Sample Complexity of Preference-Based Nonparametric Off-Policy
Evaluation with Deep Networks [58.469818546042696]
我々は、OPEのサンプル効率を人間の好みで研究し、その統計的保証を確立する。
ReLUネットワークのサイズを適切に選択することにより、マルコフ決定過程において任意の低次元多様体構造を活用できることが示される。
論文 参考訳(メタデータ) (2023-10-16T16:27:06Z) - Provably Efficient Iterated CVaR Reinforcement Learning with Function
Approximation and Human Feedback [57.6775169085215]
リスクに敏感な強化学習は、期待される報酬とリスクのバランスをとるポリシーを最適化することを目的としている。
本稿では,線形および一般関数近似の下で,CVaR(Iterated Conditional Value-at-Risk)を目標とする新しいフレームワークを提案する。
本稿では,この反復CVaR RLに対するサンプル効率の高いアルゴリズムを提案し,厳密な理論的解析を行う。
論文 参考訳(メタデータ) (2023-07-06T08:14:54Z) - Risk-sensitive Actor-free Policy via Convex Optimization [0.0]
従来の強化学習手法はエージェントの安全性を最適化し、意図しない結果をもたらす可能性がある。
条件付きリスクのないネットワークに基づく最適なアクター感応ポリシーを提案する。
論文 参考訳(メタデータ) (2023-06-30T21:20:04Z) - Efficient Exploration via Epistemic-Risk-Seeking Policy Optimization [8.867416300893577]
深層強化学習(RL)における探索は依然として重要な課題である
本稿では,最適化された場合,効率よく探索できる政策が成立する,新しい,微分可能な楽観的目標を提案する。
その結果、他の効率的な探査技術よりも優れた性能が得られた。
論文 参考訳(メタデータ) (2023-02-18T14:13:25Z) - Stochastic Methods for AUC Optimization subject to AUC-based Fairness
Constraints [51.12047280149546]
公正な予測モデルを得るための直接的なアプローチは、公正な制約の下で予測性能を最適化することでモデルを訓練することである。
フェアネスを考慮した機械学習モデルのトレーニング問題を,AUCに基づくフェアネス制約のクラスを対象とする最適化問題として定式化する。
フェアネス測定値の異なる実世界のデータに対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-12-23T22:29:08Z) - Log Barriers for Safe Black-box Optimization with Application to Safe
Reinforcement Learning [72.97229770329214]
本稿では,学習時の安全性維持が不可欠である高次元非線形最適化問題に対する一般的なアプローチを提案する。
LBSGDと呼ばれるアプローチは、慎重に選択されたステップサイズで対数障壁近似を適用することに基づいている。
安全強化学習における政策課題の違反を最小限に抑えるためのアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-07-21T11:14:47Z) - Risk Minimization from Adaptively Collected Data: Guarantees for
Supervised and Policy Learning [57.88785630755165]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、機械学習のワークホースであるが、適応的に収集されたデータを使用すると、そのモデルに依存しない保証が失敗する可能性がある。
本研究では,仮説クラス上での損失関数の平均値を最小限に抑えるため,適応的に収集したデータを用いた一般的な重み付きERMアルゴリズムについて検討する。
政策学習では、探索がゼロになるたびに既存の文献のオープンギャップを埋める率-最適後悔保証を提供する。
論文 参考訳(メタデータ) (2021-06-03T09:50:13Z) - Active Deep Learning on Entity Resolution by Risk Sampling [5.219701379581547]
アクティブラーニング(al)は、モデルトレーニングに有用なデータに焦点を当てた、実現可能なソリューションである。
実体解決のためのリスクサンプリング(ER)の新たなALアプローチを提案する。
ALのコアセット特性に基づいて、非一様連続性によるコアセット損失を最小限に抑える最適化モデルを理論的に導出する。
実データに対する提案手法の有効性を比較検討により実証的に検証した。
論文 参考訳(メタデータ) (2020-12-23T20:38:25Z) - Chance-Constrained Trajectory Optimization for Safe Exploration and
Learning of Nonlinear Systems [81.7983463275447]
学習に基づく制御アルゴリズムは、訓練のための豊富な監督を伴うデータ収集を必要とする。
本稿では,機会制約付き最適制御と動的学習とフィードバック制御を統合した安全な探索による最適動作計画のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-05-09T05:57:43Z) - A Graduated Filter Method for Large Scale Robust Estimation [32.08441889054456]
そこで我々は,ローカル・ミニマから逃れる強力な能力を有する,ロバストな推定のための新しい解法を提案する。
我々のアルゴリズムは、多くのローカルなミニマが不足している問題を解くために、最先端の手法に基づいて構築されている。
論文 参考訳(メタデータ) (2020-03-20T02:51:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。