論文の概要: Post-hoc Selection of Pareto-Optimal Solutions in Search and
Recommendation
- arxiv url: http://arxiv.org/abs/2306.12165v1
- Date: Wed, 21 Jun 2023 10:40:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 13:48:02.415605
- Title: Post-hoc Selection of Pareto-Optimal Solutions in Search and
Recommendation
- Title(参考訳): 探索・勧告におけるパレート最適解のポストホック選択
- Authors: Vincenzo Paparella, Vito Walter Anelli, Franco Maria Nardini, Raffaele
Perego, Tommaso Di Noia
- Abstract要約: ユートピアからの距離(Population Distance from Utopia)は、微細なユートピア点にちなむ。
提案するフレームワークは,フロンティア上の位置に関係なく,原則的に解を選択する。
- 参考スコア(独自算出の注目度): 21.11130154349726
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Information Retrieval (IR) and Recommender Systems (RS) tasks are moving from
computing a ranking of final results based on a single metric to
multi-objective problems. Solving these problems leads to a set of
Pareto-optimal solutions, known as Pareto frontier, in which no objective can
be further improved without hurting the others. In principle, all the points on
the Pareto frontier are potential candidates to represent the best model
selected with respect to the combination of two, or more, metrics. To our
knowledge, there are no well-recognized strategies to decide which point should
be selected on the frontier. In this paper, we propose a novel, post-hoc,
theoretically-justified technique, named "Population Distance from Utopia"
(PDU), to identify and select the one-best Pareto-optimal solution from the
frontier. In detail, PDU analyzes the distribution of the points by
investigating how far each point is from its utopia point (the ideal
performance for the objectives). The possibility of considering fine-grained
utopia points allows PDU to select solutions tailored to individual user
preferences, a novel feature we call "calibration". We compare PDU against
existing state-of-the-art strategies through extensive experiments on tasks
from both IR and RS. Experimental results show that PDU and combined with
calibration notably impact the solution selection. Furthermore, the results
show that the proposed framework selects a solution in a principled way,
irrespective of its position on the frontier, thus overcoming the limits of
other strategies.
- Abstract(参考訳): Information Retrieval (IR) と Recommender Systems (RS) のタスクは、単一のメトリックに基づいた最終結果のランク付けから、多目的問題へと移行している。
これらの問題の解決は、パレート・フロンティア(Pareto Frontier)として知られる一連のパレート最適解(Pareto-Optimal solution)につながる。
原則として、パレートフロンティアのすべてのポイントは、2つ以上のメトリクスの組み合わせに関して選択された最良のモデルを表す潜在的な候補である。
私たちの知る限り、フロンティアでどのポイントを選ぶべきかを決めるためのよく知られた戦略はありません。
本稿では,フロンティアから最良パレート最適解を同定し,選択するために,PDU (Population Distance from Utopia) と呼ばれる,ポストホックな理論的正当性を持った新手法を提案する。
詳しくは、PDUは各点がユートピア点からどれくらいの距離にあるか(目的の理想的な性能)を調べることによって、点の分布を分析する。
微細なユートピアポイントを考慮すれば、PDUは個々のユーザの好みに合わせてソリューションを選択することができます。
我々は、IRとRSの両方のタスクに関する広範な実験を通じて、PDUと既存の最先端戦略を比較した。
実験の結果,PDUとキャリブレーションの組み合わせが解選択に特に影響を及ぼすことがわかった。
さらに,提案手法は,フロンティアにおける立場に関わらず,原理的に解を選択することにより,他の戦略の限界を克服することを示した。
関連論文リスト
- Learning Recommender Systems with Soft Target: A Decoupled Perspective [49.83787742587449]
そこで本研究では,ソフトラベルを活用することで,目的を2つの側面として捉えるために,分離されたソフトラベル最適化フレームワークを提案する。
本稿では,ラベル伝搬アルゴリズムをモデル化したソフトラベル生成アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-09T04:20:15Z) - Preference-Optimized Pareto Set Learning for Blackbox Optimization [1.9628841617148691]
すべての目的を同時に最適化できる単一のソリューションはありません。
典型的なMOO問題では、目的間の好みを交換する最適解(パレート集合)を見つけることが目的である。
我々の定式化は、例えば微分可能なクロスエントロピー法によって解決できる二段階最適化問題につながる。
論文 参考訳(メタデータ) (2024-08-19T13:23:07Z) - Pareto Front-Diverse Batch Multi-Objective Bayesian Optimization [26.22315705434334]
高価なブラックボックス関数の多目的最適化(MOO)の問題を考える。
この問題はペニシリンの生産を含む多くの現実世界の応用で発生する。
そこで我々はPareto Front-Diverse Batch Multi-Objective BOと呼ばれる新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-06-13T04:28:00Z) - Optimal Baseline Corrections for Off-Policy Contextual Bandits [61.740094604552475]
オンライン報酬指標の偏りのないオフライン推定を最適化する意思決定ポリシーを学習することを目指している。
学習シナリオにおける同値性に基づく単一のフレームワークを提案する。
我々のフレームワークは、分散最適非バイアス推定器の特徴付けを可能にし、それに対する閉形式解を提供する。
論文 参考訳(メタデータ) (2024-05-09T12:52:22Z) - Optimizing Solution-Samplers for Combinatorial Problems: The Landscape
of Policy-Gradient Methods [52.0617030129699]
本稿では,DeepMatching NetworksとReinforcement Learningメソッドの有効性を解析するための新しい理論フレームワークを提案する。
我々の主な貢献は、Max- and Min-Cut、Max-$k$-Bipartite-Bi、Maximum-Weight-Bipartite-Bi、Traveing Salesman Problemを含む幅広い問題である。
本分析の副産物として,バニラ降下による新たな正則化プロセスを導入し,失効する段階的な問題に対処し,悪い静止点から逃れる上で有効であることを示す理論的および実験的証拠を提供する。
論文 参考訳(メタデータ) (2023-10-08T23:39:38Z) - Provable Offline Preference-Based Reinforcement Learning [95.00042541409901]
本研究では,PbRL(Preference-based Reinforcement Learning)の問題について,人間のフィードバックを用いて検討する。
我々は、報酬が軌道全体にわたって定義できる一般的な報酬設定について考察する。
我々は, 軌道毎の集中性によって上界に拘束できる新しい単極集中係数を導入する。
論文 参考訳(メタデータ) (2023-05-24T07:11:26Z) - Learning Proximal Operators to Discover Multiple Optima [66.98045013486794]
非家族問題における近位演算子を学習するためのエンドツーエンド手法を提案する。
本手法は,弱い目的と穏やかな条件下では,世界規模で収束することを示す。
論文 参考訳(メタデータ) (2022-01-28T05:53:28Z) - Bayesian Persuasion for Algorithmic Recourse [28.586165301962485]
いくつかの状況では、根底にある予測モデルはゲームを避け、競争上の優位性を維持するために意図的に秘密にされている。
我々はベイズ的説得のゲームのような設定を捉え、意思決定者は、例えばアクションレコメンデーションのようなシグナルを、望ましい行動を取るためのインセンティブを与える決定対象に送信する。
本稿では,最適化問題として最適なベイズ的インセンティブ互換(BIC)行動推薦ポリシーを見出すという意思決定者の問題を定式化し,線形プログラムを用いて解を特徴づける。
論文 参考訳(メタデータ) (2021-12-12T17:18:54Z) - Learning MDPs from Features: Predict-Then-Optimize for Sequential
Decision Problems by Reinforcement Learning [52.74071439183113]
我々は、強化学習を通して解決された逐次決定問題(MDP)の文脈における予測列最適化フレームワークについて検討した。
2つの重要な計算課題は、意思決定中心の学習をMDPに適用することである。
論文 参考訳(メタデータ) (2021-06-06T23:53:31Z) - One Step Preference Elicitation in Multi-Objective Bayesian Optimization [0.0]
評価に費用がかかる目的関数を持つ多目的最適化問題を考察する。
DMの未知の嗜好による真の最良の解は、見いだされた非支配的な解の小さなセットに含まれないことを示す。
論文 参考訳(メタデータ) (2021-05-27T16:23:29Z) - Solution Subset Selection for Final Decision Making in Evolutionary
Multi-Objective Optimization [7.745468825770201]
最終的な意思決定の観点から,サブセットの選択について論じる。
定式化関数はIGD+インジケータと同じであることを示す。
論文 参考訳(メタデータ) (2020-06-15T06:26:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。