論文の概要: Welfarist Formulations for Diverse Similarity Search
- arxiv url: http://arxiv.org/abs/2602.08742v1
- Date: Mon, 09 Feb 2026 14:42:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.304129
- Title: Welfarist Formulations for Diverse Similarity Search
- Title(参考訳): 逆類似性探索のためのウェルファリスト定式化
- Authors: Siddharth Barman, Nirjhar Das, Shivam Gupta, Kirankumar Shiragur,
- Abstract要約: Nearest Neighbor Search (NNS) は、広範囲なアプリケーションを持つデータ構造における基本的な問題である。
属性間の多様性を実現するため,NNSにおける福祉ベースの定式化を開発する。
我々は、福祉に基づく目的の証明可能な保証付き効率の良い近接アルゴリズムを開発した。
- 参考スコア(独自算出の注目度): 19.27611950362104
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Nearest Neighbor Search (NNS) is a fundamental problem in data structures with wide-ranging applications, such as web search, recommendation systems, and, more recently, retrieval-augmented generations (RAG). In such recent applications, in addition to the relevance (similarity) of the returned neighbors, diversity among the neighbors is a central requirement. In this paper, we develop principled welfare-based formulations in NNS for realizing diversity across attributes. Our formulations are based on welfare functions -- from mathematical economics -- that satisfy central diversity (fairness) and relevance (economic efficiency) axioms. With a particular focus on Nash social welfare, we note that our welfare-based formulations provide objective functions that adaptively balance relevance and diversity in a query-dependent manner. Notably, such a balance was not present in the prior constraint-based approach, which forced a fixed level of diversity and optimized for relevance. In addition, our formulation provides a parametric way to control the trade-off between relevance and diversity, providing practitioners with flexibility to tailor search results to task-specific requirements. We develop efficient nearest neighbor algorithms with provable guarantees for the welfare-based objectives. Notably, our algorithm can be applied on top of any standard ANN method (i.e., use standard ANN method as a subroutine) to efficiently find neighbors that approximately maximize our welfare-based objectives. Experimental results demonstrate that our approach is practical and substantially improves diversity while maintaining high relevance of the retrieved neighbors.
- Abstract(参考訳): Nearest Neighbor Search (NNS) は、Web検索やレコメンデーションシステム、最近では検索強化世代 (RAG) など、幅広いアプリケーションを持つデータ構造における根本的な問題である。
このような最近の応用では、返還された隣人の関連性(類似性)に加えて、隣人の多様性が中心的な要件となっている。
本稿では,属性間の多様性を実現するために,NNSにおける基本的福祉ベースの定式化を開発する。
私たちの定式化は、中央の多様性(フェアネス)と関連性(経済効率)の公理を満たす福祉機能(数学経済学から)に基づいています。
ナッシュ社会福祉に特に焦点をあてて、我々の福祉に基づく定式化は、クエリ依存の方法で妥当性と多様性を適応的にバランスさせる客観的な機能を提供していることに留意する。
特に、そのようなバランスは以前の制約ベースのアプローチには存在せず、一定のレベルの多様性を強制し、妥当性を最適化した。
さらに、我々の定式化は、関係性と多様性の間のトレードオフを制御するためのパラメトリックな方法を提供し、実践者が検索結果をタスク固有の要件に合わせる柔軟性を提供する。
我々は、福祉に基づく目的の証明可能な保証付き効率の良い近接アルゴリズムを開発した。
特に、我々のアルゴリズムは、標準のANNメソッド(例えば、標準のANNメソッドをサブルーチンとして使用する)の上に適用して、我々の福祉ベースの目的をほぼ最大化する隣人を効率的に見つけることができる。
実験結果から, 提案手法は実用的であり, 多様性を著しく向上するとともに, 回収した近隣住民の高い関連性を維持していることがわかった。
関連論文リスト
- Preference Optimization for Combinatorial Optimization Problems [54.87466279363487]
強化学習(Reinforcement Learning, RL)は、ニューラルネットワーク最適化のための強力なツールとして登場した。
大幅な進歩にもかかわらず、既存のRLアプローチは報酬信号の減少や大規模な行動空間における非効率な探索といった課題に直面している。
統計的比較モデルを用いて定量的報酬信号を定性的選好信号に変換する新しい手法であるPreference Optimizationを提案する。
論文 参考訳(メタデータ) (2025-05-13T16:47:00Z) - Social Choice for Heterogeneous Fairness in Recommendation [9.753088666705985]
推薦システムにおけるアルゴリズムの公正性は、様々な利害関係者のニーズによく注意する必要がある。
それまでの作業はしばしば、公正性の固定された単目的の定義によって制限されてきた。
我々の研究は、計算社会の選択の観点からのフェアネスを推奨する。
論文 参考訳(メタデータ) (2024-10-06T17:01:18Z) - Illuminating the Diversity-Fitness Trade-Off in Black-Box Optimization [9.838618121102053]
現実世界のアプリケーションでは、ユーザーは1つの高品質なソリューションよりも構造的に多様な設計選択を好むことが多い。
本稿では, 所定のしきい値以上のペア距離を持つ一定数の解を同定する問題を考察する。
このトレードオフが、根底にある最適化問題の性質にどのように依存するかを分析する。
論文 参考訳(メタデータ) (2024-08-29T09:55:55Z) - Learning Reward and Policy Jointly from Demonstration and Preference Improves Alignment [58.049113055986375]
我々は、報酬モデルとポリシーをトレーニングするために、AIHF(Alignment with Integrated Human Feedback)と呼ばれる単一ステージアプローチを開発する。
提案した手法は、一般的なアライメントアルゴリズムに容易に還元し、活用できる、効率的なアルゴリズムの集合を認めている。
本研究では,LLMにおけるアライメント問題と,MuJoCoにおけるロボット制御問題を含む広範な実験により,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-06-11T01:20:53Z) - MaxMin-RLHF: Alignment with Diverse Human Preferences [101.57443597426374]
Reinforcement Learning from Human Feedback (RLHF) は、言語モデルと人間の嗜好を一致させる。
予測最大化アルゴリズムを用いて嗜好分布の混合を学習し、人間の嗜好をよりよく表現する。
従来のRLHFアルゴリズムよりも16%以上の勝利率向上を実現している。
論文 参考訳(メタデータ) (2024-02-14T03:56:27Z) - Welfare and Fairness in Multi-objective Reinforcement Learning [1.5763562007908967]
エージェントが複数の次元において高い報酬を同時に達成する政策を学習しなければならない公平な多目的強化学習について検討する。
提案手法は,線形スカラー化に基づく手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-11-30T01:40:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。