論文の概要: AGRaME: Any-Granularity Ranking with Multi-Vector Embeddings
- arxiv url: http://arxiv.org/abs/2405.15028v1
- Date: Thu, 23 May 2024 20:04:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-27 19:07:30.323919
- Title: AGRaME: Any-Granularity Ranking with Multi-Vector Embeddings
- Title(参考訳): AGRaME: マルチベクトル埋め込みによる任意の粒度ランキング
- Authors: Revanth Gangi Reddy, Omar Attia, Yunyao Li, Heng Ji, Saloni Potdar,
- Abstract要約: 我々は,多ベクトル埋め込みを利用して粒度の異なるレベルにランク付けする,任意の粒度ランキングの考え方を紹介した。
検索強化世代におけるポストホック励振付加への命題レベルのランク付けの適用を実証する。
- 参考スコア(独自算出の注目度): 53.78802457488845
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ranking is a fundamental and popular problem in search. However, existing ranking algorithms usually restrict the granularity of ranking to full passages or require a specific dense index for each desired level of granularity. Such lack of flexibility in granularity negatively affects many applications that can benefit from more granular ranking, such as sentence-level ranking for open-domain question-answering, or proposition-level ranking for attribution. In this work, we introduce the idea of any-granularity ranking, which leverages multi-vector embeddings to rank at varying levels of granularity while maintaining encoding at a single (coarser) level of granularity. We propose a multi-granular contrastive loss for training multi-vector approaches, and validate its utility with both sentences and propositions as ranking units. Finally, we demonstrate the application of proposition-level ranking to post-hoc citation addition in retrieval-augmented generation, surpassing the performance of prompt-driven citation generation.
- Abstract(参考訳): ランク付けは検索の基本的な問題であり、一般的な問題である。
しかし、既存のランキングアルゴリズムは通常、ランク付けの粒度をフルパスに制限するか、あるいは所望の粒度ごとに特定の密度インデックスを必要とする。
このような粒度の柔軟性の欠如は、オープンドメイン質問回答の文レベルランキングや属性の命題レベルランキングなど、より粒度の細かいランキングの恩恵を受ける多くのアプリケーションに悪影響を及ぼす。
本研究では,任意の粒度ランキングの考え方を紹介する。これは,複数ベクトル埋め込みを,単一(粗い)粒度のエンコーディングを維持しつつ,様々な粒度レベルにランク付けするものである。
マルチベクター・アプローチの訓練において,マルチグラニュラー・コントラッシブ・ロスを提案し,文と命題の両方をランキング単位として有効性を検証する。
最後に,検索強化生成におけるポストホック引用付加に対する提案レベルのランク付けの適用を実証し,プロンプト駆動励振生成の性能を上回った。
関連論文リスト
- Found in the Middle: Permutation Self-Consistency Improves Listwise Ranking in Large Language Models [63.714662435555674]
大規模言語モデル(LLM)は、文脈の使い方に位置バイアスを示す。
我々は,ブラックボックスLLMのランキングリスト出力に対して,自己整合性(permutation self-consistency)を提案する。
LLaMA v2 (70B) では GPT-3.5 では 7-18% , LLaMA v2 (70B) では 8-16% である。
論文 参考訳(メタデータ) (2023-10-11T17:59:02Z) - Partitioned Saliency Ranking with Dense Pyramid Transformers [4.449304130658638]
サリエンシランキングは、インスタンスレベルのサリエンシの度合いを評価することに焦点を当てた、挑戦的なタスクとして登場した。
従来のアプローチでは、固有の曖昧さを明示的に解決していない有能なインスタンスのランクスコアを直接ソートすることで、サリエンシのランク付けを行っている。
本稿では,非順序の有意なインスタンスをパーティションに分割し,それらのパーティション間の相関に基づいてランク付けするパーティション・バイ・パーティション・パラダイムを提案する。
論文 参考訳(メタデータ) (2023-08-01T02:33:10Z) - Bipartite Ranking Fairness through a Model Agnostic Ordering Adjustment [54.179859639868646]
本稿では,二部類ランキングにおける公平性を実現するためのモデルに依存しない後処理フレームワークxOrderを提案する。
xOrderは、教師なしおよび教師なしの公正度メトリックを含む、さまざまな分類モデルとランキングフェアネスメトリクスと互換性がある。
提案アルゴリズムを,4つのベンチマークデータセットと2つの実世界の患者電子健康記録リポジトリ上で評価した。
論文 参考訳(メタデータ) (2023-07-27T07:42:44Z) - RankCSE: Unsupervised Sentence Representations Learning via Learning to
Rank [54.854714257687334]
本稿では,教師なし文表現学習のための新しい手法であるRangCSEを提案する。
コントラスト学習を伴うランキング一貫性とランキング蒸留を統一された枠組みに組み込む。
セマンティックテキスト類似性(STS)と転送タスク(TR)の両方について、広範な実験が実施されている。
論文 参考訳(メタデータ) (2023-05-26T08:27:07Z) - Learning List-Level Domain-Invariant Representations for Ranking [59.3544317373004]
リストレベルのアライメント -- より高いレベルのリストでドメイン不変表現を学習する。
利点は2つある: これは、ランク付けに縛られる最初のドメイン適応の一般化をもたらし、その結果、提案法に対する理論的支援を提供する。
論文 参考訳(メタデータ) (2022-12-21T04:49:55Z) - Heuristic Search for Rank Aggregation with Application to Label Ranking [16.275063634853584]
本稿では,階層化問題を解くために,効果的なハイブリッド進化的ランキングアルゴリズムを提案する。
このアルゴリズムは、コンコーダントペアに基づくセマンティッククロスオーバーと、効率的な漸進的評価手法によって強化された遅延受容局所探索を特徴とする。
アルゴリズムを評価するために実験が行われ、ベンチマークインスタンス上での高い競争性能を示す。
論文 参考訳(メタデータ) (2022-01-11T11:43:17Z) - PiRank: Learning To Rank via Differentiable Sorting [85.28916333414145]
ランク付けのための新しい分類可能なサロゲートであるPiRankを提案する。
ピランクは所望の指標をゼロ温度の限界で正確に回収する。
論文 参考訳(メタデータ) (2020-12-12T05:07:36Z) - Rank over Class: The Untapped Potential of Ranking in Natural Language
Processing [8.637110868126546]
我々は、現在分類を用いて対処されている多くのタスクが、実際には分類モールドに切り替わっていると論じる。
本稿では,一対のテキストシーケンスの表現を生成するトランスフォーマーネットワークからなる新しいエンドツーエンドランキング手法を提案する。
重く歪んだ感情分析データセットの実験では、ランキング結果を分類ラベルに変換すると、最先端のテキスト分類よりも約22%改善する。
論文 参考訳(メタデータ) (2020-09-10T22:18:57Z) - Rough Set based Aggregate Rank Measure & its Application to Supervised
Multi Document Summarization [0.0]
本論文は、ランク尺度と呼ばれる新しいラフセットベースのメンバーシップを提案する。
要素を特定のクラスにランク付けするために使用する。
その結果,精度は有意に向上した。
論文 参考訳(メタデータ) (2020-02-09T01:03:25Z) - Deep Attentive Ranking Networks for Learning to Order Sentences [31.70737249775046]
本稿では,1段落の文の順序付けを学習するための注意に基づく格付けフレームワークを提案する。
本フレームワークは,双方向文エンコーダと自己認識型トランスフォーマネットワーク上に構築されている。
ポイントワイド、ペアワイド、リストワイドランキングなど、さまざまなランキングベースの損失関数を使用したシームレスなトレーニングを可能にする。
論文 参考訳(メタデータ) (2019-12-31T19:54:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。