論文の概要: Explain like I am BM25: Interpreting a Dense Model's Ranked-List with a
Sparse Approximation
- arxiv url: http://arxiv.org/abs/2304.12631v1
- Date: Tue, 25 Apr 2023 07:58:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-26 21:31:50.559603
- Title: Explain like I am BM25: Interpreting a Dense Model's Ranked-List with a
Sparse Approximation
- Title(参考訳): 私がbm25のように説明する:密集したモデルのランクリストをスパース近似で解釈する
- Authors: Michael Llordes, Debasis Ganguly, Sumit Bhatia and Chirag Agarwal
- Abstract要約: 我々は,NAMの結果とスパース検索システムの結果集合との類似性を最大化することによって生成される等価クエリの概念を紹介する。
次に、このアプローチをRM3ベースのクエリ拡張のような既存の手法と比較する。
- 参考スコア(独自算出の注目度): 19.922420813509518
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural retrieval models (NRMs) have been shown to outperform their
statistical counterparts owing to their ability to capture semantic meaning via
dense document representations. These models, however, suffer from poor
interpretability as they do not rely on explicit term matching. As a form of
local per-query explanations, we introduce the notion of equivalent queries
that are generated by maximizing the similarity between the NRM's results and
the result set of a sparse retrieval system with the equivalent query. We then
compare this approach with existing methods such as RM3-based query expansion
and contrast differences in retrieval effectiveness and in the terms generated
by each approach.
- Abstract(参考訳): ニューラル検索モデル (NRM) は、密集した文書表現を通して意味的意味を捉える能力により、統計的に優れていることが示されている。
しかしこれらのモデルは、明示的な項マッチングに依存しないため、解釈性に乏しい。
局所的なクエリごとの説明の一形態として,NAMの結果とスパース検索システムの結果集合との類似性を最大化することによって生成される等価クエリの概念を導入する。
このアプローチをrm3ベースのクエリ拡張や検索効率のコントラストの違い、および各アプローチによって生成された用語と比較する。
関連論文リスト
- Unifying Generative and Dense Retrieval for Sequential Recommendation [37.402860622707244]
逐次密度検索と生成検索の強みを組み合わせたハイブリッドモデルであるLIGERを提案する。
LIGERは、シーケンシャルな高密度検索を生成検索に統合し、性能差を緩和し、コールドスタートアイテムレコメンデーションを強化する。
このハイブリッドアプローチは、これらのアプローチ間のトレードオフに関する洞察を与え、小規模ベンチマークにおけるレコメンデーションシステムの効率と効率性の向上を示す。
論文 参考訳(メタデータ) (2024-11-27T23:36:59Z) - Rethinking Distance Metrics for Counterfactual Explainability [53.436414009687]
本研究では, 反事実を参照領域から独立して引き出すのではなく, 基礎となるデータ分布からの参照と共同してサンプリングする, 反事実生成手法のフレーミングについて検討する。
我々は、幅広い設定に適用可能な、反ファクト的な類似性のために調整された距離メートル法を導出する。
論文 参考訳(メタデータ) (2024-10-18T15:06:50Z) - DiffATR: Diffusion-based Generative Modeling for Audio-Text Retrieval [49.076590578101985]
ノイズから関節分布を生成する拡散型ATRフレームワーク(DiffATR)を提案する。
優れたパフォーマンスを持つAudioCapsとClothoデータセットの実験は、我々のアプローチの有効性を検証する。
論文 参考訳(メタデータ) (2024-09-16T06:33:26Z) - Retrieval with Learned Similarities [2.729516456192901]
最先端の検索アルゴリズムは、学習された類似点に移行した。
そこで本研究では,Mixture-of-Logits (MoL) を実証的に実現し,多様な検索シナリオにおいて優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2024-07-22T08:19:34Z) - Modelled Multivariate Overlap: A method for measuring vowel merger [0.0]
本稿では,母音重複の定量化手法を提案する。
英語の4方言におけるPIN-PEN統合をターゲットとしたコーパス音声データの評価を行った。
論文 参考訳(メタデータ) (2024-06-24T04:56:26Z) - Counting Like Human: Anthropoid Crowd Counting on Modeling the
Similarity of Objects [92.80955339180119]
メインストリームの群衆計数法は 密度マップを補強して 計数結果を得るために統合する。
これに触発された我々は,合理的かつ人為的な集団カウントフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-02T07:00:53Z) - Query Expansion Using Contextual Clue Sampling with Language Models [69.51976926838232]
本稿では,実効的なフィルタリング戦略と検索した文書の融合の組み合わせを,各文脈の生成確率に基づいて提案する。
我々の語彙マッチングに基づくアプローチは、よく確立された高密度検索モデルDPRと比較して、同様のトップ5/トップ20検索精度と上位100検索精度を実現する。
エンド・ツー・エンドのQAでは、読者モデルも我々の手法の恩恵を受けており、いくつかの競争基準に対してエクサクト・マッチのスコアが最も高い。
論文 参考訳(メタデータ) (2022-10-13T15:18:04Z) - UnifieR: A Unified Retriever for Large-Scale Retrieval [84.61239936314597]
大規模な検索は、クエリを与えられた巨大なコレクションから関連ドキュメントをリコールすることである。
事前学習型言語モデル(PLM)に基づく最近の検索手法は,高密度ベクターあるいはレキシコンに基づくパラダイムに大別することができる。
本論文では,高密度ベクトルとレキシコンに基づく検索を2つの表現能力を持つ1つのモデルで統合する学習フレームワークUnifieRを提案する。
論文 参考訳(メタデータ) (2022-05-23T11:01:59Z) - Dive into Ambiguity: Latent Distribution Mining and Pairwise Uncertainty
Estimation for Facial Expression Recognition [59.52434325897716]
DMUE(DMUE)という,アノテーションのあいまいさを2つの視点から解決するソリューションを提案する。
前者に対しては,ラベル空間における潜伏分布をよりよく記述するために,補助的マルチブランチ学習フレームワークを導入する。
後者の場合、インスタンス間の意味的特徴のペアワイズ関係を完全に活用して、インスタンス空間のあいまいさの程度を推定する。
論文 参考訳(メタデータ) (2021-04-01T03:21:57Z) - Named Entity Recognition and Relation Extraction using Enhanced Table
Filling by Contextualized Representations [14.614028420899409]
提案手法は,複雑な手作り特徴やニューラルネットワークアーキテクチャを伴わずに,エンティティ参照と長距離依存関係の表現を計算する。
我々はまた、歴史に基づく予測や検索戦略に頼ることなく、関係ラベルを一度に予測するためにテンソルドット積を適用する。
その単純さにもかかわらず、実験の結果、提案手法はCoNLL04とACE05の英語データセット上で最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-10-15T04:58:23Z) - Unsupervised Summarization by Jointly Extracting Sentences and Keywords [12.387378783627762]
RepRankは、抽出多文書要約のための教師なしグラフベースのランキングモデルである。
学習した表現を用いて,有意な文やキーワードを協調的・相互強化プロセスで抽出できることを示す。
複数のベンチマークデータセットによる実験結果は、RepRankがROUGEで最高の、または同等のパフォーマンスを達成したことを示している。
論文 参考訳(メタデータ) (2020-09-16T05:58:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。