論文の概要: Explain like I am BM25: Interpreting a Dense Model's Ranked-List with a
Sparse Approximation
- arxiv url: http://arxiv.org/abs/2304.12631v1
- Date: Tue, 25 Apr 2023 07:58:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-26 21:31:50.559603
- Title: Explain like I am BM25: Interpreting a Dense Model's Ranked-List with a
Sparse Approximation
- Title(参考訳): 私がbm25のように説明する:密集したモデルのランクリストをスパース近似で解釈する
- Authors: Michael Llordes, Debasis Ganguly, Sumit Bhatia and Chirag Agarwal
- Abstract要約: 我々は,NAMの結果とスパース検索システムの結果集合との類似性を最大化することによって生成される等価クエリの概念を紹介する。
次に、このアプローチをRM3ベースのクエリ拡張のような既存の手法と比較する。
- 参考スコア(独自算出の注目度): 19.922420813509518
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural retrieval models (NRMs) have been shown to outperform their
statistical counterparts owing to their ability to capture semantic meaning via
dense document representations. These models, however, suffer from poor
interpretability as they do not rely on explicit term matching. As a form of
local per-query explanations, we introduce the notion of equivalent queries
that are generated by maximizing the similarity between the NRM's results and
the result set of a sparse retrieval system with the equivalent query. We then
compare this approach with existing methods such as RM3-based query expansion
and contrast differences in retrieval effectiveness and in the terms generated
by each approach.
- Abstract(参考訳): ニューラル検索モデル (NRM) は、密集した文書表現を通して意味的意味を捉える能力により、統計的に優れていることが示されている。
しかしこれらのモデルは、明示的な項マッチングに依存しないため、解釈性に乏しい。
局所的なクエリごとの説明の一形態として,NAMの結果とスパース検索システムの結果集合との類似性を最大化することによって生成される等価クエリの概念を導入する。
このアプローチをrm3ベースのクエリ拡張や検索効率のコントラストの違い、および各アプローチによって生成された用語と比較する。
関連論文リスト
- Enriching Disentanglement: Definitions to Metrics [97.34033555407403]
分散表現学習は、複雑なデータの変動の複数の要因を分離する難題である。
不整合表現の学習と評価のための様々な指標が提案されているが、これらの指標が真に何を定量化し、どのように比較するかは定かではない。
論文 参考訳(メタデータ) (2023-05-19T08:22:23Z) - Evaluating the Robustness of Interpretability Methods through
Explanation Invariance and Equivariance [72.50214227616728]
解釈可能性法は、それらの説明が説明されたモデルを忠実に記述した場合にのみ有用である。
特定の対称性群の下で予測が不変であるニューラルネットワークを考える。
論文 参考訳(メタデータ) (2023-04-13T17:59:03Z) - Semantic-aware Contrastive Learning for More Accurate Semantic Parsing [32.74456368167872]
そこで本研究では,意味表現の微粒化を学習できる意味認識型コントラスト学習アルゴリズムを提案する。
2つの標準データセットの実験により、我々の手法はMLEベースラインよりも大幅に改善されていることが示された。
論文 参考訳(メタデータ) (2023-01-19T07:04:32Z) - Counting Like Human: Anthropoid Crowd Counting on Modeling the
Similarity of Objects [92.80955339180119]
メインストリームの群衆計数法は 密度マップを補強して 計数結果を得るために統合する。
これに触発された我々は,合理的かつ人為的な集団カウントフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-02T07:00:53Z) - Query Expansion Using Contextual Clue Sampling with Language Models [69.51976926838232]
本稿では,実効的なフィルタリング戦略と検索した文書の融合の組み合わせを,各文脈の生成確率に基づいて提案する。
我々の語彙マッチングに基づくアプローチは、よく確立された高密度検索モデルDPRと比較して、同様のトップ5/トップ20検索精度と上位100検索精度を実現する。
エンド・ツー・エンドのQAでは、読者モデルも我々の手法の恩恵を受けており、いくつかの競争基準に対してエクサクト・マッチのスコアが最も高い。
論文 参考訳(メタデータ) (2022-10-13T15:18:04Z) - UnifieR: A Unified Retriever for Large-Scale Retrieval [84.61239936314597]
大規模な検索は、クエリを与えられた巨大なコレクションから関連ドキュメントをリコールすることである。
事前学習型言語モデル(PLM)に基づく最近の検索手法は,高密度ベクターあるいはレキシコンに基づくパラダイムに大別することができる。
本論文では,高密度ベクトルとレキシコンに基づく検索を2つの表現能力を持つ1つのモデルで統合する学習フレームワークUnifieRを提案する。
論文 参考訳(メタデータ) (2022-05-23T11:01:59Z) - IMACS: Image Model Attribution Comparison Summaries [16.80986701058596]
我々は,勾配に基づくモデル属性とアグリゲーションと可視化技術を組み合わせたIMACSを提案する。
IMACSは評価データセットから適切な入力特徴を抽出し、類似性に基づいてクラスタ化し、類似した入力特徴に対するモデル属性の違いを可視化する。
本稿では,衛星画像上で訓練した2つのモデル間の領域シフトによる行動差を明らかにする方法を示す。
論文 参考訳(メタデータ) (2022-01-26T21:35:14Z) - Dive into Ambiguity: Latent Distribution Mining and Pairwise Uncertainty
Estimation for Facial Expression Recognition [59.52434325897716]
DMUE(DMUE)という,アノテーションのあいまいさを2つの視点から解決するソリューションを提案する。
前者に対しては,ラベル空間における潜伏分布をよりよく記述するために,補助的マルチブランチ学習フレームワークを導入する。
後者の場合、インスタンス間の意味的特徴のペアワイズ関係を完全に活用して、インスタンス空間のあいまいさの程度を推定する。
論文 参考訳(メタデータ) (2021-04-01T03:21:57Z) - Named Entity Recognition and Relation Extraction using Enhanced Table
Filling by Contextualized Representations [14.614028420899409]
提案手法は,複雑な手作り特徴やニューラルネットワークアーキテクチャを伴わずに,エンティティ参照と長距離依存関係の表現を計算する。
我々はまた、歴史に基づく予測や検索戦略に頼ることなく、関係ラベルを一度に予測するためにテンソルドット積を適用する。
その単純さにもかかわらず、実験の結果、提案手法はCoNLL04とACE05の英語データセット上で最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-10-15T04:58:23Z) - Unsupervised Summarization by Jointly Extracting Sentences and Keywords [12.387378783627762]
RepRankは、抽出多文書要約のための教師なしグラフベースのランキングモデルである。
学習した表現を用いて,有意な文やキーワードを協調的・相互強化プロセスで抽出できることを示す。
複数のベンチマークデータセットによる実験結果は、RepRankがROUGEで最高の、または同等のパフォーマンスを達成したことを示している。
論文 参考訳(メタデータ) (2020-09-16T05:58:00Z) - Preference Modeling with Context-Dependent Salient Features [12.403492796441434]
本稿では,各項目の特徴について,ノイズの多いペアワイド比較から,項目集合のランキングを推定する問題を考察する。
私たちのキーとなる観察は、他の項目から分離して比較した2つの項目は、機能の健全なサブセットのみに基づいて比較できるということです。
論文 参考訳(メタデータ) (2020-02-22T04:05:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。