論文の概要: Match Your Words! A Study of Lexical Matching in Neural Information
Retrieval
- arxiv url: http://arxiv.org/abs/2112.05662v1
- Date: Fri, 10 Dec 2021 16:49:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-13 14:43:58.489175
- Title: Match Your Words! A Study of Lexical Matching in Neural Information
Retrieval
- Title(参考訳): 言葉に合致しろ!
神経情報検索における語彙マッチングの検討
- Authors: Thibault Formal, Benjamin Piwowarski, St\'ephane Clinchant
- Abstract要約: 我々は、様々な最先端のニューラルIRモデルの振る舞いについて研究し、実際に有用である場合に語彙マッチングを行うことができるかどうかに焦点を当てた。
ニューラルIRモデルは、トレーニング中、ドメイン外のコレクションや用語の用語の重要性を適切に一般化できないことを示す。
- 参考スコア(独自算出の注目度): 11.930815087240479
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Neural Information Retrieval models hold the promise to replace lexical
matching models, e.g. BM25, in modern search engines. While their capabilities
have fully shone on in-domain datasets like MS MARCO, they have recently been
challenged on out-of-domain zero-shot settings (BEIR benchmark), questioning
their actual generalization capabilities compared to bag-of-words approaches.
Particularly, we wonder if these shortcomings could (partly) be the consequence
of the inability of neural IR models to perform lexical matching
off-the-shelf.In this work, we propose a measure of discrepancy between the
lexical matching performed by any (neural) model and an 'ideal' one. Based on
this, we study the behavior of different state-of-the-art neural IR models,
focusing on whether they are able to perform lexical matching when it's
actually useful, i.e. for important terms. Overall, we show that neural IR
models fail to properly generalize term importance on out-of-domain collections
or terms almost unseen during training
- Abstract(参考訳): ニューラル情報検索モデルは、現代の検索エンジンにおける語彙マッチングモデル(例えばbm25)を置き換えると約束されている。
それらの機能は、ms marcoのようなドメイン内データセットに完全に依存しているが、最近、ドメイン外ゼロショット設定(ベンチマーク)に挑戦された。
特に、これらの欠点は、(部分的には)ニューラルIRモデルが、棚外での語彙マッチングを実行できない結果であるのではないかと考える。本研究では、任意の(神経)モデルと「理想」モデルによる語彙マッチングとの違いを測る尺度を提案する。
これに基づいて、異なる最先端のニューラルIRモデルの振る舞いを研究し、それが実際に有用である場合、すなわち重要な用語で語彙マッチングを行うことができるかどうかに焦点をあてる。
全体として、ニューラルネットワークモデルでは、トレーニング中にドメイン外のコレクションや用語がほとんど見えない場合に、用語の重要性を適切に一般化できないことを示す。
関連論文リスト
- Discovering Biases in Information Retrieval Models Using Relevance Thesaurus as Global Explanation [23.50629779375759]
我々は「関連シソーラス」を構築することにより、世界規模で神経関連モデルを説明する新しい手法を提案する。
このシソーラスは、BM25のような語彙マッチングモデルを拡張して、ニューラルネットワークの予測を近似するために用いられる。
論文 参考訳(メタデータ) (2024-10-04T16:42:13Z) - SLIM: Style-Linguistics Mismatch Model for Generalized Audio Deepfake Detection [13.811326866261888]
既存のADDモデルは一般化の問題に悩まされている。
既存のモデルのブラックボックスの性質は、現実世界のシナリオでの使用を制限する。
そこで本研究では,疑似音声においてStyleLInguistics Mismatch (SLIM) を明示的に用いた新たなADDモデルを提案する。
論文 参考訳(メタデータ) (2024-07-26T05:23:41Z) - Systematic Evaluation of Neural Retrieval Models on the Touché 2020 Argument Retrieval Subset of BEIR [99.13855300096925]
我々は、ニューラル検索モデルの潜在的な限界を探るため、Touch'e 2020データの研究を行っている。
私たちのブラックボックス評価は、短いパスを取得するためのニューラルネットワークの固有のバイアスを明らかにします。
Touch'eの短いパスの多くは議論の余地がなく、したがって関連性がないので、非常に短いパスを除外してTouch'e 2020のデータに注目する。
論文 参考訳(メタデータ) (2024-07-10T16:07:51Z) - Plot Retrieval as an Assessment of Abstract Semantic Association [131.58819293115124]
Plot Retrievalのテキストペアは単語の重複を少なくし、より抽象的なセマンティックアソシエーションを持つ。
Plot Retrievalは、IRモデルのセマンティックアソシエーションモデリング能力に関するさらなる研究のベンチマークとなる。
論文 参考訳(メタデータ) (2023-11-03T02:02:43Z) - Distilling BlackBox to Interpretable models for Efficient Transfer
Learning [19.40897632956169]
一般化可能なAIモデルの構築は、医療分野における大きな課題のひとつだ。
あるドメインから別のドメインに知識を転送するモデルを微調整するには、ターゲットドメイン内の大量のラベル付きデータが必要である。
本研究では,最小の計算コストで効率よく未確認対象領域に微調整できる解釈可能なモデルを開発する。
論文 参考訳(メタデータ) (2023-05-26T23:23:48Z) - NevIR: Negation in Neural Information Retrieval [45.9442701147499]
否定は日常的な現象であり、言語モデル(LM)の弱点の一貫した領域である。
我々は、否定のみが異なる2つの文書のランク付けをIRモデルに求めるベンチマークを構築した。
クロスエンコーダは最適に動作し、後続の遅延相互作用モデルが続き、最後にはバイエンコーダとスパースニューラルアーキテクチャである。
論文 参考訳(メタデータ) (2023-05-12T17:05:54Z) - Reveal to Revise: An Explainable AI Life Cycle for Iterative Bias
Correction of Deep Models [11.879170124003252]
最先端の機械学習モデルは、トレーニングデータに埋め込まれた急激な相関を学習することが多い。
これにより、これらのモデルを高い意思決定のためにデプロイする際のリスクが生じる。
そこで我々はReveal to Revise (R2R)を提案する。
論文 参考訳(メタデータ) (2023-03-22T15:23:09Z) - Cross-Model Comparative Loss for Enhancing Neuronal Utility in Language
Understanding [82.46024259137823]
幅広いタスクに対するクロスモデル比較損失を提案する。
3つの異なるNLUタスクから14のデータセットに対する広範な実験により比較損失の普遍的有効性を示す。
論文 参考訳(メタデータ) (2023-01-10T03:04:27Z) - Learning from Context or Names? An Empirical Study on Neural Relation
Extraction [112.06614505580501]
テキストにおける2つの主要な情報ソースの効果について検討する:テキストコンテキストとエンティティ参照(名前)
本稿では,関係抽出のための実体型コントラスト事前学習フレームワーク(RE)を提案する。
我々のフレームワークは、異なるREシナリオにおけるニューラルモデルの有効性と堅牢性を改善することができる。
論文 参考訳(メタデータ) (2020-10-05T11:21:59Z) - Neural Additive Models: Interpretable Machine Learning with Neural Nets [77.66871378302774]
ディープニューラルネットワーク(DNN)は、さまざまなタスクにおいて優れたパフォーマンスを達成した強力なブラックボックス予測器である。
本稿では、DNNの表現性と一般化した加法モデルの固有知性を組み合わせたニューラル付加モデル(NAM)を提案する。
NAMは、ニューラルネットワークの線形結合を学び、それぞれが単一の入力機能に付随する。
論文 参考訳(メタデータ) (2020-04-29T01:28:32Z) - Rethinking Generalization of Neural Models: A Named Entity Recognition
Case Study [81.11161697133095]
NERタスクをテストベッドとして、異なる視点から既存モデルの一般化挙動を分析する。
詳細な分析による実験は、既存のニューラルNERモデルのボトルネックを診断する。
本論文の副産物として,最近のNER論文の包括的要約を含むプロジェクトをオープンソース化した。
論文 参考訳(メタデータ) (2020-01-12T04:33:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。