論文の概要: Science Checker Reloaded: A Bidirectional Paradigm for Transparency and Logical Reasoning
- arxiv url: http://arxiv.org/abs/2402.13897v2
- Date: Thu, 14 Mar 2024 00:21:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-16 01:32:47.163826
- Title: Science Checker Reloaded: A Bidirectional Paradigm for Transparency and Logical Reasoning
- Title(参考訳): Science Checkerのリロード: 透明性と論理的推論のための双方向パラダイム
- Authors: Loïc Rakotoson, Sylvain Massip, Fréjus A. A. Laleye,
- Abstract要約: 長い文書のためにこれらのハードルに対処するための2ブロックのアプローチを導入する。
最初のブロックは、クエリ拡張によるスパース検索における言語理解を強化する。
第2のブロックは、複雑な質問に対して包括的で情報的な回答を提供することによって、結果をより深くする。
- 参考スコア(独自算出の注目度): 0.27309692684728615
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Information retrieval is a rapidly evolving field. However it still faces significant limitations in the scientific and industrial vast amounts of information, such as semantic divergence and vocabulary gaps in sparse retrieval, low precision and lack of interpretability in semantic search, or hallucination and outdated information in generative models. In this paper, we introduce a two-block approach to tackle these hurdles for long documents. The first block enhances language understanding in sparse retrieval by query expansion to retrieve relevant documents. The second block deepens the result by providing comprehensive and informative answers to the complex question using only the information spread in the long document, enabling bidirectional engagement. At various stages of the pipeline, intermediate results are presented to users to facilitate understanding of the system's reasoning. We believe this bidirectional approach brings significant advancements in terms of transparency, logical thinking, and comprehensive understanding in the field of scientific information retrieval.
- Abstract(参考訳): 情報検索は急速に発展している分野である。
しかし、スパース検索における意味的ばらつきや語彙のギャップ、低い精度、意味探索における解釈可能性の欠如、あるいは生成モデルにおける幻覚や時代遅れの情報など、科学的、産業的な膨大な情報に依然として大きな制限が課されている。
本稿では,長い文書のハードルに対処するための2ブロック手法を提案する。
第1ブロックは、クエリ拡張によるスパース検索における言語理解を強化し、関連する文書を検索する。
第2ブロックは、長い文書に広がる情報のみを用いて、複雑な質問に対して包括的で情報的な回答を提供することで、結果をより深くし、双方向のエンゲージメントを可能にする。
パイプラインの様々な段階で、システム推論の理解を容易にするために中間結果がユーザに提示される。
この双方向アプローチは、科学情報検索の分野における透明性、論理的思考、そして包括的理解の観点から、大きな進歩をもたらすと信じている。
関連論文リスト
- Disentangling Memory and Reasoning Ability in Large Language Models [97.26827060106581]
本稿では、複雑な推論プロセスを2つの異なる明確なアクションに分解する新しい推論パラダイムを提案する。
実験の結果, この分解によりモデル性能が向上し, 推論プロセスの解釈可能性も向上することがわかった。
論文 参考訳(メタデータ) (2024-11-20T17:55:38Z) - Contri(e)ve: Context + Retrieve for Scholarly Question Answering [0.0]
本稿では,オープンソースのLarge Language Model (LLM): Scholarly-QALDデータセット用のLlama3.1を提案する。
まず、異なる構造化データソースと非構造化データソースから質問に関連するコンテキストを抽出する。
第2に,LLMの情報検索性能を向上させるために,プロンプトエンジニアリングを実装した。
論文 参考訳(メタデータ) (2024-09-13T17:38:47Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - Reranking Passages with Coarse-to-Fine Neural Retriever Enhanced by List-Context Information [0.9463895540925061]
本稿では、他の候補からリストコンテキスト情報を取り入れることで、文節表現を増強するリストコンテキストアテンション機構を提案する。
The proposed coarse-to-fine neural retriever address the out-of-Memory limitation of the passage attention mechanism。
粗いランク付けと細かなランク付けを共同最適化プロセスに統合することで、2つのレイヤ間のフィードバックを同時に更新することが可能になる。
論文 参考訳(メタデータ) (2023-08-23T09:29:29Z) - BERM: Training the Balanced and Extractable Representation for Matching
to Improve Generalization Ability of Dense Retrieval [54.66399120084227]
本稿では,BERMと呼ばれるマッチング信号の取得により,高密度検索の一般化を改善する手法を提案する。
センス検索は、ドメイン内のラベル付きデータセットでトレーニングされた場合、第1段階の検索プロセスにおいて有望であることが示されている。
論文 参考訳(メタデータ) (2023-05-18T15:43:09Z) - Query2doc: Query Expansion with Large Language Models [69.9707552694766]
提案手法はまず,大言語モデル (LLM) をプロンプトすることで擬似文書を生成する。
query2docは、アドホックIRデータセットでBM25のパフォーマンスを3%から15%向上させる。
また,本手法は,ドメイン内およびドメイン外の両方において,最先端の高密度検索に有効である。
論文 参考訳(メタデータ) (2023-03-14T07:27:30Z) - UnifieR: A Unified Retriever for Large-Scale Retrieval [84.61239936314597]
大規模な検索は、クエリを与えられた巨大なコレクションから関連ドキュメントをリコールすることである。
事前学習型言語モデル(PLM)に基づく最近の検索手法は,高密度ベクターあるいはレキシコンに基づくパラダイムに大別することができる。
本論文では,高密度ベクトルとレキシコンに基づく検索を2つの表現能力を持つ1つのモデルで統合する学習フレームワークUnifieRを提案する。
論文 参考訳(メタデータ) (2022-05-23T11:01:59Z) - GERE: Generative Evidence Retrieval for Fact Verification [57.78768817972026]
本稿では,ジェネレーション方式で証拠を検索する最初のシステムであるGEREを提案する。
FEVERデータセットの実験結果は、GEREが最先端のベースラインよりも大幅に改善されていることを示している。
論文 参考訳(メタデータ) (2022-04-12T03:49:35Z) - Deep Understanding based Multi-Document Machine Reading Comprehension [22.319892892352414]
本稿では,多文書機械読解のための深い理解に基づくモデルを提案する。
単語の意味を正確に理解するために設計された3つの深い理解モジュールがある。
我々は,TriviaQA WebとDuReaderという2つの大規模ベンチマークデータセットを用いて,我々のモデルを評価した。
論文 参考訳(メタデータ) (2022-02-25T12:56:02Z) - Natural language technology and query expansion: issues,
state-of-the-art and perspectives [0.0]
クエリのあいまいさや誤解釈を引き起こす言語特性と、追加の要因は、ユーザの情報ニーズを正確に表現する能力に影響を与える。
汎用言語に基づく問合せ拡張フレームワークの解剖学を概説し,モジュールに基づく分解を提案する。
それぞれのモジュールについて、文献における最先端のソリューションをレビューし、使用するテクニックの光の下で分類する。
論文 参考訳(メタデータ) (2020-04-23T11:39:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。