論文の概要: Neural Extractive Search
- arxiv url: http://arxiv.org/abs/2106.04612v1
- Date: Tue, 8 Jun 2021 18:03:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-11 11:46:27.448662
- Title: Neural Extractive Search
- Title(参考訳): 神経抽出探索
- Authors: Shauli Ravfogel, Hillel Taub-Tabib, Yoav Goldberg
- Abstract要約: ドメインの専門家は、しばしば大きなコーパスから構造化された情報を抽出する必要がある。
我々は「抽出探索」と呼ばれる探索パラダイムを提唱し、探索クエリをキャプチャスロットで強化する。
ニューラル検索とアライメントを用いてリコールをどのように改善できるかを示す。
- 参考スコア(独自算出の注目度): 53.15076679818303
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Domain experts often need to extract structured information from large
corpora. We advocate for a search paradigm called ``extractive search'', in
which a search query is enriched with capture-slots, to allow for such rapid
extraction. Such an extractive search system can be built around syntactic
structures, resulting in high-precision, low-recall results. We show how the
recall can be improved using neural retrieval and alignment. The goals of this
paper are to concisely introduce the extractive-search paradigm; and to
demonstrate a prototype neural retrieval system for extractive search and its
benefits and potential. Our prototype is available at
\url{https://spike.neural-sim.apps.allenai.org/} and a video demonstration is
available at \url{https://vimeo.com/559586687}.
- Abstract(参考訳): ドメインの専門家は、しばしば大きなコーパスから構造化された情報を抽出する必要がある。
我々は,このような高速な抽出を可能にするために,探索クエリをキャプチャスロットで豊かにする「抽出探索」という探索パラダイムを提唱する。
このような抽出検索システムは構文構造を中心に構築することができ、高い精度、低リコール結果が得られる。
ニューラル検索とアライメントを用いてリコールをどのように改善できるかを示す。
本論文の目的は,抽出探索パラダイムを簡潔に導入し,抽出探索のためのニューラル検索システムの試作と,その利点と可能性を示すことである。
プロトタイプは \url{https://spike.neural-sim.apps.allenai.org/} で利用可能であり、ビデオデモは \url{https://vimeo.com/559586687} で利用可能である。
関連論文リスト
- Dense X Retrieval: What Retrieval Granularity Should We Use? [56.90827473115201]
しばしば見過ごされる設計選択は、コーパスが索引付けされる検索単位である。
本稿では,高密度検索のための新しい検索ユニット,命題を提案する。
実験により、提案のような細粒度単位によるコーパスのインデックス付けは、検索タスクにおける通過レベル単位を著しく上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2023-12-11T18:57:35Z) - End-to-End Open Vocabulary Keyword Search With Multilingual Neural
Representations [7.780766187171571]
競合性能を実現するニューラルネットワークによるASRフリーキーワード検索モデルを提案する。
本研究は,多言語事前学習と詳細なモデル解析により拡張する。
実験の結果,提案した多言語学習はモデルの性能を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2023-08-15T20:33:25Z) - CorpusBrain: Pre-train a Generative Retrieval Model for
Knowledge-Intensive Language Tasks [62.22920673080208]
単一ステップ生成モデルは、検索プロセスを劇的に単純化し、エンドツーエンドで最適化することができる。
我々は、事前学習された生成検索モデルをCorpsBrainと名付け、コーパスに関する全ての情報が、追加のインデックスを構築することなく、そのパラメータにエンコードされる。
論文 参考訳(メタデータ) (2022-08-16T10:22:49Z) - RF-Next: Efficient Receptive Field Search for Convolutional Neural
Networks [86.6139619721343]
そこで本研究では,グローバル・ローカル・サーチ手法を用いて,より優れた受容場の組み合わせを求める。
我々の検索手法は, 粗い組み合わせを見つけるためにグローバル検索と, 洗練された受容場の組み合わせを得るために局所探索の両方を利用する。
我々のRF-Nextモデルは、様々なモデルに受容場探索を接続し、多くのタスクのパフォーマンスを高める。
論文 参考訳(メタデータ) (2022-06-14T06:56:26Z) - CrossBeam: Learning to Search in Bottom-Up Program Synthesis [51.37514793318815]
ボトムアップ合成のためのハンズオン検索ポリシーを学習するためのニューラルネットワークのトレーニングを提案する。
私たちのアプローチは、CrossBeamと呼ばれ、ニューラルモデルを使用して、以前に探索されたプログラムを新しいプログラムに組み合わせる方法を選択します。
我々はCrossBeamが効率的に検索することを学び、最先端技術と比較してプログラム空間のより小さな部分を探索する。
論文 参考訳(メタデータ) (2022-03-20T04:41:05Z) - Deep Reinforcement Agent for Efficient Instant Search [14.086339486783018]
本稿では,関連する文書を検索する上で,意味的により健全なトークンを識別することで,負荷問題に対処することを提案する。
我々は、検索エンジンと直接対話し、単語の重要性を予測する強化エージェントを訓練する。
トリガーサーチ数とシステム性能のトレードオフを研究するために,新しい評価フレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-17T22:47:15Z) - Boosting Search Engines with Interactive Agents [25.89284695491093]
本稿では,文脈的クエリ改善のためのメタストラテジーを学習するエージェントの設計における第一歩について述べる。
エージェントには単純だが効果的な検索操作者がいて、クエリや検索結果のきめ細やかで透明な制御を行う。
論文 参考訳(メタデータ) (2021-09-01T13:11:57Z) - Neural Architecture Search For Keyword Spotting [18.253449041632166]
畳み込みニューラルネットワークモデル探索にニューラルネットワーク探索を適用した。
12級発話分類の設定により,最先端の精度が97%以上向上した。
論文 参考訳(メタデータ) (2020-09-01T01:11:41Z) - AutoSTR: Efficient Backbone Search for Scene Text Recognition [80.7290173000068]
テキストインスタンスの多様性とシーンの複雑さのため、シーンテキスト認識(STR)は非常に難しい。
テキスト認識性能を向上させるために,データ依存のバックボーンを検索するための自動STR(AutoSTR)を提案する。
実験によると、データ依存のバックボーンを検索することで、AutoSTRは標準ベンチマークにおける最先端のアプローチより優れている。
論文 参考訳(メタデータ) (2020-03-14T06:51:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。