論文の概要: Generate-and-Retrieve: use your predictions to improve retrieval for
semantic parsing
- arxiv url: http://arxiv.org/abs/2209.14899v1
- Date: Thu, 29 Sep 2022 16:03:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 17:12:09.560988
- Title: Generate-and-Retrieve: use your predictions to improve retrieval for
semantic parsing
- Title(参考訳): Generate-and-Retrieve: セマンティック解析の検索を改善するために予測を使用する
- Authors: Yury Zemlyanskiy, Michiel de Jong, Joshua Ainslie, Panupong Pasupat,
Peter Shaw, Linlu Qiu, Sumit Sanghai, Fei Sha
- Abstract要約: 本稿では,出力が類似した例を検索するGandRを提案する。
GandRはまず、入力ベースの検索で予備予測を生成する。
そして、最終的な予測を生成するために使用される予備予測と同様の出力で例を検索する。
- 参考スコア(独自算出の注目度): 25.725176422936766
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A common recent approach to semantic parsing augments sequence-to-sequence
models by retrieving and appending a set of training samples, called exemplars.
The effectiveness of this recipe is limited by the ability to retrieve
informative exemplars that help produce the correct parse, which is especially
challenging in low-resource settings. Existing retrieval is commonly based on
similarity of query and exemplar inputs. We propose GandR, a retrieval
procedure that retrieves exemplars for which outputs are also similar.
GandRfirst generates a preliminary prediction with input-based retrieval. Then,
it retrieves exemplars with outputs similar to the preliminary prediction which
are used to generate a final prediction. GandR sets the state of the art on
multiple low-resource semantic parsing tasks.
- Abstract(参考訳): 意味解析に対する最近の一般的なアプローチは、exemplarsと呼ばれるトレーニングサンプルのセットを検索し追加することでシーケンス列モデルを強化している。
このレシピの有効性は、特に低リソース環境では困難である正しいパースを生成するのに役立つ情報的例を取り出す能力によって制限されている。
既存の検索は通常、クエリと例の入力の類似性に基づいている。
我々は,出力が類似する例題を検索する検索手順であるgandrを提案する。
GandRfirstは入力ベースの検索で予備予測を生成する。
そして、最終的な予測を生成するために使用される予備予測と同様の出力で例を検索する。
GandRは、複数の低リソースのセマンティックパーシングタスクに、その技術の状態を設定する。
関連論文リスト
- Dense X Retrieval: What Retrieval Granularity Should We Use? [59.359325855708974]
しばしば見過ごされる設計選択は、コーパスが索引付けされる検索単位である。
提案手法はテキスト内の原子式として定義され,それぞれが別個のファクトイドをカプセル化している。
その結果,命題に基づく検索は,従来の通訳法や文による検索方法よりも格段に優れていることがわかった。
論文 参考訳(メタデータ) (2023-12-11T18:57:35Z) - Revisiting Sparse Retrieval for Few-shot Entity Linking [33.15662306409253]
本稿では,ELECTRAに基づくキーワード抽出手法を提案する。
抽出器のトレーニングには,参照コンテキストとエンティティ記述との間に重複するトークンをベースとしたトレーニングデータを自動的に生成する遠隔監視手法を提案する。
ZESHELデータセットによる実験結果から,提案手法はすべてのテスト領域において,最先端モデルよりも優れた性能を示した。
論文 参考訳(メタデータ) (2023-10-19T03:51:10Z) - BERM: Training the Balanced and Extractable Representation for Matching
to Improve Generalization Ability of Dense Retrieval [54.66399120084227]
本稿では,BERMと呼ばれるマッチング信号の取得により,高密度検索の一般化を改善する手法を提案する。
センス検索は、ドメイン内のラベル付きデータセットでトレーニングされた場合、第1段階の検索プロセスにおいて有望であることが示されている。
論文 参考訳(メタデータ) (2023-05-18T15:43:09Z) - Recommender Systems with Generative Retrieval [58.454606442670034]
本稿では,対象候補の識別子を自己回帰的に復号する新たな生成検索手法を提案する。
そのために、各項目のセマンティックIDとして機能するために、意味論的に意味のあるコードワードを作成します。
提案手法を用いて学習した推薦システムは,様々なデータセット上での現在のSOTAモデルよりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2023-05-08T21:48:17Z) - Controllable Semantic Parsing via Retrieval Augmentation [14.528396278058285]
我々は,Exemplar Retrieval (CASPER) を用いた制御可能なセマンティック生成モデルを提案する。
CASPERは、新しいドメインでクエリを解析し、特定のパターンに対して予測を適用したり、モデルを再トレーニングすることなく、新しいセマンティックスキーマに適応できることを示す。
論文 参考訳(メタデータ) (2021-10-16T03:34:49Z) - Graph-Based Decoding for Task Oriented Semantic Parsing [16.054030490095464]
セマンティック解析を依存性解析タスクとして定式化し、構文解析のために開発されたグラフベースの復号法を適用した。
グラフベースのアプローチは、標準設定のシーケンスデコーダと競合し、部分的に注釈付けされたデータが利用できるようなデータ効率と設定を大幅に改善できることが分かりました。
論文 参考訳(メタデータ) (2021-09-09T23:22:09Z) - Automated Concatenation of Embeddings for Structured Prediction [75.44925576268052]
本稿では, 埋め込みの自動結合(ACE)を提案し, 構造予測タスクにおける埋め込みのより優れた結合を見つけるプロセスを自動化する。
我々は、強化学習の戦略に従い、制御器のパラメータを最適化し、タスクモデルの精度に基づいて報酬を計算する。
論文 参考訳(メタデータ) (2020-10-10T14:03:20Z) - Generation-Augmented Retrieval for Open-domain Question Answering [134.27768711201202]
GAR(Generation-Augmented Retrieval)は、オープンドメインの質問に答える機能である。
クエリーに対して多様なコンテキストを生成することは、結果の融合が常により良い検索精度をもたらすので有益であることを示す。
GARは、抽出読取装置を備えた場合、抽出QA設定の下で、自然質問およびトリビアQAデータセットの最先端性能を達成する。
論文 参考訳(メタデータ) (2020-09-17T23:08:01Z) - Progressively Pretrained Dense Corpus Index for Open-Domain Question
Answering [87.32442219333046]
本稿では,段落エンコーダを事前学習するための簡易かつ資源効率の高い手法を提案する。
本手法は,事前学習に7倍の計算資源を使用する既存の高密度検索法より優れている。
論文 参考訳(メタデータ) (2020-04-30T18:09:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。