論文の概要: Neuro-Symbolic Language Modeling with Automaton-augmented Retrieval
- arxiv url: http://arxiv.org/abs/2201.12431v1
- Date: Fri, 28 Jan 2022 21:38:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-01 15:20:15.696214
- Title: Neuro-Symbolic Language Modeling with Automaton-augmented Retrieval
- Title(参考訳): Automaton-augmented Retrievalを用いたニューロシンボリック言語モデリング
- Authors: Uri Alon, Frank F. Xu, Junxian He, Sudipta Sengupta, Dan Roth, Graham
Neubig
- Abstract要約: RetoMatonはデータストア上に構築された重み付き有限オートマトンである。
LM推論と並行して、このオートマトンを推論時にトラバースすることは、その複雑さを減少させる。
- 参考スコア(独自算出の注目度): 129.25914272977542
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Retrieval-based language models (R-LM) model the probability of natural
language text by combining a standard language model (LM) with examples
retrieved from an external datastore at test time. While effective, a major
bottleneck of using these models in practice is the computationally costly
datastore search, which can be performed as frequently as every time step. In
this paper, we present RetoMaton -- retrieval automaton -- which approximates
the datastore search, based on (1) clustering of entries into "states", and (2)
state transitions from previous entries. This effectively results in a weighted
finite automaton built on top of the datastore, instead of representing the
datastore as a flat list. The creation of the automaton is unsupervised, and a
RetoMaton can be constructed from any text collection: either the original
training corpus or from another domain. Traversing this automaton at inference
time, in parallel to the LM inference, reduces its perplexity, or alternatively
saves up to 83% of the nearest neighbor searches over kNN-LM (Khandelwal et
al., 2020), without hurting perplexity.
- Abstract(参考訳): 検索型言語モデル(R-LM)は、標準言語モデル(LM)とテスト時に外部データストアから取得した例を組み合わせることで、自然言語テキストの確率をモデル化する。
効果的ではあるが、実際にこれらのモデルを使用する際の大きなボトルネックは計算コストのかかるデータストア検索である。
本稿では,(1)エントリの"状態"へのクラスタリングと(2)前のエントリからの状態遷移に基づいて,データストア検索を近似したRetoMaton --検索オートマトンを提案する。
これにより、データストアをフラットリストとして表現するのではなく、データストア上に構築された重み付き有限オートマトンが実現される。
オートマトンの作成は監視されず、RetoMatonはオリジナルのトレーニングコーパスまたは他のドメインから、任意のテキストコレクションから構築することができる。
このオートマトンをLM推論と並行して推論時にトラバースすることは、その難易度を減少させるか、またはkNN-LM(Khandelwal et al., 2020)上で最も近い隣人探索の83%を、難易度を損なうことなく節約する。
関連論文リスト
- You can't pick your neighbors, or can you? When and how to rely on
retrieval in the $k$NN-LM [65.74934004876914]
Retrieval-enhanced Language Model (LM) は、大規模な外部データストアから取得したテキストにそれらの予測を条件付ける。
そのようなアプローチの1つ、$k$NN-LMは、既存のLMの予測を$k$-nearest近くのモデルの出力と補間する。
本研究では,2つの英語モデルデータセットに対するアプローチの有効性を実証的に測定する。
論文 参考訳(メタデータ) (2022-10-28T02:57:40Z) - Thutmose Tagger: Single-pass neural model for Inverse Text Normalization [76.87664008338317]
逆テキスト正規化(ITN)は自動音声認識において重要な後処理ステップである。
本稿では,ITN例の粒度アライメントに基づくデータセット作成手法を提案する。
タグと入力語との1対1対応により、モデルの予測の解釈性が向上する。
論文 参考訳(メタデータ) (2022-07-29T20:39:02Z) - Chunk-based Nearest Neighbor Machine Translation [7.747003493657217]
我々は、単一のトークンではなく、データストアからトークンの塊を検索する、テクスチャンクベースの$k$NN-MTモデルを導入する。
静的ドメイン適応とオンザフライ適応という2つの設定による機械翻訳の実験は、チャンクベースのモデルが、翻訳品質をわずかに低下させるだけで、大幅なスピードアップ(最大4倍)につながることを示している。
論文 参考訳(メタデータ) (2022-05-24T17:39:25Z) - Autoregressive Search Engines: Generating Substrings as Document
Identifiers [53.0729058170278]
自動回帰言語モデルは、回答を生成するデファクト標準として現れています。
これまでの研究は、探索空間を階層構造に分割する方法を探究してきた。
本研究では,検索空間の任意の構造を強制しない代替として,経路内のすべてのngramを識別子として使用することを提案する。
論文 参考訳(メタデータ) (2022-04-22T10:45:01Z) - Benchmarking Multimodal AutoML for Tabular Data with Text Fields [83.43249184357053]
テキストフィールドを含む18個のマルチモーダルデータテーブルを組み立てる。
このベンチマークにより、研究者は、数値的、分類的、テキスト的特徴を用いて教師あり学習を行うための独自の方法を評価することができる。
論文 参考訳(メタデータ) (2021-11-04T09:29:16Z) - Neural Data-to-Text Generation with LM-based Text Augmentation [27.822282190362856]
弱教師付きトレーニングパラダイムは10%未満のアノテーションで完全に教師付きセq2seqモデルより優れていることを示す。
すべての注釈付きデータを利用することで、標準のSeq2seqモデルの性能を5 BLEUポイント以上向上させることができる。
論文 参考訳(メタデータ) (2021-02-06T10:21:48Z) - Unsupervised Paraphrasing with Pretrained Language Models [85.03373221588707]
教師なし環境で,事前学習した言語モデルを用いて高品質なパラフレーズを生成する訓練パイプラインを提案する。
提案手法は,タスク適応,自己スーパービジョン,動的ブロッキング(Dynamic Blocking)という新しい復号アルゴリズムから構成される。
提案手法は,Quora Question PairとParaNMTの両方のデータセット上で,最先端の性能を達成できることを示す。
論文 参考訳(メタデータ) (2020-10-24T11:55:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。