論文の概要: Learning grammar with a divide-and-concur neural network
- arxiv url: http://arxiv.org/abs/2201.07341v1
- Date: Tue, 18 Jan 2022 22:42:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-21 00:58:49.055494
- Title: Learning grammar with a divide-and-concur neural network
- Title(参考訳): 分断共起ニューラルネットワークによる文法学習
- Authors: Sean Deyo and Veit Elser
- Abstract要約: 本研究では,文脈自由文法推論に対する分割・コンカレント反復予測手法を実装した。
本手法は比較的少数の離散パラメータを必要とするため,推測文法を直接解釈可能である。
- 参考スコア(独自算出の注目度): 4.111899441919164
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We implement a divide-and-concur iterative projection approach to
context-free grammar inference. Unlike most state-of-the-art models of natural
language processing, our method requires a relatively small number of discrete
parameters, making the inferred grammar directly interpretable -- one can read
off from a solution how to construct grammatically valid sentences. Another
advantage of our approach is the ability to infer meaningful grammatical rules
from just a few sentences, compared to the hundreds of gigabytes of training
data many other models employ. We demonstrate several ways of applying our
approach: classifying words and inferring a grammar from scratch, taking an
existing grammar and refining its categories and rules, and taking an existing
grammar and expanding its lexicon as it encounters new words in new data.
- Abstract(参考訳): 文脈自由文法推論に対する分割・収束反復予測手法を実装した。
自然言語処理の最先端モデルとは異なり、我々の手法は比較的少数の離散パラメータを必要とするため、推論された文法を直接解釈できる -- 文法的に有効な文を構築する方法の解から読み取ることができる。
このアプローチのもう1つの利点は、他のモデルが採用している数百ギガバイトのトレーニングデータと比較して、わずか数文から意味のある文法規則を推測できることです。
提案手法は,単語を分類し,ゼロから文法を推定し,既存の文法を抽出し,そのカテゴリや規則を精査し,既存の文法を抽出し,新しいデータで新しい単語に遭遇するにつれて語彙を拡大する手法である。
関連論文リスト
- Leveraging Grammar Induction for Language Understanding and Generation [7.459693992079273]
言語理解と生成のための教師なし文法帰納法を提案する。
我々は,下流タスクで同時に訓練された選挙区構造と係り受け関係を誘導する文法を構築した。
複数の機械翻訳タスクの自然言語理解タスクに対して,本手法の評価と適用を行った。
論文 参考訳(メタデータ) (2024-10-07T09:57:59Z) - Incremental Context-free Grammar Inference in Black Box Settings [17.601446198181048]
ブラックボックスの文脈自由文法推論は多くの実践的な設定において重要な課題である。
そこで本研究では,サンプル文字列をより小さな単位に分割し,文法を漸進的に推論する手法を提案する。
我々の手法であるKedavraは、より優れた文法品質(精度とリコールの強化)、より高速な実行、経験的比較による可読性の向上を実証した。
論文 参考訳(メタデータ) (2024-08-29T17:00:38Z) - Detecting and explaining (in)equivalence of context-free grammars [0.6282171844772422]
文脈自由文法の同値性を決定し,証明し,説明するためのスケーラブルなフレームワークを提案する。
本稿では,本フレームワークの実装と,教育支援システム内で収集された大規模データセット上での評価を行う。
論文 参考訳(メタデータ) (2024-07-25T17:36:18Z) - Language Models for Text Classification: Is In-Context Learning Enough? [54.869097980761595]
最近の基礎言語モデルでは、ゼロショットや少数ショットの設定で多くのNLPタスクで最先端のパフォーマンスが示されている。
より標準的なアプローチよりもこれらのモデルの利点は、自然言語(prompts)で書かれた命令を理解する能力である。
これにより、アノテーション付きインスタンスが限られているドメインのテキスト分類問題に対処するのに適している。
論文 参考訳(メタデータ) (2024-03-26T12:47:39Z) - A logical word embedding for learning grammar [4.111899441919164]
テキストのコーパスから語彙カテゴリと構文規則の教師なし推論を可能にするために,論理文法エンデビング(LGE)を導入する。
LGEは、その推論を要約した理解可能な出力を生成し、新しい文を生成するための完全に透明なプロセスを持ち、数百の文から学習することができる。
論文 参考訳(メタデータ) (2023-04-28T01:53:54Z) - A Neural Model for Regular Grammar Induction [8.873449722727026]
我々は文法を計算のモデルとして扱い、正および負の例から正規文法を誘導する新しいニューラルアプローチを提案する。
我々のモデルは完全に説明可能であり、その中間結果は部分解析として直接解釈可能であり、十分なデータが得られると任意の正規文法を学習することができる。
論文 参考訳(メタデータ) (2022-09-23T14:53:23Z) - Dependency Induction Through the Lens of Visual Perception [81.91502968815746]
本稿では,単語の具体性を利用した教師なし文法帰納モデルと,構成的視覚に基づく構成的文法を共同学習する手法を提案する。
実験により,提案した拡張は,文法的サイズが小さい場合でも,現在最先端の視覚的接地モデルよりも優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2021-09-20T18:40:37Z) - Extracting Grammars from a Neural Network Parser for Anomaly Detection
in Unknown Formats [79.6676793507792]
強化学習は、ある未知のフォーマットで文を解析するために、人工知能を訓練する技術として、最近約束されている。
本稿では、ニューラルネットワークから生成規則を抽出し、これらの規則を用いて、ある文が名目か異常かを決定する手順を提案する。
論文 参考訳(メタデータ) (2021-07-30T23:10:24Z) - VLGrammar: Grounded Grammar Induction of Vision and Language [86.88273769411428]
共同学習枠組みにおける視覚と言語の基底文法誘導について検討する。
本稿では,複合確率文脈自由文法(pcfgs)を用いて言語文法と画像文法を同時に誘導する手法であるvlgrammarを提案する。
論文 参考訳(メタデータ) (2021-03-24T04:05:08Z) - SLM: Learning a Discourse Language Representation with Sentence
Unshuffling [53.42814722621715]
談話言語表現を学習するための新しい事前学習目的である文レベル言語モデリングを導入する。
本モデルでは,この特徴により,従来のBERTの性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-10-30T13:33:41Z) - Toward Better Storylines with Sentence-Level Language Models [54.91921545103256]
本稿では,文章中の次の文を選択する文レベル言語モデルを提案する。
教師なしストーリークローゼタスクにおける最先端の精度によるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-11T16:54:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。