論文の概要: From n-grams to trees in Lindenmayer systems
- arxiv url: http://arxiv.org/abs/2104.01363v1
- Date: Sat, 3 Apr 2021 09:42:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-08 01:40:55.201544
- Title: From n-grams to trees in Lindenmayer systems
- Title(参考訳): n-gramからlindenmayerシステム内の木へ
- Authors: Diego Gabriel Krivochen
- Abstract要約: Lindenmayerシステムへの2つのアプローチを紹介します。
我々は、少なくともLシステムとその生成する言語のサブセットが、文字列許容条件をローカルツリー許容条件にマップすることが可能であると主張します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper we present two approaches to Lindenmayer systems: the
rule-based (or generative) approach, which focuses on L-systems as Thue
rewriting systems and a constraint-based (or model-theoretic) approach, in
which rules are abandoned in favour of conditions over allowable expressions in
the language (Pullum, 2019). We will argue that it is possible, for at least a
subset of L-systems and the languages they generate, to map string
admissibility conditions (the 'Three Laws') to local tree admissibility
conditions (cf. Rogers, 1997). This is equivalent to defining a model for those
languages. We will work out how to construct structure assuming only
superficial constraints on expressions, and define a set of constraints that
well-formed expressions of specific L-languages must satisfy. We will see that
L-systems that other methods distinguish turn out to satisfy the same model.
- Abstract(参考訳): 本稿では,Lindenmayerシステムに対する2つのアプローチを提案する。ルールベース(もしくは生成的)アプローチは,Thue書き換えシステムとしてのLシステムに焦点をあて,制約ベース(またはモデル理論)アプローチは言語における許容表現よりも条件を優先してルールを放棄する(Pullum,2019)。
我々は、L-システムの少なくとも一部とそれらが生成する言語に対して、弦の許容条件(3つの法則)を局所木許容条件(cf)にマッピングすることは可能であると論じる。
ロジャース、1997年)。
これはこれらの言語のモデルを定義することと等価である。
我々は,表層的な表現制約のみを仮定した構造の構築方法について検討し,特定のl言語の表現が満足すべき制約の集合を定義する。
他の方法が区別するL-系が同じモデルを満たすことが分かる。
関連論文リスト
- Language Models as Semiotic Machines: Reconceptualizing AI Language Systems through Structuralist and Post-Structuralist Theories of Language [0.0]
本稿では,大規模言語モデル(LLM)を理解するための新しいフレームワークを提案する。
LLMは言語自体のモデルとして理解されるべきであり、ジャックの「書き方」(l'ecriture)の概念と一致している、と私は主張する。
私は、Sausure の Saussure 批判を LLM でモデル化されたオブジェクトとして位置づけ、機械の 'mind' を統計的近似として提供します。
論文 参考訳(メタデータ) (2024-10-16T21:45:54Z) - Large Language Models are Interpretable Learners [53.56735770834617]
本稿では,Large Language Models(LLM)とシンボルプログラムの組み合わせによって,表現性と解釈可能性のギャップを埋めることができることを示す。
自然言語プロンプトを持つ事前訓練されたLLMは、生の入力を自然言語の概念に変換することができる解釈可能な膨大なモジュールセットを提供する。
LSPが学んだ知識は自然言語の記述と記号規則の組み合わせであり、人間(解釈可能)や他のLLMに容易に転送できる。
論文 参考訳(メタデータ) (2024-06-25T02:18:15Z) - Improving Mandarin End-to-End Speech Recognition with Word N-gram
Language Model [57.92200214957124]
外部言語モデル(LM)は、エンドツーエンド(E2E)自動音声認識(ASR)システムの音声認識性能を向上させることができる。
単語レベルの格子をオンザフライで構築し,可能なすべての単語列を考慮可能な,新しい復号アルゴリズムを提案する。
提案手法は,N-gram LMやニューラルネットワーク LM など,サブワードレベルのLMを一貫して上回る。
論文 参考訳(メタデータ) (2022-01-06T10:04:56Z) - Learning Symbolic Rules for Reasoning in Quasi-Natural Language [74.96601852906328]
我々は,ルールを手作業で構築することなく,自然言語入力で推論できるルールベースシステムを構築した。
本稿では,形式論理文と自然言語文の両方を表現可能な"Quasi-Natural"言語であるMetaQNLを提案する。
提案手法は,複数の推論ベンチマークにおける最先端の精度を実現する。
論文 参考訳(メタデータ) (2021-11-23T17:49:00Z) - Generalizing to New Domains by Mapping Natural Language to Lifted LTL [20.58567011476273]
本稿では、ひとつの肯定的なタスク仕様例から学習可能な、中間的コンテキストクエリ表現を提案する。
我々は、自然言語を翻訳できる最先端のCopyNetモデルと比較する。
シミュレーションされたOO-MDP環境において,提案手法の出力を計画に利用できることを実証した。
論文 参考訳(メタデータ) (2021-10-11T20:49:26Z) - Foundations of Symbolic Languages for Model Interpretability [2.3361634876233817]
本稿では,2種類のMLモデル上でのFOILクエリの計算複雑性について検討する。
本稿では,高レベルの宣言型言語でラップされたFOILのプロトタイプ実装について述べる。
論文 参考訳(メタデータ) (2021-10-05T21:56:52Z) - Generating texts under constraint through discriminator-guided MCTS [1.3750624267664153]
判別器によって誘導される木探索プロセスとして制約付き世代を定式化する。
差別化器を用いて、LMを微調整するのではなく、この世代を導くことで、より微細かつ動的に制約を適用することができる。
提案手法は,言語モデルを調整することなく,制約付き生成の結果が得られることを示す。
論文 参考訳(メタデータ) (2021-09-28T09:29:15Z) - SML: a new Semantic Embedding Alignment Transformer for efficient
cross-lingual Natural Language Inference [71.57324258813674]
トランスフォーマーが質問応答、自然言語推論(NLI)、要約といった様々なタスクを精度良く実行できることは、現在この種のタスクに対処するための最良のパラダイムの1つとしてランク付けすることができる。
nliは、複雑な文を理解するための知識が必要であり、仮説と前提の関係を確立するため、これらのアーキテクチャをテストする最良のシナリオの1つである。
本稿では,自然言語推論のための多言語組込みを効率的にアライメントするための新しいアーキテクチャ siamese multilingual transformer を提案する。
論文 参考訳(メタデータ) (2021-03-17T13:23:53Z) - SLM: Learning a Discourse Language Representation with Sentence
Unshuffling [53.42814722621715]
談話言語表現を学習するための新しい事前学習目的である文レベル言語モデリングを導入する。
本モデルでは,この特徴により,従来のBERTの性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-10-30T13:33:41Z) - The Return of Lexical Dependencies: Neural Lexicalized PCFGs [103.41187595153652]
語彙化PCFGのニューラルモデルを提案する。
実験により、この統一されたフレームワークは、いずれかの形式主義単独で達成されるよりも、両方の表現に対してより強い結果をもたらすことが示された。
論文 参考訳(メタデータ) (2020-07-29T22:12:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。