論文の概要: Nominal Unification and Matching of Higher Order Expressions with
Recursive Let
- arxiv url: http://arxiv.org/abs/2102.08146v1
- Date: Tue, 16 Feb 2021 13:36:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-17 21:45:59.324946
- Title: Nominal Unification and Matching of Higher Order Expressions with
Recursive Let
- Title(参考訳): Recursive Let を用いた高次表現の公称統一とマッチング
- Authors: Manfred Schmidt-Schau{\ss} and Temur Kutsia and Jordi Levy and Mateu
Villaret and Yunus Kutz
- Abstract要約: 再帰的なletで高階表現を名目で統一する音響完全アルゴリズムを記述し、非決定論的時間で実行可能であることを示す。
また、公称 letrec-matching forvariable 式、DAG 用、ガベージフリー式などの特殊化も検討し、その複雑さを決定します。
- 参考スコア(独自算出の注目度): 2.0474241801643114
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: A sound and complete algorithm for nominal unification of higher-order
expressions with a recursive let is described, and shown to run in
nondeterministic polynomial time. We also explore specializations like nominal
letrec-matching for expressions, for DAGs, and for garbage-free expressions and
determine their complexity. Finally, we also provide a nominal unification
algorithm for higher-order expressions with recursive let and atom-variables,
where we show that it also runs in nondeterministic polynomial time.
- Abstract(参考訳): 再帰リートを用いた高階表現の公称統一のための健全で完全なアルゴリズムを記述し、非決定論的多項式時間で実行することを示した。
また,表現に対する名目上のレレックマッチング,DAG,ガベージフリー表現などの特殊化についても検討し,その複雑さを判断する。
最後に、再帰的なlet と atom-variables を持つ高次式に対する名目統一アルゴリズムも提供し、非決定論的多項式時間でも動作することを示す。
関連論文リスト
- A dynamic programming algorithm for span-based nested named-entity
recognition in O(n^2) [5.228711636020665]
探索空間に補足的構造制約を加えることで、ネストされたNERは2次時間複雑性を持ち、これは非ネストの場合と同じ複雑さを持つことを示す。
提案アルゴリズムは、3つの標準英語ベンチマークの大部分をカバーし、同等の実験結果を提供する。
論文 参考訳(メタデータ) (2022-10-10T14:47:36Z) - A Non-monotonic Self-terminating Language Model [62.93465126911921]
本稿では,不完全復号アルゴリズムによる非終端列の問題に焦点をあてる。
まず、グリーディ探索、トップ$kのサンプリング、核サンプリングを含む不完全確率復号アルゴリズムを定義する。
次に,単調な終端確率の制約を緩和する非単調な自己終端言語モデルを提案する。
論文 参考訳(メタデータ) (2022-10-03T00:28:44Z) - One for All: One-stage Referring Expression Comprehension with Dynamic
Reasoning [11.141645707535599]
推論状態と表現の複雑さに基づいて推論ステップを動的に調整できる動的多段階推論ネットワークを提案する。
この作業は、いくつかのRECデータセットの最先端のパフォーマンスや大幅な改善を実現する。
論文 参考訳(メタデータ) (2022-07-31T04:51:27Z) - XSTEM: An exemplar-based stemming algorithm [0.0]
ステミング(英: Stemming)とは、接尾辞を除去することで、関連語を標準語に還元する過程である。
本稿では,単語ベースのルックアップテーブルの単純さと性能を,規則に基づく手法の強い一般化性と組み合わせて,語彙外単語による問題を回避する,高速,シンプル,高精度,高速なスリーミングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-09T14:58:34Z) - Hierarchical Sketch Induction for Paraphrase Generation [79.87892048285819]
本稿では、高密度符号化の分解を学習するHRQ-VAE(Hierarchical Refinement Quantized Variational Autoencoders)を紹介する。
HRQ-VAEを用いて、入力文の構文形式を階層化の経路としてエンコードすることで、テスト時の構文スケッチをより容易に予測できる。
論文 参考訳(メタデータ) (2022-03-07T15:28:36Z) - Reinforcement Learning Based Query Vertex Ordering Model for Subgraph
Matching [58.39970828272366]
グラフマッチングアルゴリズムは、クエリグラフの埋め込みをデータグラフGに列挙する。
マッチング順序は、これらのバックトラックに基づくサブグラフマッチングアルゴリズムの時間効率において重要な役割を果たす。
本稿では,Reinforcement Learning (RL) と Graph Neural Networks (GNN) 技術を適用して,グラフマッチングアルゴリズムの高品質なマッチング順序を生成する。
論文 参考訳(メタデータ) (2022-01-25T00:10:03Z) - Functorial String Diagrams for Reverse-Mode Automatic Differentiation [0.0]
閉モノイド構造を捉えるために、階層的特徴を持つモノイド圏に対して弦図式を適用する。
我々は階層的文字列図形の健全かつ完全な表現を、ハイパーネットと呼ぶ階層的ハイパーグラフのクラスとして定義する。
論文 参考訳(メタデータ) (2021-07-28T15:25:32Z) - Learning Algebraic Recombination for Compositional Generalization [71.78771157219428]
合成一般化のための代数的組換え学習のためのエンドツーエンドニューラルモデルLeARを提案する。
主要な洞察は、意味解析タスクを潜在構文代数学と意味代数学の間の準同型としてモデル化することである。
2つの現実的・包括的構成一般化の実験は、我々のモデルの有効性を実証している。
論文 参考訳(メタデータ) (2021-07-14T07:23:46Z) - High-performance symbolic-numerics via multiple dispatch [52.77024349608834]
Symbolics.jlは拡張可能なシンボルシステムで、動的多重ディスパッチを使用してドメインのニーズに応じて振る舞いを変更する。
実装に依存しないアクションでジェネリックapiを形式化することで、システムに最適化されたデータ構造を遡及的に追加できることを示します。
従来の用語書き換えシンプリファイアと電子グラフベースの用語書き換えシンプリファイアをスワップする機能を実証する。
論文 参考訳(メタデータ) (2021-05-09T14:22:43Z) - Efficient Inverse-Free Incremental and Decremental Algorithms for
Multiple Hidden Nodes in Extreme Learning Machine [0.0]
本稿では,Tikhonov正則化を用いたEMMのための2つの逆フリーアルゴリズムを提案する。
また,Tikhonov正則化を用いたEMMのための2つの効率的な除算学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-04-27T07:04:41Z) - Consistency of a Recurrent Language Model With Respect to Incomplete
Decoding [67.54760086239514]
逐次言語モデルから無限長のシーケンスを受信する問題について検討する。
不整合に対処する2つの対策として、トップkと核サンプリングの一貫性のある変種と、自己終端の繰り返し言語モデルを提案する。
論文 参考訳(メタデータ) (2020-02-06T19:56:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。