論文の概要: The Generation-Recognition Asymmetry: Six Dimensions of a Fundamental Divide in Formal Language Theory
- arxiv url: http://arxiv.org/abs/2603.10139v1
- Date: Tue, 10 Mar 2026 18:21:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:32.652212
- Title: The Generation-Recognition Asymmetry: Six Dimensions of a Fundamental Divide in Formal Language Theory
- Title(参考訳): 生成認識非対称性:形式言語理論における基本分割の6次元
- Authors: Romain Peyrichou,
- Abstract要約: 生成と認識は、複数の独立した方法で非対称である。
生成と認識が分岐する6つの次元を識別する。
我々は、大きな言語モデルに関する議論で締めくくります。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Every formal grammar defines a language and can in principle be used in three ways: to generate strings (production), to recognize them (parsing), or -- given only examples -- to infer the grammar itself (grammar induction). Generation and recognition are extensionally equivalent -- they characterize the same set -- but operationally asymmetric in multiple independent ways. Inference is a qualitatively harder problem: it does not have access to a known grammar. Despite the centrality of this triad to compiler design, natural language processing, and formal language theory, no survey has treated it as a unified, multidimensional phenomenon. We identify six dimensions along which generation and recognition diverge: computational complexity, ambiguity, directionality, information availability, grammar inference, and temporality. We show that the common characterization "generation is easy, parsing is hard" is misleading: unconstrained generation is trivial, but generation under constraints can be NP-hard. The real asymmetry is that parsing is always constrained (the input is given) while generation need not be. Two of these dimensions -- directionality and temporality -- have not previously been identified as dimensions of the generation-recognition asymmetry. We connect the temporal dimension to the surprisal framework of Hale (2001) and Levy (2008), arguing that surprisal formalizes the temporal asymmetry between a generator (surprisal = 0) and a parser that predicts under uncertainty (surprisal > 0). We review bidirectional systems in NLP and observe that bidirectionality has been available for fifty years yet has not transferred to most domain-specific applications. We conclude with a discussion of large language models, which architecturally unify generation and recognition while operationally preserving the asymmetry.
- Abstract(参考訳): すべての形式文法は、言語を定義し、原則として、文字列(生産)の生成、それらを認識する(パーシング)、または文法自体を推論するために(文法帰納法)3つの方法で使用することができる。
生成と認識は拡張的に等価であり、同じ集合を特徴づけるが、複数の独立した方法で運用的に非対称である。
推論は質的に難しい問題であり、既知の文法にアクセスできない。
このコンパイラ設計、自然言語処理、形式言語理論への中心的な貢献にもかかわらず、統一された多次元現象として扱う調査は行われていない。
生成と認識は、計算複雑性、あいまいさ、方向性、情報可用性、文法推論、時間性という6つの次元を識別する。
我々は「生成は簡単であり、解析は困難である」という一般的な特徴が誤解を招くことを示している: 制約のない生成は自明であるが、制約下での生成はNPハードである。
真の非対称性は、構文解析は常に制約される(入力は与えられる)が、生成は必要ではないことである。
これらの2つの次元(方向性と時間性)は、以前は生成認識非対称性の次元として特定されていなかった。
我々は時空次元をHale (2001) と Levy (2008) の時空の枠組みに結び付け、時空間は生成元 (suprisal = 0) と不確実性の下で予測するパーサー (surprisal > 0) の間の時間的非対称性を形式化すると主張した。
我々はNLPにおける双方向システムについてレビューし、50年間にわたって双方向性が利用されてきたが、ほとんどのドメイン固有のアプリケーションに移行していないことを観察する。
我々は、非対称性を運用的に保ちながら、アーキテクチャ的に生成と認識を統一する大規模言語モデルに関する議論を締めくくった。
関連論文リスト
- Grammaticality Judgments in Humans and Language Models: Revisiting Generative Grammar with LLMs [0.0]
伝統的な生成文法では、主語・副詞の逆転や寄生的ギャップのライセンスのような文法性の体系的なコントラストが、内部的、階層的な文法の証拠として扱われる。
表面形状のみを訓練した大規模言語モデル(LLM)が,これらのコントラストを基礎となる構造表現を再現するかどうかを検証した。
論文 参考訳(メタデータ) (2025-12-11T09:17:35Z) - Language Generation: Complexity Barriers and Implications for Learning [51.449718747429756]
単純でよく研究された言語ファミリであっても、成功した生成に必要なサンプルの数は極端に多いことが示される。
これらの結果は、理論的可能性と効率的な学習可能性の間に大きなギャップがあることを明らかにする。
論文 参考訳(メタデータ) (2025-11-07T23:06:48Z) - Towards a Unified System of Representation for Continuity and Discontinuity in Natural Language [0.0]
自然言語の構造における連続性と不連続性の両方を統一的に表現するシステムを提案する。
特に, 句構造文法 (PSG) は選挙区概念, 依存文法 (DG) は首依存関係, カテゴリー文法 (CG) は関手論関係に焦点をあてる。
論文 参考訳(メタデータ) (2025-06-05T16:54:41Z) - Fundamental Principles of Linguistic Structure are Not Represented by o3 [3.335047764053173]
O3モデルは基本的なフレーズ構造規則を一般化できない。
正しく評価し、アクセプタビリティのダイナミクスを説明するのに失敗する。
受け入れられないセマンティクスを生成する命令と受け入れられない構文出力を生成する命令を区別できない。
論文 参考訳(メタデータ) (2025-02-15T23:53:31Z) - Training Neural Networks as Recognizers of Formal Languages [87.06906286950438]
ニューラルネットワークを文字列のバイナリ分類器として直接訓練し評価する。
3つのニューラルアーキテクチャに対して、チョムスキー階層の様々な言語について結果を提供する。
我々の貢献は、将来の研究において、言語認識の主張を理論的に健全に検証するのに役立つだろう。
論文 参考訳(メタデータ) (2024-11-11T16:33:25Z) - Robustness of the Random Language Model [0.0]
このモデルは、潜在的言語の広大な空間におけるアニーリングの一種として、最初の言語学習の簡単な図を示唆している。
これは、潜在的な単語とカテゴリ間の対称性が自発的に壊れる文法構文への単一の連続的な遷移を意味する。
結果は、言語学における第一言語習得の理論と、機械学習における最近の成功を踏まえて議論される。
論文 参考訳(メタデータ) (2023-09-26T13:14:35Z) - On Broken Symmetry in Cognition [5.234742752529437]
この論文は、認知進化と発達は対称性を破る遷移によって展開すると主張している。
第一に、空間対称性は、両側のボディプランとグリッドやプレースセルのような神経コードによって破られる。
第三に、ゴール指向シミュレーションは内部の自己モデルと外部世界の対称性を破る。
論文 参考訳(メタデータ) (2023-03-07T19:48:13Z) - The Stable Entropy Hypothesis and Entropy-Aware Decoding: An Analysis
and Algorithm for Robust Natural Language Generation [59.7381286976957]
通常、人間のような世代は狭く、ほぼ平らなエントロピーバンドの中にいる。
これらのエントロピー境界を尊重するエントロピー対応復号アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-14T02:02:33Z) - Generating Sequences by Learning to Self-Correct [64.0249217590888]
自己補正(Self-Correction)は、不完全な世代を反復的に修正する独立した修正器から不完全なベースジェネレータを分離する。
本稿では,3つの多種多様なタスクにおいて,自己補正がベースジェネレータを改善することを示す。
論文 参考訳(メタデータ) (2022-10-31T18:09:51Z) - Provable Limitations of Acquiring Meaning from Ungrounded Form: What
will Future Language Models Understand? [87.20342701232869]
未知のシステムが意味を習得する能力について検討する。
アサーションによってシステムが等価性のような意味関係を保存する表現をエミュレートできるかどうか検討する。
言語内のすべての表現が参照的に透明であれば,アサーションによってセマンティックエミュレーションが可能になる。
しかし、言語が変数バインディングのような非透過的なパターンを使用する場合、エミュレーションは計算不能な問題になる可能性がある。
論文 参考訳(メタデータ) (2021-04-22T01:00:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。