論文の概要: A Method for Learning Large-Scale Computational Construction Grammars from Semantically Annotated Corpora
- arxiv url: http://arxiv.org/abs/2603.12754v1
- Date: Fri, 13 Mar 2026 07:55:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-16 17:38:11.984622
- Title: A Method for Learning Large-Scale Computational Construction Grammars from Semantically Annotated Corpora
- Title(参考訳): 意味的注釈付きコーパスを用いた大規模計算構成文法の学習法
- Authors: Paul Van Eecke, Katrien Beuls,
- Abstract要約: 本稿では,言語用コーパスから大規模広包構成文法を学習する手法を提案する。
構成構造と意味的フレームを付加した発話から始まり、人間の解釈可能な計算構成文法の学習を容易にする。
結果として得られる文法は、Fluid Construction Grammarフレームワーク内で形式化された数万の構築のネットワークで構成されている。
- 参考スコア(独自算出の注目度): 1.6607152761363435
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a method for learning large-scale, broad-coverage construction grammars from corpora of language use. Starting from utterances annotated with constituency structure and semantic frames, the method facilitates the learning of human-interpretable computational construction grammars that capture the intricate relationship between syntactic structures and the semantic relations they express. The resulting grammars consist of networks of tens of thousands of constructions formalised within the Fluid Construction Grammar framework. Not only do these grammars support the frame-semantic analysis of open-domain text, they also house a trove of information about the syntactico-semantic usage patterns present in the data they were learnt from. The method and learnt grammars contribute to the scaling of usage-based, constructionist approaches to language, as they corroborate the scalability of a number of fundamental construction grammar conjectures while also providing a practical instrument for the constructionist study of English argument structure in broad-coverage corpora.
- Abstract(参考訳): 本稿では,言語用コーパスから大規模広包構成文法を学習する手法を提案する。
構成構造と意味的フレームを付加した発話から始め、構文構造とそれらが表現する意味的関係の複雑な関係を捉える人間の解釈可能な計算構成文法の学習を容易にする。
結果として得られる文法は、Fluid Construction Grammarフレームワーク内で形式化された数万の構築のネットワークで構成されている。
これらの文法はオープンドメインテキストのフレーム・セマンティック解析をサポートするだけでなく、学習したデータに含まれる構文・セマンティックな使用パターンに関する情報も格納している。
この方法と学習文法は、多くの基本構成文法予想のスケーラビリティを裏付けるとともに、広包コーパスにおける英語の引数構造の研究のための実践的な手段を提供するため、言語に対する使用法に基づく建設論的なアプローチのスケーリングに寄与する。
関連論文リスト
- CxMP: A Linguistic Minimal-Pair Benchmark for Evaluating Constructional Understanding in Language Models [12.52690104986201]
言語モデル(CxMP)の構成的理解を評価するための言語最小ペアベンチマーク(Linguistic Minimal-Pair Benchmark)を導入する。
CxMPは形式的なペアリングや構成を基本的な言語単位として扱う。
この結果から,構文的能力は早期に出現するが,構造的理解は徐々に発展し,大規模言語モデルにおいても限定的のままであることがわかった。
論文 参考訳(メタデータ) (2026-02-25T14:57:23Z) - StructLens: A Structural Lens for Language Models via Maximum Spanning Trees [52.040177523973334]
StructLensは、内部構造が全体構造とどのように関係しているかを明らかにするために設計された分析フレームワークである。
以上の結果から,StructLensは従来のコサイン類似性とは大きく異なる層間類似性パターンを呈することが明らかとなった。
論文 参考訳(メタデータ) (2026-02-10T11:30:32Z) - On the Emergence and Test-Time Use of Structural Information in Large Language Models [52.28603345019514]
本研究では,言語モデルが抽象構造を学習し,テスト時に学習した構造情報を利用する方法について検討する。
学習構造情報の出現は複雑な推論タスクと関連があることを実証的に示す。
論文 参考訳(メタデータ) (2026-01-25T15:02:25Z) - StructCoh: Structured Contrastive Learning for Context-Aware Text Semantic Matching [10.000850856259866]
StructCohはグラフ強化のコントラスト学習フレームワークである。
階層的な対照的な目的は、複数の粒度で一貫性を強制する。
3つの法的な文書マッチングベンチマークと学術的プラジャリズム検出データセットの実験は、大幅な改善を示している。
論文 参考訳(メタデータ) (2025-09-02T07:21:36Z) - Counting trees: A treebank-driven exploration of syntactic variation in speech and writing across languages [0.0]
我々は、構文構造をデレクシカルな依存(サブ)ツリーとして定義し、音声および記述されたユニバーサル依存ツリーバンクからそれらを抽出する。
各コーパスについて, 構文的在庫の大きさ, 多様性, 分布, その重なり合い, 音声の最も特徴的な構造を解析した。
その結果、どちらの言語でも、音声コーパスは、記述されたコーパスよりも、より多様で多様な構文構造を含まないことが明らかとなった。
論文 参考訳(メタデータ) (2025-05-28T18:43:26Z) - Detecting and explaining (in)equivalence of context-free grammars [0.6282171844772422]
文脈自由文法の同値性を決定し,証明し,説明するためのスケーラブルなフレームワークを提案する。
本稿では,本フレームワークの実装と,教育支援システム内で収集された大規模データセット上での評価を行う。
論文 参考訳(メタデータ) (2024-07-25T17:36:18Z) - Linear Spaces of Meanings: Compositional Structures in Vision-Language
Models [110.00434385712786]
事前学習された視覚言語モデル(VLM)からのデータ埋め込みにおける構成構造について検討する。
まず,幾何学的観点から構成構造を理解するための枠組みを提案する。
次に、これらの構造がVLM埋め込みの場合の確率論的に持つものを説明し、実際に発生する理由の直観を提供する。
論文 参考訳(メタデータ) (2023-02-28T08:11:56Z) - Benchmarking Language Models for Code Syntax Understanding [79.11525961219591]
事前学習された言語モデルは、自然言語処理とプログラム理解の両方において素晴らしい性能を示している。
本研究では,プログラムの構文構造を特定するための,最先端の事前訓練モデルの最初の徹底的なベンチマークを行う。
この結果から,既存のプログラミング言語の事前学習手法の限界が指摘され,構文構造をモデル化することの重要性が示唆された。
論文 参考訳(メタデータ) (2022-10-26T04:47:18Z) - Dependency Induction Through the Lens of Visual Perception [81.91502968815746]
本稿では,単語の具体性を利用した教師なし文法帰納モデルと,構成的視覚に基づく構成的文法を共同学習する手法を提案する。
実験により,提案した拡張は,文法的サイズが小さい場合でも,現在最先端の視覚的接地モデルよりも優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2021-09-20T18:40:37Z) - A Self-supervised Representation Learning of Sentence Structure for
Authorship Attribution [3.5991811164452923]
文の構造表現を学習するための自己教師型フレームワークを提案する。
本研究では,異なる探索タスクを用いて文の構造的表現を学習し,著者帰属タスクに活用する。
論文 参考訳(メタデータ) (2020-10-14T02:57:10Z) - Unsupervised Distillation of Syntactic Information from Contextualized
Word Representations [62.230491683411536]
我々は,ニューラルネットワーク表現における意味論と構造学の非教師なしの絡み合いの課題に取り組む。
この目的のために、構造的に類似しているが意味的に異なる文群を自動的に生成する。
我々は、我々の変換クラスタベクトルが、語彙的意味論ではなく構造的特性によって空間に現れることを実証する。
論文 参考訳(メタデータ) (2020-10-11T15:13:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。