論文の概要: Learning Constituent Headedness
- arxiv url: http://arxiv.org/abs/2603.14755v1
- Date: Mon, 16 Mar 2026 02:39:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:36.008068
- Title: Learning Constituent Headedness
- Title(参考訳): コンスティチュート・ヘッドネスの学習
- Authors: Zeyao Qi, Yige Chen, KyungTae Lim, Haihua Pan, Jungyeul Park,
- Abstract要約: 頭頂部は構文解析において組織化装置として広く用いられているが、選挙区のツリーバンクはそれを明示的に符号化することは滅多にない。
我々は、各構成元を依存関係スパンヘッドとして定義することにより、整列した構成元と依存性アノテーションに対する教師付き予測タスクとして学習し、監督を誘導する。
一致した英語と中国語のデータでは、結果のモデルは内在性に近い精度を達成し、コリンズ式規則に基づくパーコレーションを著しく上回る。
- 参考スコア(独自算出の注目度): 9.025809029628247
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Headedness is widely used as an organizing device in syntactic analysis, yet constituency treebanks rarely encode it explicitly and most processing pipelines recover it procedurally via percolation rules. We treat this notion of constituent headedness as an explicit representational layer and learn it as a supervised prediction task over aligned constituency and dependency annotations, inducing supervision by defining each constituent head as the dependency span head. On aligned English and Chinese data, the resulting models achieve near-ceiling intrinsic accuracy and substantially outperform Collins-style rule-based percolation. Predicted heads yield comparable parsing accuracy under head-driven binarization, consistent with the induced binary training targets being largely equivalent across head choices, while increasing the fidelity of deterministic constituency-to-dependency conversion and transferring across resources and languages under simple label-mapping interfaces.
- Abstract(参考訳): ヘッドネスは構文解析の組織化装置として広く用いられているが、選挙区のツリーバンクは明示的にそれを符号化することは滅多になく、ほとんどの処理パイプラインはパーコレーション規則によって手続き的にそれを復元する。
本稿では,この構成主元性の概念を明示的な表現層として扱うとともに,各構成主元を依存関係のスプレッドヘッドとして定義することにより,構成主元と依存性アノテーションの整合性に対する教師付き予測タスクとして学習する。
一致した英語と中国語のデータでは、結果のモデルは内在性に近い精度を達成し、コリンズ式規則に基づくパーコレーションを著しく上回る。
予測された頭部は、頭部駆動の双対化の下で同等のパーシング精度を示し、誘導された二進的訓練目標が頭部選択全体にわたってほぼ同値であるのに対して、決定論的選挙区間変換の忠実度を高め、単純なラベルマッピングインタフェースの下で資源や言語間で転送する。
関連論文リスト
- Confidence-Aware Neural Decoding of Overt Speech from EEG: Toward Robust Brain-Computer Interfaces [3.5174884177930448]
脳波から音声コマンドをデコードする非侵襲的な脳-コンピュータインターフェースは、正確かつ信頼できるものである必要がある。
本稿では,コンパクトで音声指向の畳み込みネットワークの深いアンサンブルと,ポストホックキャリブレーションと選択的分類を結合した信頼性を考慮した復号化フレームワークを提案する。
その結果,信頼性を意識したニューラルデコーディングは,実世界の脳-コンピュータインタフェース通信システムに対して,堅牢でデプロイメント指向の動作を提供する可能性が示唆された。
論文 参考訳(メタデータ) (2025-11-11T06:40:35Z) - Combining Textual and Structural Information for Premise Selection in Lean [0.0]
本稿では、リーン形式化の高密度テキスト埋め込みと、不均一依存グラフ上のグラフニューラルネットワークを組み合わせたグラフ拡張手法を提案する。
LeanDojo Benchmarkでは、標準の検索指標でReProver言語ベースのベースラインを25%以上上回ります。
論文 参考訳(メタデータ) (2025-10-24T14:24:13Z) - Bidirectional Logits Tree: Pursuing Granularity Reconcilement in Fine-Grained Classification [89.20477310885731]
本稿では,粒度分類タスクにおけるグラニュラリティコンペティションの課題について述べる。
既存のアプローチは通常、共通のベースエンコーダから抽出された共有特徴に基づいて、独立した階層認識モデルを開発する。
グラニュラリティ再構成のための双方向ロジットツリー(BiLT)と呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-17T10:42:19Z) - Picking the Underused Heads: A Network Pruning Perspective of Attention
Head Selection for Fusing Dialogue Coreference Information [50.41829484199252]
マルチヘッド自己アテンション機構を持つトランスフォーマーベースのモデルは自然言語処理で広く利用されている。
ネットワークプルーニングの観点から,特徴注入のためのアテンションヘッドの選択と操作戦略について検討する。
論文 参考訳(メタデータ) (2023-12-15T05:27:24Z) - Improving Self-training for Cross-lingual Named Entity Recognition with
Contrastive and Prototype Learning [80.08139343603956]
言語横断的な実体認識において、自己学習は言語的ギャップを埋めるために一般的に用いられる。
本研究では,表現学習と擬似ラベル改善を組み合わせることで,言語間NERの自己学習を改善することを目的とする。
提案手法,すなわちContProtoは主に,(1)コントラスト型自己学習と(2)プロトタイプベース擬似ラベルの2つのコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-05-23T02:52:16Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - It's All in the Heads: Using Attention Heads as a Baseline for
Cross-Lingual Transfer in Commonsense Reasoning [4.200736775540874]
我々は,重みを重み付けした線形分類器を特徴として訓練するコモンセンス推論への簡単なアプローチを設計する。
本手法は,近年のコモンセンス推論における教師なし・教師なしの手法と競合する。
パフォーマンスの大部分は、すべての研究対象言語に対する注目の小さなサブセットによって与えられる。
論文 参考訳(メタデータ) (2021-06-22T21:25:43Z) - Coordinate Constructions in English Enhanced Universal Dependencies:
Analysis and Computational Modeling [1.9950682531209154]
拡張ユニバーサル依存(UD)における座標構成の表現に対処する。
手動で編集した構文グラフの大規模なデータセットを作成する。
元のデータにおけるいくつかの系統的誤りを識別し、結合の伝播も提案する。
論文 参考訳(メタデータ) (2021-03-16T10:24:27Z) - Scope Head for Accurate Localization in Object Detection [135.9979405835606]
本研究では,各位置のアンカーを相互依存関係としてモデル化したScopeNetと呼ばれる新しい検出器を提案する。
我々の簡潔で効果的な設計により、提案したScopeNetはCOCOの最先端の成果を達成する。
論文 参考訳(メタデータ) (2020-05-11T04:00:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。