論文の概要: Effective QA-driven Annotation of Predicate-Argument Relations Across Languages
- arxiv url: http://arxiv.org/abs/2602.22865v1
- Date: Thu, 26 Feb 2026 11:01:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.653611
- Title: Effective QA-driven Annotation of Predicate-Argument Relations Across Languages
- Title(参考訳): 言語間の述語・代名詞関係の効果的なQA型アノテーション
- Authors: Jonathan Davidov, Aviv Slobodkin, Shmuel Tomi Klein, Reut Tsarfaty, Ido Dagan, Ayal Klein,
- Abstract要約: 質問応答型セマンティックロールラベル(QA-SRL)フレームワークを,意味論の自然言語インタフェースとして活用する。
QA-SRLを意味論のための伝達可能な自然言語インタフェースとして活用することにより、我々のアプローチは言語間の効率よく広くアクセス可能な述語構文解析を可能にする。
- 参考スコア(独自算出の注目度): 26.446330105514168
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explicit representations of predicate-argument relations form the basis of interpretable semantic analysis, supporting reasoning, generation, and evaluation. However, attaining such semantic structures requires costly annotation efforts and has remained largely confined to English. We leverage the Question-Answer driven Semantic Role Labeling (QA-SRL) framework -- a natural-language formulation of predicate-argument relations -- as the foundation for extending semantic annotation to new languages. To this end, we introduce a cross-linguistic projection approach that reuses an English QA-SRL parser within a constrained translation and word-alignment pipeline to automatically generate question-answer annotations aligned with target-language predicates. Applied to Hebrew, Russian, and French -- spanning diverse language families -- the method yields high-quality training data and fine-tuned, language-specific parsers that outperform strong multilingual LLM baselines (GPT-4o, LLaMA-Maverick). By leveraging QA-SRL as a transferable natural-language interface for semantics, our approach enables efficient and broadly accessible predicate-argument parsing across languages.
- Abstract(参考訳): 述語-代名詞関係の明示的表現は、解釈可能な意味分析の基礎を形成し、推論、生成、評価をサポートする。
しかし、そのような意味構造を達成するには高価な注釈の努力が必要であり、英語に限られている。
質問応答型セマンティックロールラベリング(QA-SRL)フレームワーク(述語-代名詞関係の自然言語による定式化)を,意味論を新しい言語に拡張するための基盤として活用する。
この目的のために、制約付き翻訳と単語調整パイプライン内で英語のQA-SRLパーサを再利用し、ターゲット言語述語と整合した質問応答アノテーションを自動的に生成する言語間プロジェクション手法を提案する。
ヘブライ語、ロシア語、フランス語(多言語にまたがる)に適用すると、高品質なトレーニングデータと、強力な多言語LLMベースライン(GPT-4o, LLaMA-Maverick)を上回る、微調整された言語固有のパーサーが得られる。
QA-SRLを意味論のための伝達可能な自然言語インタフェースとして活用することにより、我々のアプローチは言語間の効率よく広くアクセス可能な述語構文解析を可能にする。
関連論文リスト
- Predicate-Argument Structure Divergences in Chinese and English Parallel Sentences and their Impact on Language Transfer [6.834698677197089]
言語間自然言語処理は、低リソース環境で実用的なソリューションを提供する。
言語の違いは、特に類型的には遠い言語の間で、言語移動を妨げる。
本稿では、中国語と英語の同時文における述語句構造の分析について述べる。
論文 参考訳(メタデータ) (2025-11-12T22:55:29Z) - AdaMCoT: Rethinking Cross-Lingual Factual Reasoning through Adaptive Multilingual Chain-of-Thought [40.16140566668239]
AdaMCOTは多言語の事実推論を強化するフレームワークである。
AdaMCOTは、ターゲット言語応答を生成する前に、中間言語における思考プロセスを動的にルーティングする。
本評価は, 事実推論品質と言語間整合性の両方において, 大幅な改善を示すものである。
論文 参考訳(メタデータ) (2025-01-27T15:48:57Z) - Soft Language Clustering for Multilingual Model Pre-training [57.18058739931463]
本稿では,インスタンスを条件付きで符号化するためのフレキシブルガイダンスとして,コンテキスト的にプロンプトを検索するXLM-Pを提案する。
我々のXLM-Pは、(1)言語間における言語不変および言語固有知識の軽量なモデリングを可能にし、(2)他の多言語事前学習手法との容易な統合を可能にする。
論文 参考訳(メタデータ) (2023-06-13T08:08:08Z) - Cross-lingual QA: A Key to Unlocking In-context Cross-lingual Performance [2.371686365695081]
クロスランガルQAは、質問と回答の部分のみを翻訳し、翻訳コストを削減できる言語間プロンプト手法である。
4つのタイプ的多言語ベンチマークの実験により、クロスランガルQAはモデルに効果的に刺激を与え、クロスランガルの知識を引き出すことを示した。
本研究は,言語間実例を用いたオープンソースMLLMの高速化により,モデルスケールの増大に伴い,性能が向上することを示す。
論文 参考訳(メタデータ) (2023-05-24T15:14:49Z) - Prompting Language Models for Linguistic Structure [73.11488464916668]
本稿では,言語構造予測タスクに対する構造化プロンプト手法を提案する。
提案手法は, 音声タグ付け, 名前付きエンティティ認識, 文チャンキングについて評価する。
PLMはタスクラベルの事前知識を事前学習コーパスに漏えいすることで有意な事前知識を含むが、構造化プロンプトは任意のラベルで言語構造を復元することも可能である。
論文 参考訳(メタデータ) (2022-11-15T01:13:39Z) - Infusing Finetuning with Semantic Dependencies [62.37697048781823]
シンタックスとは異なり、セマンティクスは今日の事前訓練モデルによって表面化されないことを示す。
次に、畳み込みグラフエンコーダを使用して、タスク固有の微調整にセマンティック解析を明示的に組み込む。
論文 参考訳(メタデータ) (2020-12-10T01:27:24Z) - VECO: Variable and Flexible Cross-lingual Pre-training for Language
Understanding and Generation [77.82373082024934]
我々はTransformerエンコーダにクロスアテンションモジュールを挿入し、言語間の相互依存を明確に構築する。
独自の言語でコンテキストにのみ条件付けされたマスク付き単語の予測の退化を効果的に回避することができる。
提案した言語間モデルでは,XTREMEベンチマークのさまざまな言語間理解タスクに対して,最先端の新たな結果が提供される。
論文 参考訳(メタデータ) (2020-10-30T03:41:38Z) - On the Importance of Word Order Information in Cross-lingual Sequence
Labeling [80.65425412067464]
ソース言語の単語順に適合する言語間モデルでは、ターゲット言語を処理できない可能性がある。
本研究では,ソース言語の単語順序に敏感なモデルを作成することで,対象言語の適応性能が向上するかどうかを検討する。
論文 参考訳(メタデータ) (2020-01-30T03:35:44Z) - Robust Cross-lingual Embeddings from Parallel Sentences [65.85468628136927]
本稿では,文整合コーパスを利用して頑健な言語間単語表現を実現するCBOW手法のバイリンガル拡張を提案する。
提案手法は,他のすべての手法と比較して,言語間文検索性能を著しく向上させる。
また、ゼロショットのクロスランガル文書分類タスクにおいて、ディープRNN法と同等性を実現する。
論文 参考訳(メタデータ) (2019-12-28T16:18:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。