論文の概要: Structure-Aware Decoding Mechanisms for Complex Entity Extraction with Large-Scale Language Models
- arxiv url: http://arxiv.org/abs/2512.13980v1
- Date: Tue, 16 Dec 2025 00:40:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 16:49:26.531458
- Title: Structure-Aware Decoding Mechanisms for Complex Entity Extraction with Large-Scale Language Models
- Title(参考訳): 大規模言語モデルを用いた複雑なエンティティ抽出のための構造認識復号機構
- Authors: Zhimin Qiu, Di Wu, Feng Liu, Chenrui Hu, Yuxiao Wang,
- Abstract要約: 本稿では,大規模言語モデルに基づく構造認識復号法を提案する。
ネストおよび重複するエンティティ抽出タスクにおいて、意味的整合性と構造的整合性の両方を維持することの難しさに対処する。
ACE 2005データセットで実施された実験では、精度、精度、リコール、F1-Scoreが大幅に改善された。
- 参考スコア(独自算出の注目度): 8.15127799301814
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a structure-aware decoding method based on large language models to address the difficulty of traditional approaches in maintaining both semantic integrity and structural consistency in nested and overlapping entity extraction tasks. The method introduces a candidate span generation mechanism and structured attention modeling to achieve unified modeling of entity boundaries, hierarchical relationships, and cross-dependencies. The model first uses a pretrained language model to obtain context-aware semantic representations, then captures multi-granular entity span features through candidate representation combinations, and introduces hierarchical structural constraints during decoding to ensure consistency between semantics and structure. To enhance stability in complex scenarios, the model jointly optimizes classification loss and structural consistency loss, maintaining high recognition accuracy under multi-entity co-occurrence and long-sentence dependency conditions. Experiments conducted on the ACE 2005 dataset demonstrate significant improvements in Accuracy, Precision, Recall, and F1-Score, particularly in nested and overlapping entity recognition, where the model shows stronger boundary localization and structural modeling capability. This study verifies the effectiveness of structure-aware decoding in complex semantic extraction tasks, provides a new perspective for developing language models with hierarchical understanding, and establishes a methodological foundation for high-precision information extraction.
- Abstract(参考訳): 本稿では,大規模言語モデルに基づく構造認識復号法を提案し,ネストおよび重複するエンティティ抽出タスクにおける意味的整合性と構造的整合性の両方を維持する上で,従来のアプローチの難しさに対処する。
本手法では,エンティティ境界,階層的関係,相互依存性の統一モデリングを実現するために,候補スパン生成機構と構造化アテンションモデリングを導入する。
モデルはまず、事前訓練された言語モデルを使用して、文脈認識のセマンティック表現を取得し、次に、候補表現の組み合わせによって特徴を網羅する多言語エンティティをキャプチャし、デコーディング中に階層構造的制約を導入し、セマンティックスと構造間の一貫性を確保する。
複雑なシナリオの安定性を高めるため、モデルでは分類損失と構造的整合性損失を共同で最適化し、多元性共起および長文依存性条件下で高い認識精度を維持する。
ACE 2005データセットで行った実験では、精度、精度、リコール、F1-Scoreの大幅な改善が示されている。
本研究では,複雑な意味抽出作業における構造認識復号化の有効性を検証するとともに,階層的理解を伴う言語モデル構築のための新たな視点を提供し,高精度情報抽出のための方法論的基盤を確立する。
関連論文リスト
- Multi-Scale Feature Fusion and Graph Neural Network Integration for Text Classification with Large Language Models [11.071281023081582]
本研究では、大規模言語モデルからの深い特徴抽出、特徴ピラミッドによるマルチスケール融合、複雑な意味文脈における性能向上のためのグラフニューラルネットワークによる構造化モデリングを統合するテキスト分類のハイブリッド手法について検討する。
提案手法は, ACC, F1-Score, AUC, Precisionの既存モデルよりも優れたロバスト性アライメント実験において, 有効性と安定性を検証した。
論文 参考訳(メタデータ) (2025-11-07T22:54:26Z) - CoT Referring: Improving Referring Expression Tasks with Grounded Reasoning [67.18702329644526]
CoT Referringは、構造化されたチェーン・オブ・シークレット・トレーニングデータ構造を通じて、モデル推論をモダリティにわたって強化する。
トレーニングデータを再構築して、新たな出力フォームを実行し、既存のデータセットに新たなアノテーションを提供します。
また、検出とセグメント化機能を統合MLLMフレームワークに統合し、新しい適応重み付き損失で学習して性能を最適化する。
論文 参考訳(メタデータ) (2025-10-03T08:50:21Z) - Hierarchical Contextual Manifold Alignment for Structuring Latent Representations in Large Language Models [7.798982346197703]
潜在トークン表現の組織化は、言語モデルの安定性、一般化、文脈整合性を決定する上で重要な役割を果たす。
コアモデル重みを変化させることなくトークン埋め込みに階層的アライメント手法を導入した。
実験により, 希少なトークン検索, 逆方向, 長距離依存性追跡の改善が示された。
論文 参考訳(メタデータ) (2025-02-06T04:01:27Z) - Neural Contextual Reinforcement Framework for Logical Structure Language Generation [1.08272575635683]
このフレームワークはカスタム報酬関数と動的コンテキストアライメント機構を統合している。
論理構造やセマンティックフローに対する人間の期待と密接に一致した出力を生成する。
さまざまなモデルサイズにわたるノイズの多い入力データとスケーラビリティを扱う上で、堅牢性を示す。
論文 参考訳(メタデータ) (2025-01-20T11:34:28Z) - Physics of Language Models: Part 1, Learning Hierarchical Language Structures [51.68385617116854]
トランスフォーマーベースの言語モデルは効率的だが複雑であり、内部の動作や推論メカニズムを理解することは大きな課題である。
本稿では,長文を生成可能な階層規則を生成する合成CFGのファミリーを紹介する。
我々は、GPTのような生成モデルがCFG定義階層を正確に学習し、推論し、それに基づいて文を生成することを実証する。
論文 参考訳(メタデータ) (2023-05-23T04:28:16Z) - Autoregressive Structured Prediction with Language Models [73.11519625765301]
本稿では, PLM を用いた自己回帰的手法を用いて, モデル構造を行動列として記述する。
我々のアプローチは、私たちが見てきた全ての構造化予測タスクにおいて、新しい最先端を実現する。
論文 参考訳(メタデータ) (2022-10-26T13:27:26Z) - Model Criticism for Long-Form Text Generation [113.13900836015122]
我々は,テキストの高レベル構造を評価するために,潜在空間におけるモデル批判という統計ツールを適用した。
我々は,コヒーレンス,コア,トピックスという,ハイレベルな談話の3つの代表的な側面について実験を行った。
トランスフォーマーベースの言語モデルでは、トピック構造をキャプチャできるが、構造コヒーレンスやモデリングコアスを維持するのが難しくなる。
論文 参考訳(メタデータ) (2022-10-16T04:35:58Z) - TAGPRIME: A Unified Framework for Relational Structure Extraction [71.88926365652034]
TAGPRIMEは、与えられた条件に関する情報を入力テキストに追加するシーケンスタグ付けモデルである。
事前学習された言語モデルにおける自己認識機構により、プライミングワードは、出力された文脈化された表現に、与えられた条件に関するより多くの情報を含む。
5つの異なる言語にまたがる10のデータセットをカバーする3つのタスクに関する大規模な実験と分析は、TAGPRIMEの汎用性と有効性を示している。
論文 参考訳(メタデータ) (2022-05-25T08:57:46Z) - DeepStruct: Pretraining of Language Models for Structure Prediction [64.84144849119554]
テキストから構造を生成するために,タスクに依存しないコーパスの集合上で言語モデルを事前訓練する。
我々の構造事前学習は、モデルが構造タスクについて持っている学習知識のゼロショット転送を可能にする。
10Bパラメータ言語モデルがほとんどのタスクに非自明に転送し、28のデータセットのうち21の最先端のパフォーマンスを得ることを示す。
論文 参考訳(メタデータ) (2022-05-21T00:58:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。