論文の概要: Coupling Local Context and Global Semantic Prototypes via a Hierarchical Architecture for Rhetorical Roles Labeling
- arxiv url: http://arxiv.org/abs/2603.03856v1
- Date: Wed, 04 Mar 2026 09:05:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-05 21:29:15.243089
- Title: Coupling Local Context and Global Semantic Prototypes via a Hierarchical Architecture for Rhetorical Roles Labeling
- Title(参考訳): 階層アーキテクチャによる局所文脈とグローバルセマンティックプロトタイプの結合
- Authors: Anas Belfathi, Nicolas Hernandez, Laura Monceaux, Warren Bonnard, Mary Catherine Lavissiere, Christine Jacquin, Richard Dufour,
- Abstract要約: 修辞的役割ラベルリング(RRL)は、文書内の各文の機能的役割を特定する。
ローカルコンテキストとグローバル表現を統合する2つのプロトタイプベースの手法を提案する。
法、医学、科学的ベンチマークの実験は、強い基準線よりも一貫した改善を示している。
- 参考スコア(独自算出の注目度): 5.444158140267451
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Rhetorical Role Labeling (RRL) identifies the functional role of each sentence in a document, a key task for discourse understanding in domains such as law and medicine. While hierarchical models capture local dependencies effectively, they are limited in modeling global, corpus-level features. To address this limitation, we propose two prototype-based methods that integrate local context with global representations. Prototype-Based Regularization (PBR) learns soft prototypes through a distance-based auxiliary loss to structure the latent space, while Prototype-Conditioned Modulation (PCM) constructs corpus-level prototypes and injects them during training and inference. Given the scarcity of RRL resources, we introduce SCOTUS-Law, the first dataset of U.S. Supreme Court opinions annotated with rhetorical roles at three levels of granularity: category, rhetorical function, and step. Experiments on legal, medical, and scientific benchmarks show consistent improvements over strong baselines, with 4 Macro-F1 gains on low-frequency roles. We further analyze the implications in the era of Large Language Models and complement our findings with expert evaluation.
- Abstract(参考訳): 修辞的役割ラベルリング(Rhetorical Role Labeling、RRL)は、法律や医学などの領域における言論的理解の鍵となる文書における各文の機能的役割を識別する。
階層モデルは局所的な依存関係を効果的にキャプチャするが、グローバルなコーパスレベルの機能モデリングには制限がある。
この制限に対処するために、ローカルコンテキストとグローバル表現を統合する2つのプロトタイプベースの手法を提案する。
プロトタイプベース正規化(PBR)は距離ベース補助損失を通じてソフトプロトタイプを学習し、プロトタイプ・コンディションド・モジュレーション(PCM)はコーパスレベルのプロトタイプを構築し、トレーニングと推論中にそれらを注入する。
RRL資源の不足を踏まえ,米国最高裁判所における最初の意見データセットであるSCOTUS-Lawを紹介する。
法、医学、科学的ベンチマークの実験では、強いベースラインよりも一貫した改善が見られ、4つのマクロ-F1が低頻度の役割を担っている。
大規模言語モデルの時代における意味を更に分析し、専門家による評価でその知見を補完する。
関連論文リスト
- On Theoretically-Driven LLM Agents for Multi-Dimensional Discourse Analysis [0.0]
本稿では,この課題に明示的な理論的知識を取り入れることのメリットを定量化するために,比較マルチエージェントフレームワークを提案する。
我々は、注釈付き政治討論のデータセットを利用して、4つの異なる言い換え機能を含む新しい標準を確立する。
我々は,2つの並列LLMエージェントシステムの評価を行った。1つはRetrieval-Augmented Generation (RAG)による議論理論により強化され,もう1つはゼロショットベースラインである。
論文 参考訳(メタデータ) (2026-02-14T10:30:39Z) - Divide, Conquer and Unite: Hierarchical Style-Recalibrated Prototype Alignment for Federated Medical Image Segmentation [66.82598255715696]
フェデレートラーニング(Federated Learning)は、複数の医療機関がデータを共有することなく、グローバルなモデルをトレーニングすることを可能にする。
現在のアプローチは主に、重要なマルチレベルキューを見下ろす最終層機能に重点を置いている。
我々は,ドメイン不変のコンテキスト型プロトタイプアライメントを介して特徴表現ギャップをブリッジするFedBCSを提案する。
論文 参考訳(メタデータ) (2025-11-14T04:15:34Z) - Speech-DRAME: A Framework for Human-Aligned Benchmarks in Speech Role-Play [68.54773980519457]
Speech-DRAMEは3つのレベルで貢献する統合フレームワークである。
音声ロールプレイを評価するための、最初の包括的で再現可能な基盤を提供する。
論文 参考訳(メタデータ) (2025-11-03T06:12:40Z) - Beyond Chunking: Discourse-Aware Hierarchical Retrieval for Long Document Question Answering [51.7493726399073]
本稿では,長文質問応答を改善するための対話型階層型フレームワークを提案する。
このフレームワークには3つの重要な革新がある: 長文の専門的な談話解析、LLMに基づく談話関係ノードの拡張、構造誘導階層検索である。
論文 参考訳(メタデータ) (2025-05-26T14:45:12Z) - Multi-Scale Probabilistic Generation Theory: A Unified Information-Theoretic Framework for Hierarchical Structure in Large Language Models [1.0117553823134735]
大規模言語モデル(LLM)は目覚ましい能力を示すが、力学レベルでは理解されていない。
本稿では,マルチスケール確率生成理論(MSPGT)を紹介する。
MSPGTは、標準言語モデリングの目的が暗黙的にマルチスケール情報圧縮を最適化することを示唆している。
論文 参考訳(メタデータ) (2025-05-23T16:55:35Z) - LegalSeg: Unlocking the Structure of Indian Legal Judgments Through Rhetorical Role Classification [6.549338652948716]
7000以上の文書と140万の文で構成され、7つの修辞的な役割をラベル付けした、このタスクのための最大の注釈付きデータセットであるLegalSegを紹介します。
以上の結果から,より広義の文脈,構造的関係,逐次的な文情報を含むモデルが,文レベルの特徴にのみ依存するモデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2025-02-09T10:07:05Z) - HiCuLR: Hierarchical Curriculum Learning for Rhetorical Role Labeling of Legal Documents [1.2562034805037443]
HiCuLRは、レトリックロールラベリングのための階層的なカリキュラム学習フレームワークである。
外側層にレトリック・ロール・レベル・カリキュラム(RC)、内側層にドキュメント・レベル・カリキュラム(DC)の2つのカリキュラムをネストする。
論文 参考訳(メタデータ) (2024-09-27T11:28:01Z) - Do Language Models Learn about Legal Entity Types during Pretraining? [4.604003661048267]
Llama2は特定のエンティティでよく機能し、最適化されたプロンプトテンプレートで大幅に改善する可能性を示す。
Llama2は、BERTベースのアーキテクチャでは欠点の少ない構文的ヒントをしばしば見落としているように見える。
論文 参考訳(メタデータ) (2023-10-19T18:47:21Z) - Disco-Bench: A Discourse-Aware Evaluation Benchmark for Language
Modelling [70.23876429382969]
本研究では,多種多様なNLPタスクに対して,文内談話特性を評価できるベンチマークを提案する。
ディスコ・ベンチは文学領域における9つの文書レベルのテストセットから構成されており、豊富な談話現象を含んでいる。
また,言語分析のために,対象モデルが談話知識を学習するかどうかを検証できる診断テストスイートを設計する。
論文 参考訳(メタデータ) (2023-07-16T15:18:25Z) - Global and Local Hierarchy-aware Contrastive Framework for Implicit
Discourse Relation Recognition [8.143877598684528]
暗黙的談話関係認識(IDRR)は談話分析において難しい課題である。
近年の手法では、感覚の階層的情報全体を談話関係表現に統合する傾向にある。
本稿では,2種類の階層をモデル化する新しいGlObal and Local Hierarchy-aware Contrastive Framework(GOLF)を提案する。
論文 参考訳(メタデータ) (2022-11-25T03:19:03Z) - A Multi-level Supervised Contrastive Learning Framework for Low-Resource
Natural Language Inference [54.678516076366506]
自然言語推論(NLI)は、自然言語理解において、ますます重要な課題である。
本稿では,低リソースな自然言語推論のためのマルチSCLという,マルチレベルの教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-31T05:54:18Z) - UnifieR: A Unified Retriever for Large-Scale Retrieval [84.61239936314597]
大規模な検索は、クエリを与えられた巨大なコレクションから関連ドキュメントをリコールすることである。
事前学習型言語モデル(PLM)に基づく最近の検索手法は,高密度ベクターあるいはレキシコンに基づくパラダイムに大別することができる。
本論文では,高密度ベクトルとレキシコンに基づく検索を2つの表現能力を持つ1つのモデルで統合する学習フレームワークUnifieRを提案する。
論文 参考訳(メタデータ) (2022-05-23T11:01:59Z) - Self-supervised Answer Retrieval on Clinical Notes [68.87777592015402]
本稿では,ドメイン固有パスマッチングのためのトランスフォーマー言語モデルをトレーニングするためのルールベースのセルフスーパービジョンであるCAPRを紹介する。
目的をトランスフォーマーベースの4つのアーキテクチャ、コンテキスト文書ベクトル、ビ-、ポリエンコーダ、クロスエンコーダに適用する。
本稿では,ドメイン固有パスの検索において,CAPRが強いベースラインを上回り,ルールベースおよび人間ラベル付きパスを効果的に一般化することを示す。
論文 参考訳(メタデータ) (2021-08-02T10:42:52Z) - BURT: BERT-inspired Universal Representation from Learning Meaningful
Segment [46.51685959045527]
この研究は普遍的な表現学習、すなわち一様ベクトル空間における言語単位の異なるレベルへの埋め込みを導入し、探求する。
我々は、異なるレベルの言語単位を同じベクトル空間に符号化する普遍表現モデルburtを提案する。
具体的には,ポイントワイズ相互情報(pmi)に基づいて有意義なセグメントを抽出・マスキングし,異なる粒度目標を事前学習段階に組み込む。
論文 参考訳(メタデータ) (2020-12-28T16:02:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。