論文の概要: GUMBridge: a Corpus for Varieties of Bridging Anaphora
- arxiv url: http://arxiv.org/abs/2512.07134v1
- Date: Mon, 08 Dec 2025 03:39:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.699336
- Title: GUMBridge: a Corpus for Varieties of Bridging Anaphora
- Title(参考訳): GUMBridge:ブリジング・アナフォラの多種多様なコーパス
- Authors: Lauren Levine, Amir Zeldes,
- Abstract要約: ブリッジング(英: Bridging)とは、談話における実体の参照が、解釈のための以前の非同一の実体に依存するアナフォリック現象である。
GUMBridgeは、英語の16のジャンルを含む、ブリッジのための新しいリソースである。
- 参考スコア(独自算出の注目度): 7.643616721986612
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bridging is an anaphoric phenomenon where the referent of an entity in a discourse is dependent on a previous, non-identical entity for interpretation, such as in "There is 'a house'. 'The door' is red," where the door is specifically understood to be the door of the aforementioned house. While there are several existing resources in English for bridging anaphora, most are small, provide limited coverage of the phenomenon, and/or provide limited genre coverage. In this paper, we introduce GUMBridge, a new resource for bridging, which includes 16 diverse genres of English, providing both broad coverage for the phenomenon and granular annotations for the subtype categorization of bridging varieties. We also present an evaluation of annotation quality and report on baseline performance using open and closed source contemporary LLMs on three tasks underlying our data, showing that bridging resolution and subtype classification remain difficult NLP tasks in the age of LLMs.
- Abstract(参考訳): ブリッジング(英: Bridging)とは、談話中の実体の参照者が、前述の家のドアと明確に理解されている「家がある」「ドアが赤い」など、それまでの非同一の実体に依存して解釈を行うアナフォリック現象である。
アナフォラをブリッジするための既存の資源はいくつかあるが、そのほとんどは小さく、この現象のカバー範囲が限られており、またジャンルのカバー範囲も限られている。
本稿では,この現象の広範な範囲と,ブリッジング品種のサブタイプ分類のための粒度アノテーションを提供する,ブリッジングのための新たなリソースであるGUMBridgeを紹介する。
また,我々のデータに基づく3つのタスクに対して,オープンおよびクローズドソースのLCMを用いて,アノテーションの品質評価とベースライン性能の報告を行い,LCMの時代において,ブリッジ解像度とサブタイプ分類が困難なNLPタスクのままであることを示す。
関連論文リスト
- COLE: a Comprehensive Benchmark for French Language Understanding Evaluation [0.0]
COLEは、幅広いNLU機能をカバーする23の多様なタスクからなる新しいベンチマークである。
我々は94の大規模言語モデル (LLM) をベンチマークし、フランスのNLUの現状を広範囲に分析した。
論文 参考訳(メタデータ) (2025-10-06T17:26:41Z) - When Alignment Hurts: Decoupling Representational Spaces in Multilingual Models [33.2971850129622]
本稿では,大言語モデルの内部表現幾何学を解析し,直接介入することによって,この現象の包括的因果的研究を行う。
我々の重要な貢献は、微調整中に標準品種のサブスペースを継続的に推定するオンライン変分探索フレームワークである。
25の方言にまたがって、我々の介入は、通常の微調整と比較して、平均で+4.9 chrF++と+2.0で生成品質を向上させる。
論文 参考訳(メタデータ) (2025-08-18T10:34:08Z) - Modern Uyghur Dependency Treebank (MUDT): An Integrated Morphosyntactic Framework for a Low-Resource Language [0.0]
本研究では、既存のツリーバンクの制限を克服するために設計された依存性アノテーションフレームワークを紹介する。
現代のUyghur Dependency Treebank (MUDT)はより正確でセマンティックに透過的な表現を提供する。
論文 参考訳(メタデータ) (2025-07-29T07:02:04Z) - Disambiguation in Conversational Question Answering in the Era of LLMs and Agents: A Survey [54.90240495777929]
自然言語処理(NLP)におけるあいまいさは依然として根本的な課題である
LLM(Large Language Models)の出現により、あいまいさに対処することがさらに重要になった。
本稿では,言語駆動システムにおけるあいまいさの定義,形態,含意について考察する。
論文 参考訳(メタデータ) (2025-05-18T20:53:41Z) - When Backdoors Speak: Understanding LLM Backdoor Attacks Through Model-Generated Explanations [58.27927090394458]
大規模言語モデル(LLM)は、バックドア攻撃に弱いことが知られている。
本稿では,自然言語説明の新しいレンズによるバックドア攻撃について検討する。
以上の結果から,バックドアモデルではクリーンな入力に対してコヒーレントな説明が得られたが,有毒なデータに対して多様かつ論理的に欠陥のある説明が得られた。
論文 参考訳(メタデータ) (2024-11-19T18:11:36Z) - Unifying the Scope of Bridging Anaphora Types in English: Bridging Annotations in ARRAU and GUM [10.942182034424714]
我々は,GUM,GENTLE,ARRAUコーパスに注釈付けされたブリッジインスタンスについて,ガイドラインと解釈可能な予測モデルを用いて比較を行った。
我々は,GUM,GENTLE,ARRAU Wall Street Journalの各テストセットの調和したサブカテゴリ化バージョンを公開し,ドメイン間のブリッジ解像度の有意義で信頼性の高い評価を促進する。
論文 参考訳(メタデータ) (2024-10-02T01:56:28Z) - Analyzing the Role of Semantic Representations in the Era of Large Language Models [104.18157036880287]
大規模言語モデル(LLM)の時代における意味表現の役割について検討する。
本稿では, AMRCoT と呼ばれる AMR-driven chain-of- Thought prompting 法を提案する。
AMRのどの入力例が役に立つかは予測できないが,複数単語の表現でエラーが発生する傾向にある。
論文 参考訳(メタデータ) (2024-05-02T17:32:59Z) - Unveiling Linguistic Regions in Large Language Models [49.298360366468934]
大規模言語モデル (LLM) は言語間アライメントと一般化能力を示す。
本稿では,LLMの言語能力に関するいくつかの調査を行う。
論文 参考訳(メタデータ) (2024-02-22T16:56:13Z) - Large Language Models on Lexical Semantic Change Detection: An
Evaluation [0.8158530638728501]
Lexical Semantic Change Detectionは、Large Language Models(LLM)が広く関与していない数少ない領域の1つである。
本研究は,3世代にわたる言語モデルにまたがる,新しいプロンプトソリューションと包括的評価を提示する。
論文 参考訳(メタデータ) (2023-12-10T21:26:35Z) - SIGTYP 2020 Shared Task: Prediction of Typological Features [78.95376120154083]
タイポロジーKBが広く採用されるのを妨げる大きな欠点は、人口が少ないことである。
類型的特徴は相互に相関することが多いため、それらを予測し、自動的に類型的KBを投入することができる。
全体として、このタスクは5つのチームから8つの応募を惹きつけた。
論文 参考訳(メタデータ) (2020-10-16T08:47:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。