論文の概要: When Does Meaning Backfire? Investigating the Role of AMRs in NLI
- arxiv url: http://arxiv.org/abs/2506.14613v1
- Date: Tue, 17 Jun 2025 15:12:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-18 17:34:59.539285
- Title: When Does Meaning Backfire? Investigating the Role of AMRs in NLI
- Title(参考訳): バックファイアはいつ起こるか? NLIにおけるAMRの役割を探る
- Authors: Junghyun Min, Xiulin Yang, Shira Wein,
- Abstract要約: 自然言語推論(NLI)は前提と仮説の意味的内容を適切に解析することに大きく依存している。
抽象的意味表現(AMR)という形で意味情報を追加することで,事前学習した言語モデルをNLIでより一般化できるかどうかを検討する。
- 参考スコア(独自算出の注目度): 3.522950356329991
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Natural Language Inference (NLI) relies heavily on adequately parsing the semantic content of the premise and hypothesis. In this work, we investigate whether adding semantic information in the form of an Abstract Meaning Representation (AMR) helps pretrained language models better generalize in NLI. Our experiments integrating AMR into NLI in both fine-tuning and prompting settings show that the presence of AMR in fine-tuning hinders model generalization while prompting with AMR leads to slight gains in \texttt{GPT-4o}. However, an ablation study reveals that the improvement comes from amplifying surface-level differences rather than aiding semantic reasoning. This amplification can mislead models to predict non-entailment even when the core meaning is preserved.
- Abstract(参考訳): 自然言語推論(NLI)は前提と仮説の意味的内容を適切に解析することに大きく依存している。
本研究では,抽象的意味表現(AMR)という形で意味情報を追加することで,事前学習した言語モデルをNLIでより一般化できるかどうかを検討する。
AMR を NLI に組み込んだ実験により, 微調整Hinder モデルにおける AMR の存在が AMR の一般化を妨げつつも, AMR を推し進めることによって, texttt{GPT-4o} における若干の利得が得られた。
しかし、アブレーション研究により、この改善は意味論的推論を支援するのではなく、表面レベルの差異を増幅することに由来することが明らかとなった。
この増幅は、コアの意味が保存されている場合でも、非エンターメントを予測するためにモデルを誤解させる可能性がある。
関連論文リスト
- On Reference (In-)Determinacy in Natural Language Inference [62.904689974282334]
我々は、自然言語推論(NLI)タスクにおける基準決定性(RD)仮定を再考する。
我々は、現在のNLIモデルは、入力前提と仮説が異なるコンテキストを参照できる事実検証のような下流アプリケーションでは失敗するのを観察する。
NLI例における参照曖昧性を特定するための診断ベンチマークであるRefNLIを紹介する。
論文 参考訳(メタデータ) (2025-02-09T06:58:13Z) - AMR-RE: Abstract Meaning Representations for Retrieval-Based In-Context Learning in Relation Extraction [9.12646853282321]
関係抽出のためのAMR強化検索に基づくICL法を提案する。
本モデルでは,タスク入力とトレーニングサンプル間の意味的構造的類似性に基づいて,文脈内サンプルを検索する。
論文 参考訳(メタデータ) (2024-06-14T22:36:08Z) - Analyzing the Role of Semantic Representations in the Era of Large Language Models [104.18157036880287]
大規模言語モデル(LLM)の時代における意味表現の役割について検討する。
本稿では, AMRCoT と呼ばれる AMR-driven chain-of- Thought prompting 法を提案する。
AMRのどの入力例が役に立つかは予測できないが,複数単語の表現でエラーが発生する傾向にある。
論文 参考訳(メタデータ) (2024-05-02T17:32:59Z) - AMRFact: Enhancing Summarization Factuality Evaluation with AMR-Driven Negative Samples Generation [57.8363998797433]
抽象的意味表現(AMR)を用いた摂動要約を生成するフレームワークであるAMRFactを提案する。
提案手法は,AMRグラフに一貫した要約を解析し,制御された事実不整合を注入して負の例を生成し,一貫性のない事実不整合要約を高い誤差型カバレッジで生成する。
論文 参考訳(メタデータ) (2023-11-16T02:56:29Z) - "You Are An Expert Linguistic Annotator": Limits of LLMs as Analyzers of
Abstract Meaning Representation [60.863629647985526]
文意味構造の解析において, GPT-3, ChatGPT, および GPT-4 モデルの成功と限界について検討した。
モデルはAMRの基本形式を確実に再現でき、しばしばコアイベント、引数、修飾子構造をキャプチャできる。
全体としては,これらのモデルではセマンティック構造の側面を捉えることができるが,完全に正確なセマンティック解析や解析をサポートする能力には重要な制限が残されている。
論文 参考訳(メタデータ) (2023-10-26T21:47:59Z) - An AMR-based Link Prediction Approach for Document-level Event Argument
Extraction [51.77733454436013]
文書レベルのイベント調停抽出(文書レベルEAE)のための抽象的意味表現(AMR)を導入した最近の研究動向
本研究では,AEをAMRグラフ上のリンク予測問題として再検討する。
本稿では,より少ない情報量のサブグラフやエッジタイプを圧縮し,スパン情報を統合し,同じ文書内の事象をハイライトする新たなグラフ構造であるTalored AMR Graph(TAG)を提案する。
論文 参考訳(メタデータ) (2023-05-30T16:07:48Z) - ATP: AMRize Then Parse! Enhancing AMR Parsing with PseudoAMRs [34.55175412186001]
意味的あるいは形式的に関連付けられた補助タスクは、AMR解析をより強化する。
実証的な観点から,AMR解析を促進するための補助的タスクを含む原理的手法を提案する。
論文 参考訳(メタデータ) (2022-04-19T13:15:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。