論文の概要: A Straightforward Pipeline for Targeted Entailment and Contradiction Detection
- arxiv url: http://arxiv.org/abs/2508.17127v1
- Date: Sat, 23 Aug 2025 19:59:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.353507
- Title: A Straightforward Pipeline for Targeted Entailment and Contradiction Detection
- Title(参考訳): 対象範囲とコントラクション検出のための直線方向パイプライン
- Authors: Antonin Sulc,
- Abstract要約: 主要な課題は、どの文が特定のクレームの前提または矛盾として機能するかを特定することである。
対象分析のための両手法の強みを組み合わせた手法を提案する。
本手法は,NLIが同定した関係を注目度スコアとフィルタリングすることにより,テキスト中の任意のクレームに対する最も重要なセマンティックな関係を効率的に抽出する。
- 参考スコア(独自算出の注目度): 0.15229257192293197
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Finding the relationships between sentences in a document is crucial for tasks like fact-checking, argument mining, and text summarization. A key challenge is to identify which sentences act as premises or contradictions for a specific claim. Existing methods often face a trade-off: transformer attention mechanisms can identify salient textual connections but lack explicit semantic labels, while Natural Language Inference (NLI) models can classify relationships between sentence pairs but operate independently of contextual saliency. In this work, we introduce a method that combines the strengths of both approaches for a targeted analysis. Our pipeline first identifies candidate sentences that are contextually relevant to a user-selected target sentence by aggregating token-level attention scores. It then uses a pretrained NLI model to classify each candidate as a premise (entailment) or contradiction. By filtering NLI-identified relationships with attention-based saliency scores, our method efficiently isolates the most significant semantic relationships for any given claim in a text.
- Abstract(参考訳): 文書内の文間の関係を見つけることは、事実チェック、引数マイニング、テキスト要約といったタスクに不可欠である。
重要な課題は、どの文が特定のクレームの前提または矛盾として機能するかを特定することである。
トランスフォーマーのアテンションメカニズムは、健全なテキスト接続を識別できるが、明示的なセマンティックラベルを欠いている一方、自然言語推論(NLI)モデルは文ペア間の関係を分類できるが、文脈のサリエンシとは独立して操作することができる。
本研究では,対象分析のための両手法の強みを組み合わせた手法を提案する。
我々のパイプラインはまず,トークンレベルの注目スコアを集約することにより,ユーザの選択したターゲット文に文脈的に関連のある候補文を特定する。
次に、事前訓練されたNLIモデルを使用して、各候補を前提(絞り)または矛盾として分類する。
本手法は,NLIが同定した関係を注目度スコアとフィルタリングすることにより,テキスト中の任意のクレームに対する最も重要なセマンティックな関係を効率的に抽出する。
関連論文リスト
- Verified Language Processing with Hybrid Explainability: A Technical Report [0.7066382982173529]
この問題に対処するために,ハイブリッドな説明責任を設計した新しいパイプラインを提案する。
我々の手法はグラフと論理を組み合わせて一階述語論理表現を生成し、モンタギュー文法を通して機械的・人間的可読表現を生成する。
予備的な結果は,本手法が全文類似性を捉える上での有効性を示している。
論文 参考訳(メタデータ) (2025-07-07T14:00:05Z) - Explicating the Implicit: Argument Detection Beyond Sentence Boundaries [24.728886446551577]
本稿では,文境界を越えた意味的関係を捉えるために,文内包による議論検出の問題を再検討する。
本手法は直接監視を必要としないが,データセット不足のため一般的には欠落している。
近年の文書レベルのベンチマークでは、教師付き手法や現代言語モデルよりも優れています。
論文 参考訳(メタデータ) (2024-08-08T06:18:24Z) - Explaining Interactions Between Text Spans [50.70253702800355]
入力の異なる部分からのトークンのスパンに対する推論は、自然言語理解に不可欠である。
NLUタスク2つのタスク(NLIとFC)に対する人間間相互作用の説明データセットであるSpanExを紹介する。
次に,複数の微調整された大言語モデルの決定過程を,スパン間の相互接続の観点から検討する。
論文 参考訳(メタデータ) (2023-10-20T13:52:37Z) - PropSegmEnt: A Large-Scale Corpus for Proposition-Level Segmentation and
Entailment Recognition [63.51569687229681]
文中の各命題の文的含意関係を個別に認識する必要性について論じる。
提案するPropSegmEntは45K以上の提案のコーパスであり, 専門家によるアノテートを行う。
我々のデータセット構造は、(1)文書内の文章を命題の集合に分割し、(2)異なるが、トポジカルに整合した文書に対して、各命題の含意関係を分類するタスクに類似している。
論文 参考訳(メタデータ) (2022-12-21T04:03:33Z) - Relational Sentence Embedding for Flexible Semantic Matching [86.21393054423355]
文埋め込みの可能性を明らかにするための新しいパラダイムとして,文埋め込み(Sentence Embedding, RSE)を提案する。
RSEは文関係のモデル化に有効で柔軟性があり、一連の最先端の埋め込み手法より優れている。
論文 参考訳(メタデータ) (2022-12-17T05:25:17Z) - Textual Entailment Recognition with Semantic Features from Empirical
Text Representation [60.31047947815282]
テキストが仮説を包含するのは、仮説の真の価値がテキストに従う場合に限る。
本稿では,テキストと仮説のテキストの包含関係を同定する新しい手法を提案する。
本手法では,テキスト・ハイブリッド・ペア間の意味的含意関係を識別できる要素ワイド・マンハッタン距離ベクトルベースの特徴を用いる。
論文 参考訳(メタデータ) (2022-10-18T10:03:51Z) - A Survey of Implicit Discourse Relation Recognition [9.57170901247685]
暗黙的談話関係認識(IDRR)は、暗黙的関係を検出し、接続性のない2つのテキストセグメント間でその感覚を分類することである。
この記事では、IDRRタスクに関する包括的で最新の調査を提供する。
論文 参考訳(メタデータ) (2022-03-06T15:12:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。