論文の概要: Atomic-SNLI: Fine-Grained Natural Language Inference through Atomic Fact Decomposition
- arxiv url: http://arxiv.org/abs/2601.06528v1
- Date: Sat, 10 Jan 2026 11:13:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.863853
- Title: Atomic-SNLI: Fine-Grained Natural Language Inference through Atomic Fact Decomposition
- Title(参考訳): Atomic-SNLI:Atomic Fact Decompositionによる微細粒度自然言語推論
- Authors: Minghui Huang,
- Abstract要約: 現在の自然言語推論システムは主に文レベルで動作している。
原子レベルのNLIは、仮説を個々の事実に分解することで、有望な代替手段を提供することを示す。
実験結果から、原子-SNLIを微調整したモデルが原子推理能力を大幅に向上することが確認された。
- 参考スコア(独自算出の注目度): 0.609170287691728
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current Natural Language Inference (NLI) systems primarily operate at the sentence level, providing black-box decisions that lack explanatory power. While atomic-level NLI offers a promising alternative by decomposing hypotheses into individual facts, we demonstrate that the conventional assumption that a hypothesis is entailed only when all its atomic facts are entailed fails in practice due to models' poor performance on fine-grained reasoning. Our analysis reveals that existing models perform substantially worse on atomic level inference compared to sentence level tasks. To address this limitation, we introduce Atomic-SNLI, a novel dataset constructed by decomposing SNLI and enriching it with carefully curated atomic level examples through linguistically informed generation strategies. Experimental results demonstrate that models fine-tuned on Atomic-SNLI achieve significant improvements in atomic reasoning capabilities while maintaining strong sentence level performance, enabling both accurate judgements and transparent, explainable results at the fact level.
- Abstract(参考訳): 現在の自然言語推論(NLI)システムは、主に文レベルで動作し、説明力に欠けるブラックボックス決定を提供する。
原子レベルのNLIは、仮説を個々の事実に分解することで、有望な代替手段を提供するが、従来の仮定では、仮説がすべての原子的な事実が関連する場合にのみ、その仮説が関連するという仮定は、詳細な推論においてモデルの性能が劣っているため、実際には失敗する。
分析の結果,既存のモデルでは文レベルのタスクに比べて原子レベルの推論が著しく低下していることが判明した。
この制限に対処するために,SNLIを分解し,言語的に情報を得た生成戦略を通じて,慎重にキュレートされた原子レベルの例で強化した新しいデータセットであるAtomic-SNLIを導入する。
実験結果から,アトミック・SNLIを微調整したモデルでは,高い文レベル性能を維持しつつ,原子推論能力の大幅な向上を実現し,精度の高い判断と,事実レベルでの透明で説明可能な結果の両立を可能にした。
関連論文リスト
- FactReasoner: A Probabilistic Approach to Long-Form Factuality Assessment for Large Language Models [59.171510592986735]
本稿では,確率論的推論に依拠した新たな事実性評価器FactReasonerを提案する。
ラベル付きおよびラベルなしのベンチマークデータセットの実験は、FactReasonerが最先端のプロンプトベースのアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2025-02-25T19:01:48Z) - NLI under the Microscope: What Atomic Hypothesis Decomposition Reveals [19.300202585383914]
従来のNLIと非実現可能なNLIという2つの自然言語推論タスクにおける仮説の原子分解を用いて、原子サブプロブレムを形成する。
これらの原子サブプロブレムは、NLIとデファシブル推論の両方の構造をより理解するためのツールとして機能する。
以上の結果から,LLMは原子性NLIと非実用性NLIサブプロブレムの論理的整合性に苦慮していることが示唆された。
論文 参考訳(メタデータ) (2025-02-12T02:54:12Z) - Enhancing adversarial robustness in Natural Language Inference using explanations [41.46494686136601]
自然言語推論(NLI)の未探索課題に注目点を当てた。
我々は、広範囲な実験を通じて、モデルに依存しない防衛戦略として、自然言語説明の使用を検証した。
本研究では,広範に使用されている言語生成指標と人間の知覚との相関について検討し,それらが堅牢なNLIモデルへのプロキシとして機能するようにした。
論文 参考訳(メタデータ) (2024-09-11T17:09:49Z) - Atomic Inference for NLI with Generated Facts as Atoms [26.320297488995262]
原子推論は解釈可能で忠実なモデル決定を提供する。
このアプローチでは、全体的な予測を導出するために解釈可能かつ決定論的ルールを使用する前に、インスタンスの異なるコンポーネント(または原子)の予測を行う。
本研究では, LLM生成した事実を原子として利用し, 自然言語推論の前提を事実のリストに分解する方法について検討する。
論文 参考訳(メタデータ) (2023-05-22T16:45:50Z) - Not another Negation Benchmark: The NaN-NLI Test Suite for Sub-clausal
Negation [59.307534363825816]
否定は現在の言語モデルでは不十分だが、この問題の範囲は広く理解されていない。
自然言語推論(NLI)テストスイートを導入し,NLP手法の能力を検証した。
論文 参考訳(メタデータ) (2022-10-06T23:39:01Z) - FOLIO: Natural Language Reasoning with First-Order Logic [147.50480350846726]
我々は、自然言語(NL)における推論のための人間注釈付き、論理的に複雑で多様なデータセットであるFOLIOを提示する。
FOLIOは1,430の例(一意の結論)で構成され、それぞれが487の前提のうちの1つと組み合わせて、それぞれの結論の妥当性を導出的に推論する。
NL推論とNL-FOL変換の両方において、複数の最先端言語モデルをベンチマークする。
論文 参考訳(メタデータ) (2022-09-02T06:50:11Z) - Does BERT really agree ? Fine-grained Analysis of Lexical Dependence on
a Syntactic Task [70.29624135819884]
目的の構文テンプレート上で,BERTが語彙非依存の主観値数アグリーメント(NA)を実行できる範囲について検討した。
名詞文では,単純なテンプレートに対してモデルがよく一般化されるが,1つのアトラクターが存在する場合,語彙非依存の構文一般化を行うことができないことが示唆された。
論文 参考訳(メタデータ) (2022-04-14T11:33:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。