論文の概要: Filling the Gap: Is Commonsense Knowledge Generation useful for Natural Language Inference?
- arxiv url: http://arxiv.org/abs/2507.15100v1
- Date: Sun, 20 Jul 2025 19:42:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 20:51:32.195448
- Title: Filling the Gap: Is Commonsense Knowledge Generation useful for Natural Language Inference?
- Title(参考訳): ギャップを埋める:Commonsense Knowledge Generationは自然言語推論に役立つか?
- Authors: Chathuri Jayaweera, Brianna Yanqui, Bonnie Dorr,
- Abstract要約: 自然言語推論(英: Natural Language Inference, NLI)とは、ある仮説に対する前提の意味的含意を決定するタスクである。
既存のコモンセンスリソースは、様々な前提-仮説のペアに対して十分なカバレッジを欠いている。
本研究は,2つの重要な次元に沿ったNLIのためのコモンセンス・ナレッジ・ジェネレータとして,大規模言語モデルの可能性について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Natural Language Inference (NLI) is the task of determining the semantic entailment of a premise for a given hypothesis. The task aims to develop systems that emulate natural human inferential processes where commonsense knowledge plays a major role. However, existing commonsense resources lack sufficient coverage for a variety of premise-hypothesis pairs. This study explores the potential of Large Language Models as commonsense knowledge generators for NLI along two key dimensions: their reliability in generating such knowledge and the impact of that knowledge on prediction accuracy. We adapt and modify existing metrics to assess LLM factuality and consistency in generating in this context. While explicitly incorporating commonsense knowledge does not consistently improve overall results, it effectively helps distinguish entailing instances and moderately improves distinguishing contradictory and neutral inferences.
- Abstract(参考訳): 自然言語推論(英: Natural Language Inference, NLI)とは、ある仮説に対する前提の意味的含意を決定するタスクである。
この課題は、コモンセンス知識が重要な役割を果たす自然人の推論過程をエミュレートするシステムを開発することを目的としている。
しかし、既存のコモンセンスリソースは、様々な前提-仮説のペアに対して十分なカバレッジを欠いている。
本研究では,NLIのコモンセンス・ナレッジ・ジェネレータとしての大規模言語モデルの可能性について,そのような知識の生成における信頼性と,その知識が予測精度に与える影響について検討する。
この文脈におけるLCMの事実性と一貫性を評価するために、既存のメトリクスを適応し、修正する。
コモンセンスの知識を明示的に組み込むことは、全体的な結果を一貫して改善するわけではないが、それは、インスタンスを識別し、矛盾する推論と中立的な推論の区別を適度に改善するのに役立つ。
関連論文リスト
- LExT: Towards Evaluating Trustworthiness of Natural Language Explanations [10.77745803401336]
本稿では,自然言語の説明の信頼性を定量化し,妥当性と信条のバランスをとる枠組みを提案する。
パブリックな医療データセットを用いて、ドメインに依存しないフレームワークを医療領域に適用し、6つのモデルを評価する。
以上の結果から,信頼に値する説明を生み出す能力に有意な差異が認められた。
論文 参考訳(メタデータ) (2025-04-08T17:16:52Z) - What Really is Commonsense Knowledge? [58.5342212738895]
我々は、既存のコモンセンス知識の定義を調査し、概念を定義するための3つのフレームワークに基礎を置き、それらをコモンセンス知識の統一的な定義に統合する。
次に、アノテーションと実験のための統合された定義をCommonsenseQAとCommonsenseQA 2.0データセットで使用します。
本研究は,2つのデータセットには非常識知識のインスタンスが多数存在し,これら2つのサブセットに対して大きな性能差があることを示す。
論文 参考訳(メタデータ) (2024-11-06T14:54:19Z) - Trustworthy Alignment of Retrieval-Augmented Large Language Models via Reinforcement Learning [84.94709351266557]
検索強化に関して,言語モデルの信頼性に焦点をあてる。
検索強化言語モデルには,文脈的知識とパラメトリック的知識の両方に応じて応答を供給できる本質的な能力があると考えられる。
言語モデルと人間の嗜好の整合性に着想を得て,検索強化言語モデルを外部証拠にのみ依存する状況に整合させるための第一歩を踏み出した。
論文 参考訳(メタデータ) (2024-10-22T09:25:21Z) - Beyond Factuality: A Comprehensive Evaluation of Large Language Models
as Knowledge Generators [78.63553017938911]
大規模言語モデル(LLM)は、下流の知識集約タスクのための情報検索技術より優れている。
しかし、コミュニティの懸念は、この無検閲の知識を使用することの事実と潜在的意味について多岐にわたる。
本研究では,6つの重要な視点から生成した知識を評価するために設計されたCONNERを紹介する。
論文 参考訳(メタデータ) (2023-10-11T08:22:37Z) - Uncertainty in Natural Language Generation: From Theory to Applications [42.55924708592451]
我々は,不確実性に対する原則的対応が,これらの目標に適合するシステムや評価プロトコルの作成に有効であると主張している。
まず,不確実性を表現するために必要な基本理論,枠組み,語彙について述べる。
そこで,本研究では,一般的なアレタリック/エピステミック二分法よりも情報的かつ忠実な2次元分類法を提案する。
論文 参考訳(メタデータ) (2023-07-28T17:51:21Z) - Commonsense Knowledge Transfer for Pre-trained Language Models [83.01121484432801]
ニューラルコモンセンス知識モデルに格納されたコモンセンス知識を汎用的な事前学習言語モデルに転送するフレームワークであるコモンセンス知識伝達を導入する。
まず、一般的なテキストを利用して、ニューラルコモンセンス知識モデルからコモンセンス知識を抽出するクエリを形成する。
次に、コモンセンスマスクの埋め込みとコモンセンスの関係予測という2つの自己教師対象で言語モデルを洗練する。
論文 参考訳(メタデータ) (2023-06-04T15:44:51Z) - Simple Linguistic Inferences of Large Language Models (LLMs): Blind Spots and Blinds [59.71218039095155]
我々は,ほとんどの人間が自明に感じる単純な推論タスクにおいて,言語理解能力を評価する。
我々は, (i) 文法的に特定された含意, (ii) 不確実性のある明らかな副詞を持つ前提, (iii) 単調性含意を目標とする。
モデルはこれらの評価セットに対して中程度から低い性能を示す。
論文 参考訳(メタデータ) (2023-05-24T06:41:09Z) - Context-faithful Prompting for Large Language Models [51.194410884263135]
大言語モデル(LLM)は世界事実に関するパラメトリック知識を符号化する。
パラメトリック知識への依存は、文脈的手がかりを見落とし、文脈に敏感なNLPタスクにおいて誤った予測をもたらす可能性がある。
我々は, LLMの文脈的忠実度を, 知識の衝突と, 棄権による予測の2つの側面で評価し, 向上する。
論文 参考訳(メタデータ) (2023-03-20T17:54:58Z) - Generated Knowledge Prompting for Commonsense Reasoning [53.88983683513114]
本稿では,汎用的なプロンプト形式を用いて,言語モデルから直接知識文を生成することを提案する。
このアプローチは、4つのコモンセンス推論タスクにおいて、既製の言語モデルと微調整された言語モデルの両方のパフォーマンスを向上させる。
特に、モデルが生成した知識を使用することで、予測が改善できることが分かる。
論文 参考訳(メタデータ) (2021-10-15T21:58:03Z) - Revisiting the Uniform Information Density Hypothesis [44.277066511088634]
読み出し時間と受理可能性データを用いて,一様情報密度(UID)仮説について検討する。
受理性判定では,情報密度の非均一性が受理性低下の予測であることを示す。
論文 参考訳(メタデータ) (2021-09-23T20:41:47Z) - Does External Knowledge Help Explainable Natural Language Inference?
Automatic Evaluation vs. Human Ratings [35.2513653224183]
自然言語推論(NLI)は、常識知識を学習し応用するためのモデルを必要とする。
外部知識が説明能力を向上させることができるかどうかを考察する。
我々はこれまでで最大かつ最もきめ細かいNLIクラウドソーシング研究を行っている。
論文 参考訳(メタデータ) (2021-09-16T09:56:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。