論文の概要: Introducing Verification Task of Set Consistency with Set-Consistency Energy Networks
- arxiv url: http://arxiv.org/abs/2503.10695v2
- Date: Wed, 19 Mar 2025 04:07:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-20 15:21:23.810539
- Title: Introducing Verification Task of Set Consistency with Set-Consistency Energy Networks
- Title(参考訳): 集合整合性エネルギーネットワークによる集合整合性検証タスクの導入
- Authors: Mooho Song, Hyeryung Son, Jay-Yoon Lee,
- Abstract要約: 自然言語推論の拡張である集合整合性検証(NLI)の課題について紹介する。
提案するSC-Energy(Set-Consistency Energy Network)は,コントラスト・ロス・フレームワークを用いて文集合間の互換性を学習する新しいモデルである。
我々のアプローチは、矛盾を効率的に検証し、論理的矛盾の原因となる特定の言明をピンポイントするだけでなく、既存の手法を著しく上回る。
- 参考スコア(独自算出の注目度): 4.545178162750511
- License:
- Abstract: Examining logical inconsistencies among multiple statements (such as collections of sentences or question-answer pairs) is a crucial challenge in machine learning, particularly for ensuring the safety and reliability of models. Traditional methods that rely on pairwise comparisons often fail to capture inconsistencies that only emerge when more than two statements are evaluated collectively. To address this gap, we introduce the task of set-consistency verification, an extension of natural language inference (NLI) that assesses the logical coherence of entire sets rather than isolated pairs. Building on this task, we present the Set-Consistency Energy Network (SC-Energy), a novel model that employs a contrastive loss framework to learn the compatibility among a collection of statements. Our approach not only efficiently verifies inconsistencies and pinpoints the specific statements responsible for logical contradictions, but also significantly outperforms existing methods including prompting-based LLM models. Furthermore, we release two new datasets: Set-LConVQA and Set-SNLI for set-consistency verification task.
- Abstract(参考訳): 複数の文(文の収集や質問と回答のペアなど)間の論理的矛盾を理解することは、特にモデルの安全性と信頼性を確保するために、機械学習において重要な課題である。
ペア比較に依存する従来の手法は、2つ以上のステートメントがまとめて評価された場合にのみ現れる不整合を捉えるのに失敗することが多い。
このギャップに対処するために,一対ではなく集合全体の論理的コヒーレンスを評価する自然言語推論(NLI)の拡張である集合整合性検証(set-consistency validation)の課題を導入する。
本課題に基づいて,文集合間の互換性を学習するために,対照的な損失フレームワークを用いた新しいモデルであるSet-Consistency Energy Network(SC-Energy)を提案する。
提案手法は, 論理矛盾の原因となる不整合を効率よく検証し, 特定文をピンポイントするだけでなく, プロンプトベースLLMモデルを含む既存手法よりも著しく優れている。
さらに,Set-LConVQAとSet-SNLIの2つの新しいデータセットをリリースする。
関連論文リスト
- Large Language Models Meet Symbolic Provers for Logical Reasoning Evaluation [24.081573908824353]
一階述語論理(FOL)推論はインテリジェントシステムにおいて重要である。
既存のベンチマークは、広範囲の人間のアノテーションや手作りテンプレートに依存していることが多い。
本稿では,大言語モデルの生成強度を記号型プローサの厳密性と精度で相乗化するProverGenという新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-10T15:31:54Z) - Aligning Large Language Models for Faithful Integrity Against Opposing Argument [71.33552795870544]
大規模言語モデル(LLM)は複雑な推論タスクにおいて印象的な機能を示している。
原文が正しい場合でも、会話中に不誠実な議論によって容易に誤解される。
本稿では,信頼度と信頼度を両立させる新しい枠組みを提案する。
論文 参考訳(メタデータ) (2025-01-02T16:38:21Z) - A Variable Occurrence-Centric Framework for Inconsistency Handling (Extended Version) [13.706331473063882]
本稿では,命題ベースにおける不整合の分析と処理を行うフレームワークを提案する。
最小整合関係(MIR)と最大整合関係(MCR)の2つの双対概念を提案する。
論文 参考訳(メタデータ) (2024-12-16T15:22:10Z) - Localizing Factual Inconsistencies in Attributable Text Generation [91.981439746404]
本稿では,帰属可能なテキスト生成における事実の不整合をローカライズするための新しい形式であるQASemConsistencyを紹介する。
まず,人間のアノテーションに対するQASemConsistency法の有効性を示す。
そこで我々は,局所的な事実の不整合を自動的に検出するいくつかの手法を実装した。
論文 参考訳(メタデータ) (2024-10-09T22:53:48Z) - Object-Centric Conformance Alignments with Synchronization (Extended Version) [57.76661079749309]
対象中心のペトリネットが一対多の関係を捉える能力と,その同一性に基づいたオブジェクトの比較と同期を行う識別子を持つペトリネットの能力を組み合わせた,新たな形式主義を提案する。
我々は、満足度変調理論(SMT)の符号化に基づく、そのようなネットに対する適合性チェック手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T21:53:32Z) - Two Failures of Self-Consistency in the Multi-Step Reasoning of LLMs [78.31625291513589]
自己整合性は、解が複数のサブステップに対する解からなるタスクにおいて、有効な多段階推論の重要な基準であると主張する。
仮説的整合性と構成的整合性という,多段階推論において特に重要である2種類の自己整合性を提案する。
GPT-3/4モデルの複数変種は,多種多様なタスクにおける両タイプの整合性に不整合性を示すことを示した。
論文 参考訳(メタデータ) (2023-05-23T17:25:59Z) - Towards Integration of Discriminability and Robustness for
Document-Level Relation Extraction [41.51148745387936]
ドキュメントレベルの関係抽出(DocRE)は、ドキュメント内の長距離コンテキスト依存推論に依存するエンティティペアの関係を予測する。
本研究では,DocRE問題に対する差別性とロバスト性の両方をよりよく統合することを目的としている。
エントロピーの最小化と教師付きコントラスト学習を革新的にカスタマイズする。
論文 参考訳(メタデータ) (2023-04-03T09:11:18Z) - Exposing and Addressing Cross-Task Inconsistency in Unified
Vision-Language Models [80.23791222509644]
一貫性のないAIモデルは、人間のユーザーによって不安定で信頼できないと見なされている。
最先端のビジョン言語モデルは、タスク間の驚くほど高い一貫性のない振る舞いに悩まされている。
本稿では,大規模で自動生成されるクロスタスクコントラスト集合上で計算されたランク相関に基づく補助訓練目標を提案する。
論文 参考訳(メタデータ) (2023-03-28T16:57:12Z) - Robust Learning Through Cross-Task Consistency [92.42534246652062]
クロスタスク整合性を用いた学習向上のための,広く適用可能な完全計算手法を提案する。
クロスタスク一貫性による学習は,より正確な予測と,アウト・オブ・ディストリビューション・インプットの一般化につながることを観察する。
論文 参考訳(メタデータ) (2020-06-07T09:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。