論文の概要: Mastering Negation: Boosting Grounding Models via Grouped Opposition-Based Learning
- arxiv url: http://arxiv.org/abs/2603.12606v1
- Date: Fri, 13 Mar 2026 03:21:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-16 17:38:11.871777
- Title: Mastering Negation: Boosting Grounding Models via Grouped Opposition-Based Learning
- Title(参考訳): Mastering Negation: Grouped Opposition-based Learningによるグラウンドモデルの構築
- Authors: Zesheng Yang, Xi Jiang, Bingzhang Hu, Weili Guan, Runmin Cong, Guo-Jun Qi, Feng Zheng,
- Abstract要約: D-Negationは、ポジティブな意味記述とネガティブな意味記述の両方で注釈付けされたオブジェクトを提供する新しいデータセットである。
本稿では,限られたサンプルから否定認識表現を学習する,反抗型学習フレームワークを提案する。
モデルパラメータの10%未満を微調整することにより、正および負のセマンティック評価において最大4.4mAPおよび5.7mAPの改善が達成される。
- 参考スコア(独自算出の注目度): 87.15765427638195
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current vision-language detection and grounding models predominantly focus on prompts with positive semantics and often struggle to accurately interpret and ground complex expressions containing negative semantics. A key reason for this limitation is the lack of high-quality training data that explicitly captures discriminative negative samples and negation-aware language descriptions. To address this challenge, we introduce D-Negation, a new dataset that provides objects annotated with both positive and negative semantic descriptions. Building upon the observation that negation reasoning frequently appears in natural language, we further propose a grouped opposition-based learning framework that learns negation-aware representations from limited samples. Specifically, our method organizes opposing semantic descriptions from D-Negation into structured groups and formulates two complementary loss functions that encourage the model to reason about negation and semantic qualifiers. We integrate the proposed dataset and learning strategy into a state-of-the-art language-based grounding model. By fine-tuning fewer than 10 percent of the model parameters, our approach achieves improvements of up to 4.4 mAP and 5.7 mAP on positive and negative semantic evaluations, respectively. These results demonstrate that explicitly modeling negation semantics can substantially enhance the robustness and localization accuracy of vision-language grounding models.
- Abstract(参考訳): 現在の視覚言語検出と接地モデルは、主にポジティブな意味論を持つプロンプトに焦点を当て、しばしば否定的な意味論を含む複雑な表現を正確に解釈するのに苦労する。
この制限の主な理由は、差別的な否定的なサンプルと否定対応言語記述を明示的にキャプチャする高品質なトレーニングデータがないことである。
この課題に対処するために、我々はD-Negationという、ポジティブな意味記述とネガティブな意味記述の両方を付加したオブジェクトを提供する新しいデータセットを紹介します。
自然言語に否定推論が頻繁に現れるという観察に基づいて,限定されたサンプルから否定認識表現を学習するグループ化された反対型学習フレームワークを提案する。
具体的には、D-Negationからの対立する意味記述を構造化群に整理し、2つの相補的損失関数を定式化する。
提案したデータセットと学習戦略を,最先端の言語ベースグラウンドモデルに統合する。
モデルパラメータの10%未満を微調整することにより,正および負のセマンティック評価において,最大4.4mAPおよび5.7mAPの改善が達成される。
これらの結果は, 否定意味論を明示的にモデル化することで, 視覚言語基底モデルのロバスト性や局所化精度を大幅に向上させることができることを示した。
関連論文リスト
- LANE: Lexical Adversarial Negative Examples for Word Sense Disambiguation [3.506940838682547]
きめ細かい単語の意味論は、ニューラルネットワークモデルにとって依然として重要な課題である。
本稿では,この制限に対処するため,LANEと呼ばれる新たな対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2025-11-14T12:37:20Z) - Analyzing and Mitigating Negation Artifacts using Data Augmentation for Improving ELECTRA-Small Model Accuracy [0.0]
本研究では,スタンフォード大学の自然言語推論データセットを微調整したELECTRA小モデルの性能について検討する。
モデルは否定を含む例を正しく分類するのに苦労している。
これを解決するために、我々は、否定を強調するコントラストセットと敵例でトレーニングデータを増強する。
論文 参考訳(メタデータ) (2025-11-09T05:25:46Z) - A Comprehensive Taxonomy of Negation for NLP and Neural Retrievers [57.57320129313161]
我々は、哲学的、言語的、論理的定義から派生した否定の分類を導入した。
ニューラルネットワーク検索モデルの性能評価に使用できるベンチマークデータセットを2つ生成する。
本稿では,既存のデータセットの検索モデルの性能を解析するために,論理に基づく分類機構を提案する。
論文 参考訳(メタデータ) (2025-07-30T02:44:20Z) - Thunder-NUBench: A Benchmark for LLMs' Sentence-Level Negation Understanding [4.9301587184653295]
否定は、大規模な言語モデルに永続的な課題をもたらす基本的な言語現象である。
既存のベンチマークは、自然言語推論のような幅広いタスクにおいて、否定をサイドケースとして扱うことが多い。
本稿では,LLMにおける文レベルの否定的理解を評価するために設計された新しいベンチマークであるThunder-NUBenchを紹介する。
論文 参考訳(メタデータ) (2025-06-17T10:51:39Z) - Improving negation detection with negation-focused pre-training [58.32362243122714]
否定は共通の言語的特徴であり、多くの言語理解タスクにおいて不可欠である。
最近の研究で、最先端のNLPモデルは否定を含むサンプルで性能が低いことが示されている。
本稿では,データ拡張と否定マスキングを対象とする,否定に焦点をあてた新たな事前学習戦略を提案する。
論文 参考訳(メタデータ) (2022-05-09T02:41:11Z) - Understanding by Understanding Not: Modeling Negation in Language Models [81.21351681735973]
否定は自然言語の中核構造である。
本稿では,否定された総称文に基づく不一致目的を用いて,言語モデリング目標の強化を提案する。
否定されたLAMAデータセットの平均top1エラー率を4%に削減します。
論文 参考訳(メタデータ) (2021-05-07T21:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。