論文の概要: From Disagreement to Understanding: The Case for Ambiguity Detection in NLI
- arxiv url: http://arxiv.org/abs/2507.15114v1
- Date: Sun, 20 Jul 2025 20:27:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 20:51:32.202229
- Title: From Disagreement to Understanding: The Case for Ambiguity Detection in NLI
- Title(参考訳): 診断から理解へ:NLIにおける曖昧性検出の事例
- Authors: Chathuri Jayaweera, Bonnie Dorr,
- Abstract要約: コンテンツに基づくあいまいさは、プロセスに依存しない人間の視点の信号を提供することを示す。
重要な制限は、あいまいさとサブタイプのための注釈付きデータセットがないことである。
本稿では、新しい注釈付きリソースとアンビグニティ検出のための教師なしアプローチにより、このギャップに対処することを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This position paper argues that annotation disagreement in Natural Language Inference (NLI) is not mere noise but often reflects meaningful interpretive variation, especially when triggered by ambiguity in the premise or hypothesis. While underspecified guidelines and annotator behavior can contribute to variation, content-based ambiguity offers a process-independent signal of divergent human perspectives. We call for a shift toward ambiguity-aware NLI by systematically identifying ambiguous input pairs and classifying ambiguity types. To support this, we present a unified framework that integrates existing taxonomies and illustrate key ambiguity subtypes through concrete examples. These examples reveal how ambiguity shapes annotator decisions and motivate the need for targeted detection methods that better align models with human interpretation. A key limitation is the lack of datasets annotated for ambiguity and subtypes. We propose addressing this gap through new annotated resources and unsupervised approaches to ambiguity detection -- paving the way for more robust, explainable, and human-aligned NLI systems.
- Abstract(参考訳): このポジションペーパーは、自然言語推論(NLI)におけるアノテーションの不一致は単なるノイズではなく、特に前提や仮説の曖昧さによって引き起こされる意味のある解釈の変動を反映している。
不特定ガイドラインやアノテーションの振る舞いは変化に寄与するが、コンテンツに基づくあいまいさは、異なる人間の視点のプロセス非依存のシグナルを提供する。
我々は、あいまいな入力ペアを体系的に識別し、あいまいさのタイプを分類することで、あいまいさを意識したNLIへのシフトを求める。
これを支援するために、既存の分類学を統合し、具体例を通して重要なあいまいさのサブタイプを説明する統一的なフレームワークを提案する。
これらの例は、曖昧さがアノテータの決定をどう形成し、モデルと人間の解釈をよりよく整合させるターゲット検出方法の必要性を動機付けていることを示している。
重要な制限は、あいまいさとサブタイプにアノテートされたデータセットの欠如である。
我々は、新たなアノテートリソースと、あいまいさ検出に対する教師なしアプローチを通じて、このギャップに対処することを提案する。
関連論文リスト
- Ambiguity-aware Point Cloud Segmentation by Adaptive Margin Contrastive Learning [65.94127546086156]
本稿では,ポイントクラウド上のセマンティックセマンティックセグメンテーションのための適応的マージン比較学習法を提案する。
まず,両立度推定フレームワークにコントラスト学習を組み込んだAMContrast3Dを設計する。
共同トレーニングの洞察に触発されて、並列にトレーニングされた2つのブランチとAMContrast3D++を統合することを提案する。
論文 参考訳(メタデータ) (2025-07-09T07:00:32Z) - Trick or Neat: Adversarial Ambiguity and Language Model Evaluation [42.62991342963119]
我々は,言語モデルのあいまいさに対する感度を,敵対的あいまいさデータセットを導入することによって評価する。
モデル表現で訓練された線形プローブは、曖昧さを高精度に復号できるのに対し、直接的プロンプトは曖昧さを確実に識別できないことを示す。
論文 参考訳(メタデータ) (2025-06-01T22:50:06Z) - Subjective Logic Encodings [20.458601113219697]
データパースペクティビズムは、アノテーション間の不一致を利用してモデルを学習しようとする。
主観論理SLEはアノテーションをアノテータの意見として明示的にエンコードする分類対象を構築するためのフレームワークである。
論文 参考訳(メタデータ) (2025-02-17T15:14:10Z) - Localizing Factual Inconsistencies in Attributable Text Generation [91.981439746404]
本稿では,帰属可能なテキスト生成における事実の不整合をローカライズするための新しい形式であるQASemConsistencyを紹介する。
まず,人間のアノテーションに対するQASemConsistency法の有効性を示す。
そこで我々は,局所的な事実の不整合を自動的に検出するいくつかの手法を実装した。
論文 参考訳(メタデータ) (2024-10-09T22:53:48Z) - Zero and Few-shot Semantic Parsing with Ambiguous Inputs [45.285508941560295]
私たちは、曖昧な自然言語を論理やコードといった形式的な表現に変換するためのフレームワーク、データセット、課題であるAmPを紹介します。
我々は,AmPを用いて,複数ショットのテキスト・ツー・コードシステムがあいまいさをどのように処理し,新しいメトリクスを3つ導入するかを検討する。
事前学習された大規模なモデルでは,意図的な指示を伴わずに,可能な意味の分布を把握できないことが判明した。
論文 参考訳(メタデータ) (2023-06-01T15:46:36Z) - We're Afraid Language Models Aren't Modeling Ambiguity [136.8068419824318]
あいまいさの管理は人間の言語理解の重要な部分です。
文中のあいまいさは,他の文との係り受け関係に与える影響によって特徴付けられる。
我々は,多ラベルNLIモデルが曖昧さによって誤解を招く野生の政治的主張にフラグを付けることができることを示す。
論文 参考訳(メタデータ) (2023-04-27T17:57:58Z) - Human-Guided Fair Classification for Natural Language Processing [9.652938946631735]
本稿では、教師なしスタイル転送とGPT-3のゼロショット機能を利用して、意味論的に類似した文を生成する方法を示す。
これらのペアの多くは、毒性分類の文脈における公正性に関する人間の直感と一致していることを確認した。
論文 参考訳(メタデータ) (2022-12-20T10:46:40Z) - A Latent-Variable Model for Intrinsic Probing [93.62808331764072]
固有プローブ構築のための新しい潜在変数定式化を提案する。
我々は、事前訓練された表現が言語間交互に絡み合ったモルフォシンタクスの概念を発達させる経験的証拠を見出した。
論文 参考訳(メタデータ) (2022-01-20T15:01:12Z) - Where and What? Examining Interpretable Disentangled Representations [96.32813624341833]
解釈可能なバリエーションの獲得は、長い間、絡み合い学習の目標の1つだった。
独立性の仮定と異なり、解釈性は教師なしの設定での絡み合いを促進するために使われることは滅多にない。
本論文では, 解釈対象と解釈対象の2つの質問について検討し, 離散表現の解釈可能性を検討する。
論文 参考訳(メタデータ) (2021-04-07T11:22:02Z) - Dive into Ambiguity: Latent Distribution Mining and Pairwise Uncertainty
Estimation for Facial Expression Recognition [59.52434325897716]
DMUE(DMUE)という,アノテーションのあいまいさを2つの視点から解決するソリューションを提案する。
前者に対しては,ラベル空間における潜伏分布をよりよく記述するために,補助的マルチブランチ学習フレームワークを導入する。
後者の場合、インスタンス間の意味的特徴のペアワイズ関係を完全に活用して、インスタンス空間のあいまいさの程度を推定する。
論文 参考訳(メタデータ) (2021-04-01T03:21:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。