論文の概要: Grounded Misunderstandings in Asymmetric Dialogue: A Perspectivist Annotation Scheme for MapTask
- arxiv url: http://arxiv.org/abs/2511.03718v1
- Date: Wed, 05 Nov 2025 18:52:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 18:19:32.523463
- Title: Grounded Misunderstandings in Asymmetric Dialogue: A Perspectivist Annotation Scheme for MapTask
- Title(参考訳): 非対称対話における基底的誤解:MapTaskのパースペクティビストアノテーションスキーム
- Authors: Nan Li, Albert Gatt, Massimo Poesio,
- Abstract要約: 協調的対話は参加者が共通基盤を段階的に確立することに依存しているが、非対称な環境では、異なる実体を参照しながら同意すると信じているかもしれない。
本稿では,HCRC MapTaskコーパスに対するパースペクティビストアノテーション方式を提案する。
13kの注釈付き参照式を信頼度推定で取得し,その結果の理解状態を解析する。
- 参考スコア(独自算出の注目度): 8.925029287648345
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Collaborative dialogue relies on participants incrementally establishing common ground, yet in asymmetric settings they may believe they agree while referring to different entities. We introduce a perspectivist annotation scheme for the HCRC MapTask corpus (Anderson et al., 1991) that separately captures speaker and addressee grounded interpretations for each reference expression, enabling us to trace how understanding emerges, diverges, and repairs over time. Using a scheme-constrained LLM annotation pipeline, we obtain 13k annotated reference expressions with reliability estimates and analyze the resulting understanding states. The results show that full misunderstandings are rare once lexical variants are unified, but multiplicity discrepancies systematically induce divergences, revealing how apparent grounding can mask referential misalignment. Our framework provides both a resource and an analytic lens for studying grounded misunderstanding and for evaluating (V)LLMs' capacity to model perspective-dependent grounding in collaborative dialogue.
- Abstract(参考訳): 協調的対話は参加者が共通基盤を段階的に確立することに依存しているが、非対称な環境では、異なる実体を参照しながら同意すると信じているかもしれない。
HCRC MapTask corpus (Anderson et al , 1991) のパースペクティビストアノテーションスキームを導入し,各参照表現に対する話者とアドレナライズされた解釈を別々に把握し,理解の出現,分岐,修復の経過を追跡できるようにする。
スキーム制約付きLLMアノテーションパイプラインを用いて,信頼度を推定した13kの注釈付き参照式を取得し,その結果の理解状態を解析する。
その結果、語彙的変異が統一されると完全な誤解は稀であるが、多重性の相違は系統的に相違を誘導し、明らかな接地が参照的不一致をマスクする方法を明らかにした。
筆者らのフレームワークは,接地誤解を学習するための資源と分析レンズの両方を提供し,協調対話における視点依存の接地をモデル化するための(V)LLMsの能力を評価する。
関連論文リスト
- Towards Temporal Knowledge-Base Creation for Fine-Grained Opinion Analysis with Language Models [3.954853544590893]
本稿では,大規模言語モデル(LLM)を自動アノテータとして,時間的意見知識ベースを構築するためのスケーラブルな手法を提案する。
我々は、感情と意見マイニングの文献に基づく3つのデータモデルを定義し、構造化された表現のスキーマとして機能する。
得られた知識ベースは、タイムアラインで構造化された意見をカプセル化し、検索・拡張生成(RAG)、時間的質問応答、タイムライン要約のアプリケーションと互換性がある。
論文 参考訳(メタデータ) (2025-09-02T14:24:25Z) - From Disagreement to Understanding: The Case for Ambiguity Detection in NLI [3.5164356851161984]
このポジションペーパーでは、自然言語推論(NLI)におけるアノテーションの不一致は単なるノイズではなく、しばしば意味のある変化を反映していると主張している。
まず、あいまいな入力ペアを識別し、それらの型を分類し、次に推論に進む、あいまいさを意識したNLIへのシフトを呼びます。
論文 参考訳(メタデータ) (2025-07-20T20:27:35Z) - Estimating Commonsense Plausibility through Semantic Shifts [66.06254418551737]
セマンティックシフトを測定することでコモンセンスの妥当性を定量化する新しい識別フレームワークであるComPaSSを提案する。
2種類の細粒度コモンセンス可視性評価タスクの評価は,ComPaSSが一貫してベースラインを上回っていることを示している。
論文 参考訳(メタデータ) (2025-02-19T06:31:06Z) - Is LLM an Overconfident Judge? Unveiling the Capabilities of LLMs in Detecting Offensive Language with Annotation Disagreement [22.992484902761994]
本研究では,攻撃言語検出における多言語モデル(LLM)の性能を系統的に評価する。
本研究では,二項分類の精度を分析し,モデル信頼度と人的不一致度の関係を検証し,不一致サンプルがモデル決定にどう影響するかを考察する。
論文 参考訳(メタデータ) (2025-02-10T07:14:26Z) - Localizing Factual Inconsistencies in Attributable Text Generation [74.11403803488643]
本稿では,帰属可能なテキスト生成における事実の不整合をローカライズするための新しい形式であるQASemConsistencyを紹介する。
QASemConsistencyは、人間の判断とよく相関する事実整合性スコアを得られることを示す。
論文 参考訳(メタデータ) (2024-10-09T22:53:48Z) - Counterfactuals of Counterfactuals: a back-translation-inspired approach
to analyse counterfactual editors [3.4253416336476246]
我々は、反事実的、対照的な説明の分析に焦点をあてる。
本稿では,新しい逆翻訳に基づく評価手法を提案する。
本研究では, 予測モデルと説明モデルの両方の振る舞いについて, 反事実を反復的に説明者に与えることで, 価値ある洞察を得ることができることを示す。
論文 参考訳(メタデータ) (2023-05-26T16:04:28Z) - SWING: Balancing Coverage and Faithfulness for Dialogue Summarization [67.76393867114923]
本稿では,自然言語推論(NLI)モデルを用いて,事実の不整合を回避し,カバレッジを向上させることを提案する。
我々は、NLIを用いて詳細なトレーニング信号を計算し、モデルがカバーされていない参照サマリーのコンテンツを生成することを奨励する。
DialogSumおよびSAMSumデータセットの実験により,提案手法の有効性が確認された。
論文 参考訳(メタデータ) (2023-01-25T09:33:11Z) - Dive into Ambiguity: Latent Distribution Mining and Pairwise Uncertainty
Estimation for Facial Expression Recognition [59.52434325897716]
DMUE(DMUE)という,アノテーションのあいまいさを2つの視点から解決するソリューションを提案する。
前者に対しては,ラベル空間における潜伏分布をよりよく記述するために,補助的マルチブランチ学習フレームワークを導入する。
後者の場合、インスタンス間の意味的特徴のペアワイズ関係を完全に活用して、インスタンス空間のあいまいさの程度を推定する。
論文 参考訳(メタデータ) (2021-04-01T03:21:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。