論文の概要: Incongruence Identification in Eyewitness Testimony
- arxiv url: http://arxiv.org/abs/2502.05650v1
- Date: Sat, 08 Feb 2025 17:51:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:33:00.113485
- Title: Incongruence Identification in Eyewitness Testimony
- Title(参考訳): 目撃証言における一致同定
- Authors: Akshara Nair, Zeba Afroz, Md Shad Akhtar,
- Abstract要約: 目撃談話における一致検出は証言の信頼性を理解する上で重要である。
目撃証言における不一致検出の新たな課題について紹介する。
- 参考スコア(独自算出の注目度): 14.203576096093888
- License:
- Abstract: Incongruence detection in eyewitness narratives is critical for understanding the reliability of testimonies, yet traditional approaches often fail to address the nuanced inconsistencies inherent in such accounts. In this paper, we introduce a novel task of incongruence detection in eyewitness testimonies. Given a pair of testimonies containing of multiple pairs of question and answer by two subjects, we identify contextually related incongruence between the two subjects. We also mark the span of incongruences in the utterances. To achieve this, we developed MIND(MultI-EyewitNess Deception) - a comprehensive dataset consisting of 2927 pairs of contextually related answers designed to capture both explicit and implicit contradictions. INstruction - TunEd iNcongruity Detection framework based on 6W and multi-hop reasoning approach, aka. INTEND. Drawing from investigative techniques, INTEND address the task as a close-style problem, contradicting on the who, what, when, where and why aspect of the content. Our findings shows that prompt tuning, especially when utilizing our framework, enhances the detection of incongruences by a margin of +5.63 percent. We compare our approach with multiple fine-tuning and prompt tuning techniques on MLMs and LLMs. Emperical results demonstrate convincing performance improvement in F1-score over fine-tuned and regular prompt-tuning techniques, highlighting the effectiveness of our approach.
- Abstract(参考訳): 目撃談話の一致検出は証言の信頼性を理解するために重要であるが、伝統的なアプローチはそのような記述に固有のニュアンスな矛盾に対処できないことが多い。
本稿では,目撃証言における不一致検出の新たな課題について紹介する。
2つの被験者による複数の質問と回答のペアを含む証言が与えられた場合、2つの被験者間の文脈的関連性の不一致を識別する。
発話における不一致の幅も示します。
そこで我々は,MIND (MultI-EyewitNess Deception) を開発した。
Instruction - TunEd iNcongruity Detection framework based on 6W and multi-hop reasoning approach, aka。
遠近両用。
調査手法から引用すると、INTENDはタスクを密接なスタイルの問題として扱い、誰が、いつ、どこで、なぜコンテンツの側面に矛盾する。
以上の結果から,迅速なチューニング,特に我々のフレームワークを利用する場合には,+5.63パーセントの差で不一致の検出が促進されることがわかった。
我々は,MLM および LLM 上での複数の微調整および即時チューニング手法との比較を行った。
実験結果から,F1スコアの高精細化,高精細化,高精細化,高精細化,高精細化,高精細化,高精細化,高精細化,高精細化,高精細化を実現した。
関連論文リスト
- Towards Faithful Chain-of-Thought: Large Language Models are Bridging Reasoners [19.40385041079461]
大きな言語モデル(LLM)は、深刻な不信の連鎖(CoT)問題に悩まされる。
まず、CoTステップの粒度におけるCoT忠実度問題について検討し、2つの推論パラダイムを特定した。
次に、推論中の文脈、CoT、回答の因果関係を共同で分析する。
論文 参考訳(メタデータ) (2024-05-29T09:17:46Z) - Inconsistent dialogue responses and how to recover from them [45.933921383946576]
チャットシステムにとって重要な問題のひとつは、自分自身の好み、意見、信念、事実に一貫性を維持することだ。
本研究では,チャットシステムの発話整合性を評価する手法について検討する。
論文 参考訳(メタデータ) (2024-01-18T19:46:04Z) - Token-Level Adversarial Prompt Detection Based on Perplexity Measures
and Contextual Information [67.78183175605761]
大規模言語モデルは、敵の迅速な攻撃に影響を受けやすい。
この脆弱性は、LLMの堅牢性と信頼性に関する重要な懸念を浮き彫りにしている。
トークンレベルで敵のプロンプトを検出するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-20T03:17:21Z) - Cross-Attention is Not Enough: Incongruity-Aware Dynamic Hierarchical
Fusion for Multimodal Affect Recognition [69.32305810128994]
モダリティ間の同調性は、特に認知に影響を及ぼすマルチモーダル融合の課題となる。
本稿では,動的モダリティゲーティング(HCT-DMG)を用いた階層型クロスモーダルトランスを提案する。
HCT-DMG: 1) 従来のマルチモーダルモデルを約0.8Mパラメータで上回り、2) 不整合が認識に影響を及ぼすハードサンプルを認識し、3) 潜在レベルの非整合性をクロスモーダルアテンションで緩和する。
論文 参考訳(メタデータ) (2023-05-23T01:24:15Z) - Context-faithful Prompting for Large Language Models [51.194410884263135]
大言語モデル(LLM)は世界事実に関するパラメトリック知識を符号化する。
パラメトリック知識への依存は、文脈的手がかりを見落とし、文脈に敏感なNLPタスクにおいて誤った予測をもたらす可能性がある。
我々は, LLMの文脈的忠実度を, 知識の衝突と, 棄権による予測の2つの側面で評価し, 向上する。
論文 参考訳(メタデータ) (2023-03-20T17:54:58Z) - Consistency Analysis of ChatGPT [65.268245109828]
本稿では,ChatGPTとGPT-4の論理的一貫した行動に対する信頼性について検討する。
その結果,両モデルとも言語理解能力と推論能力が向上しているように見えるが,論理的に一貫した予測が得られないことが示唆された。
論文 参考訳(メタデータ) (2023-03-11T01:19:01Z) - Beyond Model Interpretability: On the Faithfulness and Adversarial
Robustness of Contrastive Textual Explanations [2.543865489517869]
本研究は、説明の忠実さに触発された新たな評価手法の基盤を築き、テキストの反事実を動機づけるものである。
感情分析データを用いた実験では, 両モデルとも, 対物関係の関連性は明らかでないことがわかった。
論文 参考訳(メタデータ) (2022-10-17T09:50:02Z) - PROMPT WAYWARDNESS: The Curious Case of Discretized Interpretation of
Continuous Prompts [99.03864962014431]
目標タスクの微調整連続プロンプトは、フルモデルの微調整に代わるコンパクトな代替品として登場した。
実際には、連続的なプロンプトによって解決されたタスクと、最も近い隣人との間の「方向」の挙動を観察する。
論文 参考訳(メタデータ) (2021-12-15T18:55:05Z) - ADC: Adversarial attacks against object Detection that evade Context
consistency checks [55.8459119462263]
文脈整合性チェックさえも、適切に構築された敵の例に対して脆弱であることを示す。
このような防御を覆す実例を生成するための適応型フレームワークを提案する。
我々の結果は、コンテキストを堅牢にモデル化し、一貫性をチェックする方法はまだ未解決の問題であることを示している。
論文 参考訳(メタデータ) (2021-10-24T00:25:09Z) - Don't be Contradicted with Anything! CI-ToD: Towards Benchmarking
Consistency for Task-oriented Dialogue System [24.227068548489385]
本稿では,タスク指向領域において,一貫性問題はより緊急である,と論じる。
本研究では,タスク指向ダイアログシステムにおける一貫性同定のための新しいデータセットであるCI-ToDを紹介する。
実験の結果、最先端の手法は51.3%しか達成していないことが示され、これは93.2%の人間のパフォーマンスよりもはるかに遅れている。
論文 参考訳(メタデータ) (2021-09-23T10:56:31Z) - A Pairwise Probe for Understanding BERT Fine-Tuning on Machine Reading
Comprehension [9.446041739364135]
本稿では,機械読解(MRC)タスクにおけるBERTの微調整を理解するためのペアワイズプローブを提案する。
ペアワイズ探索タスクにより、各レイヤの事前学習および微調整されたBERTの隠れ表現の性能を比較する。
我々の実験分析は、非常に自信のある結論をもたらす。
論文 参考訳(メタデータ) (2020-06-02T02:12:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。