論文の概要: Automated Fact-Checking in Dialogue: Are Specialized Models Needed?
- arxiv url: http://arxiv.org/abs/2311.08195v1
- Date: Tue, 14 Nov 2023 14:29:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-15 13:50:29.086984
- Title: Automated Fact-Checking in Dialogue: Are Specialized Models Needed?
- Title(参考訳): 対話におけるファクトチェックの自動化:専門モデルが必要か?
- Authors: Eric Chamoun, Marzieh Saeidi, Andreas Vlachos
- Abstract要約: 対話と典型的事実チェックの両方に同じモデルを使用できる技術を提案する。
これらは主に、検索適応と会話入力の変換に焦点を当てている。
これらの手法を取り入れた典型的なファクトチェックモデルは、対話用に微調整された最先端のモデルと競合することを示す。
- 参考スコア(独自算出の注目度): 10.124277130068329
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prior research has shown that typical fact-checking models for stand-alone
claims struggle with claims made in dialogues. As a solution, fine-tuning these
models on labelled dialogue data has been proposed. However, creating separate
models for each use case is impractical, and we show that fine-tuning models
for dialogue results in poor performance on typical fact-checking. To overcome
this challenge, we present techniques that allow us to use the same models for
both dialogue and typical fact-checking. These mainly focus on retrieval
adaptation and transforming conversational inputs so that they can be
accurately predicted by models trained on stand-alone claims. We demonstrate
that a typical fact-checking model incorporating these techniques is
competitive with state-of-the-art models fine-tuned for dialogue, while
maintaining its accuracy on stand-alone claims.
- Abstract(参考訳): 先行研究では、スタンドアローンのクレームに対する典型的な事実チェックモデルは、対話でなされたクレームに苦しむことが示されている。
その結果,ラベル付き対話データを用いて,これらのモデルを微調整する手法が提案されている。
しかし,それぞれのユースケースで別々のモデルを作成することは現実的ではなく,対話の微調整モデルが典型的なファクトチェックのパフォーマンスを低下させることを示した。
この課題を克服するために、対話と典型的事実チェックの両方に同じモデルを使用できる技術を提案する。
これらは主に検索適応と会話入力の変換に重点を置いており、単独のクレームで訓練されたモデルによって正確に予測できる。
これらの手法を組み込んだ典型的なファクトチェックモデルは、対話用に微調整された最先端モデルと競合するが、単独のクレームでは精度は維持される。
関連論文リスト
- Pre-training Multi-party Dialogue Models with Latent Discourse Inference [85.9683181507206]
我々は、多人数対話の会話構造、すなわち、各発話が応答する相手を理解するモデルを事前訓練する。
ラベル付きデータを完全に活用するために,談話構造を潜在変数として扱い,それらを共同で推論し,談話認識モデルを事前学習することを提案する。
論文 参考訳(メタデータ) (2023-05-24T14:06:27Z) - Realistic Conversational Question Answering with Answer Selection based
on Calibrated Confidence and Uncertainty Measurement [54.55643652781891]
対話型質問回答モデル(ConvQA)は,会話中に複数回発生した質問文と過去の質問文のペアを用いて質問に回答することを目的としている。
本稿では,会話履歴における不正確な回答を,ConvQAモデルから推定された信頼度と不確実性に基づいてフィルタリングすることを提案する。
我々は2つの標準ConvQAデータセット上で、回答選択に基づくリアルな会話質問回答モデルの有効性を検証する。
論文 参考訳(メタデータ) (2023-02-10T09:42:07Z) - Are Neural Topic Models Broken? [81.15470302729638]
トピックモデルの自動評価と人的評価の関係について検討する。
ニューラルトピックモデルは、確立された古典的手法と比較して、両方の点においてより悪くなる。
論文 参考訳(メタデータ) (2022-10-28T14:38:50Z) - Adversarial Robustness of Visual Dialog [16.918181814918512]
敵対的堅牢性は、機械学習モデルの最悪のパフォーマンスシナリオを評価し、その安全性と信頼性を保証する。
本研究は,テキスト・アタックに対する視覚的グラウンド・ダイアログモデルのロバスト性について検討した最初のものである。
論文 参考訳(メタデータ) (2022-07-06T13:01:44Z) - GODEL: Large-Scale Pre-Training for Goal-Directed Dialog [119.1397031992088]
ダイアログのための大規模事前学習言語モデルであるGODELを紹介する。
GODELは、数ショットの微調整設定で、最先端の事前訓練ダイアログモデルより優れていることを示す。
評価手法の新たな特徴は,応答の有用性を評価するユーティリティの概念の導入である。
論文 参考訳(メタデータ) (2022-06-22T18:19:32Z) - Post-Training Dialogue Summarization using Pseudo-Paraphrasing [12.083992819138716]
本稿では,対話から物語への言い換えとして,事前訓練済み言語モデル(PLM)を提案する。
総合的な実験により,本手法は対話要約におけるバニラPLMを大幅に改善することが示された。
論文 参考訳(メタデータ) (2022-04-28T13:42:19Z) - Can Visual Dialogue Models Do Scorekeeping? Exploring How Dialogue
Representations Incrementally Encode Shared Knowledge [17.285206913252786]
本稿では,VisDialデータセットで事前訓練されたモデルが,スコアスコアリングを適切に行うための表現を段階的に構築する理論に基づく評価手法を提案する。
我々の結論は、対話に沿った共有文とプライベートステートメントを区別する能力は、分析モデルには適度に存在しているが、必ずしも漸進的に一貫性があるとは限らないということである。
論文 参考訳(メタデータ) (2022-04-14T13:52:11Z) - Linguistic calibration through metacognition: aligning dialogue agent
responses with expected correctness [27.4964992583566]
チットチャットモデルが反応を通じてメタ認知機能を表現できるかどうかを解析する。
モデル内の表現は正確さの確率を正確に予測するために利用できることを示す。
論文 参考訳(メタデータ) (2020-12-30T00:12:36Z) - I like fish, especially dolphins: Addressing Contradictions in Dialogue
Modeling [104.09033240889106]
DialoguE Contradiction Detection Task(DECODE)と、人間とロボットの矛盾した対話の両方を含む新しい会話データセットを紹介します。
次に、事前学習したトランスフォーマーモデルを用いて、定型的非構造的アプローチと矛盾検出を行う構造的発話に基づくアプローチを比較する。
論文 参考訳(メタデータ) (2020-12-24T18:47:49Z) - Modality-Balanced Models for Visual Dialogue [102.35406085738325]
Visual Dialogタスクは、対話に対する次の応答を生成するために、画像情報と会話コンテキスト情報の両方を利用するモデルを必要とする。
過去の共同モダリティ(歴史とイメージ)モデルが過度に再現され,対話履歴を記憶する傾向が強いことを示す。
本稿では,共有パラメータを用いたアンサンブルとコンセンサス・ドロップアウト融合による2つのモデルの統合手法を提案する。
論文 参考訳(メタデータ) (2020-01-17T14:57:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。