論文の概要: Low-Shot Learning for Fictional Claim Verification
- arxiv url: http://arxiv.org/abs/2304.02769v1
- Date: Wed, 5 Apr 2023 22:20:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-07 15:50:54.526578
- Title: Low-Shot Learning for Fictional Claim Verification
- Title(参考訳): フィクションクレーム検証のための低ショット学習
- Authors: Viswanath Chadalapaka, Derek Nguyen, JoonWon Choi, Shaunak Joshi,
Mohammad Rostami
- Abstract要約: 本稿では,小説のクレームの文脈におけるクレーム検証の問題について,ローショット学習環境で検討する。
この目的のために、2つの合成データセットを生成し、その後、両ベンチマークでテストされるエンドツーエンドパイプラインとモデルを開発する。
- 参考スコア(独自算出の注目度): 8.455378058465394
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we study the problem of claim verification in the context of
claims about fictional stories in a low-shot learning setting. To this end, we
generate two synthetic datasets and then develop an end-to-end pipeline and
model that is tested on both benchmarks. To test the efficacy of our pipeline
and the difficulty of benchmarks, we compare our models' results against human
and random assignment results. Our code is available at
https://github.com/Derposoft/plot_hole_detection.
- Abstract(参考訳): 本稿では,低ショット学習環境における架空の物語のクレームの文脈におけるクレーム検証の問題について検討する。
この目的のために、2つの合成データセットを生成し、両方のベンチマークでテストされるエンドツーエンドパイプラインとモデルを開発する。
パイプラインの有効性とベンチマークの難易度をテストするため、モデルの結果を人間とランダムな割り当て結果と比較した。
私たちのコードはhttps://github.com/derposoft/plot_hole_detectionで利用可能です。
関連論文リスト
- When in Doubt, Cascade: Towards Building Efficient and Capable Guardrails [19.80434777786657]
ターゲットデータとラベルデータを生成する合成パイプラインを開発した。
提案手法は,計算コストのごく一部で競争性能を達成できることを示す。
論文 参考訳(メタデータ) (2024-07-08T18:39:06Z) - Beyond Model Collapse: Scaling Up with Synthesized Data Requires Verification [11.6055501181235]
モデル崩壊防止のための合成データに対する検証手法について検討する。
検証器は、たとえ不完全なものであっても、モデル崩壊を防ぐために実際に活用できることが示される。
論文 参考訳(メタデータ) (2024-06-11T17:46:16Z) - Fact Checking Beyond Training Set [64.88575826304024]
本稿では,レトリバーリーダが,あるドメインのラベル付きデータに基づいてトレーニングし,別のドメインで使用する場合,性能劣化に悩まされることを示す。
本稿では,レトリバー成分を分散シフトに対して頑健にするための逆アルゴリズムを提案する。
次に、これらのデータセットから8つの事実チェックシナリオを構築し、モデルと強力なベースラインモデルのセットを比較します。
論文 参考訳(メタデータ) (2024-03-27T15:15:14Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Noisy Pair Corrector for Dense Retrieval [59.312376423104055]
ノイズペアコレクタ(NPC)と呼ばれる新しい手法を提案する。
NPCは検出モジュールと修正モジュールから構成される。
我々は,テキスト検索ベンチマークのNatural QuestionとTriviaQA,コード検索ベンチマークのStaQCとSO-DSで実験を行った。
論文 参考訳(メタデータ) (2023-11-07T08:27:14Z) - Learning Defect Prediction from Unrealistic Data [57.53586547895278]
事前訓練されたコードのモデルは、コード理解と生成タスクに人気がある。
このようなモデルは大きい傾向があり、訓練データの総量を必要とする。
人工的に注入されたバグのある関数など、はるかに大きくてもより現実的なデータセットを持つモデルをトレーニングすることが一般的になった。
このようなデータで訓練されたモデルは、実際のプログラムでは性能が劣りながら、同様のデータでのみうまく機能する傾向にある。
論文 参考訳(メタデータ) (2023-11-02T01:51:43Z) - On the Blind Spots of Model-Based Evaluation Metrics for Text Generation [79.01422521024834]
テキスト生成評価指標のロバスト性分析に有用であるが,しばしば無視される手法を探索する。
我々は、幅広い潜在的な誤差を設計、合成し、それらが測定値の余計な低下をもたらすかどうかを確認する。
私たちの実験では、既存のメトリクスの興味深い不感、バイアス、あるいは抜け穴が明らかになりました。
論文 参考訳(メタデータ) (2022-12-20T06:24:25Z) - Falsesum: Generating Document-level NLI Examples for Recognizing Factual
Inconsistency in Summarization [63.21819285337555]
高品質なタスク指向の例でトレーニングデータを拡張した場合,NLIモデルがこのタスクに有効であることを示す。
我々は、制御可能なテキスト生成モデルを利用して、人間の注釈付き要約を摂動させるデータ生成パイプラインであるFalsesumを紹介した。
本研究では,Falsesumを付加したNLIデータセットでトレーニングしたモデルにより,4つのベンチマークを用いて,要約における事実整合性を検出することにより,最先端のパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2022-05-12T10:43:42Z) - Gradient-Based Adversarial Training on Transformer Networks for
Detecting Check-Worthy Factual Claims [3.7543966923106438]
本稿では,最初の逆正則変換型クレームスポッタモデルを提案する。
現在の最先端モデルよりもF1スコアが4.70ポイント向上した。
本稿では,変換器モデルに逆学習を適用する手法を提案する。
論文 参考訳(メタデータ) (2020-02-18T16:51:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。