論文の概要: Towards Few-Shot Fact-Checking via Perplexity
- arxiv url: http://arxiv.org/abs/2103.09535v1
- Date: Wed, 17 Mar 2021 09:43:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-18 18:00:45.313024
- Title: Towards Few-Shot Fact-Checking via Perplexity
- Title(参考訳): パープレキシティによるFact-Checking
- Authors: Nayeon Lee, Yejin Bang, Andrea Madotto, Madian Khabsa, Pascale Fung
- Abstract要約: そこで本研究では,言語モデルの強力な伝達学習能力をパープレキシティスコアで活用する新しい手法を提案する。
私たちの方法論は、F1-Macroメトリックの絶対10%以上のメジャークラスベースラインをすでに上回ることができます。
COVID-19に関連する2つの新しいファクトチェックデータセットを構築し、公開します。
- 参考スコア(独自算出の注目度): 40.11397284006867
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Few-shot learning has drawn researchers' attention to overcome the problem of
data scarcity. Recently, large pre-trained language models have shown great
performance in few-shot learning for various downstream tasks, such as question
answering and machine translation. Nevertheless, little exploration has been
made to achieve few-shot learning for the fact-checking task. However,
fact-checking is an important problem, especially when the amount of
information online is growing exponentially every day. In this paper, we
propose a new way of utilizing the powerful transfer learning ability of a
language model via a perplexity score. The most notable strength of our
methodology lies in its capability in few-shot learning. With only two training
samples, our methodology can already outperform the Major Class baseline by
more than absolute 10% on the F1-Macro metric across multiple datasets. Through
experiments, we empirically verify the plausibility of the rather surprising
usage of the perplexity score in the context of fact-checking and highlight the
strength of our few-shot methodology by comparing it to strong
fine-tuning-based baseline models. Moreover, we construct and publicly release
two new fact-checking datasets related to COVID-19.
- Abstract(参考訳): データ不足の問題を克服するために、研究者の注意を惹きつけるものは少ない。
近年,大規模事前学習型言語モデルが,質問応答や機械翻訳など,下流タスクの少数学習において優れた性能を示している。
それにもかかわらず、ファクトチェックタスクの少ない学習を達成するための調査はほとんど行われていない。
しかし、特にオンライン情報量が毎日指数関数的に増えている場合、ファクトチェックは重要な問題である。
本稿では,パープレキシティスコアを用いた言語モデルの強力な伝達学習能力を活用するための新しい手法を提案する。
私たちの方法論の最も注目すべき強みは、わずかな学習の能力です。
2つのトレーニングサンプルだけで、我々の方法論は、複数のデータセットにわたるF1-Macroメトリックで、すでにMajor Classのベースラインを10%以上上回ることができる。
実験を通じて,事実チェックの文脈において,かなり驚くべきパープレキシティスコアの使用可能性を検証するとともに,強固な微調整ベースのベースラインモデルと比較することにより,マイナショット手法の強みを強調する。
さらに、COVID-19に関連する2つの新しいファクトチェックデータセットを構築し、公開します。
関連論文リスト
- Conditional Prototype Rectification Prompt Learning [32.533844163120875]
本稿では, 基本事例のバイアスを補正し, 限られたデータを効果的に拡張するための, CPR(Prototype Rectification Prompt Learning)手法を提案する。
CPRは、いくつかのショット分類とベース・ツー・ニューな一般化タスクの両方において最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-04-15T15:43:52Z) - Zero-shot Retrieval: Augmenting Pre-trained Models with Search Engines [83.65380507372483]
大規模で事前訓練されたモデルは、問題を解決するのに必要なタスク固有のデータの量を劇的に削減するが、多くの場合、ドメイン固有のニュアンスを箱から取り出すのに失敗する。
本稿では,NLPとマルチモーダル学習の最近の進歩を活用して,検索エンジン検索による事前学習モデルを強化する方法について述べる。
論文 参考訳(メタデータ) (2023-11-29T05:33:28Z) - Exploring the Impact of Instruction Data Scaling on Large Language
Models: An Empirical Study on Real-World Use Cases [17.431381376675432]
本稿では,命令データのスケールの異なる命令データに対して,命令チューニングに基づく大規模言語モデルの性能について検討する。
ベースモデルとしてBloomz-7B1-mtを用いると、命令データの量を増やすだけで、オープン・エンド・ジェネレーションのようなタスクが継続的に改善されることが示される。
本稿では,高品質なトレーニングデータ,スケールベースモデル,ハードタスクに特化したトレーニング手法を効果的に選択する,といった将来的な研究方向を提案する。
論文 参考訳(メタデータ) (2023-03-26T14:49:37Z) - Ensemble Transfer Learning for Multilingual Coreference Resolution [60.409789753164944]
非英語で作業する場合に頻繁に発生する問題は、注釈付きトレーニングデータの不足である。
我々は,様々なトランスファー学習技術を組み合わせた,シンプルだが効果的なアンサンブルベースのフレームワークを設計する。
また、ウィキペディアアンカーテキストを利用して、コア参照解決モデルをブートストラップする低コストのTL手法を提案する。
論文 参考訳(メタデータ) (2023-01-22T18:22:55Z) - Sample Efficient Approaches for Idiomaticity Detection [6.481818246474555]
本研究は, 慣用性検出の効率的な手法を探索する。
特に,いくつかの分類法であるPET(Pattern Exploit Training)と,文脈埋め込みの効率的な方法であるBERTRAM(BERTRAM)の影響について検討した。
実験の結果,PETは英語のパフォーマンスを向上するが,ポルトガル語やガリシア語では効果が低下し,バニラmBERTと同程度の総合的な性能が得られた。
論文 参考訳(メタデータ) (2022-05-23T13:46:35Z) - On Modality Bias Recognition and Reduction [70.69194431713825]
マルチモーダル分類の文脈におけるモダリティバイアス問題について検討する。
本稿では,各ラベルの特徴空間を適応的に学習するプラグアンドプレイ損失関数法を提案する。
本手法は, ベースラインに比べ, 顕著な性能向上を実現している。
論文 参考訳(メタデータ) (2022-02-25T13:47:09Z) - IGLUE: A Benchmark for Transfer Learning across Modalities, Tasks, and
Languages [87.5457337866383]
画像認識言語理解評価ベンチマークについて紹介する。
IGLUEは、視覚的質問応答、クロスモーダル検索、グラウンドド推論、20言語にわたるグラウンドドエンターテイメントタスクをまとめて提供する。
翻訳-テストの転送はゼロショットの転送よりも優れており、少数ショットの学習は多くのタスクに役立てることが難しい。
論文 参考訳(メタデータ) (2022-01-27T18:53:22Z) - Few-shot Action Recognition with Prototype-centered Attentive Learning [88.10852114988829]
2つの新しい構成要素からなるプロトタイプ中心型注意学習(pal)モデル。
まず,従来のクエリ中心学習目標を補完するために,プロトタイプ中心のコントラスト学習損失を導入する。
第二に、PALは注意深いハイブリッド学習機構を統合しており、アウトレーヤの負の影響を最小限に抑えることができる。
論文 参考訳(メタデータ) (2021-01-20T11:48:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。