論文の概要: Investigating Zero- and Few-shot Generalization in Fact Verification
- arxiv url: http://arxiv.org/abs/2309.09444v1
- Date: Mon, 18 Sep 2023 02:53:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 15:21:20.968678
- Title: Investigating Zero- and Few-shot Generalization in Fact Verification
- Title(参考訳): ファクト検証におけるゼロ・ショット一般化の検討
- Authors: Liangming Pan, Yunxiang Zhang, Min-Yen Kan
- Abstract要約: まず、6つのドメインを表す11のFVデータセットを含むベンチマークデータセットコレクションを構築した。
我々はこれらのFVデータセット全体にわたる一般化の実証分析を行い、現在のモデルでは一般化が不十分であることを確かめた。
1) 専門分野の事前訓練によるドメイン知識の導入,2) クレーム生成によるトレーニングデータの自動生成。
- 参考スコア(独自算出の注目度): 38.397244374296164
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we explore zero- and few-shot generalization for fact
verification (FV), which aims to generalize the FV model trained on
well-resourced domains (e.g., Wikipedia) to low-resourced domains that lack
human annotations. To this end, we first construct a benchmark dataset
collection which contains 11 FV datasets representing 6 domains. We conduct an
empirical analysis of generalization across these FV datasets, finding that
current models generalize poorly. Our analysis reveals that several factors
affect generalization, including dataset size, length of evidence, and the type
of claims. Finally, we show that two directions of work improve generalization:
1) incorporating domain knowledge via pretraining on specialized domains, and
2) automatically generating training data via claim generation.
- Abstract(参考訳): 本稿では,人間アノテーションを欠くローソースドメインに対して,適切に再資源化されたドメイン(例えばwikipedia)で訓練されたfvモデルを一般化することを目的とした,ファクト検証のためのゼロショットとマイショットの一般化(fv)について検討する。
この目的のために、まず6つのドメインを表す11のfvデータセットを含むベンチマークデータセットコレクションを構築する。
我々はこれらのFVデータセットにおける一般化の実証分析を行い、現在のモデルでは一般化が不十分であることを示す。
分析の結果,データセットのサイズ,証拠の長さ,クレームの種類など,いくつかの要因が一般化に影響を与えることが明らかとなった。
最後に、作業の2つの方向が一般化を改善することを示す。
1)専門分野の事前学習によるドメイン知識の取り込み、及び
2)クレーム生成によるトレーニングデータの自動生成。
関連論文リスト
- Causally Inspired Regularization Enables Domain General Representations [14.036422506623383]
異なるドメイン/ディストリビューション間で共有されるデータ生成プロセスを表す因果グラフが与えられた場合、十分なグラフで実装された条件付き独立性は、ドメイン一般(非スパージャ)の特徴表現を識別することができる。
本稿では,素早い特徴の事前知識(あるいはプロキシ)を伴わないドメイン汎用特徴表現の同定に十分であることを示す,正規化を伴う新しいフレームワークを提案する。
提案手法は、合成データと実世界のデータの両方に有効であり、平均および最悪のドメイン転送精度で、他の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2024-04-25T01:33:55Z) - Beyond Finite Data: Towards Data-free Out-of-distribution Generalization
via Extrapolation [19.944946262284123]
ニューラルネットワークが人間のように外挿し、OODの一般化を実現するにはどうすればよいのか?
本稿では,大言語モデル(LLM)にカプセル化されている推論能力と広範な知識を活用して,完全に新しいドメインを合成する領域外挿手法を提案する。
提案手法は, VLCSなどのデータセットにおいて, 教師付き設定を約1~2%超え, 評価可能な性能を示す。
論文 参考訳(メタデータ) (2024-03-08T18:44:23Z) - DIGIC: Domain Generalizable Imitation Learning by Causal Discovery [69.13526582209165]
因果性は機械学習と組み合わせて、ドメインの一般化のための堅牢な表現を生成する。
我々は、実証データ分布を活用して、ドメインの一般化可能なポリシーの因果的特徴を発見するために、異なる試みを行っている。
DIGICと呼ばれる新しいフレームワークを設計し、実演データ分布から専門家行動の直接的な原因を見出すことにより因果的特徴を識別する。
論文 参考訳(メタデータ) (2024-02-29T07:09:01Z) - Federated Domain Generalization: A Survey [12.84261944926547]
機械学習では、データはさまざまなデバイス、組織、エッジノードに分散されることが多い。
この課題に応えて、連邦領域の一般化への関心が高まっている。
本稿では,この領域における最近の進歩に関する最初の調査について述べる。
論文 参考訳(メタデータ) (2023-06-02T07:55:42Z) - TAL: Two-stream Adaptive Learning for Generalizable Person
Re-identification [115.31432027711202]
我々は、ドメイン固有性とドメイン不変性の両方が、re-idモデルの一般化能力の向上に不可欠であると主張する。
これら2種類の情報を同時にモデル化するために,2ストリーム適応学習 (TAL) を命名した。
我々のフレームワークは、単一ソースとマルチソースの両方のドメイン一般化タスクに適用できる。
論文 参考訳(メタデータ) (2021-11-29T01:27:42Z) - Towards Data-Free Domain Generalization [12.269045654957765]
異なるソースデータドメインでトレーニングされたモデルに含まれる知識は、どのようにして単一のモデルにマージされるのか?
以前のドメインの一般化手法は、典型的にはソースドメインデータの使用に依存しており、プライベートな分散データには適さない。
DeKANは、利用可能な教師モデルからドメイン固有の知識を抽出し、融合し、ドメインシフトに頑健な学生モデルに変換するアプローチである。
論文 参考訳(メタデータ) (2021-10-09T11:44:05Z) - COLUMBUS: Automated Discovery of New Multi-Level Features for Domain
Generalization via Knowledge Corruption [12.555885317622131]
ここでは、ソースドメインの集合で訓練されたモデルが、データに触れることなく、目に見えないドメインでうまく一般化されることを期待する領域一般化問題に対処する。
コロンバス(Columbus)は、最も関連性の高い入力とマルチレベルのデータ表現を対象とする汚職によって、新機能の発見を強制する手法である。
論文 参考訳(メタデータ) (2021-09-09T14:52:05Z) - Inferring Latent Domains for Unsupervised Deep Domain Adaptation [54.963823285456925]
Unsupervised Domain Adaptation (UDA)は、ラベル付きデータが利用できないターゲットドメインでモデルを学習する問題を指す。
本稿では,視覚データセット中の潜在ドメインを自動的に発見することにより,udaの問題に対処する新しい深層アーキテクチャを提案する。
提案手法を公開ベンチマークで評価し,最先端のドメイン適応手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-03-25T14:33:33Z) - Domain Generalization: A Survey [146.68420112164577]
ドメイン一般化(DG)は、モデル学習にソースドメインデータを使用するだけでOOD一般化を実現することを目的としています。
初めて、DGの10年の開発をまとめるために包括的な文献レビューが提供されます。
論文 参考訳(メタデータ) (2021-03-03T16:12:22Z) - Generalizing to Unseen Domains: A Survey on Domain Generalization [59.16754307820612]
ドメイン一般化は、1つまたは複数の異なるが関連するドメインが与えられる困難な設定を扱う。
目標は、目に見えないテストドメインに一般化できるモデルを学ぶことです。
本稿では,領域一般化の最近の進歩に対する最初のレビューを紹介する。
論文 参考訳(メタデータ) (2021-03-02T06:04:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。