論文の概要: Domain Aligned Prefix Averaging for Domain Generalization in Abstractive
Summarization
- arxiv url: http://arxiv.org/abs/2305.16820v2
- Date: Mon, 29 May 2023 06:19:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 10:57:53.009078
- Title: Domain Aligned Prefix Averaging for Domain Generalization in Abstractive
Summarization
- Title(参考訳): 抽象要約におけるドメイン一般化のためのドメインアラインプレフィックス平均化
- Authors: Pranav Ajit Nair and Sukomal Pal and Pradeepika Verma
- Abstract要約: 本稿では,ドメイン一般化のための軽量な平均化手法であるDomain Aligned Prefix Averagingを提案する。
生成した要約と対応する文書との類似性は、平均的なソースプレフィックスに必要な重みを計算するために使用される。
4つの異なる要約領域で評価すると、DAPAはベースラインに対して同等またはより良いパフォーマンスを示す。
- 参考スコア(独自算出の注目度): 4.049988553835458
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Domain generalization is hitherto an underexplored area applied in
abstractive summarization. Moreover, most existing works on domain
generalization have sophisticated training algorithms. In this paper, we
propose a lightweight, weight averaging based, Domain Aligned Prefix Averaging
approach to domain generalization for abstractive summarization. Given a number
of source domains, our method first trains a prefix for each one of them. These
source prefixes generate summaries for a small number of target domain
documents. The similarity of the generated summaries to their corresponding
documents is used for calculating weights required to average source prefixes.
In DAPA, prefix tuning allows for lightweight finetuning, and weight averaging
allows for the computationally efficient addition of new source domains. When
evaluated on four diverse summarization domains, DAPA shows comparable or
better performance against the baselines, demonstrating the effectiveness of
its prefix averaging scheme.
- Abstract(参考訳): ドメインの一般化は抽象的な要約に適用される未探索領域にヒットする。
さらに、領域一般化に関する既存の研究の多くは高度な訓練アルゴリズムを持っている。
本稿では,抽象的要約のためのドメイン一般化に対する,軽量,重量平均,ドメインアラインプレフィックス平均化手法を提案する。
複数のソースドメインが与えられた場合、このメソッドはまずそれぞれのプレフィックスをトレーニングする。
これらのソースプレフィックスは、少数のターゲットドメイン文書の要約を生成する。
生成した要約と対応する文書の類似性は、平均的なソースプレフィックスに必要な重みを計算するために使用される。
dapaではプレフィックスチューニングは軽量な微調整を可能にし、重量平均化により新しいソースドメインを計算効率良く追加できる。
4つの異なる要約領域で評価すると、DAPAはベースラインに対して同等またはより良い性能を示し、プレフィックス平均化方式の有効性を示す。
関連論文リスト
- Compound Domain Generalization via Meta-Knowledge Encoding [55.22920476224671]
マルチモーダル分布を再正規化するために,スタイル駆動型ドメイン固有正規化(SDNorm)を導入する。
組込み空間における関係モデリングを行うために,プロトタイプ表現,クラスセントロイドを利用する。
4つの標準ドメイン一般化ベンチマークの実験により、COMENはドメインの監督なしに最先端のパフォーマンスを上回ることが判明した。
論文 参考訳(メタデータ) (2022-03-24T11:54:59Z) - Dynamic Instance Domain Adaptation [109.53575039217094]
教師なしのドメイン適応に関するほとんどの研究は、各ドメインのトレーニングサンプルがドメインラベルを伴っていると仮定している。
適応的な畳み込みカーネルを持つ動的ニューラルネットワークを開発し、各インスタンスにドメインに依存しない深い特徴を適応させるために、インスタンス適応残差を生成する。
我々のモデルはDIDA-Netと呼ばれ、複数の一般的な単一ソースおよび複数ソースのUDAデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-03-09T20:05:54Z) - Efficient Hierarchical Domain Adaptation for Pretrained Language Models [77.02962815423658]
生成言語モデルは、多種多様な一般的なドメインコーパスに基づいて訓練される。
計算効率のよいアダプタアプローチを用いて,ドメイン適応を多種多様なドメインに拡張する手法を提案する。
論文 参考訳(メタデータ) (2021-12-16T11:09:29Z) - Adaptive Methods for Aggregated Domain Generalization [26.215904177457997]
多くの設定において、プライバシに関する懸念は、トレーニングデータサンプルのドメインラベルを取得することを禁止している。
本稿では,この問題に対するドメイン適応的アプローチを提案する。
提案手法は,ドメインラベルを使わずに,様々な領域一般化ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2021-12-09T08:57:01Z) - Adaptive Domain-Specific Normalization for Generalizable Person
Re-Identification [81.30327016286009]
一般化可能なRe-IDのための適応型ドメイン固有正規化手法(AdsNorm)を提案する。
本研究では,一般化可能人物 Re-ID に対する適応領域特異的正規化手法 (AdsNorm) を提案する。
論文 参考訳(メタデータ) (2021-05-07T02:54:55Z) - Adaptive Methods for Real-World Domain Generalization [32.030688845421594]
本研究では、未確認の試験サンプルからドメイン情報を活用できるかどうかを検討する。
a) 教師なしのトレーニング例から識別的ドメイン埋め込みを最初に学び、b) このドメイン埋め込みを補足的な情報として使ってドメイン適応モデルを構築する。
提案手法は,各種領域一般化ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2021-03-29T17:44:35Z) - Model-Based Domain Generalization [96.84818110323518]
本稿では,モデルベースドメイン一般化問題に対する新しいアプローチを提案する。
我々のアルゴリズムは、最新のwildsベンチマークの最先端手法を最大20ポイント上回った。
論文 参考訳(メタデータ) (2021-02-23T00:59:02Z) - Batch Normalization Embeddings for Deep Domain Generalization [50.51405390150066]
ドメインの一般化は、異なるドメインと見えないドメインで堅牢に実行されるように機械学習モデルをトレーニングすることを目的としている。
一般的な領域一般化ベンチマークにおいて,最先端技術よりも分類精度が著しく向上したことを示す。
論文 参考訳(メタデータ) (2020-11-25T12:02:57Z) - Discrepancy Minimization in Domain Generalization with Generative
Nearest Neighbors [13.047289562445242]
ドメイン一般化(Domain Generalization, DG)は、複数のソースドメインでトレーニングされた機械学習モデルが、統計の異なるターゲットドメインでうまく一般化できないという、ドメインシフトの問題を扱う。
シフト対象領域の一般化を保証するのに失敗するソースドメイン全体にわたるドメイン不変表現を学習することにより、ドメイン一般化の問題を解決するために、複数のアプローチが提案されている。
本稿では,GNNDM(Generative Nearest Neighbor Based Discrepancy Minimization)法を提案する。
論文 参考訳(メタデータ) (2020-07-28T14:54:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。