論文の概要: Can one size fit all?: Measuring Failure in Multi-Document Summarization Domain Transfer
- arxiv url: http://arxiv.org/abs/2503.15768v1
- Date: Thu, 20 Mar 2025 00:57:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-21 16:35:56.025717
- Title: Can one size fit all?: Measuring Failure in Multi-Document Summarization Domain Transfer
- Title(参考訳): 1つのサイズがすべてに適合できるか?:マルチドキュメントの要約ドメイン転送における障害の測定
- Authors: Alexandra DeLucia, Mark Dredze,
- Abstract要約: マルチドキュメント要約(MDS)は、複数の文書で自動的に情報を要約するタスクである。
我々は、トレーニングアプローチ、ドメイン、次元にわたるMDSモデルを評価する。
- 参考スコア(独自算出の注目度): 64.03237620355455
- License:
- Abstract: Abstractive multi-document summarization (MDS) is the task of automatically summarizing information in multiple documents, from news articles to conversations with multiple speakers. The training approaches for current MDS models can be grouped into four approaches: end-to-end with special pre-training ("direct"), chunk-then-summarize, extract-then-summarize, and inference with GPT-style models. In this work, we evaluate MDS models across training approaches, domains, and dimensions (reference similarity, quality, and factuality), to analyze how and why models trained on one domain can fail to summarize documents from another (News, Science, and Conversation) in the zero-shot domain transfer setting. We define domain-transfer "failure" as a decrease in factuality, higher deviation from the target, and a general decrease in summary quality. In addition to exploring domain transfer for MDS models, we examine potential issues with applying popular summarization metrics out-of-the-box.
- Abstract(参考訳): 要約多文書要約(MDS:Abstractive Multi-document summarization)は、ニュース記事から複数の話者との会話まで、複数の文書で自動的に情報を要約するタスクである。
現在のMDSモデルのトレーニングアプローチは、4つのアプローチに分類できる: 特別な事前訓練("direct")を伴うエンドツーエンド、チャンク・then-summarize、抽出・then-summarize、GPTスタイルのモデルによる推論。
本研究では,学習アプローチ,領域,次元(参照類似性,品質,事実性)をまたいだMDSモデルを評価し,あるドメインでトレーニングされたモデルが,ゼロショットドメイン転送設定において他のドメイン(News, Science, and Conversation)からの文書の要約に失敗する理由と理由を分析する。
ドメイン・トランスファーの「障害」は、事実性の低下、目標からの偏差の増大、概ね要約品質の低下と定義する。
MDSモデルに対するドメイン転送の探索に加えて、一般的な要約メトリクスを最初から適用する際の潜在的な問題についても検討する。
関連論文リスト
- Robust Domain Misinformation Detection via Multi-modal Feature Alignment [49.89164555394584]
マルチモーダルな誤情報検出のための頑健なドメインとクロスモーダルなアプローチを提案する。
テキストと視覚の共役分布を整列させることにより、ドメインシフトを低減する。
また,ドメイン一般化のアプリケーションシナリオを同時に検討するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-24T07:06:16Z) - Absformer: Transformer-based Model for Unsupervised Multi-Document
Abstractive Summarization [1.066048003460524]
MDS(Multi-document summarization)とは、複数の文書のテキストを簡潔な要約に要約する作業である。
抽象MDSは、自然言語生成技術を用いて、複数の文書の一貫性と流動性を備えた要約を生成することを目的としている。
本稿では、教師なし抽象要約生成のためのトランスフォーマーに基づく新しい手法であるAbsformerを提案する。
論文 参考訳(メタデータ) (2023-06-07T21:18:23Z) - Combining State-of-the-Art Models with Maximal Marginal Relevance for
Few-Shot and Zero-Shot Multi-Document Summarization [0.6690874707758508]
多文書要約(MDS)は、単一文書要約(SDS)によって生じるものよりも多くの課題を研究者にもたらす
我々は,MMR(Maximal marginal Relevance)を用いた最先端モデルの出力の組み合わせ戦略を提案する。
我々のMMRベースのアプローチは、少数ショットMDSアプリケーションとゼロショットMDSアプリケーションの両方において、現在の最先端の成果のいくつかの側面よりも改善されている。
論文 参考訳(メタデータ) (2022-11-19T21:46:31Z) - Disentangled Modeling of Domain and Relevance for Adaptable Dense
Retrieval [54.349418995689284]
本稿では,Dense Retrieval (DDR) という新しいフレームワークを提案する。
REMとDAMをアンタングルにすることで、DDRはフレキシブルなトレーニングパラダイムを可能にし、REMは一度監視でトレーニングされ、DAMは教師なしのデータでトレーニングされる。
DDRは強力なDRベースラインに比べて格付け性能が大幅に向上し、ほとんどのシナリオにおいて従来の検索手法よりも大幅に向上する。
論文 参考訳(メタデータ) (2022-08-11T11:18:50Z) - Multi-Document Summarization with Centroid-Based Pretraining [35.8335939654861]
Multi-Document Summarization (MDS)では、入力は文書の集合としてモデル化することができ、出力はその要約である。
本稿では,各ドキュメントクラスタのROUGEベースのセントロイドを,その要約のプロキシとして選択する,新たな事前学習目標を提案する。
したがって、本研究の目的は、人による要約を必要とせず、文書集合のみからなるデータセットの事前学習に利用することができる。
論文 参考訳(メタデータ) (2022-08-01T17:28:02Z) - META: Mimicking Embedding via oThers' Aggregation for Generalizable
Person Re-identification [68.39849081353704]
Domain Generalizable (DG) Person Re-identification (ReID)は、トレーニング時に対象のドメインデータにアクセスすることなく、見えないドメインをまたいでテストすることを目的としている。
本稿では,DG ReID のための OThers' Aggregation (META) を用いた Mimicking Embedding という新しい手法を提案する。
論文 参考訳(メタデータ) (2021-12-16T08:06:50Z) - Topic-Guided Abstractive Multi-Document Summarization [21.856615677793243]
多文書要約(MDS)の重要なポイントは、様々な文書間の関係を学習することである。
異種グラフとして複数の文書を表現できる新しい抽象MDSモデルを提案する。
我々は、クロスドキュメントセマンティックユニットとして機能する潜在トピックを共同で発見するために、ニューラルトピックモデルを採用している。
論文 参考訳(メタデータ) (2021-10-21T15:32:30Z) - Learning to Generalize Unseen Domains via Memory-based Multi-Source
Meta-Learning for Person Re-Identification [59.326456778057384]
本稿では,メモリベースのマルチソースメタラーニングフレームワークを提案する。
また,メタテスト機能を多様化するメタバッチ正規化層(MetaBN)を提案する。
実験により、M$3$Lは、目に見えない領域に対するモデルの一般化能力を効果的に向上できることが示された。
論文 参考訳(メタデータ) (2020-12-01T11:38:16Z) - A Review of Single-Source Deep Unsupervised Visual Domain Adaptation [81.07994783143533]
大規模ラベル付きトレーニングデータセットにより、ディープニューラルネットワークは、幅広いベンチマークビジョンタスクを拡張できるようになった。
多くのアプリケーションにおいて、大量のラベル付きデータを取得するのは非常に高価で時間を要する。
限られたラベル付きトレーニングデータに対処するため、大規模ラベル付きソースドメインでトレーニングされたモデルを、疎ラベルまたは未ラベルのターゲットドメインに直接適用しようと試みている人も多い。
論文 参考訳(メタデータ) (2020-09-01T00:06:50Z) - Large Margin Mechanism and Pseudo Query Set on Cross-Domain Few-Shot
Learning [34.81309962770134]
クロスドメインな数ショット学習は、数ショットの学習問題の新しいブランチである。
本稿では,この問題を解決するために,新しいLMM-PQS法を提案する。
当社のアプローチは堅牢で、トレーニング済みのモデルを、少ないデータで新しいドメインに容易に適用できます。
論文 参考訳(メタデータ) (2020-05-19T05:28:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。