論文の概要: Stepwise Extractive Summarization and Planning with Structured
Transformers
- arxiv url: http://arxiv.org/abs/2010.02744v1
- Date: Tue, 6 Oct 2020 14:12:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 07:04:58.846943
- Title: Stepwise Extractive Summarization and Planning with Structured
Transformers
- Title(参考訳): 構造化トランスフォーマによるステップワイズ抽出要約と計画
- Authors: Shashi Narayan and Joshua Maynez and Jakub Adamek and Daniele Pighin
and Bla\v{z} Bratani\v{c} and Ryan McDonald
- Abstract要約: 構造変換器を用いた抽出要約のためのエンコーダ中心のステップワイズモデルを提案する。
我々は、前述した要約を補助的なサブ構造として構造化トランスに注入することにより、段階的に要約を可能にする。
我々のモデルは、モデリングや文フィルタリングの冗長性なしに、ルージュの観点から最先端の性能を達成する。
- 参考スコア(独自算出の注目度): 12.092055151901532
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose encoder-centric stepwise models for extractive summarization using
structured transformers -- HiBERT and Extended Transformers. We enable stepwise
summarization by injecting the previously generated summary into the structured
transformer as an auxiliary sub-structure. Our models are not only efficient in
modeling the structure of long inputs, but they also do not rely on
task-specific redundancy-aware modeling, making them a general purpose
extractive content planner for different tasks. When evaluated on CNN/DailyMail
extractive summarization, stepwise models achieve state-of-the-art performance
in terms of Rouge without any redundancy aware modeling or sentence filtering.
This also holds true for Rotowire table-to-text generation, where our models
surpass previously reported metrics for content selection, planning and
ordering, highlighting the strength of stepwise modeling. Amongst the two
structured transformers we test, stepwise Extended Transformers provides the
best performance across both datasets and sets a new standard for these
challenges.
- Abstract(参考訳): 構造化変圧器-HiBERTと拡張変圧器を用いたエンコーダ中心のステップワイズモデルを提案する。
既生成のサマリを補助サブストラクタとして構造化トランスフォーマに注入することにより,ステップワイズサマリ化を実現する。
我々のモデルは、長い入力の構造をモデル化するだけでなく、タスク固有の冗長性を考慮したモデリングにも依存せず、様々なタスクのための汎用的な抽出コンテンツプランナとなっている。
cnn/dailymail抽出要約で評価すると、ステップワイズモデルは冗長性を意識したモデリングや文フィルタリングなしにルージュの観点から最先端のパフォーマンスを実現する。
これはまた、rotowire table-to-text生成にも当てはまります。私たちのモデルは、以前報告されたコンテンツの選択、計画、順序付けのメトリクスを上回っており、ステップワイズモデリングの強みを強調しています。
テストする2つの構造化トランスフォーマのうち、ステップワイズ拡張トランスフォーマは、両方のデータセットで最高のパフォーマンスを提供し、これらの課題に対して新しい標準を設定します。
関連論文リスト
- sTransformer: A Modular Approach for Extracting Inter-Sequential and Temporal Information for Time-Series Forecasting [6.434378359932152]
既存のTransformerベースのモデルを,(1)モデル構造の変更,(2)入力データの変更の2つのタイプに分類する。
我々は、シーケンシャル情報と時間情報の両方をフルにキャプチャするSequence and Temporal Convolutional Network(STCN)を導入する$textbfsTransformer$を提案する。
我々は,線形モデルと既存予測モデルとを長期時系列予測で比較し,新たな成果を得た。
論文 参考訳(メタデータ) (2024-08-19T06:23:41Z) - DenseFormer: Enhancing Information Flow in Transformers via Depth Weighted Averaging [34.643717080240584]
我々はDenseFormerを提案する。DenseFormerは、モデルのサイズを増大させることなく、モデルの難易度を向上する標準アーキテクチャの簡単な修正である。
提案手法は,現在および過去の表現の重み付き平均を計算する,各変圧器ブロックの後の加算平均ステップに依存する。
実験によると、DenseFormerはよりデータ効率が高く、より深いトランスフォーマーモデルと同じ難易度に達する。
論文 参考訳(メタデータ) (2024-02-04T21:44:09Z) - Controllable Topic-Focused Abstractive Summarization [57.8015120583044]
制御された抽象的な要約は、特定の側面をカバーするために、ソース記事の凝縮したバージョンを作成することに焦点を当てる。
本稿では,トピックに着目した要約を生成可能なトランスフォーマーアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-11-12T03:51:38Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z) - Transformers for End-to-End InfoSec Tasks: A Feasibility Study [6.847381178288385]
私たちは2つの異なるInfoSecデータフォーマット、特にURLとPEファイルに対してトランスフォーマーモデルを実装します。
URLトランスフォーマーモデルは、高いパフォーマンスレベルに達するためには、異なるトレーニングアプローチが必要です。
提案手法は,PEファイルのベンチマークデータセット上で,確立されたマルウェア検出モデルに相容れない性能を示す。
論文 参考訳(メタデータ) (2022-12-05T23:50:46Z) - Plug-In Inversion: Model-Agnostic Inversion for Vision with Data
Augmentations [61.95114821573875]
単純な拡張セットに依存し、過剰なハイパーパラメータチューニングを必要としないPlug-In Inversionを導入する。
ImageNetデータセットでトレーニングされたビジョントランスフォーマー(ViT)とマルチ層パーセプトロン(MLP)を反転させることにより,我々のアプローチの実用性を説明する。
論文 参考訳(メタデータ) (2022-01-31T02:12:45Z) - Enriching Transformers with Structured Tensor-Product Representations
for Abstractive Summarization [131.23966358405767]
抽象的な要約のタスクに対して,明示的に構成された製品表現(TPR)をTP-TRANSFORMERに適用する。
モデルの主な特徴は、トークンごとに2つの別々の表現を符号化することで導入する構造バイアスである。
本稿では,TP-TRANSFORMER が Transformer と TP-TRANSFORMER より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-02T17:32:33Z) - Analogous to Evolutionary Algorithm: Designing a Unified Sequence Model [58.17021225930069]
実演的進化アルゴリズム(EA)と類似した視覚変換器の合理性について説明する。
我々は、より効率的なEATモデルを提案し、様々なタスクに柔軟に対処するタスク関連ヘッドを設計する。
近年のビジョントランスに比べて,イメージネット分類作業における最先端の成果が得られている。
論文 参考訳(メタデータ) (2021-05-31T16:20:03Z) - Applying the Transformer to Character-level Transduction [68.91664610425114]
この変換器は、様々な単語レベルのNLPタスクにおいて、繰り返しニューラルネットワークに基づくシーケンス・ツー・シーケンスモデルより優れていることが示されている。
十分なバッチサイズで、トランスフォーマーは文字レベルタスクの繰り返しモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-05-20T17:25:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。