論文の概要: BiSparse-AAS: Bilinear Sparse Attention and Adaptive Spans Framework for Scalable and Efficient Text Summarization
- arxiv url: http://arxiv.org/abs/2510.27516v1
- Date: Fri, 31 Oct 2025 14:42:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-03 17:52:16.134362
- Title: BiSparse-AAS: Bilinear Sparse Attention and Adaptive Spans Framework for Scalable and Efficient Text Summarization
- Title(参考訳): BiSparse-AAS: スケーラブルで効率的なテキスト要約のためのBilinear Sparse Attention and Adaptive Spans Framework
- Authors: Desta Haileselassie Hagos, Legand L. Burge, Anietie Andy, Anis Yazidi, Vladimir Vlassov,
- Abstract要約: BiSparse-AASは、スパースアテンション、アダプティブスパン、アドレス制限に対する双線形アテンションを組み合わせた、新しいフレームワークである。
BiSparse-AASは、抽出および抽象的な要約タスクにおいて、最先端のベースラインを一貫して上回る。
- 参考スコア(独自算出の注目度): 4.6975699768352355
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Transformer-based architectures have advanced text summarization, yet their quadratic complexity limits scalability on long documents. This paper introduces BiSparse-AAS (Bilinear Sparse Attention with Adaptive Spans), a novel framework that combines sparse attention, adaptive spans, and bilinear attention to address these limitations. Sparse attention reduces computational costs by focusing on the most relevant parts of the input, while adaptive spans dynamically adjust the attention ranges. Bilinear attention complements both by modeling complex token interactions within this refined context. BiSparse-AAS consistently outperforms state-of-the-art baselines in both extractive and abstractive summarization tasks, achieving average ROUGE improvements of about 68.1% on CNN/DailyMail and 52.6% on XSum, while maintaining strong performance on OpenWebText and Gigaword datasets. By addressing efficiency, scalability, and long-sequence modeling, BiSparse-AAS provides a unified, practical solution for real-world text summarization applications.
- Abstract(参考訳): トランスフォーマーベースのアーキテクチャには高度なテキスト要約があるが、その二次的な複雑さは長いドキュメントのスケーラビリティを制限している。
本稿では、これらの制限に対処するために、スパースアテンション、適応スパン、双線形アテンションを組み合わせた新しいフレームワークであるBiSparse-AAS(Bilinear Sparse Attention with Adaptive Spans)を紹介する。
スパース・アテンションは、入力の最も関連性の高い部分に着目して計算コストを削減し、アダプティブ・スパンは、アダプティブ・アテンション範囲を動的に調整する。
双線型の注意はこの洗練された文脈の中で複雑なトークン相互作用をモデル化することによって両方を補完する。
BiSparse-AASは、抽出および抽象的な要約タスクの両方で最先端のベースラインを一貫して上回り、平均ROUGEの改善はCNN/DailyMailで68.1%、XSumで52.6%、OpenWebTextとGigawordのデータセットで強いパフォーマンスを維持している。
BiSparse-AASは効率性、スケーラビリティ、長いシーケンスモデリングに対処することで、現実世界のテキスト要約アプリケーションに統一的で実用的なソリューションを提供する。
関連論文リスト
- BoundRL: Efficient Structured Text Segmentation through Reinforced Boundary Generation [26.825801831400003]
BoundRLは長い構造化テキストに対してトークンレベルのテキストセグメンテーションとラベル予測を行う。
セグメントごとに完全なコンテンツを生成する代わりに、開始トークンのシーケンスだけを生成する。
オリジナルテキスト内にこれらのトークンを配置することで、完全な内容を再構築する。
論文 参考訳(メタデータ) (2025-10-23T02:56:10Z) - Rethinking Transformer Connectivity: TLinFormer, A Path to Exact, Full Context-Aware Linear Attention [0.0]
本稿では,新しいリニアアテンションアーキテクチャ-textbfTLinFormerを提案する。
ニューロン接続パターンを再構成することにより、TLinFormerは正確な注意スコアを計算しながら厳密な線形複雑性を実現する。
TLinFormerは,textbfinference遅延, textbfKVキャッシュ効率, textbfMemoryフットプリントといった重要な指標において,圧倒的な優位性を示すことを示す。
論文 参考訳(メタデータ) (2025-08-28T04:10:19Z) - Small Language Model Makes an Effective Long Text Extractor [10.886875977716608]
名前付きエンティティ認識(NER)は自然言語処理(NLP)の基本問題である
本稿では,SeNERと呼ばれる軽量なスパンベースNER手法を提案する。
長いテキストを効果的に埋め込むために、[]トークンにLogN-Scalingと結合した双方向の矢印アテンション機構が組み込まれています。
3つの長いNERデータセットで最先端の抽出精度を実現し、GPUメモリフレンドリな方法で長いテキストからエンティティを抽出することができる。
論文 参考訳(メタデータ) (2025-02-11T06:06:25Z) - TextFormer: A Query-based End-to-End Text Spotter with Mixed Supervision [61.186488081379]
Transformerアーキテクチャを用いた問合せベースのエンドツーエンドテキストスポッターであるTextFormerを提案する。
TextFormerは、画像エンコーダとテキストデコーダの上に構築され、マルチタスクモデリングのための共同セマンティック理解を学ぶ。
分類、セグメンテーション、認識のブランチの相互訓練と最適化を可能にし、より深い特徴共有をもたらす。
論文 参考訳(メタデータ) (2023-06-06T03:37:41Z) - Plug-and-Play Regulators for Image-Text Matching [76.28522712930668]
微細な対応と視覚的セマンティックなアライメントの爆発は、画像とテキストのマッチングにおいて大きな可能性を秘めている。
我々は、メッセージ出力を効率的にエンコードして、コンテキストを自動生成し、モーダル表現を集約する、シンプルだが非常に効果的な2つのレギュレータを開発した。
MSCOCOとFlickr30Kデータセットの実験は、複数のモデルで印象的で一貫したR@1ゲインをもたらすことができることを実証している。
論文 参考訳(メタデータ) (2023-03-23T15:42:05Z) - Real-Time Scene Text Detection with Differentiable Binarization and
Adaptive Scale Fusion [62.269219152425556]
セグメンテーションに基づくシーンテキスト検出手法はシーンテキスト検出分野において大きな注目を集めている。
本稿では,二項化処理をセグメンテーションネットワークに統合する分散二項化(DB)モジュールを提案する。
アダプティブ・スケール・フュージョン (ASF) モジュールは, 異なるスケールの特徴を適応的に融合させることにより, スケールのロバスト性を向上させる。
論文 参考訳(メタデータ) (2022-02-21T15:30:14Z) - ABCNet v2: Adaptive Bezier-Curve Network for Real-time End-to-end Text
Spotting [108.93803186429017]
エンドツーエンドのテキストスポッティングは、統一されたフレームワークで検出と認識を統合することを目指している。
本稿では、Adaptive Bezier Curve Network v2 (ABCNet v2) を提示することで、エンドツーエンドテキストスポッティングに取り組む。
1) 任意の形状のテキストをパラメータ化されたベジアー曲線で適応的に適合させ, セグメンテーション法と比較すると, 構造的な出力だけでなく, 制御可能な表現も提供できる。
様々なバイリンガル(英語と中国語)ベンチマークデータセットで実施された総合的な実験は、ABCNet v2が現状を達成することを実証している。
論文 参考訳(メタデータ) (2021-05-08T07:46:55Z) - Dynamic Hybrid Relation Network for Cross-Domain Context-Dependent
Semantic Parsing [52.24507547010127]
ドメイン間コンテキスト依存のセマンティック解析は研究の新たな焦点である。
本稿では,コンテキストの発話,トークン,データベーススキーマ,会話の進行に伴う複雑なインタラクションを効果的にモデル化する動的グラフフレームワークを提案する。
提案したフレームワークは既存のモデルを大きなマージンで上回り、2つの大規模ベンチマークで新しい最先端性能を達成する。
論文 参考訳(メタデータ) (2021-01-05T18:11:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。