論文の概要: Ensemble Transformer for Efficient and Accurate Ranking Tasks: an
Application to Question Answering Systems
- arxiv url: http://arxiv.org/abs/2201.05767v1
- Date: Sat, 15 Jan 2022 06:21:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-19 15:05:57.605708
- Title: Ensemble Transformer for Efficient and Accurate Ranking Tasks: an
Application to Question Answering Systems
- Title(参考訳): 効率良く正確なランク付けタスクのためのアンサンブルトランスフォーマー:質問応答システムへの応用
- Authors: Yoshitomo Matsubara, Luca Soldaini, Eric Lind, Alessandro Moschitti
- Abstract要約: 本研究では,大きな変圧器のアンサンブルを1つの小さなモデルに蒸留するニューラルネットワークを提案する。
MHSモデルは、入力をエンコードするために使用されるトランスフォーマー層のスタックと、ランキングヘッドのセットの2つのコンポーネントから構成される。
従来の蒸留法とは異なり,本手法では,アンサンブルメンバーの多様性を保ちつつ,個々のモデルを教師として利用している。
- 参考スコア(独自算出の注目度): 99.13795374152997
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large transformer models can highly improve Answer Sentence Selection (AS2)
task, but their high computational costs prevent their use in many real world
applications. In this paper, we explore the following research question: How
can we make the AS2models more accurate without significantly increasing their
model complexity? To address the question, we propose a Multiple Heads Student
architecture (MHS), an efficient neural network designed to distill an ensemble
of large transformers into a single smaller model. An MHS model consists of two
components: a stack of transformer layers that is used to encode inputs, and a
set of ranking heads; each of them is trained by distilling a different large
transformer architecture. Unlike traditional distillation techniques, our
approach leverages individual models in ensemble as teachers in a way that
preserves the diversity of the ensemble members. The resulting model captures
the knowledge of different types of transformer models by using just a few
extra parameters. We show the effectiveness of MHS on three English datasets
for AS2; our proposed approach outperforms all single-model distillations we
consider, rivaling the state-of-the-art large AS2 models that have 2.7x more
parameters and run 2.5x slower.
- Abstract(参考訳): 大規模なトランスモデルは、Answer Sentence Selection (AS2)タスクを高度に改善することができるが、その高い計算コストは、多くの現実世界のアプリケーションでの使用を妨げている。
本稿では,モデル複雑性を大幅に増大させることなく,AS2モデルをより正確にする方法について検討する。
そこで本研究では,大規模トランスフォーマーのアンサンブルを1つの小さなモデルに蒸留する効率的なニューラルネットワークであるmultiple heads student architecture (mhs)を提案する。
MHSモデルは、入力をエンコードするために使用される変圧器層のスタックと、ランキングヘッドのセットの2つのコンポーネントから構成され、それぞれが異なる大きな変圧器アーキテクチャを蒸留することによって訓練される。
従来の蒸留法とは異なり,本手法では,アンサンブルメンバーの多様性を保ちつつ,個々のモデルを教師として利用する。
得られたモデルは、いくつかの余分なパラメータを使って、異なるタイプのトランスフォーマーモデルの知識をキャプチャする。
提案手法は2.7倍のパラメータを持ち2.5倍遅く動作する最先端の大型AS2モデルに匹敵するものである。
関連論文リスト
- Transformers to SSMs: Distilling Quadratic Knowledge to Subquadratic Models [92.36510016591782]
本稿では,事前学習したトランスフォーマーアーキテクチャを,状態空間モデル(SSM)などの代替アーキテクチャに蒸留する手法を提案する。
提案手法はMOHAWKと呼ばれ、3Bトークンと5Bトークンを用いたハイブリッドバージョン(Hybrid Phi-Mamba)を用いてPhi-1.5アーキテクチャに基づくMamba-2変異体を蒸留することができる。
Phi-Mambaは、スクラッチからモデルのトレーニングに使用されるトレーニングデータの1%未満を使用してはいるが、過去のオープンソース非トランスフォーマーモデルと比較して、大幅にパフォーマンスが向上している。
論文 参考訳(メタデータ) (2024-08-19T17:48:11Z) - Multi-Path Transformer is Better: A Case Study on Neural Machine
Translation [35.67070351304121]
パラメータ効率のよいマルチパス構造を用いて,モデル幅がトランスフォーマーモデルに与える影響について検討した。
12のWMT機械翻訳タスクの実験では、同じ数のパラメータで、より浅いマルチパスモデルが、より深いモデルよりも類似またはより優れた性能を達成できることが示されている。
論文 参考訳(メタデータ) (2023-05-10T07:39:57Z) - Transformers For Recognition In Overhead Imagery: A Reality Check [0.0]
オーバヘッド画像のための最先端セグメンテーションモデルにトランスフォーマー構造を加えることの影響を比較した。
我々の結果は、トランスフォーマーは一貫性があるが、控えめな、パフォーマンスの向上をもたらすことを示唆している。
論文 参考訳(メタデータ) (2022-10-23T02:17:31Z) - AdaMix: Mixture-of-Adapter for Parameter-efficient Tuning of Large
Language Models [119.7093605087114]
大規模なトレーニング済み言語モデルをダウンストリームタスクに微調整するには、数億のパラメータを更新する必要がある。
これにより、各タスクのモデルの重みの大量コピーを格納するためのサービスコストが増大するだけでなく、数発のタスク適応中に不安定を示す。
パラメータや計算コストを2つの重要な手法で増大させることなく、アダプタ容量を改善するための新しいメカニズムを導入する。
論文 参考訳(メタデータ) (2022-05-24T23:41:22Z) - Efficient Vision Transformers via Fine-Grained Manifold Distillation [96.50513363752836]
視覚変換器のアーキテクチャは多くのコンピュータビジョンタスクで異常な性能を示した。
ネットワーク性能は向上するが、トランスフォーマーはより多くの計算資源を必要とすることが多い。
本稿では,教師のトランスフォーマーから,画像と分割パッチの関係を通して有用な情報を抽出することを提案する。
論文 参考訳(メタデータ) (2021-07-03T08:28:34Z) - Stochastic Attention Head Removal: A simple and effective method for
improving Transformer Based ASR Models [40.991809705930955]
トレーニング中に無作為にアテンションヘッドを取り除き、全てのアテンションヘッドをテスト時に保持し、最終モデルは異なるアーキテクチャを持つモデルのアンサンブルである。
提案手法は,ウォールストリートジャーナル,AISHELL,Switchboard,AMIデータセットにおいて,強力なベースラインよりも一貫したパフォーマンス向上を実現する。
論文 参考訳(メタデータ) (2020-11-08T15:41:03Z) - The Cascade Transformer: an Application for Efficient Answer Sentence
Selection [116.09532365093659]
本稿では,変圧器をベースとしたモデルのカスケード化手法であるカスケード変換器について紹介する。
現状の変圧器モデルと比較すると,提案手法は精度にほとんど影響を与えずに計算量を37%削減する。
論文 参考訳(メタデータ) (2020-05-05T23:32:01Z) - MiniLM: Deep Self-Attention Distillation for Task-Agnostic Compression
of Pre-Trained Transformers [117.67424061746247]
本稿では,大規模トランスフォーマーをベースとした事前学習モデルの簡易かつ効率的な圧縮手法を提案する。
本稿では,教師の最後のトランスフォーマー層の自己保持モジュールを蒸留することを提案する。
実験結果から, 単言語モデルでは, 学生モデルのパラメータサイズの違いにより, 最先端のベースラインよりも優れた結果が得られた。
論文 参考訳(メタデータ) (2020-02-25T15:21:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。