論文の概要: CUED_speech at TREC 2020 Podcast Summarisation Track
- arxiv url: http://arxiv.org/abs/2012.02535v2
- Date: Wed, 13 Jan 2021 11:33:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-22 20:44:28.234618
- Title: CUED_speech at TREC 2020 Podcast Summarisation Track
- Title(参考訳): CUED_speech at TREC 2020 Podcast Summarisation Track
- Authors: Potsawee Manakul and Mark Gales
- Abstract要約: ポッドキャストのエピソードが書き起こされ、そのゴールはコンテンツの中で最も重要な情報をキャプチャーする要約を生成することである。
提案手法は,(1)階層的モデルに着目して書き起こし中の冗長文や情報の少ない文をフィルタリングすること,(2)シーケンスレベルの報酬関数を用いたPodcastデータに,最先端のテキスト要約システム(BART)を微調整すること,の2段階からなる。
本システムは,TREC 2020 Podcast TrackにおけるSpotify Podcast Summarisation Challengeで人的および自動評価で優勝した。
- 参考スコア(独自算出の注目度): 1.776746672434207
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we describe our approach for the Podcast Summarisation
challenge in TREC 2020. Given a podcast episode with its transcription, the
goal is to generate a summary that captures the most important information in
the content. Our approach consists of two steps: (1) Filtering redundant or
less informative sentences in the transcription using the attention of a
hierarchical model; (2) Applying a state-of-the-art text summarisation system
(BART) fine-tuned on the Podcast data using a sequence-level reward function.
Furthermore, we perform ensembles of three and nine models for our submission
runs. We also fine-tune the BART model on the Podcast data as our baseline. The
human evaluation by NIST shows that our best submission achieves 1.777 in the
EGFB scale, while the score of creator-provided description is 1.291. Our
system won the Spotify Podcast Summarisation Challenge in the TREC2020 Podcast
Track in both human and automatic evaluation.
- Abstract(参考訳): 本稿では,trac 2020におけるポッドキャスト要約チャレンジのアプローチについて述べる。
ポッドキャストのエピソードが書き起こされ、そのゴールはコンテンツの中で最も重要な情報をキャプチャする要約を生成することである。
提案手法は,(1)階層的モデルに着目して書き起こし中の冗長文や情報の少ない文をフィルタリングすること,(2)シーケンスレベルの報酬関数を用いたPodcastデータに最先端のテキスト要約システム(BART)を適用すること,の2段階からなる。
さらに,提案方式では3モデルと9モデルのアンサンブルを行う。
また、PodcastデータのBARTモデルをベースラインとして微調整します。
NISTによる人間による評価では,EGFB尺度では1.777,クリエーターによる記述スコアは1.291であった。
本研究では, TREC2020 Podcast Track におけるSpotify Podcast Summarisation Challenge を人的および自動評価で獲得した。
関連論文リスト
- Mapping the Podcast Ecosystem with the Structured Podcast Research Corpus [23.70786221902932]
私たちは2020年5月から6月にかけて、公開RSSフィードを通じて利用可能な110万以上のポッドキャストの大規模なデータセットを紹介します。
このデータはテキストに限らず、オーディオ機能や370Kエピソードのサブセットのスピーカー・ターンも含んでいる。
このデータを用いて、このポピュラーなインパクトのある媒体の内容、構造、応答性に関する基礎的な調査を行う。
論文 参考訳(メタデータ) (2024-11-12T15:56:48Z) - TokenSplit: Using Discrete Speech Representations for Direct, Refined,
and Transcript-Conditioned Speech Separation and Recognition [51.565319173790314]
TokenSplit は Transformer アーキテクチャを使用するシーケンス・ツー・シーケンス・エンコーダ・デコーダモデルである。
また,本モデルでは,書き起こし条件付けの有無にかかわらず,分離の点で優れた性能を発揮することを示す。
また、自動音声認識(ASR)の性能を測定し、音声合成の音声サンプルを提供し、我々のモデルの有用性を実証する。
論文 参考訳(メタデータ) (2023-08-21T01:52:01Z) - Learning to Ground Instructional Articles in Videos through Narrations [50.3463147014498]
ナレーションされたハウツービデオにおける手続き的活動の段階をローカライズするためのアプローチを提案する。
本稿では,教科記事を含む言語知識ベース(wikiHow)からステップ記述を抽出する。
本モデルは,3つのモダリティをマッチングすることにより,プロシージャ記事のステップをハウツービデオに時間的に基礎付けることを学習する。
論文 参考訳(メタデータ) (2023-06-06T15:45:53Z) - Generating EDU Extracts for Plan-Guided Summary Re-Ranking [77.7752504102925]
要約候補を生成して1つの要約を返す2段階のアプローチでは、標準的な単一ステップアプローチよりもROUGEスコアを改善することができる。
これらの問題に対処する再ランク付け候補を生成するための新しい手法を設計する。
広く使われている単一文書ニュース記事コーパスにおいて,以前に公表された手法よりも大きな関連性を示した。
論文 参考訳(メタデータ) (2023-05-28T17:22:04Z) - SVTS: Scalable Video-to-Speech Synthesis [105.29009019733803]
本稿では,ビデオ・トゥ・スペクトログラム予測器と事前学習したニューラルボコーダの2つのコンポーネントからなるスケーラブルなビデオ音声合成フレームワークを提案する。
私たちは、挑戦的なLSS3データセットで不可解な結果を示す最初の人です。
論文 参考訳(メタデータ) (2022-05-04T13:34:07Z) - Spotify at TREC 2020: Genre-Aware Abstractive Podcast Summarization [4.456617185465443]
この挑戦の目的は、ポッドキャストエピソードに存在する重要な情報を含む短く有益な要約を生成することでした。
ジャンルと名前付きエンティティを明確に考慮した2つの要約モデルを提案する。
我々のモデルは抽象的であり、創造者が提供する記述を根拠となる真実の要約として利用している。
論文 参考訳(メタデータ) (2021-04-07T18:27:28Z) - A Two-Phase Approach for Abstractive Podcast Summarization [18.35061145103997]
ポッドキャストの要約は他のデータフォーマットの要約とは異なる。
文選択とSeq2seq学習という2段階の手法を提案する。
提案手法は,ROUGEに基づく測定と人的評価の両面で有望な結果をもたらす。
論文 参考訳(メタデータ) (2020-11-16T21:31:28Z) - PodSumm -- Podcast Audio Summarization [0.0]
テキストドメインからのガイダンスを用いて,ポッドキャストの要約を自動的に作成する手法を提案する。
このタスクにはデータセットが不足しているため、内部データセットをキュレートし、データ拡張の効果的なスキームを見つけ、アノテータから要約を集めるためのプロトコルを設計する。
本手法は, ROUGE-F(1/2/L) スコア0.63/0.53/0.63をデータセット上で達成する。
論文 参考訳(メタデータ) (2020-09-22T04:49:33Z) - A Baseline Analysis for Podcast Abstractive Summarization [18.35061145103997]
本稿では,Spotify Podcastデータセットを用いたポッドキャスト要約のベースライン解析について述べる。
研究者が現在の最先端の事前訓練モデルを理解するのを助け、より良いモデルを作るための基盤を構築することを目的としている。
論文 参考訳(メタデータ) (2020-08-24T18:38:42Z) - Abstractive Summarization of Spoken and Written Instructions with BERT [66.14755043607776]
本稿では,BERTSumモデルの最初の対話型言語への応用について述べる。
我々は多種多様な話題にまたがるナレーションビデオの抽象要約を生成する。
我々は、これをインテリジェントな仮想アシスタントの機能として統合し、要求に応じて文字と音声の両方の指導内容の要約を可能にすることを想定する。
論文 参考訳(メタデータ) (2020-08-21T20:59:34Z) - Audio ALBERT: A Lite BERT for Self-supervised Learning of Audio
Representation [51.37980448183019]
本稿では,自己教師型音声表現モデルの簡易版であるAudio ALBERTを提案する。
我々は、Audio ALBERTが、下流タスクにおいて、これらの巨大なモデルと競合する性能を達成することができることを示す。
探索実験において、潜在表現は、最後の層よりも音素と話者のリッチな情報をエンコードすることがわかった。
論文 参考訳(メタデータ) (2020-05-18T10:42:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。