論文の概要: NUTSHELL: A Dataset for Abstract Generation from Scientific Talks
- arxiv url: http://arxiv.org/abs/2502.16942v1
- Date: Mon, 24 Feb 2025 08:11:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:55:13.162620
- Title: NUTSHELL: A Dataset for Abstract Generation from Scientific Talks
- Title(参考訳): NUTSHELL:科学講演からの要約生成のためのデータセット
- Authors: Maike Züfle, Sara Papi, Beatrice Savoldi, Marco Gaido, Luisa Bentivogli, Jan Niehues,
- Abstract要約: 音声から抽象的生成(SAG)は、記録された科学的プレゼンテーションから抽象化を自動的に生成することを目的としている。
我々は,NUTSHELLを紹介した。これは*ACLカンファレンスの講演を,対応する要約と組み合わせた新しいデータセットである。
SAGの課題を取り上げ,NUTSHELLでのトレーニングのメリットを実証した。
- 参考スコア(独自算出の注目度): 23.75575624937164
- License:
- Abstract: Scientific communication is receiving increasing attention in natural language processing, especially to help researches access, summarize, and generate content. One emerging application in this area is Speech-to-Abstract Generation (SAG), which aims to automatically generate abstracts from recorded scientific presentations. SAG enables researchers to efficiently engage with conference talks, but progress has been limited by a lack of large-scale datasets. To address this gap, we introduce NUTSHELL, a novel multimodal dataset of *ACL conference talks paired with their corresponding abstracts. We establish strong baselines for SAG and evaluate the quality of generated abstracts using both automatic metrics and human judgments. Our results highlight the challenges of SAG and demonstrate the benefits of training on NUTSHELL. By releasing NUTSHELL under an open license (CC-BY 4.0), we aim to advance research in SAG and foster the development of improved models and evaluation methods.
- Abstract(参考訳): 科学的なコミュニケーションは、特に研究がコンテンツにアクセスし、要約し、生成するのを助けるために、自然言語処理において注目を集めている。
この領域における新しい応用の1つは、記録された科学的プレゼンテーションから抽象化を自動的に生成することを目的とした音声合成(SAG)である。
SAGは研究者が効率的に会議に参加することを可能にするが、大規模データセットの欠如によって進歩は制限されている。
このギャップに対処するため、NUTSHELLは、*ACL会議における新しいマルチモーダルデータセットであり、対応する抽象概念と組み合わせている。
我々は、SAGの強力なベースラインを確立し、自動メトリクスと人的判断の両方を用いて、生成された抽象物の品質を評価する。
SAGの課題を取り上げ,NUTSHELLでのトレーニングのメリットを実証した。
NUTSHELLをオープンライセンス(CC-BY 4.0)でリリースすることで、SAGの研究を進め、改良されたモデルと評価手法の開発を促進することを目指している。
関連論文リスト
- OSUM: Advancing Open Speech Understanding Models with Limited Resources in Academia [18.661797258760974]
我々は,制約のある学術リソースの下でSLUMを訓練する可能性を検討するために,オープン音声理解モデルOSUMを提案する。
OSUMモデルは、WhisperエンコーダとQwen2 LLMを組み合わせて、音声認識(ASR)、タイムスタンプによる音声認識(SRWT)、音声イベント検出(VED)、音声感情認識(SER)、音声スタイル認識(SSR)、話者性別分類(SGC)、話者年齢予測(SAP)、音声テキストチャット(STTC)など、幅広い音声タスクをサポートする。
論文 参考訳(メタデータ) (2025-01-23T01:27:46Z) - Systematic Task Exploration with LLMs: A Study in Citation Text Generation [63.50597360948099]
大規模言語モデル(LLM)は、複雑な創造的自然言語生成(NLG)タスクの定義と実行において、前例のない柔軟性をもたらす。
本稿では,系統的な入力操作,参照データ,出力測定からなる3成分研究フレームワークを提案する。
我々はこのフレームワークを用いて引用テキスト生成を探索する。これは一般的なNLPタスクであり、タスク定義と評価基準に関するコンセンサスを欠いている。
論文 参考訳(メタデータ) (2024-07-04T16:41:08Z) - ExaRanker-Open: Synthetic Explanation for IR using Open-Source LLMs [60.81649785463651]
ExaRanker-Openを導入し、オープンソース言語モデルを適用して、説明を生成する。
以上の結果から,LLMのサイズが大きくなるにつれて,説明の組み込みが神経ランク付けを継続的に促進することが明らかとなった。
論文 参考訳(メタデータ) (2024-02-09T11:23:14Z) - Does Synthetic Data Generation of LLMs Help Clinical Text Mining? [51.205078179427645]
臨床テキストマイニングにおけるOpenAIのChatGPTの可能性を検討する。
本稿では,高品質な合成データを大量に生成する新たな学習パラダイムを提案する。
提案手法により,下流タスクの性能が大幅に向上した。
論文 参考訳(メタデータ) (2023-03-08T03:56:31Z) - Full-Text Argumentation Mining on Scientific Publications [3.8754200816873787]
フルテキストSAMに対してADURとAREを組み合わせた逐次パイプラインモデルを提案する。
両サブタスクにおける事前学習言語モデル(PLM)の性能について,最初の解析を行った。
本稿では,非連続型ADUと談話コネクタの解釈が重要な課題であることを示す。
論文 参考訳(メタデータ) (2022-10-24T10:05:30Z) - ConvFinQA: Exploring the Chain of Numerical Reasoning in Conversational
Finance Question Answering [70.6359636116848]
本稿では,対話型質問応答における数値推論の連鎖を研究するために,新しい大規模データセットConvFinQAを提案する。
我々のデータセットは、現実世界の会話において、長距離で複雑な数値推論パスをモデル化する上で大きな課題となる。
論文 参考訳(メタデータ) (2022-10-07T23:48:50Z) - Survey of Hallucination in Natural Language Generation [69.9926849848132]
近年,シーケンス間深層学習技術の発展により,自然言語生成(NLG)は指数関数的に向上している。
深層学習に基づく生成は意図しないテキストを幻覚させる傾向があるため、システム性能は低下する。
この調査は、NLGにおける幻覚テキストの課題に取り組む研究者の協力活動を促進するのに役立つ。
論文 参考訳(メタデータ) (2022-02-08T03:55:01Z) - WANLI: Worker and AI Collaboration for Natural Language Inference
Dataset Creation [101.00109827301235]
我々は人間と機械の協調に基づくデータセット作成のための新しいパラダイムを導入する。
我々は、データセット地図を用いて、挑戦的な推論パターンを示すサンプルを自動的に識別し、GPT-3に同様のパターンで新しい例を作成するよう指示する。
結果として得られたデータセットであるWANLIは、108,357の自然言語推論(NLI)の例からなり、ユニークな経験的強度を示す。
論文 参考訳(メタデータ) (2022-01-16T03:13:49Z) - Topic-Centric Unsupervised Multi-Document Summarization of Scientific
and News Articles [3.0504782036247438]
本稿では,トピック中心のマルチドキュメント要約フレームワークを提案し,抽象的な要約を生成する。
提案アルゴリズムは,有能な言語単位選択とテキスト生成技術を開発することにより,抽象的な要約を生成する。
提案手法は,自動抽出評価指標を用いて評価した場合の最先端技術と一致し,人間の5つの評価指標の抽象的要約に優れる。
論文 参考訳(メタデータ) (2020-11-03T04:04:21Z) - Automatic Text Summarization of COVID-19 Medical Research Articles using
BERT and GPT-2 [8.223517872575712]
我々は,既存のNLPモデルであるBERTとOpenAI GPT-2の最近の進歩を活用している。
本モデルは,原文から抽出したキーワードに基づいて,抽象的かつ包括的情報を提供する。
我々の研究は、要約がまだ手に入らない記事の簡潔な要約を提供することで、医療コミュニティに役立てることができる。
論文 参考訳(メタデータ) (2020-06-03T00:54:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。