論文の概要: PORTRAIT: a hybrid aPproach tO cReate extractive ground-TRuth summAry
for dIsaster evenT
- arxiv url: http://arxiv.org/abs/2305.11536v1
- Date: Fri, 19 May 2023 09:07:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-22 15:16:41.219147
- Title: PORTRAIT: a hybrid aPproach tO cReate extractive ground-TRuth summAry
for dIsaster evenT
- Title(参考訳): PortraIT: ハイブリッドaPproach tO cReate抽出地-TRuth summAry for dIsaster evenT
- Authors: Piyush Kumar Garg, Roshni Chakraborty, and Sourav Kumar Dandapat
- Abstract要約: 災害要約アプローチは、Twitterなどのソーシャルメディアプラットフォームで災害イベント中に投稿された重要な情報の概要を提供する。
そこで本研究では,提案手法を部分的に自動化するハイブリッド(半自動)手法を提案する。
本研究では,既存の直観的アプローチ,半自動アプローチ,および PortraIT による地中真実の定量的,定性的な比較により,5つの災害事象に対する PortraIT の有効性を検証した。
- 参考スコア(独自算出の注目度): 5.386050544766801
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Disaster summarization approaches provide an overview of the important
information posted during disaster events on social media platforms, such as,
Twitter. However, the type of information posted significantly varies across
disasters depending on several factors like the location, type, severity, etc.
Verification of the effectiveness of disaster summarization approaches still
suffer due to the lack of availability of good spectrum of datasets along with
the ground-truth summary. Existing approaches for ground-truth summary
generation (ground-truth for extractive summarization) relies on the wisdom and
intuition of the annotators. Annotators are provided with a complete set of
input tweets from which a subset of tweets is selected by the annotators for
the summary. This process requires immense human effort and significant time.
Additionally, this intuition-based selection of the tweets might lead to a high
variance in summaries generated across annotators. Therefore, to handle these
challenges, we propose a hybrid (semi-automated) approach (PORTRAIT) where we
partly automate the ground-truth summary generation procedure. This approach
reduces the effort and time of the annotators while ensuring the quality of the
created ground-truth summary. We validate the effectiveness of PORTRAIT on 5
disaster events through quantitative and qualitative comparisons of
ground-truth summaries generated by existing intuitive approaches, a
semi-automated approach, and PORTRAIT. We prepare and release the ground-truth
summaries for 5 disaster events which consist of both natural and man-made
disaster events belonging to 4 different countries. Finally, we provide a study
about the performance of various state-of-the-art summarization approaches on
the ground-truth summaries generated by PORTRAIT using ROUGE-N F1-scores.
- Abstract(参考訳): 災害要約アプローチは、Twitterなどのソーシャルメディアプラットフォームで災害イベント中に投稿された重要な情報の概要を提供する。
しかし、投稿される情報の種類は、場所、種類、深刻度などによって、災害によって大きく異なる。
災害要約手法の有効性の検証は, 良好なデータセットが得られていないことや, 地要要約の欠如により, いまだに困難である。
既存の基底要約生成のアプローチ(抽出要約のための基底要約)は、注釈者の知恵と直観に依存している。
アノテーションには、要約のためにアノテータによってツイートのサブセットが選択された入力ツイートの完全なセットが提供される。
このプロセスには膨大な労力と膨大な時間が必要です。
さらに、この直観に基づくツイートの選択は、注釈者間で生成された要約に高いばらつきをもたらす可能性がある。
そこで本稿では,これらの課題に対処するため,提案手法を部分的に自動化するハイブリッド(半自動)手法を提案する。
このアプローチはアノテータの労力と時間を削減し、生成した地文要約の品質を確保します。
本研究では,既存の直観的アプローチ,半自動アプローチ,および PortraIT による地中真実の定量的,定性的な比較による5つの災害事象に対する PortraIT の有効性を検証する。
我々は,4カ国に属する自然災害と人的災害の両方からなる5つの災害イベントについて,その概要をまとめ,公開する。
最後に, ROUGE-N F1スコアを用いた PortraIT が生成した基底トラス・サマリーに対する, 最先端の要約手法の性能について検討する。
関連論文リスト
- ADSumm: Annotated Ground-truth Summary Datasets for Disaster Tweet Summarization [8.371475703337106]
既存のつぶやき災害要約アプローチは、政府機関や人道団体などを支援するためにこれらの出来事の要約を提供する。
本稿では,8件の災害イベントに対して,アノテートされた地要要約を付加したADSummを提案する。
実験により,新たに追加されたデータセットはROUGE-N F1スコアにおいて,教師付き要約手法の性能を8~28%向上することが示された。
論文 参考訳(メタデータ) (2024-05-10T15:49:01Z) - AgentOhana: Design Unified Data and Training Pipeline for Effective Agent Learning [98.26836657967162]
textbfAgentOhanaは、さまざまなシナリオにまたがって、異なる環境からエージェントのトラジェクトリを集約する。
AIエージェント用に調整された大規模なアクションモデルである textbfxLAM-v0.1 は、さまざまなベンチマークで例外的なパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-02-23T18:56:26Z) - Multi-Query Focused Disaster Summarization via Instruction-Based
Prompting [3.6199702611839792]
CrisisFACTSは,マルチストリームファクトフィンディングに基づく災害要約の推進を目的としている。
ここでは、いくつかの災害関連事象から重要な事実を抽出できるシステムを開発するよう、参加者に依頼する。
本稿では,この課題に対処する方法について述べる。
論文 参考訳(メタデータ) (2024-02-14T08:22:58Z) - AMRFact: Enhancing Summarization Factuality Evaluation with AMR-Driven Negative Samples Generation [57.8363998797433]
抽象的意味表現(AMR)を用いた摂動要約を生成するフレームワークであるAMRFactを提案する。
提案手法は,AMRグラフに一貫した要約を解析し,制御された事実不整合を注入して負の例を生成し,一貫性のない事実不整合要約を高い誤差型カバレッジで生成する。
論文 参考訳(メタデータ) (2023-11-16T02:56:29Z) - CrisisMatch: Semi-Supervised Few-Shot Learning for Fine-Grained Disaster
Tweet Classification [51.58605842457186]
半教師付き, 少数ショットの学習環境下で, 微粒な災害ツイート分類モデルを提案する。
私たちのモデルであるCrisisMatchは、ラベルなしデータと大量のラベルなしデータを用いて、ツイートを関心の細かいクラスに効果的に分類する。
論文 参考訳(メタデータ) (2023-10-23T07:01:09Z) - Benchmarking the Generation of Fact Checking Explanations [19.363672064425504]
我々は、正当化の生成(クレームが真か偽かのどちらかに分類される理由をテキストで説明する)に焦点を当て、新しいデータセットと高度なベースラインでベンチマークする。
その結果,生産要約の正当性はクレーム情報から得られることがわかった。
クロスデータセット実験は性能劣化に悩まされるが、2つのデータセットの組み合わせでトレーニングされたユニークなモデルは、スタイル情報を効率的に保持することができる。
論文 参考訳(メタデータ) (2023-08-29T10:40:46Z) - IKDSumm: Incorporating Key-phrases into BERT for extractive Disaster
Tweet Summarization [5.299958874647294]
災害固有のつぶやき要約フレームワークIKDSummを提案する。
IKDSummは、そのツイートのキーフレーズを通じて、災害に関連する各ツイートから重要かつ重要な情報を識別する。
これらのキーワードを使って、ツイートの要約を自動的に生成する。
論文 参考訳(メタデータ) (2023-05-19T11:05:55Z) - Boosting Event Extraction with Denoised Structure-to-Text Augmentation [52.21703002404442]
イベント抽出は、テキストから事前に定義されたイベントトリガと引数を認識することを目的としている。
最近のデータ拡張手法は文法的誤りの問題を無視することが多い。
本稿では,イベント抽出DAEEのための記述構造からテキストへの拡張フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-16T16:52:07Z) - Salience Allocation as Guidance for Abstractive Summarization [61.31826412150143]
本稿では, サリエンセ・サリエンス・ガイダンス(SEASON, SaliencE Allocation as Guidance for Abstractive SummarizatiON)を用いた新しい要約手法を提案する。
SEASONは、サリエンス予測の割り当てを利用して抽象的な要約を導き、異なる抽象性のある記事に順応する。
論文 参考訳(メタデータ) (2022-10-22T02:13:44Z) - Multi-Fact Correction in Abstractive Text Summarization [98.27031108197944]
Span-Factは、質問応答モデルから学んだ知識を活用して、スパン選択によるシステム生成サマリーの補正を行う2つの事実補正モデルのスイートである。
我々のモデルは、ソースコードのセマンティック一貫性を確保するために、反復的または自動回帰的にエンティティを置き換えるために、シングルまたはマルチマスキング戦略を採用している。
実験の結果,自動測定と人的評価の両面において,要約品質を犠牲にすることなく,システム生成要約の事実整合性を大幅に向上させることができた。
論文 参考訳(メタデータ) (2020-10-06T02:51:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。