論文の概要: CrisisLTLSum: A Benchmark for Local Crisis Event Timeline Extraction and
Summarization
- arxiv url: http://arxiv.org/abs/2210.14190v1
- Date: Tue, 25 Oct 2022 17:32:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 14:49:40.832145
- Title: CrisisLTLSum: A Benchmark for Local Crisis Event Timeline Extraction and
Summarization
- Title(参考訳): CrisisLTLSum: ローカル危機イベントタイムライン抽出と要約のためのベンチマーク
- Authors: Hossein Rajaby Faghihi, Bashar Alhafni, Ke Zhang, Shihao Ran, Joel
Tetreault, Alejandro Jaimes
- Abstract要約: 本稿では,現在までに利用可能な地域危機イベントタイムラインの最大のデータセットであるCrisisLTLSumについて述べる。
CrisisLTLSumには、山火事、地元の火災、交通、嵐の4つの領域にわたる1000の危機イベントタイムラインが含まれている。
最初の実験では, 両タスクの人的性能と比較して, 強いベースライン性能の間に有意な差があることが示唆された。
- 参考スコア(独自算出の注目度): 62.77066949111921
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Social media has increasingly played a key role in emergency response: first
responders can use public posts to better react to ongoing crisis events and
deploy the necessary resources where they are most needed. Timeline extraction
and abstractive summarization are critical technical tasks to leverage large
numbers of social media posts about events. Unfortunately, there are few
datasets for benchmarking technical approaches for those tasks. This paper
presents CrisisLTLSum, the largest dataset of local crisis event timelines
available to date. CrisisLTLSum contains 1,000 crisis event timelines across
four domains: wildfires, local fires, traffic, and storms. We built
CrisisLTLSum using a semi-automated cluster-then-refine approach to collect
data from the public Twitter stream. Our initial experiments indicate a
significant gap between the performance of strong baselines compared to the
human performance on both tasks. Our dataset, code, and models are publicly
available.
- Abstract(参考訳): ソーシャルメディアは、緊急対応において、ますます重要な役割を担っている。ファーストレスポンダは、公開投稿を使用して、進行中の危機イベントへの反応を改善し、最も必要なリソースを展開することができる。
タイムライン抽出と抽象要約は、イベントに関する大量のソーシャルメディア投稿を活用するための重要な技術的タスクである。
残念ながら、これらのタスクの技術的アプローチをベンチマークするためのデータセットはほとんどありません。
本稿では,これまで利用可能なローカル危機イベントタイムラインの最大のデータセットである crisisltlsum を提案する。
crisisltlsumには4つのドメイン(山火事、地元の火災、交通、嵐)にまたがる1000の危機イベントのタイムラインがある。
公開Twitterストリームからデータを収集するために,半自動クラスタ-then-refineアプローチを用いてCrsisLTLSumを構築した。
最初の実験では,両タスクの人的性能と比較して,強いベースライン性能の差が顕著であった。
私たちのデータセット、コード、モデルは公開されています。
関連論文リスト
- CrisisMatch: Semi-Supervised Few-Shot Learning for Fine-Grained Disaster
Tweet Classification [51.58605842457186]
半教師付き, 少数ショットの学習環境下で, 微粒な災害ツイート分類モデルを提案する。
私たちのモデルであるCrisisMatchは、ラベルなしデータと大量のラベルなしデータを用いて、ツイートを関心の細かいクラスに効果的に分類する。
論文 参考訳(メタデータ) (2023-10-23T07:01:09Z) - DeCrisisMB: Debiased Semi-Supervised Learning for Crisis Tweet
Classification via Memory Bank [52.20298962359658]
危機イベントにおいて、人々は、状況、警告、アドバイス、サポートに関する情報を広めるために、Twitterのようなソーシャルメディアプラットフォームを使うことが多い。
完全に教師されたアプローチでは、大量のデータを注釈付けする必要があります。
半教師付きモデルは偏りがあり、特定のクラスでは適度に機能し、他のクラスでは極めて貧弱である。
本稿では,メモリバンクを用いて,各学習クラスから生成された擬似ラベルを等しくサンプリングする,単純かつ効果的なデバイアス処理手法であるDeCrisisMBを提案する。
論文 参考訳(メタデータ) (2023-10-23T05:25:51Z) - Coping with low data availability for social media crisis message
categorisation [3.0255457622022495]
この論文は、緊急対応のための危機メッセージの分類において、データ可用性の低い課題に対処することに焦点を当てている。
これはまず、過去の危機イベントから注釈付きデータから分類モデルを学ぶことを含む、この問題の解決策としてドメイン適応を提示する。
モデルが過去の複数のイベントに対してトレーニングされ、進行中の複数のイベントに適応する多対多適応では、マルチタスク学習アプローチが提案される。
論文 参考訳(メタデータ) (2023-05-26T19:08:24Z) - Follow the Timeline! Generating Abstractive and Extractive Timeline
Summary in Chronological Order [78.46986998674181]
時間順で抽象的かつ抽出的な時系列を生成できる統一タイムライン要約器(UTS)を提案する。
我々は、以前の中国の大規模タイムライン要約データセットを拡張し、新しい英語タイムラインデータセットを収集する。
UTSは、自動評価と人的評価の両方の観点から最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-01-02T20:29:40Z) - Cross-Lingual and Cross-Domain Crisis Classification for Low-Resource
Scenarios [4.147346416230273]
本稿では,言語間およびドメイン間ラベル付きデータを活用することで,危機事象に関連するメッセージを自動的に分類するタスクについて検討する。
私たちのゴールは、高リソース言語のラベル付きデータを使用して、他の(低リソースの)言語や、新しい(以前は見えなかった)危機状況からのメッセージを分類することです。
我々の経験的発見は、英語の危機イベントのデータを利用して、スペイン語やイタリア語など他の言語で同じ種類の出来事を分類することが可能であることを示している。
論文 参考訳(メタデータ) (2022-09-05T20:57:23Z) - Event-Related Bias Removal for Real-time Disaster Events [67.2965372987723]
ソーシャルメディアは、自然災害や大量攻撃などの危機事象に関する情報を共有する重要なツールとなっている。
有用な情報を含む実行可能なポストを検出するには、大量のデータをリアルタイムに高速に分析する必要がある。
我々は、潜在事象固有のバイアスを除去し、ツイート重要度分類の性能を向上させるために、敵対的ニューラルモデルを訓練する。
論文 参考訳(メタデータ) (2020-11-02T02:03:07Z) - CrisisBench: Benchmarking Crisis-related Social Media Datasets for
Humanitarian Information Processing [13.11283003017537]
我々は8つの注釈付きデータセットを統合し、166.1kと141.5kのつぶやきをテクスチャインフォームネスとテキスト指向の分類タスクに提供します。
我々は、CNN、fastText、transformerなど、いくつかのディープラーニングアーカイブを用いて、バイナリクラスとマルチクラスの両方の分類タスクのベンチマークを提供する。
論文 参考訳(メタデータ) (2020-04-14T19:51:04Z) - Multimodal Categorization of Crisis Events in Social Media [81.07061295887172]
本稿では,画像とテキストの両方を入力として利用するマルチモーダル融合法を提案する。
特に、弱モダリティから非形式的および誤解を招くコンポーネントをフィルタリングできるクロスアテンションモジュールを導入する。
本手法は,3つの危機関連タスクにおいて,一様アプローチと強いマルチモーダルベースラインを大きなマージンで上回ることを示す。
論文 参考訳(メタデータ) (2020-04-10T06:31:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。