論文の概要: "Actionable Help" in Crises: A Novel Dataset and Resource-Efficient Models for Identifying Request and Offer Social Media Posts
- arxiv url: http://arxiv.org/abs/2502.16839v1
- Date: Mon, 24 Feb 2025 04:50:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:55:18.191128
- Title: "Actionable Help" in Crises: A Novel Dataset and Resource-Efficient Models for Identifying Request and Offer Social Media Posts
- Title(参考訳): 危機における「アクタブル・ヘルプ」 : 要求の特定とソーシャルメディア投稿の提供のための新しいデータセットと資源効率モデル
- Authors: Rabindra Lamsal, Maria Rodriguez Read, Shanika Karunasekera, Muhammad Imran,
- Abstract要約: CrisisHelpOfferは101kのツイートを生成LDMでラベル付けし、人間によって検証された新しいデータセットである。
第2に,資源制約のある環境での展開に最適化された最初の危機特化ミニモデルを紹介する。
全てのモデルは既存の蒸留された変種を上回り、新しいベンチマークを設定した。
- 参考スコア(独自算出の注目度): 5.384787836425144
- License:
- Abstract: During crises, social media serves as a crucial coordination tool, but the vast influx of posts--from "actionable" requests and offers to generic content like emotional support, behavioural guidance, or outdated information--complicates effective classification. Although generative LLMs (Large Language Models) can address this issue with few-shot classification, their high computational demands limit real-time crisis response. While fine-tuning encoder-only models (e.g., BERT) is a popular choice, these models still exhibit higher inference times in resource-constrained environments. Moreover, although distilled variants (e.g., DistilBERT) exist, they are not tailored for the crisis domain. To address these challenges, we make two key contributions. First, we present CrisisHelpOffer, a novel dataset of 101k tweets collaboratively labelled by generative LLMs and validated by humans, specifically designed to distinguish actionable content from noise. Second, we introduce the first crisis-specific mini models optimized for deployment in resource-constrained settings. Across 13 crisis classification tasks, our mini models surpass BERT (also outperform or match the performance of RoBERTa, MPNet, and BERTweet), offering higher accuracy with significantly smaller sizes and faster speeds. The Medium model is 47% smaller with 3.8% higher accuracy at 3.5x speed, the Small model is 68% smaller with a 1.8% accuracy gain at 7.7x speed, and the Tiny model, 83% smaller, matches BERT's accuracy at 18.6x speed. All models outperform existing distilled variants, setting new benchmarks. Finally, as a case study, we analyze social media posts from a global crisis to explore help-seeking and assistance-offering behaviours in selected developing and developed countries.
- Abstract(参考訳): 危機の間、ソーシャルメディアは重要な調整ツールとして機能するが、「行動可能な」要求から大量のポストが流入し、感情的サポート、行動指導、時代遅れの情報による効果的な分類のような一般的なコンテンツを提供する。
生成型LLM(Large Language Models)は、この問題を数ショットの分類で解決できるが、その高い計算要求はリアルタイム危機応答を制限する。
微調整エンコーダのみのモデル(例えばBERT)は一般的な選択肢であるが、これらのモデルはリソース制約のある環境では高い推論時間を示す。
さらに、蒸留された変種(例: DistilBERT)は存在するが、危機ドメインには適していない。
これらの課題に対処するために、私たちは2つの重要な貢献をします。
まず、CrisisHelpOfferという101kのツイートからなる新しいデータセットを、生成的LLMによってラベル付けされ、人間によって検証される。
第2に,資源制約のある環境での展開に最適化された最初の危機特化ミニモデルを紹介する。
13の危機分類タスクの中で、私たちのミニモデルはBERT(RoBERTa, MPNet, BERTweetのパフォーマンスに匹敵するパフォーマンス)を上回り、より精度が高く、サイズも大幅に小さく、スピードも速い。
中型は47%小さく、3.5倍の精度で3.8%、小型は68%小さく、7.7倍の精度で1.8%、ティニー型は83%小さく、BERTの精度は18.6倍である。
全てのモデルは既存の蒸留された変種を上回り、新しいベンチマークを設定した。
最後に,世界危機からのソーシャルメディア投稿を分析し,先進国・先進国における援助活動や援助活動の実態を調査する。
関連論文リスト
- IRepair: An Intent-Aware Approach to Repair Data-Driven Errors in Large Language Models [11.075423190298686]
大規模言語モデル(LLM)はデータセットのバイアスに弱いことで知られており、毒性などの問題を引き起こす。
本稿では,動的スライシングに基づく意図認識型LLM修復戦略であるIRepairを紹介する。
IRepairはエラーを43.6%効率よく修復する一方で,一般性能の46%低下を招いた。
論文 参考訳(メタデータ) (2025-02-10T22:07:02Z) - Self-Data Distillation for Recovering Quality in Pruned Large Language Models [1.5665059604715017]
ワンショットプルーニングは、特に多段階推論を必要とするタスクにおいて、大幅な品質劣化をもたらす。
品質の低下を回復するために、教師付き微調整(SFT)が一般的に用いられるが、これは破滅的な忘れを招きかねない。
本研究では,これらの課題に対処するために,自己データ蒸留ファインチューニングを利用する。
論文 参考訳(メタデータ) (2024-10-13T19:53:40Z) - Advancing the Robustness of Large Language Models through Self-Denoised Smoothing [50.54276872204319]
大規模言語モデル(LLM)は大きな成功を収めたが、敵の摂動に対する脆弱性は大きな懸念を引き起こしている。
本稿では,LLMのマルチタスク特性を活用して,まずノイズの入力を識別し,次にこれらの復号化バージョンに基づいて予測を行う。
LLMのロバスト性を高めるために個別のモデルを訓練する必要がある従来のコンピュータビジョンのスムース化技術とは異なり、本手法は効率と柔軟性を著しく向上させる。
論文 参考訳(メタデータ) (2024-04-18T15:47:00Z) - CrisisViT: A Robust Vision Transformer for Crisis Image Classification [5.14879510106258]
本稿では,画像の自動分類・タグ付けに最先端のディープニューラルモデルを用いることを提案する。
我々は、新しいインシデント1M危機画像データセットを活用し、新しいトランスフォーマーベースの画像分類モデルを開発する。
論文 参考訳(メタデータ) (2024-01-05T14:45:45Z) - TinyGSM: achieving >80% on GSM8k with small language models [49.21136294791747]
小型モデルは様々な計算上の利点を提供するが、どの程度の大きさが問題解決能力にとって重要なのかは未解決のままである。
特に小学校の数学を解くために、GSM8Kベンチマークの80%の障壁を破るために必要なモデルサイズは、まだ34Bである。
我々の研究は、数学的な推論を得るための小さな言語モデルにとって、高品質なデータセットがどのように鍵となるかを研究する。
論文 参考訳(メタデータ) (2023-12-14T18:58:28Z) - Zero-shot Retrieval: Augmenting Pre-trained Models with Search Engines [83.65380507372483]
大規模で事前訓練されたモデルは、問題を解決するのに必要なタスク固有のデータの量を劇的に削減するが、多くの場合、ドメイン固有のニュアンスを箱から取り出すのに失敗する。
本稿では,NLPとマルチモーダル学習の最近の進歩を活用して,検索エンジン検索による事前学習モデルを強化する方法について述べる。
論文 参考訳(メタデータ) (2023-11-29T05:33:28Z) - DeCrisisMB: Debiased Semi-Supervised Learning for Crisis Tweet
Classification via Memory Bank [52.20298962359658]
危機イベントにおいて、人々は、状況、警告、アドバイス、サポートに関する情報を広めるために、Twitterのようなソーシャルメディアプラットフォームを使うことが多い。
完全に教師されたアプローチでは、大量のデータを注釈付けする必要があります。
半教師付きモデルは偏りがあり、特定のクラスでは適度に機能し、他のクラスでは極めて貧弱である。
本稿では,メモリバンクを用いて,各学習クラスから生成された擬似ラベルを等しくサンプリングする,単純かつ効果的なデバイアス処理手法であるDeCrisisMBを提案する。
論文 参考訳(メタデータ) (2023-10-23T05:25:51Z) - Democratizing LLMs: An Exploration of Cost-Performance Trade-offs in
Self-Refined Open-Source Models [53.859446823312126]
SoTAは7Bから65Bまでのさまざまなサイズのオープンソースモデルを平均して、ベースラインのパフォーマンスから8.2%改善している。
厳密に言えば、Vicuna-7Bのような非常に小さなメモリフットプリントを持つモデルでさえ、全体的な11.74%の改善と、高い創造性、オープンエンドタスクの25.39%の改善を示している。
論文 参考訳(メタデータ) (2023-10-11T15:56:00Z) - CrisisTransformers: Pre-trained language models and sentence encoders for crisis-related social media texts [3.690904966341072]
ソーシャルメディアプラットフォームは危機コミュニケーションにおいて重要な役割を担っているが、危機に関連するソーシャルメディアのテキストを分析することは、その非公式な性質のため困難である。
本研究では,事前訓練された言語モデルと文エンコーダのアンサンブルであるCrisisTransformersを紹介した。
論文 参考訳(メタデータ) (2023-09-11T14:36:16Z) - Modeling the Second Player in Distributionally Robust Optimization [90.25995710696425]
我々は、最悪のケース分布を特徴付けるために神経生成モデルを使うことを議論する。
このアプローチは多くの実装と最適化の課題をもたらします。
提案されたアプローチは、同等のベースラインよりも堅牢なモデルを生み出す。
論文 参考訳(メタデータ) (2021-03-18T14:26:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。