論文の概要: NLP Techniques for Water Quality Analysis in Social Media Content
- arxiv url: http://arxiv.org/abs/2112.11441v1
- Date: Tue, 30 Nov 2021 10:36:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-26 15:21:23.844148
- Title: NLP Techniques for Water Quality Analysis in Social Media Content
- Title(参考訳): ソーシャルメディアコンテンツにおける水質解析のためのNLP技術
- Authors: Muhammad Asif Ayub, Khubaib Ahmad, Kashif Ahmad, Nasir Ahmad, Ala
Al-Fuqaha
- Abstract要約: 本稿では,メディアEval 2021タスク,すなわち「WaterMM:Water Quality in Social Multimedia」へのコントリビューションについて述べる。
この課題は、水彩、匂い、味、関連する病気などの側面に特に焦点をあてて、水質に関連するソーシャルメディアの投稿を分析することを目的としている。
この目的のために、メタデータとともにテキスト情報と視覚情報の両方を含むマルチモーダルデータセットを提供する。
- 参考スコア(独自算出の注目度): 4.284841324544116
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents our contributions to the MediaEval 2021 task namely
"WaterMM: Water Quality in Social Multimedia". The task aims at analyzing
social media posts relevant to water quality with particular focus on the
aspects like watercolor, smell, taste, and related illnesses. To this aim, a
multimodal dataset containing both textual and visual information along with
meta-data is provided. Considering the quality and quantity of available
content, we mainly focus on textual information by employing three different
models individually and jointly in a late-fusion manner. These models include
(i) Bidirectional Encoder Representations from Transformers (BERT), (ii)
Robustly Optimized BERT Pre-training Approach (XLM-RoBERTa), and a (iii) custom
Long short-term memory (LSTM) model obtaining an overall F1-score of 0.794,
0.717, 0.663 on the official test set, respectively. In the fusion scheme, all
the models are treated equally and no significant improvement is observed in
the performance over the best performing individual model.
- Abstract(参考訳): 本稿では,メディアEval 2021 タスク,すなわち "WaterMM: Water Quality in Social Multimedia" へのコントリビューションについて述べる。
この課題は、水彩、匂い、味、関連する病気などの側面に焦点を当てた、水質に関連するソーシャルメディア投稿の分析を目的としている。
この目的のために、メタデータとともにテキスト情報と視覚情報の両方を含むマルチモーダルデータセットを提供する。
利用可能なコンテンツの品質と量を考えると,本研究は主に3つの異なるモデルを個別に,共同的に後期融合方式で活用することで,テキスト情報に焦点を当てている。
これらのモデルには
(i)トランスフォーマー(bert)からの双方向エンコーダ表現
(II)ロバストに最適化されたBERT事前学習手法(XLM-RoBERTa)およびa
(iii) 公式テストセットでそれぞれ0.794、0.717、0.663のF1スコアを得るカスタムLong短期メモリ(LSTM)モデル。
融合スキームでは、すべてのモデルが等しく扱われ、最高の性能の個々のモデルに対する性能に顕著な改善は見られません。
関連論文リスト
- VHELM: A Holistic Evaluation of Vision Language Models [75.88987277686914]
視覚言語モデル(VHELM)の全体的評価について述べる。
VHELMは、視覚的知覚、知識、推論、バイアス、公平性、多言語性、堅牢性、毒性、安全性の9つの側面の1つ以上をカバーするために、さまざまなデータセットを集約する。
私たちのフレームワークは軽量で自動で、評価の実行が安価で高速に行えるように設計されています。
論文 参考訳(メタデータ) (2024-10-09T17:46:34Z) - What are the Essential Factors in Crafting Effective Long Context Multi-Hop Instruction Datasets? Insights and Best Practices [91.71951459594074]
拡張コンテキストウィンドウを持つLong Language Model (LLM) は、情報抽出、質問応答、複雑な計画シナリオなどのタスクを大幅に改善した。
既存のメソッドは通常、Self-Instructフレームワークを使用して、長いコンテキスト能力を改善するために命令チューニングデータを生成する。
本稿では,品質検証エージェント,シングルホップ質問生成エージェント,複数質問サンプリング戦略,マルチホップ質問マーガーエージェントを組み込んだマルチエージェント対話型マルチホップ生成フレームワークを提案する。
以上の結果から,我々の合成高品位長文指導データにより,多量の人体で訓練したモデルよりも,モデル性能が著しく向上することが示唆された。
論文 参考訳(メタデータ) (2024-09-03T13:30:00Z) - Q-Ground: Image Quality Grounding with Large Multi-modality Models [61.72022069880346]
Q-Groundは、大規模な視覚的品質グラウンドに取り組むための最初のフレームワークである。
Q-Groundは、大規模なマルチモダリティモデルと詳細な視覚的品質分析を組み合わせる。
コントリビューションの中心は、QGround-100Kデータセットの導入です。
論文 参考訳(メタデータ) (2024-07-24T06:42:46Z) - Data Efficient Evaluation of Large Language Models and Text-to-Image Models via Adaptive Sampling [3.7467864495337624]
SubLIMEはテキスト・ツー・イメージ・モデルのためのデータ効率評価フレームワークである。
我々のアプローチは、完全なデータセットと比較して統計的に整合したモデルランキングを保証する。
HEIMのリーダーボードを利用して、17の異なるベンチマークで25のテキスト・ツー・イメージモデルをカバーしています。
論文 参考訳(メタデータ) (2024-06-21T07:38:55Z) - On the Effects of Heterogeneous Data Sources on Speech-to-Text Foundation Models [57.97940182536942]
Open Whisperスタイルの音声モデル(OWSM)シリーズが導入された。
OWSMモデルは25の公開音声データセットに基づいて訓練される。
OWSM v3.2を導入し、このデータの不均一性の影響を調査し、対処することで、先行モデルを改善する。
論文 参考訳(メタデータ) (2024-06-13T16:22:37Z) - An Empirical Study of Multimodal Model Merging [148.48412442848795]
モデルマージは、異なるタスクでトレーニングされた複数のモデルを融合してマルチタスクソリューションを生成するテクニックである。
我々は、モダリティ固有のアーキテクチャのビジョン、言語、およびクロスモーダルトランスフォーマーをマージできる新しい目標に向けて研究を行っている。
本稿では,重み間の距離を推定し,マージ結果の指標となる2つの指標を提案する。
論文 参考訳(メタデータ) (2023-04-28T15:43:21Z) - Exploring Multimodal Sentiment Analysis via CBAM Attention and
Double-layer BiLSTM Architecture [3.9850392954445875]
本モデルでは,文中の長距離依存関係を抽出するためにBERT + BiLSTM を用いる。
余分な情報を除去するために、テキスト特徴と画像特徴をスプライシングした後、CNNとCBAMの注意を追加する。
実験結果から,従来のモデルと同様の音響効果が得られた。
論文 参考訳(メタデータ) (2023-03-26T12:34:01Z) - Team Triple-Check at Factify 2: Parameter-Efficient Large Foundation
Models with Feature Representations for Multi-Modal Fact Verification [5.552606716659022]
ソーシャルメディアでは、マルチモーダルな事実検証が重要だが難しい問題となっている。
本稿では,細粒度テキストと照明パラメータを用いた入力埋め込みをモデル化するためのPre-CoFactv2フレームワークを提案する。
AAAI 2023のFactifyチャレンジにおいて,Pre-CoFactv2がPre-CoFactを大きなマージンで上回り,新たな最先端の成果を得たことを示す。
論文 参考訳(メタデータ) (2023-02-12T18:08:54Z) - Merit-based Fusion of NLP Techniques for Instant Feedback on Water
Quality from Twitter Text [7.4565260052193185]
本稿は,フィードバックの即時源としてのソーシャルメディアの可能性を分析することによって,水質を評価できる重要な環境課題に焦点を当てる。
この研究の主な目的は、水質に関連するソーシャルメディアの投稿を自動的に分析し、検索することである。
本稿では,プリプロセッシング,データ拡張,分類手法を取り入れた新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-09T13:47:33Z) - How Faithful is your Synthetic Data? Sample-level Metrics for Evaluating
and Auditing Generative Models [95.8037674226622]
ドメインに依存しない方法で生成モデルの忠実度,多様性,一般化性能を特徴付ける3次元評価指標を提案する。
当社のメトリクスは、精度リコール分析により統計的発散測定を統合し、モデル忠実度と多様性のサンプルおよび分布レベルの診断を可能にします。
論文 参考訳(メタデータ) (2021-02-17T18:25:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。