論文の概要: A Multimodal Benchmark for Framing of Oil & Gas Advertising and Potential Greenwashing Detection
- arxiv url: http://arxiv.org/abs/2510.21679v1
- Date: Fri, 24 Oct 2025 17:34:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 09:00:15.558623
- Title: A Multimodal Benchmark for Framing of Oil & Gas Advertising and Potential Greenwashing Detection
- Title(参考訳): 石油・ガス広告の分別とグリーンウォッシング検出の可能性に関するマルチモーダルベンチマーク
- Authors: Gaku Morio, Harri Rowlands, Dominik Stammbach, Christopher D. Manning, Peter Henderson,
- Abstract要約: 専門家が注釈付けしたビデオ広告のベンチマークデータセットをFacebookとYouTubeから紹介する。
このデータセットは、50社以上の企業や20カ国の擁護団体に対して、13のフレーミングタイプのアノテーションを提供する。
我々のデータセットは、エネルギーセクターにおける戦略的コミュニケーションのマルチモーダル分析の研究に寄与する。
- 参考スコア(独自算出の注目度): 36.01013743439459
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Companies spend large amounts of money on public relations campaigns to project a positive brand image. However, sometimes there is a mismatch between what they say and what they do. Oil & gas companies, for example, are accused of "greenwashing" with imagery of climate-friendly initiatives. Understanding the framing, and changes in framing, at scale can help better understand the goals and nature of public relations campaigns. To address this, we introduce a benchmark dataset of expert-annotated video ads obtained from Facebook and YouTube. The dataset provides annotations for 13 framing types for more than 50 companies or advocacy groups across 20 countries. Our dataset is especially designed for the evaluation of vision-language models (VLMs), distinguishing it from past text-only framing datasets. Baseline experiments show some promising results, while leaving room for improvement for future work: GPT-4.1 can detect environmental messages with 79% F1 score, while our best model only achieves 46% F1 score on identifying framing around green innovation. We also identify challenges that VLMs must address, such as implicit framing, handling videos of various lengths, or implicit cultural backgrounds. Our dataset contributes to research in multimodal analysis of strategic communication in the energy sector.
- Abstract(参考訳): 企業は、ポジティブなブランドイメージを投影するために、広報キャンペーンに巨額の資金を費やしている。
しかし、時には彼らが何を言っているのかと、何をしているのかのミスマッチがある。
例えば石油・ガス会社は、気候にやさしいイニシアチブのイメージで「グリーンウォッシング」を非難されている。
フレーミング、そして大規模なフレーミングの変化を理解することは、広報キャンペーンの目標と性質をよりよく理解するのに役立ちます。
そこで本稿では,FacebookとYouTubeから得られた専門家によるビデオ広告のベンチマークデータセットを紹介する。
このデータセットは、50社以上の企業や20カ国の擁護団体に対して、13のフレーミングタイプのアノテーションを提供する。
我々のデータセットは特に視覚言語モデル(VLM)の評価のために設計されており、過去のテキストのみのフレーミングデータセットと区別されている。
GPT-4.1は79%のF1スコアで環境メッセージを検出できますが、私たちの最良のモデルは、グリーンイノベーションに関するフレーミングを識別する上でのみ46%のF1スコアを達成しています。
また、VLMが対処すべき課題として、暗黙のフレーミング、様々な長さのビデオ処理、暗黙の文化的背景などを挙げる。
我々のデータセットは、エネルギーセクターにおける戦略的コミュニケーションのマルチモーダル分析の研究に寄与する。
関連論文リスト
- Reference Points in LLM Sentiment Analysis: The Role of Structured Context [0.0]
本研究では, 補足情報が大規模言語モデル(LLM)を用いた感情分析に与える影響について検討する。
構造化プロンプトにより、より小さなモデルで競争性能を達成できることが示される。
論文 参考訳(メタデータ) (2025-08-15T13:04:32Z) - Short-video Propagation Influence Rating: A New Real-world Dataset and A New Large Graph Model [66.8976337702408]
クロスプラットフォームのショートビデオデータセットには、117,720の動画、381,926のサンプル、中国最大の5つのプラットフォームにわたる535のトピックが含まれている。
大グラフモデル(LGM)NetGPTは、多種多様なグラフ構造データを強力な推論能力とLarge Language Models(LLM)の知識で橋渡しすることができる
我々のNetGPTは,短ビデオ伝搬グラフの理解と解析が可能であり,短ビデオの長期伝搬の影響を予測できる。
論文 参考訳(メタデータ) (2025-03-31T05:53:15Z) - iNews: A Multimodal Dataset for Modeling Personalized Affective Responses to News [25.367927300697424]
iNewsは、ニュースコンテンツに対するパーソナライズされた感情反応のモデリングを容易にするために設計された、新しいデータセットである。
当社のデータセットは、英国の主要メディアの2,899件のマルチモーダルなFacebookニュース投稿に対して、291件の英国住民のアノテーションで構成されています。
論文 参考訳(メタデータ) (2025-03-05T10:09:53Z) - GEOBench-VLM: Benchmarking Vision-Language Models for Geospatial Tasks [84.86699025256705]
本稿では,地理空間的タスクの視覚言語モデル(VLM)を評価するためのベンチマークであるGEOBench-VLMを提案する。
私たちのベンチマークでは、手動で検証された命令が1万以上あり、さまざまな視覚条件、オブジェクトタイプ、スケールにまたがっています。
地理空間固有の課題における性能を評価するために,いくつかの最先端のVLMを評価した。
論文 参考訳(メタデータ) (2024-11-28T18:59:56Z) - Revisiting Few-Shot Object Detection with Vision-Language Models [49.79495118650838]
我々は、最近の基礎視覚言語モデル(VLM)の文脈で、少数ショットオブジェクト検出(FSOD)のタスクを再考する。
我々は,任意の外部データ上で事前学習された検出器を評価する新しいベンチマークプロトコルであるFoundational FSODを提案する。
CVPR 2024 Foundational FSOD コンペティションについて論じ,コミュニティからの洞察を共有した。
論文 参考訳(メタデータ) (2023-12-22T07:42:00Z) - Multimodal Group Emotion Recognition In-the-wild Using Privacy-Compliant
Features [0.0]
グループレベルの感情認識は、社会ロボティクス、会話エージェント、e-coaching、学習分析など、多くの分野で有用である。
本稿では,EmotiW Challenge 2023の中で,プライバシに適合したグループレベルの感情認識について検討する。
論文 参考訳(メタデータ) (2023-12-06T08:58:11Z) - Glitter or Gold? Deriving Structured Insights from Sustainability
Reports via Large Language Models [16.231171704561714]
本研究では,企業のサステナビリティレポートからESGに関する構造化された洞察を抽出するために,情報抽出(IE)手法を用いる。
次に、グラフに基づく表現を活用して、抽出された洞察に関する統計的分析を行う。
論文 参考訳(メタデータ) (2023-10-09T11:34:41Z) - A Closer Look at Debiased Temporal Sentence Grounding in Videos:
Dataset, Metric, and Approach [53.727460222955266]
テンポラル・センテンス・グラウンディング・イン・ビデオ(TSGV)は、未編集のビデオに自然言語文を埋め込むことを目的としている。
最近の研究では、現在のベンチマークデータセットには明らかなモーメントアノテーションバイアスがあることが判明している。
偏りのあるデータセットによる膨らませ評価を緩和するため、基礎的リコールスコアを割引する新しい評価基準「dR@n,IoU@m」を導入する。
論文 参考訳(メタデータ) (2022-03-10T08:58:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。