論文の概要: Multi-Modal Framing Analysis of News
- arxiv url: http://arxiv.org/abs/2503.20960v1
- Date: Wed, 26 Mar 2025 19:51:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-28 12:55:07.092265
- Title: Multi-Modal Framing Analysis of News
- Title(参考訳): ニュースのマルチモーダルフラーミング分析
- Authors: Arnav Arora, Srishti Yadav, Maria Antoniak, Serge Belongie, Isabelle Augenstein,
- Abstract要約: 本稿では,大規模(ヴィジュアル言語)モデルを用いたマルチモーダル・マルチラベルフレーミング解析を大規模に実施する手法を提案する。
従来の定性的な作業で発見された問題固有のフレーム分析を用いて、トピックの高度にパーティショナリなフレーミングを識別する。
本稿では,ニュース中のテキストと画像の両方のスケーラブルな統合的フレーミング分析を行う方法を示し,メディアバイアスを理解するためのより完全な画像を提供する。
- 参考スコア(独自算出の注目度): 41.39617209053842
- License:
- Abstract: Automated frame analysis of political communication is a popular task in computational social science that is used to study how authors select aspects of a topic to frame its reception. So far, such studies have been narrow, in that they use a fixed set of pre-defined frames and focus only on the text, ignoring the visual contexts in which those texts appear. Especially for framing in the news, this leaves out valuable information about editorial choices, which include not just the written article but also accompanying photographs. To overcome such limitations, we present a method for conducting multi-modal, multi-label framing analysis at scale using large (vision-)language models. Grounding our work in framing theory, we extract latent meaning embedded in images used to convey a certain point and contrast that to the text by comparing the respective frames used. We also identify highly partisan framing of topics with issue-specific frame analysis found in prior qualitative work. We demonstrate a method for doing scalable integrative framing analysis of both text and image in news, providing a more complete picture for understanding media bias.
- Abstract(参考訳): 政治コミュニケーションの自動化されたフレーム分析は計算社会科学において一般的な課題であり、著者がトピックの側面を選択してその受信をフレーム化する方法を研究するのに使用される。
これまでにこのような研究は狭く、事前に定義されたフレームの固定セットを使用し、テキストのみに焦点を合わせ、それらのテキストが現れる視覚的コンテキストを無視している。
特にニュースをフレーミングするためには、記事だけでなく、付随する写真を含む編集選択に関する貴重な情報を残している。
このような制約を克服するために,大規模(ビジョン-)言語モデルを用いて大規模にマルチモーダル・マルチラベルフレーミング分析を行う手法を提案する。
フレーミング理論を基礎として、ある点を伝達するための画像に埋め込まれた潜在意味を抽出し、使用するフレームを比較してテキストと対比する。
また、従来の定性的な作業で見つかった問題固有のフレーム分析を用いて、トピックの高度にパーティショナリなフレーミングを識別する。
本稿では,ニュース中のテキストと画像の両方のスケーラブルな統合的フレーミング分析を行う方法を示し,メディアバイアスを理解するためのより完全な画像を提供する。
関連論文リスト
- SciMMIR: Benchmarking Scientific Multi-modal Information Retrieval [64.03631654052445]
科学領域内の画像テキストペアリングにおけるMMIR性能を評価するための最新のベンチマークは、顕著なギャップを示している。
オープンアクセス用紙コレクションを利用した特殊な科学的MMIRベンチマークを開発する。
このベンチマークは、科学的文書に詳細なキャプションのある数字や表から抽出された、530Kの精巧にキュレートされた画像テキストペアからなる。
論文 参考訳(メタデータ) (2024-01-24T14:23:12Z) - Leveraging Open-Vocabulary Diffusion to Camouflaged Instance
Segmentation [59.78520153338878]
テキスト・ツー・イメージ拡散技術は、テキスト記述から高品質な画像を生成する素晴らしい能力を示している。
そこで本研究では,オープン語彙を応用した最先端拡散モデルを用いて,多スケールのテキスト・視覚的特徴を学習する手法を提案する。
論文 参考訳(メタデータ) (2023-12-29T07:59:07Z) - FrameFinder: Explorative Multi-Perspective Framing Extraction from News
Headlines [3.3181276611945263]
テキストデータからフレームを抽出・解析するオープンツールであるFrameFinderについて述べる。
確立された銃暴力フレームコーパスを解析することにより,提案手法のメリットを実証する。
論文 参考訳(メタデータ) (2023-12-14T14:41:37Z) - Coarse-to-Fine Contrastive Learning in Image-Text-Graph Space for
Improved Vision-Language Compositionality [50.48859793121308]
対照的に訓練された視覚言語モデルは、視覚と言語表現学習において顕著な進歩を遂げた。
近年の研究では、対象、属性、関係性に対して構成的推論を行う能力に厳しい制限が強調されている。
論文 参考訳(メタデータ) (2023-05-23T08:28:38Z) - NewsStories: Illustrating articles with visual summaries [49.924916589209374]
我々は,3300万記事,2200万画像,100万ビデオを含む大規模マルチモーダルデータセットを提案する。
現状の画像テキストアライメント手法は、複数の画像を持つ長い物語に対して堅牢ではないことを示す。
本稿では,GoodNewsデータセット上で,ゼロショット画像セット検索において,これらの手法を10%向上させる直感的なベースラインを提案する。
論文 参考訳(メタデータ) (2022-07-26T17:34:11Z) - From Show to Tell: A Survey on Image Captioning [48.98681267347662]
視覚と言語を結びつけることは、ジェネレーティブ・インテリジェンスにおいて重要な役割を担っている。
画像キャプションの研究はまだ結論に達していない。
本研究の目的は,画像キャプション手法の包括的概要と分類を提供することである。
論文 参考訳(メタデータ) (2021-07-14T18:00:54Z) - An AutoML-based Approach to Multimodal Image Sentiment Analysis [1.0499611180329804]
本稿では,テキストと画像の感情分析を,automlに基づく最終的な融合分類に組み合わせる手法を提案する。
提案手法は95.19%の精度でB-T4SAデータセットの最先端性能を達成した。
論文 参考訳(メタデータ) (2021-02-16T11:28:50Z) - Multi-Modal Reasoning Graph for Scene-Text Based Fine-Grained Image
Classification and Retrieval [8.317191999275536]
本稿では,視覚的・テキスト的手がかりの形でマルチモーダルコンテンツを活用することで,微細な画像分類と検索の課題に取り組むことに焦点を当てる。
画像中の有意なオブジェクトとテキスト間の共通意味空間を学習することにより、マルチモーダル推論を行い、関係強化された特徴を得るためにグラフ畳み込みネットワークを用いる。
論文 参考訳(メタデータ) (2020-09-21T12:31:42Z) - FrameAxis: Characterizing Microframe Bias and Intensity with Word
Embedding [8.278618225536807]
本稿では,最も関連性の高い意味軸(マイクロフレーム)を識別し,文書を特徴付ける方法であるFrameAxisを提案する。
FrameAxisは、マイクロフレームがテキストでどのように使われているかという、2つの重要な次元を定量的に評価するように設計されている。
レストランレビューから政治ニュースまで,複数のデータセットにFrameAxisを適用することで,感情,トピック,パルチザンのスペクトルと高いバイアスと強度のマイクロフレームが一致していることを示す。
論文 参考訳(メタデータ) (2020-02-20T08:01:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。