論文の概要: Using AI to Summarize US Presidential Campaign TV Advertisement Videos, 1952-2012
- arxiv url: http://arxiv.org/abs/2503.22589v1
- Date: Fri, 28 Mar 2025 16:36:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-31 15:32:49.558047
- Title: Using AI to Summarize US Presidential Campaign TV Advertisement Videos, 1952-2012
- Title(参考訳): 米大統領選のテレビをAIで要約する動画(1952年-2012年)
- Authors: Adam Breuer, Bryce J. Dietrich, Michael H. Crespin, Matthew Butler, J. A. Pyrse, Kosuke Imai,
- Abstract要約: 本稿では、デジタル形式で利用可能な、米国大統領選挙のテレビCMの最大かつ最も包括的なデータセットを紹介する。
データセットには、さまざまな学術研究を促進するために設計された、マシン検索可能な書き起こしと高品質な要約も含まれている。
我々は、ビデオの作成、翻訳、要約の面倒なプロセスを自動化する、大規模に並列化されたAIベースの分析パイプラインを設計する。
- 参考スコア(独自算出の注目度): 7.355873405249525
- License:
- Abstract: This paper introduces the largest and most comprehensive dataset of US presidential campaign television advertisements, available in digital format. The dataset also includes machine-searchable transcripts and high-quality summaries designed to facilitate a variety of academic research. To date, there has been great interest in collecting and analyzing US presidential campaign advertisements, but the need for manual procurement and annotation led many to rely on smaller subsets. We design a large-scale parallelized, AI-based analysis pipeline that automates the laborious process of preparing, transcribing, and summarizing videos. We then apply this methodology to the 9,707 presidential ads from the Julian P. Kanter Political Commercial Archive. We conduct extensive human evaluations to show that these transcripts and summaries match the quality of manually generated alternatives. We illustrate the value of this data by including an application that tracks the genesis and evolution of current focal issue areas over seven decades of presidential elections. Our analysis pipeline and codebase also show how to use LLM-based tools to obtain high-quality summaries for other video datasets.
- Abstract(参考訳): 本稿では、デジタル形式で利用可能な、米国大統領選挙のテレビCMの最大かつ最も包括的なデータセットを紹介する。
データセットには、さまざまな学術研究を促進するために設計された、マシン検索可能な書き起こしと高品質な要約も含まれている。
これまでのところ、米国の大統領選挙キャンペーン広告の収集と分析には大きな関心が寄せられていたが、手作業による調達と注釈の必要性のため、多くの人は小さなサブセットに頼るようになった。
我々は、ビデオの作成、翻訳、要約の面倒なプロセスを自動化する、大規模に並列化されたAIベースの分析パイプラインを設計する。
この手法をJulian P. Kanter Political Commercial Archiveの9,707件の大統領広告に適用する。
我々は、手動で作成した代替品の品質と、これらの写本と要約が一致することを示すために、広範囲な人的評価を行う。
このデータの価値を、70年にわたる大統領選挙における現在の焦点課題領域の生成と進化を追跡するアプリケーションを含めることで説明する。
分析パイプラインとコードベースは、LLMベースのツールを使用して、他のビデオデータセットの高品質な要約を取得する方法も示しています。
関連論文リスト
- Bridging the Data Provenance Gap Across Text, Speech and Video [67.72097952282262]
我々は、人気テキスト、音声、ビデオデータセットのモダリティにまたがって、最大かつ第1級の経時的監査を行う。
私たちの手動分析では、1990年から2024年の間に、608言語、798のソース、659の組織、67の国で4000近い公開データセットをカバーしています。
マルチモーダル機械学習アプリケーションは、トレーニングセットのために、YouTubeのようなWebcrawled、synthetic、ソーシャルメディアプラットフォームに圧倒的に移行した。
論文 参考訳(メタデータ) (2024-12-19T01:30:19Z) - Scaling Up Video Summarization Pretraining with Large Language Models [73.74662411006426]
本稿では,大規模ビデオ要約データセットを生成するための,自動化されたスケーラブルなパイプラインを提案する。
我々は既存のアプローチの限界を分析し、それらに効果的に対処する新しいビデオ要約モデルを提案する。
我々の研究は、プロが注釈付けした高品質の要約を持つ1200本の長編ビデオを含む新しいベンチマークデータセットも提示した。
論文 参考訳(メタデータ) (2024-04-04T11:59:06Z) - Television Discourse Decoded: Comprehensive Multimodal Analytics at Scale [5.965160962617209]
我々は、インドからのプライムタイムニュース討論番組に焦点をあてて、テレビ放送された討論を分析するという複雑な課題に取り組む。
以前は、しばしばテキストのみに頼っていたが、これらの議論のマルチモーダルな本質を捉えるには不足していた。
大規模マルチメディア分析に先進的なコンピュータビジョンと音声テキスト技術を用いた総合的自動ツールキットを提案する。
論文 参考訳(メタデータ) (2024-02-20T01:20:31Z) - Auto-ACD: A Large-scale Dataset for Audio-Language Representation Learning [50.28566759231076]
高品質なキャプションを持つ音声データセットを構築するための,革新的で自動的なアプローチを提案する。
具体的には、150万以上のオーディオテキストペアからなる、大規模で高品質なオーディオ言語データセットをAuto-ACDとして構築する。
我々はLLMを用いて,抽出したマルチモーダルな手がかりによって導かれる,各音声の連接キャプションを言い換える。
論文 参考訳(メタデータ) (2023-09-20T17:59:32Z) - Content4All Open Research Sign Language Translation Datasets [27.36513138911057]
我々は、より大きなニュース領域に関する190時間の映像からなる6つのデータセットをリリースする。
このことから、聴覚障害者の専門家や通訳者が20時間の映像を注釈し、研究目的で公開しています。
論文 参考訳(メタデータ) (2021-05-05T22:14:53Z) - MediaSum: A Large-scale Media Interview Dataset for Dialogue
Summarization [15.659166674845949]
MediaSumは、463.6Kのテキストと抽象的な要約からなる大規模メディアインタビューデータセットである。
我々は、nprおよびcnnからインタビュー記録を収集し、概要とトピック記述を要約として採用する。
論文 参考訳(メタデータ) (2021-03-11T01:47:42Z) - Automatic Curation of Large-Scale Datasets for Audio-Visual
Representation Learning [62.47593143542552]
本稿では,自動データセットキュレーションのためのサブセット最適化手法について述べる。
本研究では,高視聴覚対応の映像を抽出し,自己監視モデルが自動的に構築されているにもかかわらず,既存のスケールのビデオデータセットと類似したダウンストリームパフォーマンスを達成できることを実証した。
論文 参考訳(メタデータ) (2021-01-26T14:27:47Z) - Abstractive Summarization of Spoken and Written Instructions with BERT [66.14755043607776]
本稿では,BERTSumモデルの最初の対話型言語への応用について述べる。
我々は多種多様な話題にまたがるナレーションビデオの抽象要約を生成する。
我々は、これをインテリジェントな仮想アシスタントの機能として統合し、要求に応じて文字と音声の両方の指導内容の要約を可能にすることを想定する。
論文 参考訳(メタデータ) (2020-08-21T20:59:34Z) - Machine Identification of High Impact Research through Text and Image
Analysis [0.4737991126491218]
本稿では,引用の可能性が低い論文から高い論文を自動的に分離するシステムを提案する。
本システムでは,文書全体の外観を推測する視覚的分類器と,コンテンツインフォームド決定のためのテキスト分類器の両方を用いる。
論文 参考訳(メタデータ) (2020-05-20T19:12:24Z) - TVR: A Large-Scale Dataset for Video-Subtitle Moment Retrieval [111.93601253692165]
テレビ番組 Retrieval (TVR) は、新しいマルチモーダル検索データセットである。
TVRはビデオとそれに関連するサブタイトル(対話)のテキストの両方を理解する必要がある。
データセットには、さまざまなジャンルの6つのテレビ番組から21.8Kビデオで収集された109Kクエリが含まれている。
論文 参考訳(メタデータ) (2020-01-24T17:09:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。