論文の概要: Identification of Social-Media Platform of Videos through the Use of
Shared Features
- arxiv url: http://arxiv.org/abs/2109.03598v1
- Date: Wed, 8 Sep 2021 12:49:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-09 21:50:16.666415
- Title: Identification of Social-Media Platform of Videos through the Use of
Shared Features
- Title(参考訳): 共有機能を利用したビデオのソーシャルメディアプラットフォーム同定
- Authors: Luca Maiano, Irene Amerini, Lorenzo Ricciardi Celsi, and Aris
Anagnostopoulos
- Abstract要約: 両タスクから同時に学習するマルチタスク学習に基づくモデルを提案する。
これは、共有機能を利用することで、ソーシャルメディアプラットフォームによるビデオの識別の問題に対処する最初の作品である。
- 参考スコア(独自算出の注目度): 6.369764116066747
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Videos have become a powerful tool for spreading illegal content such as
military propaganda, revenge porn, or bullying through social networks. To
counter these illegal activities, it has become essential to try new methods to
verify the origin of videos from these platforms. However, collecting datasets
large enough to train neural networks for this task has become difficult
because of the privacy regulations that have been enacted in recent years. To
mitigate this limitation, in this work we propose two different solutions based
on transfer learning and multitask learning to determine whether a video has
been uploaded from or downloaded to a specific social platform through the use
of shared features with images trained on the same task. By transferring
features from the shallowest to the deepest levels of the network from the
image task to videos, we measure the amount of information shared between these
two tasks. Then, we introduce a model based on multitask learning, which learns
from both tasks simultaneously. The promising experimental results show, in
particular, the effectiveness of the multitask approach. According to our
knowledge, this is the first work that addresses the problem of social media
platform identification of videos through the use of shared features.
- Abstract(参考訳): ビデオは、軍事プロパガンダやリベンジポルノ、ソーシャルネットワークを通じていじめなどの違法コンテンツを広める強力なツールになっている。
これらの違法行為に対抗するために、これらのプラットフォームからの動画の起源を検証する新しい方法を試す必要がある。
しかし、近年のプライバシー規制により、このタスクのためにニューラルネットワークをトレーニングするのに十分なデータセットの収集が困難になっている。
この制限を緩和するため、本研究では、同じタスクで訓練された画像と共有機能を用いて、動画が特定のソーシャルプラットフォームにアップロードされたか、ダウンロードされたかを決定するために、転送学習とマルチタスク学習に基づく2つの異なるソリューションを提案する。
ネットワークの最も浅いレベルから最も深いレベルへ機能を画像タスクからビデオに転送することで、これらの2つのタスク間で共有される情報量を測定する。
次に,両タスクから同時に学習するマルチタスク学習に基づくモデルを提案する。
有望な実験結果は、特にマルチタスクアプローチの有効性を示している。
われわれの知る限り、これは共有機能を利用することで、ソーシャルメディアプラットフォームによるビデオの識別の問題に対処する最初の作品である。
関連論文リスト
- DLM-VMTL:A Double Layer Mapper for heterogeneous data video Multi-task prompt learning [2.4121373594852846]
マルチタスク学習は、視覚的なタスクが、共同トレーニング中に他のタスクから豊富な共有可能な知識を取得するようにする。
上記の問題に対処するために, Heterogenous data video multi-task prompt learning (VMTL) 法を提案する。
Double-Layers Mapper(DLM)は、共有可能な知識を視覚的プロンプトSに抽出し、プライマリタスクの表現と整合させる。
論文 参考訳(メタデータ) (2024-08-29T01:25:36Z) - A Video Is Worth 4096 Tokens: Verbalize Videos To Understand Them In
Zero Shot [67.00455874279383]
そこで本研究では,自然言語による記述を生成するために長編動画を音声化し,生成したストーリーの映像理解タスクを実行することを提案する。
提案手法は,ゼロショットであるにもかかわらず,ビデオ理解のための教師付きベースラインよりもはるかに優れた結果が得られる。
ストーリー理解ベンチマークの欠如を緩和するため,我々は,説得戦略の識別に関する計算社会科学における重要な課題に関する最初のデータセットを公開している。
論文 参考訳(メタデータ) (2023-05-16T19:13:11Z) - MetaMorphosis: Task-oriented Privacy Cognizant Feature Generation for
Multi-task Learning [6.056197449765416]
本稿ではMetaMorphosisと呼ばれる,深層学習に基づくプライバシー認識機能生成プロセスを提案する。
本稿では,MetaMorphosisが,プライバシー要件を保証し,近年の敵対的学習や普遍的特徴生成方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-13T01:59:07Z) - Self-Supervised Video Similarity Learning [35.512588398849395]
S$2$VSは、自己監督を伴うビデオ類似性学習手法である。
すべてのタスクで最先端のパフォーマンスを実現する単一の普遍モデルを学ぶ。
論文 参考訳(メタデータ) (2023-04-06T21:15:27Z) - InternVideo: General Video Foundation Models via Generative and
Discriminative Learning [52.69422763715118]
動的および複雑なビデオレベルの理解タスクのための一般的なビデオ基盤モデルであるInternVideoを提案する。
InternVideoは、事前学習対象として、マスク付きビデオモデリングとビデオ言語コントラスト学習を効率的に探索する。
InternVideoは、ビデオアクション認識/検出、ビデオ言語アライメント、オープンワールドビデオアプリケーションなど、39のビデオデータセットの最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-12-06T18:09:49Z) - Multi-Task Learning of Object State Changes from Uncurated Videos [55.60442251060871]
我々は、長い未処理のウェブビデオにおいて、オブジェクトと対話する人々を観察することで、オブジェクトの状態変化を時間的にローカライズすることを学ぶ。
マルチタスクモデルでは,従来のシングルタスク手法に比べて40%の相対的な改善が達成されている。
また,EPIC-KITCHENSとEgo4Dデータセットを0ショット設定で長時間遠心分離したビデオでテストした。
論文 参考訳(メタデータ) (2022-11-24T09:42:46Z) - Self-Supervised Learning for Videos: A Survey [70.37277191524755]
自己教師型学習は、画像ドメインとビデオドメインの両方で有望である。
本稿では,ビデオ領域に着目した自己教師型学習における既存のアプローチについて概観する。
論文 参考訳(メタデータ) (2022-06-18T00:26:52Z) - VALUE: A Multi-Task Benchmark for Video-and-Language Understanding
Evaluation [124.02278735049235]
VALUEベンチマークは、幅広いビデオジャンル、ビデオの長さ、データボリューム、タスクの難易度をカバーすることを目的としている。
大規模なVidL事前学習による各種ベースライン法の評価を行った。
我々の最高のモデルと人間のパフォーマンスの間の大きなギャップは、先進的なVidLモデルの将来の研究を要求する。
論文 参考訳(メタデータ) (2021-06-08T18:34:21Z) - VLEngagement: A Dataset of Scientific Video Lectures for Evaluating
Population-based Engagement [23.078055803229912]
ビデオ講義は、現在のデジタル時代の大衆に知識を与える主要なモダリティの1つとなっている。
科学ビデオ講義における学習者の関与を理解することを目的としたデータと研究は依然として重要なニーズである。
本稿では,VLEngagementについて紹介する。VLEngagementは,公開科学ビデオ講義から抽出したコンテンツベースおよびビデオ特有の特徴からなる,新しいデータセットである。
論文 参考訳(メタデータ) (2020-11-02T14:20:19Z) - Video Understanding as Machine Translation [53.59298393079866]
我々は、単一の統合フレームワークを用いて、様々なダウンストリームビデオ理解タスクに取り組む。
映像分類(EPIC-Kitchens)、質問応答(TVQA)、キャプション(TVC, YouCook2, MSR-VTT)など、いくつかのダウンストリームタスクにおいて、現状よりもパフォーマンスの向上が報告されている。
論文 参考訳(メタデータ) (2020-06-12T14:07:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。