論文の概要: Do You See What I See? Capabilities and Limits of Automated Multimedia
Content Analysis
- arxiv url: http://arxiv.org/abs/2201.11105v1
- Date: Wed, 15 Dec 2021 22:42:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-04 11:32:26.814886
- Title: Do You See What I See? Capabilities and Limits of Automated Multimedia
Content Analysis
- Title(参考訳): 私が見ているものが見えるか?
マルチメディアコンテンツ自動分析の能力と限界
- Authors: Carey Shenkman, Dhanaraj Thakur, Emma Llans\'o
- Abstract要約: 本稿では,自動コンテンツ分析ツールの機能と限界について説明する。
これは、マッチングモデルとコンピュータ予測モデルという2つの主要なツールカテゴリに焦点を当てている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The ever-increasing amount of user-generated content online has led, in
recent years, to an expansion in research and investment in automated content
analysis tools. Scrutiny of automated content analysis has accelerated during
the COVID-19 pandemic, as social networking services have placed a greater
reliance on these tools due to concerns about health risks to their moderation
staff from in-person work. At the same time, there are important policy debates
around the world about how to improve content moderation while protecting free
expression and privacy. In order to advance these debates, we need to
understand the potential role of automated content analysis tools.
This paper explains the capabilities and limitations of tools for analyzing
online multimedia content and highlights the potential risks of using these
tools at scale without accounting for their limitations. It focuses on two main
categories of tools: matching models and computer prediction models. Matching
models include cryptographic and perceptual hashing, which compare
user-generated content with existing and known content. Predictive models
(including computer vision and computer audition) are machine learning
techniques that aim to identify characteristics of new or previously unknown
content.
- Abstract(参考訳): オンラインのユーザー生成コンテンツの増加は、近年、自動コンテンツ分析ツールの研究と投資の拡大につながっている。
新型コロナウイルス(covid-19)のパンデミックで、自動コンテンツ分析の精査が加速している。ソーシャルネットワーキングサービスが、モデレーションスタッフの対人作業から健康リスクに関する懸念から、これらのツールへの依存度を高めているためだ。
同時に、表現の自由とプライバシーを保護しながらコンテンツモデレーションを改善する方法については、世界中の重要な政策論争がある。
これらの議論を進めるためには、自動コンテンツ分析ツールの潜在的な役割を理解する必要がある。
本稿では,オンラインマルチメディアコンテンツを解析するためのツールの機能と限界を説明し,その限界を考慮せず,大規模にツールを使用する潜在的なリスクを強調する。
マッチングモデルとコンピュータ予測モデルという2つの主要なツールカテゴリに焦点を当てている。
マッチングモデルには暗号的および知覚的ハッシュがあり、ユーザ生成コンテンツと既存のおよび既知のコンテンツを比較する。
予測モデル(コンピュータビジョンやコンピュータオーディションを含む)は、新しい、あるいは以前未知のコンテンツの特徴を特定することを目的とした機械学習技術である。
関連論文リスト
- A Survey of AI-Generated Video Evaluation [9.100408575312281]
この調査はAI-Generated Video Evaluation(AIGVE)の新たな分野を特定する。
我々は,映像コンテンツの複雑さを扱える,より堅牢でニュアンスの高い評価フレームワークの開発を提唱する。
本調査は,産学界の研究者と産学界の実践者の両方にとって基礎的な知識基盤を確立することを目的としている。
論文 参考訳(メタデータ) (2024-10-24T23:08:39Z) - Modeling offensive content detection for TikTok [0.0]
本研究では,攻撃内容を含むTikTokデータの収集と解析を行う。
攻撃的なコンテンツ検出のための一連の機械学習とディープラーニングモデルを構築している。
論文 参考訳(メタデータ) (2024-08-29T18:47:41Z) - A Survey on Personalized Content Synthesis with Diffusion Models [57.01364199734464]
PCSは、特定のユーザ定義のプロンプトに対する関心の主題をカスタマイズすることを目的としている。
過去2年間で150以上の方法が提案されている。
本稿では,PCSの拡散モデルに着目した包括的調査を行う。
論文 参考訳(メタデータ) (2024-05-09T04:36:04Z) - Recent Advances in Hate Speech Moderation: Multimodality and the Role of Large Models [52.24001776263608]
この包括的調査は、HSモデレーションの最近の歩みを掘り下げている。
大型言語モデル(LLM)と大規模マルチモーダルモデル(LMM)の急成長する役割を強調した。
研究における既存のギャップを、特に表現不足言語や文化の文脈で特定する。
論文 参考訳(メタデータ) (2024-01-30T03:51:44Z) - GPT-4V(ision) as A Social Media Analysis Engine [77.23394183063238]
本稿では,GPT-4Vのソーシャルマルチメディア分析能力について考察する。
我々は、感情分析、ヘイトスピーチ検出、フェイクニュース識別、人口推定、政治的イデオロギー検出を含む5つの代表的なタスクを選択する。
GPT-4Vはこれらのタスクにおいて顕著な効果を示し、画像とテキストのペアの理解、文脈と文化の認識、広義のコモンセンス知識などの強みを示している。
論文 参考訳(メタデータ) (2023-11-13T18:36:50Z) - A Survey on Detection of LLMs-Generated Content [97.87912800179531]
LLMの生成する内容を検出する能力が最重要視されている。
既存の検出戦略とベンチマークの詳細な概要を提供する。
また、様々な攻撃から守るための多面的アプローチの必要性を示唆する。
論文 参考訳(メタデータ) (2023-10-24T09:10:26Z) - Countering Malicious Content Moderation Evasion in Online Social
Networks: Simulation and Detection of Word Camouflage [64.78260098263489]
ツイストとカモフラージュキーワードは、プラットフォームコンテンツモデレーションシステムを回避する最もよく使われるテクニックである。
本稿では,コンテンツ回避の新たな手法をシミュレートし,検出する多言語ツールを開発することにより,悪意ある情報に対する対処に大きく貢献する。
論文 参考訳(メタデータ) (2022-12-27T16:08:49Z) - Time-aware topic identification in social media with pre-trained
language models: A case study of electric vehicles [1.2891210250935146]
事前学習言語モデルを用いた時間認識型トピック識別手法を提案する。
提案手法は,言語モデルを用いて時間変化トピックを追跡する動的関数と,将来有望なトピックを探索する出現スコア関数の2段階からなる。
論文 参考訳(メタデータ) (2022-10-11T04:50:10Z) - A Survey of Task-Based Machine Learning Content Extraction Services for
VIDINT [0.0]
ビデオインテリジェンス(VIDINT)データは、過去10年間で重要なインテリジェンスソースになっている。
ビデオからコンテンツを抽出し、構造化するためのAIベースの分析と自動化ツールの必要性は、組織にとって急速に重要になっている。
本稿では、ビデオから情報を取り出すタスクと機械学習技術に基づいて、製品、ソフトウェアリソース、ビデオ分析機能をレビューし、比較する。
論文 参考訳(メタデータ) (2022-07-09T00:02:08Z) - Automatic Image Content Extraction: Operationalizing Machine Learning in
Humanistic Photographic Studies of Large Visual Archives [81.88384269259706]
本稿では,機械学習による大規模画像アーカイブの検索と解析のための自動画像コンテンツ抽出フレームワークを提案する。
提案する枠組みは、人文科学と社会科学のいくつかの分野に適用できる。
論文 参考訳(メタデータ) (2022-04-05T12:19:24Z) - Ownership and Creativity in Generative Models [0.0]
近年、画像アート、文詩、音楽など、機械学習が生み出したコンテンツが顕著になっている。
これらのツールはデータ駆動型であるため、従来のクリエイティブツールとは本質的に異なる。
これらのツールによって生成されたコンテンツを誰が所有できるだろうか?
論文 参考訳(メタデータ) (2021-12-02T18:59:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。