論文の概要: Do You See What I See? Capabilities and Limits of Automated Multimedia
Content Analysis
- arxiv url: http://arxiv.org/abs/2201.11105v1
- Date: Wed, 15 Dec 2021 22:42:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-04 11:32:26.814886
- Title: Do You See What I See? Capabilities and Limits of Automated Multimedia
Content Analysis
- Title(参考訳): 私が見ているものが見えるか?
マルチメディアコンテンツ自動分析の能力と限界
- Authors: Carey Shenkman, Dhanaraj Thakur, Emma Llans\'o
- Abstract要約: 本稿では,自動コンテンツ分析ツールの機能と限界について説明する。
これは、マッチングモデルとコンピュータ予測モデルという2つの主要なツールカテゴリに焦点を当てている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The ever-increasing amount of user-generated content online has led, in
recent years, to an expansion in research and investment in automated content
analysis tools. Scrutiny of automated content analysis has accelerated during
the COVID-19 pandemic, as social networking services have placed a greater
reliance on these tools due to concerns about health risks to their moderation
staff from in-person work. At the same time, there are important policy debates
around the world about how to improve content moderation while protecting free
expression and privacy. In order to advance these debates, we need to
understand the potential role of automated content analysis tools.
This paper explains the capabilities and limitations of tools for analyzing
online multimedia content and highlights the potential risks of using these
tools at scale without accounting for their limitations. It focuses on two main
categories of tools: matching models and computer prediction models. Matching
models include cryptographic and perceptual hashing, which compare
user-generated content with existing and known content. Predictive models
(including computer vision and computer audition) are machine learning
techniques that aim to identify characteristics of new or previously unknown
content.
- Abstract(参考訳): オンラインのユーザー生成コンテンツの増加は、近年、自動コンテンツ分析ツールの研究と投資の拡大につながっている。
新型コロナウイルス(covid-19)のパンデミックで、自動コンテンツ分析の精査が加速している。ソーシャルネットワーキングサービスが、モデレーションスタッフの対人作業から健康リスクに関する懸念から、これらのツールへの依存度を高めているためだ。
同時に、表現の自由とプライバシーを保護しながらコンテンツモデレーションを改善する方法については、世界中の重要な政策論争がある。
これらの議論を進めるためには、自動コンテンツ分析ツールの潜在的な役割を理解する必要がある。
本稿では,オンラインマルチメディアコンテンツを解析するためのツールの機能と限界を説明し,その限界を考慮せず,大規模にツールを使用する潜在的なリスクを強調する。
マッチングモデルとコンピュータ予測モデルという2つの主要なツールカテゴリに焦点を当てている。
マッチングモデルには暗号的および知覚的ハッシュがあり、ユーザ生成コンテンツと既存のおよび既知のコンテンツを比較する。
予測モデル(コンピュータビジョンやコンピュータオーディションを含む)は、新しい、あるいは以前未知のコンテンツの特徴を特定することを目的とした機械学習技術である。
関連論文リスト
- An Educational Tool for Learning about Social Media Tracking, Profiling,
and Recommendation [2.7049879606434013]
本稿では,説明可能なAI(XAI)に基づく授業用ツールを提案する。
初級の学習者のために、トラッキング、プロファイリング、コンテンツレコメンデーションといった重要なソーシャルメディアメカニズムをデミストするように設計されている。
論文 参考訳(メタデータ) (2024-02-02T13:34:44Z) - GPT-4V(ision) as A Social Media Analysis Engine [77.23394183063238]
本稿では,GPT-4Vのソーシャルマルチメディア分析能力について考察する。
我々は、感情分析、ヘイトスピーチ検出、フェイクニュース識別、人口推定、政治的イデオロギー検出を含む5つの代表的なタスクを選択する。
GPT-4Vはこれらのタスクにおいて顕著な効果を示し、画像とテキストのペアの理解、文脈と文化の認識、広義のコモンセンス知識などの強みを示している。
論文 参考訳(メタデータ) (2023-11-13T18:36:50Z) - A Survey on Detection of LLMs-Generated Content [97.87912800179531]
LLMの生成する内容を検出する能力が最重要視されている。
既存の検出戦略とベンチマークの詳細な概要を提供する。
また、様々な攻撃から守るための多面的アプローチの必要性を示唆する。
論文 参考訳(メタデータ) (2023-10-24T09:10:26Z) - Semantic Communications for Artificial Intelligence Generated Content
(AIGC) Toward Effective Content Creation [75.73229320559996]
本稿では,AIGCとSemComの統合の概念モデルを開発する。
AIGC技術を利用した新しいフレームワークが,意味情報のためのエンコーダおよびデコーダとして提案されている。
このフレームワークは、生成されたさまざまなタイプのコンテンツ、要求される品質、活用される意味情報に適応することができる。
論文 参考訳(メタデータ) (2023-08-09T13:17:21Z) - Safety and Fairness for Content Moderation in Generative Models [0.7992463811844456]
テキスト・ツー・イメージ生成技術の責任あるコンテンツモデレーションを概念化する理論的枠組みを提供する。
我々は、安全、公正、およびメートル法エクイティの概念を定義し、区別し、各ドメインで起こりうる害を列挙する。
我々は、データ駆動型コンテンツのモデレーション決定を可能にするハーネスのスタイルについて、まとめて結論付けている。
論文 参考訳(メタデータ) (2023-06-09T01:37:32Z) - LLM-based Interaction for Content Generation: A Case Study on the
Perception of Employees in an IT department [85.1523466539595]
本稿では,IT企業の従業員が生成ツールを使用する意図を明らかにするためのアンケート調査を行う。
以上の結果から, 生成ツールの比較的平均的な受容性が示唆されるが, ツールが有用であると認識されるほど, 意図が高くなることが示唆された。
分析の結果, 生産ツールの利用頻度は, 従業員が作業の文脈でこれらのツールをどのように認識しているかを理解する上で重要な要因である可能性が示唆された。
論文 参考訳(メタデータ) (2023-04-18T15:35:43Z) - Countering Malicious Content Moderation Evasion in Online Social
Networks: Simulation and Detection of Word Camouflage [64.78260098263489]
ツイストとカモフラージュキーワードは、プラットフォームコンテンツモデレーションシステムを回避する最もよく使われるテクニックである。
本稿では,コンテンツ回避の新たな手法をシミュレートし,検出する多言語ツールを開発することにより,悪意ある情報に対する対処に大きく貢献する。
論文 参考訳(メタデータ) (2022-12-27T16:08:49Z) - Time-aware topic identification in social media with pre-trained
language models: A case study of electric vehicles [1.2891210250935146]
事前学習言語モデルを用いた時間認識型トピック識別手法を提案する。
提案手法は,言語モデルを用いて時間変化トピックを追跡する動的関数と,将来有望なトピックを探索する出現スコア関数の2段階からなる。
論文 参考訳(メタデータ) (2022-10-11T04:50:10Z) - A Survey of Task-Based Machine Learning Content Extraction Services for
VIDINT [0.0]
ビデオインテリジェンス(VIDINT)データは、過去10年間で重要なインテリジェンスソースになっている。
ビデオからコンテンツを抽出し、構造化するためのAIベースの分析と自動化ツールの必要性は、組織にとって急速に重要になっている。
本稿では、ビデオから情報を取り出すタスクと機械学習技術に基づいて、製品、ソフトウェアリソース、ビデオ分析機能をレビューし、比較する。
論文 参考訳(メタデータ) (2022-07-09T00:02:08Z) - Automatic Image Content Extraction: Operationalizing Machine Learning in
Humanistic Photographic Studies of Large Visual Archives [81.88384269259706]
本稿では,機械学習による大規模画像アーカイブの検索と解析のための自動画像コンテンツ抽出フレームワークを提案する。
提案する枠組みは、人文科学と社会科学のいくつかの分野に適用できる。
論文 参考訳(メタデータ) (2022-04-05T12:19:24Z) - Ownership and Creativity in Generative Models [0.0]
近年、画像アート、文詩、音楽など、機械学習が生み出したコンテンツが顕著になっている。
これらのツールはデータ駆動型であるため、従来のクリエイティブツールとは本質的に異なる。
これらのツールによって生成されたコンテンツを誰が所有できるだろうか?
論文 参考訳(メタデータ) (2021-12-02T18:59:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。