論文の概要: Faster, Lighter, More Accurate: A Deep Learning Ensemble for Content
Moderation
- arxiv url: http://arxiv.org/abs/2309.05150v1
- Date: Sun, 10 Sep 2023 21:54:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-12 14:16:14.204852
- Title: Faster, Lighter, More Accurate: A Deep Learning Ensemble for Content
Moderation
- Title(参考訳): より速く、軽く、より正確に:コンテンツモデレーションのためのディープラーニングアンサンブル
- Authors: Mohammad Hosseini, Mahmudul Hasan
- Abstract要約: 本稿では,効率的かつ軽量な深層分類アンサンブル構造を提案する。
我々のアプローチは、暴力的コンテンツの高精度な分類のために設計された、単純な視覚的特徴の組み合わせに基づいている。
評価の結果,予測精度は7.64倍に向上し,計算コストの低減が図られた。
- 参考スコア(独自算出の注目度): 2.1756081703276
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To address the increasing need for efficient and accurate content moderation,
we propose an efficient and lightweight deep classification ensemble structure.
Our approach is based on a combination of simple visual features, designed for
high-accuracy classification of violent content with low false positives. Our
ensemble architecture utilizes a set of lightweight models with narrowed-down
color features, and we apply it to both images and videos.
We evaluated our approach using a large dataset of explosion and blast
contents and compared its performance to popular deep learning models such as
ResNet-50. Our evaluation results demonstrate significant improvements in
prediction accuracy, while benefiting from 7.64x faster inference and lower
computation cost.
While our approach is tailored to explosion detection, it can be applied to
other similar content moderation and violence detection use cases as well.
Based on our experiments, we propose a "think small, think many" philosophy in
classification scenarios. We argue that transforming a single, large,
monolithic deep model into a verification-based step model ensemble of multiple
small, simple, and lightweight models with narrowed-down visual features can
possibly lead to predictions with higher accuracy.
- Abstract(参考訳): 効率的で正確なコンテンツモデレーションの必要性の高まりに対応するため,より効率的で軽量な深層分類アンサンブル構造を提案する。
提案手法は,低偽陽性を伴う暴力コンテンツの高精度分類を目的とした,単純な視覚特徴の組み合わせに基づく。
当社のアンサンブルアーキテクチャは,絞り込みカラー機能を備えた軽量モデルセットを使用して,画像とビデオの両方に適用する。
本研究では,大規模な爆発・爆発コンテンツを用いたアプローチの評価を行い,その性能をResNet-50のような一般的なディープラーニングモデルと比較した。
評価の結果,予測精度は7.64倍に向上し,計算コストの低減が図られた。
私たちのアプローチは爆発検出に合わせたものですが、他の類似のコンテンツモデレーションや暴力検出ユースケースにも適用できます。
我々の実験に基づいて、分類シナリオにおける「小さな、多くの思考」哲学を提案する。
単一で大規模でモノリシックなディープモデルを、狭義の視覚的特徴を持つ複数の小型でシンプルで軽量なモデルの検証ベースのステップモデルアンサンブルに変換することは、より高精度な予測につながる可能性がある、と私たちは主張する。
関連論文リスト
- Few-shot Image Classification based on Gradual Machine Learning [6.935034849731568]
少ないショット画像分類は、ラベル付きサンプルのみを使用してラベル付きイメージを正確に分類することを目的としている。
段階的機械学習(GML)の非i.dパラダイムに基づく新しいアプローチを提案する。
提案手法は精度でSOTAの性能を1-5%向上させることができることを示す。
論文 参考訳(メタデータ) (2023-07-28T12:30:41Z) - Evaluation of Confidence-based Ensembling in Deep Learning Image
Classification [0.6445605125467573]
Conf-EnsembleはBoostingに適応して、モデルエラーではなくモデルの信頼性に基づいたアンサンブルを生成する。
我々は、イメージNetデータセットを用いて、画像分類のより複雑なタスクにおいて、Conf-Ensembleアプローチを評価する。
論文 参考訳(メタデータ) (2023-03-03T16:29:22Z) - Part-Based Models Improve Adversarial Robustness [57.699029966800644]
人間の事前知識とエンドツーエンドの学習を組み合わせることで、ディープニューラルネットワークの堅牢性を向上させることができることを示す。
我々のモデルは、部分分割モデルと小さな分類器を組み合わせて、オブジェクトを同時に部品に分割するようにエンドツーエンドに訓練されている。
実験の結果,これらのモデルによりテクスチャバイアスが低減され,一般的な汚職に対する堅牢性が向上し,相関が急上昇することが示唆された。
論文 参考訳(メタデータ) (2022-09-15T15:41:47Z) - Simple Open-Vocabulary Object Detection with Vision Transformers [51.57562920090721]
本稿では,画像テキストモデルをオープン語彙オブジェクト検出に転送するための強力なレシピを提案する。
我々は、最小限の修正、コントラスト的な画像テキスト事前学習、エンドツーエンド検出細調整を備えた標準のVision Transformerアーキテクチャを使用する。
我々は、ゼロショットテキスト条件とワンショット画像条件オブジェクト検出において、非常に強力な性能を達成するために必要な適応戦略と正規化を提供する。
論文 参考訳(メタデータ) (2022-05-12T17:20:36Z) - Sparse MoEs meet Efficient Ensembles [49.313497379189315]
このようなモデルの2つの一般的なクラス、すなわちニューラルネットワークのアンサンブルと専門家のスパースミックス(スパースMoE)の相互作用について研究する。
Efficient Ensemble of Experts (E$3$)は、両モデルのクラスを最大限に活用するスケーラブルでシンプルなMoEのアンサンブルであり、深いアンサンブルよりも最大45%少ないFLOPを使用する。
論文 参考訳(メタデータ) (2021-10-07T11:58:35Z) - The Case for High-Accuracy Classification: Think Small, Think Many! [4.817521691828748]
簡単な色特徴の組み合わせに基づく効率的で軽量な深層分類アンサンブル構造を提案する。
評価の結果,resnet-50モデルと比較して予測精度が大幅に向上した。
論文 参考訳(メタデータ) (2021-03-18T16:15:31Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z) - A Compact Deep Architecture for Real-time Saliency Prediction [42.58396452892243]
唾液度モデルは、人間の視覚系における注意機構を模倣することを目的としている。
ディープモデルは多数のパラメータを持ち、リアルタイムアプリケーションには適さない。
本稿では,実時間精度予測のためのコンパクトかつ高速なモデルを提案する。
論文 参考訳(メタデータ) (2020-08-30T17:47:16Z) - Few-shot Classification via Adaptive Attention [93.06105498633492]
ごく少数の参照サンプルに基づいて,クエリサンプル表現を最適化し,高速に適応する新しい数ショット学習手法を提案する。
実験で実証したように,提案モデルでは,様々なベンチマーク数ショット分類と微粒化認識データセットを用いて,最先端の分類結果を達成している。
論文 参考訳(メタデータ) (2020-08-06T05:52:59Z) - One-Shot Object Detection without Fine-Tuning [62.39210447209698]
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
論文 参考訳(メタデータ) (2020-05-08T01:59:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。