論文の概要: On-device Filtering of Social Media Images for Efficient Storage
- arxiv url: http://arxiv.org/abs/2004.02489v2
- Date: Thu, 14 May 2020 20:40:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 06:18:26.580809
- Title: On-device Filtering of Social Media Images for Efficient Storage
- Title(参考訳): 効率的なストレージのためのソーシャルメディア画像のオンデバイスフィルタリング
- Authors: Dhruval Jain, DP Mohanty, Sanjeev Roy, Naresh Purre, Sukumar Moharana
- Abstract要約: ソーシャルメディア画像のオンデバイスフィルタリングのための畳み込みニューラルネットワーク(CNN)に基づく新しい手法を提案する。
提案したソリューションは、Places-365データセットで98.25%、Syntheticイメージデータセットで95.81%の精度を実現している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Artificially crafted images such as memes, seasonal greetings, etc are
flooding the social media platforms today. These eventually start occupying a
lot of internal memory of smartphones and it gets cumbersome for the user to go
through hundreds of images and delete these synthetic images. To address this,
we propose a novel method based on Convolutional Neural Networks (CNNs) for the
on-device filtering of social media images by classifying these synthetic
images and allowing the user to delete them in one go. The custom model uses
depthwise separable convolution layers to achieve low inference time on
smartphones. We have done an extensive evaluation of our model on various
camera image datasets to cover most aspects of images captured by a camera.
Various sorts of synthetic social media images have also been tested. The
proposed solution achieves an accuracy of 98.25% on the Places-365 dataset and
95.81% on the Synthetic image dataset that we have prepared containing 30K
instances.
- Abstract(参考訳): 現在、ミームや季節の挨拶などの人工的な画像がソーシャルメディアプラットフォームに溢れている。
最終的にはスマートフォンの内部記憶を多く占めるようになり、ユーザーは何百もの画像を閲覧してこれらの合成画像を削除するのが面倒になる。
そこで本研究では,これら合成画像を分類し,ユーザが一度に削除できるようにすることで,ソーシャルメディア画像のオンデバイスフィルタリングを行うための畳み込みニューラルネットワーク(cnns)に基づく新しい手法を提案する。
カスタムモデルは、スマートフォン上で低い推論時間を達成するために、深く分離可能な畳み込み層を使用する。
我々は,カメラで撮影された画像のほとんどの側面をカバーするため,各種カメラ画像データセット上でのモデルを広範囲に評価した。
様々な種類の合成ソーシャルメディア画像もテストされている。
提案手法は,30Kインスタンスを含む合成画像データセットにおいて,Places-365データセットで98.25%,95.81%の精度を実現する。
関連論文リスト
- ImagiNet: A Multi-Content Dataset for Generalizable Synthetic Image Detection via Contrastive Learning [0.0]
生成モデルは、実際の写真やアートワークとほとんど区別がつかない、信頼性の高い画像を生成する。
合成画像の識別が困難であるため、オンラインメディアプラットフォームは偽造や誤情報に脆弱である。
合成画像検出のための高分解能かつバランスの取れたデータセットであるImagiNetを紹介する。
論文 参考訳(メタデータ) (2024-07-29T13:57:24Z) - FreeMask: Synthetic Images with Dense Annotations Make Stronger
Segmentation Models [62.009002395326384]
FreeMaskは、生成モデルからの合成画像を利用して、データ収集とアノテーション手順の負担を軽減する。
まず、現実的なデータセットによって提供されるセマンティックマスクに条件付けされた豊富な訓練画像を合成する。
本研究では,実画像との協調訓練や,実画像の事前学習による合成画像の役割について検討する。
論文 参考訳(メタデータ) (2023-10-23T17:57:27Z) - FSID: Fully Synthetic Image Denoising via Procedural Scene Generation [12.277286575812441]
低レベルの視覚タスクに適した手続き型合成データ生成パイプラインとデータセットを開発する。
我々のUnrealエンジンベースの合成データパイプラインは、ランダムな3Dオブジェクト、材料、幾何学的変換の組み合わせで、大きなシーンをアルゴリズムで生成します。
そこで我々は,CNNに基づく復調モデルの訓練と検証を行い,この合成データのみを用いてトレーニングしたモデルが競争性のある復調結果が得られることを示した。
論文 参考訳(メタデータ) (2022-12-07T21:21:55Z) - MicroISP: Processing 32MP Photos on Mobile Devices with Deep Learning [114.66037224769005]
エッジデバイスに特化して設計された新しいMicroISPモデルを提案する。
提案したソリューションは,モバイルMLライブラリを使用して,最新のスマートフォン上で最大32MPの写真を処理できる。
モデルのアーキテクチャは柔軟で、計算能力の異なるデバイスに複雑性を調整することができる。
論文 参考訳(メタデータ) (2022-11-08T17:40:50Z) - LFW-Beautified: A Dataset of Face Images with Beautification and
Augmented Reality Filters [53.180678723280145]
いくつかの操作を含む顔画像のデータベースにコントリビュートする。
画像強調フィルター(コントラストや稲妻を主に修正する)や、動物の鼻や眼鏡などのアイテムを組み込んだ拡張現実フィルターが含まれている。
各データセットには、64×64の4,324枚の画像があり、合計34,592枚の画像がある。
論文 参考訳(メタデータ) (2022-03-11T17:05:10Z) - A Shared Representation for Photorealistic Driving Simulators [83.5985178314263]
本稿では、識別器アーキテクチャを再考することにより、生成画像の品質を向上させることを提案する。
シーンセグメンテーションマップや人体ポーズといったセマンティックインプットによって画像が生成されるという問題に焦点が当てられている。
我々は,意味的セグメンテーション,コンテンツ再構成,および粗い粒度の逆解析を行うのに十分な情報をエンコードする,共有潜在表現を学習することを目指している。
論文 参考訳(メタデータ) (2021-12-09T18:59:21Z) - Improving Fractal Pre-training [0.76146285961466]
動的に生成されたフラクタル画像に基づく事前学習データセットを提案する。
実験により, フラクタルを用いたネットワークの微調整は, ImageNet事前訓練ネットワークの精度の92.7-98.1%に達することが示された。
論文 参考訳(メタデータ) (2021-10-06T22:39:51Z) - Fast and Accurate Camera Scene Detection on Smartphones [51.424407411660376]
本稿では,11K以上の手動クロール画像を含むカメラシーン検出データセット(CamSDD)を提案する。
本研究では,このデータセット上で上位3の99.5%の精度を示す,効率的かつNPU対応のCNNモデルを提案する。
論文 参考訳(メタデータ) (2021-05-17T14:06:21Z) - Fast Camera Image Denoising on Mobile GPUs with Deep Learning, Mobile AI
2021 Challenge: Report [64.09439666916465]
最初のMobile AIチャレンジでは、エンドツーエンドのディープラーニングベースの画像記述ソリューションの開発を目標としています。
提案したソリューションは任意のモバイルGPUと完全に互換性があり、480pの解像度画像を40-80msで処理できる。
論文 参考訳(メタデータ) (2021-05-17T13:27:56Z) - The Forchheim Image Database for Camera Identification in the Wild [10.091921099426294]
Forchheim Image Database (FODB)は、27台のスマートフォンカメラで143シーンの23,000枚以上の画像で構成されている。
各画像は、オリジナルのカメラネイティブバージョンと、ソーシャルネットワークから5つのコピーの6つの異なる品質で提供される。
汎用EfficientNetは、クリーン画像と圧縮画像の両方で、いくつかの専門のCNNを著しく上回っている。
論文 参考訳(メタデータ) (2020-11-04T11:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。