論文の概要: DRAG: Dynamic Region-Aware GCN for Privacy-Leaking Image Detection
- arxiv url: http://arxiv.org/abs/2203.09121v1
- Date: Thu, 17 Mar 2022 06:56:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-19 03:59:47.989929
- Title: DRAG: Dynamic Region-Aware GCN for Privacy-Leaking Image Detection
- Title(参考訳): DRAG: プライバシー漏洩画像検出のための動的領域認識GCN
- Authors: Guang Yang, Juan Cao, Qiang Sheng, Peng Qi, Xirong Li, Jintao Li
- Abstract要約: プライバシーを優先した画像検出のための動的領域対応グラフ畳み込みネットワーク(DRAG)を提案する。
DRAGは、オブジェクトやその他の重要な要素を含む重要な領域を発見し、各入力画像に対してそれらの相関を適応的にモデル化する。
プライバシをリードするイメージ検出の最大のデータセットでは87%の精度を達成した。
- 参考スコア(独自算出の注目度): 21.230481573331982
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The daily practice of sharing images on social media raises a severe issue
about privacy leakage. To address the issue, privacy-leaking image detection is
studied recently, with the goal to automatically identify images that may leak
privacy. Recent advance on this task benefits from focusing on crucial objects
via pretrained object detectors and modeling their correlation. However, these
methods have two limitations: 1) they neglect other important elements like
scenes, textures, and objects beyond the capacity of pretrained object
detectors; 2) the correlation among objects is fixed, but a fixed correlation
is not appropriate for all the images. To overcome the limitations, we propose
the Dynamic Region-Aware Graph Convolutional Network (DRAG) that dynamically
finds out crucial regions including objects and other important elements, and
models their correlation adaptively for each input image. To find out crucial
regions, we cluster spatially-correlated feature channels into several
region-aware feature maps. Further, we dynamically model the correlation with
the self-attention mechanism and explore the interaction among the regions with
a graph convolutional network. The DRAG achieved an accuracy of 87% on the
largest dataset for privacy-leaking image detection, which is 10 percentage
points higher than the state of the art. The further case study demonstrates
that it found out crucial regions containing not only objects but other
important elements like textures.
- Abstract(参考訳): ソーシャルメディア上で画像を共有するという日々の慣行は、プライバシー漏洩の深刻な問題を引き起こす。
この問題に対処するために、プライバシーを侵害する画像検出が最近研究され、プライバシーを漏洩する可能性のある画像を自動的に識別することを目指している。
このタスクの最近の進歩は、事前訓練された物体検出器を通して重要な物体に集中し、それらの相関をモデル化することの利点がある。
しかし、これらの方法には2つの制限がある。
1) シーン,テクスチャ,オブジェクトといった他の重要な要素を,事前訓練された物体検出器の能力を超えて無視する。
2)対象間の相関は固定されるが,すべての画像に対して一定の相関が適切ではない。
この制限を克服するために、オブジェクトや他の重要な要素を含む重要な領域を動的に発見し、各入力画像に対してそれらの相関を適応的にモデル化する動的領域対応グラフ畳み込みネットワーク(DRAG)を提案する。
重要な領域を見つけるために,空間的関連特徴チャネルを複数の地域対応特徴マップにクラスタリングする。
さらに,自己着脱機構との相関を動的にモデル化し,グラフ畳み込みネットワークを用いた領域間の相互作用を探索する。
DRAGは、プライバシーを優先する画像検出のための最大のデータセットで87%の精度を達成した。
さらなるケーススタディでは、物体だけでなく、テクスチャなどの重要な要素を含む重要な領域が見つかった。
関連論文リスト
- Hierarchical Graph Interaction Transformer with Dynamic Token Clustering for Camouflaged Object Detection [57.883265488038134]
本稿では,HGINetと呼ばれる階層的なグラフ相互作用ネットワークを提案する。
このネットワークは、階層的トークン化機能間の効果的なグラフ相互作用を通じて、知覚不能なオブジェクトを発見することができる。
本実験は,既存の最先端手法と比較して,HGINetの優れた性能を示すものである。
論文 参考訳(メタデータ) (2024-08-27T12:53:25Z) - HEAP: Unsupervised Object Discovery and Localization with Contrastive
Grouping [29.678756772610797]
教師なしオブジェクトの発見と位置決めは、監督なしで画像内のオブジェクトを検出し、セグメント化することを目的としている。
近年の取り組みは、自己監督型トランスフォーマー機能を利用して、有能な前景物体を識別する顕著な可能性を実証している。
これらの問題に対処するために、Herarchical mErging framework via contrAstive grouPing (HEAP) を紹介する。
論文 参考訳(メタデータ) (2023-12-29T06:46:37Z) - Heteroskedastic Geospatial Tracking with Distributed Camera Networks [15.938635024739845]
本研究では,分散カメラネットワークのデータを用いた空間的物体追跡問題に焦点をあてる。
目的は、物体の位置に関する不確実性とともに、地理空間座標における物体の軌道を予測することである。
本研究では、4台のカメラのネットワークから高精度の地上真理物体の位置と映像データを含む新しい一物体地理空間追跡データセットを提案する。
論文 参考訳(メタデータ) (2023-06-04T16:55:38Z) - DQnet: Cross-Model Detail Querying for Camouflaged Object Detection [54.82390534024954]
カモフラージュされた物体検出のための畳み込みニューラルネットワーク(CNN)は、完全な対象範囲を無視しながら局所的な識別領域を活性化する傾向がある。
本稿では,CNNの内在的特性から部分的活性化が引き起こされることを論じる。
完全なオブジェクト範囲を活性化できる特徴マップを得るために,クロスモデル詳細クエリネットワーク(DQnet)と呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-16T06:23:58Z) - Progressive Domain Adaptation with Contrastive Learning for Object
Detection in the Satellite Imagery [0.0]
最先端のオブジェクト検出手法は、小さくて密度の高いオブジェクトを特定するのにほとんど失敗している。
本稿では,特徴抽出プロセスを改善する小型物体検出パイプラインを提案する。
未確認データセットにおけるオブジェクト識別の劣化を緩和できることを示す。
論文 参考訳(メタデータ) (2022-09-06T15:16:35Z) - Object Detection in Aerial Images with Uncertainty-Aware Graph Network [61.02591506040606]
本稿では,ノードとエッジがオブジェクトによって表現される構造化グラフを用いた,新しい不確実性を考慮したオブジェクト検出フレームワークを提案する。
我々は我々のモデルをオブジェクトDETection(UAGDet)のための不確実性対応グラフネットワークと呼ぶ。
論文 参考訳(メタデータ) (2022-08-23T07:29:03Z) - Focus-and-Detect: A Small Object Detection Framework for Aerial Images [1.911678487931003]
我々はFocus-and-Detectと呼ばれる2段階のオブジェクト検出フレームワークを提案する。
第1段階は、焦点領域を構成するオブジェクトのクラスタを生成する。
第2段階は対象検出器ネットワークであり、焦点領域内の物体を予測する。
提案した2段階のフレームワークは,VisDrone検証データセットのAPスコアが42.06であることを示す。
論文 参考訳(メタデータ) (2022-03-24T10:43:56Z) - Complex Scene Image Editing by Scene Graph Comprehension [17.72638225034884]
シーングラフ(SGC-Net)による複雑なシーン画像編集を実現するための2段階手法を提案する。
第1段階では,シーングラフを用いた関心領域予測ネットワークを訓練し,対象物体の位置を推定する。
第2段階では条件付き拡散モデルを用いて、RoI予測に基づいて画像を編集する。
論文 参考訳(メタデータ) (2022-03-24T05:12:54Z) - ConsNet: Learning Consistency Graph for Zero-Shot Human-Object
Interaction Detection [101.56529337489417]
画像中のHuman, Action, Object>の形のHOIインスタンスを検出・認識することを目的としたHuman-Object Interaction (HOI) Detectionの問題点を考察する。
我々は、オブジェクト、アクション、インタラクション間の多レベルコンパレンシーは、稀な、あるいは以前には見られなかったHOIのセマンティック表現を生成するための強力な手がかりであると主張している。
提案モデルでは,人-対象のペアの視覚的特徴とHOIラベルの単語埋め込みを入力とし,それらを視覚-意味的関節埋め込み空間にマッピングし,類似度を計測して検出結果を得る。
論文 参考訳(メタデータ) (2020-08-14T09:11:18Z) - High-Order Information Matters: Learning Relation and Topology for
Occluded Person Re-Identification [84.43394420267794]
本稿では,高次関係とトポロジ情報を識別的特徴とロバストなアライメントのために学習し,新しい枠組みを提案する。
我々のフレームワークはOccluded-Dukeデータセットで最先端の6.5%mAPスコアを大幅に上回っている。
論文 参考訳(メタデータ) (2020-03-18T12:18:35Z) - Object-Centric Image Generation from Layouts [93.10217725729468]
複数のオブジェクトを持つ複雑なシーンを生成するレイアウト・ツー・イメージ生成法を開発した。
本手法は,シーン内のオブジェクト間の空間的関係の表現を学習し,レイアウトの忠実度の向上につながる。
本稿では,Fr'echet Inception Distanceのオブジェクト中心適応であるSceneFIDを紹介する。
論文 参考訳(メタデータ) (2020-03-16T21:40:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。