論文の概要: Content-based Graph Privacy Advisor
- arxiv url: http://arxiv.org/abs/2210.11169v1
- Date: Thu, 20 Oct 2022 11:12:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 15:09:27.440773
- Title: Content-based Graph Privacy Advisor
- Title(参考訳): コンテンツベースのグラフプライバシーアドバイザ
- Authors: Dimitrios Stoidis and Andrea Cavallaro
- Abstract要約: 本稿では,画像のプライバシを予測するための手がかりとして,シーン情報とオブジェクトの濃度を用いた画像プライバシー分類器を提案する。
我々のグラフプライバシ・アドバイザ(GPA)モデルは、最先端のグラフモデルを単純化し、その性能を改善する。
- 参考スコア(独自算出の注目度): 38.733077459065704
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: People may be unaware of the privacy risks of uploading an image online. In
this paper, we present an image privacy classifier that uses scene information
and object cardinality as cues for the prediction of image privacy. Our Graph
Privacy Advisor (GPA) model simplifies a state-of-the-art graph model and
improves its performance by refining the relevance of the content-based
information extracted from the image. We determine the most informative visual
features to be used for the privacy classification task and reduce the
complexity of the model by replacing high-dimensional image-based feature
vectors with lower-dimensional, more effective features. We also address the
biased prior information by modelling object co-occurrences instead of the
frequency of object occurrences in each class.
- Abstract(参考訳): 人々は、画像をオンラインでアップロードするプライバシーリスクを知らないかもしれない。
本稿では,画像プライバシの予測手法としてシーン情報とオブジェクトの濃度を用いた画像プライバシ分類器を提案する。
我々のグラフプライバシ・アドバイザ(GPA)モデルは、画像から抽出したコンテンツベース情報の関連性を改善することにより、最先端のグラフモデルを単純化し、その性能を向上させる。
プライバシ分類タスクに最も有用な視覚的特徴を判定し、高次元画像ベース特徴ベクトルを低次元でより効果的な特徴に置き換えることで、モデルの複雑さを低減する。
また、各クラスにおけるオブジェクト発生頻度の代わりに、オブジェクト共起をモデル化することで、バイアス付き事前情報に対処する。
関連論文リスト
- Enhancing Large Vision Language Models with Self-Training on Image Comprehension [99.9389737339175]
本稿では、画像理解に特化して自己学習アプローチを強調する自己学習 on Image (STIC)を紹介する。
まず、ラベルのない画像を用いて、画像記述の好みを自己構築する。
抽出した視覚情報に対する推論をさらに自己改善するため,既存の命令調整データのごく一部をモデルに再利用する。
論文 参考訳(メタデータ) (2024-05-30T05:53:49Z) - Explaining models relating objects and privacy [33.78605193864911]
画像から抽出したオブジェクトを用いて、なぜ画像がプライベートであると予測されるのかを判断するプライバシーモデルを評価する。
プライバシ決定の主要な要因は、個人カテゴリの存在と、その濃度であることを示す。
論文 参考訳(メタデータ) (2024-05-02T18:06:48Z) - Human-interpretable and deep features for image privacy classification [32.253391125106674]
本稿では,画像のプライバシ分類に適した機能について論じるとともに,プライバシに特有かつ人間に解釈可能な8つの特徴を提案する。
これらの機能は、ディープラーニングモデルの性能を高め、それ自身で、より高次元の深い機能と比較して、プライバシ分類のためのイメージ表現を改善する。
論文 参考訳(メタデータ) (2023-10-30T14:39:43Z) - Inferring Offensiveness In Images From Natural Language Supervision [20.294073012815854]
ウェブから自動的に取り除かれた大規模な画像データセットには、カテゴリや攻撃的なイメージといった軽蔑的な用語が含まれる可能性がある。
我々は、事前学習されたトランスフォーマー自体が、大規模ビジョンデータセットの自動キュレーションのための方法論を提供することを示した。
論文 参考訳(メタデータ) (2021-10-08T16:19:21Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z) - Toward Privacy and Utility Preserving Image Representation [26.768476643200664]
本稿では,プライバシ保護のための画像表現の新規な課題について検討する。
本稿では,AIA(Adversarial Image Anonymizer)と呼ばれる原理的フレームワークを提案する。
AIAはまず、生成モデルを用いて画像表現を作成し、次に、敵対学習を用いて学習した画像表現を拡張して、与えられたタスクのプライバシーと有用性を維持する。
論文 参考訳(メタデータ) (2020-09-30T01:25:00Z) - Saliency-driven Class Impressions for Feature Visualization of Deep
Neural Networks [55.11806035788036]
分類に欠かせないと思われる特徴を視覚化することは有利である。
既存の可視化手法は,背景特徴と前景特徴の両方からなる高信頼画像を生成する。
本研究では,あるタスクにおいて最も重要であると考えられる識別的特徴を可視化するための,サリエンシ駆動型アプローチを提案する。
論文 参考訳(メタデータ) (2020-07-31T06:11:06Z) - Privacy-Preserving Image Features via Adversarial Affine Subspace
Embeddings [72.68801373979943]
多くのコンピュータビジョンシステムでは、ユーザーは画像処理とストレージのためにイメージ機能をクラウドにアップロードする必要がある。
本稿では,新しいプライバシー保護機能表現を提案する。
従来の特徴と比較すると,敵が個人情報を回収するのは極めて困難である。
論文 参考訳(メタデータ) (2020-06-11T17:29:48Z) - InfoScrub: Towards Attribute Privacy by Targeted Obfuscation [77.49428268918703]
視覚データに流出した個人情報を個人が制限できる技術について検討する。
我々はこの問題を新しい画像難読化フレームワークで解決する。
提案手法では,元の入力画像に忠実な難読化画像を生成するとともに,非難読化画像に対して6.2$times$(または0.85bits)の不確実性を増大させる。
論文 参考訳(メタデータ) (2020-05-20T19:48:04Z) - Privacy-Preserving Image Classification in the Local Setting [17.375582978294105]
ローカル微分プライバシ(LDP)は、データ所有者がランダムにインプットを摂動させ、リリース前にデータの妥当な削除を可能にする、有望なソリューションを提供する。
本稿では、データ所有者が画像を保持し、不信なデータ利用者が機械学習モデルにこれらの画像を入力として適合させたいという、双方向のイメージ分類問題について考察する。
本稿では,拡張性のある領域サイズで画像表現を生成する,教師付き画像特徴抽出器 DCAConv を提案する。
論文 参考訳(メタデータ) (2020-02-09T01:25:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。