論文の概要: The impact of abstract and object tags on image privacy classification
- arxiv url: http://arxiv.org/abs/2510.07976v1
- Date: Thu, 09 Oct 2025 09:09:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:14.978165
- Title: The impact of abstract and object tags on image privacy classification
- Title(参考訳): 抽象タグとオブジェクトタグが画像プライバシ分類に及ぼす影響
- Authors: Darya Baranouskaya, Andrea Cavallaro,
- Abstract要約: 本稿では,画像プライバシのコンテキスト依存的・主観的課題に対して,どのタグがより適しているかを検討する。
タグ予算が限られている場合,抽象タグの方が有効であることを示す。逆に,画像あたりのタグ数が多ければ,オブジェクト関連情報も有用である。
- 参考スコア(独自算出の注目度): 17.807058426625087
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object tags denote concrete entities and are central to many computer vision tasks, whereas abstract tags capture higher-level information, which is relevant for tasks that require a contextual, potentially subjective scene understanding. Object and abstract tags extracted from images also facilitate interpretability. In this paper, we explore which type of tags is more suitable for the context-dependent and inherently subjective task of image privacy. While object tags are generally used for privacy classification, we show that abstract tags are more effective when the tag budget is limited. Conversely, when a larger number of tags per image is available, object-related information is as useful. We believe that these findings will guide future research in developing more accurate image privacy classifiers, informed by the role of tag types and quantity.
- Abstract(参考訳): オブジェクトタグは具体的なエンティティを表し、多くのコンピュータビジョンタスクの中心であるのに対して、抽象タグは文脈的、潜在的に主観的なシーン理解を必要とするタスクに関連する高レベルの情報をキャプチャする。
画像から抽出されたオブジェクトタグと抽象タグも解釈しやすくする。
本稿では,画像プライバシのコンテキスト依存的・主観的課題に対して,どのタグがより適しているかを検討する。
オブジェクトタグは一般的にプライバシ分類に使用されるが,タグ予算が制限された場合,抽象タグの方が有効であることを示す。
逆に、画像あたりのタグの数が増えると、オブジェクト関連の情報が役に立つ。
これらの発見は、タグの種類と量の役割から情報を得て、より正確な画像プライバシー分類器を開発するための将来の研究に役立つと信じている。
関連論文リスト
- Weakly Supervised Deep Hyperspherical Quantization for Image Retrieval [76.4407063566172]
Weakly-Supervised Deep Hyperspherical Quantization (WSDHQ)を提案する。
具体的には,1)単語の埋め込みを用いてタグを表現し,タグ相関グラフに基づく意味情報を強化する。
我々は、よく設計された融合層とテーラーメイドの損失関数を用いて、セマンティックス保存の埋め込みと超球上の量子化器を協調的に学習する。
論文 参考訳(メタデータ) (2024-04-07T15:48:33Z) - Semi-Supervised Semantic Segmentation Based on Pseudo-Labels: A Survey [49.47197748663787]
本総説は, 半教師付きセマンティックセグメンテーション分野における擬似ラベル手法に関する最新の研究成果について, 包括的かつ組織的に概観することを目的としている。
さらに,医用およびリモートセンシング画像のセグメンテーションにおける擬似ラベル技術の適用について検討する。
論文 参考訳(メタデータ) (2024-03-04T10:18:38Z) - A semantics-driven methodology for high-quality image annotation [4.7590051176368915]
本稿では,統合自然言語処理,知識表現,コンピュータビジョンの方法論であるvTelosを提案する。
vTelosの重要な要素は、WordNetのレキシコセマンティック階層を、自然言語ラベルの意味を提供する主要な手段として利用することである。
この手法はImageNet階層のサブセットをポップアップさせるイメージ上で検証される。
論文 参考訳(メタデータ) (2023-07-26T11:38:45Z) - Tag2Text: Guiding Vision-Language Model via Image Tagging [32.30893277821682]
本稿では,視覚言語事前学習フレームワークであるTag2Textについて述べる。
対象タグを手動でラベル付けするか,あるいはオフザシェルフ検出器で自動的に検出する従来の手法とは対照的に,本手法では画像ペアリングテキストから解析したタグを用いて画像タグを明示的に学習する。
論文 参考訳(メタデータ) (2023-03-10T02:16:35Z) - Scene Recognition with Objectness, Attribute and Category Learning [8.581276116041401]
シーン分類は、それ自体が挑戦的な研究課題として確立されている。
画像認識は、シーン認識の優れたパフォーマンスの鍵となる。
本稿では,カテゴリ埋め込みを学習し,同時にシーン特性を予測するマルチタスク属性・シーン認識ネットワークを提案する。
論文 参考訳(メタデータ) (2022-07-20T19:51:54Z) - Exploiting Unlabeled Data with Vision and Language Models for Object
Detection [64.94365501586118]
堅牢で汎用的なオブジェクト検出フレームワークを構築するには、より大きなラベルスペースとより大きなトレーニングデータセットへのスケーリングが必要である。
本稿では,近年の視覚と言語モデルで利用可能なリッチなセマンティクスを利用して,未ラベル画像中のオブジェクトのローカライズと分類を行う手法を提案する。
生成した擬似ラベルの価値を,オープン語彙検出と半教師付きオブジェクト検出の2つのタスクで示す。
論文 参考訳(メタデータ) (2022-07-18T21:47:15Z) - ImageSubject: A Large-scale Dataset for Subject Detection [9.430492045581534]
主に被写体は、写真家が強調したいものなので、通常、画像やビデオの中に存在します。
主対象を検出することは、機械が画像やビデオの内容を理解するのを助ける重要な技術である。
我々は、オブジェクトのレイアウトを理解し、その中の主要な対象を見つけるために、モデルのトレーニングを目標とする新しいデータセットを提案する。
論文 参考訳(メタデータ) (2022-01-09T22:49:59Z) - Boosting Entity-aware Image Captioning with Multi-modal Knowledge Graph [96.95815946327079]
名前付きエンティティの長期分布により、名前付きエンティティと視覚的キューの関係を学習することは困難である。
本稿では、視覚オブジェクトと名前付きエンティティを関連付けるために、マルチモーダルな知識グラフを構築する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-07-26T05:50:41Z) - Learning Object Detection from Captions via Textual Scene Attributes [70.90708863394902]
キャプションには、オブジェクトの属性やそれらの関係など、画像に関するよりリッチな情報が含まれている、と我々は主張する。
本稿では,この「テキストシーングラフ」の属性を用いて物体検知器を訓練する手法を提案する。
得られたモデルが、いくつかの挑戦的なオブジェクト検出データセットに対して、最先端の結果を達成することを実証的に実証した。
論文 参考訳(メタデータ) (2020-09-30T10:59:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。