論文の概要: PrivLEX: Detecting legal concepts in images through Vision-Language Models
- arxiv url: http://arxiv.org/abs/2601.09449v1
- Date: Wed, 14 Jan 2026 12:51:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.40248
- Title: PrivLEX: Detecting legal concepts in images through Vision-Language Models
- Title(参考訳): PrivLEX:視覚言語モデルによる画像の法的概念の検出
- Authors: Darya Baranouskaya, Andrea Cavallaro,
- Abstract要約: PrivLEXは、法的概念に沿った最初の解釈可能なプライバシー分類器である。
PrivLEXは、解釈可能な分類を提供するためにゼロショットのVLM概念の検出に依存している。
画像に存在する個人データの概念を識別するPrivLEXの能力を実証する。
- 参考スコア(独自算出の注目度): 17.807058426625087
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present PrivLEX, a novel image privacy classifier that grounds its decisions in legally defined personal data concepts. PrivLEX is the first interpretable privacy classifier aligned with legal concepts that leverages the recognition capabilities of Vision-Language Models (VLMs). PrivLEX relies on zero-shot VLM concept detection to provide interpretable classification through a label-free Concept Bottleneck Model, without requiring explicit concept labels during training. We demonstrate PrivLEX's ability to identify personal data concepts that are present in images. We further analyse the sensitivity of such concepts as perceived by human annotators of image privacy datasets.
- Abstract(参考訳): このPrivLEXは、法的に定義された個人データの概念に基づいて決定を下す新しい画像プライバシー分類器である。
PrivLEXは、VLM(Vision-Language Models)の認識機能を利用する法的な概念と整合した最初の解釈可能なプライバシー分類器である。
PrivLEX はゼロショットの VLM の概念検出に依存しており、ラベルなしのConcept Bottleneck Model を通じて、トレーニング中に明示的な概念ラベルを必要とせず、解釈可能な分類を提供する。
画像に存在する個人データの概念を識別するPrivLEXの能力を実証する。
画像プライバシーデータセットのアノテータによって認識されるような概念の感度をさらに分析する。
関連論文リスト
- ID-Cloak: Crafting Identity-Specific Cloaks Against Personalized Text-to-Image Generation [54.14901999875917]
本研究は、画像の保護を行うアイデンティティ固有のクロークの作成について検討する。
我々は、モデルが通常の出力から遠ざけることを奨励する新しい目的によって、アイデンティティ固有のクロークを構築する。
提案手法は,個人固有のクローク設定とともに,現実的なプライバシ保護の顕著な進歩を示す。
論文 参考訳(メタデータ) (2025-02-12T03:52:36Z) - Image Privacy Protection: A Survey [32.020322218775526]
画像は、重要なコミュニケーション媒体として機能し、キーポイントの迅速な理解を容易にする視覚的に係わるフォーマットで情報を提示する。
適切に管理されていない場合、この情報は個人的利益のために搾取に脆弱であり、プライバシー権やその他の法的権利を侵害する可能性がある。
既存のレビューは特定のシナリオによって分類されるか、特定のプライバシー目的によって分類される傾向がある。
論文 参考訳(メタデータ) (2024-12-05T08:09:25Z) - Differential Privacy Overview and Fundamental Techniques [63.0409690498569]
この章は、"Differential Privacy in Artificial Intelligence: From Theory to Practice"という本の一部である。
まず、データのプライバシ保護のためのさまざまな試みについて説明し、その失敗の場所と理由を強調した。
次に、プライバシ保護データ分析の領域を構成する重要なアクター、タスク、スコープを定義する。
論文 参考訳(メタデータ) (2024-11-07T13:52:11Z) - Image-guided topic modeling for interpretable privacy classification [27.301741710016223]
本稿では,自然言語コンテンツ記述子を用いて画像のプライバシーを予測することを提案する。
これらのコンテンツ記述子は、人々がイメージコンテンツをどう知覚するかを反映したプライバシースコアと関連付けられている。
ITMの生成した記述子を使ってプライバシ予測子(Priv$times$ITM)を学習し、その決定は設計によって解釈できる。
論文 参考訳(メタデータ) (2024-09-27T12:02:28Z) - Explaining models relating objects and privacy [33.78605193864911]
画像から抽出したオブジェクトを用いて、なぜ画像がプライベートであると予測されるのかを判断するプライバシーモデルを評価する。
プライバシ決定の主要な要因は、個人カテゴリの存在と、その濃度であることを示す。
論文 参考訳(メタデータ) (2024-05-02T18:06:48Z) - Private Attribute Inference from Images with Vision-Language Models [2.9373912230684565]
視覚言語モデル(VLM)は、画像とテキストの両方を理解することができる。
我々は7つの最先端のVLMを評価し、最大77.6%の精度で様々な個人属性を推測できることを発見した。
モデルの一般的な能力で精度がスケールすることが観察され、将来のモデルはより強い推論の敵として誤用される可能性が示唆された。
論文 参考訳(メタデータ) (2024-04-16T14:42:49Z) - MyVLM: Personalizing VLMs for User-Specific Queries [78.33252556805931]
視覚言語モデルのパーソナライズに向けての第一歩を踏み出し,ユーザが提供する概念を学習し,推論することを可能にする。
様々なユーザ固有の概念を効果的に認識するために,モデルのトグルとして機能する外部概念ヘッドを付加する。
この概念を認識して、VLMの中間機能空間に埋め込まれた新しい概念を学習する。
この埋め込みは、言語モデルを誘導し、ターゲットの概念を生成された応答に自然に統合する。
論文 参考訳(メタデータ) (2024-03-21T17:51:01Z) - Designing an Encoder for Fast Personalization of Text-to-Image Models [57.62449900121022]
テキスト・ツー・イメージ・パーソナライズのためのエンコーダに基づくドメインチューニング手法を提案する。
まず、特定のドメインからターゲット概念の1つのイメージを入力として取り込むエンコーダです。
第二に、追加概念を効果的に取り入れる方法を学ぶためのテキスト・ツー・イメージ・モデルのための正規化された重み付けオフセットのセット。
論文 参考訳(メタデータ) (2023-02-23T18:46:41Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。