論文の概要: Membership Inference Test: Auditing Training Data in Object Classification Models
- arxiv url: http://arxiv.org/abs/2601.12929v1
- Date: Mon, 19 Jan 2026 10:30:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.865169
- Title: Membership Inference Test: Auditing Training Data in Object Classification Models
- Title(参考訳): メンバーシップ推論テスト:オブジェクト分類モデルにおけるトレーニングデータ監査
- Authors: Gonzalo Mancera, Daniel DeAlcala, Aythami Morales, Ruben Tolosana, Julian Fierrez,
- Abstract要約: 本研究は、学習段階、特に物体認識領域において、与えられたデータが活用されたかどうかを判定することに焦点を当てる。
オブジェクト認識の分野では、MINTモデルに適したアーキテクチャを提案し、開発する。
これらのアーキテクチャは、データ利用におけるパフォーマンスと効率を最適化することを目的としており、オブジェクト認識ドメインに固有の複雑さに対処するための調整されたソリューションを提供する。
- 参考スコア(独自算出の注目度): 16.766968065779782
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this research, we analyze the performance of Membership Inference Tests (MINT), focusing on determining whether given data were utilized during the training phase, specifically in the domain of object recognition. Within the area of object recognition, we propose and develop architectures tailored for MINT models. These architectures aim to optimize performance and efficiency in data utilization, offering a tailored solution to tackle the complexities inherent in the object recognition domain. We conducted experiments involving an object detection model, an embedding extractor, and a MINT module. These experiments were performed in three public databases, totaling over 174K images. The proposed architecture leverages convolutional layers to capture and model the activation patterns present in the data during the training process. Through our analysis, we are able to identify given data used for testing and training, achieving precision rates ranging between 70% and 80%, contingent upon the depth of the detection module layer chosen for input to the MINT module. Additionally, our studies entail an analysis of the factors influencing the MINT Module, delving into the contributing elements behind more transparent training processes.
- Abstract(参考訳): 本研究では,MINT(Commandship Inference Tests)の性能を解析し,学習段階,特に物体認識領域において,与えられたデータが活用されているかどうかを判断する。
オブジェクト認識の分野では、MINTモデルに適したアーキテクチャを提案し、開発する。
これらのアーキテクチャは、データ利用におけるパフォーマンスと効率を最適化することを目的としており、オブジェクト認識ドメインに固有の複雑さに対処するための調整されたソリューションを提供する。
我々は,オブジェクト検出モデル,埋め込み抽出器,MINTモジュールを含む実験を行った。
これらの実験は3つの公開データベースで実施され、合計174K以上の画像が得られた。
提案アーキテクチャは、畳み込みレイヤを利用して、トレーニングプロセス中にデータに存在するアクティベーションパターンをキャプチャし、モデル化する。
分析により、MINTモジュールへの入力に選択した検出モジュール層の深さに基づいて、70%から80%の精度で、テストとトレーニングに使用されるデータを特定することができる。
さらに、我々の研究は、MINTモジュールに影響を与える要因を分析し、より透明なトレーニングプロセスの背後にある貢献する要素を掘り下げます。
関連論文リスト
- Enhancing Object Detection with Privileged Information: A Model-Agnostic Teacher-Student Approach [2.1303542744717148]
本稿では、オブジェクト検出におけるLUPI(Learning Using Privileged Information)パラダイムの統合について検討する。
本稿では,ボックスマスクを深層学習に基づく物体検出装置に注入するなど,特権情報を注入するための汎用的モデルに依存しない手法を提案する。
論文 参考訳(メタデータ) (2026-01-05T11:24:34Z) - Equipping Vision Foundation Model with Mixture of Experts for Out-of-Distribution Detection [36.97738113847375]
OOD検出のための代表的視覚基盤モデルについて検討する。
事前訓練されたDINOv2モデルは、OOD検出のための高度に識別可能な特徴空間を自然に提供する。
ドメイン内(ID)データの微調整基盤モデルにより、OODの検出が向上する。
サブスペースに分割するMixture of Feature Experts (MoFE) モジュールを提案する。
論文 参考訳(メタデータ) (2025-10-12T13:00:53Z) - Active Membership Inference Test (aMINT): Enhancing Model Auditability with Multi-Task Learning [18.552238031865286]
アクティブメンバーシップ推論テスト(英: Active Membership Inference Test、aMINT)は、機械学習モデルのトレーニング中に与えられたデータが使用されているかどうかを検出する方法である。
本稿では,2つのモデルを同時に学習するマルチタスク学習プロセスを提案する。
我々は、MobileNetのような軽量アーキテクチャから、Vision Transformerのようなより複雑なアーキテクチャまで、幅広いニューラルネットワークを用いて結果を提示する。
論文 参考訳(メタデータ) (2025-09-09T16:00:03Z) - Is My Text in Your AI Model? Gradient-based Membership Inference Test applied to LLMs [14.618008816273784]
MINTは、与えられたデータが機械学習モデルのトレーニングに使用されたかどうかを決定する一般的なアプローチである。
本研究は自然言語処理分野への応用に焦点を当てている。
論文 参考訳(メタデータ) (2025-03-10T14:32:56Z) - Oriented Tiny Object Detection: A Dataset, Benchmark, and Dynamic Unbiased Learning [51.170479006249195]
本研究では,新しいデータセット,ベンチマーク,動的粗大な学習手法を提案する。
提案するデータセットであるAI-TOD-Rは、すべてのオブジェクト指向オブジェクト検出データセットの中で最小のオブジェクトサイズを特徴としている。
完全教師付きおよびラベル効率の両アプローチを含む,幅広い検出パラダイムにまたがるベンチマークを提案する。
論文 参考訳(メタデータ) (2024-12-16T09:14:32Z) - 3rd Place Solution for MOSE Track in CVPR 2024 PVUW workshop: Complex Video Object Segmentation [63.199793919573295]
ビデオオブジェクト(VOS)はコンピュータビジョンにおいて重要なタスクであり、ビデオフレーム間の背景から前景オブジェクトを区別することに焦点を当てている。
我々の研究はCutieモデルからインスピレーションを得ており、オブジェクトメモリ、メモリフレームの総数、および入力解像度がセグメンテーション性能に与える影響について検討する。
論文 参考訳(メタデータ) (2024-06-06T00:56:25Z) - Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - The Impact of Different Backbone Architecture on Autonomous Vehicle
Dataset [120.08736654413637]
バックボーンアーキテクチャによって抽出された特徴の質は、全体的な検出性能に大きな影響を与える可能性がある。
本研究は,KITTI,NuScenes,BDDの3つの自律走行車データセットを評価し,対象検出タスクにおける異なるバックボーンアーキテクチャの性能を比較した。
論文 参考訳(メタデータ) (2023-09-15T17:32:15Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - Information-Theoretic Odometry Learning [83.36195426897768]
生体計測推定を目的とした学習動機付け手法のための統合情報理論フレームワークを提案する。
提案フレームワークは情報理論言語の性能評価と理解のためのエレガントなツールを提供する。
論文 参考訳(メタデータ) (2022-03-11T02:37:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。