論文の概要: Is my Data in your AI Model? Membership Inference Test with Application to Face Images
- arxiv url: http://arxiv.org/abs/2402.09225v2
- Date: Fri, 6 Sep 2024 11:15:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-09 20:33:48.933756
- Title: Is my Data in your AI Model? Membership Inference Test with Application to Face Images
- Title(参考訳): 私のデータはAIモデルにあるか? メンバーシップ推論テストと顔画像への応用
- Authors: Daniel DeAlcala, Aythami Morales, Julian Fierrez, Gonzalo Mancera, Ruben Tolosana, Javier Ortega-Garcia,
- Abstract要約: この記事では、AI/MLモデルのトレーニング中に与えられたデータが使用されているかどうかを経験的に評価することを目的とした新しいアプローチである、メンバシップ推論テスト(MINT)を紹介します。
本稿では,学習過程に使用されるデータに監査モデルが露出した場合に現れるアクティベーションパターンを学習するための2つのMINTアーキテクチャを提案する。
実験は6つの公開データベースを使って行われ、合計で2200万以上の顔画像で構成されている。
- 参考スコア(独自算出の注目度): 18.402616111394842
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This article introduces the Membership Inference Test (MINT), a novel approach that aims to empirically assess if given data was used during the training of AI/ML models. Specifically, we propose two MINT architectures designed to learn the distinct activation patterns that emerge when an Audited Model is exposed to data used during its training process. These architectures are based on Multilayer Perceptrons (MLPs) and Convolutional Neural Networks (CNNs). The experimental framework focuses on the challenging task of Face Recognition, considering three state-of-the-art Face Recognition systems. Experiments are carried out using six publicly available databases, comprising over 22 million face images in total. Different experimental scenarios are considered depending on the context of the AI model to test. Our proposed MINT approach achieves promising results, with up to 90% accuracy, indicating the potential to recognize if an AI model has been trained with specific data. The proposed MINT approach can serve to enforce privacy and fairness in several AI applications, e.g., revealing if sensitive or private data was used for training or tuning Large Language Models (LLMs).
- Abstract(参考訳): この記事では、AI/MLモデルのトレーニング中に与えられたデータが使用されているかどうかを経験的に評価することを目的とした新しいアプローチである、メンバシップ推論テスト(MINT)を紹介します。
具体的には、2つのMINTアーキテクチャを提案し、そのトレーニングプロセスで使用されるデータに監査モデルが暴露されたときに現れる、異なるアクティベーションパターンを学習する。
これらのアーキテクチャはマルチレイヤパーセプトロン(MLP)と畳み込みニューラルネットワーク(CNN)に基づいている。
実験的なフレームワークは、3つの最先端の顔認識システムを考慮した顔認識の課題に焦点を当てている。
実験は6つの公開データベースを使って行われ、合計で2200万以上の顔画像で構成されている。
異なる実験シナリオは、テストするAIモデルのコンテキストによって考慮される。
我々の提案したMINTアプローチは、最大90%の精度で有望な結果を得ることができ、AIモデルが特定のデータでトレーニングされているかどうかを認識できる可能性を示している。
提案されたMINTアプローチは、大規模言語モデル(LLM)のトレーニングやチューニングにセンシティブまたはプライベートデータが使用されたかどうかを明らかにするなど、いくつかのAIアプリケーションにおいて、プライバシと公正性を強制する上で有効である。
関連論文リスト
- AI-Spectra: A Visual Dashboard for Model Multiplicity to Enhance Informed and Transparent Decision-Making [1.860042727037436]
本稿では,対話型システムにおけるモデル多重性を活用するためのAI-Spectraを提案する。
モデル乗法とは、わずかに異なるAIモデルを使用することで、同じタスクに対して同等に有効な結果や予測が得られることを意味する。
我々は、Chernoffの顔のカスタム適応をAI-Spectra; Chernoff Botsに使用しています。
論文 参考訳(メタデータ) (2024-11-14T18:50:41Z) - Enhancing Large Vision Language Models with Self-Training on Image Comprehension [131.14381425260706]
本稿では、画像理解に特化して自己学習アプローチを強調する自己学習 on Image (STIC)を紹介する。
まず、ラベルのない画像を用いて、画像記述の好みを自己構築する。
抽出した視覚情報に対する推論をさらに自己改善するため,既存の命令調整データのごく一部をモデルに再利用する。
論文 参考訳(メタデータ) (2024-05-30T05:53:49Z) - Opinion-Unaware Blind Image Quality Assessment using Multi-Scale Deep Feature Statistics [54.08757792080732]
我々は,事前学習された視覚モデルからの深い特徴を統計的解析モデルと統合して,意見認識のないBIQA(OU-BIQA)を実現することを提案する。
提案モデルは,最先端のBIQAモデルと比較して,人間の視覚的知覚との整合性に優れる。
論文 参考訳(メタデータ) (2024-05-29T06:09:34Z) - Multi-Modal Prompt Learning on Blind Image Quality Assessment [65.0676908930946]
画像品質評価(IQA)モデルは意味情報から大きな恩恵を受け、異なる種類のオブジェクトを明瞭に扱うことができる。
十分な注釈付きデータが不足している従来の手法では、セマンティックな認識を得るために、CLIPイメージテキスト事前学習モデルをバックボーンとして使用していた。
近年のアプローチでは、このミスマッチに即時技術を使って対処する試みがあるが、これらの解決策には欠点がある。
本稿では、IQAのための革新的なマルチモーダルプロンプトベースの手法を提案する。
論文 参考訳(メタデータ) (2024-04-23T11:45:32Z) - Unleashing Mask: Explore the Intrinsic Out-of-Distribution Detection
Capability [70.72426887518517]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイする際に、セキュアAIの必須の側面である。
本稿では,IDデータを用いた学習モデルのOOD識別能力を復元する新しい手法であるUnleashing Maskを提案する。
本手法では, マスクを用いて記憶した非定型サンプルを抽出し, モデルを微調整するか, 導入したマスクでプルーする。
論文 参考訳(メタデータ) (2023-06-06T14:23:34Z) - A Robust Framework for Deep Learning Approaches to Facial Emotion
Recognition and Evaluation [0.17398560678845074]
本稿では、FER用に開発したモデルを比較し、相互に比較するフレームワークを提案する。
AffectNetデータセットで、軽量な畳み込みニューラルネットワークをトレーニングする。
概念実証として提案したフレームワークを用いてWebアプリケーションを開発,デプロイする。
論文 参考訳(メタデータ) (2022-01-30T02:10:01Z) - Multi-Branch Deep Radial Basis Function Networks for Facial Emotion
Recognition [80.35852245488043]
放射状基底関数(RBF)ユニットによって形成された複数の分岐で拡張されたCNNベースのアーキテクチャを提案する。
RBFユニットは、中間表現を用いて類似のインスタンスで共有される局所パターンをキャプチャする。
提案手法は,提案手法の競争力を高めるためのローカル情報の導入であることを示す。
論文 参考訳(メタデータ) (2021-09-07T21:05:56Z) - Training Data Leakage Analysis in Language Models [6.843491191969066]
本稿では,強大かつ現実的な脅威モデルの下で漏洩する可能性のあるトレーニングデータ中のユーザコンテンツを識別する手法を提案する。
本研究では,トレーニングデータに固有の文断片を生成するモデルの能力を測定することにより,ユーザレベルのデータ漏洩を定量化する2つの指標を提案する。
論文 参考訳(メタデータ) (2021-01-14T00:57:32Z) - Fairness in the Eyes of the Data: Certifying Machine-Learning Models [38.09830406613629]
本稿では,対話型およびプライバシ保護テストに基づいて,モデルの公正度を認定するフレームワークを提案する。
テストデータはテスタにのみプライベートに提供されるか、あるいはモデル作成者にも事前に公開されている2つのシナリオに対処します。
我々は、参加者の機密データを隠蔽しながら、モデルへのブラックボックスアクセスのみを使用して、公正性テストと認定推論を自動化する暗号技術を提供する。
論文 参考訳(メタデータ) (2020-09-03T09:22:39Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。