論文の概要: Learning to Generate Cross-Task Unexploitable Examples
- arxiv url: http://arxiv.org/abs/2512.13416v1
- Date: Mon, 15 Dec 2025 15:05:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.717021
- Title: Learning to Generate Cross-Task Unexploitable Examples
- Title(参考訳): クロスタスク不要な例を生成するための学習
- Authors: Haoxuan Qu, Qiuchi Xiang, Yujun Cai, Yirui Wu, Majid Mirmehdi, Hossein Rahmani, Jun Liu,
- Abstract要約: 本稿では,Meta Cross-Task Unexploitable Example Generation (MCT-UEG) フレームワークを提案する。
フレームワークのコアとなるのは、説明不能なサンプルジェネレータを最適化するため、フラットな最小限のメタトレーニングとテストスキームを設計する。
- 参考スコア(独自算出の注目度): 38.12348269377353
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unexploitable example generation aims to transform personal images into their unexploitable (unlearnable) versions before they are uploaded online, thereby preventing unauthorized exploitation of online personal images. Recently, this task has garnered significant research attention due to its critical relevance to personal data privacy. Yet, despite recent progress, existing methods for this task can still suffer from limited practical applicability, as they can fail to generate examples that are broadly unexploitable across different real-world computer vision tasks. To deal with this problem, in this work, we propose a novel Meta Cross-Task Unexploitable Example Generation (MCT-UEG) framework. At the core of our framework, to optimize the unexploitable example generator for effectively producing broadly unexploitable examples, we design a flat-minima-oriented meta training and testing scheme. Extensive experiments show the efficacy of our framework.
- Abstract(参考訳): 公開不可能な例生成は、オンラインアップロードする前に、個人イメージを公開不能(未公開)バージョンに変換することを目的としており、それによって、オンラインパーソナルイメージの不正な利用を防止する。
近年、個人情報のプライバシーに重大な関連があるため、この課題は研究の注目を集めている。
しかし、近年の進歩にもかかわらず、このタスクの既存の方法は、様々な実世界のコンピュータビジョンタスクで広く説明不能な例を生成できないため、実用性に限界がある。
そこで本研究では,Meta Cross-Task Unexploitable Example Generation (MCT-UEG) フレームワークを提案する。
フレームワークの中核となるのは、広範に説明不可能な例を効果的に生成するために、探索不能な例生成器を最適化するため、フラットミニマ指向のメタトレーニングとテストスキームを設計する。
大規模な実験は、我々のフレームワークの有効性を示している。
関連論文リスト
- Personalized Vision via Visual In-Context Learning [62.85784251383279]
パーソナライズされた視覚のためのビジュアル・イン・コンテキスト・ラーニング・フレームワークを提案する。
PICOは基盤となる変換を推測し、再トレーニングせずに新しい入力に適用する。
また,効率的な推論スケーリングによる信頼性向上を目的とした注意誘導型シードスコアラを提案する。
論文 参考訳(メタデータ) (2025-09-29T17:58:45Z) - AEMIM: Adversarial Examples Meet Masked Image Modeling [12.072673694665934]
本稿では,新たな再構成対象として,敵対例をマスク画像モデリングに組み込むことを提案する。
特に、原画像に対応する敵の例を再構成する、新しい補助的前文タスクを導入する。
また,MIM事前学習において,より適切な対戦例を構築するために,革新的な敵攻撃を考案する。
論文 参考訳(メタデータ) (2024-07-16T09:39:13Z) - Failures Are Fated, But Can Be Faded: Characterizing and Mitigating Unwanted Behaviors in Large-Scale Vision and Language Models [7.736445799116692]
多くのタスクで驚くほどうまく機能しているように見える大きなディープニューラルネットワークでは、精度、社会的バイアス、人間の価値観との整合性に関連するいくつかの障害も観察します。
本研究では,事前学習した識別モデルと生成モデルを用いて,エンフディープ強化学習を用いて,障害モードの景観を探索・構築するポストホック手法を提案する。
提案手法の有効性を,コンピュータビジョン,自然言語処理,視覚言語タスクで実証的に示す。
論文 参考訳(メタデータ) (2024-06-11T10:45:41Z) - Imitating the Functionality of Image-to-Image Models Using a Single Example [24.819964498441635]
入力と出力のペアを観測することで、画像から画像への変換モデルの機能を模倣する可能性について検討する。
ひとつの例でさえ、モデルの機能の模倣を学ぶのに十分であることがわかったのです。
論文 参考訳(メタデータ) (2024-06-02T18:30:41Z) - Towards Truly Zero-shot Compositional Visual Reasoning with LLMs as Programmers [54.83459025465947]
最大のモデルでさえ、構成的推論、一般化、きめ細かい空間的および時間的推論、数え上げに苦しむ。
コントローラとしての大きな言語モデル(LLM)による視覚的推論は、原則として、タスクを分解し、一連の(視覚的な)ツールを編成することでサブタスクを解決することで、これらの制限に対処することができる。
本稿では,空間的・時間的に抽象的なルーチンを導入し,少数のラベル付き例を利用してコンテキスト内サンプルを自動的に生成することにより,これらの問題を緩和するフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-03T20:48:47Z) - Tuning computer vision models with task rewards [88.45787930908102]
モデル予測と意図された使用法とのミスは、コンピュータビジョンモデルの展開に有害である。
自然言語処理では、モデルとタスク報酬を整合させる強化学習技術を用いて、この問題に対処することが多い。
我々はこのアプローチを採用し、オブジェクト検出、汎視的セグメンテーション、着色、画像キャプションなど、複数のコンピュータビジョンタスクにまたがる驚くべき効果を示す。
論文 参考訳(メタデータ) (2023-02-16T11:49:48Z) - Adversarial Examples for Unsupervised Machine Learning Models [71.81480647638529]
回避予測を引き起こすアドリラルな例は、機械学習モデルの堅牢性を評価し改善するために広く利用されている。
教師なしモデルに対する逆例生成の枠組みを提案し,データ拡張への新たな応用を実証する。
論文 参考訳(メタデータ) (2021-03-02T17:47:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。