論文の概要: Advancing Deep Metric Learning Through Multiple Batch Norms And
Multi-Targeted Adversarial Examples
- arxiv url: http://arxiv.org/abs/2211.16253v1
- Date: Tue, 29 Nov 2022 14:41:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 15:17:40.331206
- Title: Advancing Deep Metric Learning Through Multiple Batch Norms And
Multi-Targeted Adversarial Examples
- Title(参考訳): 複数のバッチノルムとマルチターゲット逆数例によるディープメトリック学習の促進
- Authors: Inderjeet Singh, Kazuya Kakizaki, Toshinori Araki
- Abstract要約: 本稿では,DMLモデルの性能をクリーンなデータと複数の分布に追従する入力に対して同時に向上させるフレームワークMDPropを提案する。
総合的な実験分析から,MDPropはクリーンデータ2.95%,リコール@1スコア2.12倍,異なる入力分布に対するロバスト性を示した。
- 参考スコア(独自算出の注目度): 6.656366181951116
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Metric Learning (DML) is a prominent field in machine learning with
extensive practical applications that concentrate on learning visual
similarities. It is known that inputs such as Adversarial Examples (AXs), which
follow a distribution different from that of clean data, result in false
predictions from DML systems. This paper proposes MDProp, a framework to
simultaneously improve the performance of DML models on clean data and inputs
following multiple distributions. MDProp utilizes multi-distribution data
through an AX generation process while leveraging disentangled learning through
multiple batch normalization layers during the training of a DML model. MDProp
is the first to generate feature space multi-targeted AXs to perform targeted
regularization on the training model's denser embedding space regions,
resulting in improved embedding space densities contributing to the improved
generalization in the trained models. From a comprehensive experimental
analysis, we show that MDProp results in up to 2.95% increased clean data
Recall@1 scores and up to 2.12 times increased robustness against different
input distributions compared to the conventional methods.
- Abstract(参考訳): ディープ・メトリック・ラーニング(Deep Metric Learning, DML)は、視覚的類似性を学ぶことに集中する幅広い実践的応用を持つ機械学習の分野である。
クリーンデータとは異なる分布に従うadversarial examples(axs)のような入力は、dmlシステムからの誤った予測をもたらすことが知られている。
本稿では,DMLモデルの性能をクリーンデータと複数分布の入力で同時に向上するMDPropを提案する。
mdpropは、dmlモデルのトレーニング中に、複数のバッチ正規化層による不連続学習を活用しながら、ax生成プロセスを通じてマルチ分散データを利用する。
mdpropは、トレーニングモデルのより密な埋め込み空間領域をターゲットとした正規化を行うために、機能空間を多目的軸に生成した最初の例であり、訓練モデルの一般化に寄与する埋め込み空間密度の改善に寄与した。
総合的な実験結果から,mdpropはクリーンデータリコール@1スコアを最大2.95%向上させ,従来の方法と比較して,異なる入力分布に対する頑健度を最大2.12倍向上させることを示した。
関連論文リスト
- Align$^2$LLaVA: Cascaded Human and Large Language Model Preference Alignment for Multi-modal Instruction Curation [56.75665429851673]
本稿では,人間とLLMの選好アライメントという2つのユニークな視点から導いた,新しい命令キュレーションアルゴリズムを提案する。
実験により,合成マルチモーダル命令を最大90%圧縮することにより,モデル性能の維持や改善が可能であることが示された。
論文 参考訳(メタデータ) (2024-09-27T08:20:59Z) - Learning Multi-Manifold Embedding for Out-Of-Distribution Detection [16.283293167689948]
オフ・オブ・ディストリビューション(OOD)サンプルは、現実世界のアプリケーションにおいて信頼できるAIにとって不可欠である。
本稿では,OOD検出の強化を目的としたMMEL(Multi-Manifold Embedding Learning)フレームワークを提案する。
MMELは代表埋め込みを生成し、OODサンプルの識別にプロトタイプ認識スコアリング機能を利用する。
論文 参考訳(メタデータ) (2024-09-19T05:43:00Z) - Beyond Efficiency: Molecular Data Pruning for Enhanced Generalization [30.738229850748137]
MolPegは、一般化を強化するための分子データプルーニングフレームワークである。
これは、事前訓練されたモデルでデータプルーニングを適用する、ソースフリーなデータプルーニングシナリオに焦点を当てている。
4つのダウンストリームタスクで既存のDPメソッドを一貫して上回ります。
論文 参考訳(メタデータ) (2024-09-02T09:06:04Z) - Understanding Reinforcement Learning-Based Fine-Tuning of Diffusion Models: A Tutorial and Review [63.31328039424469]
このチュートリアルは、下流の報酬関数を最適化するための微調整拡散モデルのための方法を網羅的に調査する。
PPO,微分可能最適化,報酬重み付きMLE,値重み付きサンプリング,経路整合性学習など,様々なRLアルゴリズムの適用について説明する。
論文 参考訳(メタデータ) (2024-07-18T17:35:32Z) - Extracting Training Data from Unconditional Diffusion Models [76.85077961718875]
拡散確率モデル(DPM)は、生成人工知能(AI)の主流モデルとして採用されている。
本研究の目的は,1) 理論解析のための記憶量,2) 情報ラベルとランダムラベルを用いた条件記憶量,3) 記憶量測定のための2つのより良い評価指標を用いて,DPMにおける記憶量の理論的理解を確立することである。
提案手法は,理論解析に基づいて,SIDE (textbfSurrogate condItional Data extract) と呼ばれる新しいデータ抽出手法を提案する。
論文 参考訳(メタデータ) (2024-06-18T16:20:12Z) - ArSDM: Colonoscopy Images Synthesis with Adaptive Refinement Semantic
Diffusion Models [69.9178140563928]
大腸内視鏡検査は臨床診断や治療に不可欠である。
注釈付きデータの不足は、既存の手法の有効性と一般化を制限する。
本稿では, 下流作業に有用な大腸内視鏡画像を生成するために, 適応Refinement Semantic Diffusion Model (ArSDM)を提案する。
論文 参考訳(メタデータ) (2023-09-03T07:55:46Z) - Objective-Agnostic Enhancement of Molecule Properties via Multi-Stage
VAE [1.3597551064547502]
変異オートエンコーダ(VAE)は医薬品発見の一般的な方法であり、その性能を改善するために様々なアーキテクチャやパイプラインが提案されている。
VAEアプローチは、データが高次元の周囲空間に埋め込まれた低次元多様体上にあるとき、多様体の回復不良に悩まされることが知られている。
本稿では, 合成データセット上での多様体回復を向上する多段階VAEアプローチを創薬分野に適用することを検討する。
論文 参考訳(メタデータ) (2023-08-24T20:22:22Z) - Diff-Instruct: A Universal Approach for Transferring Knowledge From
Pre-trained Diffusion Models [77.83923746319498]
本稿では,任意の生成モデルの学習を指導するDiff-Instructというフレームワークを提案する。
Diff-Instructは、最先端の単一ステップ拡散モデルであることを示す。
GANモデルの精製実験により、Diff-InstructはGANモデルの事前訓練されたジェネレータを一貫して改善できることが示されている。
論文 参考訳(メタデータ) (2023-05-29T04:22:57Z) - Improving Molecule Properties Through 2-Stage VAE [0.0]
変異オートエンコーダ(VAE)は、薬物発見の一般的な方法である。
VAEモデルは、高次元空間に埋め込まれた低次元多様体上にデータを置くと、多様体の回復不良のような欠陥に悩まされる。
本稿では,2段階のVAEによる多様体復元を改良し,VAEとトレーニングデータセットによるデータの類似性を改善する方法について検討する。
論文 参考訳(メタデータ) (2022-12-06T04:41:48Z) - Unsupervised Anomaly Detection with Adversarial Mirrored AutoEncoders [51.691585766702744]
本稿では,識別器のミラー化ワッサースタイン損失を利用して,よりセマンティックレベルの再構築を行う逆自動エンコーダの変種を提案する。
我々は,再建基準の代替として,異常スコアの代替尺度を提案した。
提案手法は,OOD検出ベンチマークにおける異常検出の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2020-03-24T08:26:58Z) - Revisiting Training Strategies and Generalization Performance in Deep
Metric Learning [28.54755295856929]
我々は、最も広く使われているDML目的関数を再検討し、重要なパラメータ選択について検討する。
一貫した比較では、DMLの目的は文学で示されるよりもはるかに高い飽和を示す。
これらの知見を公開し、ランキングベースのDMLモデルの性能を確実に向上させるために、単純かつ効果的に正規化を訓練することを提案する。
論文 参考訳(メタデータ) (2020-02-19T22:16:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。