論文の概要: Multi-Head Deep Metric Learning Using Global and Local Representations
- arxiv url: http://arxiv.org/abs/2112.14327v1
- Date: Tue, 28 Dec 2021 23:17:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-31 00:24:35.554756
- Title: Multi-Head Deep Metric Learning Using Global and Local Representations
- Title(参考訳): グローバル表現と局所表現を用いたマルチヘッド深度学習
- Authors: Mohammad K. Ebrahimpour, Gang Qian, and Allison Beach
- Abstract要約: DMLモデルは、ペアワイズベースやプロキシベースの損失など、特定の損失関数でトレーニングされることが多い。
本稿では,これらの課題に対処する新しいDML手法を提案する。
提案したDMLアプローチは、ペアワイズベースとプロキシベース損失関数を統合することでハイブリッド損失を利用する。
- 参考スコア(独自算出の注目度): 6.232071870655069
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Metric Learning (DML) models often require strong local and global
representations, however, effective integration of local and global features in
DML model training is a challenge. DML models are often trained with specific
loss functions, including pairwise-based and proxy-based losses. The
pairwise-based loss functions leverage rich semantic relations among data
points, however, they often suffer from slow convergence during DML model
training. On the other hand, the proxy-based loss functions often lead to
significant speedups in convergence during training, while the rich relations
among data points are often not fully explored by the proxy-based losses. In
this paper, we propose a novel DML approach to address these challenges. The
proposed DML approach makes use of a hybrid loss by integrating the
pairwise-based and the proxy-based loss functions to leverage rich data-to-data
relations as well as fast convergence. Furthermore, the proposed DML approach
utilizes both global and local features to obtain rich representations in DML
model training. Finally, we also use the second-order attention for feature
enhancement to improve accurate and efficient retrieval. In our experiments, we
extensively evaluated the proposed DML approach on four public benchmarks, and
the experimental results demonstrate that the proposed method achieved
state-of-the-art performance on all benchmarks.
- Abstract(参考訳): ディープメトリックラーニング(DML)モデルは、しばしば強力なローカルおよびグローバルな表現を必要とするが、DMLモデルトレーニングにおけるローカルおよびグローバルな機能の効果的な統合は困難である。
DMLモデルは、ペアワイズベースやプロキシベースの損失など、特定の損失関数でトレーニングされることが多い。
ペアワイズに基づく損失関数はデータポイント間の豊富な意味関係を利用するが、dmlモデルのトレーニング中に収束が遅くなることが多い。
一方、プロキシベースの損失関数はトレーニング中の収束を著しく高速化するが、データポイント間のリッチな関係はプロキシベースの損失によって完全には解明されないことが多い。
本稿では,これらの課題に対処する新しいDML手法を提案する。
提案手法では,データ間のリッチな関係と高速収束を両立させるために,ペアワイズベースとプロキシベースの損失関数を統合することでハイブリッドロスを利用する。
さらに、DMLモデルトレーニングにおいて、グローバル特徴とローカル特徴の両方を利用してリッチ表現を得る。
最後に,2階の注意を機能拡張に利用して,精度と効率性の向上を図る。
本実験では, 提案手法を4つの公開ベンチマーク上で広範囲に評価し, 提案手法が全ベンチマークで最先端性能を達成したことを示す。
関連論文リスト
- FactorLLM: Factorizing Knowledge via Mixture of Experts for Large Language Models [50.331708897857574]
本稿では,高度に訓練された高密度FFNを余分なサブネットワークに分解する新しいアプローチであるFacterLLMを紹介する。
FactorLLMは、最大85%のモデル性能を確保しながら、推論速度を30%以上増加させながら、ソースモデルに匹敵するパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-08-15T16:45:16Z) - Social Debiasing for Fair Multi-modal LLMs [55.8071045346024]
MLLM(Multi-modal Large Language Models)は、強力な視覚言語理解機能を提供する。
しかしながら、これらのモデルはトレーニングデータセットから深刻な社会的偏見を継承することが多く、人種や性別といった属性に基づいた不公平な予測につながります。
本稿では,MLLMにおける社会的バイアスの問題に対処する。i)多元的社会的概念(CMSC)を用いた包括的対実的データセットの導入,i)アンチステレオタイプデバイアス戦略(ASD)を提案する。
論文 参考訳(メタデータ) (2024-08-13T02:08:32Z) - CoMMIT: Coordinated Instruction Tuning for Multimodal Large Language Models [68.64605538559312]
本稿では,MLLM命令のチューニングを理論的・経験的両面から解析する。
そこで本研究では,学習バランスを定量的に評価する尺度を提案する。
さらに,MLLMの生成分布の更新を促進する補助的損失正規化手法を提案する。
論文 参考訳(メタデータ) (2024-07-29T23:18:55Z) - Graph-based Unsupervised Disentangled Representation Learning via Multimodal Large Language Models [42.17166746027585]
複素データ内の因子化属性とその相互関係を学習するための双方向重み付きグラフベースフレームワークを提案する。
具体的には、グラフの初期ノードとして要素を抽出する$beta$-VAEベースのモジュールを提案する。
これらの相補的加群を統合することで、我々は細粒度、実用性、教師なしの絡み合いをうまく達成できる。
論文 参考訳(メタデータ) (2024-07-26T15:32:21Z) - FedMRL: Data Heterogeneity Aware Federated Multi-agent Deep Reinforcement Learning for Medical Imaging [12.307490659840845]
我々は,データの不均一性に対処する新しいマルチエージェント深層強化学習フレームワークであるFedMRLを紹介する。
FedMRLは、クライアント間の公平性を促進するために、新たな損失関数を導入し、最終グローバルモデルのバイアスを防ぐ。
その結果,FedMRLが最先端技術よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-07-08T10:10:07Z) - Characterization of Large Language Model Development in the Datacenter [55.9909258342639]
大きな言語モデル(LLM)は、いくつかの変換タスクにまたがって素晴らしいパフォーマンスを示している。
しかし,大規模クラスタ資源を効率よく利用してLCMを開発することは容易ではない。
我々は,GPUデータセンタAcmeから収集した6ヶ月のLDM開発ワークロードの詳細な評価を行った。
論文 参考訳(メタデータ) (2024-03-12T13:31:14Z) - Cross-Modal Prototype based Multimodal Federated Learning under Severely
Missing Modality [31.727012729846333]
MFCPL (Multimodal Federated Cross Prototype Learning) は、MFLにおいて、高度に欠落したモダリティの下での新たなアプローチである。
MFCPLは、モダリティ共有レベルにおいて、クロスモーダル正規化とクロスモーダルコントラスト機構を備えたモダリティ固有レベルと共に多様なモダリティ知識を提供する。
提案手法では,モーダリティに特有な特徴の正規化を実現するために,クロスモーダルアライメントを導入し,全体的な性能を向上させる。
論文 参考訳(メタデータ) (2024-01-25T02:25:23Z) - Multimodal Federated Learning with Missing Modality via Prototype Mask
and Contrast [23.936677199734213]
本稿では,FedAvgベースのFederated Learningフレームワークにプロトタイプライブラリを導入する。
提案手法は,タスク校正されたトレーニング損失とモデルに依存しない一様性推論戦略を定式化するために,欠落したモダリティを表すマスクとしてプロトタイプを利用する。
ベースラインと比較して,トレーニング中に50%のモダリティが欠落し,一様性推論時に23.8%の精度で推論精度が3.7%向上した。
論文 参考訳(メタデータ) (2023-12-21T00:55:12Z) - Provable Generalization of Overparameterized Meta-learning Trained with
SGD [62.892930625034374]
我々は、広く使われているメタラーニング手法、モデル非依存メタラーニング(MAML)の一般化について研究する。
我々は、MAMLの過大なリスクに対して、上界と下界の両方を提供し、SGDダイナミクスがこれらの一般化境界にどのように影響するかをキャプチャする。
理論的知見は実験によってさらに検証される。
論文 参考訳(メタデータ) (2022-06-18T07:22:57Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - Revisiting Training Strategies and Generalization Performance in Deep
Metric Learning [28.54755295856929]
我々は、最も広く使われているDML目的関数を再検討し、重要なパラメータ選択について検討する。
一貫した比較では、DMLの目的は文学で示されるよりもはるかに高い飽和を示す。
これらの知見を公開し、ランキングベースのDMLモデルの性能を確実に向上させるために、単純かつ効果的に正規化を訓練することを提案する。
論文 参考訳(メタデータ) (2020-02-19T22:16:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。