論文の概要: Multi-Task Learning with Multi-Annotation Triplet Loss for Improved Object Detection
- arxiv url: http://arxiv.org/abs/2504.08054v1
- Date: Thu, 10 Apr 2025 18:20:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-14 14:20:27.347411
- Title: Multi-Task Learning with Multi-Annotation Triplet Loss for Improved Object Detection
- Title(参考訳): オブジェクト検出改善のためのマルチアノテーショントリプレット損失を用いたマルチタスク学習
- Authors: Meilun Zhou, Aditya Dutt, Alina Zare,
- Abstract要約: Tripletの損失は伝統的にクラスラベルのみに依存しており、複数のアノテーションが利用できるマルチタスクシナリオで利用可能なすべての情報を使用しない。
本稿では,損失定式化におけるクラスラベルとともにボックス情報のバウンディングなどのアノテーションを付加することにより,三重項損失を拡大するマルチトリプレットロスフレームワークを提案する。
空中野生生物画像データセットの実験により、MATLは分類と局所化の両方において従来の三重項損失よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 1.1840702471164477
- License:
- Abstract: Triplet loss traditionally relies only on class labels and does not use all available information in multi-task scenarios where multiple types of annotations are available. This paper introduces a Multi-Annotation Triplet Loss (MATL) framework that extends triplet loss by incorporating additional annotations, such as bounding box information, alongside class labels in the loss formulation. By using these complementary annotations, MATL improves multi-task learning for tasks requiring both classification and localization. Experiments on an aerial wildlife imagery dataset demonstrate that MATL outperforms conventional triplet loss in both classification and localization. These findings highlight the benefit of using all available annotations for triplet loss in multi-task learning frameworks.
- Abstract(参考訳): Tripletの損失は伝統的にクラスラベルのみに依存しており、複数のアノテーションが利用できるマルチタスクシナリオで利用可能なすべての情報を使用しない。
本稿では,マルチアノテーショントリプルト・ロス(MATL)フレームワークを提案する。このフレームワークは,損失の定式化において,クラスラベルとともにボックス情報などの付加アノテーションを組み込むことにより,トリプルト・ロスを拡張する。
これらの補完アノテーションを使用することで、MATLは分類とローカライゼーションの両方を必要とするタスクのマルチタスク学習を改善する。
空中野生生物画像データセットの実験により、MATLは分類と局所化の両方において従来の三重項損失よりも優れていることが示された。
これらの知見は、マルチタスク学習フレームワークで利用可能なアノテーションをすべて三重項損失に使用する利点を浮き彫りにした。
関連論文リスト
- CLIP-Decoder : ZeroShot Multilabel Classification using Multimodal CLIP Aligned Representation [12.994898879803642]
CLIP-Decoderは最先端のML-Decoderアテンションベースのヘッドに基づく新しい手法である。
CLIP-Decoderにマルチモーダル表現学習を導入し、テキストエンコーダを用いてテキスト特徴と画像特徴抽出のための画像エンコーダを抽出する。
本手法は,ゼロショット学習マルチラベル分類タスクにおける既存の手法と比較して,絶対的な性能向上を実現している。
論文 参考訳(メタデータ) (2024-06-21T02:19:26Z) - Distribution Matching for Multi-Task Learning of Classification Tasks: a
Large-Scale Study on Faces & Beyond [62.406687088097605]
マルチタスク学習(MTL)は、複数の関連するタスクを共同で学習し、共有表現空間から恩恵を受けるフレームワークである。
MTLは、ほとんど重複しない、あるいは重複しないアノテーションで分類タスクで成功することを示す。
本稿では,分散マッチングによるタスク間の知識交換を可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:18:11Z) - IntenDD: A Unified Contrastive Learning Approach for Intent Detection
and Discovery [12.905097743551774]
バックボーンを符号化する共有発話を利用した統一手法であるIntenDDを提案する。
IntenDDは完全に教師なしのコントラスト学習戦略を用いて表現学習を行う。
当社のアプローチは,3つのタスクのすべてにおいて,競争上のベースラインを一貫して上回ります。
論文 参考訳(メタデータ) (2023-10-25T16:50:24Z) - Multi-Label Knowledge Distillation [86.03990467785312]
本稿では,新しい多ラベル知識蒸留法を提案する。
一方、マルチラベル学習問題をバイナリ分類問題に分割することにより、ロジットからの情報的意味知識を利用する。
一方,ラベルワイド埋め込みの構造情報を活用することにより,学習した特徴表現の識別性を向上する。
論文 参考訳(メタデータ) (2023-08-12T03:19:08Z) - Reliable Representation Learning for Incomplete Multi-View Missing Multi-Label Classification [78.15629210659516]
本稿ではRANKと呼ばれる不完全なマルチビュー欠落型マルチラベル分類ネットワークを提案する。
既存の手法に固有のビューレベルの重みを分解し、各サンプルのビューに品質スコアを動的に割り当てる品質対応サブネットワークを提案する。
私たちのモデルは、完全なマルチビューマルチラベルデータを扱うだけでなく、欠落したインスタンスやラベルを持つデータセットでも処理できます。
論文 参考訳(メタデータ) (2023-03-30T03:09:25Z) - PartAL: Efficient Partial Active Learning in Multi-Task Visual Settings [57.08386016411536]
注記すべき画像だけでなく、各アクティブラーニング(AL)にアノテーションを提供するタスクのサブセットを選択する方が効果的であることを示す。
提案手法の有効性を,複数の一般的なマルチタスクデータセットに示す。
論文 参考訳(メタデータ) (2022-11-21T15:08:35Z) - Learning to Imagine: Diversify Memory for Incremental Learning using
Unlabeled Data [69.30452751012568]
本研究では,多様な特徴を適応的に生成することで,経験を多様化する学習可能な特徴生成装置を開発する。
生成したサンプルを前例とセマンティックに整合させるために,意味的コントラスト学習を導入する。
提案手法は, 余分な推論コストを伴わず, 2つのベンチマークで最先端の手法より優れている。
論文 参考訳(メタデータ) (2022-04-19T15:15:18Z) - Interpretation of multi-label classification models using shapley values [0.5482532589225552]
本研究は,shap法を用いて,マルチラベル分類タスクの説明をさらに拡張する。
この実験は、よく知られたマルチラベルデータセット上の異なるアルゴリズムの包括的な比較を示す。
論文 参考訳(メタデータ) (2021-04-21T12:51:12Z) - Margin-Based Transfer Bounds for Meta Learning with Deep Feature
Embedding [67.09827634481712]
我々は、マージン理論と統計学習理論を活用し、メタラーニングに基づくマルチクラス分類(MLMC)のための3つのマージンベース転送境界を確立する。
これらの境界は、与えられた将来のタスクに対する分類アルゴリズムの予測誤差を、前のタスクの有限個の平均的な経験誤差で推定できることを示している。
3つのベンチマークの実験は、これらのマージンベースのモデルが依然として競争力のある性能を達成していることを示している。
論文 参考訳(メタデータ) (2020-12-02T23:50:51Z) - Multi-label Few/Zero-shot Learning with Knowledge Aggregated from
Multiple Label Graphs [8.44680447457879]
本稿では,異なる意味的ラベル関係をコードする複数のラベルグラフから知識を融合する,シンプルな多グラフ集約モデルを提案する。
本研究は,多グラフ知識集約を用いた手法が,少数・ゼロショットラベルのほとんどすべてにおいて,大幅な性能向上を実現していることを示す。
論文 参考訳(メタデータ) (2020-10-15T01:15:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。