論文の概要: Multi-Task Learning with Multi-Annotation Triplet Loss for Improved Object Detection
- arxiv url: http://arxiv.org/abs/2504.08054v1
- Date: Thu, 10 Apr 2025 18:20:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-22 00:42:01.675269
- Title: Multi-Task Learning with Multi-Annotation Triplet Loss for Improved Object Detection
- Title(参考訳): オブジェクト検出改善のためのマルチアノテーショントリプレット損失を用いたマルチタスク学習
- Authors: Meilun Zhou, Aditya Dutt, Alina Zare,
- Abstract要約: Tripletの損失は伝統的にクラスラベルのみに依存しており、複数のアノテーションが利用できるマルチタスクシナリオで利用可能なすべての情報を使用しない。
本稿では,損失定式化におけるクラスラベルとともにボックス情報のバウンディングなどのアノテーションを付加することにより,三重項損失を拡大するマルチトリプレットロスフレームワークを提案する。
空中野生生物画像データセットの実験により、MATLは分類と局所化の両方において従来の三重項損失よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 1.1840702471164477
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Triplet loss traditionally relies only on class labels and does not use all available information in multi-task scenarios where multiple types of annotations are available. This paper introduces a Multi-Annotation Triplet Loss (MATL) framework that extends triplet loss by incorporating additional annotations, such as bounding box information, alongside class labels in the loss formulation. By using these complementary annotations, MATL improves multi-task learning for tasks requiring both classification and localization. Experiments on an aerial wildlife imagery dataset demonstrate that MATL outperforms conventional triplet loss in both classification and localization. These findings highlight the benefit of using all available annotations for triplet loss in multi-task learning frameworks.
- Abstract(参考訳): Tripletの損失は伝統的にクラスラベルのみに依存しており、複数のアノテーションが利用できるマルチタスクシナリオで利用可能なすべての情報を使用しない。
本稿では,マルチアノテーショントリプルト・ロス(MATL)フレームワークを提案する。このフレームワークは,損失の定式化において,クラスラベルとともにボックス情報などの付加アノテーションを組み込むことにより,トリプルト・ロスを拡張する。
これらの補完アノテーションを使用することで、MATLは分類とローカライゼーションの両方を必要とするタスクのマルチタスク学習を改善する。
空中野生生物画像データセットの実験により、MATLは分類と局所化の両方において従来の三重項損失よりも優れていることが示された。
これらの知見は、マルチタスク学習フレームワークで利用可能なアノテーションをすべて三重項損失に使用する利点を浮き彫りにした。
関連論文リスト
- Partially Supervised Unpaired Multi-Modal Learning for Label-Efficient Medical Image Segmentation [53.723234136550055]
我々は、新しい学習パラダイムを部分教師付き無ペア型マルチモーダルラーニング(PSUMML)と呼ぶ。
そこで我々は,DEST (Ensembled Self-Training) フレームワークを用いた新しい部分クラス適応法を提案する。
我々のフレームワークは、部分的にラベル付けされていないマルチモーダルデータを用いて学習するためのモダリティ特定正規化層を持つコンパクトなセグメンテーションネットワークで構成されている。
論文 参考訳(メタデータ) (2025-03-07T07:22:42Z) - Class-Independent Increment: An Efficient Approach for Multi-label Class-Incremental Learning [49.65841002338575]
本稿では,MLCIL(Multi-label class-incremental Learning)問題に焦点をあてる。
マルチラベルサンプルに対して複数のクラスレベルの埋め込みを抽出する新しいクラス独立インクリメンタルネットワーク(CINet)を提案する。
クラス固有のトークンを構築することで、異なるクラスの知識を学び、保存する。
論文 参考訳(メタデータ) (2025-03-01T14:40:52Z) - CLIP-Decoder : ZeroShot Multilabel Classification using Multimodal CLIP Aligned Representation [12.994898879803642]
CLIP-Decoderは最先端のML-Decoderアテンションベースのヘッドに基づく新しい手法である。
CLIP-Decoderにマルチモーダル表現学習を導入し、テキストエンコーダを用いてテキスト特徴と画像特徴抽出のための画像エンコーダを抽出する。
本手法は,ゼロショット学習マルチラベル分類タスクにおける既存の手法と比較して,絶対的な性能向上を実現している。
論文 参考訳(メタデータ) (2024-06-21T02:19:26Z) - Distribution Matching for Multi-Task Learning of Classification Tasks: a
Large-Scale Study on Faces & Beyond [62.406687088097605]
マルチタスク学習(MTL)は、複数の関連するタスクを共同で学習し、共有表現空間から恩恵を受けるフレームワークである。
MTLは、ほとんど重複しない、あるいは重複しないアノテーションで分類タスクで成功することを示す。
本稿では,分散マッチングによるタスク間の知識交換を可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:18:11Z) - IntenDD: A Unified Contrastive Learning Approach for Intent Detection
and Discovery [12.905097743551774]
バックボーンを符号化する共有発話を利用した統一手法であるIntenDDを提案する。
IntenDDは完全に教師なしのコントラスト学習戦略を用いて表現学習を行う。
当社のアプローチは,3つのタスクのすべてにおいて,競争上のベースラインを一貫して上回ります。
論文 参考訳(メタデータ) (2023-10-25T16:50:24Z) - Multi-Label Knowledge Distillation [86.03990467785312]
本稿では,新しい多ラベル知識蒸留法を提案する。
一方、マルチラベル学習問題をバイナリ分類問題に分割することにより、ロジットからの情報的意味知識を利用する。
一方,ラベルワイド埋め込みの構造情報を活用することにより,学習した特徴表現の識別性を向上する。
論文 参考訳(メタデータ) (2023-08-12T03:19:08Z) - Reliable Representation Learning for Incomplete Multi-View Missing Multi-Label Classification [78.15629210659516]
本稿ではRANKと呼ばれる不完全なマルチビュー欠落型マルチラベル分類ネットワークを提案する。
既存の手法に固有のビューレベルの重みを分解し、各サンプルのビューに品質スコアを動的に割り当てる品質対応サブネットワークを提案する。
私たちのモデルは、完全なマルチビューマルチラベルデータを扱うだけでなく、欠落したインスタンスやラベルを持つデータセットでも処理できます。
論文 参考訳(メタデータ) (2023-03-30T03:09:25Z) - PartAL: Efficient Partial Active Learning in Multi-Task Visual Settings [57.08386016411536]
注記すべき画像だけでなく、各アクティブラーニング(AL)にアノテーションを提供するタスクのサブセットを選択する方が効果的であることを示す。
提案手法の有効性を,複数の一般的なマルチタスクデータセットに示す。
論文 参考訳(メタデータ) (2022-11-21T15:08:35Z) - Interpretation of multi-label classification models using shapley values [0.5482532589225552]
本研究は,shap法を用いて,マルチラベル分類タスクの説明をさらに拡張する。
この実験は、よく知られたマルチラベルデータセット上の異なるアルゴリズムの包括的な比較を示す。
論文 参考訳(メタデータ) (2021-04-21T12:51:12Z) - Multi-label Few/Zero-shot Learning with Knowledge Aggregated from
Multiple Label Graphs [8.44680447457879]
本稿では,異なる意味的ラベル関係をコードする複数のラベルグラフから知識を融合する,シンプルな多グラフ集約モデルを提案する。
本研究は,多グラフ知識集約を用いた手法が,少数・ゼロショットラベルのほとんどすべてにおいて,大幅な性能向上を実現していることを示す。
論文 参考訳(メタデータ) (2020-10-15T01:15:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。