論文の概要: Interactive Instance Annotation with Siamese Networks
- arxiv url: http://arxiv.org/abs/2505.03184v1
- Date: Tue, 06 May 2025 05:04:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-07 18:50:11.216747
- Title: Interactive Instance Annotation with Siamese Networks
- Title(参考訳): シームズネットワークを用いた対話型インスタンスアノテーション
- Authors: Xiang Xu, Ruotong Li, Mengjun Yi, Baile XU, Furao Shen, Jian Zhao,
- Abstract要約: 本稿では,オブジェクトトラッキングにおけるSiameseネットワークの利用に触発されたSiamAnnoを提案する。
SiamAnnoはワンショット学習を活用して、境界ボックスを入力として、オブジェクト境界を予測することによって、それまで見られなかったオブジェクトに注釈を付ける。
SiamAnnoは、複数のデータセットにわたる最先端(SOTA)パフォーマンスを実現し、ドメインと環境のシフトを処理する能力を示している。
- 参考スコア(独自算出の注目度): 12.419183978946771
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Annotating instance masks is time-consuming and labor-intensive. A promising solution is to predict contours using a deep learning model and then allow users to refine them. However, most existing methods focus on in-domain scenarios, limiting their effectiveness for cross-domain annotation tasks. In this paper, we propose SiamAnno, a framework inspired by the use of Siamese networks in object tracking. SiamAnno leverages one-shot learning to annotate previously unseen objects by taking a bounding box as input and predicting object boundaries, which can then be adjusted by annotators. Trained on one dataset and tested on another without fine-tuning, SiamAnno achieves state-of-the-art (SOTA) performance across multiple datasets, demonstrating its ability to handle domain and environment shifts in cross-domain tasks. We also provide more comprehensive results compared to previous work, establishing a strong baseline for future research. To our knowledge, SiamAnno is the first model to explore Siamese architecture for instance annotation.
- Abstract(参考訳): インスタンスマスクのアノテートには時間と労力がかかります。
有望な解決策は、ディープラーニングモデルを使用して輪郭を予測し、ユーザがそれらを洗練できるようにすることだ。
しかし、既存のほとんどのメソッドはドメイン内のシナリオに重点を置いており、ドメイン間のアノテーションタスクの有効性を制限している。
本稿では,オブジェクトトラッキングにおけるSiameseネットワークの利用に触発されたSiamAnnoを提案する。
SiamAnnoはワンショット学習を活用して、境界ボックスを入力として、オブジェクト境界を予測し、アノテータによって調整することで、未確認のオブジェクトにアノテートする。
1つのデータセットでトレーニングされ、微調整なしで別のデータセットでテストされたSiamAnnoは、複数のデータセットにわたる最先端(SOTA)パフォーマンスを実現し、クロスドメインタスクでドメインと環境のシフトを処理する能力を示している。
また、これまでの研究と比べて総合的な結果も提供し、今後の研究の強力なベースラインを確立します。
私たちの知る限りでは、SiamAnnoはSiameseアーキテクチャをたとえばアノテーションとして探求する最初のモデルです。
関連論文リスト
- Boosting Large Language Models with Continual Learning for Aspect-based Sentiment Analysis [33.86086075084374]
アスペクトベース感情分析(ABSA)は感情分析の重要なサブタスクである。
ABSAのための大規模言語モデルに基づく連続学習(textttLLM-CL)モデルを提案する。
論文 参考訳(メタデータ) (2024-05-09T02:00:07Z) - Unified Instance and Knowledge Alignment Pretraining for Aspect-based
Sentiment Analysis [96.53859361560505]
Aspect-based Sentiment Analysis (ABSA) は、ある側面に対する感情の極性を決定することを目的としている。
事前トレーニングと下流ABSAデータセットの間には、常に深刻なドメインシフトが存在する。
我々は,バニラ・プレトレイン・ファインチューンパイプラインにアライメント事前訓練フレームワークを導入する。
論文 参考訳(メタデータ) (2021-10-26T04:03:45Z) - Boosting Binary Masks for Multi-Domain Learning through Affine
Transformations [49.25451497933657]
マルチドメイン学習の目標は、すべてのドメインでタスクを実行する単一のモデルを作成することです。
最近の研究は、学習されたバイナリ変数を通して、与えられた元のconv-netの内部重みをマスキングすることでこの問題に対処できることを示した。
元のネットワークパラメータのアフィン変換によるマルチドメイン学習のためのバイナリマスクベースのモデルの一般定式化を提供する。
論文 参考訳(メタデータ) (2021-03-25T14:54:37Z) - Towards Recognizing New Semantic Concepts in New Visual Domains [9.701036831490768]
我々は、これまで見えない視覚領域で機能し、新しいセマンティックな概念を認識できるディープアーキテクチャを設計することが重要であると論じている。
論文の第1部では、深層モデルが新しいビジュアルドメインに一般化できるように、異なるソリューションについて記述する。
第2部では、事前訓練された深層モデルの知識を、元のトレーニングセットにアクセスすることなく、新しい意味概念に拡張する方法を示す。
論文 参考訳(メタデータ) (2020-12-16T16:23:40Z) - Dynamic Fusion Network for Multi-Domain End-to-end Task-Oriented Dialog [70.79442700890843]
本稿では,対象ドメインと各ドメインの関連性を自動的に活用する新しい動的核融合ネットワーク(DF-Net)を提案する。
トレーニングデータが少ないと、平均13.9%の事前最良モデルを上回り、転送可能性を示す。
論文 参考訳(メタデータ) (2020-04-23T08:17:22Z) - Spatial Attention Pyramid Network for Unsupervised Domain Adaptation [66.75008386980869]
教師なし領域適応は様々なコンピュータビジョンタスクにおいて重要である。
教師なし領域適応のための新しい空間注意ピラミッドネットワークを設計する。
我々の手法は最先端の手法に対して大きなマージンで好適に機能する。
論文 参考訳(メタデータ) (2020-03-29T09:03:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。