論文の概要: Context Aware Grounded Teacher for Source Free Object Detection
- arxiv url: http://arxiv.org/abs/2504.15404v1
- Date: Mon, 21 Apr 2025 19:13:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-01 01:36:49.722006
- Title: Context Aware Grounded Teacher for Source Free Object Detection
- Title(参考訳): 音源自由物体検出のための教師の文脈認識
- Authors: Tajamul Ashraf, Rajes Manna, Partha Sarathi Purkayastha, Tavaheed Tariq, Janibul Bashir,
- Abstract要約: 我々は、適応中にソースデータが利用できない場合、ソース自由オブジェクト検出(SFOD)問題に焦点をあてる。
いくつかのアプローチでは、半教師付き学生-教師アーキテクチャを利用して、ドメインの不一致を橋渡ししている。
我々は,文脈バイアス問題に取り組むための標準フレームワークとして,接地教師(GT)を紹介した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We focus on the Source Free Object Detection (SFOD) problem, when source data is unavailable during adaptation, and the model must adapt to the unlabeled target domain. In medical imaging, several approaches have leveraged a semi-supervised student-teacher architecture to bridge domain discrepancy. Context imbalance in labeled training data and significant domain shifts between domains can lead to biased teacher models that produce inaccurate pseudolabels, degrading the student model's performance and causing a mode collapse. Class imbalance, particularly when one class significantly outnumbers another, leads to contextual bias. To tackle the problem of context bias and the significant performance drop of the student model in the SFOD setting, we introduce Grounded Teacher (GT) as a standard framework. In this study, we model contextual relationships using a dedicated relational context module and leverage it to mitigate inherent biases in the model. This approach enables us to apply augmentations to closely related classes, across and within domains, enhancing the performance of underrepresented classes while keeping the effect on dominant classes minimal. We further improve the quality of predictions by implementing an expert foundational branch to supervise the student model. We validate the effectiveness of our approach in mitigating context bias under the SFOD setting through experiments on three medical datasets supported by comprehensive ablation studies. All relevant resources, including preprocessed data, trained model weights, and code, are publicly available at this https://github.com/Tajamul21/Grounded_Teacher.
- Abstract(参考訳): 我々は、適応中にソースデータが利用できない場合、未ラベルのターゲットドメインに適応しなければならない、ソース自由オブジェクト検出(SFOD)問題に焦点をあてる。
医用画像において、いくつかのアプローチは、半教師付き学生-教師アーキテクチャを活用して、ドメインの不一致を橋渡ししている。
ラベル付きトレーニングデータのコンテキスト不均衡とドメイン間の重要なドメインシフトは、不正確な擬似ラベルを生成するバイアスのある教師モデルをもたらし、学生モデルのパフォーマンスを低下させ、モード崩壊を引き起こす。
クラス不均衡、特に1つのクラスが他のクラスを著しく上回っている場合、コンテキストバイアスを引き起こす。
SFOD設定における文脈バイアスの問題と学生モデルの大幅な性能低下に対処するため,標準フレームワークとしてグラウンドド・教師(GT)を導入した。
本研究では,専用リレーショナルコンテキストモジュールを用いてコンテキスト関係をモデル化し,それを利用してモデル固有のバイアスを軽減する。
このアプローチにより、ドメイン間の密接な関係のあるクラスに拡張を適用することができ、貧弱なクラスの性能を高めつつ、支配的なクラスへの影響を最小限に抑えることができる。
我々は,学生モデルを監督する専門的基礎分野を導入することにより,予測の質をさらに向上させる。
総合的アブレーション研究によって支援された3つの医学データセットを用いた実験を通して,SFOD設定下での文脈バイアス軽減へのアプローチの有効性を検証した。
事前処理データ、トレーニング済みモデルウェイト、コードを含む関連するすべてのリソースは、このhttps://github.com/Tajamul21/Grounded_Teacherで公開されている。
関連論文リスト
- Does Data-Efficient Generalization Exacerbate Bias in Foundation Models? [2.298227866545911]
ファンデーションモデルは、様々なドメインでラベル効率を持つ堅牢なモデルとして登場した。
事前学習中に機密属性の存在に偏った大量のラベル付きデータを使用することが、モデルの公平性に影響を与えるかどうかは不明である。
本研究は,ブラジルの多ラベル眼科学データセットを微調整する際のファンデーションモデルのバイアスについて検討する。
論文 参考訳(メタデータ) (2024-08-28T22:14:44Z) - A Plug-and-Play Method for Rare Human-Object Interactions Detection by Bridging Domain Gap [50.079224604394]
textbfContext-textbfEnhanced textbfFeature textbfAment (CEFA) と呼ばれる新しいモデルに依存しないフレームワークを提案する。
CEFAは機能アライメントモジュールとコンテキスト拡張モジュールで構成される。
本手法は, 稀なカテゴリにおけるHOIモデルの検出性能を向上させるために, プラグアンドプレイモジュールとして機能する。
論文 参考訳(メタデータ) (2024-07-31T08:42:48Z) - Periodically Exchange Teacher-Student for Source-Free Object Detection [7.222926042027062]
Source-free Object Detection (SFOD) は、ソースドメインデータがない場合に、未ラベルのターゲットドメインデータにソース検出器を適用することを目的としている。
ほとんどのSFOD法は、学生モデルを1つの教師モデルのみで指導する平均教師(MT)フレームワークを用いて、同じ自己学習パラダイムに従っている。
静的教師, 動的教師, 学生モデルからなる複数教師の枠組みを導入する, シンプルながら斬新な手法であるPETS法を提案する。
論文 参考訳(メタデータ) (2023-11-23T11:30:54Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Cross-Domain Object Detection via Adaptive Self-Training [45.48690932743266]
適応的無バイアス教師(AUT)という自己学習フレームワークを提案する。
AUTは、ドメインシフトに対処するために、逆学習と弱い強度データ拡張を使用する。
私たちは、AUTが既存のすべてのアプローチやOracle(完全に監督された)モデルよりも大きなマージンで優れていることを示しています。
論文 参考訳(メタデータ) (2021-11-25T18:50:15Z) - Self-balanced Learning For Domain Generalization [64.99791119112503]
ドメインの一般化は、モデルが未知の統計を持つ対象のドメインに一般化できるように、マルチドメインのソースデータの予測モデルを学ぶことを目的としている。
既存のアプローチのほとんどは、ソースデータがドメインとクラスの両方の観点からバランスよく調整されているという前提の下で開発されている。
本稿では,多領域ソースデータの分布の違いによるバイアスを軽減するために,損失の重み付けを適応的に学習する自己均衡型領域一般化フレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-31T03:17:54Z) - On Universal Black-Box Domain Adaptation [53.7611757926922]
実践的な展開という観点から,ドメイン適応の最小限の制約条件について検討する。
ソースモデルのインターフェースのみがターゲットドメインで利用可能であり、2つのドメイン間のラベル空間関係が異なることや未知であることが許されている。
対象試料の局所近傍における予測の整合性によって正規化された自己訓練フレームワークに統一することを提案する。
論文 参考訳(メタデータ) (2021-04-10T02:21:09Z) - Decentralized Federated Learning Preserves Model and Data Privacy [77.454688257702]
我々は、訓練されたモデル間で知識を共有することができる、完全に分散化されたアプローチを提案する。
生徒は、合成された入力データを通じて教師の出力を訓練する。
その結果,教師が学習した未学習学生モデルが,教師と同等のF1スコアに達することがわかった。
論文 参考訳(メタデータ) (2021-02-01T14:38:54Z) - Do We Really Need to Access the Source Data? Source Hypothesis Transfer
for Unsupervised Domain Adaptation [102.67010690592011]
Unsupervised adaptUDA (UDA) は、ラベル付きソースデータセットから学んだ知識を活用して、新しいラベル付きドメインで同様のタスクを解決することを目的としている。
従来のUDAメソッドは、モデルに適応するためには、通常、ソースデータにアクセスする必要がある。
この作業は、訓練済みのソースモデルのみが利用できる実践的な環境に取り組み、ソースデータなしでそのようなモデルを効果的に活用してUDA問題を解決する方法に取り組みます。
論文 参考訳(メタデータ) (2020-02-20T03:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。