論文の概要: Neuron Linear Transformation: Modeling the Domain Shift for Crowd
Counting
- arxiv url: http://arxiv.org/abs/2004.02133v2
- Date: Thu, 14 Jan 2021 05:51:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 13:02:52.576067
- Title: Neuron Linear Transformation: Modeling the Domain Shift for Crowd
Counting
- Title(参考訳): ニューロン線形変換: 集団カウントのためのドメインシフトのモデル化
- Authors: Qi Wang, Tao Han, Junyu Gao, Yuan Yuan
- Abstract要約: クロスドメイン・クラウド・カウント(CDCC)は、公共安全の重要性からホットな話題である。
領域シフトを学習するために、領域因子とバイアス重みを利用するニューロン線形変換(NLT)法を提案する。
6つの実世界のデータセットに関する大規模な実験と分析により、NLTが最高性能を達成することを確認した。
- 参考スコア(独自算出の注目度): 34.560447389853614
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cross-domain crowd counting (CDCC) is a hot topic due to its importance in
public safety. The purpose of CDCC is to alleviate the domain shift between the
source and target domain. Recently, typical methods attempt to extract
domain-invariant features via image translation and adversarial learning. When
it comes to specific tasks, we find that the domain shifts are reflected on
model parameters' differences. To describe the domain gap directly at the
parameter-level, we propose a Neuron Linear Transformation (NLT) method,
exploiting domain factor and bias weights to learn the domain shift.
Specifically, for a specific neuron of a source model, NLT exploits few labeled
target data to learn domain shift parameters. Finally, the target neuron is
generated via a linear transformation. Extensive experiments and analysis on
six real-world datasets validate that NLT achieves top performance compared
with other domain adaptation methods. An ablation study also shows that the NLT
is robust and more effective than supervised and fine-tune training. Code is
available at: \url{https://github.com/taohan10200/NLT}.
- Abstract(参考訳): 公共の安全の重要性から、クロスドメインの群衆数(cdcc)はホットな話題である。
CDCCの目的は、ソースとターゲットドメイン間のドメインシフトを軽減することである。
近年,画像翻訳と逆学習によるドメイン不変な特徴抽出が試みられている。
特定のタスクに関しては、ドメインシフトがモデルパラメータの違いに反映されていることが分かります。
パラメータレベルでドメインギャップを直接記述するために、ドメイン因子とバイアス重みを利用してドメインシフトを学ぶニューロン線形変換(nlt)法を提案する。
具体的には、ソースモデルの特定のニューロンに対して、nltはラベル付きターゲットデータを使用してドメインシフトパラメータを学習する。
最後に、ターゲットニューロンは線形変換によって生成される。
6つの実世界のデータセットに関する広範囲な実験と分析は、nltが他のドメイン適応法と比較して最高性能を達成することを検証している。
アブレーション研究では、NLTは教師付きおよび微調整訓練よりも堅牢で効果的であることが示されている。
コードは \url{https://github.com/taohan10200/nlt} で入手できる。
関連論文リスト
- Domain-Rectifying Adapter for Cross-Domain Few-Shot Segmentation [40.667166043101076]
多様なターゲットドメインスタイルをソースドメインに修正するための小さなアダプタを提案する。
アダプタは、さまざまな合成対象ドメインから画像特徴を修正して、ソースドメインと整合するように訓練される。
提案手法は,ドメイン間複数ショットセマンティックセマンティックセグメンテーションタスクにおいて有望な結果を得る。
論文 参考訳(メタデータ) (2024-04-16T07:07:40Z) - Meta-causal Learning for Single Domain Generalization [102.53303707563612]
単一ドメインの一般化は、単一のトレーニングドメイン(ソースドメイン)からモデルを学び、それを複数の未確認テストドメイン(ターゲットドメイン)に適用することを目的としている。
既存の方法は、ターゲットドメインをカバーするためのトレーニングドメインの配布拡大に重点を置いているが、ソースとターゲットドメイン間のドメインシフトを見積もることはできない。
そこで本研究では,まず,対象ドメインとして補助ドメインを構築することによってドメインシフトをシミュレートし,ドメインシフトの原因を解析し,最終的にモデル適応のためのドメインシフトを低減する,新たな学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-04-07T15:46:38Z) - Improving Domain Generalization with Domain Relations [77.63345406973097]
本稿では、モデルがトレーニングされたドメインと異なる新しいドメインに適用されたときに発生するドメインシフトに焦点を当てる。
ドメイン固有モデルを学習するためのD$3$Gという新しい手法を提案する。
以上の結果から,D$3$Gは最先端の手法より一貫して優れていた。
論文 参考訳(メタデータ) (2023-02-06T08:11:16Z) - Domain Adaptation for Time-Series Classification to Mitigate Covariate
Shift [3.071136270246468]
本稿では,2つのステップに基づいた新しいドメイン適応手法を提案する。
まず、いくつかのサンプルから、ソースからターゲットドメインへの最適なクラス依存変換を探索する。
次に、埋め込み類似性技術を用いて、推論時に対応する変換を選択する。
論文 参考訳(メタデータ) (2022-04-07T10:27:14Z) - Towards Unsupervised Domain Adaptation via Domain-Transformer [0.0]
教師なしドメイン適応(UDA)のためのドメイン変換器(DoT)を提案する。
DoTは新しい視点から、CNNバックボーンとTransformerのコアアテンションメカニズムを統合する。
ドメイン間の局所的な意味的一貫性を実現し、そこではドメインレベルの注意と多様体の正規化が探索される。
論文 参考訳(メタデータ) (2022-02-24T02:30:15Z) - Domain-Invariant Proposals based on a Balanced Domain Classifier for
Object Detection [8.583307102907295]
画像からのオブジェクト認識は、興味のあるオブジェクトを自動的に見つけ、カテゴリと位置情報を返すことを意味する。
畳み込みニューラルネットワーク(CNN)や生成的敵ネットワークといった深層学習の研究により、この分野のパフォーマンスは大幅に改善された。
分布のミスマッチ、すなわちドメインシフトは、大幅なパフォーマンス低下につながります。
論文 参考訳(メタデータ) (2022-02-12T00:21:27Z) - Dynamic Transfer for Multi-Source Domain Adaptation [82.54405157719641]
モデルパラメータがサンプルに適合する領域の競合に対処するために動的転送を提案する。
ソースドメインの障壁を壊し、マルチソースドメインを単一ソースドメインに変換する。
実験の結果, ドメインラベルを使わずに, 動的移動は最先端の手法よりも3%以上優れていた。
論文 参考訳(メタデータ) (2021-03-19T01:22:12Z) - A Review of Single-Source Deep Unsupervised Visual Domain Adaptation [81.07994783143533]
大規模ラベル付きトレーニングデータセットにより、ディープニューラルネットワークは、幅広いベンチマークビジョンタスクを拡張できるようになった。
多くのアプリケーションにおいて、大量のラベル付きデータを取得するのは非常に高価で時間を要する。
限られたラベル付きトレーニングデータに対処するため、大規模ラベル付きソースドメインでトレーニングされたモデルを、疎ラベルまたは未ラベルのターゲットドメインに直接適用しようと試みている人も多い。
論文 参考訳(メタデータ) (2020-09-01T00:06:50Z) - Learning Domain-invariant Graph for Adaptive Semi-supervised Domain
Adaptation with Few Labeled Source Samples [65.55521019202557]
ドメイン適応は、ソースドメインからモデルを一般化して、関連するが異なるターゲットドメインのタスクに取り組むことを目的としています。
従来のドメイン適応アルゴリズムは、事前知識として扱われる十分なラベル付きデータがソースドメインで利用できると仮定する。
少数のラベル付きソースサンプルを用いたドメイン適応のためのドメイン不変グラフ学習(DGL)手法を提案する。
論文 参考訳(メタデータ) (2020-08-21T08:13:25Z) - Domain Adaptation for Semantic Parsing [68.81787666086554]
本稿では,ドメイン適応のための新しいセマンティクスを提案する。このセマンティクスでは,ソースドメインと比較して,対象ドメインのアノテーション付きデータがはるかに少ない。
我々のセマンティックな利点は、2段階の粗大なフレームワークから得ており、2段階の異なる正確な処理を提供できる。
ベンチマークデータセットの実験により、我々の手法はいくつかの一般的なドメイン適応戦略より一貫して優れていることが示された。
論文 参考訳(メタデータ) (2020-06-23T14:47:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。