論文の概要: Unsupervised Domain Adaptation with Deep Neural-Network
- arxiv url: http://arxiv.org/abs/2307.05601v1
- Date: Mon, 10 Jul 2023 20:28:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-13 16:08:23.870771
- Title: Unsupervised Domain Adaptation with Deep Neural-Network
- Title(参考訳): ディープニューラルネットワークを用いた教師なし領域適応
- Authors: Artem Bituitskii
- Abstract要約: 本報告は、既存手法の分析を行い、新しいアプローチを導入し、異なる領域にわたる視覚認識タスクを改善する可能性を示すことにより、教師なしドメイン適応の分野に寄与する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This report contributes to the field of unsupervised domain adaptation by
providing an analysis of existing methods, introducing a new approach, and
demonstrating the potential for improving visual recognition tasks across
different domains. The results of this study open up opportunities for further
study and development of advanced methods in the field of domain adaptation.
- Abstract(参考訳): 本報告は、既存の手法の分析、新しいアプローチの導入、異なるドメイン間の視覚認識タスクの改善の可能性を示すことにより、教師なしドメイン適応の分野に寄与する。
本研究の結果は、ドメイン適応の分野における先進的手法のさらなる研究と発展の機会を開くものである。
関連論文リスト
- Towards Full-scene Domain Generalization in Multi-agent Collaborative Bird's Eye View Segmentation for Connected and Autonomous Driving [49.03947018718156]
協調的な知覚の訓練と推論の段階で利用される統合されたドメイン一般化フレームワークを提案する。
また、システム内ドメインアライメント機構を導入し、コネクテッドおよび自律走行車間のドメインの差を減らし、潜在的に排除する。
論文 参考訳(メタデータ) (2023-11-28T12:52:49Z) - Meta-causal Learning for Single Domain Generalization [102.53303707563612]
単一ドメインの一般化は、単一のトレーニングドメイン(ソースドメイン)からモデルを学び、それを複数の未確認テストドメイン(ターゲットドメイン)に適用することを目的としている。
既存の方法は、ターゲットドメインをカバーするためのトレーニングドメインの配布拡大に重点を置いているが、ソースとターゲットドメイン間のドメインシフトを見積もることはできない。
そこで本研究では,まず,対象ドメインとして補助ドメインを構築することによってドメインシフトをシミュレートし,ドメインシフトの原因を解析し,最終的にモデル適応のためのドメインシフトを低減する,新たな学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-04-07T15:46:38Z) - Explainable Supervised Domain Adaptation [5.051036968777244]
本稿では、ドメイン適応フレームワーク XSDA-Net の設計により説明可能であることを提案する。
我々は、XSDA-Netにケースベースの推論機構を統合し、ソースとターゲットの列車画像の類似した領域でテストインスタンスの予測を説明する。
提案フレームワークの有用性を実証的に示すため,提案フレームワークは,部分ベースの説明可能性を示すことが広く知られているデータセット上で,ドメイン適応設定をキュレートする。
論文 参考訳(メタデータ) (2022-05-20T03:33:04Z) - Label Distribution Learning for Generalizable Multi-source Person
Re-identification [48.77206888171507]
人物再識別(Re-ID)は,映像監視システムにおいて重要な技術である。
教師付きモデルを任意の未確認領域に直接適用することは困難である。
一般化可能な多ソース人物Re-IDタスクに対処する新しいラベル分散学習法(LDL)を提案する。
論文 参考訳(メタデータ) (2022-04-12T15:59:10Z) - A Novel Mix-normalization Method for Generalizable Multi-source Person
Re-identification [49.548815417844786]
人物再識別(Re-ID)は、監督されたシナリオにおいて大きな成功を収めた。
モデルがソースドメインに過度に適合するため、教師付きモデルを任意の未確認領域に直接転送することは困難である。
ドメイン・アウェア・ミックス正規化(DMN)とドメイン・ウェア・センター正規化(DCR)からなるMixNormを提案する。
論文 参考訳(メタデータ) (2022-01-24T18:09:38Z) - Model-Based Domain Generalization [96.84818110323518]
本稿では,モデルベースドメイン一般化問題に対する新しいアプローチを提案する。
我々のアルゴリズムは、最新のwildsベンチマークの最先端手法を最大20ポイント上回った。
論文 参考訳(メタデータ) (2021-02-23T00:59:02Z) - Deep Visual Domain Adaptation [6.853165736531939]
ドメイン適応(DA)は、異なるが関連するソースドメインに含まれる知識を転送することで、ターゲットドメインにおけるモデルの性能を改善することを目的としている。
極めてデータ不足の深い学習モデルの最近の進歩により、この10年間で視覚的DAへの関心が著しく高まっている。
論文 参考訳(メタデータ) (2020-12-28T10:40:09Z) - A Review of Single-Source Deep Unsupervised Visual Domain Adaptation [81.07994783143533]
大規模ラベル付きトレーニングデータセットにより、ディープニューラルネットワークは、幅広いベンチマークビジョンタスクを拡張できるようになった。
多くのアプリケーションにおいて、大量のラベル付きデータを取得するのは非常に高価で時間を要する。
限られたラベル付きトレーニングデータに対処するため、大規模ラベル付きソースドメインでトレーニングされたモデルを、疎ラベルまたは未ラベルのターゲットドメインに直接適用しようと試みている人も多い。
論文 参考訳(メタデータ) (2020-09-01T00:06:50Z) - Unsupervised Domain Adaptation with Progressive Domain Augmentation [34.887690018011675]
本稿では,プログレッシブドメイン拡張に基づく新規な教師なしドメイン適応手法を提案する。
提案手法は、仮想中間ドメインをドメインを介して生成し、ソースドメインを徐々に拡張し、ソースターゲット領域の分岐をブリッジする。
本研究では,複数の領域適応タスクについて実験を行い,提案手法が最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2020-04-03T18:45:39Z) - Unsupervised Domain Adaptation Through Transferring both the
Source-Knowledge and Target-Relatedness Simultaneously [16.569154681060642]
教師なしドメイン適応(Unsupervised domain adapt, UDA)は、機械学習とパターン認識の分野における新たな研究トピックである。
ソースドメインから知識を転送することで、ラベルのないターゲットドメインの学習を支援することを目的としています。
論文 参考訳(メタデータ) (2020-03-18T05:27:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。