論文の概要: Unsupervised Domain Transfer for Science: Exploring Deep Learning
Methods for Translation between LArTPC Detector Simulations with Differing
Response Models
- arxiv url: http://arxiv.org/abs/2304.12858v1
- Date: Tue, 25 Apr 2023 14:29:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-26 20:25:58.957470
- Title: Unsupervised Domain Transfer for Science: Exploring Deep Learning
Methods for Translation between LArTPC Detector Simulations with Differing
Response Models
- Title(参考訳): 科学のための教師なしドメイン転送:ディファリング応答モデルを用いたLArTPC検出器シミュレーション間の翻訳のための深層学習手法の探索
- Authors: Yi Huang, Dmitrii Torbunov, Brett Viren, Haiwang Yu, Jin Huang,
Meifeng Lin, Yihui Ren
- Abstract要約: 本研究は,シミュレーションデータと実データとの系統的差異の玩具モデルについて検討した。
2つの系統的な異なるサンプルの違いを減らすために、完全に教師なし、タスクに依存しない方法を提案する。
この研究は生成されたLArTPCデータセットをオープンソース化し、様々な領域の研究者が初めてLArTPCライクなデータを研究することを可能にする。
- 参考スコア(独自算出の注目度): 5.9671192471274885
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning (DL) techniques have broad applications in science, especially
in seeking to streamline the pathway to potential solutions and discoveries.
Frequently, however, DL models are trained on the results of simulation yet
applied to real experimental data. As such, any systematic differences between
the simulated and real data may degrade the model's performance -- an effect
known as "domain shift." This work studies a toy model of the systematic
differences between simulated and real data. It presents a fully unsupervised,
task-agnostic method to reduce differences between two systematically different
samples. The method is based on the recent advances in unpaired image-to-image
translation techniques and is validated on two sets of samples of simulated
Liquid Argon Time Projection Chamber (LArTPC) detector events, created to
illustrate common systematic differences between the simulated and real data in
a controlled way. LArTPC-based detectors represent the next-generation particle
detectors, producing unique high-resolution particle track data. This work
open-sources the generated LArTPC data set, called Simple Liquid-Argon Track
Samples (or SLATS), allowing researchers from diverse domains to study the
LArTPC-like data for the first time.
- Abstract(参考訳): 深層学習(DL)技術は科学、特に潜在的な解法や発見への道筋の合理化に広く応用されている。
しかし、DLモデルは実際の実験データに適用されていないシミュレーションの結果に基づいて訓練されることが多い。
このように、シミュレーションされたデータと実際のデータの系統的な違いは、モデルのパフォーマンスを低下させる可能性がある。
本研究は,シミュレーションデータと実データとの系統的差異の玩具モデルに関する研究である。
完全に教師なしでタスクに依存しない方法で、体系的に異なる2つのサンプルの違いを減らす。
本手法は, 画像対画像変換技術の最近の進歩に基づき, 模擬液体アルゴン時間投影室 (lartpc) 検出器の2組の試料について検証を行い, シミュレーションデータと実データとの共通系統的差異を制御的に示す。
LArTPCベースの検出器は次世代粒子検出器を表現し、独自の高分解能粒子トラックデータを生成する。
この研究は、Simple Liquid-Argon Track Samples(SLATS)と呼ばれる生成されたLArTPCデータセットをオープンソースとして公開した。
関連論文リスト
- Multi-Source and Test-Time Domain Adaptation on Multivariate Signals using Spatio-Temporal Monge Alignment [59.75420353684495]
コンピュータビジョンやバイオメディカルデータなどの信号に対する機械学習の応用は、ハードウェアデバイスやセッション記録にまたがる変動のため、しばしば課題に直面している。
本研究では,これらの変動を緩和するために,時空間モンジュアライメント(STMA)を提案する。
我々はSTMAが、非常に異なる設定で取得したデータセット間で、顕著で一貫したパフォーマンス向上をもたらすことを示す。
論文 参考訳(メタデータ) (2024-07-19T13:33:38Z) - T-UDA: Temporal Unsupervised Domain Adaptation in Sequential Point
Clouds [2.5291108878852864]
教師なしドメイン適応(UDA)メソッドは、1つの(ソース)ドメインでトレーニングされたモデルに、アノテーションが利用可能な他の(ターゲット)ドメインに適応する。
本稿では,両トレンドの長所を活かした新しい領域適応手法を提案する。この組み合わせにより,運転シーンの3次元セマンティックセマンティックセグメンテーションのタスクにおいて,大きなパフォーマンス向上が得られる。
論文 参考訳(メタデータ) (2023-09-15T10:47:12Z) - SALUDA: Surface-based Automotive Lidar Unsupervised Domain Adaptation [62.889835139583965]
我々は、ソースデータとターゲットデータに基づいて、暗黙の基盤となる表面表現を同時に学習する教師なし補助タスクを導入する。
両方のドメインが同じ遅延表現を共有しているため、モデルは2つのデータソース間の不一致を許容せざるを得ない。
実験の結果,本手法は実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-
論文 参考訳(メタデータ) (2023-04-06T17:36:23Z) - One-Shot Domain Adaptive and Generalizable Semantic Segmentation with
Class-Aware Cross-Domain Transformers [96.51828911883456]
セマンティックセグメンテーションのための教師なしのsim-to-realドメイン適応(UDA)は、シミュレーションデータに基づいて訓練されたモデルの実世界のテスト性能を改善することを目的としている。
従来のUDAは、適応のためのトレーニング中に利用可能なラベルのない実世界のサンプルが豊富にあると仮定することが多い。
実世界のデータサンプルが1つしか利用できない,一発の教師なしシム・トゥ・リアル・ドメイン適応(OSUDA)と一般化問題について検討する。
論文 参考訳(メタデータ) (2022-12-14T15:54:15Z) - Domain Adaptation for Time-Series Classification to Mitigate Covariate
Shift [3.071136270246468]
本稿では,2つのステップに基づいた新しいドメイン適応手法を提案する。
まず、いくつかのサンプルから、ソースからターゲットドメインへの最適なクラス依存変換を探索する。
次に、埋め込み類似性技術を用いて、推論時に対応する変換を選択する。
論文 参考訳(メタデータ) (2022-04-07T10:27:14Z) - Towards Unsupervised Domain Adaptation via Domain-Transformer [0.0]
教師なしドメイン適応(UDA)のためのドメイン変換器(DoT)を提案する。
DoTは新しい視点から、CNNバックボーンとTransformerのコアアテンションメカニズムを統合する。
ドメイン間の局所的な意味的一貫性を実現し、そこではドメインレベルの注意と多様体の正規化が探索される。
論文 参考訳(メタデータ) (2022-02-24T02:30:15Z) - Achieving Domain Generalization in Underwater Object Detection by Image
Stylization and Domain Mixup [8.983901488753967]
既存の水中物体検出手法は複雑な水中環境に起因する領域シフト問題に直面すると深刻に劣化する。
本稿では,データ拡張の観点からのドメイン一般化手法を提案する。
S-UODAC 2020データセットに関する総合的な実験は、提案手法がドメイン不変表現を学習できることを実証している。
論文 参考訳(メタデータ) (2021-04-06T01:45:07Z) - Flexible deep transfer learning by separate feature embeddings and
manifold alignment [0.0]
オブジェクト認識は、業界と防衛において重要な存在である。
残念ながら、既存のラベル付きデータセットでトレーニングされたアルゴリズムは、データ分布が一致しないため、直接新しいデータに一般化しない。
本稿では,各領域の特徴抽出を個別に学習することで,この制限を克服する新しいディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-22T19:24:44Z) - A Review of Single-Source Deep Unsupervised Visual Domain Adaptation [81.07994783143533]
大規模ラベル付きトレーニングデータセットにより、ディープニューラルネットワークは、幅広いベンチマークビジョンタスクを拡張できるようになった。
多くのアプリケーションにおいて、大量のラベル付きデータを取得するのは非常に高価で時間を要する。
限られたラベル付きトレーニングデータに対処するため、大規模ラベル付きソースドメインでトレーニングされたモデルを、疎ラベルまたは未ラベルのターゲットドメインに直接適用しようと試みている人も多い。
論文 参考訳(メタデータ) (2020-09-01T00:06:50Z) - Learning Domain-invariant Graph for Adaptive Semi-supervised Domain
Adaptation with Few Labeled Source Samples [65.55521019202557]
ドメイン適応は、ソースドメインからモデルを一般化して、関連するが異なるターゲットドメインのタスクに取り組むことを目的としています。
従来のドメイン適応アルゴリズムは、事前知識として扱われる十分なラベル付きデータがソースドメインで利用できると仮定する。
少数のラベル付きソースサンプルを用いたドメイン適応のためのドメイン不変グラフ学習(DGL)手法を提案する。
論文 参考訳(メタデータ) (2020-08-21T08:13:25Z) - Spatial Attention Pyramid Network for Unsupervised Domain Adaptation [66.75008386980869]
教師なし領域適応は様々なコンピュータビジョンタスクにおいて重要である。
教師なし領域適応のための新しい空間注意ピラミッドネットワークを設計する。
我々の手法は最先端の手法に対して大きなマージンで好適に機能する。
論文 参考訳(メタデータ) (2020-03-29T09:03:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。