論文の概要: Towards Mitigating Systematics in Large-Scale Surveys via Few-Shot Optimal Transport-Based Feature Alignment
- arxiv url: http://arxiv.org/abs/2511.11787v1
- Date: Fri, 14 Nov 2025 17:24:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.31066
- Title: Towards Mitigating Systematics in Large-Scale Surveys via Few-Shot Optimal Transport-Based Feature Alignment
- Title(参考訳): Few-Shot Optimal Transport-based Feature Asignment による大規模調査における系統の緩和に向けて
- Authors: Sultan Hassan, Sambatra Andrianomena, Benjamin D. Wandelt,
- Abstract要約: 本稿では,学習した特徴を分布内(ID)と分布外(OOD)に整合させる手法を提案する。
本手法をMNISTデータセット上で実験的に検証し,アライメント損失について検討した。
以上の結果から, 最適輸送は, ID と OOD サンプルのパリティが不明な場合, OOD の特徴の整合に特に有効であることが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Systematics contaminate observables, leading to distribution shifts relative to theoretically simulated signals-posing a major challenge for using pre-trained models to label such observables. Since systematics are often poorly understood and difficult to model, removing them directly and entirely may not be feasible. To address this challenge, we propose a novel method that aligns learned features between in-distribution (ID) and out-of-distribution (OOD) samples by optimizing a feature-alignment loss on the representations extracted from a pre-trained ID model. We first experimentally validate the method on the MNIST dataset using possible alignment losses, including mean squared error and optimal transport, and subsequently apply it to large-scale maps of neutral hydrogen. Our results show that optimal transport is particularly effective at aligning OOD features when parity between ID and OOD samples is unknown, even with limited data-mimicking real-world conditions in extracting information from large-scale surveys. Our code is available at https://github.com/sultan-hassan/feature-alignment-for-OOD-generalization.
- Abstract(参考訳): システマティックスはオブザーバブルを汚染し、理論的にシミュレートされた信号に対して分布の変化をもたらす。
体系学は理解が不十分でモデル化が難しいことが多いため、直接的に取り除くことは不可能である。
この課題に対処するために,事前学習したIDモデルから抽出した表現に特徴調整損失を最適化することにより,学習した特徴を分布内(ID)と分布外(OOD)のサンプルに整合させる手法を提案する。
まず、平均二乗誤差と最適輸送を含むアライメント損失を用いてMNISTデータセット上の手法を実験的に検証し、続いて中性水素の大規模マップに適用する。
以上の結果から,大規模調査から情報抽出を行う際には,データマイニングの少ない実環境でも,IDとOODのパリティが不明な場合のOOD特徴の整合に最適輸送が有効であることが示唆された。
私たちのコードはhttps://github.com/sultan-hassan/feature-alignment-for-OOD- generalizationで利用可能です。
関連論文リスト
- Improving Out-of-Distribution Detection via Dynamic Covariance Calibration [12.001290283557466]
アウト・オブ・ディストリビューション(OOD)検出は、AIシステムの信頼性に不可欠である。
我々は, 従来の形状を動的に調整することにより, 分散されていない試料の影響を補正することができると論じる。
提案手法は, 各種モデル間のOOD検出を著しく向上させる。
論文 参考訳(メタデータ) (2025-06-11T05:05:26Z) - Uncertainty-Aware Out-of-Distribution Detection with Gaussian Processes [13.246251147975192]
ディープニューラルネットワーク(DNN)はしばしばクローズドワールドの前提の下で構築される。
OODサンプルは、現実世界のアプリケーションでトレーニングフェーズで必ずしも利用できない。
InDデータのみに基づく決定境界を確立するために,ガウス過程に基づくOOD検出手法を提案する。
論文 参考訳(メタデータ) (2024-12-30T12:57:31Z) - Self-supervised Feature Adaptation for 3D Industrial Anomaly Detection [59.41026558455904]
具体的には,大規模ビジュアルデータセット上で事前学習されたモデルを利用した初期のマルチモーダルアプローチについて検討する。
本研究では,アダプタを微調整し,異常検出に向けたタスク指向の表現を学習するためのLSFA法を提案する。
論文 参考訳(メタデータ) (2024-01-06T07:30:41Z) - EAT: Towards Long-Tailed Out-of-Distribution Detection [55.380390767978554]
本稿では,長い尾を持つOOD検出の課題に対処する。
主な困難は、尾クラスに属するサンプルとOODデータを区別することである。
本稿では,(1)複数の禁制クラスを導入して分布内クラス空間を拡大すること,(2)コンテキストリッチなOODデータに画像をオーバーレイすることでコンテキスト限定のテールクラスを拡大すること,の2つの簡単な考え方を提案する。
論文 参考訳(メタデータ) (2023-12-14T13:47:13Z) - Imputation-Free Learning from Incomplete Observations [73.15386629370111]
本稿では,不備な値を含む入力からの推論をインプットなしでトレーニングするIGSGD法の重要性について紹介する。
バックプロパゲーションによるモデルのトレーニングに使用する勾配の調整には強化学習(RL)を用いる。
我々の計算自由予測は、最先端の計算手法を用いて従来の2段階の計算自由予測よりも優れている。
論文 参考訳(メタデータ) (2021-07-05T12:44:39Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。