論文の概要: DIsoN: Decentralized Isolation Networks for Out-of-Distribution Detection in Medical Imaging
- arxiv url: http://arxiv.org/abs/2506.09024v1
- Date: Tue, 10 Jun 2025 17:52:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 15:11:43.055389
- Title: DIsoN: Decentralized Isolation Networks for Out-of-Distribution Detection in Medical Imaging
- Title(参考訳): DIsoN: 医用画像における分布外検出のための分散分離ネットワーク
- Authors: Felix Wagner, Pramit Saha, Harry Anthony, J. Alison Noble, Konstantinos Kamnitsas,
- Abstract要約: 安全クリティカルドメインにおける機械学習モデルの安全なデプロイには、トレーニング中に見えない特徴のある入力を検出する必要がある。
最先端のOOD検出方法は、デプロイ後にトレーニングデータを破棄するか、テストサンプルとトレーニングデータが集中的に格納されていると仮定する。
トレーニングデータから対象のテストサンプルを分離することの難しさを定量化するOOD検出フレームワークであるIsolation Networkを導入する。
次に、データ共有が不可能な場合のトレーニングデータとテストデータの比較を可能にする分散分離ネットワーク(DIsoN)を提案する。
- 参考スコア(独自算出の注目度): 7.005516664708197
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Safe deployment of machine learning (ML) models in safety-critical domains such as medical imaging requires detecting inputs with characteristics not seen during training, known as out-of-distribution (OOD) detection, to prevent unreliable predictions. Effective OOD detection after deployment could benefit from access to the training data, enabling direct comparison between test samples and the training data distribution to identify differences. State-of-the-art OOD detection methods, however, either discard training data after deployment or assume that test samples and training data are centrally stored together, an assumption that rarely holds in real-world settings. This is because shipping training data with the deployed model is usually impossible due to the size of training databases, as well as proprietary or privacy constraints. We introduce the Isolation Network, an OOD detection framework that quantifies the difficulty of separating a target test sample from the training data by solving a binary classification task. We then propose Decentralized Isolation Networks (DIsoN), which enables the comparison of training and test data when data-sharing is impossible, by exchanging only model parameters between the remote computational nodes of training and deployment. We further extend DIsoN with class-conditioning, comparing a target sample solely with training data of its predicted class. We evaluate DIsoN on four medical imaging datasets (dermatology, chest X-ray, breast ultrasound, histopathology) across 12 OOD detection tasks. DIsoN performs favorably against existing methods while respecting data-privacy. This decentralized OOD detection framework opens the way for a new type of service that ML developers could provide along with their models: providing remote, secure utilization of their training data for OOD detection services. Code will be available upon acceptance at: *****
- Abstract(参考訳): 医療画像などの安全クリティカル領域における機械学習(ML)モデルの安全な展開には、信頼性の低い予測を防ぐために、トレーニング中に見えない特徴を持つ入力を検知する必要がある。
デプロイ後の効果的なOOD検出は、トレーニングデータへのアクセスの恩恵を受けることができる。
しかし、最先端のOOD検出方法は、デプロイ後にトレーニングデータを破棄するか、テストサンプルとトレーニングデータが集中的に格納されていると仮定するかのいずれかであり、これは現実の環境ではめったに行われない仮定である。
これは、トレーニングデータベースのサイズやプロプライエタリあるいはプライバシの制約のため、デプロイされたモデルでトレーニングデータを出荷することは、通常不可能であるからである。
OOD検出フレームワークであるIsolation Networkを導入し、バイナリ分類タスクを解くことで、目標テストサンプルをトレーニングデータから分離することの難しさを定量化する。
次に、データ共有が不可能な場合のトレーニングとテストデータの比較を可能にする分散分離ネットワーク(DIsoN)を提案し、トレーニングとデプロイメントの遠隔計算ノード間でモデルパラメータのみを交換する。
さらに、クラス条件付きでDIsoNを拡張し、ターゲットサンプルを予測されたクラスのトレーニングデータのみと比較する。
本研究は,12のOOD検出課題における4つの医用画像データセット(皮膚学,胸部X線,胸部超音波,病理組織学)に対するDIsoNの評価を行った。
DIsoNは、データプライバシを尊重しながら、既存のメソッドに対して好意的に機能する。
この分散OOD検出フレームワークは、ML開発者がモデルと一緒に提供できる新しいタイプのサービスの道を開く。
コードは以下の順で利用可能になる。
関連論文リスト
- Advancing Out-of-Distribution Detection via Local Neuroplasticity [60.53625435889467]
本稿では,コルモゴロフ・アルノルドネットワーク(KAN)の局所神経可塑性特性を利用した新しいOOD検出法を提案する。
本手法は,トレーニング対象のカンの活性化パターンとトレーニング対象のOOD検出パターンを比較した。
画像および医用領域のベンチマークに対するアプローチを検証し、最先端技術と比較して優れた性能と堅牢性を示す。
論文 参考訳(メタデータ) (2025-02-20T11:13:41Z) - Uncertainty-Aware Out-of-Distribution Detection with Gaussian Processes [13.246251147975192]
ディープニューラルネットワーク(DNN)はしばしばクローズドワールドの前提の下で構築される。
OODサンプルは、現実世界のアプリケーションでトレーニングフェーズで必ずしも利用できない。
InDデータのみに基づく決定境界を確立するために,ガウス過程に基づくOOD検出手法を提案する。
論文 参考訳(メタデータ) (2024-12-30T12:57:31Z) - EAT: Towards Long-Tailed Out-of-Distribution Detection [55.380390767978554]
本稿では,長い尾を持つOOD検出の課題に対処する。
主な困難は、尾クラスに属するサンプルとOODデータを区別することである。
本稿では,(1)複数の禁制クラスを導入して分布内クラス空間を拡大すること,(2)コンテキストリッチなOODデータに画像をオーバーレイすることでコンテキスト限定のテールクラスを拡大すること,の2つの簡単な考え方を提案する。
論文 参考訳(メタデータ) (2023-12-14T13:47:13Z) - Can Pre-trained Networks Detect Familiar Out-of-Distribution Data? [37.36999826208225]
PT-OODが事前学習ネットワークのOOD検出性能に及ぼす影響について検討した。
特徴空間におけるPT-OODの低線形分離性はPT-OOD検出性能を著しく低下させることがわかった。
本稿では,大規模事前学習モデルに対する一意な解を提案する。
論文 参考訳(メタデータ) (2023-10-02T02:01:00Z) - Unleashing Mask: Explore the Intrinsic Out-of-Distribution Detection
Capability [70.72426887518517]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイする際に、セキュアAIの必須の側面である。
本稿では,IDデータを用いた学習モデルのOOD識別能力を復元する新しい手法であるUnleashing Maskを提案する。
本手法では, マスクを用いて記憶した非定型サンプルを抽出し, モデルを微調整するか, 導入したマスクでプルーする。
論文 参考訳(メタデータ) (2023-06-06T14:23:34Z) - Using Semantic Information for Defining and Detecting OOD Inputs [3.9577682622066264]
アウト・オブ・ディストリビューション(OOD)検出は近年注目されている。
現在の検出器がトレーニングデータセットのバイアスを継承していることを示します。
これにより、現在のOOD検出器はトレーニング分布の外にある入力に不透過であり、同じ意味情報を持つことができる。
我々は,MNISTおよびCOCOデータセットのトレーニングデータから抽出した意味情報に基づいてOOD検出を行う。
論文 参考訳(メタデータ) (2023-02-21T21:31:20Z) - Breaking Down Out-of-Distribution Detection: Many Methods Based on OOD
Training Data Estimate a Combination of the Same Core Quantities [104.02531442035483]
本研究の目的は,OOD検出手法の暗黙的なスコアリング機能を識別すると同時に,共通の目的を認識することである。
内分布と外分布の2値差はOOD検出問題のいくつかの異なる定式化と等価であることを示す。
また, 外乱露光で使用される信頼損失は, 理論上最適のスコアリング関数と非自明な方法で異なる暗黙的なスコアリング関数を持つことを示した。
論文 参考訳(メタデータ) (2022-06-20T16:32:49Z) - Igeood: An Information Geometry Approach to Out-of-Distribution
Detection [35.04325145919005]
Igeoodは, オフ・オブ・ディストリビューション(OOD)サンプルを効果的に検出する手法である。
Igeoodは任意のトレーニング済みニューラルネットワークに適用され、機械学習モデルにさまざまなアクセス権を持つ。
Igeoodは、さまざまなネットワークアーキテクチャやデータセットにおいて、競合する最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-03-15T11:26:35Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z) - Multi-Task Curriculum Framework for Open-Set Semi-Supervised Learning [54.85397562961903]
ラベル付きデータに制限がある場合に、ラベルなしデータを利用して強力なモデルをトレーニングする半教師付き学習(SSL)が提案されている。
我々は、Open-set SSLと呼ばれるより複雑な新しいシナリオに対処する。
提案手法は,OOD試料の効果を除去し,最先端の結果を得る。
論文 参考訳(メタデータ) (2020-07-22T10:33:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。