論文の概要: A Framework for Generalizing Critical Heat Flux Detection Models Using
Unsupervised Image-to-Image Translation
- arxiv url: http://arxiv.org/abs/2212.09107v3
- Date: Sat, 18 Mar 2023 02:46:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-24 01:00:31.299467
- Title: A Framework for Generalizing Critical Heat Flux Detection Models Using
Unsupervised Image-to-Image Translation
- Title(参考訳): 教師なし画像-画像変換を用いた臨界熱フラックス検出モデルの一般化フレームワーク
- Authors: Firas Al-Hindawi, Tejaswi Soori, Han Hu, Md Mahfuzur Rahman Siddiquee,
Hyunsoo Yoon, Teresa Wu, Ying Sun
- Abstract要約: 臨界熱流束(CHF)は、熱沸騰に失敗すると、装置の故障につながる急激な温度上昇を引き起こす可能性があるため、熱沸騰に不可欠である。
多くの機械学習モデルはCHFを検出するために存在するが、異なるドメインのデータでテストした場合、その性能は大幅に低下する。
教師なしの方法で訓練されたCHF検出モデルの一般化性と適応性をサポートする新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 18.79859970436631
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The detection of critical heat flux (CHF) is crucial in heat boiling
applications as failure to do so can cause rapid temperature ramp leading to
device failures. Many machine learning models exist to detect CHF, but their
performance reduces significantly when tested on data from different domains.
To deal with datasets from new domains a model needs to be trained from
scratch. Moreover, the dataset needs to be annotated by a domain expert. To
address this issue, we propose a new framework to support the generalizability
and adaptability of trained CHF detection models in an unsupervised manner.
This approach uses an unsupervised Image-to-Image (UI2I) translation model to
transform images in the target dataset to look like they were obtained from the
same domain the model previously trained on. Unlike other frameworks dealing
with domain shift, our framework does not require retraining or fine-tuning of
the trained classification model nor does it require synthesized datasets in
the training process of either the classification model or the UI2I model. The
framework was tested on three boiling datasets from different domains, and we
show that the CHF detection model trained on one dataset was able to generalize
to the other two previously unseen datasets with high accuracy. Overall, the
framework enables CHF detection models to adapt to data generated from
different domains without requiring additional annotation effort or retraining
of the model.
- Abstract(参考訳): 臨界熱流束(chf)の検出は、装置の故障につながる急速な温度上昇を引き起こす可能性があるため、熱沸騰アプリケーションにおいて不可欠である。
多くの機械学習モデルはCHFを検出するために存在するが、異なるドメインのデータでテストした場合、その性能は大幅に低下する。
新しいドメインからのデータセットを扱うには、モデルをゼロからトレーニングする必要がある。
さらに、データセットにはドメインの専門家が注釈を付ける必要がある。
この問題に対処するために,訓練されたcff検出モデルの一般化性と適応性をサポートする新しい枠組みを提案する。
このアプローチでは、教師なしイメージ・トゥ・イメージ(UI2I)変換モデルを使用して、ターゲットデータセット内のイメージを、以前トレーニングされたモデルと同じドメインから取得したように変換する。
ドメインシフトを扱う他のフレームワークとは異なり、我々のフレームワークはトレーニングされた分類モデルのトレーニングや微調整を必要とせず、分類モデルまたはUI2Iモデルのトレーニングプロセスで合成データセットも必要としない。
このフレームワークは異なるドメインの沸騰する3つのデータセット上でテストされ、あるデータセットでトレーニングされたchf検出モデルは、他の2つの未認識データセットを高い精度で一般化することができた。
全体として、CHF検出モデルは、追加のアノテーションやモデルの再トレーニングを必要とせずに、異なるドメインから生成されたデータに適応することができる。
関連論文リスト
- Scalable and Robust Transformer Decoders for Interpretable Image
Classification with Foundation Models [0.0]
解釈可能なコンピュータビジョンモデルは、画像の特徴をトレーニングデータセットのプロトタイプと比較し、それら間の類似性が分類の基礎となる、透過的な予測を生成することができる。
本稿では,トランスデコーダヘッドと階層的混合モデルを用いた新しい画像分類手法であるComFeを紹介する。
グローバルなイメージラベルのみを使用し、セグメンテーションやアノテーションを含まないことで、ComFeは、鳥の頭、体、翼、尾などの一貫したイメージコンポーネントと画像背景を識別し、これらの特徴のうちどれが予測を行うに有益かを決定することができる。
論文 参考訳(メタデータ) (2024-03-07T00:44:21Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - High-resolution semantically-consistent image-to-image translation [0.0]
本稿では,スタイル変換フェーズにおける画像のセマンティック一貫性と画素単位の品質を保った教師なし領域適応モデルを提案する。
提案モデルでは,SemI2Iモデルと比較してかなりの性能向上を示し,最先端のCyCADAモデルと同様の結果を得た。
論文 参考訳(メタデータ) (2022-09-13T19:08:30Z) - On-the-Fly Test-time Adaptation for Medical Image Segmentation [63.476899335138164]
ソースモデルをテスト時にターゲットデータに適応させることは、データシフト問題に対する効率的な解決策である。
本稿では、各畳み込みブロックに適応バッチ正規化層を設けるAdaptive UNetという新しいフレームワークを提案する。
テスト期間中、モデルは新しいテストイメージのみを取り込み、ドメインコードを生成して、テストデータに従ってソースモデルの特徴を適応させる。
論文 参考訳(メタデータ) (2022-03-10T18:51:29Z) - Attentive Prototypes for Source-free Unsupervised Domain Adaptive 3D
Object Detection [85.11649974840758]
3Dオブジェクト検出ネットワークは、トレーニングされたデータに対してバイアスを受ける傾向がある。
そこで本研究では,ライダーを用いた3次元物体検出器のソースレス・教師なし領域適応のための単一フレーム手法を提案する。
論文 参考訳(メタデータ) (2021-11-30T18:42:42Z) - Y-GAN: Learning Dual Data Representations for Efficient Anomaly
Detection [0.0]
本稿では,Y-GANと呼ばれる新しい再構成モデルを提案する。
モデルはY字型のオートエンコーダで構成され、2つの別々の潜在空間の画像を表現している。
論文 参考訳(メタデータ) (2021-09-28T20:17:04Z) - Towards Trustworthy Deception Detection: Benchmarking Model Robustness
across Domains, Modalities, and Languages [10.131671217810581]
我々は、ドメイン外データ、モダリティ特化特徴、および英語以外の言語に対するモデルロバスト性を評価する。
我々は、追加の画像コンテンツを入力として、ELMo埋め込みはBERTまたはGLoVeと比較して大幅に少ないエラーをもたらすことを発見しました。
論文 参考訳(メタデータ) (2021-04-23T18:05:52Z) - CutPaste: Self-Supervised Learning for Anomaly Detection and
Localization [59.719925639875036]
通常のトレーニングデータのみを用いて異常検知器を構築するためのフレームワークを提案する。
まず、自己教師付き深層表現を学習し、学習した表現の上に生成的1クラス分類器を構築する。
MVTec異常検出データセットに関する実証研究は,提案アルゴリズムが実世界の様々な欠陥を検出可能であることを実証している。
論文 参考訳(メタデータ) (2021-04-08T19:04:55Z) - Explanation-Guided Training for Cross-Domain Few-Shot Classification [96.12873073444091]
クロスドメイン・ショット分類タスク(CD-FSC)は、データセットで表されるドメインをまたいで一般化する要件と、少数ショット分類を組み合わせたものである。
既存のFSCモデルに対する新しいトレーニング手法を提案する。
説明誘導学習はモデル一般化を効果的に改善することを示す。
論文 参考訳(メタデータ) (2020-07-17T07:28:08Z) - Pre-Trained Models for Heterogeneous Information Networks [57.78194356302626]
異種情報ネットワークの特徴を捉えるための自己教師付き事前学習・微調整フレームワークPF-HINを提案する。
PF-HINは4つのデータセットにおいて、各タスクにおける最先端の代替よりも一貫して、大幅に優れています。
論文 参考訳(メタデータ) (2020-07-07T03:36:28Z) - Gradient-Based Adversarial Training on Transformer Networks for
Detecting Check-Worthy Factual Claims [3.7543966923106438]
本稿では,最初の逆正則変換型クレームスポッタモデルを提案する。
現在の最先端モデルよりもF1スコアが4.70ポイント向上した。
本稿では,変換器モデルに逆学習を適用する手法を提案する。
論文 参考訳(メタデータ) (2020-02-18T16:51:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。