論文の概要: Self-supervised regression learning using domain knowledge: Applications
to improving self-supervised denoising in imaging
- arxiv url: http://arxiv.org/abs/2205.04821v1
- Date: Tue, 10 May 2022 11:46:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-12 20:30:55.885651
- Title: Self-supervised regression learning using domain knowledge: Applications
to improving self-supervised denoising in imaging
- Title(参考訳): ドメイン知識を用いた自己教師型回帰学習:イメージングにおける自己教師型認知改善への応用
- Authors: Il Yong Chun, Dongwon Park, Xuehang Zheng, Se Young Chun, Yong Long
- Abstract要約: 本稿では、入力データのみを用いて回帰ニューラルネットワークの学習を可能にする汎用自己教師付き回帰学習(SSRL)フレームワークを提案する。
低線量トモグラフィデノナイジングとカメラ画像デノナイジングの数値実験により,提案したSSRLはデノナイジング品質を著しく向上することが示された。
- 参考スコア(独自算出の注目度): 27.34785258514146
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Regression that predicts continuous quantity is a central part of
applications using computational imaging and computer vision technologies. Yet,
studying and understanding self-supervised learning for regression tasks -
except for a particular regression task, image denoising - have lagged behind.
This paper proposes a general self-supervised regression learning (SSRL)
framework that enables learning regression neural networks with only input data
(but without ground-truth target data), by using a designable pseudo-predictor
that encapsulates domain knowledge of a specific application. The paper
underlines the importance of using domain knowledge by showing that under
different settings, the better pseudo-predictor can lead properties of SSRL
closer to those of ordinary supervised learning. Numerical experiments for
low-dose computational tomography denoising and camera image denoising
demonstrate that proposed SSRL significantly improves the denoising quality
over several existing self-supervised denoising methods.
- Abstract(参考訳): 連続量を予測する回帰は、計算画像とコンピュータビジョン技術を用いたアプリケーションの中心的な部分である。
しかし、特定の回帰タスクを除く回帰タスクに対する自己教師あり学習の研究と理解は遅れている。
本稿では、特定のアプリケーションのドメイン知識をカプセル化した設計可能な擬似予測器を用いて、入力データのみを用いて回帰ニューラルネットワークを学習できる汎用自己教師付き回帰学習(SSRL)フレームワークを提案する。
本論文は、異なる設定下では、より良い擬似予測器がSSRLの特性を通常の教師付き学習に近づけることができることを示すことにより、ドメイン知識の使用の重要性を強調する。
低線量トモグラフィデノナイジングとカメラ画像デノナイジングの数値実験により、提案したSSRLは、既存の自己監督型デノナイジング法に比べて、デノナイジング品質を著しく改善することが示された。
関連論文リスト
- Differential Privacy Mechanisms in Neural Tangent Kernel Regression [29.187250620950927]
ニューラルタンジェントカーネル(NTK)回帰設定における差分プライバシー(DP)について検討する。
NTKレグレッションの差分プライバシとテスト精度の両面で証明可能な保証を示す。
我々の知る限り、NTKレグレッションに対するDP保証を提供する最初の取り組みである。
論文 参考訳(メタデータ) (2024-07-18T15:57:55Z) - USIM-DAL: Uncertainty-aware Statistical Image Modeling-based Dense
Active Learning for Super-resolution [47.38982697349244]
デンス回帰(Dense regression)は、画像の超解像、エンハンスメント、深さ推定などのタスクのためのコンピュータビジョンで広く使われているアプローチである。
この問題に対処するために,能動学習を高密度回帰モデルに組み込むことを提案する。
アクティブな学習により、モデルはラベル付けのための最も有益なサンプルを選択し、全体的なアノテーションコストを削減し、パフォーマンスを向上させることができる。
論文 参考訳(メタデータ) (2023-05-27T16:33:43Z) - CCLF: A Contrastive-Curiosity-Driven Learning Framework for
Sample-Efficient Reinforcement Learning [56.20123080771364]
我々は、強化学習のためのモデルに依存しないコントラスト駆動学習フレームワーク(CCLF)を開発した。
CCLFは、サンプルの重要性を完全に活用し、自己管理的な学習効率を向上させる。
このアプローチをDeepMind Control Suite、Atari、MiniGridベンチマークで評価する。
論文 参考訳(メタデータ) (2022-05-02T14:42:05Z) - Supervision by Denoising for Medical Image Segmentation [17.131944478890293]
そこで我々は,自身のソフトラベルを用いてモデルを監督するフレームワークであるSUD(Superervision by Denoising)を提案する。
SUDは平均的および空間的デノナイジング技術をデノナイジングフレームワークで統合し、デノナイジングとモデルウェイト更新のステップを交互に行う。
応用例として,バイオメディカルイメージングによる2つの問題にSUDを適用した。
論文 参考訳(メタデータ) (2022-02-07T05:29:16Z) - Reducing Catastrophic Forgetting in Self Organizing Maps with
Internally-Induced Generative Replay [67.50637511633212]
生涯学習エージェントは、パターン知覚データの無限のストリームから継続的に学習することができる。
適応するエージェントを構築する上での歴史的難しさの1つは、ニューラルネットワークが新しいサンプルから学ぶ際に、以前取得した知識を維持するのに苦労していることである。
この問題は破滅的な忘れ(干渉)と呼ばれ、今日の機械学習の領域では未解決の問題のままである。
論文 参考訳(メタデータ) (2021-12-09T07:11:14Z) - Improving Music Performance Assessment with Contrastive Learning [78.8942067357231]
本研究では,既存のMPAシステムを改善するための潜在的手法として,コントラスト学習について検討する。
畳み込みニューラルネットワークに適用された回帰タスクに適した重み付きコントラスト損失を導入する。
この結果から,MPA回帰タスクにおいて,コントラッシブ・ベースの手法がSoTA性能に適合し,超越できることが示唆された。
論文 参考訳(メタデータ) (2021-08-03T19:24:25Z) - Self-Adaptive Training: Bridging the Supervised and Self-Supervised
Learning [16.765461276790944]
自己適応型トレーニングは、追加の計算コストを課すことなく、モデル予測によってトレーニングプロセスを動的にキャリブレーションし、強化する統一型トレーニングアルゴリズムです。
ランダムノイズや敵対的な例など、破損したトレーニングデータの深層ネットワークのトレーニングダイナミクスを分析します。
分析の結果, モデル予測はデータ中の有用な情報量を拡大することが可能であり, 強調ラベル情報がない場合にも広く発生することがわかった。
論文 参考訳(メタデータ) (2021-01-21T17:17:30Z) - Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain [104.38824285741248]
ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
本研究では,これらの補助サンプルをフライ時に生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用されます。
論文 参考訳(メタデータ) (2020-06-22T15:07:06Z) - Provably Efficient Causal Reinforcement Learning with Confounded
Observational Data [135.64775986546505]
オフラインで収集されたデータセット(観測データ)を組み込んで、オンライン環境でのサンプル効率を改善する方法について検討する。
提案手法は,観測データを効率よく組み込んだ,分解された楽観的値反復 (DOVI) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-22T14:49:33Z) - Supervised Learning of Sparsity-Promoting Regularizers for Denoising [13.203765985718205]
本稿では,画像復調のための疎度促進型正規化器の教師あり学習法を提案する。
実験の結果,提案手法はよく知られた正規化器よりも優れた演算子を学習できることがわかった。
論文 参考訳(メタデータ) (2020-06-09T21:38:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。