論文の概要: Self-supervised learning for phase retrieval
- arxiv url: http://arxiv.org/abs/2509.26203v1
- Date: Tue, 30 Sep 2025 13:06:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.543288
- Title: Self-supervised learning for phase retrieval
- Title(参考訳): 位相探索のための自己教師型学習
- Authors: Victor Sechaud, Patrice Abry, Laurent Jacques, Julián Tachella,
- Abstract要約: 逆イメージング問題の解決策として、ディープニューラルネットワークが登場した。
医学と科学的イメージングでは、完全なサンプルデータがないため、教師付き学習が制限される。
この制限を克服する自己管理手法を提案する。
- 参考スコア(独自算出の注目度): 15.223658462501893
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, deep neural networks have emerged as a solution for inverse imaging problems. These networks are generally trained using pairs of images: one degraded and the other of high quality, the latter being called 'ground truth'. However, in medical and scientific imaging, the lack of fully sampled data limits supervised learning. Recent advances have made it possible to reconstruct images from measurement data alone, eliminating the need for references. However, these methods remain limited to linear problems, excluding non-linear problems such as phase retrieval. We propose a self-supervised method that overcomes this limitation in the case of phase retrieval by using the natural invariance of images to translations.
- Abstract(参考訳): 近年,逆画像問題に対する解法としてディープニューラルネットワークが登場している。
これらのネットワークは通常、画像のペアを使って訓練される: 1つは劣化し、もう1つは高品質で、後者は「地下真実」と呼ばれる。
しかし、医学や科学的イメージングでは、完全なサンプルデータがないため教師付き学習が制限される。
近年の進歩により、計測データのみから画像の再構成が可能となり、参照の必要がなくなった。
しかし、これらの手法は相検索などの非線形問題を除いて線形問題に限られている。
本稿では, 画像から翻訳への自然な不変性を利用して, この制限を克服する自己教師型手法を提案する。
関連論文リスト
- Scale-Equivariant Imaging: Self-Supervised Learning for Image Super-Resolution and Deblurring [9.587978273085296]
自己監督法は, 様々な画像逆問題において, 教師付き法と同程度に有効であることが最近証明された。
本稿では,多くの画像分布がほぼ不変であるという事実を活かした,新たな自己教師型手法であるスケール不変イメージングを提案する。
提案手法が他の自己教師型手法より優れていることを示す実データセットに関する一連の実験を行った。
論文 参考訳(メタデータ) (2023-12-18T14:30:54Z) - Self-Supervised Training with Autoencoders for Visual Anomaly Detection [61.62861063776813]
我々は, 正規サンプルの分布を低次元多様体で支持する異常検出において, 特定のユースケースに焦点を当てた。
我々は、訓練中に識別情報を活用する自己指導型学習体制に適応するが、通常の例のサブ多様体に焦点をあてる。
製造領域における視覚異常検出のための挑戦的なベンチマークであるMVTec ADデータセットで、最先端の新たな結果を達成する。
論文 参考訳(メタデータ) (2022-06-23T14:16:30Z) - Learning Discriminative Shrinkage Deep Networks for Image Deconvolution [122.79108159874426]
本稿では,これらの用語を暗黙的にモデル化する識別的縮小関数を学習することで,効果的に非盲検デコンボリューション手法を提案する。
実験結果から,提案手法は最先端の手法に対して,効率と精度の点で好適に動作することがわかった。
論文 参考訳(メタデータ) (2021-11-27T12:12:57Z) - Is Deep Image Prior in Need of a Good Education? [57.3399060347311]
画像再構成に有効な先行画像として, 奥行き画像が導入された。
その印象的な再建性にもかかわらず、学習技術や伝統的な再建技術と比べてアプローチは遅い。
計算課題に対処する2段階の学習パラダイムを開発する。
論文 参考訳(メタデータ) (2021-11-23T15:08:26Z) - AutoPhaseNN: Unsupervised Physics-aware Deep Learning of 3D Nanoscale
Coherent Imaging [5.745058078090997]
位相探索の問題は天文学からナノスケールイメージングまで様々なイメージング手法を基礎にしている。
伝統的な位相探索法は本質的に反復的であり、計算に高価で時間を要する。
DLモデルは、学習前の反復位相検索または測定強度のみからの位相情報を置き換える。
論文 参考訳(メタデータ) (2021-09-28T21:16:34Z) - Generative Adversarial U-Net for Domain-free Medical Image Augmentation [49.72048151146307]
注釈付き医用画像の不足は、医用画像コンピューティングの分野における最大の課題の1つだ。
本稿では,生成逆U-Netという新しい生成手法を提案する。
当社の新しいモデルは、ドメインフリーで、さまざまな医療画像に汎用性があります。
論文 参考訳(メタデータ) (2021-01-12T23:02:26Z) - Anomaly Detection in Medical Imaging with Deep Perceptual Autoencoders [1.7277957019593995]
画像異常検出の新しい強力な手法を提案する。
これは、再設計されたトレーニングパイプラインを備えた古典的なオートエンコーダアプローチに依存している。
複雑な医用画像解析タスクにおける最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2020-06-23T18:45:55Z) - Data Consistent CT Reconstruction from Insufficient Data with Learned
Prior Images [70.13735569016752]
偽陰性病変と偽陽性病変を呈示し,CT画像再構成における深層学習の堅牢性について検討した。
本稿では,圧縮センシングと深層学習の利点を組み合わせた画像品質向上のためのデータ一貫性再構築手法を提案する。
提案手法の有効性は,円錐ビームCTにおいて,トランキャットデータ,リミテッドアングルデータ,スパースビューデータで示される。
論文 参考訳(メタデータ) (2020-05-20T13:30:49Z) - Applications of Deep Learning for Ill-Posed Inverse Problems Within
Optical Tomography [0.0]
医療画像の場合、古典的な逆ラドン変換は、測定されたデータからクリーンなイメージを回復するのにうまく機能する。
本稿では,X線CTの逆問題に対する古典的解法の歴史を考察するとともに,教師付き深層学習を利用した手法の現状分析を行った。
論文 参考訳(メタデータ) (2020-03-21T12:54:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。