論文の概要: The False Promise of Zero-Shot Super-Resolution in Machine-Learned Operators
- arxiv url: http://arxiv.org/abs/2510.06646v1
- Date: Wed, 08 Oct 2025 04:59:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.303468
- Title: The False Promise of Zero-Shot Super-Resolution in Machine-Learned Operators
- Title(参考訳): 機械学習者におけるゼロショット超解像のFalse Promise
- Authors: Mansi Sakarvadia, Kareem Hegazy, Amin Totounferoush, Kyle Chard, Yaoqing Yang, Ian Foster, Michael W. Mahoney,
- Abstract要約: このモデリング目標を達成する手段として,機械学習演算子 (MLOs) が導入された。
我々は、このアーキテクチャの革新が「ゼロショット超解像」を行うのに十分かどうかを評価する。
本稿では,エイリアス処理を克服する,単純で計算効率が高く,データ駆動型マルチレゾリューショントレーニングプロトコルを提案する。
- 参考スコア(独自算出の注目度): 40.437780915087686
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A core challenge in scientific machine learning, and scientific computing more generally, is modeling continuous phenomena which (in practice) are represented discretely. Machine-learned operators (MLOs) have been introduced as a means to achieve this modeling goal, as this class of architecture can perform inference at arbitrary resolution. In this work, we evaluate whether this architectural innovation is sufficient to perform "zero-shot super-resolution," namely to enable a model to serve inference on higher-resolution data than that on which it was originally trained. We comprehensively evaluate both zero-shot sub-resolution and super-resolution (i.e., multi-resolution) inference in MLOs. We decouple multi-resolution inference into two key behaviors: 1) extrapolation to varying frequency information; and 2) interpolating across varying resolutions. We empirically demonstrate that MLOs fail to do both of these tasks in a zero-shot manner. Consequently, we find MLOs are not able to perform accurate inference at resolutions different from those on which they were trained, and instead they are brittle and susceptible to aliasing. To address these failure modes, we propose a simple, computationally-efficient, and data-driven multi-resolution training protocol that overcomes aliasing and that provides robust multi-resolution generalization.
- Abstract(参考訳): 科学機械学習における中核的な課題は、(実際には)個別に表現される連続現象をモデル化することである。
機械学習演算子(MLO)はこのモデリング目標を達成する手段として導入されており、このアーキテクチャのクラスは任意の解像度で推論を行うことができる。
本研究では、このアーキテクチャの革新が「ゼロショット超解像」を実行するのに十分であるかどうかを評価する。
MLOにおけるゼロショットサブレゾリューションとスーパーレゾリューション(マルチレゾリューション)の両方の推論を包括的に評価する。
多分解能推論を2つの重要な振る舞いに分解する。
1) 各種周波数情報に対する外挿
2)様々な解像度で補間する。
MLOが両方のタスクをゼロショットで実行できないことを実証的に実証する。
その結果、MLOは訓練されたものと異なる解像度で正確な推論を行うことができず、代わりに脆弱でエイリアスに敏感であることがわかった。
これらの障害モードに対処するために、エイリアスを克服し、堅牢なマルチ解像度一般化を提供する、単純で、計算効率が高く、データ駆動型マルチ解像度トレーニングプロトコルを提案する。
関連論文リスト
- RARE-UNet: Resolution-Aligned Routing Entry for Adaptive Medical Image Segmentation [0.0]
本稿では,入力の空間分解能にその推論経路を適応させる,分解能を考慮したマルチスケールセグメンテーションアーキテクチャを提案する。
RARE-UNetは、海馬と腫瘍のセグメンテーションのための2つのベンチマーク脳イメージングタスクでテストされている。
本モデルでは,高精細度における平均Diceスコアが0.84と0.65であり,一貫した性能を維持しつつ,低精細度での推論時間を著しく短縮する。
論文 参考訳(メタデータ) (2025-07-21T11:49:20Z) - Fast and Interpretable Mixed-Integer Linear Program Solving by Learning Model Reduction [24.3088703166792]
本稿では,MILPの縮小モデルと等価モデルを中間段階として学習することを目的とする。
縮小モデルはしばしば解釈可能な操作に対応しており、既存の商用解法よりもはるかに高速に大規模MILP問題を解くことができる。
本稿では,モデル縮小学習タスクの性能向上に寄与する嗜好情報を捕捉し,表現するための注意機構を提案する。
論文 参考訳(メタデータ) (2024-12-31T06:50:42Z) - LLM-based Cognitive Models of Students with Misconceptions [55.29525439159345]
本稿では,この2つの要件を満たすためにLLM(Large Language Models)を命令調整できるかどうかを検討する。
真正な学生ソリューションパターンを反映したデータセットを生成する新しいPythonライブラリであるMalAlgoPyを紹介する。
我々の洞察は、AIに基づく学生モデルの理解を高め、効果的な適応学習システムへの道を開く。
論文 参考訳(メタデータ) (2024-10-16T06:51:09Z) - On Discriminative Probabilistic Modeling for Self-Supervised Representation Learning [85.75164588939185]
本研究では,(マルチモーダル)自己教師型表現学習のデータ予測タスクにおいて,連続領域における識別確率モデルについて検討する。
我々は、自己教師付き表現学習における現在のInfoNCEに基づくコントラスト損失の制限を明らかにするために一般化誤差解析を行う。
MISが要求する条件付き確率密度の和を近似する新しい非パラメトリック手法を提案する。
論文 参考訳(メタデータ) (2024-10-11T18:02:46Z) - Co-learning Single-Step Diffusion Upsampler and Downsampler with Two Discriminators and Distillation [28.174638880324014]
超解像度(SR)は、高解像度(HR)画像を低解像度(LR)画像から再構成することを目的としている。
単段階拡散に基づくアップサンプラーと学習可能なダウンサンプラーを協調的に最適化するコラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-10T07:12:46Z) - Successive Refinement in Large-Scale Computation: Advancing Model
Inference Applications [67.76749044675721]
階層化分解能計算の解を導入する。
これらの解により、最終結果よりも早い段階でより解像度の低い結果が得られる。
論文 参考訳(メタデータ) (2024-02-11T15:36:33Z) - DFU: scale-robust diffusion model for zero-shot super-resolution image
generation [15.689418447376587]
複数の解像度で空間情報とスペクトル情報を組み合わせることでスコア演算子を近似する新しいディープラーニングアーキテクチャDual-FNO UNet(DFU)を提案する。
本稿では,FIDをFFHQの最大トレーニング解像度の1.66倍の1.66倍の1.3倍の精度で達成し,ゼロショット超解像画像生成能力をさらに高めるための微調整戦略を提案する。
論文 参考訳(メタデータ) (2023-11-30T23:31:33Z) - An Online Method for A Class of Distributionally Robust Optimization
with Non-Convex Objectives [54.29001037565384]
本稿では,オンライン分散ロバスト最適化(DRO)のクラスを解決するための実用的なオンライン手法を提案する。
本研究は,ネットワークの堅牢性向上のための機械学習における重要な応用を実証する。
論文 参考訳(メタデータ) (2020-06-17T20:19:25Z) - Learning What to Defer for Maximum Independent Sets [84.00112106334655]
本稿では,各段階における解の要素的決定を学習することにより,エージェントが適応的に段階数を縮小あるいは拡張する,新たなDRL方式を提案する。
提案手法を最大独立集合(MIS)問題に適用し、現状のDRL方式よりも大幅に改善したことを示す。
論文 参考訳(メタデータ) (2020-06-17T02:19:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。