論文の概要: Better Coherence, Better Height: Fusing Physical Models and Deep Learning for Forest Height Estimation from Interferometric SAR Data
- arxiv url: http://arxiv.org/abs/2504.10395v1
- Date: Mon, 14 Apr 2025 16:44:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-15 16:51:19.716064
- Title: Better Coherence, Better Height: Fusing Physical Models and Deep Learning for Forest Height Estimation from Interferometric SAR Data
- Title(参考訳): 干渉SARデータを用いた森林高度推定のための物理モデルと深層学習のためのコヒーレンス、高層化
- Authors: Ragini Bal Mahesh, Ronny Hänsch,
- Abstract要約: SAR(Synthetic Aperture Radar)の画像から森林の高さを推定することは、しばしば伝統的な物理モデルに依存している。
対照的に、ディープラーニング(DL)アプローチは物理的な洞察を欠いている。
我々は,両世界の長所を兼ね備えたエンドツーエンドフレームワークであるCoHNetを提案する。
- 参考スコア(独自算出の注目度): 3.4969500534598428
- License:
- Abstract: Estimating forest height from Synthetic Aperture Radar (SAR) images often relies on traditional physical models, which, while interpretable and data-efficient, can struggle with generalization. In contrast, Deep Learning (DL) approaches lack physical insight. To address this, we propose CoHNet - an end-to-end framework that combines the best of both worlds: DL optimized with physics-informed constraints. We leverage a pre-trained neural surrogate model to enforce physical plausibility through a unique training loss. Our experiments show that this approach not only improves forest height estimation accuracy but also produces meaningful features that enhance the reliability of predictions.
- Abstract(参考訳): SAR(Synthetic Aperture Radar)の画像から森林の高さを推定することは、解釈可能でデータ効率の悪い従来の物理モデルに依存することが多い。
対照的に、ディープラーニング(DL)アプローチは物理的な洞察を欠いている。
これを解決するために,我々は,両世界の長所を兼ね備えたエンドツーエンドフレームワークであるCoHNetを提案する。
我々は、トレーニング前のニューラルネットワークサロゲートモデルを利用して、ユニークなトレーニング損失を通じて物理的な可視性を強制する。
本実験により,本手法は森林高度推定精度を向上させるだけでなく,予測の信頼性を高める有意義な特徴も生み出すことが示された。
関連論文リスト
- Towards Precision in Bolted Joint Design: A Preliminary Machine Learning-Based Parameter Prediction [0.0]
ボルト接合部は、構造的整合性と信頼性を維持するために工学的に重要である。
従来の方法では、ボルト付きジョイントの非線形挙動を捉えることができないことが多い。
本研究では、負荷容量と摩擦係数を予測するために、経験的データとフィードフォワードニューラルネットワークを組み合わせる。
論文 参考訳(メタデータ) (2024-12-11T11:00:39Z) - Adversarial Robustification via Text-to-Image Diffusion Models [56.37291240867549]
アドリラルロバスト性は、ニューラルネットワークをエンコードする難しい性質として伝統的に信じられてきた。
データを使わずに敵の堅牢性を実現するために,スケーラブルでモデルに依存しないソリューションを開発した。
論文 参考訳(メタデータ) (2024-07-26T10:49:14Z) - Analyzing and Exploring Training Recipes for Large-Scale Transformer-Based Weather Prediction [1.3194391758295114]
比較的オフ・ザ・シェルフアーキテクチャ、簡単な訓練手順、適度な計算予算でも高い予測能力が得られることを示す。
具体的には、ERA5データに基づいて最小修正SwinV2変換器をトレーニングし、IFSと比較すると優れた予測技術が得られることを確かめる。
論文 参考訳(メタデータ) (2024-04-30T15:30:14Z) - Iterative Data Smoothing: Mitigating Reward Overfitting and
Overoptimization in RLHF [79.98542868281471]
強化学習(Reinforcement Learning from Human Feedback, RLHF)は、言語モデルを人間中心の値と密接に整合させる手法である。
学習した報奨モデルに対して過度に最適化すると、最終的には真の目的が損なわれることが観察された。
本稿では、これらの問題を考察し、「Iterative Data Smoothing」(IDS)と呼ばれる改良された報酬学習アルゴリズムの設計に理論的知見を活用する。
論文 参考訳(メタデータ) (2024-01-29T17:43:42Z) - Physics Inspired Hybrid Attention for SAR Target Recognition [61.01086031364307]
本稿では,物理にヒントを得たハイブリットアテンション(PIHA)機構と,この問題に対処するためのOFA評価プロトコルを提案する。
PIHAは、物理的情報の高レベルなセマンティクスを活用して、ターゲットの局所的なセマンティクスを認識した特徴群を活性化し、誘導する。
提案手法は,ASCパラメータが同じ12のテストシナリオにおいて,他の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2023-09-27T14:39:41Z) - Forest Parameter Prediction by Multiobjective Deep Learning of
Regression Models Trained with Pseudo-Target Imputation [6.853936752111048]
リモートセンシングデータを用いた森林パラメータの予測において、回帰モデルは、伝統的に地上基準データの小さなサンプルに基づいて訓練されてきた。
本稿では, 擬似ターゲットとみなす既存の RS ベースの予測マップからのデータを用いて, この真の予測対象のサンプルをインプットする。
我々は、空中レーザー走査(ALS)データから構築された予測マップを用いて、正確な擬似ターゲットと、Sentinel-1のCバンド合成開口レーダ(SAR)のデータを回帰器として提供する。
論文 参考訳(メタデータ) (2023-06-19T18:10:47Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - Towards Inadequately Pre-trained Models in Transfer Learning [37.66278189011681]
より優れたImageNet事前訓練モデルでは、下流タスクへの転送性が向上することが示されている。
本稿では,同じ事前学習過程において,十分に訓練されていない中新世のモデルが,完全に訓練されたモデルより優れていることを示す。
我々の発見は、事前学習中、モデルはまず大きな特異値に対応するスペクトル成分を学習する傾向があることを示唆している。
論文 参考訳(メタデータ) (2022-03-09T12:15:55Z) - A Simple Fine-tuning Is All You Need: Towards Robust Deep Learning Via
Adversarial Fine-tuning [90.44219200633286]
我々は,$textitslow start, fast decay$ learning rate schedulingストラテジーに基づく,単純かつ非常に効果的な敵の微調整手法を提案する。
実験の結果,提案手法はCIFAR-10, CIFAR-100, ImageNetデータセットの最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-25T20:50:15Z) - Bayesian Optimization Meets Laplace Approximation for Robotic
Introspection [41.117361086267806]
本稿では,Deep Neural Networks(DNN)をよりイントロスペクティブにするために,スケーラブルなLaplace Approximation (LA)技術を導入する。
特に,本論文では,真の重み付け後部を過小評価する傾向を緩和する新しいベイズ最適化(BO)アルゴリズムを提案する。
提案するフレームワークは,大規模データセットやアーキテクチャにまで拡張可能であることを示す。
論文 参考訳(メタデータ) (2020-10-30T09:28:10Z) - Learnable Bernoulli Dropout for Bayesian Deep Learning [53.79615543862426]
Learnable Bernoulli Dropout (LBD) は、他のモデルパラメータと共に最適化されたパラメータとしてドロップアウト率を考慮する新しいモデルに依存しないドロップアウトスキームである。
LBDは画像分類とセマンティックセグメンテーションにおける精度と不確実性の推定を改善する。
論文 参考訳(メタデータ) (2020-02-12T18:57:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。