論文の概要: Uncertainty-Aware Regression for Socio-Economic Estimation via Multi-View Remote Sensing
- arxiv url: http://arxiv.org/abs/2411.14119v1
- Date: Thu, 21 Nov 2024 13:42:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-22 15:19:01.470595
- Title: Uncertainty-Aware Regression for Socio-Economic Estimation via Multi-View Remote Sensing
- Title(参考訳): 多視点リモートセンシングによる社会経済評価の不確実性認識の回帰
- Authors: Fan Yang, Sahoko Ishida, Mengyan Zhang, Daniel Jenson, Swapnil Mishra, Jhonathan Navott, Seth Flaxman,
- Abstract要約: 3つのスペクトルバンドの組み合わせを用いてリモートセンシング画像を処理する新しいフレームワークを提案する。
我々のフレームワークは、不確実な予測を識別し、将来の真理データ取得を導くのに役立ちます。
- 参考スコア(独自算出の注目度): 4.787295791127483
- License:
- Abstract: Remote sensing imagery offers rich spectral data across extensive areas for Earth observation. Many attempts have been made to leverage these data with transfer learning to develop scalable alternatives for estimating socio-economic conditions, reducing reliance on expensive survey-collected data. However, much of this research has primarily focused on daytime satellite imagery due to the limitation that most pre-trained models are trained on 3-band RGB images. Consequently, modeling techniques for spectral bands beyond the visible spectrum have not been thoroughly investigated. Additionally, quantifying uncertainty in remote sensing regression has been less explored, yet it is essential for more informed targeting and iterative collection of ground truth survey data. In this paper, we introduce a novel framework that leverages generic foundational vision models to process remote sensing imagery using combinations of three spectral bands to exploit multi-spectral data. We also employ methods such as heteroscedastic regression and Bayesian modeling to generate uncertainty estimates for the predictions. Experimental results demonstrate that our method outperforms existing models that use RGB or multi-spectral models with unstructured band usage. Moreover, our framework helps identify uncertain predictions, guiding future ground truth data acquisition.
- Abstract(参考訳): リモートセンシング画像は、地球観測のために広範囲にわたる豊富なスペクトルデータを提供する。
これらのデータを転送学習に活用して、社会経済的条件を推定するスケーラブルな代替手段を開発し、高価な調査収集データへの依存を減らすために、多くの試みがなされている。
しかし、この研究の多くは、ほとんどの事前訓練されたモデルは3バンドのRGB画像で訓練されているため、昼間の衛星画像に重点を置いている。
その結果、可視スペクトルを超えるスペクトル帯のモデリング技術は十分に研究されていない。
さらに、リモートセンシング回帰における不確かさの定量化は研究されていないが、より情報のあるターゲティングと地上真実調査データの反復的収集には不可欠である。
本稿では,3つのスペクトルバンドの組み合わせによるリモートセンシング画像の処理に,汎用的な基礎的視覚モデルを活用する新しいフレームワークを提案する。
また,不確実性推定を予測するために,不均一回帰法やベイズモデルなどの手法を用いる。
実験により,RGBモデルやマルチスペクトルモデルを用いた非構造帯域を用いた既存モデルよりも優れた性能を示した。
さらに,本フレームワークは不確実な予測を識別し,将来的な真理データ取得を支援する。
関連論文リスト
- Cross-Spectral Attention for Unsupervised RGB-IR Face Verification and Person Re-identification [1.6768151308423365]
可視光(RGB)や赤外線(IR)バンドからの顔や人の画像のマッチングなどの分光バイオメトリクスは、過去10年間で急速に進歩してきた。
本稿では,(1)新しい擬似三重項損失とクロススペクトル投票,(2)複数の部分空間を利用した新しいクロススペクトルアテンションネットワーク,(3)より識別性の高いクロススペクトルクラスタリングを実現するための構造化された空間性を提案する。
論文 参考訳(メタデータ) (2024-11-28T15:38:15Z) - UncertaintyRAG: Span-Level Uncertainty Enhanced Long-Context Modeling for Retrieval-Augmented Generation [93.38604803625294]
IncertaintyRAG, a novel approach for long-context Retrieval-Augmented Generation (RAG)について紹介する。
我々は、SNR(Signal-to-Noise Ratio)ベースのスパン不確実性を用いて、テキストチャンク間の類似性を推定する。
不確かさRAGはLLaMA-2-7Bでベースラインを2.03%上回り、最先端の結果を得る。
論文 参考訳(メタデータ) (2024-10-03T17:39:38Z) - RAD: A Dataset and Benchmark for Real-Life Anomaly Detection with Robotic Observations [18.23500204496233]
Realistic Anomaly Detection データセット(RAD)は、実際のロボットアームを使用して特別に収集された最初のマルチビューRGBベースの異常検出データセットである。
RADは、13のカテゴリにわたる4765のイメージと、50以上の視点から収集された4つの欠陥タイプで構成されている。
ポーズ推定の精度を向上し、3次元点雲の再構成を容易にするためのデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2024-10-01T14:05:35Z) - Thinking Racial Bias in Fair Forgery Detection: Models, Datasets and Evaluations [63.52709761339949]
最初に、Fair Forgery Detection(FairFD)データセットと呼ばれる専用のデータセットをコントリビュートし、SOTA(Public State-of-the-art)メソッドの人種的偏見を証明する。
我々は、偽りの結果を避けることができる平均的メトリクスと実用正規化メトリクスを含む新しいメトリクスを設計する。
また,有効で堅牢な後処理技術であるBias Pruning with Fair Activations (BPFA)も提案する。
論文 参考訳(メタデータ) (2024-07-19T14:53:18Z) - RANRAC: Robust Neural Scene Representations via Random Ray Consensus [12.161889666145127]
RANRAC(RANdom RAy Consensus)は、一貫性のないデータの影響を排除するための効率的な手法である。
我々はRANSACパラダイムのファジィ適応を定式化し、大規模モデルへの適用を可能にした。
その結果, 新規な視点合成のための最先端のロバストな手法と比較して, 顕著な改善が見られた。
論文 参考訳(メタデータ) (2023-12-15T13:33:09Z) - Autoregressive Uncertainty Modeling for 3D Bounding Box Prediction [63.3021778885906]
3Dバウンディングボックスは、多くのコンピュータビジョンアプリケーションで広く使われている中間表現である。
本稿では,自己回帰モデルを利用して高い信頼度予測と意味のある不確実性対策を行う手法を提案する。
我々はシミュレーションデータセットであるCOB-3Dをリリースし、現実世界のロボティクスアプリケーションで発生する新しいタイプのあいまいさを強調します。
論文 参考訳(メタデータ) (2022-10-13T23:57:40Z) - Inertial Hallucinations -- When Wearable Inertial Devices Start Seeing
Things [82.15959827765325]
環境支援型生活(AAL)のためのマルチモーダルセンサフュージョンの新しいアプローチを提案する。
我々は、標準マルチモーダルアプローチの2つの大きな欠点、限られた範囲のカバレッジ、信頼性の低下に対処する。
我々の新しいフレームワークは、三重項学習によるモダリティ幻覚の概念を融合させ、異なるモダリティを持つモデルを訓練し、推論時に欠落したセンサーに対処する。
論文 参考訳(メタデータ) (2022-07-14T10:04:18Z) - Statistics and Deep Learning-based Hybrid Model for Interpretable
Anomaly Detection [0.0]
ハイブリッド手法は、予測タスクと予測タスクの両方において、純粋統計的および純粋深層学習法より優れていることが示されている。
MES-LSTMは、これらの課題を克服する解釈可能な異常検出モデルである。
論文 参考訳(メタデータ) (2022-02-25T14:17:03Z) - The Lifecycle of a Statistical Model: Model Failure Detection,
Identification, and Refitting [26.351782287953267]
モデル性能が低下し始めた共変量空間(サブポピュレーション)の領域を検出し同定するためのツールと理論を開発した。
実世界の3つのデータセットを用いて実験結果を示す。
我々はこれらの実験結果を補足し、我々の手法が異常なサブ集団の回復に最適であることを示す理論で補足する。
論文 参考訳(メタデータ) (2022-02-08T22:02:31Z) - Residual Overfit Method of Exploration [78.07532520582313]
提案手法は,2点推定値の調整と1点オーバーフィットに基づく近似探索手法を提案する。
このアプローチは、調整されたモデルと比較して、オーバーフィットモデルが最も過度な適合を示すアクションへの探索を促進する。
ROMEを3つのデータセット上の確立されたコンテキスト的帯域幅法と比較し、最も優れたパフォーマンスの1つとみなす。
論文 参考訳(メタデータ) (2021-10-06T17:05:33Z) - When Relation Networks meet GANs: Relation GANs with Triplet Loss [110.7572918636599]
GAN(Generative Adversarial Network)の学習安定性はいまだに悩みの種である
本稿では,判別器のための関係ネットワークアーキテクチャについて検討し,より優れた一般化と安定性を実現する三重項損失を設計する。
ベンチマークデータセットの実験により、提案された関係判別器と新たな損失は、可変視覚タスクに大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-02-24T11:35:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。