論文の概要: Explainable, Physics Aware, Trustworthy AI Paradigm Shift for Synthetic
Aperture Radar
- arxiv url: http://arxiv.org/abs/2301.03589v1
- Date: Mon, 9 Jan 2023 09:22:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 16:19:12.461624
- Title: Explainable, Physics Aware, Trustworthy AI Paradigm Shift for Synthetic
Aperture Radar
- Title(参考訳): 合成開口レーダのための説明可能な物理認識、信頼できるAIパラダイムシフト
- Authors: Mihai Datcu, Zhongling Huang, Andrei Anghel, Juanping Zhao, Remus
Cacoveanu
- Abstract要約: 本稿では,SAR(Synthetic Aperture Radar)データを対象としたデータサイエンスにおける説明可能性のパラダイム変更を提案する。
明確に確立されたモデルに基づいた説明可能なデータ変換を使用して、AIメソッドのインプットを生成することを目指している。
- 参考スコア(独自算出の注目度): 5.164409209168982
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The recognition or understanding of the scenes observed with a SAR system
requires a broader range of cues, beyond the spatial context. These encompass
but are not limited to: imaging geometry, imaging mode, properties of the
Fourier spectrum of the images or the behavior of the polarimetric signatures.
In this paper, we propose a change of paradigm for explainability in data
science for the case of Synthetic Aperture Radar (SAR) data to ground the
explainable AI for SAR. It aims to use explainable data transformations based
on well-established models to generate inputs for AI methods, to provide
knowledgeable feedback for training process, and to learn or improve
high-complexity unknown or un-formalized models from the data. At first, we
introduce a representation of the SAR system with physical layers: i)
instrument and platform, ii) imaging formation, iii) scattering signatures and
objects, that can be integrated with an AI model for hybrid modeling.
Successively, some illustrative examples are presented to demonstrate how to
achieve hybrid modeling for SAR image understanding. The perspective of
trustworthy model and supplementary explanations are discussed later. Finally,
we draw the conclusion and we deem the proposed concept has applicability to
the entire class of coherent imaging sensors and other computational imaging
systems.
- Abstract(参考訳): SARシステムで観察されるシーンの認識や理解には、空間的文脈を超えた幅広い手がかりが必要である。
これらの包含は、撮像幾何学、撮像モード、画像のフーリエスペクトルの性質、ポラリメトリックシグネチャの挙動などに限定されない。
本稿では,SAR(Synthetic Aperture Radar)データに対するデータサイエンスにおける説明可能性に関するパラダイムの変更を提案する。
明確に確立されたモデルに基づいた説明可能なデータ変換を使用して、AIメソッドのインプットを生成し、トレーニングプロセスのための知識豊富なフィードバックを提供し、データから未知または非形式化された高複雑性モデルを学び、改善することを目指している。
まず,sarシステムの物理層による表現について紹介する。
一 機器及びプラットフォーム
ii) 画像形成
三 ハイブリッドモデリングのためのaiモデルと統合することができる散乱シグネチャ及びオブジェクト
続いて,sar画像理解のためのハイブリッドモデリングを実現する方法について,いくつかの例を示す。
信頼性モデルと補足的な説明については後述する。
最後に、その結論を導き、提案概念がコヒーレント画像センサや他の計算画像システムの全クラスに適用可能であるとみなす。
関連論文リスト
- Generative Artificial Intelligence Meets Synthetic Aperture Radar: A Survey [49.29751866761522]
本稿では,GenAIとSARの交差点について検討する。
まず、SAR分野における一般的なデータ生成ベースのアプリケーションについて説明する。
次に、最新のGenAIモデルの概要を体系的にレビューする。
最後に、SARドメインの対応するアプリケーションも含まれる。
論文 参考訳(メタデータ) (2024-11-05T03:06:00Z) - Electrooptical Image Synthesis from SAR Imagery Using Generative Adversarial Networks [0.0]
本研究は,SAR画像とEO画像のギャップを埋めることでリモートセンシングの分野に寄与する。
その結果,解釈可能性が大きく向上し,EO画像に精通したアナリストがSARデータにアクセスしやすくなった。
本研究は,SAR画像とEO画像のギャップを埋めることでリモートセンシングの分野に寄与し,データ解釈を向上するための新しいツールを提供する。
論文 参考訳(メタデータ) (2024-09-07T14:31:46Z) - SAR to Optical Image Translation with Color Supervised Diffusion Model [5.234109158596138]
本稿では,SAR画像をより分かりやすい光学画像に変換するために,革新的な生成モデルを提案する。
サンプリングプロセスでは,SARイメージを条件付きガイドとして使用し,カラーシフト問題に対処するために色管理を統合する。
論文 参考訳(メタデータ) (2024-07-24T01:11:28Z) - SODA: Bottleneck Diffusion Models for Representation Learning [75.7331354734152]
本稿では,表現学習のための自己教師付き拡散モデルSODAを紹介する。
このモデルには、ソースビューをコンパクトな表現に蒸留するイメージエンコーダが組み込まれており、関連する新規ビューの生成を導く。
エンコーダと復調復調復調復調復調復調復調復調復号器の密集ボトルネックを付与することにより,拡散モデルを強力な表現学習器に変換することができることを示す。
論文 参考訳(メタデータ) (2023-11-29T18:53:34Z) - HawkI: Homography & Mutual Information Guidance for 3D-free Single Image to Aerial View [67.8213192993001]
本稿では,テキストと模範画像から空中視像を合成するためのHawkeIを提案する。
HawkIは、予め訓練されたテキストから2次元の安定拡散モデルに入力画像からの視覚的特徴をブレンドする。
推測において、HawkeIは、入力画像の意味的詳細を忠実に複製するために生成されたイメージを操るために、ユニークな相互情報ガイダンスの定式化を用いる。
論文 参考訳(メタデータ) (2023-11-27T01:41:25Z) - SatDM: Synthesizing Realistic Satellite Image with Semantic Layout
Conditioning using Diffusion Models [0.0]
Denoising Diffusion Probabilistic Models (DDPM) は意味的レイアウトから現実的なイメージを合成する上で大きな可能性を証明している。
本稿では,セマンティックマップを用いて高品質で多様な衛星画像を生成する条件付きDDPMモデルを提案する。
提案モデルの有効性は,本研究の文脈内で導入した詳細なラベル付きデータセットを用いて検証する。
論文 参考訳(メタデータ) (2023-09-28T19:39:13Z) - Person Image Synthesis via Denoising Diffusion Model [116.34633988927429]
本研究では,高忠実度人物画像合成に拡散モデルをいかに応用できるかを示す。
2つの大規模ベンチマークとユーザスタディの結果は、挑戦的なシナリオ下で提案したアプローチのフォトリアリズムを実証している。
論文 参考訳(メタデータ) (2022-11-22T18:59:50Z) - DiVAE: Photorealistic Images Synthesis with Denoising Diffusion Decoder [73.1010640692609]
本稿では,拡散デコーダ(DiVAE)を用いたVQ-VAEアーキテクチャモデルを提案する。
我々のモデルは最先端の成果を達成し、さらに多くのフォトリアリスティックな画像を生成する。
論文 参考訳(メタデータ) (2022-06-01T10:39:12Z) - Conditional Generation of Synthetic Geospatial Images from Pixel-level
and Feature-level Inputs [0.0]
画素レベル条件 (PLC) と特徴レベル条件 (FLC) を同時に条件付きで合成する条件生成モデル VAE-Info-cGAN を提案する。
提案モデルでは,道路網の時間的表現のみを条件に,異なる地理的位置をまたいだ様々な形態のマクロアグリゲーションを高精度に生成することができる。
論文 参考訳(メタデータ) (2021-09-11T06:58:19Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - VAE-Info-cGAN: Generating Synthetic Images by Combining Pixel-level and
Feature-level Geospatial Conditional Inputs [0.0]
画素レベル(PLC)と特徴レベル(FLC)を同時に条件付けした意味的リッチな画像を合成するための条件生成モデルを提案する。
GPSデータセットを用いた実験では,提案モデルが地理的に異なる場所にまたがる様々な形態のマクロアグリゲーションを正確に生成できることが示されている。
論文 参考訳(メタデータ) (2020-12-08T03:46:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。