論文の概要: Interactive Mars Image Content-Based Search with Interpretable Machine Learning
- arxiv url: http://arxiv.org/abs/2402.16860v1
- Date: Fri, 19 Jan 2024 18:19:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 07:09:00.293397
- Title: Interactive Mars Image Content-Based Search with Interpretable Machine Learning
- Title(参考訳): 解釈可能な機械学習を用いた対話型火星画像コンテンツ検索
- Authors: Bhavan Vasu, Steven Lu, Emily Dunkel, Kiri L. Wagstaff, Kevin Grimes, Michael McAuley,
- Abstract要約: NASAのプラネタリー・データ・システム(PDS)は、多くのミッションを通じて収集された何百万もの惑星、衛星、その他の天体の画像をホストしている。
我々はプロトタイプベースのアーキテクチャを活用し、火星科学研究所のキュリオシティ・ローバー・ミッションの画像に基づいて訓練された分類器が使用するエビデンスを理解し、検証できるようにする。
本稿で紹介する作業は、PSDイメージ・アトラスに展開され、解釈不能なものを置き換える。
- 参考スコア(独自算出の注目度): 5.370310770047478
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The NASA Planetary Data System (PDS) hosts millions of images of planets, moons, and other bodies collected throughout many missions. The ever-expanding nature of data and user engagement demands an interpretable content classification system to support scientific discovery and individual curiosity. In this paper, we leverage a prototype-based architecture to enable users to understand and validate the evidence used by a classifier trained on images from the Mars Science Laboratory (MSL) Curiosity rover mission. In addition to providing explanations, we investigate the diversity and correctness of evidence used by the content-based classifier. The work presented in this paper will be deployed on the PDS Image Atlas, replacing its non-interpretable counterpart.
- Abstract(参考訳): NASAのプラネタリー・データ・システム(PDS)は、多くのミッションを通じて収集された何百万もの惑星、衛星、その他の天体の画像をホストしている。
データとユーザのエンゲージメントは、科学的な発見と個々の好奇心をサポートするために解釈可能なコンテンツ分類システムを必要とする。
本稿では,Mars Science Laboratory (MSL) Curiosity rover ミッションの画像に基づいて訓練された分類器が使用した証拠を,プロトタイプベースのアーキテクチャを用いて理解し,検証する。
説明に加えて,コンテンツベース分類器が用いた証拠の多様性と正当性についても検討する。
本稿で紹介する作業は、PSDイメージ・アトラスに展開され、解釈不能なものを置き換える。
関連論文リスト
- Masked Image Modeling: A Survey [73.21154550957898]
マスク付き画像モデリングは、コンピュータビジョンにおける強力な自己教師付き学習技術として登場した。
我々は近年,分類学を構築し,最も顕著な論文をレビューしている。
我々は,最も人気のあるデータセット上で,様々なマスク付き画像モデリング手法の性能評価結果を集約する。
論文 参考訳(メタデータ) (2024-08-13T07:27:02Z) - MSSPlace: Multi-Sensor Place Recognition with Visual and Text Semantics [41.94295877935867]
マルチカメラのセットアップを活用し,マルチモーダル位置認識のための多様なデータソースを統合することの影響について検討する。
提案手法は,複数のカメラ,LiDAR点雲,セマンティックセグメンテーションマスク,テキストアノテーションなどの画像を用いて,総合的な位置記述子を生成する。
論文 参考訳(メタデータ) (2024-07-22T14:24:56Z) - A Semantic Segmentation-guided Approach for Ground-to-Aerial Image Matching [30.324252605889356]
本研究は,GPSデータを使わずに,問合せ地上画像と対応する衛星画像とをマッチングする問題に対処する。
これは地上画像と衛星画像の特徴を比較することで行われ、3ストリームのシームズ様のネットワークを通じて、対応する衛星のセグメンテーションマスクを革新的に活用する。
この新しさは、衛星画像とセマンティックセグメンテーションマスクの融合にあり、モデルが有用な特徴を抽出し、画像の重要な部分に集中できるようにすることを目的としている。
論文 参考訳(メタデータ) (2024-04-17T12:13:18Z) - Feature Extraction and Classification from Planetary Science Datasets
enabled by Machine Learning [0.4091406230302996]
近年の研究では、外惑星ミッションのデータセットに機械学習(ML)ニューラルネットワークを適用し、特徴認識を実現するための2つの事例を示す。
トレーニングデータセットにラベル付きブロックを認識するために,業界標準のMask R-CNNに新しいレイヤを追加し,トレーニングするトランスファーラーニングアプローチを採用しました。
別のアプリケーションでは、Titan上の雲を認識するためにMask R-CNNを適用しました。
論文 参考訳(メタデータ) (2023-10-26T11:43:55Z) - Visual Affordance Prediction for Guiding Robot Exploration [56.17795036091848]
我々は,ロボット探索を導くための視覚能力の学習手法を開発した。
VQ-VAEの潜伏埋め込み空間における条件分布の学習にはTransformerベースのモデルを用いる。
本稿では,ロボット操作における視覚的目標条件付きポリシー学習において,目標サンプリング分布として機能することで探索を導くために,トレーニングされた余裕モデルをどのように利用できるかを示す。
論文 参考訳(メタデータ) (2023-05-28T17:53:09Z) - Knowledge distillation with Segment Anything (SAM) model for Planetary
Geological Mapping [0.7266531288894184]
本稿では,迅速なアノテーションと迅速な適応性を実現するための素早い基礎モデルの有効性を示す。
主要な結果は、知識蒸留を使用することで、手動アノテーションのドメインの専門家が必要とする労力を大幅に削減できることを示唆している。
このアプローチは、火星の地形を自動的に検出し、セグメンテーションすることで、地球外発見を加速する可能性がある。
論文 参考訳(メタデータ) (2023-05-12T16:30:58Z) - CSP: Self-Supervised Contrastive Spatial Pre-Training for
Geospatial-Visual Representations [90.50864830038202]
ジオタグ付き画像の自己教師型学習フレームワークであるContrastive Spatial Pre-Training(CSP)を提案する。
デュアルエンコーダを用いて画像とその対応する位置情報を別々に符号化し、コントラスト目的を用いて画像から効果的な位置表現を学習する。
CSPは、様々なラベル付きトレーニングデータサンプリング比と10~34%の相対的な改善で、モデル性能を大幅に向上させる。
論文 参考訳(メタデータ) (2023-05-01T23:11:18Z) - Subspace Representation Learning for Few-shot Image Classification [105.7788602565317]
少数の画像分類タスクに対処するサブスペース表現学習フレームワークを提案する。
画像を表すためにローカルCNN機能空間のサブスペースを利用し、重み付きサブスペース距離(WSD)に従って2つの画像間の類似度を測定します。
論文 参考訳(メタデータ) (2021-05-02T02:29:32Z) - Factors of Influence for Transfer Learning across Diverse Appearance
Domains and Task Types [50.1843146606122]
現在の最新のコンピュータビジョンモデルでは、簡単な転送学習が一般的です。
転校学習に関するこれまでの体系的な研究は限られており、作業が期待される状況は十分に理解されていない。
本論文では,非常に異なる画像領域にまたがる転送学習の広範な実験的研究を行う。
論文 参考訳(メタデータ) (2021-03-24T16:24:20Z) - Mars Image Content Classification: Three Years of NASA Deployment and
Recent Advances [0.431223999943929]
火星画像のコンテンツに基づく分類と検索機能を開発し,展開する。
火星ミッションで収集された画像に対する2つのCNN分類器の訓練、評価、校正、展開のプロセスについて述べる。
利用統計、学習した教訓、今後の計画を含む3年間の展開について報告する。
論文 参考訳(メタデータ) (2021-02-09T18:26:25Z) - OpenStreetMap: Challenges and Opportunities in Machine Learning and
Remote Sensing [66.23463054467653]
本稿では,OpenStreetMapデータの改良と利用のための機械学習に基づく最近の手法について述べる。
私たちは、OSMがリモートセンシングデータの解釈方法を変え、機械学習とのシナジーが参加型マップ作成をスケールできると考えている。
論文 参考訳(メタデータ) (2020-07-13T09:58:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。