論文の概要: Photorealistic Inpainting for Perturbation-based Explanations in Ecological Monitoring
- arxiv url: http://arxiv.org/abs/2510.03317v1
- Date: Wed, 01 Oct 2025 01:18:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:58.820995
- Title: Photorealistic Inpainting for Perturbation-based Explanations in Ecological Monitoring
- Title(参考訳): 環境モニタリングにおける摂動に基づく説明のためのフォトリアリスティック塗布
- Authors: Günel Aghakishiyeva, Jiayi Zhou, Saagar Arya, James David Poling, Holly R. Houliston, Jamie N. Womble, David W. Johnston, Brinnae Bent,
- Abstract要約: 本稿では,シーンコンテキストを保存した摂動,マスローカライズされた編集を生成するインパインティングガイドによる説明手法を提案する。
我々は,Glacier Bayのドローン画像において,港のシール検出のために微調整されたYOLOv9検出器のアプローチを実証する。
その結果、診断構造をローカライズし、従来の摂動に共通する削除アーティファクトを回避し、ドメイン関連洞察を得る。
- 参考スコア(独自算出の注目度): 3.7068471326220247
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ecological monitoring is increasingly automated by vision models, yet opaque predictions limit trust and field adoption. We present an inpainting-guided, perturbation-based explanation technique that produces photorealistic, mask-localized edits that preserve scene context. Unlike masking or blurring, these edits stay in-distribution and reveal which fine-grained morphological cues drive predictions in tasks such as species recognition and trait attribution. We demonstrate the approach on a YOLOv9 detector fine-tuned for harbor seal detection in Glacier Bay drone imagery, using Segment-Anything-Model-refined masks to support two interventions: (i) object removal/replacement (e.g., replacing seals with plausible ice/water or boats) and (ii) background replacement with original animals composited onto new scenes. Explanations are assessed by re-scoring perturbed images (flip rate, confidence drop) and by expert review for ecological plausibility and interpretability. The resulting explanations localize diagnostic structures, avoid deletion artifacts common to traditional perturbations, and yield domain-relevant insights that support expert validation and more trustworthy deployment of AI in ecology.
- Abstract(参考訳): 生態モニタリングは視覚モデルによってますます自動化されるが、不透明な予測は信頼とフィールドの採用を制限する。
シーンコンテキストを保存した写実的でマスローカライズされた編集を生成する,ペンキを塗布した摂動に基づく説明手法を提案する。
マスクやぼやけと異なり、これらの編集は分布に留まり、種認識や形質帰属といったタスクにおいてどの微細な形態的手がかりが予測を導くかを明らかにする。
我々は,Glacier Bayのドローン画像における港のシール検出のために微調整されたYOLOv9検出器へのアプローチを,Segment-Anything-Model-refined masksを用いて実証した。
(i)物取り替え(例:アザラシを可溶性氷水又はボートに置き換える)
(二)新しい場面に合成された原動物との背景交換。
説明は、摂動画像(フリップ率、信頼低下)の再構成と、生態学的妥当性と解釈可能性に関する専門家のレビューによって評価される。
結果として得られた説明は、診断構造をローカライズし、従来の摂動に共通する削除アーティファクトを回避し、専門家のバリデーションとより信頼性の高いAIのエコロジーへの展開をサポートするドメイン関連洞察を得る。
関連論文リスト
- Semantic-Aware Reconstruction Error for Detecting AI-Generated Images [22.83053631078616]
本稿では,画像とキャプション誘導再構成のセマンティック・アウェア・リコンストラクション・エラー(SARE)を計測する新しい表現を提案する。
SAREは、さまざまな生成モデル間で偽画像を検出するための堅牢で差別的な機能を提供する。
また,SAREを背骨検出器に統合する融合モジュールを,クロスアテンション機構を介して導入する。
論文 参考訳(メタデータ) (2025-08-13T04:37:36Z) - Underwater Diffusion Attention Network with Contrastive Language-Image Joint Learning for Underwater Image Enhancement [0.8747606955991707]
UDAN-CLIPは、合成水中データセットで事前トレーニングされた画像間拡散フレームワークである。
視覚言語モデルに基づくカスタマイズされた分類器、空間的注意モジュール、新しいCLIP拡散損失で拡張される。
提案したコントリビューションにより、UDAN-CLIPモデルにより、より効果的な水中画像強調を行うことができる。
論文 参考訳(メタデータ) (2025-05-26T12:24:56Z) - Pseudo-Label Guided Real-World Image De-weathering: A Learning Framework with Imperfect Supervision [57.5699142476311]
非理想的な監視を伴う実世界のイメージデウェザリングのための統一的なソリューションを提案する。
本手法は,不完全整合型非整合性データセットのトレーニングにおいて,大きな利点を示す。
論文 参考訳(メタデータ) (2025-04-14T07:24:03Z) - Bridging Knowledge Gap Between Image Inpainting and Large-Area Visible Watermark Removal [57.84348166457113]
本稿では,事前学習した画像の塗装モデルの表現能力を活用する新しい特徴適応フレームワークを提案する。
本手法は, 透かしの残像の残像を塗布バックボーンモデルに流し込むことにより, 透かしと透かし除去の知識ギャップを埋めるものである。
高品質な透かしマスクへの依存を緩和するために,粗い透かしマスクを用いて推論プロセスを導出する新たな訓練パラダイムを導入する。
論文 参考訳(メタデータ) (2025-04-07T02:37:14Z) - PIGUIQA: A Physical Imaging Guided Perceptual Framework for Underwater Image Quality Assessment [59.9103803198087]
水中画像品質評価(UIQA)のための物理画像ガイド型知覚フレームワークを提案する。
水中放射移動理論を応用して、物理に基づく画像推定を統合して、これらの歪みの定量的な測定値を確立する。
提案モデルは,画像品質のスコアを正確に予測し,最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-12-20T03:31:45Z) - LADMIM: Logical Anomaly Detection with Masked Image Modeling in Discrete Latent Space [0.0]
マスク付き画像モデリングは、画像中のマスキング領域の特徴表現を予測する自己教師付き学習技術である。
本稿では,MIMの特性を利用して論理異常を効果的に検出する手法を提案する。
提案手法をMVTecLOCOデータセット上で評価し,平均AUC 0.867。
論文 参考訳(メタデータ) (2024-10-14T07:50:56Z) - Image-Based Leopard Seal Recognition: Approaches and Challenges in Current Automated Systems [0.0]
本稿では,従来の写真を用いた自然の生息地におけるアザラシ認識の課題と進歩について考察する。
ヒョウアザラシ EmphHydrurga leptonyx は南極の生態系において重要な種である。
機械学習の出現、特にビジョントランスフォーマーの応用は、種のモニタリングにおける効率性と精度の新しい時代を告げている。
論文 参考訳(メタデータ) (2024-08-14T03:35:11Z) - Semantic Segmentation for Fully Automated Macrofouling Analysis on
Coatings after Field Exposure [13.732577711665877]
バイオファウリングは、持続可能な輸送、フィルター膜、熱交換器、医療機器にとって大きな課題である。
本稿では,画像に基づくマクロファウリングの自動解析手法を提案する。
論文 参考訳(メタデータ) (2022-11-21T16:03:16Z) - Explainers in the Wild: Making Surrogate Explainers Robust to
Distortions through Perception [77.34726150561087]
説明における歪みの影響を知覚距離を埋め込むことで評価する手法を提案する。
Imagenet-Cデータセットの画像の説明を生成し、サロゲート説明書の知覚距離を使用して歪んだ画像と参照画像のより一貫性のある説明を作成する方法を示しています。
論文 参考訳(メタデータ) (2021-02-22T12:38:53Z) - SIR: Self-supervised Image Rectification via Seeing the Same Scene from
Multiple Different Lenses [82.56853587380168]
本稿では、異なるレンズからの同一シーンの歪み画像の補正結果が同一であるべきという重要な知見に基づいて、新しい自己監督画像補正法を提案する。
我々は、歪みパラメータから修正画像を生成し、再歪み画像を生成するために、微分可能なワープモジュールを利用する。
本手法は,教師付きベースライン法や代表的最先端手法と同等あるいはそれ以上の性能を実現する。
論文 参考訳(メタデータ) (2020-11-30T08:23:25Z) - Guidance and Evaluation: Semantic-Aware Image Inpainting for Mixed
Scenes [54.836331922449666]
本稿では,SGE-Net(Semantic Guidance and Evaluation Network)を提案する。
セマンティックセグメンテーションマップをインペイントの各尺度のガイダンスとして利用し、そこで位置依存推論を再評価する。
混合シーンの現実画像に対する実験により,提案手法が最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-03-15T17:49:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。