論文の概要: An interpretable approach to automating the assessment of biofouling in video footage
- arxiv url: http://arxiv.org/abs/2503.12875v1
- Date: Mon, 17 Mar 2025 07:11:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 12:30:36.674767
- Title: An interpretable approach to automating the assessment of biofouling in video footage
- Title(参考訳): ビデオ映像におけるバイオファウリング評価の自動化のための解釈可能なアプローチ
- Authors: Evelyn J. Mannix, Bartholomew A. Woodham,
- Abstract要約: 国際船舶は、生物汚染管理の実践の証拠を提供することがますます義務付けられている。
活動が効果的であることの検証には、水中の水中映像を用いた検査が必要である。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Biofouling$\unicode{x2013}$communities of organisms that grow on hard surfaces immersed in water$\unicode{x2013}$provides a pathway for the spread of invasive marine species and diseases. To address this risk, international vessels are increasingly being obligated to provide evidence of their biofouling management practices. Verification that these activities are effective requires underwater inspections, using divers or underwater remotely operated vehicles (ROVs), and the collection and analysis of large amounts of imagery and footage. Automated assessment using computer vision techniques can significantly streamline this process, and this work shows how this challenge can be addressed efficiently and effectively using the interpretable Component Features (ComFe) approach with a DINOv2 Vision Transformer (ViT) foundation model. ComFe is able to obtain improved performance in comparison to previous non-interpretable Convolutional Neural Network (CNN) methods, with significantly fewer weights and greater transparency$\unicode{x2013}$through identifying which regions of the image contribute to the classification, and which images in the training data lead to that conclusion. All code, data and model weights are publicly released.
- Abstract(参考訳): Biofouling$\unicode{x2013}$communities of organisms that grow on hard surfaces immersed in water$\unicode{x2013}$provides a path for the spread of invasive Marine species and disease。
このリスクに対処するため、国際船舶は、彼らの生物汚染管理の実践の証拠を提供することがますます義務付けられている。
これらの活動が効果的であることの検証には、ダイバーや水中遠隔操作車両(ROV)を用いた水中検査、大量の画像や映像の収集と分析が必要である。
本研究は,DINOv2 Vision Transformer (ViT) 基盤モデルを用いた解釈可能なコンポーネント特徴量 (ComFe) アプローチを用いて,この課題を効率的に効果的に対処する方法を示す。
ComFeは、以前の非解釈可能な畳み込みニューラルネットワーク(CNN)手法と比較して、画像のどの領域が分類に寄与するか、トレーニングデータ内のどの画像が結論に導くかを特定することができる。
コード、データ、モデルの重み付けはすべて公開されています。
関連論文リスト
- Underwater Image Enhancement using Generative Adversarial Networks: A Survey [1.2582887633807602]
ジェネレーティブ・Adversarial Networks (GAN) は水中写真を強化する強力なツールとして登場した。
GANは、海洋生物学や生態系モニタリング、サンゴ礁の健康評価、水中考古学、自律型水中車両(AUV)ナビゲーションなど、現実世界の応用に応用されている。
本稿では,物理・物理フリーモデルからCNNベースモデル,最先端のGANベース手法に至るまで,水中画像強調への主要なアプローチについて検討する。
論文 参考訳(メタデータ) (2025-01-10T06:41:19Z) - On Vision Transformers for Classification Tasks in Side-Scan Sonar Imagery [0.0]
サイドスキャンソナー (SSS) 画像は海底の人工物体の分類においてユニークな課題を呈している。
本稿では、SSS画像のバイナリ分類タスクによく使用されるCNNアーキテクチャとともに、VTモデルの性能を厳格に比較する。
ViTベースのモデルは、f1スコア、精度、リコール、精度の指標で優れた分類性能を示す。
論文 参考訳(メタデータ) (2024-09-18T14:36:50Z) - Mew: Multiplexed Immunofluorescence Image Analysis through an Efficient Multiplex Network [84.88767228835928]
マルチプレックスネットワークのレンズを通してmIF画像を効率的に処理する新しいフレームワークであるMewを紹介する。
Mew は、幾何学情報のための Voronoi ネットワークと、セルワイドの均一性を捉えるセル型ネットワークという、2つの異なる層からなる多重ネットワークを革新的に構築する。
このフレームワークは、トレーニング中にグラフ全体を処理できるスケーラブルで効率的なグラフニューラルネットワーク(GNN)を備えている。
論文 参考訳(メタデータ) (2024-07-25T08:22:30Z) - Deep Domain Adaptation: A Sim2Real Neural Approach for Improving Eye-Tracking Systems [80.62854148838359]
眼球画像のセグメンテーションは、最終視線推定に大きな影響を及ぼす眼球追跡の重要なステップである。
対象視線画像と合成訓練データとの重なり合いを測定するために,次元還元法を用いている。
提案手法は,シミュレーションと実世界のデータサンプルの相違に対処する際の頑健で,性能が向上する。
論文 参考訳(メタデータ) (2024-03-23T22:32:06Z) - Evaluation of Activated Sludge Settling Characteristics from Microscopy Images with Deep Convolutional Neural Networks and Transfer Learning [7.636901972162706]
本研究では, 活性汚泥沈降特性を評価するために, コンピュータビジョンに基づく革新的な手法を提案する。
深層畳み込みニューラルネットワーク(CNN)モデルの伝達学習の実装により,既存の定量的画像解析技術の限界を克服することを目的とした。
Inception v3, ResNet18, ResNet152, ConvNeXt-nano, ConvNeXt-S などのCNNアーキテクチャを用いて, 汚泥沈降特性の評価を行った。
論文 参考訳(メタデータ) (2024-02-14T18:13:37Z) - GenFace: A Large-Scale Fine-Grained Face Forgery Benchmark and Cross Appearance-Edge Learning [50.7702397913573]
フォトリアリスティック・ジェネレータの急速な進歩は、真の画像と操作された画像の相違がますます不明瞭になっている臨界点に達している。
公開されている顔の偽造データセットはいくつかあるが、偽造顔は主にGANベースの合成技術を用いて生成される。
我々は,大規模で多様できめ細かな高忠実度データセットであるGenFaceを提案し,ディープフェイク検出の進展を促進する。
論文 参考訳(メタデータ) (2024-02-03T03:13:50Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - Synthetic optical coherence tomography angiographs for detailed retinal
vessel segmentation without human annotations [12.571349114534597]
本稿では,より高速でリアルなOCTA合成のために,空間コロニー化に基づく網膜血管網の軽量なシミュレーションを行う。
本研究では,3つの公開データセットに対する定量的および定性的実験において,提案手法の優れたセグメンテーション性能を示す。
論文 参考訳(メタデータ) (2023-06-19T14:01:47Z) - Affinity Feature Strengthening for Accurate, Complete and Robust Vessel
Segmentation [48.638327652506284]
血管セグメンテーションは、冠動脈狭窄、網膜血管疾患、脳動脈瘤などの多くの医学的応用において重要である。
コントラストに敏感なマルチスケールアフィニティアプローチを用いて,幾何学的手法と画素単位のセグメンテーション特徴を連成的にモデル化する新しいアプローチであるAFNを提案する。
論文 参考訳(メタデータ) (2022-11-12T05:39:17Z) - Deep learning-based bias transfer for overcoming laboratory differences
of microscopic images [0.0]
免疫蛍光(IF)およびヘマトキシリンおよびエオシン(H&E)染色顕微鏡画像の領域シフトを克服するために,既存の生成モデルアーキテクチャを評価し,比較し,改良する。
前立腺生検では,ヒト腎糸球体およびポドサイトに対するピクセルレベルのセグメンテーションが有意に向上し,分類精度が最大14%向上した。
論文 参考訳(メタデータ) (2021-05-25T09:02:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。