論文の概要: Deep Sea Robotic Imaging Simulator
- arxiv url: http://arxiv.org/abs/2006.15398v3
- Date: Tue, 23 Feb 2021 12:07:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 08:08:02.275390
- Title: Deep Sea Robotic Imaging Simulator
- Title(参考訳): 深海ロボットイメージングシミュレータ
- Authors: Yifan Song, David Nakath, Mengkun She, Furkan Elibol and Kevin K\"oser
- Abstract要約: 海洋の最大の部分である深海は、現在もほとんど未調査のままである。
深海画像は浅い海域で撮影された画像とは大きく異なり、この地域はコミュニティからはあまり注目されなかった。
本稿では,空気中のテクスチャと深度情報を入力として利用する物理モデルに基づく画像シミュレーションソリューションを提案する。
- 参考スコア(独自算出の注目度): 6.2122699483618
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nowadays underwater vision systems are being widely applied in ocean
research. However, the largest portion of the ocean - the deep sea - still
remains mostly unexplored. Only relatively few image sets have been taken from
the deep sea due to the physical limitations caused by technical challenges and
enormous costs. Deep sea images are very different from the images taken in
shallow waters and this area did not get much attention from the community. The
shortage of deep sea images and the corresponding ground truth data for
evaluation and training is becoming a bottleneck for the development of
underwater computer vision methods. Thus, this paper presents a physical
model-based image simulation solution, which uses an in-air texture and depth
information as inputs, to generate underwater image sequences taken by robots
in deep ocean scenarios. Different from shallow water conditions, artificial
illumination plays a vital role in deep sea image formation as it strongly
affects the scene appearance. Our radiometric image formation model considers
both attenuation and scattering effects with co-moving spotlights in the dark.
By detailed analysis and evaluation of the underwater image formation model, we
propose a 3D lookup table structure in combination with a novel rendering
strategy to improve simulation performance. This enables us to integrate an
interactive deep sea robotic vision simulation in the Unmanned Underwater
Vehicles simulator. To inspire further deep sea vision research by the
community, we will release the source code of our deep sea image converter to
the public.
- Abstract(参考訳): 現在、水中視覚システムは海洋研究に広く応用されている。
しかし、海洋の最大の部分である深海はいまだにほとんど探検されていないままである。
技術的課題と膨大なコストによって引き起こされる物理的制限のために、深海から撮影された画像は比較的少ない。
深海画像は浅い海域で撮影された画像とは大きく異なり、この地域はコミュニティからはあまり注目されなかった。
深海画像の不足と評価・訓練のための地上真実データの不足は,水中コンピュータビジョンの手法開発におけるボトルネックとなっている。
そこで本研究では,水中のテクスチャと深度情報を入力として,深海シナリオにおけるロボットによる水中画像シーケンスを生成する物理モデルに基づく画像シミュレーション手法を提案する。
浅い水条件と異なり、人工照明はシーンの外観に強く影響するため、深海画像形成において重要な役割を果たす。
放射能画像形成モデルでは、暗黒光の共動点光による減衰と散乱の影響が考慮されている。
水中画像形成モデルの詳細な解析と評価により,新しいレンダリング手法と組み合わせて3次元ルックアップテーブル構造を提案し,シミュレーション性能を向上させる。
これにより、無人水中車両シミュレーターに対話型深海ロボットビジョンシミュレーションを統合することができる。
コミュニティによる深海ビジョン研究をさらに刺激するために、深海画像変換器のソースコードを一般公開します。
関連論文リスト
- Atlantis: Enabling Underwater Depth Estimation with Stable Diffusion [30.122666238416716]
正確な地球深度データを用いて水中画像を生成する新しいパイプラインを提案する。
このアプローチは、水中深度推定のための教師付きモデルのトレーニングを容易にする。
我々は、特別に作成された水中、深度、テキストデータ三重項に基づいて訓練された独自のDepth2Underwater ControlNetを導入する。
論文 参考訳(メタデータ) (2023-12-19T08:56:33Z) - A deep learning approach for marine snow synthesis and removal [55.86191108738564]
本稿では,深層学習技術を用いた海洋雪の干渉低減手法を提案する。
まず,GAN(Generative Adversarial Network)モデルを用いて,現実的な積雪サンプルを合成する。
次に、画像から画像への変換タスクとして海洋性除雪を行うためにU-Netモデルを訓練する。
論文 参考訳(メタデータ) (2023-11-27T07:19:41Z) - Ghost on the Shell: An Expressive Representation of General 3D Shapes [72.11170506076421]
リアルな素材と照明で高速な物理ベースのレンダリングを可能にするので、メッシュは魅力的だ。
近年の3次元形状の再構成と統計的モデリングの研究は、メッシュをトポロジカルに非フレキシブルであると批判している。
我々は水密面上の多様体符号距離場を定義することにより開曲面をパラメータ化する。
G-Shellは、非水密メッシュ再構築および生成タスクにおける最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-10-23T17:59:52Z) - Efficient Large-scale AUV-based Visual Seafloor Mapping [6.7864586321550595]
海底画像と視覚マッピングの最近の進歩を取り入れ,海底のヘクタールの自動3次元再構築を支援するシステムを提案する。
我々のアプローチは,画像の省略や潜水時間制限の有効利用のために,弱い登録領域の検出と再考が困難である。
提案システムは, 実環境下でのロバスト性および実用性を実証し, いくつかの調査巡航において広範囲に検証され, 評価されている。
論文 参考訳(メタデータ) (2023-08-11T14:24:03Z) - Seafloor-Invariant Caustics Removal from Underwater Imagery [0.0]
コースティックス(英: Caustics)は、波面によって屈折される光線の投射によって生じる複雑な物理現象である。
本研究では,浅海底画像に対する因果関係の影響を補正する新しい手法を提案する。
特に,画像画素を"非因果的"と"因果的"に分類するために,ディープラーニングアーキテクチャを用いた。
論文 参考訳(メタデータ) (2022-12-20T11:11:02Z) - WaterNeRF: Neural Radiance Fields for Underwater Scenes [6.161668246821327]
我々は、物理インフォームド深度推定と色補正を可能にするために、ニューラルレイディアンス場(NeRF)の最先端技術を進めた。
提案手法であるWaterNeRFは,水中画像形成のための物理モデルを用いてパラメータを推定する。
劣化した画像と修正された水中画像と、シーンの深い深さの新たなビューを作成できる。
論文 参考訳(メタデータ) (2022-09-27T00:53:26Z) - Virtual Underwater Datasets for Autonomous Inspections [0.0]
本研究では,実験室で収集したアイテムの写真から,ベスポークデータセットを構築した。
GAN(Generative Adversarial Networks)は、実験対象のデータセットを水中ドメインに変換するために使用される。
その結果得られた画像は、実際の水中の船体画像と比較すると、実際の水中環境とよく似ている。
論文 参考訳(メタデータ) (2022-09-13T14:06:36Z) - Underwater Image Restoration via Contrastive Learning and a Real-world
Dataset [59.35766392100753]
本稿では,教師なし画像から画像への翻訳フレームワークに基づく水中画像復元手法を提案する。
提案手法は, 生画像と復元画像の相互情報を最大化するために, コントラスト学習と生成敵ネットワークを利用した。
論文 参考訳(メタデータ) (2021-06-20T16:06:26Z) - Physically-Consistent Generative Adversarial Networks for Coastal Flood
Visualization [60.690929022840685]
合成視覚衛星画像の物理的整合性を確保するための,最初のディープラーニングパイプラインを提案する。
物理ベースのフラッドマップと比較して画像を評価することにより,提案手法が物理一貫性とフォトリアリズムの両方においてベースラインモデルを上回ることを見出した。
地球観測における画像と画像の翻訳を研究するために、25k以上の画像ペアのデータセットを公開する。
論文 参考訳(メタデータ) (2021-04-10T15:00:15Z) - Physics-informed GANs for Coastal Flood Visualization [65.54626149826066]
我々は,現在および将来の沿岸洪水の衛星画像を生成する深層学習パイプラインを構築した。
物理に基づく洪水図と比較して画像を評価することにより,提案手法は物理的一貫性とフォトリアリズムの両方において,ベースラインモデルよりも優れていることがわかった。
この研究は沿岸の洪水の可視化に焦点が当てられているが、気候変動が地球をどう形作るかのグローバルな可視化を作成することを想定している。
論文 参考訳(メタデータ) (2020-10-16T02:15:34Z) - Learning Depth With Very Sparse Supervision [57.911425589947314]
本稿では, 環境との相互作用を通じて, 知覚が世界の3次元特性と結合するという考えを考察する。
我々は、環境と対話するロボットが利用できるような、特殊なグローバルローカルネットワークアーキテクチャを訓練する。
いくつかのデータセットの実験では、画像ピクセルの1つでも基底真理が利用できる場合、提案されたネットワークは、最先端のアプローチよりも22.5%の精度でモノクロの深度推定を学習できることを示している。
論文 参考訳(メタデータ) (2020-03-02T10:44:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。