論文の概要: RB-Dust -- A Reference-based Dataset for Vision-based Dust Removal
- arxiv url: http://arxiv.org/abs/2306.07244v1
- Date: Mon, 12 Jun 2023 17:09:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 13:43:28.400342
- Title: RB-Dust -- A Reference-based Dataset for Vision-based Dust Removal
- Title(参考訳): RB-Dust -- 視覚に基づくダスト除去のための参照ベースデータセット
- Authors: Peter Buckel, Timo Oksanen, Thomas Dietmueller
- Abstract要約: 本稿では,参照型塵の除去を目的としたRB-Dustデータセットについて述べる。
撮影中にキャビンから写真を撮ることは不可能であり、画像のシフトを引き起こす可能性がある。
コントラスト強調と画像デハージングアルゴリズムを用いてデータセットを検証し,移動トラクタからの録音の一般化性について検討した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dust in the agricultural landscape is a significant challenge and influences,
for example, the environmental perception of autonomous agricultural machines.
Image enhancement algorithms can be used to reduce dust. However, these require
dusty and dust-free images of the same environment for validation. In fact, to
date, there is no dataset that we are aware of that addresses this issue.
Therefore, we present the agriscapes RB-Dust dataset, which is named after its
purpose of reference-based dust removal. It is not possible to take pictures
from the cabin during tillage, as this would cause shifts in the images.
Because of this, we built a setup from which it is possible to take images from
a stationary position close to the passing tractor. The test setup was based on
a half-sided gate through which the tractor could drive. The field tests were
carried out on a farm in Bavaria, Germany, during tillage. During the field
tests, other parameters such as soil moisture and wind speed were controlled,
as these significantly affect dust development. We validated our dataset with
contrast enhancement and image dehazing algorithms and analyzed the
generalizability from recordings from the moving tractor. Finally, we
demonstrate the application of dust removal based on a high-level vision task,
such as person classification. Our empirical study confirms the validity of
RB-Dust for vision-based dust removal in agriculture.
- Abstract(参考訳): 農業の風景におけるダストは重要な課題であり、例えば自律型農業機械の環境認識に影響を及ぼす。
画像強調アルゴリズムはダストを減らすために使用できる。
しかし、これらは検証のために同じ環境のほこりやほこりのない画像を必要とする。
実際、今のところ、この問題に対処するデータセットは存在していません。
そこで本研究では,参照に基づくダスト除去を目的としたagriscapes rb-dustデータセットを提案する。
耕作中に小屋から写真を撮ることは不可能であり、これは画像に変化を引き起こす可能性がある。
これにより、通過トラクタ近傍の静止位置から画像を撮影できる装置を構築した。
テストセットアップは、トラクターが運転できる半側面のゲートに基づいていた。
フィールドテストはドイツのバイエルンにある農場で耕作中に行われた。
フィールド試験では,土壌水分や風速などのパラメータが制御され,塵の発生に大きく影響した。
コントラスト強調と画像デハージングアルゴリズムを用いてデータセットを検証し,移動トラクタからの録音からの一般化性を検討した。
最後に,人物分類などのハイレベルなビジョンタスクに基づくダスト除去の適用例を示す。
実証実験により,農業におけるビジョンベース除塵におけるRB-Dustの有効性が確認された。
関連論文リスト
- Investigating the Segment Anything Foundation Model for Mapping Smallholder Agriculture Field Boundaries Without Training Labels [0.24966046892475396]
本研究は,インド・ビハール州の農地境界を規定するSegment Anything Model(SAM)について検討した。
我々はSAMの性能を3つのモデルチェックポイント、様々な入力サイズ、マルチ日付衛星画像、エッジ強調画像で評価した。
異なる入力画像サイズを使用することで精度が向上し、マルチ日付衛星画像を使用する場合に最も顕著な改善がなされる。
論文 参考訳(メタデータ) (2024-07-01T23:06:02Z) - Detecting and Refining HiRISE Image Patches Obscured by Atmospheric Dust [0.0]
火星は、このデータ収集プロセスを妨げている地域や地域の塵嵐が頻発している。
これらの画像を手動で取り除くには、大量の人力が必要である。
私はこれらのほこりっぽいパッチを分類して保存するパイプラインを設計します。
論文 参考訳(メタデータ) (2024-05-08T00:03:23Z) - CarPatch: A Synthetic Benchmark for Radiance Field Evaluation on Vehicle
Components [77.33782775860028]
車両の新たな総合ベンチマークであるCarPatchを紹介する。
内在カメラパラメータと外在カメラパラメータを付加した画像のセットに加えて、各ビューに対して対応する深度マップとセマンティックセグメンテーションマスクが生成されている。
グローバルとパートベースのメトリクスは、いくつかの最先端技術を評価し、比較し、より良い特徴付けるために定義され、使われてきた。
論文 参考訳(メタデータ) (2023-07-24T11:59:07Z) - Transferring learned patterns from ground-based field imagery to predict
UAV-based imagery for crop and weed semantic segmentation in precision crop
farming [3.95486899327898]
雑草の区分けのために,UAVのフィールド画像と空中画像の両方を予測できる深層畳み込みネットワークを開発した。
ネットワーク学習プロセスは、浅い層と深い層のフィーチャーマップによって視覚化される。
この研究は、深層畳み込みニューラルネットワークが、フィールド画像と空中画像の両方から雑草を分類するために使用できることを示した。
論文 参考訳(メタデータ) (2022-10-20T19:25:06Z) - End-to-end deep learning for directly estimating grape yield from
ground-based imagery [53.086864957064876]
本研究は, ブドウ畑の収量推定に深層学習と併用した近位画像の応用を実証する。
オブジェクト検出、CNN回帰、トランスフォーマーモデルという3つのモデルアーキテクチャがテストされた。
本研究は,ブドウの収量予測における近位画像と深層学習の適用性を示した。
論文 参考訳(メタデータ) (2022-08-04T01:34:46Z) - Deep Learning Eliminates Massive Dust Storms from Images of Tianwen-1 [24.25089331365282]
そこで我々は,火星の塵除去問題を解決するために,地球上で得られた画像デハージングの知識を再利用する手法を提案する。
地球上のヘイズの形成過程にインスパイアされ、クリーンな画像上でも同様の視覚劣化過程を定式化する。
我々は、本質的に無関係な特徴をダストにエンコードし、それらをダストフリーの画像にデコードするディープモデルを訓練する。
論文 参考訳(メタデータ) (2022-06-21T07:05:09Z) - A Multi-purpose Real Haze Benchmark with Quantifiable Haze Levels and
Ground Truth [61.90504318229845]
本稿では,ハズフリー画像とその場でのハズ密度測定を併用した,最初の実画像ベンチマークデータセットを提案する。
このデータセットはコントロールされた環境で生成され、プロの煙発生装置がシーン全体を覆っている。
このデータセットのサブセットは、CVPR UG2 2022 チャレンジの Haze Track における Object Detection に使用されている。
論文 参考訳(メタデータ) (2022-06-13T19:14:06Z) - Unsupervised domain adaptation and super resolution on drone images for
autonomous dry herbage biomass estimation [14.666311628659072]
ハーベージ質量収量と組成推定は、乳製品農家にとって重要なツールである。
ディープラーニングアルゴリズムは、スワード合成推定の通常の方法に代わる誘惑的な代替手段を提供する。
本稿では,地上レベルの画像から生のドローン画像への知識の伝達を教師なしで行うことを提案する。
論文 参考訳(メタデータ) (2022-04-18T12:11:15Z) - Potato Crop Stress Identification in Aerial Images using Deep
Learning-based Object Detection [60.83360138070649]
本稿では, 深層ニューラルネットワークを用いたジャガイモの空中画像解析手法を提案する。
主な目的は、植物レベルでの健康作物とストレス作物の自動空間認識を実証することである。
実験により、フィールド画像中の健康植物とストレス植物を識別し、平均Dice係数0.74を達成できることを示した。
論文 参考訳(メタデータ) (2021-06-14T21:57:40Z) - Perceiving Traffic from Aerial Images [86.994032967469]
本研究では,空中画像中の物体を検出するために,バタフライ検出器と呼ばれる物体検出手法を提案する。
UAVDT(UAVDT)とVisDrone 2019(VisDrone 2019)の2つのUAVデータセット上でButterfly Detectorを評価し、従来の最先端の手法よりも高速に動作し、かつリアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-09-16T11:37:43Z) - Agriculture-Vision: A Large Aerial Image Database for Agricultural
Pattern Analysis [110.30849704592592]
本稿では,農業パターンのセマンティックセグメンテーションのための大規模空中農地画像データセットであるGarmry-Visionを提案する。
各画像はRGBと近赤外線(NIR)チャンネルで構成され、解像度は1ピクセルあたり10cmである。
農家にとって最も重要な9種類のフィールド異常パターンに注釈を付ける。
論文 参考訳(メタデータ) (2020-01-05T20:19:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。