論文の概要: Differential Viewpoints for Ground Terrain Material Recognition
- arxiv url: http://arxiv.org/abs/2009.11072v1
- Date: Tue, 22 Sep 2020 02:57:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 22:42:03.808274
- Title: Differential Viewpoints for Ground Terrain Material Recognition
- Title(参考訳): 地層材料認識のための微分的視点
- Authors: Jia Xue, Hang Zhang, Ko Nishino, Kristin J. Dana
- Abstract要約: 我々は、自律運転やロボットナビゲーションなどの応用のための地上地形認識を支援する大規模物質データベースを構築した。
我々は,RGB情報の深部符号化と,角度勾配特徴に対する微分角画像を組み合わせた,テクスチャ符号化型角ネットワーク(TEAN)と呼ばれる新しい材料認識手法を開発した。
その結果,TEANは単一ビュー性能と標準(非微分/大角サンプリング)マルチビュー性能を超越した認識性能を実現していることがわかった。
- 参考スコア(独自算出の注目度): 32.91058153755717
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Computational surface modeling that underlies material recognition has
transitioned from reflectance modeling using in-lab controlled radiometric
measurements to image-based representations based on internet-mined single-view
images captured in the scene. We take a middle-ground approach for material
recognition that takes advantage of both rich radiometric cues and flexible
image capture. A key concept is differential angular imaging, where small
angular variations in image capture enables angular-gradient features for an
enhanced appearance representation that improves recognition. We build a
large-scale material database, Ground Terrain in Outdoor Scenes (GTOS)
database, to support ground terrain recognition for applications such as
autonomous driving and robot navigation. The database consists of over 30,000
images covering 40 classes of outdoor ground terrain under varying weather and
lighting conditions. We develop a novel approach for material recognition
called texture-encoded angular network (TEAN) that combines deep encoding
pooling of RGB information and differential angular images for angular-gradient
features to fully leverage this large dataset. With this novel network
architecture, we extract characteristics of materials encoded in the angular
and spatial gradients of their appearance. Our results show that TEAN achieves
recognition performance that surpasses single view performance and standard
(non-differential/large-angle sampling) multiview performance.
- Abstract(参考訳): 材料認識の基盤となる計算曲面モデリングは, 実験管内放射計を用いた反射率モデリングから, 現場で撮影されたインターネットマイニング画像に基づく画像ベース表現へと移行した。
我々は、リッチなラジオメトリック・キューとフレキシブルな画像キャプチャの両方を活かした、物質認識のための中間的アプローチを採っている。
重要な概念はディファレンシャル・角イメージングであり、画像キャプチャにおける小さな角のバリエーションは、認識を改善するように拡張された外観表現のための角勾配機能を可能にする。
本研究では,大規模物質データベースであるGTOSデータベースを構築し,自律走行やロボットナビゲーションなどの応用のための地上地形認識を支援する。
データベースは、天候や照明条件の異なる屋外地形の40クラスをカバーする3万以上の画像で構成されている。
我々は,この大規模データセットを十分に活用するために,rgb情報と差分角画像の深いエンコードプールを組み合わせたテクスチャエンコードangular network(tean)と呼ばれる新しい素材認識手法を開発した。
このネットワークアーキテクチャを用いて, 表面の角勾配および空間勾配にエンコードされた材料の特性を抽出する。
その結果,シングルビュー性能と標準(非微分・大角サンプリング)マルチビュー性能を上回って認識性能が向上した。
関連論文リスト
- RMAFF-PSN: A Residual Multi-Scale Attention Feature Fusion Photometric Stereo Network [37.759675702107586]
複雑な構造空間材料変化領域における2次元画像からの物体の正確な地図の予測は困難である。
画像の解像度の異なるステージとスケールから特徴情報を校正する手法を提案する。
このアプローチは、複雑な領域における物体のテクスチャや幾何学といった、より物理的な情報を保存する。
論文 参考訳(メタデータ) (2024-04-11T14:05:37Z) - Multi-Projection Fusion and Refinement Network for Salient Object
Detection in 360{\deg} Omnidirectional Image [141.10227079090419]
我々は,360度全方位画像中の有向物体を検出するために,MPFR-Net(Multi-Projection Fusion and Refinement Network)を提案する。
MPFR-Netは、等角射影像と対応する4つの立方体展開像を入力として使用する。
2つの全方位データセットの実験結果から,提案手法は定性的かつ定量的に,最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2022-12-23T14:50:40Z) - Joint Learning of Deep Texture and High-Frequency Features for
Computer-Generated Image Detection [24.098604827919203]
本稿では,CG画像検出のための深いテクスチャと高周波特徴を有する共同学習戦略を提案する。
セマンティックセグメンテーションマップを生成して、アフィン変換操作を誘導する。
原画像と原画像の高周波成分の組み合わせを、注意機構を備えたマルチブランチニューラルネットワークに供給する。
論文 参考訳(メタデータ) (2022-09-07T17:30:40Z) - Extracting Triangular 3D Models, Materials, and Lighting From Images [59.33666140713829]
多視点画像観測による材料と照明の協調最適化手法を提案する。
従来のグラフィックスエンジンにデプロイ可能な,空間的に変化する材料と環境を備えたメッシュを活用します。
論文 参考訳(メタデータ) (2021-11-24T13:58:20Z) - Neural Radiance Fields Approach to Deep Multi-View Photometric Stereo [103.08512487830669]
多視点測光ステレオ問題(MVPS)に対する現代的な解法を提案する。
我々は、光度ステレオ(PS)画像形成モデルを用いて表面配向を取得し、それを多視点のニューラルラディアンス場表現とブレンドして物体の表面形状を復元する。
本手法は,多視点画像のニューラルレンダリングを行い,深部光度ステレオネットワークによって推定される表面の正規性を活用している。
論文 参考訳(メタデータ) (2021-10-11T20:20:03Z) - Light Field Reconstruction Using Convolutional Network on EPI and
Extended Applications [78.63280020581662]
スパースビューからの光場再構成のための新しい畳み込みニューラルネットワーク(CNN)ベースのフレームワークを開発した。
最先端のアルゴリズムと比較して,提案フレームワークの高性能と堅牢性を実証する。
論文 参考訳(メタデータ) (2021-03-24T08:16:32Z) - VAE-Info-cGAN: Generating Synthetic Images by Combining Pixel-level and
Feature-level Geospatial Conditional Inputs [0.0]
画素レベル(PLC)と特徴レベル(FLC)を同時に条件付けした意味的リッチな画像を合成するための条件生成モデルを提案する。
GPSデータセットを用いた実験では,提案モデルが地理的に異なる場所にまたがる様々な形態のマクロアグリゲーションを正確に生成できることが示されている。
論文 参考訳(メタデータ) (2020-12-08T03:46:19Z) - Angular Luminance for Material Segmentation [6.374538197161135]
移動カメラは1ピクセルあたりの複数の強度測定を提供するが、セマンティックセグメンテーション、材料認識、オブジェクト認識ではこの情報は利用できない。
我々は、表面の物質を識別する鍵となる特徴として、画素ごとの角の輝度分布を利用する。
現実世界の物質には、アンギュラー輝度ネットワーク(AngLNet)を構築することで管理できるクラス内変異が顕著である。
論文 参考訳(メタデータ) (2020-09-22T21:15:27Z) - City-Scale Visual Place Recognition with Deep Local Features Based on
Multi-Scale Ordered VLAD Pooling [5.274399407597545]
本稿では,コンテンツに基づく画像検索に基づいて,都市規模で位置認識を行うシステムを提案する。
まず,視覚的位置認識の包括的分析を行い,その課題を概観する。
次に,画像表現ベクトルに空間情報を埋め込むために,畳み込み型ニューラルネットワークアクティベーションを用いた単純なプーリング手法を提案する。
論文 参考訳(メタデータ) (2020-09-19T15:21:59Z) - Two-shot Spatially-varying BRDF and Shape Estimation [89.29020624201708]
形状とSVBRDFを段階的に推定した新しいディープラーニングアーキテクチャを提案する。
ドメインランダム化された幾何学と現実的な材料を用いた大規模合成学習データセットを作成する。
合成データセットと実世界のデータセットの両方の実験により、合成データセットでトレーニングされたネットワークが、実世界の画像に対してうまく一般化できることが示されている。
論文 参考訳(メタデータ) (2020-04-01T12:56:13Z) - Deep 3D Capture: Geometry and Reflectance from Sparse Multi-View Images [59.906948203578544]
本稿では,任意の物体の高品質な形状と複雑な空間変化を持つBRDFを再構成する学習に基づく新しい手法を提案する。
まず、深層多視点ステレオネットワークを用いて、ビューごとの深度マップを推定する。
これらの深度マップは、異なるビューを粗く整列するために使用される。
本稿では,新しい多視点反射率推定ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-27T21:28:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。