論文の概要: Angular Luminance for Material Segmentation
- arxiv url: http://arxiv.org/abs/2009.10825v1
- Date: Tue, 22 Sep 2020 21:15:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 23:08:32.848563
- Title: Angular Luminance for Material Segmentation
- Title(参考訳): 材料セグメンテーションのための角輝度
- Authors: Jia Xue, Matthew Purri, Kristin Dana
- Abstract要約: 移動カメラは1ピクセルあたりの複数の強度測定を提供するが、セマンティックセグメンテーション、材料認識、オブジェクト認識ではこの情報は利用できない。
我々は、表面の物質を識別する鍵となる特徴として、画素ごとの角の輝度分布を利用する。
現実世界の物質には、アンギュラー輝度ネットワーク(AngLNet)を構築することで管理できるクラス内変異が顕著である。
- 参考スコア(独自算出の注目度): 6.374538197161135
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Moving cameras provide multiple intensity measurements per pixel, yet often
semantic segmentation, material recognition, and object recognition do not
utilize this information. With basic alignment over several frames of a moving
camera sequence, a distribution of intensities over multiple angles is
obtained. It is well known from prior work that luminance histograms and the
statistics of natural images provide a strong material recognition cue. We
utilize per-pixel {\it angular luminance distributions} as a key feature in
discriminating the material of the surface. The angle-space sampling in a
multiview satellite image sequence is an unstructured sampling of the
underlying reflectance function of the material. For real-world materials there
is significant intra-class variation that can be managed by building a angular
luminance network (AngLNet). This network combines angular reflectance cues
from multiple images with spatial cues as input to fully convolutional networks
for material segmentation. We demonstrate the increased performance of AngLNet
over prior state-of-the-art in material segmentation from satellite imagery.
- Abstract(参考訳): 移動カメラは1ピクセルあたりの複数の強度測定を提供するが、セマンティックセグメンテーション、材料認識、オブジェクト認識ではこの情報は利用できない。
移動カメラ列の複数のフレームに基本的なアライメントを施し、複数の角度にまたがる強度の分布を求める。
以前の研究から、輝度ヒストグラムと自然画像の統計は強い物質認識の手がかりとなることが知られている。
我々は、表面の物質を識別する鍵となる特徴として、ピクセルあたりの角輝度分布を用いる。
多視点衛星画像シーケンスにおける角度空間サンプリングは、材料の基礎となる反射関数の非構造サンプリングである。
実世界の材料では、angular luminance network (anglnet) を構築することで、クラス内の大きなバリエーションを管理することができる。
このネットワークは、複数の画像からの角反射キューと空間キューを入力として組み合わせ、材料セグメンテーションのための完全な畳み込みネットワークを実現する。
衛星画像からの材料セグメンテーションにおけるAngLNetの性能向上を実証する。
関連論文リスト
- RMAFF-PSN: A Residual Multi-Scale Attention Feature Fusion Photometric Stereo Network [37.759675702107586]
複雑な構造空間材料変化領域における2次元画像からの物体の正確な地図の予測は困難である。
画像の解像度の異なるステージとスケールから特徴情報を校正する手法を提案する。
このアプローチは、複雑な領域における物体のテクスチャや幾何学といった、より物理的な情報を保存する。
論文 参考訳(メタデータ) (2024-04-11T14:05:37Z) - MatSpectNet: Material Segmentation Network with Domain-Aware and
Physically-Constrained Hyperspectral Reconstruction [13.451692195639696]
MatSpectNetは、RGB画像から回復したハイパースペクトル画像で材料を分割する新しいモデルである。
現代のカメラにおける色知覚の原理を利用して、再構成されたハイパースペクトル画像を制限する。
平均ピクセル精度は1.60%増加し、最新の出版物と比べて平均クラス精度は3.42%改善している。
論文 参考訳(メタデータ) (2023-07-21T10:02:02Z) - Learning-based Spatial and Angular Information Separation for Light
Field Compression [29.827366575505557]
光場の角情報と空間情報を分離できる新しいニューラルネットワークを提案する。
ネットワークは、全サブアパーチャ画像(SAI)間で共有される空間カーネルを用いて空間情報を表現し、各SAIに対して角カーネルの集合を用いた角情報を表す。
論文 参考訳(メタデータ) (2023-04-13T08:02:38Z) - Learning Enriched Features for Fast Image Restoration and Enhancement [166.17296369600774]
本稿では,ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とする。
我々は、高解像度の空間的詳細を同時に保存しながら、複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
提案手法は,デフォーカス・デブロアリング,画像デノイング,超解像,画像強調など,さまざまな画像処理タスクに対して,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2022-04-19T17:59:45Z) - NeROIC: Neural Rendering of Objects from Online Image Collections [42.02832046768925]
本稿では,オンライン画像コレクションからオブジェクト表現を取得し,任意のオブジェクトの高品質な形状と材料特性をキャプチャする手法を提案する。
これにより、新規ビュー合成、リライト、調和した背景合成など、さまざまなオブジェクト中心のレンダリングアプリケーションが可能になる。
論文 参考訳(メタデータ) (2022-01-07T16:45:15Z) - Multi-Content Complementation Network for Salient Object Detection in
Optical Remote Sensing Images [108.79667788962425]
光リモートセンシング画像(RSI-SOD)における有能な物体検出は、いまだに課題である。
本稿では, RSI-SOD における複数コンテンツの相補性を検討するために, MCCNet (Multi-Content Complementation Network) を提案する。
MCCMでは、前景機能、エッジ機能、背景機能、グローバル画像レベル機能など、RSI-SODにとって重要な複数の機能について検討する。
論文 参考訳(メタデータ) (2021-12-02T04:46:40Z) - Extracting Triangular 3D Models, Materials, and Lighting From Images [59.33666140713829]
多視点画像観測による材料と照明の協調最適化手法を提案する。
従来のグラフィックスエンジンにデプロイ可能な,空間的に変化する材料と環境を備えたメッシュを活用します。
論文 参考訳(メタデータ) (2021-11-24T13:58:20Z) - Generative Modelling of BRDF Textures from Flash Images [50.660026124025265]
我々は、容易にキャプチャ、セマンティックな編集、一貫した、視覚素材の外観の効率よく再現できる潜在空間を学習する。
2番目のステップでは、材料コードに基づいて、私たちの方法は、BRDFモデルパラメータの無限で多様な空間フィールドを生成します。
論文 参考訳(メタデータ) (2021-02-23T18:45:18Z) - Differential Viewpoints for Ground Terrain Material Recognition [32.91058153755717]
我々は、自律運転やロボットナビゲーションなどの応用のための地上地形認識を支援する大規模物質データベースを構築した。
我々は,RGB情報の深部符号化と,角度勾配特徴に対する微分角画像を組み合わせた,テクスチャ符号化型角ネットワーク(TEAN)と呼ばれる新しい材料認識手法を開発した。
その結果,TEANは単一ビュー性能と標準(非微分/大角サンプリング)マルチビュー性能を超越した認識性能を実現していることがわかった。
論文 参考訳(メタデータ) (2020-09-22T02:57:28Z) - Deep 3D Capture: Geometry and Reflectance from Sparse Multi-View Images [59.906948203578544]
本稿では,任意の物体の高品質な形状と複雑な空間変化を持つBRDFを再構成する学習に基づく新しい手法を提案する。
まず、深層多視点ステレオネットワークを用いて、ビューごとの深度マップを推定する。
これらの深度マップは、異なるビューを粗く整列するために使用される。
本稿では,新しい多視点反射率推定ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-27T21:28:54Z) - Learning Enriched Features for Real Image Restoration and Enhancement [166.17296369600774]
畳み込みニューラルネットワーク(CNN)は、画像復元作業における従来のアプローチよりも劇的に改善されている。
ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とした,新しいアーキテクチャを提案する。
提案手法は,高解像度の空間的詳細を同時に保存しながら,複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
論文 参考訳(メタデータ) (2020-03-15T11:04:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。