論文の概要: SDE-AWB: a Generic Solution for 2nd International Illumination
Estimation Challenge
- arxiv url: http://arxiv.org/abs/2010.05149v1
- Date: Sun, 11 Oct 2020 03:31:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 13:42:51.132846
- Title: SDE-AWB: a Generic Solution for 2nd International Illumination
Estimation Challenge
- Title(参考訳): SDE-AWB:第2回国際照明推定問題のための総合解法
- Authors: Yanlin Qian and Sibo Feng and Kang Qian and Miaofeng Wang
- Abstract要約: 第2回国際照明推定チャレンジ(彩度.iitp.ru)の3つの異なるトラックに対するニューラルネットワークによる解法を提案する。
本手法は,Squeeze-Netバックボーン,ディファレンシャル2次元クロマトグラフィー層,浅部Exif情報に基づいて構築した。
セマンティックな特徴、色の特徴、Exifメタデータを組み合わせることで、SDE-AWBは室内と室内の両方で第1位、一般のトラックでは第2位となる。
- 参考スコア(独自算出の注目度): 3.452491349203391
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a neural network-based solution for three different tracks of 2nd
International Illumination Estimation Challenge (chromaticity.iitp.ru). Our
method is built on pre-trained Squeeze-Net backbone, differential 2D chroma
histogram layer and a shallow MLP utilizing Exif information. By combining
semantic feature, color feature and Exif metadata, the resulting method --
SDE-AWB -- obtains 1st place in both indoor and two-illuminant tracks and 2nd
place in general track.
- Abstract(参考訳): 第2回国際照明評価課題(chromaticity.iitp.ru)の3つの異なるトラックに対するニューラルネットワークに基づく解法を提案する。
本手法は,事前学習したSqueeze-Netバックボーン,差分2Dクロマトグラフィー層,およびExif情報を利用した浅部MLPを用いて構築した。
意味的特徴,色特徴,Exifメタデータを組み合わせることで,SDE-AWBは室内2照度線,一般2照度線ともに第1位となる。
関連論文リスト
- LiOn-XA: Unsupervised Domain Adaptation via LiDAR-Only Cross-Modal Adversarial Training [61.26381389532653]
LiOn-XAは、LiDAR-Only Cross-Modal (X)学習と3D LiDARポイントクラウドセマンティックセマンティックセグメンテーションのためのAdversarial Trainingを組み合わせた、教師なしドメイン適応(UDA)アプローチである。
3つの現実的適応シナリオに関する実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2024-10-21T09:50:17Z) - NIS-SLAM: Neural Implicit Semantic RGB-D SLAM for 3D Consistent Scene Understanding [31.56016043635702]
NIS-SLAMは,高効率な暗黙的意味論的RGB-D SLAMシステムである。
高忠実な表面再構成と空間的一貫したシーン理解のために、我々は高周波多分解能テトラヘドロンに基づく特徴を組み合わせた。
また、我々のアプローチが拡張現実のアプリケーションに応用可能であることも示している。
論文 参考訳(メタデータ) (2024-07-30T14:27:59Z) - Label-Efficient 3D Brain Segmentation via Complementary 2D Diffusion Models with Orthogonal Views [10.944692719150071]
相補的な2次元拡散モデルを用いた新しい3次元脳分割法を提案する。
私たちのゴールは、個々の主題に対して完全なラベルを必要とせずに、信頼性の高いセグメンテーション品質を達成することです。
論文 参考訳(メタデータ) (2024-07-17T06:14:53Z) - StableDreamer: Taming Noisy Score Distillation Sampling for Text-to-3D [88.66678730537777]
本稿では3つの進歩を取り入れた方法論であるStableDreamerを紹介する。
まず、SDS生成前の等価性と、簡単な教師付きL2再構成損失を定式化する。
第2に,画像空間拡散は幾何学的精度に寄与するが,色調の鮮明化には潜時空間拡散が不可欠であることを示す。
論文 参考訳(メタデータ) (2023-12-02T02:27:58Z) - Scene-Generalizable Interactive Segmentation of Radiance Fields [64.37093918762]
我々はSGISRF(Scene-Generalizable Interactive in Radiance Fields)の最初の試みを行う。
そこで本研究では,複数視点の2D画像に対して,対話的なユーザクリック数回しか表示されない,新しい(見えない)シーンの3Dオブジェクトセグメンテーションを実現するSGISRF手法を提案する。
多様なシーンをカバーする2つの実世界の挑戦的ベンチマーク実験は,1) 提案手法の有効性とシーン一般化性を示し,2) シーン固有の最適化を必要とする古典的手法と比較して良好な性能を示した。
論文 参考訳(メタデータ) (2023-08-09T17:55:50Z) - LPFormer: LiDAR Pose Estimation Transformer with Multi-Task Network [12.968650885640127]
従来のヒトのポーズ推定法は2次元画像の特徴や連続した2次元アノテーションに頼っていた。
本稿では,LDARのみを入力として使用するLPFormerという,エンドツーエンドの3次元ポーズ推定のための第1のフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-21T19:20:15Z) - MBDF-Net: Multi-Branch Deep Fusion Network for 3D Object Detection [17.295359521427073]
3次元物体検出のためのMulti-Branch Deep Fusion Network (MBDF-Net)を提案する。
最初の段階では、マルチブランチ機能抽出ネットワークは、Adaptive Attention Fusionモジュールを使用して、単一モーダルなセマンティックな特徴からクロスモーダルな融合機能を生成する。
第2段階では、関心領域(RoI)をプールした核融合モジュールを用いて局所的な特徴を改良する。
論文 参考訳(メタデータ) (2021-08-29T15:40:15Z) - Depth-conditioned Dynamic Message Propagation for Monocular 3D Object
Detection [86.25022248968908]
モノラル3Dオブジェクト検出の問題を解決するために、コンテキストと奥行きを認識する特徴表現を学びます。
KITTIベンチマークデータセットにおける単眼的アプローチにおける最新の結果を示す。
論文 参考訳(メタデータ) (2021-03-30T16:20:24Z) - Learning Joint 2D-3D Representations for Depth Completion [90.62843376586216]
2Dおよび3Dの関節の特徴を抽出することを学ぶシンプルで効果的なニューラルネットワークブロックを設計します。
具体的には、画像画素に2D畳み込みと3D点に連続畳み込みを施した2つのドメイン固有のサブネットワークから構成される。
論文 参考訳(メタデータ) (2020-12-22T22:58:29Z) - Cross-Modality 3D Object Detection [63.29935886648709]
本稿では,3次元物体検出のための新しい2段階多モード融合ネットワークを提案する。
アーキテクチャ全体が2段階の融合を促進する。
KITTIデータセットを用いた実験により,提案したマルチステージ融合により,ネットワークがより良い表現を学習できることが示唆された。
論文 参考訳(メタデータ) (2020-08-16T11:01:20Z) - Attention-based Multi-modal Fusion Network for Semantic Scene Completion [35.93265545962268]
本稿では,セマンティック・シーン・コンプリート(SSC)タスクのための,アテンションベースマルチモーダル・フュージョン・ネットワーク(AMFNet)というエンドツーエンドの3D畳み込みネットワークを提案する。
RGB-D画像から抽出した意味的特徴のみを利用する従来の手法と比較して,提案するAMFNetは,効果的な3Dシーン補完とセマンティックセグメンテーションを同時に行うことを学習する。
2次元セマンティックセグメンテーションと、3次元セマンティックコンプリートネットワークにより強化されたマルチモーダルフュージョンアーキテクチャを用いて実現されている。
論文 参考訳(メタデータ) (2020-03-31T02:00:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。