論文の概要: Contrastive Spatial Reasoning on Multi-View Line Drawings
- arxiv url: http://arxiv.org/abs/2104.13433v1
- Date: Tue, 27 Apr 2021 19:05:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-29 13:02:09.894973
- Title: Contrastive Spatial Reasoning on Multi-View Line Drawings
- Title(参考訳): 多視点線描画におけるコントラスト空間推論
- Authors: Siyuan Xiang, Anbang Yang, Yanfei Xue, Yaoqing Yang, Chen Feng
- Abstract要約: SPARE3Dデータセットでは、最先端の監視されたディープネットワークが低パフォーマンスのパズルを見せます。
ベースライン性能を向上させるために、他のネットワーク変更とともに単純な対比学習アプローチを提案します。
提案手法では,自己教師付きバイナリ分類ネットワークを用いて,類似する2種類の3dオブジェクトのさまざまなビュー間の線描画の違いを比較する。
- 参考スコア(独自算出の注目度): 11.102238863932255
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spatial reasoning on multi-view line drawings by state-of-the-art supervised
deep networks is recently shown with puzzling low performances on the SPARE3D
dataset. To study the reason behind the low performance and to further our
understandings of these tasks, we design controlled experiments on both input
data and network designs. Guided by the hindsight from these experiment
results, we propose a simple contrastive learning approach along with other
network modifications to improve the baseline performance. Our approach uses a
self-supervised binary classification network to compare the line drawing
differences between various views of any two similar 3D objects. It enables
deep networks to effectively learn detail-sensitive yet view-invariant line
drawing representations of 3D objects. Experiments show that our method could
significantly increase the baseline performance in SPARE3D, while some popular
self-supervised learning methods cannot.
- Abstract(参考訳): 最先端の深層ネットワークによる多視点線描画における空間的推論は,SPARE3Dデータセット上での低性能化とともに最近示されている。
低性能の背景にある理由とこれらの課題の理解を深めるために,入力データとネットワーク設計の両方に関する制御実験を設計する。
これらの実験結果から後ろ向きに導いた結果,ベースライン性能を改善するために,他のネットワーク修正とともに単純なコントラスト学習手法を提案する。
提案手法では,自己教師付きバイナリ分類ネットワークを用いて,類似する2種類の3dオブジェクトのさまざまなビュー間の線描画の違いを比較する。
ディープネットワークは、3Dオブジェクトのディテールに敏感だがビューに不変な線描画表現を効果的に学習することができる。
実験の結果,SPARE3Dのベースライン性能は向上するが,一般的な自己教師型学習手法では実現できないことがわかった。
関連論文リスト
- HVDistill: Transferring Knowledge from Images to Point Clouds via Unsupervised Hybrid-View Distillation [106.09886920774002]
本稿では,HVDistillと呼ばれるハイブリッドビューに基づく知識蒸留フレームワークを提案する。
提案手法は,スクラッチからトレーニングしたベースラインに対して一貫した改善を実現し,既存のスキームを大幅に上回っている。
論文 参考訳(メタデータ) (2024-03-18T14:18:08Z) - RadOcc: Learning Cross-Modality Occupancy Knowledge through Rendering
Assisted Distillation [50.35403070279804]
マルチビュー画像を用いた3次元シーンの占有状況とセマンティクスを推定することを目的とした,新たな課題である3D占有予測手法を提案する。
本稿では,RandOccを提案する。Rendering Assisted distillation paradigm for 3D Occupancy prediction。
論文 参考訳(メタデータ) (2023-12-19T03:39:56Z) - Fine-Tuned but Zero-Shot 3D Shape Sketch View Similarity and Retrieval [8.540349872620993]
ゼロショット設定では、スケッチが抽象的になるほど、誤った画像が一致する可能性が高くなることを示す。
我々の研究の重要な発見の1つは、ある種類の3次元形状を巧妙に微調整することで、他の形状のクラスの性能が向上することである。
論文 参考訳(メタデータ) (2023-06-14T14:40:50Z) - Designing Deep Networks for Scene Recognition [3.493180651702109]
ネットワーク設計において広く受け入れられている原則を実証するために、広範な実験を行い、データを変更すると劇的な性能差が生じる可能性があることを実証する。
本稿では,データ指向ネットワーク設計という新しいネットワーク設計手法を提案する。
本稿では,半分未満の計算資源を用いてシーン認識性能を向上させるディープ・ナロー・ネットワークとDilated Poolingモジュールを提案する。
論文 参考訳(メタデータ) (2023-03-13T18:28:06Z) - FuNNscope: Visual microscope for interactively exploring the loss
landscape of fully connected neural networks [77.34726150561087]
ニューラルネットワークの高次元景観特性を探索する方法を示す。
我々は、小さなニューラルネットワークの観測結果をより複雑なシステムに一般化する。
インタラクティブダッシュボードは、いくつかのアプリケーションネットワークを開放する。
論文 参考訳(メタデータ) (2022-04-09T16:41:53Z) - Vis2Mesh: Efficient Mesh Reconstruction from Unstructured Point Clouds
of Large Scenes with Learned Virtual View Visibility [17.929307870456416]
非構造点雲からのメッシュ再構築のための新しいフレームワークを提案する。
仮想ビューと従来のグラフカットベースのメッシュ生成において、学習した3Dポイントの可視性を活用します。
論文 参考訳(メタデータ) (2021-08-18T20:28:16Z) - Deep Contrastive Learning for Multi-View Network Embedding [20.035449838566503]
マルチビューネットワーク埋め込みは、ネットワーク内のノードを低次元ベクトルに投影することを目的としている。
ほとんどの対照的な学習ベースの手法は、主に高品質なグラフ埋め込みに依存している。
マルチビューネットワーク埋め込み(CREME)のための新しいノード間コントラスト学習フレームワークを設計する。
論文 参考訳(メタデータ) (2021-08-16T06:29:18Z) - Image GANs meet Differentiable Rendering for Inverse Graphics and
Interpretable 3D Neural Rendering [101.56891506498755]
異なるレンダリングによって、ニューラルネットワークをトレーニングして"逆グラフィックス"タスクを実行する方法が舗装された。
提案手法は,既存のデータセットでトレーニングした最先端の逆グラフネットワークを著しく上回ることを示す。
論文 参考訳(メタデータ) (2020-10-18T22:29:07Z) - Improving Point Cloud Semantic Segmentation by Learning 3D Object
Detection [102.62963605429508]
ポイントクラウドセマンティックセグメンテーションは、自動運転において重要な役割を果たす。
現在の3Dセマンティックセグメンテーションネットワークは、よく表現されたクラスに対して優れた性能を発揮する畳み込みアーキテクチャに焦点を当てている。
Aware 3D Semantic Detection (DASS) フレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-22T14:17:40Z) - PointContrast: Unsupervised Pre-training for 3D Point Cloud
Understanding [107.02479689909164]
本研究では,3次元表現学習の研究を支援することを目的とする。
教師なし事前学習が3Dシーンの大規模なソースセットに与える影響を計測する。
論文 参考訳(メタデータ) (2020-07-21T17:59:22Z) - PVSNet: Pixelwise Visibility-Aware Multi-View Stereo Network [32.41293572426403]
頑健な高密度3次元再構成を実現するために,PVSNet (Pixelwise Visibility-aware multi-view Stereo Network) を提案する。
PVSNetは、近隣のさまざまなビューの可視性情報をキャプチャできる最初のディープラーニングフレームワークである。
実験によると、PVSNetは異なるデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-07-15T14:39:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。