論文の概要: General Line Coordinates in 3D
- arxiv url: http://arxiv.org/abs/2403.13014v1
- Date: Sun, 17 Mar 2024 17:42:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-21 21:08:57.553570
- Title: General Line Coordinates in 3D
- Title(参考訳): 一般線3次元座標
- Authors: Joshua Martinez, Boris Kovalerchuk,
- Abstract要約: 3Dビジュアライゼーションにおける解釈可能なインタラクティブな視覚パターン発見は、機械学習を前進させる有望な方法である。
GLC (3D General Line Coordinates) 可視化空間で行われ、3D内のすべてのn-D情報を保存している。
- 参考スコア(独自算出の注目度): 2.9465623430708905
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interpretable interactive visual pattern discovery in lossless 3D visualization is a promising way to advance machine learning. It enables end users who are not data scientists to take control of the model development process as a self-service. It is conducted in 3D General Line Coordinates (GLC) visualization space, which preserves all n-D information in 3D. This paper presents a system which combines three types of GLC: Shifted Paired Coordinates (SPC), Shifted Tripled Coordinates (STC), and General Line Coordinates-Linear (GLC-L) for interactive visual pattern discovery. A transition from 2-D visualization to 3-D visualization allows for a more distinct visual pattern than in 2-D and it also allows for finding the best data viewing positions, which are not available in 2-D. It enables in-depth visual analysis of various class-specific data subsets comprehensible for end users in the original interpretable attributes. Controlling model overgeneralization by end users is an additional benefit of this approach.
- Abstract(参考訳): ロスレス3Dビジュアライゼーションにおける解釈可能なインタラクティブな視覚パターン発見は、機械学習を前進させる有望な方法である。
これにより、データサイエンティストではないエンドユーザが、セルフサービスとしてモデル開発プロセスをコントロールできるようになる。
GLC (3D General Line Coordinates) 可視化空間で行われ、3D内のすべてのn-D情報を保存している。
本稿では,3種類のLCC: Shifted Paired Coordinates (SPC), Shifted Tripled Coordinates (STC), General Line Coordinates-Linear (GLC-L) を組み合わせた対話型視覚パターン探索システムを提案する。
2次元ビジュアライゼーションから3次元ビジュアライゼーションへの移行により、2次元よりも視覚的なパターンがより明確になり、また、2次元では利用できない最高のデータ表示位置を見つけることもできる。
元の解釈可能な属性のエンドユーザーにとって理解しやすい、様々なクラス固有のデータサブセットの詳細なビジュアル分析を可能にする。
エンドユーザーによるモデルオーバージェネリゼーションの制御は、このアプローチのさらなる利点である。
関連論文リスト
- GEAL: Generalizable 3D Affordance Learning with Cross-Modal Consistency [50.11520458252128]
既存の3Dアベイランス学習手法は、注釈付きデータに制限があるため、一般化と堅牢性に苦慮している。
本稿では,大規模事前学習型2Dモデルを活用することで,3次元アベイランス学習の一般化と堅牢性を高めるための新しいフレームワークであるGEALを提案する。
GEALは、既存のメソッドと、新しいオブジェクトカテゴリ、および破損したデータにおいて、一貫して優れています。
論文 参考訳(メタデータ) (2024-12-12T17:59:03Z) - Bootstraping Clustering of Gaussians for View-consistent 3D Scene Understanding [59.51535163599723]
FreeGSは、教師なしセマンティック組み込み3DGSフレームワークで、2Dラベルを必要とせずに、ビュー一貫性のある3Dシーン理解を実現する。
我々は、FreeGSが複雑なデータ前処理作業の負荷を回避しつつ、最先端のメソッドと互換性があることを示す。
論文 参考訳(メタデータ) (2024-11-29T08:52:32Z) - Enhancing Generalizability of Representation Learning for Data-Efficient 3D Scene Understanding [50.448520056844885]
本研究では,実世界のパターンを持つ多様な合成シーンを生成可能なベイズネットワークを提案する。
一連の実験は、既存の最先端の事前学習手法に比べて、我々の手法が一貫した優位性を示す。
論文 参考訳(メタデータ) (2024-06-17T07:43:53Z) - Cross-Modal Self-Training: Aligning Images and Pointclouds to Learn Classification without Labels [69.55622471172941]
CLIPのような大規模ビジョン2D視覚言語モデルは、一般化可能な(オープン語彙)3D視覚モデルを学ぶために3Dエンコーダと整列することができる。
ゼロショット3Dビジョンモデルのラベルなし分類性能を改善するために、クロスモーダル自己訓練(Cross-MoST: Cross-Modal Self-Training)を提案する。
論文 参考訳(メタデータ) (2024-04-15T21:30:50Z) - Every Dataset Counts: Scaling up Monocular 3D Object Detection with Joint Datasets Training [9.272389295055271]
本研究では,多種多様な3次元および2次元データセットを用いたモノクロ3次元物体検出モデルの学習パイプラインについて検討した。
提案フレームワークは,(1)様々なカメラ設定にまたがって機能するロバストなモノクル3Dモデル,(2)異なるクラスアノテーションでデータセットを適応するための選択学習戦略,(3)2Dラベルを用いた擬似3Dトレーニング手法により,2Dラベルのみを含むシーンにおける検出性能を向上させる。
論文 参考訳(メタデータ) (2023-10-02T06:17:24Z) - Full High-Dimensional Intelligible Learning In 2-D Lossless
Visualization Space [7.005458308454871]
本研究では,2次元可視化空間(2次元ML)における機械学習分類タスクの新しい手法について検討する。
これは、抽象的なn次元空間でn次元データを処理する必要のない、完全な機械学習アプローチであることが示されている。
2次元空間におけるn-Dパターンの発見を可能にし、n-Dデータのグラフ表現を用いてn-D情報を失うことなく2次元空間におけるn-Dパターンの発見を可能にする。
論文 参考訳(メタデータ) (2023-05-29T00:21:56Z) - MvDeCor: Multi-view Dense Correspondence Learning for Fine-grained 3D
Segmentation [91.6658845016214]
そこで本研究では,2次元領域における自己教師型手法を,微細な3次元形状分割作業に活用することを提案する。
複数のビューから3次元形状を描画し、コントラスト学習フレームワーク内に密接な対応学習タスクを設置する。
その結果、学習された2次元表現はビュー不変であり、幾何学的に一貫性がある。
論文 参考訳(メタデータ) (2022-08-18T00:48:15Z) - Hierarchical View Predictor: Unsupervised 3D Global Feature Learning
through Hierarchical Prediction among Unordered Views [69.83935019958334]
階層型ビュー予測器という,ビューに基づくディープラーニングモデルを提案する。
HVPは、教師なしの方法で、秩序のないビューから3D形状の特徴を学習する。
以上の結果から,HVPは大規模3次元形状ベンチマークにおいて最先端の手法より優れることが示された。
論文 参考訳(メタデータ) (2021-08-08T22:07:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。