論文の概要: To Boldly Show What No One Has Seen Before: A Dashboard for Visualizing
Multi-objective Landscapes
- arxiv url: http://arxiv.org/abs/2011.14395v1
- Date: Sun, 29 Nov 2020 16:33:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-19 19:28:34.648508
- Title: To Boldly Show What No One Has Seen Before: A Dashboard for Visualizing
Multi-objective Landscapes
- Title(参考訳): 今まで誰も見なかったものを見せつける: 多目的景観を視覚化するダッシュボード
- Authors: Lennart Sch\"apermeier, Christian Grimme, Pascal Kerschke
- Abstract要約: 我々は1つのRパッケージ(moPLOT)にすべての最先端可視化手法をコンパイルした。
これにより、初めて3次元MOPのランドスケープ構造を説明することができる。
また、さまざまな共通ベンチマーク関数に対して、最先端の可視化を計算できるダッシュボードも提供しています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Simultaneously visualizing the decision and objective space of continuous
multi-objective optimization problems (MOPs) recently provided key
contributions in understanding the structure of their landscapes. For the sake
of advancing these recent findings, we compiled all state-of-the-art
visualization methods in a single R-package (moPLOT). Moreover, we extended
these techniques to handle three-dimensional decision spaces and propose two
solutions for visualizing the resulting volume of data points. This enables -
for the first time - to illustrate the landscape structures of
three-dimensional MOPs.
However, creating these visualizations using the aforementioned framework
still lays behind a high barrier of entry for many people as it requires basic
skills in R. To enable any user to create and explore MOP landscapes using
moPLOT, we additionally provide a dashboard that allows to compute the
state-of-the-art visualizations for a wide variety of common benchmark
functions through an interactive (web-based) user interface.
- Abstract(参考訳): 連続多目的最適化問題 (MOP) の意思決定と目的空間を同時に可視化し, ランドスケープの構造を理解する上で重要な貢献をした。
近年の知見を推し進めるため,1つのRパッケージ (moPLOT) に最先端の可視化手法をすべてコンパイルした。
さらに,これらの手法を3次元決定空間に拡張し,得られたデータ量を可視化する2つの方法を提案する。
これにより、3次元MOPのランドスケープ構造を初めて説明できる。
ユーザがmoplotを使ってmopのランドスケープを作成、探索できるように、私たちはさらに、インタラクティブな(webベースの)ユーザインターフェースを通じて、さまざまな共通ベンチマーク関数の最先端の可視化を計算できるダッシュボードも提供しています。
関連論文リスト
- SM$^3$: Self-Supervised Multi-task Modeling with Multi-view 2D Images
for Articulated Objects [24.737865259695006]
そこで本研究では, SM$3$と呼ばれる自己教師型相互作用認識手法を提案する。
取得した2次元画像から3次元の幾何学とテクスチャを構築することで、SM$3$は可動部と関節パラメータの統合最適化を実現する。
SM$3$は、様々なカテゴリやオブジェクトにわたる既存のベンチマークを上回り、実際のシナリオにおける適応性は、徹底的に検証されている。
論文 参考訳(メタデータ) (2024-01-17T11:15:09Z) - 360 Layout Estimation via Orthogonal Planes Disentanglement and
Multi-view Geometric Consistency Perception [60.23832277827669]
既存のパノラマ配置推定ソリューションは、垂直圧縮されたシーケンスから部屋の境界を復元する傾向がある。
水平深度と比表現に適した教師なし適応手法を提案する。
また,決定レベルのレイアウト解析のための最適化手法と,特徴レベルのマルチビューアグリゲーションのための1次元コストボリューム構築手法も導入する。
論文 参考訳(メタデータ) (2023-12-26T12:16:03Z) - A Simple Baseline for Supervised Surround-view Depth Estimation [25.81521612343612]
本稿では,S3Depthを提案する。
我々はCNNとトランスフォーマー層を組み合わせたグローバル・ローカルな特徴抽出モジュールを用いて表現を豊かにする。
本手法は,既存のDDADおよびnuScenesデータセット上での最先端手法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2023-03-14T10:06:19Z) - Rethinking Range View Representation for LiDAR Segmentation [66.73116059734788]
「多対一」マッピング、意味的不整合、形状変形は、射程射影からの効果的な学習に対する障害となる可能性がある。
RangeFormerは、ネットワークアーキテクチャ、データ拡張、後処理を含む新しい設計を含む、フルサイクルのフレームワークである。
比較対象のLiDARセマンティックスとパノプティックスセグメンテーションのベンチマークにおいて,初めてレンジビュー法が点,ボクセル,マルチビューフュージョンを越えられることを示す。
論文 参考訳(メタデータ) (2023-03-09T16:13:27Z) - A Simple Baseline for Multi-Camera 3D Object Detection [94.63944826540491]
周囲のカメラで3Dオブジェクトを検出することは、自動運転にとって有望な方向だ。
マルチカメラオブジェクト検出のための簡易ベースラインであるSimMODを提案する。
我々は, nuScenes の3次元オブジェクト検出ベンチマークにおいて, SimMOD の有効性を示す広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-08-22T03:38:01Z) - Neural Volumetric Object Selection [126.04480613166194]
マルチプレーン画像(MPI)やニューラルレイディアンスフィールド(NeRF)のような,神経体積の3次元表現における物体の選択手法を提案する。
提案手法では,前景と背景の2次元ユーザを1つの視点で記述し,対象物の3次元セグメンテーションを自動的に推定する。
論文 参考訳(メタデータ) (2022-05-30T08:55:20Z) - Vis2Mesh: Efficient Mesh Reconstruction from Unstructured Point Clouds
of Large Scenes with Learned Virtual View Visibility [17.929307870456416]
非構造点雲からのメッシュ再構築のための新しいフレームワークを提案する。
仮想ビューと従来のグラフカットベースのメッシュ生成において、学習した3Dポイントの可視性を活用します。
論文 参考訳(メタデータ) (2021-08-18T20:28:16Z) - Learning Implicit 3D Representations of Dressed Humans from Sparse Views [31.584157304372425]
本論文では,スパースなカメラビューから服姿の人間の暗黙的な3D表現を学習するエンドツーエンドのアプローチを提案する。
実験では, 提案手法が, 定量的・定性的に標準データに対する技術水準を上回っていることを示した。
論文 参考訳(メタデータ) (2021-04-16T10:20:26Z) - Self-supervised Human Detection and Segmentation via Multi-view
Consensus [116.92405645348185]
本稿では,トレーニング中に幾何学的制約を多視点一貫性という形で組み込むマルチカメラフレームワークを提案する。
本手法は,標準ベンチマークから視覚的に外れた画像に対して,最先端の自己監視的人物検出とセグメンテーション技術に勝ることを示す。
論文 参考訳(メタデータ) (2020-12-09T15:47:21Z) - End-to-End Learning Local Multi-view Descriptors for 3D Point Clouds [67.27510166559563]
3Dポイントクラウドのためのローカルなマルチビュー記述子を学習するためのエンドツーエンドフレームワークを提案する。
本手法は,既存の局所記述子を定量的かつ定性的に上回る。
論文 参考訳(メタデータ) (2020-03-12T15:41:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。