論文の概要: To Boldly Show What No One Has Seen Before: A Dashboard for Visualizing
Multi-objective Landscapes
- arxiv url: http://arxiv.org/abs/2011.14395v1
- Date: Sun, 29 Nov 2020 16:33:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-19 19:28:34.648508
- Title: To Boldly Show What No One Has Seen Before: A Dashboard for Visualizing
Multi-objective Landscapes
- Title(参考訳): 今まで誰も見なかったものを見せつける: 多目的景観を視覚化するダッシュボード
- Authors: Lennart Sch\"apermeier, Christian Grimme, Pascal Kerschke
- Abstract要約: 我々は1つのRパッケージ(moPLOT)にすべての最先端可視化手法をコンパイルした。
これにより、初めて3次元MOPのランドスケープ構造を説明することができる。
また、さまざまな共通ベンチマーク関数に対して、最先端の可視化を計算できるダッシュボードも提供しています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Simultaneously visualizing the decision and objective space of continuous
multi-objective optimization problems (MOPs) recently provided key
contributions in understanding the structure of their landscapes. For the sake
of advancing these recent findings, we compiled all state-of-the-art
visualization methods in a single R-package (moPLOT). Moreover, we extended
these techniques to handle three-dimensional decision spaces and propose two
solutions for visualizing the resulting volume of data points. This enables -
for the first time - to illustrate the landscape structures of
three-dimensional MOPs.
However, creating these visualizations using the aforementioned framework
still lays behind a high barrier of entry for many people as it requires basic
skills in R. To enable any user to create and explore MOP landscapes using
moPLOT, we additionally provide a dashboard that allows to compute the
state-of-the-art visualizations for a wide variety of common benchmark
functions through an interactive (web-based) user interface.
- Abstract(参考訳): 連続多目的最適化問題 (MOP) の意思決定と目的空間を同時に可視化し, ランドスケープの構造を理解する上で重要な貢献をした。
近年の知見を推し進めるため,1つのRパッケージ (moPLOT) に最先端の可視化手法をすべてコンパイルした。
さらに,これらの手法を3次元決定空間に拡張し,得られたデータ量を可視化する2つの方法を提案する。
これにより、3次元MOPのランドスケープ構造を初めて説明できる。
ユーザがmoplotを使ってmopのランドスケープを作成、探索できるように、私たちはさらに、インタラクティブな(webベースの)ユーザインターフェースを通じて、さまざまな共通ベンチマーク関数の最先端の可視化を計算できるダッシュボードも提供しています。
関連論文リスト
- Visualizing Extensions of Argumentation Frameworks as Layered Graphs [15.793271603711014]
AFを3層グラフレイアウトとして拡張とともに描画する新しい可視化手法を提案する。
我々の技術は、ユーザがより簡単に可視化されたAFを探索し、拡張をよりよく理解し、セマンティクスを計算するためのアルゴリズムを検証するのを支援する。
論文 参考訳(メタデータ) (2024-09-09T09:29:53Z) - Freeview Sketching: View-Aware Fine-Grained Sketch-Based Image Retrieval [85.73149096516543]
微細スケッチベース画像検索(FG-SBIR)におけるスケッチ作成時の視点選択について検討する。
パイロットスタディでは、クエリスケッチがターゲットインスタンスと異なる場合、システムの苦労を強調している。
これを解決するために、ビューに依存しないタスクとビュー固有のタスクの両方をシームレスに収容するビューアウェアシステムを提案する。
論文 参考訳(メタデータ) (2024-07-01T21:20:44Z) - ViewFormer: Exploring Spatiotemporal Modeling for Multi-View 3D Occupancy Perception via View-Guided Transformers [9.271932084757646]
3Dの占有は、前景と背景を物理的空間で区別することなく、全体のシーンをグリッドマップに表現する。
本稿では,効果的な多視点特徴集約のための学習優先視点アテンション機構を提案する。
既存の高品質データセットの上に構築されたベンチマークであるFlowOcc3Dを紹介します。
論文 参考訳(メタデータ) (2024-05-07T13:15:07Z) - N2F2: Hierarchical Scene Understanding with Nested Neural Feature Fields [112.02885337510716]
Nested Neural Feature Fields (N2F2)は、階層的な監視を用いて単一機能フィールドを学習する新しいアプローチである。
画像空間の任意のスケールで意味的に意味のある画素群を提供するために、2次元クラス非依存セグメンテーションモデルを利用する。
オープンな3次元セグメンテーションやローカライゼーションといったタスクにおいて,最先端のフィールド蒸留法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2024-03-16T18:50:44Z) - SM$^3$: Self-Supervised Multi-task Modeling with Multi-view 2D Images
for Articulated Objects [24.737865259695006]
そこで本研究では, SM$3$と呼ばれる自己教師型相互作用認識手法を提案する。
取得した2次元画像から3次元の幾何学とテクスチャを構築することで、SM$3$は可動部と関節パラメータの統合最適化を実現する。
SM$3$は、様々なカテゴリやオブジェクトにわたる既存のベンチマークを上回り、実際のシナリオにおける適応性は、徹底的に検証されている。
論文 参考訳(メタデータ) (2024-01-17T11:15:09Z) - 360 Layout Estimation via Orthogonal Planes Disentanglement and Multi-view Geometric Consistency Perception [56.84921040837699]
既存のパノラマ配置推定ソリューションは、垂直圧縮されたシーケンスから部屋の境界を復元し、不正確な結果をもたらす傾向にある。
そこで本稿では,直交平面不整合ネットワーク(DOPNet)を提案し,あいまいな意味論を識別する。
また,水平深度と比表現に適した教師なし適応手法を提案する。
本手法は,単分子配置推定と多視点レイアウト推定の両タスクにおいて,他のSoTAモデルよりも優れる。
論文 参考訳(メタデータ) (2023-12-26T12:16:03Z) - Rethinking Range View Representation for LiDAR Segmentation [66.73116059734788]
「多対一」マッピング、意味的不整合、形状変形は、射程射影からの効果的な学習に対する障害となる可能性がある。
RangeFormerは、ネットワークアーキテクチャ、データ拡張、後処理を含む新しい設計を含む、フルサイクルのフレームワークである。
比較対象のLiDARセマンティックスとパノプティックスセグメンテーションのベンチマークにおいて,初めてレンジビュー法が点,ボクセル,マルチビューフュージョンを越えられることを示す。
論文 参考訳(メタデータ) (2023-03-09T16:13:27Z) - A Simple Baseline for Multi-Camera 3D Object Detection [94.63944826540491]
周囲のカメラで3Dオブジェクトを検出することは、自動運転にとって有望な方向だ。
マルチカメラオブジェクト検出のための簡易ベースラインであるSimMODを提案する。
我々は, nuScenes の3次元オブジェクト検出ベンチマークにおいて, SimMOD の有効性を示す広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-08-22T03:38:01Z) - Neural Volumetric Object Selection [126.04480613166194]
マルチプレーン画像(MPI)やニューラルレイディアンスフィールド(NeRF)のような,神経体積の3次元表現における物体の選択手法を提案する。
提案手法では,前景と背景の2次元ユーザを1つの視点で記述し,対象物の3次元セグメンテーションを自動的に推定する。
論文 参考訳(メタデータ) (2022-05-30T08:55:20Z) - Learning Implicit 3D Representations of Dressed Humans from Sparse Views [31.584157304372425]
本論文では,スパースなカメラビューから服姿の人間の暗黙的な3D表現を学習するエンドツーエンドのアプローチを提案する。
実験では, 提案手法が, 定量的・定性的に標準データに対する技術水準を上回っていることを示した。
論文 参考訳(メタデータ) (2021-04-16T10:20:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。