論文の概要: PREVIS -- A Combined Machine Learning and Visual Interpolation Approach
for Interactive Reverse Engineering in Assembly Quality Control
- arxiv url: http://arxiv.org/abs/2201.10257v1
- Date: Tue, 25 Jan 2022 11:56:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-26 23:44:27.584929
- Title: PREVIS -- A Combined Machine Learning and Visual Interpolation Approach
for Interactive Reverse Engineering in Assembly Quality Control
- Title(参考訳): PreVIS -- アセンブリ品質制御におけるインタラクティブリバースエンジニアリングのための機械学習と視覚補間を組み合わせたアプローチ
- Authors: Patrick Ruediger, Felix Claus, Viktor Leonhardt, Hans Hagen, Jan C.
Aurich, Christoph Garth
- Abstract要約: 本稿では、エンジニアリングアプリケーションにおける機械学習性能分析の強化を目的とした視覚分析ツールであるPreviSを提案する。
提案手法は, 回帰誤差が関心領域, 部分幾何学に与える影響を, 標準手法を用いて可視化する手法である。
ユーザ主導型パラメータ変更のリアルタイムプレビューを視覚的に行うことで,高速かつ説明可能なオンライン変更管理が可能になる。
- 参考スコア(独自算出の注目度): 4.629104550615219
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present PREVIS, a visual analytics tool, enhancing machine learning
performance analysis in engineering applications. The presented toolchain
allows for a direct comparison of regression models. In addition, we provide a
methodology to visualize the impact of regression errors on the underlying
field of interest in the original domain, the part geometry, via exploiting
standard interpolation methods. Further, we allow a real-time preview of
user-driven parameter changes in the displacement field via visual
interpolation. This allows for fast and accountable online change management.
We demonstrate the effectiveness with an ex-ante optimization of an automotive
engine hood.
- Abstract(参考訳): 本稿では,工学アプリケーションにおける機械学習の性能解析能力を向上させるビジュアルアナリティクスツールprevisを提案する。
提示されたツールチェーンは回帰モデルの直接比較を可能にする。
さらに,従来の補間手法を利用して,回帰誤差が元の領域,部分幾何学の関心領域に与える影響を可視化する手法を提案する。
さらに,視覚補間による変位場のユーザ駆動パラメータ変化のリアルタイムプレビューを可能にする。
これにより、迅速かつ説明可能なオンライン変更管理が可能になる。
自動車エンジンボンネットのアンティー最適化による性能評価を行った。
関連論文リスト
- Affine transformation estimation improves visual self-supervised
learning [4.40560654491339]
本研究では,アフィン変換の予測表現を制約するモジュールを追加することにより,学習プロセスの性能と効率が向上することを示す。
我々は、様々な近代的な自己監督モデルで実験を行い、全てのケースで性能改善を見る。
論文 参考訳(メタデータ) (2024-02-14T10:32:58Z) - Towards Full-scene Domain Generalization in Multi-agent Collaborative
Bird's Eye View Segmentation for Connected and Autonomous Driving [54.60458503590669]
協調認識の学習段階と推論段階の両方に適用可能な統合ドメイン一般化フレームワークを提案する。
我々は、AmpAug(Amplitude Augmentation)法を用いて、低周波画像の変動を増大させ、学習能力を拡大する。
推論フェーズでは、システム内ドメインアライメント機構を導入し、ドメインの不一致を減らし、潜在的に排除する。
論文 参考訳(メタデータ) (2023-11-28T12:52:49Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - AttentionViz: A Global View of Transformer Attention [60.82904477362676]
本研究では,変圧器の自己保持機構を研究者が理解するための新しい可視化手法を提案する。
提案手法の背景にある主な考え方は,問合せとキーベクトルの結合埋め込みを可視化し,注意力を計算することである。
このような共同クエリキーの埋め込みに基づいて,インタラクティブな可視化ツールであるAttentionVizを開発した。
論文 参考訳(メタデータ) (2023-05-04T23:46:49Z) - Consistency Learning via Decoding Path Augmentation for Transformers in
Human Object Interaction Detection [11.928724924319138]
変換器のHOI検出を改善するために,クロスパス整合性学習(CPC)を提案する。
提案手法の有効性を実証し, V-COCO, HICO-DETを改良した。
論文 参考訳(メタデータ) (2022-04-11T02:45:00Z) - Visualizing and Understanding Patch Interactions in Vision Transformer [96.70401478061076]
Vision Transformer (ViT) は様々なコンピュータビジョンタスクにおいて主要なツールとなっている。
本稿では,視覚変換器のパッチ間の重要な注意相互作用を分析し,解釈するための,説明可能な新しい可視化手法を提案する。
論文 参考訳(メタデータ) (2022-03-11T13:48:11Z) - AdViCE: Aggregated Visual Counterfactual Explanations for Machine
Learning Model Validation [9.996986104171754]
我々は,ブラックボックスモデルデバッグとバリデーションでユーザをガイドすることを目的とした視覚分析ツールであるAdViCEを紹介する。
1) ユーザ定義データサブセットの意思決定の比較を可能にするインタラクティブな可視化,(2) 反現実的説明の計算と視覚化を行うアルゴリズムとビジュアルデザイン。
論文 参考訳(メタデータ) (2021-09-12T22:52:12Z) - Transforming Feature Space to Interpret Machine Learning Models [91.62936410696409]
この貢献は、特徴空間変換のレンズを通して機械学習モデルを解釈する新しいアプローチを提案する。
非条件的および条件付きポストホック診断ツールの拡張に使用できる。
提案手法の可能性を実証するために,46特徴のリモートセンシング土地被覆分類の事例研究を行った。
論文 参考訳(メタデータ) (2021-04-09T10:48:11Z) - Domain Adaptive Robotic Gesture Recognition with Unsupervised
Kinematic-Visual Data Alignment [60.31418655784291]
本稿では,マルチモダリティ知識,すなわちキネマティックデータとビジュアルデータを同時にシミュレータから実ロボットに伝達できる,教師なしドメイン適応フレームワークを提案する。
ビデオの時間的手がかりと、ジェスチャー認識に対するマルチモーダル固有の相関を用いて、トランスファー可能な機能を強化したドメインギャップを修復する。
その結果, 本手法は, ACCでは最大12.91%, F1scoreでは20.16%と, 実際のロボットではアノテーションを使わずに性能を回復する。
論文 参考訳(メタデータ) (2021-03-06T09:10:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。