論文の概要: MMRNet: Improving Reliability for Multimodal Computer Vision for Bin
Picking via Multimodal Redundancy
- arxiv url: http://arxiv.org/abs/2210.10842v1
- Date: Wed, 19 Oct 2022 19:15:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 14:14:10.276579
- Title: MMRNet: Improving Reliability for Multimodal Computer Vision for Bin
Picking via Multimodal Redundancy
- Title(参考訳): MMRNet:マルチモーダル冗長性によるビンピッキングのためのマルチモーダルコンピュータビジョンの信頼性向上
- Authors: Yuhao Chen, Hayden Gunraj, E. Zhixuan Zeng, Maximilian Gilles,
Alexander Wong
- Abstract要約: オブジェクト検出とセグメンテーションを扱うために,MMRNet(MultiModal Redundancy)を用いた信頼性の高い視覚システムを提案する。
これは、マルチモーダル冗長の概念を導入し、デプロイメント中にセンサー故障問題に対処する最初のシステムである。
- 参考スコア(独自算出の注目度): 72.85526892440251
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, there has been tremendous interest in industry 4.0 infrastructure
to address labor shortages in global supply chains. Deploying artificial
intelligence-enabled robotic bin picking systems in real world has become
particularly important for reducing labor demands and costs while increasing
efficiency. To this end, artificial intelligence-enabled robotic bin picking
systems may be used to automate bin picking, but may also cause expensive
damage during an abnormal event such as a sensor failure. As such, reliability
becomes a critical factor for translating artificial intelligence research to
real world applications and products. In this paper, we propose a reliable
vision system with MultiModal Redundancy (MMRNet) for tackling object detection
and segmentation for robotic bin picking using data from different modalities.
This is the first system that introduces the concept of multimodal redundancy
to combat sensor failure issues during deployment. In particular, we realize
the multimodal redundancy framework with a gate fusion module and dynamic
ensemble learning. Finally, we present a new label-free multimodal consistency
score that utilizes the output from all modalities to measure the overall
system output reliability and uncertainty. Through experiments, we demonstrate
that in an event of missing modality, our system provides a much more reliable
performance compared to baseline models. We also demonstrate that our MC score
is a more powerful reliability indicator for outputs during inference time
where model generated confidence score are often over-confident.
- Abstract(参考訳): 近年,グローバルサプライチェーンの労働不足に対処する産業4.0インフラへの関心が高まっている。
人工知能を利用したロボットビンピッキングシステムを現実世界に展開することは、効率を高めながら労働需要とコストを削減するために特に重要になっている。
この目的のために、人工知能対応のロボットビンピッキングシステムは、ビンピッキングの自動化に使用されるが、センサーの故障などの異常事象時に高価な損傷を引き起こすこともある。
そのため、人工知能研究を現実世界のアプリケーションや製品に翻訳する上で、信頼性は重要な要素となる。
本稿では,マルチモーダル冗長性(mmrnet)を用いたロボットビンピッキングのための物体検出とセグメンテーションのための信頼性の高い視覚システムを提案する。
これは、マルチモーダル冗長の概念を導入し、デプロイメント中にセンサー故障問題に対処する最初のシステムである。
特に,ゲート融合モジュールと動的アンサンブル学習を用いたマルチモーダル冗長性フレームワークを実現する。
最後に,システム全体のアウトプット信頼性と不確実性を測定するために,すべてのモダリティから出力されるラベルフリーのマルチモーダル一貫性スコアを提案する。
実験により,モダリティが欠如している場合,本システムはベースラインモデルよりもはるかに信頼性の高い性能を提供することを示した。
また、我々のMCスコアは、モデル生成信頼度が過度に信頼される場合の予測時間における出力の信頼性指標であることを示す。
関連論文リスト
- RADAR: Robust Two-stage Modality-incomplete Industrial Anomaly Detection [61.71770293720491]
本稿では,2段階のロバスト・モードアリティ不完全融合とFlaAmewoRkの検出について提案する。
我々のブートストラッピング哲学は、MIIADの2段階を強化し、マルチモーダルトランスの堅牢性を向上させることである。
実験の結果,提案手法は従来のMIAD法よりも有効性とロバスト性に優れていた。
論文 参考訳(メタデータ) (2024-10-02T16:47:55Z) - SAMSA: Efficient Transformer for Many Data Modalities [12.7600763629179]
本稿では,コンテキスト認識型線形複雑性自己認識機構SAMSA-SAMpling-Self-Attentionを提案する。
我々のメカニズムは、私たちが発見した代替手法を使わずに、微分可能なサンプリングに基づいています。
SAMSAは多くのベンチマークで競合やSOTAの結果を得たが、他の非常に特殊なモデルに比べて推論が速い。
論文 参考訳(メタデータ) (2024-08-10T00:09:06Z) - Efficient Multi-Resolution Fusion for Remote Sensing Data with Label
Uncertainty [0.7832189413179361]
本稿では,画素レベルのトレーニングラベルを必要とせず,マルチモーダル・マルチレゾリューションリモートセンサデータを融合する新しい手法を提案する。
探索空間を削減し,MIMRFフレームワークの効率を大幅に改善する二元ファジィ測度に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-02-07T17:34:32Z) - Practical Anomaly Detection over Multivariate Monitoring Metrics for
Online Services [29.37493773435177]
CMAnomalyは、協調マシンに基づく多変量モニタリングメトリクスの異常検出フレームワークである。
提案するフレームワークは,Huawei Cloudの大規模オンラインサービスシステムから収集した公開データと産業データの両方で広く評価されている。
最先端のベースラインモデルと比較して、CMAnomalyは平均F1スコア0.9494を達成し、ベースラインの6.77%から10.68%を上回り、10倍から20倍速く走る。
論文 参考訳(メタデータ) (2023-08-19T08:08:05Z) - Robust Multimodal Failure Detection for Microservice Systems [32.25907616511765]
AnoFusionは、マイクロサービスシステムに対する教師なしの障害検出アプローチである。
異種マルチモーダルデータの相関を学習し、グラフ注意ネットワーク(GAT)とGRU(Gated Recurrent Unit)を統合する。
これはそれぞれ0.857と0.922のF1スコアを達成し、最先端の故障検出手法より優れている。
論文 参考訳(メタデータ) (2023-05-30T12:39:42Z) - Distributional Instance Segmentation: Modeling Uncertainty and High
Confidence Predictions with Latent-MaskRCNN [77.0623472106488]
本稿では,潜在符号を用いた分散インスタンス分割モデルのクラスについて検討する。
ロボットピッキングへの応用として,高い精度を実現するための信頼性マスク手法を提案する。
本手法は,新たにリリースした曖昧なシーンのデータセットを含め,ロボットシステムにおける致命的なエラーを著しく低減できることを示す。
論文 参考訳(メタデータ) (2023-05-03T05:57:29Z) - Bi-Bimodal Modality Fusion for Correlation-Controlled Multimodal
Sentiment Analysis [96.46952672172021]
Bi-Bimodal Fusion Network (BBFN) は、2対のモダリティ表現で融合を行う新しいエンドツーエンドネットワークである。
モデルは、モダリティ間の既知の情報不均衡により、2つのバイモーダルペアを入力として取る。
論文 参考訳(メタデータ) (2021-07-28T23:33:42Z) - Enhancing Multi-Robot Perception via Learned Data Association [37.866254392010454]
本稿では,マルチロボット協調認識問題,特に分散セマンティックセグメンテーションにおけるマルチビューインフィル問題に対処する。
本稿では,ロボット群において各エージェントにデプロイ可能なニューラルネットワークであるMulti-Agent Infilling Networkを提案する。
具体的には、各ロボットが視覚情報を局所的に符号化・復号し、ニューラルメカニズムにより、不確実性を認識し、文脈に基づく中間特徴の交換を可能にする。
論文 参考訳(メタデータ) (2021-07-01T22:45:26Z) - Anomaly Detection Based on Selection and Weighting in Latent Space [73.01328671569759]
SWADと呼ばれる新しい選択および重み付けに基づく異常検出フレームワークを提案する。
ベンチマークと実世界のデータセットによる実験は、SWADの有効性と優位性を示している。
論文 参考訳(メタデータ) (2021-03-08T10:56:38Z) - Integrated Benchmarking and Design for Reproducible and Accessible
Evaluation of Robotic Agents [61.36681529571202]
本稿では,開発とベンチマークを統合した再現性ロボット研究の新しい概念について述べる。
このセットアップの中心的なコンポーネントの1つはDuckietown Autolabであり、これは比較的低コストで再現可能な標準化されたセットアップである。
本研究では,インフラを用いて実施した実験の再現性を解析し,ロボットのハードウェアや遠隔実験室間でのばらつきが低いことを示す。
論文 参考訳(メタデータ) (2020-09-09T15:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。