論文の概要: Domain Invariant Siamese Attention Mask for Small Object Change
Detection via Everyday Indoor Robot Navigation
- arxiv url: http://arxiv.org/abs/2203.15362v1
- Date: Tue, 29 Mar 2022 08:57:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-30 15:06:56.860430
- Title: Domain Invariant Siamese Attention Mask for Small Object Change
Detection via Everyday Indoor Robot Navigation
- Title(参考訳): 日常屋内ロボットナビゲーションによる小型物体変化検出のための領域不変シアムアテンションマスク
- Authors: Koji Takeda, Kanji Tanaka, and Yoshimasa Nakamura
- Abstract要約: 日常的な屋内ロボットナビゲーションによる画像変化検出の課題を,新しい視点から検討する。
本研究では,教師なしのオンザフライドメイン適応機能を備えた新たな自己注意手法を提案する。
実験により,我々の注目技術は最先端の画像変化検出モデルを大幅に向上させることが示された。
- 参考スコア(独自算出の注目度): 5.161531917413708
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The problem of image change detection via everyday indoor robot navigation is
explored from a novel perspective of the self-attention technique. Detecting
semantically non-distinctive and visually small changes remains a key challenge
in the robotics community. Intuitively, these small non-distinctive changes may
be better handled by the recent paradigm of the attention mechanism, which is
the basic idea of this work. However, existing self-attention models require
significant retraining cost per domain, so it is not directly applicable to
robotics applications. We propose a new self-attention technique with an
ability of unsupervised on-the-fly domain adaptation, which introduces an
attention mask into the intermediate layer of an image change detection model,
without modifying the input and output layers of the model. Experiments, in
which an indoor robot aims to detect visually small changes in everyday
navigation, demonstrate that our attention technique significantly boosts the
state-of-the-art image change detection model.
- Abstract(参考訳): 日常的な室内ロボットナビゲーションによる画像変化検出の問題は、自己注意技術の新しい視点から検討される。
意味的に非識別的で視覚的に小さな変化を検出することは、ロボットコミュニティにとって重要な課題である。
直感的には、これらの小さな非識別的変化は、この研究の基本的な考え方である注意機構の最近のパラダイムによってよりうまく扱われるかもしれない。
しかし、既存の自己注意モデルはドメインごとの大幅な再トレーニングコストを必要とするため、ロボット工学の応用には直接適用できない。
画像変化検出モデルの中間層にアテンションマスクを導入することで,モデルの入力層と出力層を変更することなく,教師なしのオンザフライ領域適応を実現する新しいセルフアテンション手法を提案する。
室内ロボットが日常のナビゲーションにおける視覚的に小さな変化を検知することを目的とした実験は、我々の注意法が最先端の画像変化検出モデルを大幅に向上させることを示した。
関連論文リスト
- AdaCropFollow: Self-Supervised Online Adaptation for Visual Under-Canopy Navigation [31.214318150001947]
アンダーキャノピー農業ロボットは、精密なモニタリング、スプレー、雑草、植物操作などの様々な応用を可能にする。
本稿では,視覚的基礎モデル,幾何学的事前,擬似ラベリングを用いて意味キーポイント表現を適応するための自己教師付きオンライン適応手法を提案する。
これにより、人間による介入を必要とせずに、畑や作物をまたがるアンダーキャノピーロボットの完全な自律的な行追尾が可能になる。
論文 参考訳(メタデータ) (2024-10-16T09:52:38Z) - Zero-shot Degree of Ill-posedness Estimation for Active Small Object Change Detection [8.977792536037956]
日常的な屋内ナビゲーションでは、ロボットは区別できない小さな変化物体を検出する必要がある。
既存の技術は、変更検出モデルを正規化するために、高品質なクラス固有オブジェクトに依存している。
本研究では,受動とアクティブビジョンの両方を改善するために,DoIの概念を検討する。
論文 参考訳(メタデータ) (2024-05-10T01:56:39Z) - Attention Deficit is Ordered! Fooling Deformable Vision Transformers
with Collaborative Adversarial Patches [3.4673556247932225]
変形可能な視覚変換器は、注意モデリングの複雑さを著しく低減する。
最近の研究は、従来の視覚変換器に対する敵攻撃を実証している。
我々は,対象のパッチに注意を向けるようにソースパッチが操作する新たなコラボレーティブアタックを開発する。
論文 参考訳(メタデータ) (2023-11-21T17:55:46Z) - Lifelong Change Detection: Continuous Domain Adaptation for Small Object
Change Detection in Every Robot Navigation [5.8010446129208155]
地表面の視界変化検出は, 複雑な非線形視点投影と相まって, 視界の不確かさに悩まされる。
正規化のためには,手動で注釈付けされた高品質なオブジェクトクラス固有の先行手法が一般的である。
本手法は,日常のロボットナビゲーションにおいて検出される物体の変化を,将来的な変化検出タスクを改善するために,追加の事前として再利用できるという,強力で汎用的な考え方を採用する。
論文 参考訳(メタデータ) (2023-06-28T10:34:59Z) - AttentionViz: A Global View of Transformer Attention [60.82904477362676]
本研究では,変圧器の自己保持機構を研究者が理解するための新しい可視化手法を提案する。
提案手法の背景にある主な考え方は,問合せとキーベクトルの結合埋め込みを可視化し,注意力を計算することである。
このような共同クエリキーの埋め込みに基づいて,インタラクティブな可視化ツールであるAttentionVizを開発した。
論文 参考訳(メタデータ) (2023-05-04T23:46:49Z) - Hierarchical Point Attention for Indoor 3D Object Detection [111.04397308495618]
本研究は、点ベース変圧器検出器の汎用階層設計として、2つの新しい注意操作を提案する。
まず、よりきめ細かい特徴学習を可能にするために、シングルスケールの入力機能からマルチスケールトークンを構築するマルチスケール注意(MS-A)を提案する。
第2に,適応型アテンション領域を持つサイズ適応型ローカルアテンション(Local-A)を提案する。
論文 参考訳(メタデータ) (2023-01-06T18:52:12Z) - Challenges in Visual Anomaly Detection for Mobile Robots [65.53820325712455]
視覚に基づく自律移動ロボットの異常検出作業について考察する。
関連した視覚異常の種類を分類し,教師なしの深層学習手法で検出する方法について議論する。
論文 参考訳(メタデータ) (2022-09-22T13:26:46Z) - Deep Active Visual Attention for Real-time Robot Motion Generation:
Emergence of Tool-body Assimilation and Adaptive Tool-use [9.141661467673817]
本稿では,人間の認知構造に触発された新しいロボットモーション生成モデルを提案する。
このモデルには状態駆動のアクティブなトップダウン視覚的注意モジュールが組み込まれており、タスクの状態に基づいてターゲットを積極的に変更することができる。
その結果、訓練されていない道具を装着したり、実験者の気遣いに晒されたりしても、安定した注意と動きを維持できるモデル視覚の柔軟性の向上が示唆された。
論文 参考訳(メタデータ) (2022-06-29T10:55:32Z) - Visualizing and Understanding Patch Interactions in Vision Transformer [96.70401478061076]
Vision Transformer (ViT) は様々なコンピュータビジョンタスクにおいて主要なツールとなっている。
本稿では,視覚変換器のパッチ間の重要な注意相互作用を分析し,解釈するための,説明可能な新しい可視化手法を提案する。
論文 参考訳(メタデータ) (2022-03-11T13:48:11Z) - On the Real-World Adversarial Robustness of Real-Time Semantic
Segmentation Models for Autonomous Driving [59.33715889581687]
現実世界の敵対的な例(通常はパッチの形で)の存在は、安全クリティカルなコンピュータビジョンタスクにおけるディープラーニングモデルの使用に深刻な脅威をもたらす。
本稿では,異なる種類の対立パッチを攻撃した場合のセマンティックセグメンテーションモデルのロバスト性を評価する。
画素の誤分類を誘導する攻撃者の能力を改善するために, 新たな損失関数を提案する。
論文 参考訳(メタデータ) (2022-01-05T22:33:43Z) - Morphology-Agnostic Visual Robotic Control [76.44045983428701]
MAVRICは、ロボットの形態に関する最小限の知識で機能するアプローチである。
本稿では,視覚誘導型3Dポイントリーチ,軌道追従,ロボットとロボットの模倣について紹介する。
論文 参考訳(メタデータ) (2019-12-31T15:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。