論文の概要: Optical skin: Sensor-integration-free multimodal flexible sensing
- arxiv url: http://arxiv.org/abs/2202.03189v1
- Date: Thu, 3 Feb 2022 14:58:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-08 15:45:38.101717
- Title: Optical skin: Sensor-integration-free multimodal flexible sensing
- Title(参考訳): 光皮膚:センサ統合フリーマルチモーダルフレキシブルセンシング
- Authors: Sho Shimadera, Kei Kitagawa, Koyo Sagehashi, Tomoaki Niiyama, and
Satoshi Sunada
- Abstract要約: 本稿では,複数のセンサを統合する必要のない,シンプルで高感度でマルチモーダルなセンシング手法を提案する。
提案手法は,様々な刺激の情報を空間パターンとして符号化する光学干渉法に基づく。
ヒューマンマシンインタフェースのための触覚ソフトデバイスを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The biological skin enables animals to sense various stimuli. Extensive
efforts have been made recently to develop smart skin-like sensors to extend
the capabilities of biological skins; however, simultaneous sensing of several
types of stimuli in a large area remains challenging because this requires
large-scale sensor integration with numerous wire connections. We propose a
simple, highly sensitive, and multimodal sensing approach, which does not
require integrating multiple sensors. The proposed approach is based on an
optical interference technique, which can encode the information of various
stimuli as a spatial pattern. In contrast to the existing approach, the
proposed approach, combined with a deep neural network, enables us to freely
select the sensing mode according to our purpose. As a key example, we
demonstrate simultaneous sensing mode of three different physical quantities,
contact force, contact location, and temperature, using a single soft material
without requiring complex integration. Another unique property of the proposed
approach is spatially continuous sensing with ultrahigh resolution of few tens
of micrometers, which enables identifying the shape of the object in contact.
Furthermore, we present a haptic soft device for a human-machine interface. The
proposed approach encourages the development of high-performance optical skins.
- Abstract(参考訳): 動物の皮膚は様々な刺激を感知することができる。
近年, 生体皮膚の機能を高めるためのスマートスキン様センサの開発が盛んに行われているが, 多数のワイヤ接続による大規模センサの統合が求められているため, 広範囲の刺激を同時に感知することは困難である。
本稿では,複数のセンサを統合する必要のない,シンプルで高感度,マルチモーダルセンシング手法を提案する。
提案手法は,様々な刺激の情報を空間パターンとしてエンコードできる光干渉法に基づいている。
従来のアプローチとは対照的に,提案手法はディープニューラルネットワークと組み合わせることで,私たちの目的に応じてセンサモードを自由に選択することができる。
重要な例として, 複雑な積分を必要としない単一軟質材料を用いて, 3種類の物理量, 接触力, 接触位置, 温度の同時検知方式を示す。
提案手法のもうひとつの特徴は、数十マイクロメートルの超高分解能の空間連続センシングであり、接触対象の形状を識別することができる。
さらに,人間-機械インタフェースのための触覚ソフトデバイスを提案する。
提案手法は高性能光皮膚の開発を促進する。
関連論文リスト
- Digitizing Touch with an Artificial Multimodal Fingertip [51.7029315337739]
人間とロボットはどちらも、周囲の環境を知覚し、相互作用するためにタッチを使うことの恩恵を受ける。
ここでは、タッチのデジタル化を改善するための概念的および技術革新について述べる。
これらの進歩は、高度なセンシング機能を備えた人工指型センサーに具現化されている。
論文 参考訳(メタデータ) (2024-11-04T18:38:50Z) - Condition-Aware Multimodal Fusion for Robust Semantic Perception of Driving Scenes [56.52618054240197]
本研究では,運転シーンのロバストな意味認識のための条件対応型マルチモーダル融合手法を提案する。
CAFuserは、RGBカメラ入力を用いて環境条件を分類し、複数のセンサの融合を誘導するコンディショントークンを生成する。
MUSESデータセットでは,マルチモーダルパノプティクスセグメンテーションの59.7 PQ,セマンティックセグメンテーションの78.2 mIoU,公開ベンチマークの1位にランクインした。
論文 参考訳(メタデータ) (2024-10-14T17:56:20Z) - Bridging Remote Sensors with Multisensor Geospatial Foundation Models [15.289711240431107]
msGFMは4つのキーセンサーからのデータを統合する多センサ地理空間基盤モデルである。
同一の位置情報から得られるデータに対して、我々のモデルは革新的なクロスセンサー事前学習アプローチを採用している。
msGFMは、シングルセンサーとマルチセンサーの両方の下流タスクにおいて、高い習熟度を示した。
論文 参考訳(メタデータ) (2024-04-01T17:30:56Z) - Proprioceptive Learning with Soft Polyhedral Networks [16.188789266592032]
プロプリオセプション(英: Proprioception)は、運動ニューロンによる手足の姿勢を検出する「第6の感覚」である。
本稿では,物理インタラクションのための組込みビジョンを備えたソフト多面体ネットワークを提案する。
この設計は、超高速モーショントラッキングシステムによって視覚的に捉えられる全方向インタラクションへの受動的適応を可能にする。
論文 参考訳(メタデータ) (2023-08-16T17:53:40Z) - Recognizing Complex Gestures on Minimalistic Knitted Sensors: Toward
Real-World Interactive Systems [0.13048920509133805]
デジタル編みの容量型アクティブセンサーは、人間の介入はほとんどなく、大規模に製造できる。
本研究は,対話型ジェスチャー認識システムの基礎を構築することにより,そのようなセンサの能力を向上させる。
論文 参考訳(メタデータ) (2023-03-18T04:57:46Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - Learning Online Multi-Sensor Depth Fusion [100.84519175539378]
SenFuNetは、センサ固有のノイズと外れ値統計を学習するディープフュージョンアプローチである。
実世界のCoRBSとScene3Dデータセットで様々なセンサーの組み合わせで実験を行う。
論文 参考訳(メタデータ) (2022-04-07T10:45:32Z) - ReSkin: versatile, replaceable, lasting tactile skins [28.348982687106883]
ReSkinは、機械学習と磁気センサーを利用して、低コストで多様なコンパクトなソリューションを長期使用に提供する触覚ソフトセンサーだ。
我々の自己教師付き学習アルゴリズムは、小型で安価なデータ収集手順により、より高性能な性能向上を可能にする。
論文 参考訳(メタデータ) (2021-10-29T20:21:37Z) - Neural Dependency Coding inspired Multimodal Fusion [11.182263394122142]
近年のニューラルネットワークによる深層融合モデルの研究は、音声認識、感情認識、分析、キャプション、画像記述などの分野で大幅に改善されている。
近年の多感覚統合と処理に関する神経科学の考え方に触発され,シナジー最大化損失関数の効果について検討した。
論文 参考訳(メタデータ) (2021-09-28T17:52:09Z) - Elastic Tactile Simulation Towards Tactile-Visual Perception [58.44106915440858]
触覚シミュレーションのための粒子の弾性相互作用(EIP)を提案する。
EIPは、触覚センサを協調粒子群としてモデル化し、接触時の粒子の変形を制御するために弾性特性を適用した。
さらに,触覚データと視覚画像間の情報融合を可能にする触覚知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-11T03:49:59Z) - OmniTact: A Multi-Directional High Resolution Touch Sensor [109.28703530853542]
既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
論文 参考訳(メタデータ) (2020-03-16T01:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。