論文の概要: An optical biomimetic eyes with interested object imaging
- arxiv url: http://arxiv.org/abs/2108.04236v1
- Date: Sun, 8 Aug 2021 08:11:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-11 14:16:38.811522
- Title: An optical biomimetic eyes with interested object imaging
- Title(参考訳): 興味のある物体像を有する光学バイオミメティックアイ
- Authors: Jun Li, Shimei Chen, Shangyuan Wang, Miao Lei, Xiaofang Dai, Chuangxue
Liang, Kunyuan Xu, Shuxin Lin, Yuhui Li, Yuer Fan, Ting Zhong
- Abstract要約: このバイオインスパイアされた光学システムは、興味のあるオブジェクトイメージング、オブジェクト検出、オブジェクト追跡などにおいて成功するために、生物の目として機能する。
この結果から,興味のあるオブジェクトが単一機能であるか,あるいは豊富な詳細であるかに関わらず,干渉の除去に成功し,このアイデアを性能を効果的に向上する一般的なアプリケーションに適用できることが示唆された。
- 参考スコア(独自算出の注目度): 8.45906053512379
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We presented an optical system to perform imaging interested objects in
complex scenes, like the creature easy see the interested prey in the hunt for
complex environments. It utilized Deep-learning network to learn the interested
objects's vision features and designed the corresponding "imaging matrices",
furthermore the learned matrixes act as the measurement matrix to complete
compressive imaging with a single-pixel camera, finally we can using the
compressed image data to only image the interested objects without the rest
objects and backgrounds of the scenes with the previous Deep-learning network.
Our results demonstrate that no matter interested object is single feature or
rich details, the interference can be successfully filtered out and this idea
can be applied in some common applications that effectively improve the
performance. This bio-inspired optical system can act as the creature eye to
achieve success on interested-based object imaging, object detection, object
recognition and object tracking, etc.
- Abstract(参考訳): 動物のような複雑な場面で興味のある物体を撮影するための光学系を提示し,複雑な環境の探索における興味のある獲物の観察を容易にする。
深層学習ネットワークを用いて、対象物の視覚特徴を学習し、それに対応する「画像行列」を設計し、さらに学習した行列を計測行列として機能させて、単画素カメラで圧縮撮像を完了し、最終的に圧縮画像データを用いて、前の深層学習ネットワークでシーンの他のオブジェクトや背景を使わずに、対象物のみを画像化することができる。
この結果から,興味のあるオブジェクトが単一機能であるか,あるいは豊富な詳細であるかに関わらず,干渉の除去に成功し,このアイデアを性能を効果的に向上する一般的なアプリケーションに適用できることが示唆された。
このバイオインスパイアされた光学システムは、興味のあるオブジェクトイメージング、オブジェクト検出、オブジェクト認識、オブジェクト追跡などにおいて、生物の目として機能する。
関連論文リスト
- LFSamba: Marry SAM with Mamba for Light Field Salient Object Detection [9.787855464038673]
光界カメラは、リッチな空間幾何学情報を含むキャプチャされた多焦点画像を用いて3Dシーンを再構成することができる。
本研究では,LFSambaと呼ばれる多焦点光場画像に対する最先端のサルエント物体検出モデルを提案する。
論文 参考訳(メタデータ) (2024-11-11T01:37:32Z) - Retrieval Robust to Object Motion Blur [54.34823913494456]
本研究では,動きのぼやけの影響を受けやすい画像のオブジェクト検索手法を提案する。
ぼやけたオブジェクト検索のための最初の大規模データセットを提示する。
提案手法は,新しいぼやけた検索データセット上で,最先端の検索手法より優れている。
論文 参考訳(メタデータ) (2024-04-27T23:22:39Z) - Are These the Same Apple? Comparing Images Based on Object Intrinsics [27.43687450076182]
オブジェクトの同一性を定義する固有のオブジェクトプロパティに基づいて、純粋に画像の類似性を測定する。
この問題はコンピュータビジョン文学において再同定として研究されている。
そこで本研究では,オブジェクト固有性に基づく画像類似度尺度を探索し,一般対象カテゴリに拡張することを提案する。
論文 参考訳(メタデータ) (2023-11-01T18:00:03Z) - Spotlight Attention: Robust Object-Centric Learning With a Spatial
Locality Prior [88.9319150230121]
オブジェクト中心のビジョンは、シーン内のオブジェクトの明示的な表現を構築することを目的としています。
我々は、空間的局所性を最先端のオブジェクト中心視覚モデルに組み込む。
合成および実世界の両方のデータセットにおけるセグメンテーションオブジェクトの大幅な改善が得られた。
論文 参考訳(メタデータ) (2023-05-31T04:35:50Z) - Understanding Self-Supervised Pretraining with Part-Aware Representation
Learning [88.45460880824376]
本研究では,自己教師型表現事前学習手法がパート認識表現を学習する能力について検討する。
その結果,完全教師付きモデルはオブジェクトレベルの認識において自己教師付きモデルよりも優れていた。
論文 参考訳(メタデータ) (2023-01-27T18:58:42Z) - ImageSubject: A Large-scale Dataset for Subject Detection [9.430492045581534]
主に被写体は、写真家が強調したいものなので、通常、画像やビデオの中に存在します。
主対象を検出することは、機械が画像やビデオの内容を理解するのを助ける重要な技術である。
我々は、オブジェクトのレイアウトを理解し、その中の主要な対象を見つけるために、モデルのトレーニングを目標とする新しいデータセットを提案する。
論文 参考訳(メタデータ) (2022-01-09T22:49:59Z) - NeROIC: Neural Rendering of Objects from Online Image Collections [42.02832046768925]
本稿では,オンライン画像コレクションからオブジェクト表現を取得し,任意のオブジェクトの高品質な形状と材料特性をキャプチャする手法を提案する。
これにより、新規ビュー合成、リライト、調和した背景合成など、さまざまなオブジェクト中心のレンダリングアプリケーションが可能になる。
論文 参考訳(メタデータ) (2022-01-07T16:45:15Z) - ObjectFolder: A Dataset of Objects with Implicit Visual, Auditory, and
Tactile Representations [52.226947570070784]
両課題に対処する100のオブジェクトからなるデータセットであるObjectを,2つの重要なイノベーションで紹介する。
まず、オブジェクトは視覚的、聴覚的、触覚的なすべてのオブジェクトの知覚データをエンコードし、多数の多感覚オブジェクト認識タスクを可能にする。
第2に、Objectは統一されたオブジェクト中心のシミュレーションと、各オブジェクトの視覚的テクスチャ、触覚的読み出し、触覚的読み出しに暗黙的な表現を採用しており、データセットの使用が柔軟で共有が容易である。
論文 参考訳(メタデータ) (2021-09-16T14:00:59Z) - Text-driven object affordance for guiding grasp-type recognition in
multimodal robot teaching [18.529563816600607]
本研究は,ロボット教育におけるテキスト駆動型物体余裕が画像に基づくグリップ型認識に与える影響について検討する。
彼らは、物体が認識性能に与える影響を調べるために、一人称手画像のラベル付きデータセットを作成しました。
論文 参考訳(メタデータ) (2021-02-27T17:03:32Z) - A Simple and Effective Use of Object-Centric Images for Long-Tailed
Object Detection [56.82077636126353]
シーン中心画像における物体検出を改善するために,物体中心画像を活用する。
私たちは、シンプルで驚くほど効果的なフレームワークを提示します。
我々の手法は、レアオブジェクトのオブジェクト検出(およびインスタンスセグメンテーション)の精度を相対的に50%(および33%)向上させることができる。
論文 参考訳(メタデータ) (2021-02-17T17:27:21Z) - Learning Depth With Very Sparse Supervision [57.911425589947314]
本稿では, 環境との相互作用を通じて, 知覚が世界の3次元特性と結合するという考えを考察する。
我々は、環境と対話するロボットが利用できるような、特殊なグローバルローカルネットワークアーキテクチャを訓練する。
いくつかのデータセットの実験では、画像ピクセルの1つでも基底真理が利用できる場合、提案されたネットワークは、最先端のアプローチよりも22.5%の精度でモノクロの深度推定を学習できることを示している。
論文 参考訳(メタデータ) (2020-03-02T10:44:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。