論文の概要: To image, or not to image: Class-specific diffractive cameras with
all-optical erasure of undesired objects
- arxiv url: http://arxiv.org/abs/2205.13122v1
- Date: Thu, 26 May 2022 03:06:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-27 14:58:03.033977
- Title: To image, or not to image: Class-specific diffractive cameras with
all-optical erasure of undesired objects
- Title(参考訳): 撮像する、または撮像しない:望ましくない物体の全ての光学的消去を備えたクラス特異的回折カメラ
- Authors: Bijie Bai, Yi Luo, Tianyi Gan, Jingtian Hu, Yuhang Li, Yifan Zhao,
Deniz Mengu, Mona Jarrahi, and Aydogan Ozcan
- Abstract要約: 対象オブジェクトのクラス固有のイメージングを,他のオブジェクトのクラスを瞬時に全光で消去するカメラ設計について述べる。
クラス固有の回折カメラの成功はテラヘルツ波と3Dプリントした回折層を用いて実験的に実証された。
この回折カメラの設計は、可視波長や赤外波長を含む電磁スペクトルの様々な部分に拡張することができる。
- 参考スコア(独自算出の注目度): 22.69640915284131
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Privacy protection is a growing concern in the digital era, with machine
vision techniques widely used throughout public and private settings. Existing
methods address this growing problem by, e.g., encrypting camera images or
obscuring/blurring the imaged information through digital algorithms. Here, we
demonstrate a camera design that performs class-specific imaging of target
objects with instantaneous all-optical erasure of other classes of objects.
This diffractive camera consists of transmissive surfaces structured using deep
learning to perform selective imaging of target classes of objects positioned
at its input field-of-view. After their fabrication, the thin diffractive
layers collectively perform optical mode filtering to accurately form images of
the objects that belong to a target data class or group of classes, while
instantaneously erasing objects of the other data classes at the output
field-of-view. Using the same framework, we also demonstrate the design of
class-specific permutation cameras, where the objects of a target data class
are pixel-wise permuted for all-optical class-specific encryption, while the
other objects are irreversibly erased from the output image. The success of
class-specific diffractive cameras was experimentally demonstrated using
terahertz (THz) waves and 3D-printed diffractive layers that selectively imaged
only one class of the MNIST handwritten digit dataset, all-optically erasing
the other handwritten digits. This diffractive camera design can be scaled to
different parts of the electromagnetic spectrum, including, e.g., the visible
and infrared wavelengths, to provide transformative opportunities for
privacy-preserving digital cameras and task-specific data-efficient imaging.
- Abstract(参考訳): プライバシー保護は、デジタル時代においてますます関心を集めており、マシンビジョン技術は、パブリックとプライベートの両方の設定で広く使われている。
既存の方法では、カメライメージの暗号化や、デジタルアルゴリズムによる画像情報の隠蔽やブルーリングなどによって、この問題に対処している。
本稿では,対象物体のクラス固有の画像化と,他の物体のクラスを瞬時に全光消去するカメラ設計について述べる。
この回折カメラは、ディープラーニングを用いて構成された透過面からなり、入力フィールドオブビューに位置する対象物のターゲットクラスを選択的に撮像する。
その製造後、薄い回折層は光モードフィルタリングを行い、対象データクラスまたはクラスのグループに属するオブジェクトの画像を正確に形成し、出力フィールド・オブ・ビューで他のデータクラスのオブジェクトを瞬時に消去する。
同じフレームワークを使用して、ターゲットデータクラスのオブジェクトがすべてのオプティカルクラス固有の暗号化のためにピクセル単位で置換され、他のオブジェクトが出力画像から不可逆的に消去されるクラス固有の置換カメラの設計もデモする。
クラス固有の回折カメラの成功は、テラヘルツ波(THz)と3Dプリントした回折層を用いて実験的に実証され、MNIST手書き桁データセットの1つのクラスのみを選択的に撮像し、他の手書き桁を全光学的に消去した。
この回折カメラの設計は、可視波長や赤外波長など、電磁スペクトルの様々な部分に拡張することができ、プライバシー保護デジタルカメラやタスク固有のデータ効率イメージングのための変革的な機会を提供する。
関連論文リスト
- Two Deep Learning Solutions for Automatic Blurring of Faces in Videos [0.8287206589886879]
本稿では,監視ビデオにおける顔ぼやけ問題に対処するための,ディープラーニングに基づく2つの選択肢を提案する。
まず、顔を検出するために訓練された古典的な物体検出装置で構成され、その後、ぼやけている。
第二に、Unetのようなセグメンテーションネットワークを訓練して、すべての顔がぼやけた入力画像のバージョンを出力する間接的アプローチである。
論文 参考訳(メタデータ) (2024-09-23T08:59:44Z) - AutoDecoding Latent 3D Diffusion Models [95.7279510847827]
本稿では,3次元オートデコーダをコアとした静的・明瞭な3次元アセットの生成に対して,新しいアプローチを提案する。
3D Autodecoderフレームワークは、ターゲットデータセットから学んだプロパティを潜時空間に埋め込む。
次に、適切な中間体積潜在空間を特定し、ロバストな正規化と非正規化演算を導入する。
論文 参考訳(メタデータ) (2023-07-07T17:59:14Z) - Data class-specific all-optical transformations and encryption [0.0]
差動ネットワークの入力フィールドと出力フィールドの間で全光学的に行われるデータクラス固有の変換について述べる。
我々はA-->A,I-->I,P-->Iを含む全光学クラス固有の変換を数値的に実証した。
データクラス固有の全光学変換は、画像とデータ暗号化の高速でエネルギー効率の良い方法を提供し、データのセキュリティとプライバシを高める。
論文 参考訳(メタデータ) (2022-12-25T08:31:03Z) - All-optical image classification through unknown random diffusers using
a single-pixel diffractive network [13.7472825798265]
ランダムで未知の散乱媒体の背後にある物体の分類は、計算画像とマシンビジョンフィールドの難しいタスクをセットする。
近年の深層学習に基づくアプローチは、画像センサによって収集されたディフューザ歪みパターンを用いた物体の分類を実証した。
本稿では,1画素で検出されたブロードバンド照明を用いて未知の物体をランダムな位相拡散器で直接分類する全光学プロセッサを提案する。
論文 参考訳(メタデータ) (2022-08-08T08:26:08Z) - Learning rich optical embeddings for privacy-preserving lensless image
classification [17.169529483306103]
我々は、光学系をエンコーダとしてキャストするユニークな多重化特性を利用して、カメラセンサーに直接学習した埋め込みを生成する。
画像分類の文脈では、エンコーダのパラメータと画像分類器のパラメータをエンドツーエンドで共同で最適化する。
我々の実験は、レンズレス光エンコーダとデジタル処理を共同で学習することで、センサーに低解像度の埋め込みが可能であることを示し、その結果、これらの測定から有意義な画像の復元がはるかに困難であることから、プライバシーが向上することを示している。
論文 参考訳(メタデータ) (2022-06-03T07:38:09Z) - Contrastive Object Detection Using Knowledge Graph Embeddings [72.17159795485915]
一つのホットアプローチで学習したクラス埋め込みの誤差統計と、自然言語処理や知識グラフから意味的に構造化された埋め込みを比較した。
本稿では,キーポイントベースおよびトランスフォーマーベースオブジェクト検出アーキテクチャの知識埋め込み設計を提案する。
論文 参考訳(メタデータ) (2021-12-21T17:10:21Z) - Object-aware Contrastive Learning for Debiased Scene Representation [74.30741492814327]
オブジェクトを自己教師型でローカライズする,オブジェクト認識型コントラスト学習フレームワークを開発した。
また、コントラCAM、オブジェクト認識型乱作、背景混合に基づく2つのデータ拡張を導入し、コントラスト型自己教師型学習における文脈バイアスと背景バイアスを低減した。
論文 参考訳(メタデータ) (2021-07-30T19:24:07Z) - A Simple and Effective Use of Object-Centric Images for Long-Tailed
Object Detection [56.82077636126353]
シーン中心画像における物体検出を改善するために,物体中心画像を活用する。
私たちは、シンプルで驚くほど効果的なフレームワークを提示します。
我々の手法は、レアオブジェクトのオブジェクト検出(およびインスタンスセグメンテーション)の精度を相対的に50%(および33%)向上させることができる。
論文 参考訳(メタデータ) (2021-02-17T17:27:21Z) - Supervised Training of Dense Object Nets using Optimal Descriptors for
Industrial Robotic Applications [57.87136703404356]
Florence、Manuelli、TedrakeによるDense Object Nets(DON)は、ロボットコミュニティのための新しいビジュアルオブジェクト表現として高密度オブジェクト記述子を導入した。
本稿では, 物体の3次元モデルを考えると, 記述子空間画像を生成することができ, DON の教師付きトレーニングが可能であることを示す。
産業用物体の6次元グリップ生成のためのトレーニング手法を比較し,新しい教師付きトレーニング手法により,産業関連タスクのピック・アンド・プレイス性能が向上することを示す。
論文 参考訳(メタデータ) (2021-02-16T11:40:12Z) - YCB-M: A Multi-Camera RGB-D Dataset for Object Recognition and 6DoF Pose
Estimation [2.9972063833424216]
7つの異なる3Dカメラで撮影され、合計49,294フレームで撮影された32のシーンのデータセットを提示する。
これにより、使用するカメラの仕様に対するポーズ推定アルゴリズムの感度を評価することができる。
論文 参考訳(メタデータ) (2020-04-24T11:14:04Z) - OneGAN: Simultaneous Unsupervised Learning of Conditional Image
Generation, Foreground Segmentation, and Fine-Grained Clustering [100.32273175423146]
本研究では、教師なしの方法で、条件付き画像生成装置、前景抽出とセグメンテーション、オブジェクトの削除と背景補完を同時に学習する方法を提案する。
Geneversarative Adrial Network と Variational Auto-Encoder を組み合わせることで、複数のエンコーダ、ジェネレータ、ディスクリミネータを組み合わせ、全てのタスクを一度に解くことができる。
論文 参考訳(メタデータ) (2019-12-31T18:15:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。