論文の概要: Data class-specific all-optical transformations and encryption
- arxiv url: http://arxiv.org/abs/2212.12873v1
- Date: Sun, 25 Dec 2022 08:31:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 15:35:04.485060
- Title: Data class-specific all-optical transformations and encryption
- Title(参考訳): データクラス固有の全光学変換と暗号化
- Authors: Bijie Bai, Heming Wei, Xilin Yang, Deniz Mengu, Aydogan Ozcan
- Abstract要約: 差動ネットワークの入力フィールドと出力フィールドの間で全光学的に行われるデータクラス固有の変換について述べる。
我々はA-->A,I-->I,P-->Iを含む全光学クラス固有の変換を数値的に実証した。
データクラス固有の全光学変換は、画像とデータ暗号化の高速でエネルギー効率の良い方法を提供し、データのセキュリティとプライバシを高める。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffractive optical networks provide rich opportunities for visual computing
tasks since the spatial information of a scene can be directly accessed by a
diffractive processor without requiring any digital pre-processing steps. Here
we present data class-specific transformations all-optically performed between
the input and output fields-of-view (FOVs) of a diffractive network. The visual
information of the objects is encoded into the amplitude (A), phase (P), or
intensity (I) of the optical field at the input, which is all-optically
processed by a data class-specific diffractive network. At the output, an image
sensor-array directly measures the transformed patterns, all-optically
encrypted using the transformation matrices pre-assigned to different data
classes, i.e., a separate matrix for each data class. The original input images
can be recovered by applying the correct decryption key (the inverse
transformation) corresponding to the matching data class, while applying any
other key will lead to loss of information. The class-specificity of these
all-optical diffractive transformations creates opportunities where different
keys can be distributed to different users; each user can only decode the
acquired images of only one data class, serving multiple users in an
all-optically encrypted manner. We numerically demonstrated all-optical
class-specific transformations covering A-->A, I-->I, and P-->I transformations
using various image datasets. We also experimentally validated the feasibility
of this framework by fabricating a class-specific I-->I transformation
diffractive network using two-photon polymerization and successfully tested it
at 1550 nm wavelength. Data class-specific all-optical transformations provide
a fast and energy-efficient method for image and data encryption, enhancing
data security and privacy.
- Abstract(参考訳): 拡散光学ネットワークは、シーンの空間情報をデジタル前処理ステップを必要とせずに、拡散プロセッサから直接アクセスできるため、視覚コンピューティングタスクに豊富な機会を提供する。
ここでは、微分ネットワークの入力フィールドと出力フィールド(FOV)間で全光学的に行われるデータクラス固有の変換について述べる。
入力時の光学場の振幅(a)、位相(p)、強度(i)にオブジェクトの視覚情報がエンコードされ、データクラス固有の回折ネットワークによって全て光学的に処理される。
出力では、画像センサアレイが変換されたパターンを直接測定し、異なるデータクラスに予め割り当てられた変換行列、すなわち、各データクラスごとに分離された行列を用いて、全可視的に暗号化する。
一致したデータクラスに対応する正しい復号鍵(逆変換)を適用して元の入力画像を復元でき、他のキーを適用すると情報の損失につながる。
これらの全光学回折変換のクラス固有性は、異なるキーを異なるユーザへ配布できる機会を生み出し、各ユーザが取得した1つのデータクラスのイメージだけをデコードし、全光学的暗号化された方法で複数のユーザに提供することができる。
我々は,A-->A,I->I,P-->Iを含む全光学クラス固有の変換を,様々な画像データセットを用いて数値的に実証した。
また, 2光子重合法を用いてクラス特異的I--I変換拡散ネットワークを作製し, 1550nm波長での試験に成功したことにより, 本フレームワークの有効性を実験的に検証した。
データクラス固有の全光学変換は、高速でエネルギー効率のよい画像とデータの暗号化方法を提供する。
関連論文リスト
- Can Encrypted Images Still Train Neural Networks? Investigating Image Information and Random Vortex Transformation [51.475827684468875]
画像変換時の情報内容の変化を評価するために,画像情報量を測定する新しい枠組みを構築した。
また,Random Vortex Transformationと呼ばれる新しい画像暗号化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-11-25T09:14:53Z) - GlobalMamba: Global Image Serialization for Vision Mamba [73.50475621164037]
視覚マンバは、視覚トークンの数に対して線形複雑度で強い性能を示した。
既存のほとんどの方法はパッチベースの画像トークン化を採用し、因果処理のためにそれらを1Dシーケンスにフラット化する。
本稿では,グローバルな画像シリアライズ手法を提案し,その画像を因果トークンのシーケンスに変換する。
論文 参考訳(メタデータ) (2024-10-14T09:19:05Z) - Prefix Conditioning Unifies Language and Label Supervision [84.11127588805138]
学習した表現の一般化性を低減することにより,データセットのバイアスが事前学習に悪影響を及ぼすことを示す。
実験では、この単純な手法により、ゼロショット画像認識精度が向上し、画像レベルの分布シフトに対するロバスト性が向上することを示した。
論文 参考訳(メタデータ) (2022-06-02T16:12:26Z) - To image, or not to image: Class-specific diffractive cameras with
all-optical erasure of undesired objects [22.69640915284131]
対象オブジェクトのクラス固有のイメージングを,他のオブジェクトのクラスを瞬時に全光で消去するカメラ設計について述べる。
クラス固有の回折カメラの成功はテラヘルツ波と3Dプリントした回折層を用いて実験的に実証された。
この回折カメラの設計は、可視波長や赤外波長を含む電磁スペクトルの様々な部分に拡張することができる。
論文 参考訳(メタデータ) (2022-05-26T03:06:44Z) - Diffractive all-optical computing for quantitative phase imaging [0.0]
物体の定量的位相像を合成できる回折QPIネットワークを実証する。
微分QPIネットワーク(diffractive QPI network)は、位相-強度変換を定量的に行うために設計された、特殊な全光学プロセッサである。
論文 参考訳(メタデータ) (2022-01-22T05:28:44Z) - UFO: A UniFied TransfOrmer for Vision-Language Representation Learning [54.82482779792115]
視覚言語(VL)表現学習において、単文入力(画像や言語など)または多モーダル入力(画像と質問の連結など)を処理できる単一のUniFied TransfOrmer(UFO)を提案する。
既存のアプローチは、通常、各モダリティのための個別のネットワークを設計し、マルチモーダルタスクのための特定の融合ネットワークを設計する。
論文 参考訳(メタデータ) (2021-11-19T03:23:10Z) - Deep Learning for Multi-View Ultrasonic Image Fusion [2.1410799064827226]
Delay-And-Sum (DAS)アルゴリズムは、反射信号がトランスデューサに戻るメインパスを用いて画像を生成する。
従来の画像融合技術は、通常、事前定義された画像変換、プーリング操作、しきい値のアドホックな組み合わせを使用する。
我々は、異なる共振路に対するDAS画像形成をネットワーク層として明示的に取り入れつつ、利用可能なすべてのデータをセグメントマップに直接マッピングするディープニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-09-08T13:04:07Z) - XCiT: Cross-Covariance Image Transformers [73.33400159139708]
本稿では,トークンではなく機能チャネルをまたいで機能する自己注意の「伝達」バージョンを提案する。
その結果、XCAはトークン数に線形複雑さを持ち、高解像度画像の効率的な処理を可能にする。
論文 参考訳(メタデータ) (2021-06-17T17:33:35Z) - Domain Adaptation with Morphologic Segmentation [8.0698976170854]
本稿では,任意の入力領域(実領域と合成領域)の画像を一様出力領域に変換するために,形態的セグメンテーションを用いた新しいドメイン適応フレームワークを提案する。
私たちのゴールは、複数のソースからのデータを共通の表現に統一する前処理のステップを確立することです。
都市景観のシミュレートと実データの4つのデータ集合上で, 定性的に定量的に評価し, 提案手法の有効性を示す。
論文 参考訳(メタデータ) (2020-06-16T17:06:02Z) - Steering Self-Supervised Feature Learning Beyond Local Pixel Statistics [60.92229707497999]
画像の特定の変換の識別に基づく自己教師型特徴学習の新しい原理を提案する。
実験により,LCI,画像ワープ,回転などの変換を識別する学習が,技術一般化能力の状態を特徴付けることを示した。
論文 参考訳(メタデータ) (2020-04-05T22:09:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。