論文の概要: Reinforcement learning for the privacy preservation and manipulation of
eye tracking data
- arxiv url: http://arxiv.org/abs/2002.06806v2
- Date: Fri, 2 Oct 2020 06:41:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-31 11:51:19.206942
- Title: Reinforcement learning for the privacy preservation and manipulation of
eye tracking data
- Title(参考訳): 視線追跡データのプライバシー保護と操作のための強化学習
- Authors: Wolfgang Fuhl, Efe Bozkir, Enkelejda Kasneci
- Abstract要約: 本稿では、眼球追跡データ操作のための強化学習に基づくアプローチを提案する。
本手法は,被験者のプライバシーを守るために有効であることを示す。
- 参考スコア(独自算出の注目度): 12.486057928762898
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present an approach based on reinforcement learning for eye
tracking data manipulation. It is based on two opposing agents, where one tries
to classify the data correctly and the second agent looks for patterns in the
data, which get manipulated to hide specific information. We show that our
approach is successfully applicable to preserve the privacy of the subjects.
For this purpose, we evaluate our approach iteratively to showcase the behavior
of the reinforcement learning based approach. In addition, we evaluate the
importance of temporal, as well as spatial, information of eye tracking data
for specific classification goals. In the last part of our evaluation, we apply
the procedure to further public data sets without re-training the autoencoder
or the data manipulator. The results show that the learned manipulation is
generalized and applicable to unseen data as well.
- Abstract(参考訳): 本稿では、視線追跡データ操作のための強化学習に基づくアプローチを提案する。
これは2つのエージェントに基づいており、1つはデータを正しく分類しようと試み、もう1つはデータ内のパターンを探し出し、特定の情報を隠蔽するために操作される。
本手法は,被験者のプライバシーを守るために有効であることを示す。
本研究の目的は,強化学習に基づくアプローチの振る舞いを逐次評価することにある。
また,特定分類目標における視線追跡データの時間的・空間的情報の重要性を評価した。
評価の最後の部分では、オートエンコーダやデータマニピュレータを再トレーニングすることなく、さらなる公開データセットに手順を適用する。
その結果, 学習操作は一般化され, 未認識データにも適用可能であることがわかった。
関連論文リスト
- ALP: Action-Aware Embodied Learning for Perception [60.64801970249279]
認知のための行動認識型身体学習(ALP)について紹介する。
ALPは、強化学習ポリシーと逆ダイナミクス予測目標を最適化することにより、行動情報を表現学習に組み込む。
ALPは、複数の下流認識タスクにおいて、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-16T21:51:04Z) - Reinforcement Learning from Passive Data via Latent Intentions [86.4969514480008]
我々は、下流RLを加速する機能を学ぶために、受動的データが引き続き使用できることを示す。
我々のアプローチは、意図をモデル化することで受動的データから学習する。
実験では、クロス・エボディメント・ビデオデータやYouTubeビデオなど、さまざまな形式の受動的データから学習できることを実証した。
論文 参考訳(メタデータ) (2023-04-10T17:59:05Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Hiding Visual Information via Obfuscating Adversarial Perturbations [47.315523613407244]
本稿では,データの視覚的プライバシを保護するために,敵対的な視覚情報隠蔽手法を提案する。
具体的には、データの視覚情報を隠蔽する難読化対向摂動を生成する。
認識・分類タスクの実験結果から,提案手法が視覚情報を効果的に隠蔽できることが示唆された。
論文 参考訳(メタデータ) (2022-09-30T08:23:26Z) - PARTICUL: Part Identification with Confidence measure using Unsupervised
Learning [0.0]
PartICULは、きめ細かい認識に使われるデータセットから部分検出器を教師なしで学習するための新しいアルゴリズムである。
トレーニングセット内のすべての画像のマクロ類似性を利用して、事前訓練された畳み込みニューラルネットワークの特徴空間における繰り返しパターンをマイニングする。
我々の検出器は、その予測に対する信頼度を測りながら、物体の一部を一貫して強調することができることを示す。
論文 参考訳(メタデータ) (2022-06-27T13:44:49Z) - TraND: Transferable Neighborhood Discovery for Unsupervised Cross-domain
Gait Recognition [77.77786072373942]
本稿では、教師なしクロスドメイン歩行認識のための領域ギャップを橋渡しするTransferable Neighborhood Discovery (TraND) フレームワークを提案する。
我々は、潜在空間におけるラベルなしサンプルの自信ある近傍を自動的に発見するために、エンドツーエンドのトレーニング可能なアプローチを設計する。
提案手法は,CASIA-BとOU-LPの2つの公開データセットに対して,最先端の結果を得る。
論文 参考訳(メタデータ) (2021-02-09T03:07:07Z) - SPEED: Secure, PrivatE, and Efficient Deep learning [2.283665431721732]
私たちは、強力なプライバシー制約に対処できるディープラーニングフレームワークを導入します。
協調学習、差分プライバシー、同型暗号化に基づいて、提案手法は最先端技術に進化する。
論文 参考訳(メタデータ) (2020-06-16T19:31:52Z) - TIPRDC: Task-Independent Privacy-Respecting Data Crowdsourcing Framework
for Deep Learning with Anonymized Intermediate Representations [49.20701800683092]
本稿では,匿名化中間表現を用いたタスク非依存型プライバシ参照データクラウドソーシングフレームワークTIPRDCを提案する。
このフレームワークの目的は、中間表現からプライバシー情報を隠蔽できる機能抽出器を学習することであり、データコレクターの生データに埋め込まれた元の情報を最大限に保持し、未知の学習タスクを達成することである。
論文 参考訳(メタデータ) (2020-05-23T06:21:26Z) - How Useful is Self-Supervised Pretraining for Visual Tasks? [133.1984299177874]
我々は、総合的な合成データセットと下流タスクにまたがる様々な自己教師付きアルゴリズムを評価する。
我々の実験は、利用可能なラベルの数が増えるにつれて、セルフスーパービジョンの有用性がどう変化するかについての洞察を提供する。
論文 参考訳(メタデータ) (2020-03-31T16:03:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。