論文の概要: Contrastive Learning for Continuous Touch-Based Authentication
- arxiv url: http://arxiv.org/abs/2504.17271v1
- Date: Thu, 24 Apr 2025 05:58:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.263676
- Title: Contrastive Learning for Continuous Touch-Based Authentication
- Title(参考訳): 連続的触覚認証のためのコントラスト学習
- Authors: Mengyu Qiao, Yunpeng Zhai, Yang Wang,
- Abstract要約: 非破壊的な方法で連続的な認証を行うための一貫したコントラスト学習フレームワークを提案する。
具体的には、時間的マスクオートエンコーダを用いて、生のマルチセンサデータストリームから時間的パターンを抽出する。
弊社の手法は最先端の手法より優れており,モバイルデバイス上でのユーザ認証の信頼性と効果的なソリューションを提供する。
- 参考スコア(独自算出の注目度): 6.5894762902301744
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Smart mobile devices have become indispensable in modern daily life, where sensitive information is frequently processed, stored, and transmitted-posing critical demands for robust security controls. Given that touchscreens are the primary medium for human-device interaction, continuous user authentication based on touch behavior presents a natural and seamless security solution. While existing methods predominantly adopt binary classification under single-modal learning settings, we propose a unified contrastive learning framework for continuous authentication in a non-disruptive manner. Specifically, the proposed method leverages a Temporal Masked Autoencoder to extract temporal patterns from raw multi-sensor data streams, capturing continuous motion and gesture dynamics. The pre-trained TMAE is subsequently integrated into a Siamese Temporal-Attentive Convolutional Network within a contrastive learning paradigm to model both sequential and cross-modal patterns. To further enhance performance, we incorporate multi-head attention and channel attention mechanisms to capture long-range dependencies and optimize inter-channel feature integration. Extensive experiments on public benchmarks and a self-collected dataset demonstrate that our approach outperforms state-of-the-art methods, offering a reliable and effective solution for user authentication on mobile devices.
- Abstract(参考訳): スマートモバイルデバイスは、機密情報が頻繁に処理され、保存され、堅牢なセキュリティコントロールに対する重要な要求が伝達される現代の日常生活において欠かせないものになっている。
タッチスクリーンが人間とデバイスのインタラクションの主要な媒体であることを考えると、タッチ動作に基づく継続的なユーザ認証は、自然でシームレスなセキュリティソリューションである。
従来の手法では, 単一モーダルな学習環境下でのバイナリ分類が主流であったが, 非破壊的手法で連続的な認証を行うための一貫したコントラスト学習フレームワークを提案する。
具体的には、テンポラルマスク付きオートエンコーダを用いて、生のマルチセンサデータストリームから時間パターンを抽出し、連続的な動きとジェスチャーのダイナミクスをキャプチャする。
事前学習されたTMAEはその後、シームズテンポラル・アクテンティブ・コンボリューション・ネットワークに統合され、シーケンシャルパターンとクロスモーダルパターンの両方をモデル化する。
性能向上のため,長距離依存関係を捕捉し,チャネル間機能統合を最適化するために,マルチヘッドアテンションとチャネルアテンション機構を組み込んだ。
公開ベンチマークと自己収集データセットに関する大規模な実験により、我々のアプローチは最先端の手法よりも優れており、モバイルデバイス上でのユーザ認証の信頼性と効果的なソリューションを提供しています。
関連論文リスト
- Flow Intelligence: Robust Feature Matching via Temporal Signature Correlation [12.239059174851654]
フローインテリジェンス(Flow Intelligence)は、時間的動きのパターンのみに焦点を当てたパラダイムシフトのアプローチである。
本手法は,連続するフレームにまたがる画素ブロックから動きのシグネチャを抽出し,ビデオ間の時間的動きのシグネチャを抽出する。
外観よりも動きを活用することで、フローインテリジェンスは多様な環境で堅牢でリアルタイムなビデオ特徴マッチングを可能にする。
論文 参考訳(メタデータ) (2025-04-16T10:25:20Z) - AVadCLIP: Audio-Visual Collaboration for Robust Video Anomaly Detection [57.649223695021114]
本稿では,ロバストなビデオ異常検出に音声と視覚の協調を利用する,弱教師付きフレームワークを提案する。
本フレームワークは,複数のベンチマークにおいて優れた性能を示し,オーディオ統合により異常検出精度が大幅に向上する。
論文 参考訳(メタデータ) (2025-04-06T13:59:16Z) - Real-Time Moving Flock Detection in Pedestrian Trajectories Using Sequential Deep Learning Models [1.2289361708127877]
本稿では,マルチペデストリアントラジェクトリにおけるリアルタイムフロック検出に,リカレントニューラルネットワーク(RNN)を含む逐次的深層学習モデルを用いることを検討した。
本手法は実世界のグループ移動データセットを用いて検証し、その頑健さを様々なシーケンスの長さと多様な動きパターンで実証する。
我々は,護送船団や群れなどの集団行動の他の形態を特定するためのアプローチを拡張し,より包括的なマルチエージェント行動分析の道を開く。
論文 参考訳(メタデータ) (2025-02-21T07:04:34Z) - Online hand gesture recognition using Continual Graph Transformers [1.3927943269211591]
リアルタイムスケルトンシーケンスストリーミングのための新しいオンライン認識システムを提案する。
提案手法は最先端の精度を実現し, 偽陽性率を大幅に低減し, リアルタイムアプリケーションにとって魅力的なソリューションとなる。
提案システムは,人間とロボットのコラボレーションや補助技術など,さまざまな領域にシームレスに統合することができる。
論文 参考訳(メタデータ) (2025-02-20T17:27:55Z) - DeepInteraction++: Multi-Modality Interaction for Autonomous Driving [80.8837864849534]
我々は,モダリティごとの個別表現を学習し,維持することのできる,新しいモダリティインタラクション戦略を導入する。
DeepInteraction++はマルチモーダルなインタラクション・フレームワークであり、マルチモーダルな表現型インタラクション・エンコーダとマルチモーダルな予測型インタラクション・デコーダを特徴とする。
実験では,3次元物体検出とエンドツーエンドの自律走行の両方において,提案手法の優れた性能を示す。
論文 参考訳(メタデータ) (2024-08-09T14:04:21Z) - Self-Supervised Multi-Object Tracking For Autonomous Driving From
Consistency Across Timescales [53.55369862746357]
自己管理型マルチオブジェクトトラッカーは、生のドメイン固有データから学習できるという大きな可能性を秘めている。
しかし、その再識別精度は、監督対象よりも低い。
本稿では,複数の連続フレームから再同定特徴を自己教師付きで学習できる学習目標を提案する。
論文 参考訳(メタデータ) (2023-04-25T20:47:29Z) - Modeling Continuous Motion for 3D Point Cloud Object Tracking [54.48716096286417]
本稿では,各トラックレットを連続ストリームとみなす新しいアプローチを提案する。
各タイムスタンプでは、現在のフレームだけがネットワークに送られ、メモリバンクに格納された複数フレームの履歴機能と相互作用する。
頑健な追跡のためのマルチフレーム機能の利用性を高めるために,コントラッシブシーケンス強化戦略を提案する。
論文 参考訳(メタデータ) (2023-03-14T02:58:27Z) - Stochastic Coherence Over Attention Trajectory For Continuous Learning
In Video Streams [64.82800502603138]
本稿では,映像ストリーム中のピクセルワイズ表現を段階的かつ自律的に開発するための,ニューラルネットワークに基づく新しいアプローチを提案する。
提案手法は, 参加者の入場地を観察することで, エージェントが学習できる, 人間の様の注意機構に基づく。
実験では,3次元仮想環境を利用して,映像ストリームを観察することで,エージェントが物体の識別を学べることを示す。
論文 参考訳(メタデータ) (2022-04-26T09:52:31Z) - CCVS: Context-aware Controllable Video Synthesis [95.22008742695772]
プレゼンテーションでは、古いビデオクリップから新しいビデオクリップを合成するための自己教師付き学習アプローチを紹介している。
時間的連続性のための文脈情報と微妙な制御のための補助情報に基づいて合成過程を規定する。
論文 参考訳(メタデータ) (2021-07-16T17:57:44Z) - Multi-modal Fusion for Single-Stage Continuous Gesture Recognition [45.19890687786009]
テンポラル・マルチモーダル・フュージョン(TMMF)と呼ばれる単一段階連続ジェスチャー認識フレームワークを導入する。
TMMFは、単一のモデルでビデオ内の複数のジェスチャーを検出し、分類することができる。
このアプローチは、前処理のセグメンテーションステップを必要とせずに、ジェスチャーと非ジェスチャーの自然な遷移を学習する。
論文 参考訳(メタデータ) (2020-11-10T07:09:35Z) - Federated Self-Supervised Learning of Multi-Sensor Representations for
Embedded Intelligence [8.110949636804772]
スマートフォン、ウェアラブル、IoT(Internet of Things)デバイスは、教師付きモデルを学習するための集中リポジトリに蓄積できない豊富なデータを生成する。
本稿では,ウェーブレット変換に基づくテキストカルグラム・信号対応学習という自己教師付きアプローチを提案し,ラベルなしセンサ入力から有用な表現を学習する。
さまざまなパブリックデータセットのマルチビュー戦略を用いて,学習機能の品質を広範囲に評価し,すべての領域で高いパフォーマンスを実現している。
論文 参考訳(メタデータ) (2020-07-25T21:59:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。