このサイトではarxivで発表された論文のメタデータを翻訳しています。(arxivのメタデータは CC 0です) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。 技術的な詳細は開発者のBlogで紹介します。

下表は最大200件を表示しています。

PDF登録状況(最新200件)


TitleAuthorsAbstract論文公表日・翻訳日
# InstructCV:ビジョンジェネラリストとしてのインストラクション付きテキスト-画像拡散モデル

InstructCV: Instruction-Tuned Text-to-Image Diffusion Models as Vision Generalists ( http://arxiv.org/abs/2310.00390v3 )

ライセンス: Link先を確認
Yulu Gan, Sungwoo Park, Alexander Schubert, Anthony Philippakis, Ahmed M. Alaa, (参考訳) 生成拡散モデルの最近の進歩は、印象的な品質を持つ現実的で多様な画像のテキスト制御合成を可能にしている。 これらの顕著な進歩にもかかわらず、コンピュータビジョンにおけるテキストから画像への生成モデルの適用は依然として限られている。 これらのタスクの現在の事実上のアプローチは、そのタスクに合わせたモデルアーキテクチャと損失関数を設計することである。 本稿では,タスク固有の設計選択を抽象化し,自然言語命令に従うことでタスク実行を可能にする,コンピュータビジョンタスクのための統一型言語インタフェースを開発する。 我々のアプローチは、複数のコンピュータビジョンタスクをテキスト・画像生成問題としてキャストすることである。 ここでは、テキストはタスクを記述する命令を表し、その結果のイメージは視覚的に符号化されたタスク出力である。 モデルのトレーニングには、セグメンテーション、オブジェクト検出、深さ推定、分類など、さまざまなタスクをカバーするコンピュータビジョンデータセットをプールする。 そこで我々は,各画像上で実行すべき特定のタスクを伝達するテンプレートのプロンプトを,大規模言語モデルで表現し,このプロセスを通じて,入力および出力画像と注釈付き命令とを組み合わせたマルチモーダルおよびマルチタスクのトレーニングデータセットを作成する。 InstructPix2Pixアーキテクチャに従うと、構築したデータセットを用いて、命令チューニングをテキストから画像への拡散モデルに適用し、その機能を生成モデルから命令誘導型マルチタスク視覚学習者へ誘導する。 InstructCVと呼ばれる我々のモデルは、他のジェネラリストやタスク固有の視覚モデルと比較して競合的に機能することを示した。 さらに、データやカテゴリ、ユーザインストラクションを表示できないような、魅力的な一般化機能も備えています。

Recent advances in generative diffusion models have enabled text-controlled synthesis of realistic and diverse images with impressive quality. Despite these remarkable advances, the application of text-to-image generative models in computer vision for standard visual recognition tasks remains limited. The current de facto approach for these tasks is to design model architectures and loss functions that are tailored to the task at hand. In this paper, we develop a unified language interface for computer vision tasks that abstracts away task-specific design choices and enables task execution by following natural language instructions. Our approach involves casting multiple computer vision tasks as text-to-image generation problems. Here, the text represents an instruction describing the task, and the resulting image is a visually-encoded task output. To train our model, we pool commonly-used computer vision datasets covering a range of tasks, including segmentation, object detection, depth estimation, and classification. We then use a large language model to paraphrase prompt templates that convey the specific tasks to be conducted on each image, and through this process, we create a multi-modal and multi-task training dataset comprising input and output images along with annotated instructions. Following the InstructPix2Pix architecture, we apply instruction-tuning to a text-to-image diffusion model using our constructed dataset, steering its functionality from a generative model to an instruction-guided multi-task vision learner. Experiments demonstrate that our model, dubbed InstructCV, performs competitively compared to other generalist and task-specific vision models. Moreover, it exhibits compelling generalization capabilities to unseen data, categories, and user instructions.
公開日:2024-03-16
翻訳日:2024-03-19 11:35:28
# ガウス局所線型写像を用いた高速で高精度で軽量な逐次シミュレーションに基づく推論

Fast, accurate and lightweight sequential simulation-based inference using Gaussian locally linear mappings ( http://arxiv.org/abs/2403.07454v2 )

ライセンス: Link先を確認
Henrik Häggström, Pedro L. C. Rodrigues, Geoffroy Oudoumanessah, Florence Forbes, Umberto Picchini, (参考訳) 難易度の高い複素モデルに対するベイズ推論は、計算機シミュレータへの多くの呼び出しを実行するアルゴリズムを用いて取り組むことができる。 これらの手法を総合的に「シミュレーションベース推論(SBI)」と呼ぶ。 近年のSBI法では、ニューラルネットワーク(NN)を用いて、不可能な可能性関数と後部分布の近似的かつ表現的な構造を提供している。 しかし、それらは一般的に、精度と計算要求の間の最適なトレードオフを達成しない。 本研究では,確率分布の構造的混合を用いて,確率分布と後部分布の両方を近似する手法を提案する。 提案手法は, NN-based SBI法と比較して, 計算フットプリントがはるかに小さく, 正確な後部推測を導出する。 本稿では,SBI文献のベンチマークモデルについて概説する。

Bayesian inference for complex models with an intractable likelihood can be tackled using algorithms performing many calls to computer simulators. These approaches are collectively known as "simulation-based inference" (SBI). Recent SBI methods have made use of neural networks (NN) to provide approximate, yet expressive constructs for the unavailable likelihood function and the posterior distribution. However, they do not generally achieve an optimal trade-off between accuracy and computational demand. In this work, we propose an alternative that provides both approximations to the likelihood and the posterior distribution, using structured mixtures of probability distributions. Our approach produces accurate posterior inference when compared to state-of-the-art NN-based SBI methods, while exhibiting a much smaller computational footprint. We illustrate our results on several benchmark models from the SBI literature.
公開日:2024-03-16
翻訳日:2024-03-19 11:35:28
# 運動マンバ:階層型および双方向選択型SSMを用いた効率よく長周期な運動生成

Motion Mamba: Efficient and Long Sequence Motion Generation with Hierarchical and Bidirectional Selective SSM ( http://arxiv.org/abs/2403.07487v2 )

ライセンス: Link先を確認
Zeyu Zhang, Akide Liu, Ian Reid, Richard Hartley, Bohan Zhuang, Hao Tang, (参考訳) 人間の動き生成は、生成的コンピュータビジョンにおいて重要な追求であり、長いシーケンスと効率的な動き生成を実現することは依然として困難である。 状態空間モデル(SSM)の最近の進歩、特にMambaは、効率的なハードウェア・アウェア・デザインによる長いシーケンス・モデリングにおいてかなりの可能性を秘めている。 それでも、モーション生成へのSSMの適用は、モーションシーケンスをモデル化するための特別な設計アーキテクチャが欠如しているため、ハードルに直面している。 これらの課題に対処するために、我々はSSMを用いた先駆的な動き生成モデルを示すシンプルで効率的なアプローチであるMotion Mambaを提案する。 具体的には,階層型テンポラルマンバ(HTM)ブロックを設計し,フレーム間の動きの整合性を保つことを目的とした対称U-Netアーキテクチャを用いて,孤立SSMモジュールの様々な数をアンサンブルすることで時間データを処理する。 また,2方向空間マンバ(BSM)ブロックを2方向処理し,時間フレーム内での高精度な動作生成を実現する。 提案手法は,HumanML3DおよびKIT-MLデータセットの最大50%のFID改善と最大4倍の高速化を実現する。 https://steve-zeyu-zhang.github.io/MotionMamba/

Human motion generation stands as a significant pursuit in generative computer vision, while achieving long-sequence and efficient motion generation remains challenging. Recent advancements in state space models (SSMs), notably Mamba, have showcased considerable promise in long sequence modeling with an efficient hardware-aware design, which appears to be a promising direction to build motion generation model upon it. Nevertheless, adapting SSMs to motion generation faces hurdles since the lack of a specialized design architecture to model motion sequence. To address these challenges, we propose Motion Mamba, a simple and efficient approach that presents the pioneering motion generation model utilized SSMs. Specifically, we design a Hierarchical Temporal Mamba (HTM) block to process temporal data by ensemble varying numbers of isolated SSM modules across a symmetric U-Net architecture aimed at preserving motion consistency between frames. We also design a Bidirectional Spatial Mamba (BSM) block to bidirectionally process latent poses, to enhance accurate motion generation within a temporal frame. Our proposed method achieves up to 50% FID improvement and up to 4 times faster on the HumanML3D and KIT-ML datasets compared to the previous best diffusion-based method, which demonstrates strong capabilities of high-quality long sequence motion modeling and real-time human motion generation. See project website https://steve-zeyu-zhang.github.io/MotionMamba/
公開日:2024-03-15
翻訳日:2024-03-19 11:35:28
# PeLK: 周辺畳み込みを用いたパラメータ効率の大きい大カーネルネットワーク

PeLK: Parameter-efficient Large Kernel ConvNets with Peripheral Convolution ( http://arxiv.org/abs/2403.07589v2 )

ライセンス: Link先を確認
Honghao Chen, Xiangxiang Chu, Yongjian Ren, Xin Zhao, Kaiqi Huang, (参考訳) 最近、一部の大型カーネルコンブネットは、魅力的な性能と効率で反撃している。 しかし、畳み込みの2乗の複雑さを考えると、カーネルのスケールアップは膨大な量のパラメータをもたらし、増大したパラメータは深刻な最適化問題を引き起こす可能性がある。 これらの問題により、現在のCNNはストライプ畳み込み(51x5 + 5x51)の形で51x51までのスケールを妥協し、カーネルのサイズが大きくなるにつれて飽和し始める。 本稿では,これらの重要な問題に対処し,カーネルのスケールアップを継続してパフォーマンスの向上を図る。 人間の視覚にインスパイアされた周辺的畳み込みは、パラメータ共有による高密度グリッド畳み込みの90%以上を効率的に削減し、カーネルサイズを極端に大きくする。 末梢のコンボリューションは人間と非常によく似ており,O(K^2)からO(logK)へのコンボリューションの複雑さを低下させる。 そこで本研究では,パラメータ効率の高いLarge Kernel Network (PeLK)を提案する。 私たちのPeLKは、ImageNet分類、ADE20K上のセマンティックセグメンテーション、MS COCOでのオブジェクト検出など、様々なビジョンタスクにおいて、Swin、ConvNeXt、RepLKNet、SLaKのようなモダンなビジョントランスフォーマーやConvNetアーキテクチャよりも優れています。 初めて、CNNのカーネルサイズを前例のない101x101にスケールアップし、一貫した改善を実証しました。

Recently, some large kernel convnets strike back with appealing performance and efficiency. However, given the square complexity of convolution, scaling up kernels can bring about an enormous amount of parameters and the proliferated parameters can induce severe optimization problem. Due to these issues, current CNNs compromise to scale up to 51x51 in the form of stripe convolution (i.e., 51x5 + 5x51) and start to saturate as the kernel size continues growing. In this paper, we delve into addressing these vital issues and explore whether we can continue scaling up kernels for more performance gains. Inspired by human vision, we propose a human-like peripheral convolution that efficiently reduces over 90% parameter count of dense grid convolution through parameter sharing, and manage to scale up kernel size to extremely large. Our peripheral convolution behaves highly similar to human, reducing the complexity of convolution from O(K^2) to O(logK) without backfiring performance. Built on this, we propose Parameter-efficient Large Kernel Network (PeLK). Our PeLK outperforms modern vision Transformers and ConvNet architectures like Swin, ConvNeXt, RepLKNet and SLaK on various vision tasks including ImageNet classification, semantic segmentation on ADE20K and object detection on MS COCO. For the first time, we successfully scale up the kernel size of CNNs to an unprecedented 101x101 and demonstrate consistent improvements.
公開日:2024-03-16
翻訳日:2024-03-19 11:35:28
# 深部部分モジュラー周辺ネットワーク

Deep Submodular Peripteral Networks ( http://arxiv.org/abs/2403.08199v2 )

ライセンス: Link先を確認
Gantavya Bhatt, Arnav Das, Jeff Bilmes, (参考訳) 様々なアプリケーションに不可欠な部分モジュラー関数は、取得のための実践的な学習方法を欠いていることが多い。 精神測定学の豊富な歴史にもかかわらず、グレードドド・ペアワイズ・レディション(GPC)を提供するオークルからスケーリングを学ぶことは、一見無関係である。 本稿では,DSPN(Deep Submodular Peripteral Network)という,新しいパラメトリックなサブモジュール関数のファミリーを導入し,これらの課題に対処するための,コントラスト学習にインスパイアされたGPC対応戦略を用いたトレーニング手法を提案する。 新たに考案されたGPCスタイルの「周辺」損失は,物体の対(この場合の集合)間の数値的にグレードされた関係を生かしたものである。 従来のコントラスト学習とは異なり,本手法では,2値比較よりもニュアンス情報を抽出し,任意のサイズのコントラストセット(2値ではなく2値比較)を抽出する。 また、アクティブラーニングにインスパイアされたサブモジュールフィードバックを含む、トレーニングのための自動サンプリング戦略の新たなスイートも定義する。 実験的な設計やストリーミングアプリケーションなどの下流タスクにおいて、コストがかかるサブモジュール関数からサブモジュール性を学ぶ上でのDSPNの有効性を実証する。

Submodular functions, crucial for various applications, often lack practical learning methods for their acquisition. Seemingly unrelated, learning a scaling from oracles offering graded pairwise preferences (GPC) is underexplored, despite a rich history in psychometrics. In this paper, we introduce deep submodular peripteral networks (DSPNs), a novel parametric family of submodular functions, and methods for their training using a contrastive-learning inspired GPC-ready strategy to connect and then tackle both of the above challenges. We introduce newly devised GPC-style "peripteral" loss which leverages numerically graded relationships between pairs of objects (sets in our case). Unlike traditional contrastive learning, our method utilizes graded comparisons, extracting more nuanced information than just binary-outcome comparisons, and contrasts sets of any size (not just two). We also define a novel suite of automatic sampling strategies for training, including active-learning inspired submodular feedback. We demonstrate DSPNs' efficacy in learning submodularity from a costly target submodular function showing superiority in downstream tasks such as experimental design and streaming applications.
公開日:2024-03-16
翻訳日:2024-03-19 11:35:28
# PRAGO:オブジェクト検出による多視点ポーズ最適化

PRAGO: Differentiable Multi-View Pose Optimization From Objectness Detections ( http://arxiv.org/abs/2403.08586v2 )

ライセンス: Link先を確認
Matteo Taiana, Matteo Toso, Stuart James, Alessio Del Bue, (参考訳) 画像の集合からカメラのポーズをロバストに推定することは、微分可能な方法、特に小さくスパースなカメラのポーズグラフの場合において、依然として困難である基本課題である。 この課題を克服するため、我々はPose-refined Rotation Averaging Graph Optimization (PRAGO)を提案する。 非順序画像上の対象性検出の集合から回転ポーズを再構成し、従って、絶対ポーズは幾何的タスクの列の最適化の恩恵を受け、微分可能な方法で再構成する。 PRAGOにおける我々の目的性ポーズ・リファインメント・モジュールは、エッジを除去することなく、グラフエッジの生存性に関する早期決定を避けることなく、ペアワイズな相対的なポーズ推定において、固有の曖昧さを洗練できることを示す。 その後、PRAGOは反復グラフ構築を通じて絶対回転を洗練し、グラフエッジを再重み付けして最終的な回転ポーズを計算する。 その結果,PRAGOは7シーンから抽出した未分化のシーンにおいて,類似の翻訳推定を行いながら,相対的に21%の回転率向上を実現できることがわかった。

Robustly estimating camera poses from a set of images is a fundamental task which remains challenging for differentiable methods, especially in the case of small and sparse camera pose graphs. To overcome this challenge, we propose Pose-refined Rotation Averaging Graph Optimization (PRAGO). From a set of objectness detections on unordered images, our method reconstructs the rotational pose, and in turn, the absolute pose, in a differentiable manner benefiting from the optimization of a sequence of geometrical tasks. We show how our objectness pose-refinement module in PRAGO is able to refine the inherent ambiguities in pairwise relative pose estimation without removing edges and avoiding making early decisions on the viability of graph edges. PRAGO then refines the absolute rotations through iterative graph construction, reweighting the graph edges to compute the final rotational pose, which can be converted into absolute poses using translation averaging. We show that PRAGO is able to outperform non-differentiable solvers on small and sparse scenes extracted from 7-Scenes achieving a relative improvement of 21% for rotations while achieving similar translation estimates.
公開日:2024-03-15
翻訳日:2024-03-19 11:35:28
# AraTrust: アラビア語におけるLLMの信頼性評価

AraTrust: An Evaluation of Trustworthiness for LLMs in Arabic ( http://arxiv.org/abs/2403.09017v2 )

ライセンス: Link先を確認
Emad A. Alghamdi, Reem I. Masoud, Deema Alnuhait, Afnan Y. Alomairi, Ahmed Ashraf, Mohamed Zaytoon, (参考訳) 人工知能(AI)システムの急速な進歩と広く受け入れられていることは、AIに関連する能力と潜在的なリスクの両方を理解することの要求を強調している。 AI研究におけるアラビア語の言語的複雑さ、文化的豊かさ、表現不足などを考えると、大きな言語モデル(LLM)のパフォーマンスとアラビア関連のタスクの安全性に重点を置く必要がある。 開発に多少の進展があったにもかかわらず、総合的な信頼性評価ベンチマークが欠如しており、アラビア語で誘導されたLLMの安全性を正確に評価し改善する上で大きな課題となっている。 本稿では,アラビア語におけるLLMの総合的信頼性ベンチマークであるAraTrustを紹介する。 AraTrustは、真理、倫理、安全、身体的健康、メンタルヘルス、不公平、違法な活動、プライバシー、不快な言語に関連する様々な次元に対処する516の人間による多重選択質問で構成されている。 我々は,その信頼性を評価するため,LLMのセットをベンチマークに対して評価した。 GPT-4は最も信頼できるLCMであり、特にAceGPT 7BやJais 13Bといったオープンソースモデルはベンチマークで60%のスコアを得るのに苦労しました。

The swift progress and widespread acceptance of artificial intelligence (AI) systems highlight a pressing requirement to comprehend both the capabilities and potential risks associated with AI. Given the linguistic complexity, cultural richness, and underrepresented status of Arabic in AI research, there is a pressing need to focus on Large Language Models (LLMs) performance and safety for Arabic related tasks. Despite some progress in their development, there is a lack of comprehensive trustworthiness evaluation benchmarks which presents a major challenge in accurately assessing and improving the safety of LLMs when prompted in Arabic. In this paper, we introduce AraTrust, the first comprehensive trustworthiness benchmark for LLMs in Arabic. AraTrust comprises 516 human-written multiple-choice questions addressing diverse dimensions related to truthfulness, ethics, safety, physical health, mental health, unfairness, illegal activities, privacy, and offensive language. We evaluated a set of LLMs against our benchmark to assess their trustworthiness. GPT-4 was the most trustworthy LLM, while open-source models, particularly AceGPT 7B and Jais 13B, struggled to achieve a score of 60% in our benchmark.
公開日:2024-03-15
翻訳日:2024-03-19 11:35:28
# ハードウェア非決定性制御による最適検証訓練

Optimistic Verifiable Training by Controlling Hardware Nondeterminism ( http://arxiv.org/abs/2403.09603v2 )

ライセンス: Link先を確認
Megha Srivastava, Simran Arora, Dan Boneh, (参考訳) AIシステムの計算要求の増加は、必要なリソースが不足しているクライアントのためにモデルをトレーニングするサービスの出現につながった。 しかし、トレーニングの正確性を確保し、データ中毒などの潜在的なトレーニングタイムアタックに対する防御が課題となる。 検証可能なトレーニングに関する既存の研究は、暗号技術を必要とするためスケールに苦しむ証明ベースシステムと、トレーニングプロセスを再現する信頼できる第三者監査者を考える「最適化」方法の2つのクラスに大別される。 後者の主な課題は、トレーニング中のGPUタイプ間のハードウェア非決定性により、監査人がトレーニングプロセスを正確に複製できないため、そのようなスキームは非破壊的である。 本研究では,対象モデルよりも高精度なトレーニング,中間計算ステップ後のラウンドリング,適応的しきい値決定法に基づくラウンドリング決定を組み合わせ,非決定性をうまく制御する手法を提案する。 3種類のNVIDIA GPU(A40, Titan XP, RTX 2080 Ti)にわたって、我々は、ResNet-50(23M)モデルとGPT-2(117M)モデルのフルトレーニングと微調整の両方において、FP32精度で正確なトレーニングレプリケーションを実現する。 検証可能なトレーニング手法は,証明ベースシステムと比較して,ストレージと時間コストを著しく削減する。

The increasing compute demands of AI systems has led to the emergence of services that train models on behalf of clients lacking necessary resources. However, ensuring correctness of training and guarding against potential training-time attacks, such as data poisoning, poses challenges. Existing works on verifiable training largely fall into two classes: proof-based systems, which struggle to scale due to requiring cryptographic techniques, and "optimistic" methods that consider a trusted third-party auditor who replicates the training process. A key challenge with the latter is that hardware nondeterminism between GPU types during training prevents an auditor from replicating the training process exactly, and such schemes are therefore non-robust. We propose a method that combines training in a higher precision than the target model, rounding after intermediate computation steps, and storing rounding decisions based on an adaptive thresholding procedure, to successfully control for nondeterminism. Across three different NVIDIA GPUs (A40, Titan XP, RTX 2080 Ti), we achieve exact training replication at FP32 precision for both full-training and fine-tuning of ResNet-50 (23M) and GPT-2 (117M) models. Our verifiable training scheme significantly decreases the storage and time costs compared to proof-based systems.
公開日:2024-03-16
翻訳日:2024-03-19 11:35:28
# 懐疑論: 自動で、正当化され、プライバシ保護されるパスワード構成ポリシーの選択

Skeptic: Automatic, Justified and Privacy-Preserving Password Composition Policy Selection ( http://arxiv.org/abs/2007.03809v2 )

ライセンス: Link先を確認
Saul Johnson, João F. Ferreira, Alexandra Mendes, Julien Cordry, (参考訳) パスワード保護システムに強制するパスワード構成ポリシーの選択は、重要なセキュリティ上の決定であり、攻撃を推測するユーザ長パスワードの脆弱性に大きく影響することが示されている。 しかし実際には、システム管理者が直感だけでパスワード構成ポリシーを選択する傾向にあるため、この選択は通常厳密で正当化できない。 本研究では,様々なパスワード構成ポリシーに従ってフィルタリングされた大量の実世界のパスワードデータから構築されたパスワード確率分布に基づく新しい手法を提案する。 パスワード再選択動作をシミュレートするためにパスワード確率を再配布し、パスワード構成ポリシーを自動的に決定し、最大均一度でユーザ長パスワードの配布を誘導する。 さらに, ユーザパスワードデータに直接アクセスすることなく, パスワード構成ポリシーの選択を正当化できることを示す。 最後に、この方法論を実装するソフトウェアツールキットであるSkepticを紹介します。DSLは、パスワードセキュリティのバックグラウンドを持たないシステム管理者が、高価で時間を要するユーザスタディに頼ることなく、パスワード構成ポリシーの比較とランク付けを可能にします。 3つのデータセットに205,176,321の単語を渡すと、パスワード構成ポリシーの有効性に関する過去の実証研究から得られた結果と密接に一致していることを示し、我々のアプローチに有効であることを示す。

The choice of password composition policy to enforce on a password-protected system represents a critical security decision, and has been shown to significantly affect the vulnerability of user-chosen passwords to guessing attacks. In practice, however, this choice is not usually rigorous or justifiable, with a tendency for system administrators to choose password composition policies based on intuition alone. In this work, we propose a novel methodology that draws on password probability distributions constructed from large sets of real-world password data which have been filtered according to various password composition policies. Password probabilities are then redistributed to simulate different user password reselection behaviours in order to automatically determine the password composition policy that will induce the distribution of user-chosen passwords with the greatest uniformity, a metric which we show to be a useful proxy to measure overall resistance to password guessing attacks. Further, we show that by fitting power-law equations to the password probability distributions we generate, we can justify our choice of password composition policy without any direct access to user password data. Finally, we present Skeptic -- a software toolkit that implements this methodology, including a DSL to enable system administrators with no background in password security to compare and rank password composition policies without resorting to expensive and time-consuming user studies. Drawing on 205,176,321 pass words across 3 datasets, we lend validity to our approach by demonstrating that the results we obtain align closely with findings from a previous empirical study into password composition policy effectiveness.
公開日:2024-03-15
翻訳日:2024-03-19 08:10:52
# 確率帯域に対する最適対向攻撃とスムース応答による防御

Near Optimal Adversarial Attacks on Stochastic Bandits and Defenses with Smoothed Responses ( http://arxiv.org/abs/2008.09312v8 )

ライセンス: Link先を確認
Shiliang Zuo, (参考訳) 確率的バンディットアルゴリズムに対する敵対的攻撃について研究する。 各ラウンドで、学習者は腕を選択し、確率的な報酬を生成する。 敵は戦略的に報酬に汚職を加え、学習者は各ラウンドで腐敗した報酬を観察することができる。 本論文では2つの結果について述べる。 第1セットは、敵に対する最適な攻撃戦略を研究する。 敵は、彼が宣伝したいターゲットアームを持ち、彼のゴールは、学習者を操り、このターゲットアームを$T - o(T)$ timesを選択することである。 私はUCBとThompson Samplingに対する攻撃戦略を設計し、$\widehat{O}(\sqrt{\log T})$コストしか使いません。 一致した下界を示し、UPB、トンプソンサンプリング、および$\varepsilon$-greedyの脆弱性を正確に特徴づける。 第2セットは、学習者が敵に対してどのように防御できるかを研究する。 スムーズな分析と行動経済学に関する文献に触発されて、私は2つの単純なアルゴリズムを示し、任意の比を1に近く達成する。

I study adversarial attacks against stochastic bandit algorithms. At each round, the learner chooses an arm, and a stochastic reward is generated. The adversary strategically adds corruption to the reward, and the learner is only able to observe the corrupted reward at each round. Two sets of results are presented in this paper. The first set studies the optimal attack strategies for the adversary. The adversary has a target arm he wishes to promote, and his goal is to manipulate the learner into choosing this target arm $T - o(T)$ times. I design attack strategies against UCB and Thompson Sampling that only spend $\widehat{O}(\sqrt{\log T})$ cost. Matching lower bounds are presented, and the vulnerability of UCB, Thompson sampling, and $\varepsilon$-greedy are exactly characterized. The second set studies how the learner can defend against the adversary. Inspired by literature on smoothed analysis and behavioral economics, I present two simple algorithms that achieve a competitive ratio arbitrarily close to 1.
公開日:2024-03-14
翻訳日:2024-03-19 08:10:52
# 量子データ解析の改良

Improved quantum data analysis ( http://arxiv.org/abs/2011.10908v4 )

ライセンス: Link先を確認
Costin Bădescu, Ryan O'Donnell, (参考訳) 量子データ解析において、より単純な証明とともに、いくつかの基本ルーチンのよりサンプル効率の良いバージョンを提供する。 特に、$O((\log^2 m)/\epsilon^2)$$d$次元状態 $\rho$ のサンプルのみを必要とする量子 "Threshold Search" アルゴリズムを与える。 つまり、$0 \le A_1, A_2, ..., A_m \le 1$ が$\mathrm{tr}(\rho A_i) \ge 1/2$ となると、このアルゴリズムは$\mathrm{tr}(\rho A_j) \ge 1/2-\epsilon$ で$j$ を求める。 その結果,Shadow Tomography アルゴリズムは$\tilde{O}((\log^2 m)(\log d)/\epsilon^4)$サンプルしか必要とせず,パラメータ $m$, $d$, $\epsilon$ に対して最もよく知られた依存を実現する。 また、$\tilde{O}((\log^3 m)/\epsilon^2)$サンプルを用いた別の仮説選択法も提供する。

We provide more sample-efficient versions of some basic routines in quantum data analysis, along with simpler proofs. Particularly, we give a quantum "Threshold Search" algorithm that requires only $O((\log^2 m)/\epsilon^2)$ samples of a $d$-dimensional state $\rho$. That is, given observables $0 \le A_1, A_2, ..., A_m \le 1$ such that $\mathrm{tr}(\rho A_i) \ge 1/2$ for at least one $i$, the algorithm finds $j$ with $\mathrm{tr}(\rho A_j) \ge 1/2-\epsilon$. As a consequence, we obtain a Shadow Tomography algorithm requiring only $\tilde{O}((\log^2 m)(\log d)/\epsilon^4)$ samples, which simultaneously achieves the best known dependence on each parameter $m$, $d$, $\epsilon$. This yields the same sample complexity for quantum Hypothesis Selection among $m$ states; we also give an alternative Hypothesis Selection method using $\tilde{O}((\log^3 m)/\epsilon^2)$ samples.
公開日:2024-03-15
翻訳日:2024-03-19 08:10:52
# マニフォールドフィルタとマニフォールドニューラルネットワークの変形に対する安定性

Stability to Deformations of Manifold Filters and Manifold Neural Networks ( http://arxiv.org/abs/2106.03725v5 )

ライセンス: Link先を確認
Zhiyang Wang, Luana Ruiz, Alejandro Ribeiro, (参考訳) 本稿では、多様体(M)畳み込みフィルタとニューラルネットワーク(NN)を定義し、研究する。 ラプラス・ベルトラミ作用素指数(英語版)の項で定義され、多様体がサンプリングされたときの離散近似として \emph{graph} (G) フィルタとニューラルネットワーク(NN) が復元される。 これらのフィルタは、グラフフィルタのスペクトル表現と標準畳み込みフィルタの周波数応答を連続的に一般化したスペクトル表現を持つ。 この論文の主な技術的貢献は、多様体の滑らかな変形に対する多様体フィルタとMNNの安定性を分析することである。 この分析は、グラフフィルタとGNNの既知の安定性特性を一般化し、標準畳み込みフィルタとニューラルネットワークの既知の安定性特性を連続的に一般化する。 この分析から得られた最も重要な観測は、グラフフィルタや標準連続時間フィルタと同様に、変形の有無で高周波成分の識別が難しいことである。 これは、多様体、グラフ、または連続時間ニューラルネットワークの使用によって改善できる課題である。 この分析の最も重要な実践的成果は、大規模グラフにおけるグラフフィルタとGNNの挙動に光を当てることである。

The paper defines and studies manifold (M) convolutional filters and neural networks (NNs). \emph{Manifold} filters and MNNs are defined in terms of the Laplace-Beltrami operator exponential and are such that \emph{graph} (G) filters and neural networks (NNs) are recovered as discrete approximations when the manifold is sampled. These filters admit a spectral representation which is a generalization of both the spectral representation of graph filters and the frequency response of standard convolutional filters in continuous time. The main technical contribution of the paper is to analyze the stability of manifold filters and MNNs to smooth deformations of the manifold. This analysis generalizes known stability properties of graph filters and GNNs and it is also a generalization of known stability properties of standard convolutional filters and neural networks in continuous time. The most important observation that follows from this analysis is that manifold filters, same as graph filters and standard continuous time filters, have difficulty discriminating high frequency components in the presence of deformations. This is a challenge that can be ameliorated with the use of manifold, graph, or continuous time neural networks. The most important practical consequence of this analysis is to shed light on the behavior of graph filters and GNNs in large-scale graphs.
公開日:2024-03-14
翻訳日:2024-03-19 08:10:52
# 深層強化学習のためのマルコフ状態抽象化の学習

Learning Markov State Abstractions for Deep Reinforcement Learning ( http://arxiv.org/abs/2106.04379v4 )

ライセンス: Link先を確認
Cameron Allen, Neev Parikh, Omer Gottesman, George Konidaris, (参考訳) マルコフ決定過程(MDPs)における強化学習の基本的な前提は、関連する決定過程が実際にマルコフであるということである。 しかし、MDPが豊富な観測値を持つ場合、エージェントは通常抽象状態表現によって学習し、そのような表現はマルコフ特性を保存することが保証されない。 本稿では,マルコフの抽象状態表現を学習するのに十分であることを示す。 次に、逆モデル推定と時間的コントラスト学習を組み合わせて、これらの条件をほぼ満足する抽象化を学ぶための実践的な訓練手順について述べる。 我々の新しい訓練目的はオンライントレーニングとオフライントレーニングの両方と互換性があり、報酬信号を必要としないが、エージェントは報酬情報を利用することができる。 視覚グリッドワールドドメインと連続制御ベンチマークのセットに対する我々のアプローチを実証的に評価する。 我々の手法は、ドメインの基盤となる構造を捉える表現を学び、視覚的特徴を持つ最先端の深層強化学習よりもサンプル効率を向上させる。

A fundamental assumption of reinforcement learning in Markov decision processes (MDPs) is that the relevant decision process is, in fact, Markov. However, when MDPs have rich observations, agents typically learn by way of an abstract state representation, and such representations are not guaranteed to preserve the Markov property. We introduce a novel set of conditions and prove that they are sufficient for learning a Markov abstract state representation. We then describe a practical training procedure that combines inverse model estimation and temporal contrastive learning to learn an abstraction that approximately satisfies these conditions. Our novel training objective is compatible with both online and offline training: it does not require a reward signal, but agents can capitalize on reward information when available. We empirically evaluate our approach on a visual gridworld domain and a set of continuous control benchmarks. Our approach learns representations that capture the underlying structure of the domain and lead to improved sample efficiency over state-of-the-art deep reinforcement learning with visual features -- often matching or exceeding the performance achieved with hand-designed compact state information.
公開日:2024-03-15
翻訳日:2024-03-19 08:10:52
# 子ども向け音声の言語間一貫性のある意味と統語的アノテーション

Cross-linguistically Consistent Semantic and Syntactic Annotation of Child-directed Speech ( http://arxiv.org/abs/2109.10952v2 )

ライセンス: Link先を確認
Ida Szubert, Omri Abend, Nathan Schneider, Samuel Gibbon, Louis Mahon, Sharon Goldwater, Mark Steedman, (参考訳) 本稿では,子ども指向音声(CDS)と感性論理形式を組み合わせたコーパスを構築する手法を提案し,この手法を用いて英語とヘブライ語で2つのコーパスを作成する。 このアプローチは言語間一貫した表現を強制し、依存関係表現とセマンティック解析の最近の進歩に基づいている。 具体的には、このアプローチには2つのステップがあります。 まず,多種多様なドメインや類型的多様言語に一貫して適用するために開発された統語的アノテーションに対して,ユニバーサル依存(UD)方式を用いてコーパスに注釈を付ける。 次に,感性論理形式(LF)をUD構造から自動変換する手法を適用することで,これらのデータに注釈を付ける。 UD構造は言語ニュートラルであり、複数のアノテータによる一貫性と信頼性のあるアノテーションをサポートする。 このアプローチを用いて、我々はChiLDESの2つのコーパスに対して、Bown's Adam corpus (英: annotate ~80% of its child-directed utterances, all child-directed utterances from Berman's Hagar corpus (ヘブライ語)という構文的・意味的アノテーションを提供する。 我々は、アノテーション間合意研究を用いてUDアノテーションの品質を検証し、変換された意味表現を手動で評価する。 次に,(1)CDSにおける異なる構文・意味現象の出現状況に関する縦断的なコーパス研究を行い,(2)既存の言語習得モデルを適用し,言語間の結果を短時間で比較することで,コンパイルコーパスの有用性を実証する。

This paper proposes a methodology for constructing such corpora of child directed speech (CDS) paired with sentential logical forms, and uses this method to create two such corpora, in English and Hebrew. The approach enforces a cross-linguistically consistent representation, building on recent advances in dependency representation and semantic parsing. Specifically, the approach involves two steps. First, we annotate the corpora using the Universal Dependencies (UD) scheme for syntactic annotation, which has been developed to apply consistently to a wide variety of domains and typologically diverse languages. Next, we further annotate these data by applying an automatic method for transducing sentential logical forms (LFs) from UD structures. The UD and LF representations have complementary strengths: UD structures are language-neutral and support consistent and reliable annotation by multiple annotators, whereas LFs are neutral as to their syntactic derivation and transparently encode semantic relations. Using this approach, we provide syntactic and semantic annotation for two corpora from CHILDES: Brown's Adam corpus (English; we annotate ~80% of its child-directed utterances), all child-directed utterances from Berman's Hagar corpus (Hebrew). We verify the quality of the UD annotation using an inter-annotator agreement study, and manually evaluate the transduced meaning representations. We then demonstrate the utility of the compiled corpora through (1) a longitudinal corpus study of the prevalence of different syntactic and semantic phenomena in the CDS, and (2) applying an existing computational model of language acquisition to the two corpora and briefly comparing the results across languages.
公開日:2024-03-14
翻訳日:2024-03-19 08:10:52
# LASSOによるMARS

MARS via LASSO ( http://arxiv.org/abs/2111.11694v3 )

ライセンス: Link先を確認
Dohyeong Ki, Billy Fang, Adityanand Guntuboyina, (参考訳) 多変量適応回帰スプライン(MARS)は、1991年にフリードマンによって導入された非パラメトリック回帰の一般的な方法である。 MARSは単純な非線形および非付加的な関数を回帰データに適合させる。 我々はMARS法の自然なラッソ変種を提案し,研究する。 本手法は,MARSに基づく関数の無限次元線形結合を考慮し,変動に基づく複雑性制約を課すことにより得られる関数の凸クラスに対する最小二乗推定に基づく。 我々の推定子は有限次元凸最適化によって計算できるが、無限次元最適化問題の解として定義される。 いくつかの標準的な設計仮定の下では、我々の推定器は次元に対数的にのみ依存する収束率を達成でき、従ってある程度に次元性の通常の呪いを避けることができる。 また,本手法はスムーズ性制約に基づく非パラメトリック推定手法と自然に結びついていることを示す。 本手法は,パラメータ選択のためのクロスバリデーション方式を用いて実装し,様々なシミュレーションや実データ設定において通常のMARS法と比較する。

Multivariate adaptive regression splines (MARS) is a popular method for nonparametric regression introduced by Friedman in 1991. MARS fits simple nonlinear and non-additive functions to regression data. We propose and study a natural lasso variant of the MARS method. Our method is based on least squares estimation over a convex class of functions obtained by considering infinite-dimensional linear combinations of functions in the MARS basis and imposing a variation based complexity constraint. Our estimator can be computed via finite-dimensional convex optimization, although it is defined as a solution to an infinite-dimensional optimization problem. Under a few standard design assumptions, we prove that our estimator achieves a rate of convergence that depends only logarithmically on dimension and thus avoids the usual curse of dimensionality to some extent. We also show that our method is naturally connected to nonparametric estimation techniques based on smoothness constraints. We implement our method with a cross-validation scheme for the selection of the involved tuning parameter and compare it to the usual MARS method in various simulation and real data settings.
公開日:2024-03-15
翻訳日:2024-03-19 08:10:52
# MMO: ソフトウェア構成調整のためのメタ多目的化

MMO: Meta Multi-Objectivization for Software Configuration Tuning ( http://arxiv.org/abs/2112.07303v3 )

ライセンス: Link先を確認
Pengzhou Chen, Tao Chen, Miqing Li, (参考訳) ソフトウェア構成チューニングは、与えられたパフォーマンス目標(例えば、レイテンシの最小化)を最適化するために不可欠である。 しかし、ソフトウェアが本質的に複雑な構成のランドスケープと高価な測定のために、特に検索がローカルのオプティマに閉じ込められるのを防ぐために、かなり穏やかな成功を収めた。 この問題に対処するため、本論文では異なる視点で論じる。 最適化モデルの改善に焦点をあてる代わりに、最適化モデルに取り組み、補助的なパフォーマンス目標(例えばレイテンシに加えてスループット)を考慮したメタ多目的化(MMO)モデルを提案する。 このモデルを明確にしているのは、補助的なパフォーマンスの目的を最適化するのではなく、異なる構成(Paretoが互いに支配的でない)で同等に性能を保ちながら、検索がローカルなオプティマに閉じ込められないようにするためである。 重要なことは、新しい正規化法を設計することで、重みを気にせずにMMOモデルを効果的に利用する方法を示します。 11の現実世界のソフトウェアシステム/環境による22のケースの実験では、新しい正規化を備えたMMOモデルは82%のケースで最先端の単一オブジェクトモデルよりも性能が良く、最大2.09倍のスピードアップを実現しています。 68%のケースでは、MMOモデルを使用することで、事前調整したベストウェイトの下でのFSE作業の正規化により、MMOモデルがインスタンスよりも優れており、優れたウェイトを見つけるのに必要となる大量のリソースを節約することができる。 また、新しい正規化を伴うMMOモデルは、一般的に1.22倍のスピードアップを持つ68%のケースにおいて、最新のモデルベースチューニングツールを統合可能であることを実証した。

Software configuration tuning is essential for optimizing a given performance objective (e.g., minimizing latency). Yet, due to the software's intrinsically complex configuration landscape and expensive measurement, there has been a rather mild success, particularly in preventing the search from being trapped in local optima. To address this issue, in this paper we take a different perspective. Instead of focusing on improving the optimizer, we work on the level of optimization model and propose a meta multi-objectivization (MMO) model that considers an auxiliary performance objective (e.g., throughput in addition to latency). What makes this model distinct is that we do not optimize the auxiliary performance objective, but rather use it to make similarly-performing while different configurations less comparable (i.e. Pareto nondominated to each other), thus preventing the search from being trapped in local optima. Importantly, by designing a new normalization method, we show how to effectively use the MMO model without worrying about its weight -- the only yet highly sensitive parameter that can affect its effectiveness. Experiments on 22 cases from 11 real-world software systems/environments confirm that our MMO model with the new normalization performs better than its state-of-the-art single-objective counterparts on 82% cases while achieving up to 2.09x speedup. For 68% of the cases, the new normalization also enables the MMO model to outperform the instance when using it with the normalization from our prior FSE work under pre-tuned best weights, saving a great amount of resources which would be otherwise necessary to find a good weight. We also demonstrate that the MMO model with the new normalization can consolidate recent model-based tuning tools on 68% of the cases with up to 1.22x speedup in general.
公開日:2024-03-15
翻訳日:2024-03-19 08:10:52
# 画像超解法における過度に滑らかな挑戦:エントロピーに基づく量子化とコントラスト最適化

Uncovering the Over-smoothing Challenge in Image Super-Resolution: Entropy-based Quantification and Contrastive Optimization ( http://arxiv.org/abs/2201.01034v2 )

ライセンス: Link先を確認
Tianshuo Xu, Lijiang Li, Peng Mi, Xiawu Zheng, Fei Chao, Rongrong Ji, Yonghong Tian, Qiang Shen, (参考訳) PSNR指向モデル(PSNR-oriented model)は、様々な分野に適用可能な超解像モデルの重要なクラスである。 しかし、これらのモデルでは、以前モデルや損失関数の観点から分析され、データ特性の影響を考慮せずに、過度に滑らかな画像を生成する傾向にある。 本稿では,モデル出力が基底真理ではなく,類似の高解像度画像の中心点に収束する中心指向最適化(COO)問題(Central-oriented optimization, COO)問題(Central-oriented optimization, COO)問題(Central-oriented optimization, COO)問題)と呼ぶ新しい現象を示す。 この問題の強さは,エントロピーを用いて定量化するデータの不確実性に関係があることを実証する。 高解像度画像のエントロピーが増大するにつれて、その中心点がクリーンな画像分布から遠ざかっていき、モデルが過度に滑らかな画像を生成することが証明される。 COO問題を暗黙的に最適化し、知覚的損失やモデル構造最適化、GANベースの手法などの知覚駆動アプローチを見ることができる。 本稿では,Detail Enhanced Contrastive Loss (DECLoss)と呼ばれる,COO問題の明示的な解決法を提案する。 DECLossは、コントラスト学習のクラスタリング特性を利用して、潜在的高分解能分布の分散を直接低減し、エントロピーを減少させる。 我々は複数の超高解像度ベンチマーク上でDECLosを評価し,PSNR指向モデルの知覚品質を向上させることを実証した。 さらに,RaGAN などの GAN ベースの手法に適用した場合,DCLoss は 4x ダウンサンプリングしたUrban100 上で 24.51 PSNR の 0.093 LPIPS などの最先端性能を実現し,提案手法の有効性と一般化の検証を行う。

PSNR-oriented models are a critical class of super-resolution models with applications across various fields. However, these models tend to generate over-smoothed images, a problem that has been analyzed previously from the perspectives of models or loss functions, but without taking into account the impact of data properties. In this paper, we present a novel phenomenon that we term the center-oriented optimization (COO) problem, where a model's output converges towards the center point of similar high-resolution images, rather than towards the ground truth. We demonstrate that the strength of this problem is related to the uncertainty of data, which we quantify using entropy. We prove that as the entropy of high-resolution images increases, their center point will move further away from the clean image distribution, and the model will generate over-smoothed images. Implicitly optimizing the COO problem, perceptual-driven approaches such as perceptual loss, model structure optimization, or GAN-based methods can be viewed. We propose an explicit solution to the COO problem, called Detail Enhanced Contrastive Loss (DECLoss). DECLoss utilizes the clustering property of contrastive learning to directly reduce the variance of the potential high-resolution distribution and thereby decrease the entropy. We evaluate DECLoss on multiple super-resolution benchmarks and demonstrate that it improves the perceptual quality of PSNR-oriented models. Moreover, when applied to GAN-based methods, such as RaGAN, DECLoss helps to achieve state-of-the-art performance, such as 0.093 LPIPS with 24.51 PSNR on 4x downsampled Urban100, validating the effectiveness and generalization of our approach.
公開日:2024-03-15
翻訳日:2024-03-19 08:10:52
# 単元T設計の品質に及ぼすノイズチャンネルの影響の検討

Investigating the effect of noise channels on the quality of unitary t-designs ( http://arxiv.org/abs/2203.13771v2 )

ライセンス: Link先を確認
Conrad Strydom, Mark Tame, (参考訳) ユニタリt-設計は、量子データ暗号化やランダム化ベンチマークなど、量子情報理論に幅広い応用がある。 しかし、t-設計の実験的実現はノイズにさらされる。 本稿では,単一量子t-設計の品質に及ぼすノイズチャネルの影響について検討する。 私たちが研究しているノイズチャネルは、ビットフリップ、位相フリップ、ビットと位相フリップ、位相減衰、振幅減衰、偏極ノイズである。 2つのノイズモデルを考える: 1つはt-designのユニタリ演算の前にノイズを印加し、もう1つはユニタリ演算後にノイズを印加する。 2-, 3-, 4-, 5-設計で得られた数値結果から, 2t-設計は (2t-1)-設計よりもノイズにかなり敏感であり, 振幅減衰を除くと, (2t+1)-設計は 2t-設計と同じくらいノイズに敏感であることがわかった。 数値的な結果は、ブロッホ球全体のノイズに対する感度のかなりの変化を明らかにしている。 特に、t-設計は純状態に作用するときにノイズに最も敏感であり、最大混合状態のノイズに最も敏感である。 2つのノイズモデルが等価であることを示し、他のノイズチャネルでは、ユニタリーがノイズチャネルの非偏極チャネルへの変換を反射した後にノイズが適用されるモデルに対して、ランダム化ベンチマークと2つの設計による効果を生かした。

Unitary t-designs have a wide variety of applications in quantum information theory, such as quantum data encryption and randomised benchmarking. However, experimental realisations of t-designs are subject to noise. Here we investigate the effect of noise channels on the quality of single-qubit t-designs. The noise channels we study are bit flips, phase flips, bit and phase flips, phase damping, amplitude damping, and depolarising noise. We consider two noise models: the first has noise applied before the t-design unitary operations, while the second has noise applied after the unitary operations. We show that the single-qubit 1-design is affected only by amplitude damping, while numeric results obtained for the 2-, 3-, 4-, and 5-designs suggest that a 2t-design is significantly more sensitive to noise than a (2t-1)-design and that, with the exception of amplitude damping, a (2t+1)-design is as sensitive to noise as a 2t-design. Numeric results also reveal substantial variations in sensitivity to noise throughout the Bloch sphere. In particular, t-designs appear to be most sensitive to noise when acting on pure states and least sensitive to noise for the maximally mixed state. For depolarising noise, we show that our two noise models are equivalent, and for the other noise channels, numeric results obtained for the model where noise is applied after the unitaries reflect the transformation of the noise channel into a depolarising channel, an effect exploited in randomised benchmarking with 2-designs.
公開日:2024-03-14
翻訳日:2024-03-19 08:10:52
# 2020年国勢調査開示回避システムにおける地理的スピン

Geographic Spines in the 2020 Census Disclosure Avoidance System ( http://arxiv.org/abs/2203.16654v3 )

ライセンス: Link先を確認
Ryan Cumings-Menon, John M. Abowd, Robert Ashmead, Daniel Kifer, Philip Leclerc, Jeffrey Ocker, Michael Ratcliffe, Pavel Zhuravlev, (参考訳) 2020年国勢調査開示回避システム(英: 2020 Census Disclosure Avoidance System、DAS)は、地理的スピンとして知られる、事前に指定された階層的な地理的単位の集合に対して、最初に独立したノイズを集計に付加する正式な私的なメカニズムである。 これらの騒々しい測定を後処理した後、DASは、アメリカ合衆国が定義する標準国勢調査の地形の場所を示すフィールドを、州、郡、国勢調査区域、ブロックグループ、および国勢調査ブロックとして、正式にプライベートなデータベースを出力した。 本稿では,DAS内部での初期ノイズ測定が出力データベースの精度に与える影響について述べる。 具体的には、地理的領域の集計は、どちらも地理的領域において最も正確である傾向がある。 1) 内背椎ブロック上の地理的単位を集約することにより導出することができる。 2) 内脊椎の地理的単位に近い。 内部DASの地理的スピンの選択に関連する正確なトレードオフを説明した後、2020年国勢調査のDAS実行を定義するために使用される設定を提供する。

The 2020 Census Disclosure Avoidance System (DAS) is a formally private mechanism that first adds independent noise to cross tabulations for a set of pre-specified hierarchical geographic units, which is known as the geographic spine. After post-processing these noisy measurements, DAS outputs a formally private database with fields indicating location in the standard census geographic spine, which is defined by the United States as a whole, states, counties, census tracts, block groups, and census blocks. This paper describes how the geographic spine used internally within DAS to define the initial noisy measurements impacts accuracy of the output database. Specifically, tabulations for geographic areas tend to be most accurate for geographic areas that both 1) can be derived by aggregating together geographic units above the block geographic level of the internal spine, and 2) are closer to the geographic units of the internal spine. After describing the accuracy tradeoffs relevant to the choice of internal DAS geographic spine, we provide the settings used to define the 2020 Census production DAS runs.
公開日:2024-03-15
翻訳日:2024-03-19 08:10:52
# 自然言語処理によるアルツハイマー病の臨床ノートからの睡眠情報抽出

Extraction of Sleep Information from Clinical Notes of Patients with Alzheimer's Disease Using Natural Language Processing ( http://arxiv.org/abs/2204.09601v2 )

ライセンス: Link先を確認
Sonish Sivarajkumar, Thomas Yu CHow Tam, Haneef Ahamed Mohammad, Samual Viggiano, David Oniani, Shyam Visweswaran, Yanshan Wang, (参考訳) アルツハイマー病(英語: Alzheimer's Disease、AD)は、アメリカ合衆国で最も一般的な認知症である。 睡眠は、高齢者の最適な認知機能に不可欠なライフスタイルに関連する要因の1つである。 しかし、睡眠とADの発生との関連についての研究は乏しい。 このような研究を行う上で大きなボトルネックは、伝統的な睡眠情報取得の方法は、時間がかかり、効率が悪く、非スケーリング可能であり、患者の主観的な経験に限られていることである。 ゴールド・スタンダード・データセットは、ピッツバーグ大学医学センター(UPMC)から回収された7,266人のAD患者の192,000人の未確認臨床ノートのコーパスであるadSLEEPから、ランダムにサンプル化された570人の臨床ノートのマニュアルから作成されている。 我々は,睡眠関連概念の抽出を自動化するために,ルールベース自然言語処理アルゴリズム,機械学習モデル,およびLarge Language Model(LLM)ベースのNLPアルゴリズムを開発した。 ルールベースのNLPアルゴリズムは、すべての睡眠関連概念でF1の最高の性能を達成した。 Positive Predictive Value (PPV) の観点では、ルールベースのNLPアルゴリズムは昼間の睡眠時間と睡眠時間に1.00を達成し、機械学習モデルでは0.95と昼寝に0.86と睡眠品質に0.90、微調整で0.93と睡眠時間に0.89、睡眠時間に1.00を達成した。 その結果、規則に基づくNLPアルゴリズムは、すべての睡眠概念に対して常に最高の性能を達成できた。 本研究はAD患者の臨床ノートに焦点をあてるが、他の疾患に対する一般的な睡眠情報抽出にも拡張できる可能性がある。

Alzheimer's Disease (AD) is the most common form of dementia in the United States. Sleep is one of the lifestyle-related factors that has been shown critical for optimal cognitive function in old age. However, there is a lack of research studying the association between sleep and AD incidence. A major bottleneck for conducting such research is that the traditional way to acquire sleep information is time-consuming, inefficient, non-scalable, and limited to patients' subjective experience. A gold standard dataset is created from manual annotation of 570 randomly sampled clinical note documents from the adSLEEP, a corpus of 192,000 de-identified clinical notes of 7,266 AD patients retrieved from the University of Pittsburgh Medical Center (UPMC). We developed a rule-based Natural Language Processing (NLP) algorithm, machine learning models, and Large Language Model(LLM)-based NLP algorithms to automate the extraction of sleep-related concepts, including snoring, napping, sleep problem, bad sleep quality, daytime sleepiness, night wakings, and sleep duration, from the gold standard dataset. Rule-based NLP algorithm achieved the best performance of F1 across all sleep-related concepts. In terms of Positive Predictive Value (PPV), rule-based NLP algorithm achieved 1.00 for daytime sleepiness and sleep duration, machine learning models: 0.95 and for napping, 0.86 for bad sleep quality and 0.90 for snoring; and LLAMA2 with finetuning achieved PPV of 0.93 for Night Wakings, 0.89 for sleep problem, and 1.00 for sleep duration. The results show that the rule-based NLP algorithm consistently achieved the best performance for all sleep concepts. This study focused on the clinical notes of patients with AD, but could be extended to general sleep information extraction for other diseases.
公開日:2024-03-15
翻訳日:2024-03-19 08:10:52
# 野生におけるバーチャルリアリティ映像の知覚的品質評価

Perceptual Quality Assessment of Virtual Reality Videos in the Wild ( http://arxiv.org/abs/2206.08751v3 )

ライセンス: Link先を確認
Wen Wen, Mu Li, Yiru Yao, Xiangjie Sui, Yabin Zhang, Long Lan, Yuming Fang, Kede Ma, (参考訳) 人々がバーチャルリアリティ(VR)ビデオをどのように捉えているか(つまり、日々のユーザーによって捉えられるもの)を調べることは、空間と時間に局所化される複雑な真の歪みのために、VR関連のアプリケーションにおいて決定的かつ困難な課題である。 既存のパノラマビデオデータベースでは、合成歪みのみを考慮し、一定の視聴条件を仮定し、サイズに制限がある。 これらの欠点を克服するため,VRVQW(VR Video Quality in the Wild)データベースを構築した。 VRVQWに基づいて,2つの異なる視聴条件下で,スキャンパスと品質スコアを139ドルの参加者から記録する,正式な心理物理実験を行った。 我々は、記録されたデータの詳細な統計分析を行い、人間のスキャンパスと知覚された品質の両方に対する視聴条件の顕著な影響を観察する。 さらに,擬似円筒表現と畳み込みに基づくVRビデオの客観的品質評価モデルを構築した。 提案したVRVQWの結果から,既存の映像品質評価モデルよりも優れた手法であることが示唆された。 データベースとコードはhttps://github.com/limuhit/VR-Video-Quality-in-the-Wild.comで公開しています。

Investigating how people perceive virtual reality (VR) videos in the wild (i.e., those captured by everyday users) is a crucial and challenging task in VR-related applications due to complex authentic distortions localized in space and time. Existing panoramic video databases only consider synthetic distortions, assume fixed viewing conditions, and are limited in size. To overcome these shortcomings, we construct the VR Video Quality in the Wild (VRVQW) database, containing $502$ user-generated videos with diverse content and distortion characteristics. Based on VRVQW, we conduct a formal psychophysical experiment to record the scanpaths and perceived quality scores from $139$ participants under two different viewing conditions. We provide a thorough statistical analysis of the recorded data, observing significant impact of viewing conditions on both human scanpaths and perceived quality. Moreover, we develop an objective quality assessment model for VR videos based on pseudocylindrical representation and convolution. Results on the proposed VRVQW show that our method is superior to existing video quality assessment models. We have made the database and code available at https://github.com/limuhit/VR-Video-Quality-in-the-Wild.
公開日:2024-03-15
翻訳日:2024-03-19 08:10:52
# ソフトマックスフリーリニアトランス

Softmax-free Linear Transformers ( http://arxiv.org/abs/2207.03341v3 )

ライセンス: Link先を確認
Jiachen Lu, Junge Zhang, Xiatian Zhu, Jianfeng Feng, Tao Xiang, Li Zhang, (参考訳) 視覚変換器(ViT)は、視覚知覚タスクの最先端を推し進めている。 ViTの強度を支える自己保持機構は、計算とメモリ使用の両方において二次的な複雑さを持つ。 このことは、線形複雑性における自己意識の近似の発展を動機付けている。 しかし、本研究では、既存の手法が理論的に欠陥があるか、あるいは視覚認識に実験的に効果がないことが明らかにされている。 これらの制限は,ソフトマックス関数を用いたトークン特徴ベクトル間の拡張ドット積の正規化という,近似中のソフトマックスに基づく自己注意の継承に根ざしている。 ソフトマックス演算の保存として、その後の線形化の取り組みに挑戦する。 この知見により、Softmax-Free Transformers (SOFT) のファミリーが提案されている。 具体的には、ガウス核関数はドット積の類似性を置き換えるために採用され、完全な自己注意行列をローランク行列分解の下で近似することができる。 計算的ロバスト性について、ムーア・ペンローズ逆を前方過程のみにおいて反復ニュートン・ラフソン法を用いて推定し、後方過程においてその理論勾配を1回だけ計算する。 適用性(例えば高密度予測タスク)をさらに拡張するため、効率的な対称正規化手法が導入された。 ImageNet, COCO, ADE20K の大規模な実験により, 我々の SOFT は既存の ViT 変種の計算効率を大幅に向上することを示した。 線形複雑性では、より長いトークンシーケンスがSOFTによって許容され、精度と複雑さのトレードオフが優れている。 コードとモデルはhttps://github.com/fudan-zvg/SOFT.comで公開されている。

Vision transformers (ViTs) have pushed the state-of-the-art for visual perception tasks. The self-attention mechanism underpinning the strength of ViTs has a quadratic complexity in both computation and memory usage. This motivates the development of approximating the self-attention at linear complexity. However, an in-depth analysis in this work reveals that existing methods are either theoretically flawed or empirically ineffective for visual recognition. We identify that their limitations are rooted in the inheritance of softmax-based self-attention during approximations, that is, normalizing the scaled dot-product between token feature vectors using the softmax function. As preserving the softmax operation challenges any subsequent linearization efforts. By this insight, a family of Softmax-Free Transformers (SOFT) are proposed. Specifically, a Gaussian kernel function is adopted to replace the dot-product similarity, enabling a full self-attention matrix to be approximated under low-rank matrix decomposition. For computational robustness, we estimate the Moore-Penrose inverse using an iterative Newton-Raphson method in the forward process only, while calculating its theoretical gradients only once in the backward process. To further expand applicability (e.g., dense prediction tasks), an efficient symmetric normalization technique is introduced. Extensive experiments on ImageNet, COCO, and ADE20K show that our SOFT significantly improves the computational efficiency of existing ViT variants. With linear complexity, much longer token sequences are permitted by SOFT, resulting in superior trade-off between accuracy and complexity. Code and models are available at https://github.com/fudan-zvg/SOFT.
公開日:2024-03-15
翻訳日:2024-03-19 08:10:52
# GraVoS: 3Dポイントクラウド検出のためのVoxel選択

GraVoS: Voxel Selection for 3D Point-Cloud Detection ( http://arxiv.org/abs/2208.08780v3 )

ライセンス: Link先を確認
Oren Shrout, Yizhak Ben-Shabat, Ayellet Tal, (参考訳) 大規模3次元シーンにおける3次元物体検出は,3次元点雲の空間的および不規則性だけでなく,背景背景の極端な不均衡とクラス不均衡によっても困難である。 一般的なアプローチは、他のシーンから地味なオブジェクトを追加することである。 異なるのは、要素(ボクセル)を付加するのではなく、要素(ボクセル)を除去することでシーンを変更することである。 このアプローチでは、両方のタイプのデータセットの不均衡に対応する方法で、"意味のある"ボクセルを選択します。 このアプローチは一般的なものであり、あらゆるボクセルベースの検出器に適用できるが、ボクセルの有意性はネットワークに依存している。 我々のボクセル選択は、いくつかの顕著な3次元検出法の性能を向上させることが示されている。

3D object detection within large 3D scenes is challenging not only due to the sparsity and irregularity of 3D point clouds, but also due to both the extreme foreground-background scene imbalance and class imbalance. A common approach is to add ground-truth objects from other scenes. Differently, we propose to modify the scenes by removing elements (voxels), rather than adding ones. Our approach selects the "meaningful" voxels, in a manner that addresses both types of dataset imbalance. The approach is general and can be applied to any voxel-based detector, yet the meaningfulness of a voxel is network-dependent. Our voxel selection is shown to improve the performance of several prominent 3D detection methods.
公開日:2024-03-14
翻訳日:2024-03-19 08:01:36
# StyleTalker:ワンショットスタイルによる音声駆動型トーキングヘッドビデオ生成

StyleTalker: One-shot Style-based Audio-driven Talking Head Video Generation ( http://arxiv.org/abs/2208.10922v2 )

ライセンス: Link先を確認
Dongchan Min, Minyoung Song, Eunji Ko, Sung Ju Hwang, (参考訳) StyleTalkerは、単一の参照画像から、正確に音声同期された唇形状、リアルな頭部ポーズ、目まぐれの映像を合成する新しい音声駆動音声ヘッド生成モデルである。 具体的には、予め訓練された画像生成器と画像エンコーダを利用して、所定の音声を忠実に反映した音声ヘッドビデオの潜時符号を推定する。 これは、新しく考案されたいくつかのコンポーネントで実現されている。 1) 正確な唇同期のための対照的な唇同期判別器 2) 唇運動から遠ざかる潜伏運動空間を学習する条件付き逐次変分オートエンコーダにより, 同一性を保ちながら動きや唇の動きを独立に操作することができる。 3) 複雑なマルチモーダルラテント空間を学習するために, 正規化フローを付加した自己回帰型事前拡張を行う。 これらのコンポーネントを組み込んだStyleTalkerは、他のモーションソースビデオが提供されるときだけでなく、入力されたオーディオからリアルな動きを推測することによって、完全にオーディオ駆動の方法で音声ヘッドビデオを生成することができる。 広範にわたる実験とユーザスタディにより、我々のモデルは、入力オーディオと正確にリップ同期された印象的な知覚的品質の音声ヘッドビデオを合成することができ、その大部分は最先端のベースラインよりも優れていることを示す。

We propose StyleTalker, a novel audio-driven talking head generation model that can synthesize a video of a talking person from a single reference image with accurately audio-synced lip shapes, realistic head poses, and eye blinks. Specifically, by leveraging a pretrained image generator and an image encoder, we estimate the latent codes of the talking head video that faithfully reflects the given audio. This is made possible with several newly devised components: 1) A contrastive lip-sync discriminator for accurate lip synchronization, 2) A conditional sequential variational autoencoder that learns the latent motion space disentangled from the lip movements, such that we can independently manipulate the motions and lip movements while preserving the identity. 3) An auto-regressive prior augmented with normalizing flow to learn a complex audio-to-motion multi-modal latent space. Equipped with these components, StyleTalker can generate talking head videos not only in a motion-controllable way when another motion source video is given but also in a completely audio-driven manner by inferring realistic motions from the input audio. Through extensive experiments and user studies, we show that our model is able to synthesize talking head videos with impressive perceptual quality which are accurately lip-synced with the input audios, largely outperforming state-of-the-art baselines.
公開日:2024-03-15
翻訳日:2024-03-19 08:01:36
# 構造化プロンプトによる継続的QA学習

Continuous QA Learning with Structured Prompts ( http://arxiv.org/abs/2208.14602v3 )

ライセンス: Link先を確認
Yinhe Zheng, (参考訳) 生涯学習能力を持つQAモデルは実践的なQAアプリケーションにとって重要であり、アーキテクチャベースのLLメソッドはこれらのモデルに効果的な実装であると報告されている。 しかし、テストフェーズでタスクの同一性にアクセスするか、目に見えないタスクからのサンプルを明示的にモデル化しないため、以前のアプローチをQAタスクに拡張するのは簡単ではない。 本稿では,動的アーキテクチャに基づくQAモデルであるDianaを提案する。 階層的に整理された4つのプロンプトは、異なる粒度からQA知識を取得するためにダイアナで使用される。 具体的には、タスク固有の知識をキャプチャして高いLL性能を維持するためのタスクレベルのプロンプトと、異なる入力サンプル間で共有される知識をインスタンスレベルのプロンプトで学習し、モデルの一般化性能を改善する。 さらに、未確認タスクを明示的にモデル化するための個別のプロンプトと、タスク間の知識共有を容易にするための一連のプロンプトキーベクターを導入する。 大規模な実験により、Dianaは最先端のQAモデルよりも優れており、特に目に見えないタスクを処理している。

QA models with lifelong learning (LL) abilities are important for practical QA applications, and architecture-based LL methods are reported to be an effective implementation for these models. However, it is non-trivial to extend previous approaches to QA tasks since they either require access to task identities in the testing phase or do not explicitly model samples from unseen tasks. In this paper, we propose Diana: a dynamic architecture-based lifelong QA model that tries to learn a sequence of QA tasks with a prompt enhanced language model. Four types of hierarchically organized prompts are used in Diana to capture QA knowledge from different granularities. Specifically, we dedicate task-level prompts to capture task-specific knowledge to retain high LL performances and maintain instance-level prompts to learn knowledge shared across different input samples to improve the model's generalization performance. Moreover, we dedicate separate prompts to explicitly model unseen tasks and introduce a set of prompt key vectors to facilitate knowledge sharing between tasks. Extensive experiments demonstrate that Diana outperforms state-of-the-art lifelong QA models, especially in handling unseen tasks.
公開日:2024-03-15
翻訳日:2024-03-19 08:01:36
# 半球特殊化を伴う両側脳における深層学習

Deep learning in a bilateral brain with hemispheric specialization ( http://arxiv.org/abs/2209.06862v8 )

ライセンス: Link先を確認
Chandramouli Rajagopalan, David Rawlinson, Elkhonon Goldberg, Gideon Kowadlo, (参考訳) 地球上の左右対称な動物の脳は、左右の半球に分けられる。 半球の解剖学と機能の重複は大きいが、非対称性があり、異なる属性を持つように特化している。 他の著者は、セマンティックおよび視覚処理タスクに関する人間のデータを再現することに焦点を当てた、半球の非対称性を模倣する計算モデルを使用している。 我々は異なるアプローチを採り、二元的アーキテクチャにおける二重半球がどのように相互作用し、与えられたタスクでうまく機能するかを理解することを目指していた。 本稿では,左半球が特異性や一般性に特化している,自然界の側方化を模倣した2次元人工ニューラルネットワークを提案する。 私たちは、望まれる特殊化を達成するために異なるトレーニング目標を使用して、ResNetとVGGという2つの異なるCNNバックボーンを持つイメージ分類タスクでそれをテストしました。 解析の結果、ヘミスフィアは、重み付けされた注意の型を実装したネットワークヘッドによって利用される相補的特徴を表すことがわかった。 両アーキテクチャは、差分特殊化を生かさない類似の表現能力のベースラインを、特殊性や一般性のための2つの訓練目標に基づいて訓練された一方的なネットワークの従来のアンサンブルを除いて上回った。 結果は、二元主義の有効性を実証し、生物学的脳における二元主義の議論に寄与し、この原則は、新しいAIシステムに対する帰納的バイアスとなる可能性がある。

The brains of all bilaterally symmetric animals on Earth are divided into left and right hemispheres. The anatomy and functionality of the hemispheres have a large degree of overlap, but there are asymmetries and they specialise to possess different attributes. Other authors have used computational models to mimic hemispheric asymmetries with a focus on reproducing human data on semantic and visual processing tasks. We took a different approach and aimed to understand how dual hemispheres in a bilateral architecture interact to perform well in a given task. We propose a bilateral artificial neural network that imitates lateralisation observed in nature: that the left hemisphere specialises in specificity and the right in generality. We used different training objectives to achieve the desired specialisation and tested it on an image classification task with two different CNN backbones -- ResNet and VGG. Our analysis found that the hemispheres represent complementary features that are exploited by a network head which implements a type of weighted attention. The bilateral architecture outperformed a range of baselines of similar representational capacity that don't exploit differential specialisation, with the exception of a conventional ensemble of unilateral networks trained on a dual training objective for specifics and generalities. The results demonstrate the efficacy of bilateralism, contribute to the discussion of bilateralism in biological brains and the principle may serves as an inductive bias for new AI systems.
公開日:2024-03-15
翻訳日:2024-03-19 08:01:36
# 単一画像ビュー合成のためのブリッジインプシットと明示的幾何学変換

Bridging Implicit and Explicit Geometric Transformation for Single-Image View Synthesis ( http://arxiv.org/abs/2209.07105v3 )

ライセンス: Link先を確認
Byeongjun Park, Hyojun Go, Changick Kim, (参考訳) 単一の画像から新しいビューを作成することは、視覚的なシーンの内容から未知の領域を推測する必要があるため、高度な自己回帰モデルによって大きな進歩を遂げた。 最近の手法は高品質な新奇な視点を生成するが、明示的な3次元幾何学と暗黙的な3次元幾何学の合成は、私たちが「シーソー」問題と呼ぶ2つの目的の間のトレードオフを持つ。 1)再計画された内容の保存及び 2)現実的なアウトオブビュー領域を完成させる。 また、自己回帰モデルは相当な計算コストを必要とする。 本稿では,効率的な非自己回帰モデルを用いてシーソー問題を緩和する単一画像ビュー合成フレームワークを提案する。 そこで我々は2つのレンダラーを補完する損失関数を導入する。 我々の損失関数は、明示的特徴が暗黙的特徴の再投影領域を改善し、暗黙的特徴が明示的特徴のアウト・オブ・ビュー領域を改善することを促進します。 提案したアーキテクチャと損失関数により、シーソー問題を緩和し、自己回帰に基づく最先端メソッドを性能良くし、イメージを$\approx$100倍高速に生成できる。 本研究では,RealEstate10KとACIDデータセットを用いた実験により,本手法の有効性と有効性を検証する。

Creating novel views from a single image has achieved tremendous strides with advanced autoregressive models, as unseen regions have to be inferred from the visible scene contents. Although recent methods generate high-quality novel views, synthesizing with only one explicit or implicit 3D geometry has a trade-off between two objectives that we call the "seesaw" problem: 1) preserving reprojected contents and 2) completing realistic out-of-view regions. Also, autoregressive models require a considerable computational cost. In this paper, we propose a single-image view synthesis framework for mitigating the seesaw problem while utilizing an efficient non-autoregressive model. Motivated by the characteristics that explicit methods well preserve reprojected pixels and implicit methods complete realistic out-of-view regions, we introduce a loss function to complement two renderers. Our loss function promotes that explicit features improve the reprojected area of implicit features and implicit features improve the out-of-view area of explicit features. With the proposed architecture and loss function, we can alleviate the seesaw problem, outperforming autoregressive-based state-of-the-art methods and generating an image $\approx$100 times faster. We validate the efficiency and effectiveness of our method with experiments on RealEstate10K and ACID datasets.
公開日:2024-03-15
翻訳日:2024-03-19 08:01:36
# DPAR:ノードレベル差分プライバシーを備えたグラフニューラルネットワークの分離

DPAR: Decoupled Graph Neural Networks with Node-Level Differential Privacy ( http://arxiv.org/abs/2210.04442v3 )

ライセンス: Link先を確認
Qiuchen Zhang, Hong kyu Lee, Jing Ma, Jian Lou, Carl Yang, Li Xiong, (参考訳) グラフニューラルネットワーク(GNN)は,グラフ構造化データによる学習において大きな成功を収めている。 また、ノードの特徴と構造情報の両方を含むグラフのセンシティブな情報を公開可能な、トレーニング済みモデルのプライバシに関する懸念も提起されている。 本稿では,ノードとエッジが保護されるように,GNNをトレーニングするためのノードレベルの差分プライバシー(DP)を実現することを目的とする。 ノードDPは、すべてのダイレクトおよびマルチホップ隣人がレイヤーワイドメッセージパスを介して各ノードの勾配の計算に参加するため、GNNにとって本質的に困難である。 プライバシーとユーティリティのトレードオフが強化されたGNNをトレーニングするために,DPAR(Dariially Private Approximate Personalized PageRank)を用いたデカップリングGNNを提案する。 鍵となるアイデアは、DP PageRankアルゴリズムを介して機能プロジェクションとメッセージパッシングを分離することである。 各ノードの最も重要な隣人を捕捉し、レイヤワイドメッセージパッシングを避けることで、ノードの感度を制限し、レイヤワイドの摂動に基づく方法と比較して、プライバシーとユーティリティのトレードオフを改善する。 両プロセスのノードDP保証を理論的に解析し,同レベルのノードDPを持つDPARの有用性を,最先端の手法と比較して実証的に実証する。

Graph Neural Networks (GNNs) have achieved great success in learning with graph-structured data. Privacy concerns have also been raised for the trained models which could expose the sensitive information of graphs including both node features and the structure information. In this paper, we aim to achieve node-level differential privacy (DP) for training GNNs so that a node and its edges are protected. Node DP is inherently difficult for GNNs because all direct and multi-hop neighbors participate in the calculation of gradients for each node via layer-wise message passing and there is no bound on how many direct and multi-hop neighbors a node can have, so existing DP methods will result in high privacy cost or poor utility due to high node sensitivity. We propose a Decoupled GNN with Differentially Private Approximate Personalized PageRank (DPAR) for training GNNs with an enhanced privacy-utility tradeoff. The key idea is to decouple the feature projection and message passing via a DP PageRank algorithm which learns the structure information and uses the top-$K$ neighbors determined by the PageRank for feature aggregation. By capturing the most important neighbors for each node and avoiding the layer-wise message passing, it bounds the node sensitivity and achieves improved privacy-utility tradeoff compared to layer-wise perturbation based methods. We theoretically analyze the node DP guarantee for the two processes combined together and empirically demonstrate better utilities of DPAR with the same level of node DP compared with state-of-the-art methods.
公開日:2024-03-15
翻訳日:2024-03-19 08:01:36
# 進化的計算に基づくニューラルアーキテクチャ探索アルゴリズムの隠れ時間予測の解析

Analyzing the Expected Hitting Time of Evolutionary Computation-based Neural Architecture Search Algorithms ( http://arxiv.org/abs/2210.05397v3 )

ライセンス: Link先を確認
Zeqiong Lv, Chao Qian, Gary G. Yen, Yanan Sun, (参考訳) 進化的計算に基づくニューラルネットワーク探索(ENAS)は、ディープニューラルネットワークのアーキテクチャ設計を自動化する一般的な手法である。 基礎的な応用にもかかわらず、ENASの理論的な研究は行われていない。 期待ヒット時間(EHT)は、平均計算時間の複雑さを意味するため、理論上の最も重要な問題の一つである。 本稿では,共通構成,探索空間分割,遷移確率推定,人口分布の適合,ヒット時間解析などを含むENASアルゴリズムのEHTを推定するための理論と実験を統合することで,一般的な手法を提案する。 提案手法を利用して,異なる突然変異演算子を持つ($\lambda$+$\lambda$)-ENASアルゴリズムを検討し,EHTの下位境界を推定する。 さらに,NAS-Bench-101問題に対するEHTについて検討し,提案手法の有効性を実証した。 我々の知る限りでは、この研究はENASアルゴリズムの理論的基盤を確立する最初の試みである。

Evolutionary computation-based neural architecture search (ENAS) is a popular technique for automating architecture design of deep neural networks. Despite its groundbreaking applications, there is no theoretical study for ENAS. The expected hitting time (EHT) is one of the most important theoretical issues, since it implies the average computational time complexity. This paper proposes a general method by integrating theory and experiment for estimating the EHT of ENAS algorithms, which includes common configuration, search space partition, transition probability estimation, population distribution fitting, and hitting time analysis. By exploiting the proposed method, we consider the ($\lambda$+$\lambda$)-ENAS algorithms with different mutation operators and estimate the lower bounds of the EHT. Furthermore, we study the EHT on the NAS-Bench-101 problem, and the results demonstrate the validity of the proposed method. To the best of our knowledge, this work is the first attempt to establish a theoretical foundation for ENAS algorithms.
公開日:2024-03-15
翻訳日:2024-03-19 08:01:36
# 量子力学のゲージ図

The Gauge Picture of Quantum Dynamics ( http://arxiv.org/abs/2210.09314v5 )

ライセンス: Link先を確認
Kevin Slagle, (参考訳) 局所ハミルトニアンは局所時間ダイナミクスを示すが、この局所性は、波動関数の振幅が局所運動方程式に従わないという意味では、Schr\"{o}dinger 図では明示されていない。 すなわち、期待値 $\langle \psi|A|\psi \rangle$ は波動関数 $|\psi\rangle \to U |\psi\rangle$ と作用素 $A \to U A U^\dagger$ に作用する大域的ユニタリ変換の下で不変であり、この大域的不変性は局所ゲージ不変量に測定可能であることを示す。 これを行うために、波動関数をローカルな波動関数の集合に置き換える: $|\psi_J\rangle$, 1 for each patch of space $J$.} である。 空間的パッチのコレクションは、空間をカバーするために選択される。例えば、格子上の単一のキュービットまたは最も近い場所のパッチを選択することができる。 近傍の空間パッチのペアに付随する局所波動関数$I$と$J$は、動的ユニタリ変換$U_{IJ}$によって互いに関連付けられる。 局所波動関数は、その力学が局所的であるという意味で局所的である。 すなわち、局所波動関数の運動方程式 $|\psi_J\rangle$ と接続 $U_{IJ}$ は空間において明示的に局所であり、近傍のハミルトン項にのみ依存する。 (局所波動関数は多体波動関数であり、通常の波動関数と同じヒルベルト空間次元を持つ。) 量子力学のこの図は、局所的なゲージ不変性を示すため、ゲージ像と呼ぶ。 単一の空間パッチの局所力学は相互作用図形と関連しており、相互作用ハミルトンは近傍のハミルトン項のみからなる。 また、明示的な局所性を一般化して、局所電荷とエネルギー密度の局所性を含めることができる。

Although local Hamiltonians exhibit local time dynamics, this locality is not explicit in the Schr\"{o}dinger picture in the sense that the wavefunction amplitudes do not obey a local equation of motion. We show that geometric locality can be achieved explicitly in the equations of motion by "gauging" the global unitary invariance of quantum mechanics into a local gauge invariance. That is, expectation values $\langle \psi|A|\psi \rangle$ are invariant under a global unitary transformation acting on the wavefunction $|\psi\rangle \to U |\psi\rangle$ and operators $A \to U A U^\dagger$, and we show that it is possible to gauge this global invariance into a local gauge invariance. To do this, we replace the wavefunction with a collection of local wavefunctions $|\psi_J\rangle$, one for each patch of space $J$. The collection of spatial patches is chosen to cover the space; e.g. we could choose the patches to be single qubits or nearest-neighbor sites on a lattice. Local wavefunctions associated with neighboring pairs of spatial patches $I$ and $J$ are related to each other by dynamical unitary transformations $U_{IJ}$. The local wavefunctions are local in the sense that their dynamics are local. That is, the equations of motion for the local wavefunctions $|\psi_J\rangle$ and connections $U_{IJ}$ are explicitly local in space and only depend on nearby Hamiltonian terms. (The local wavefunctions are many-body wavefunctions and have the same Hilbert space dimension as the usual wavefunction.) We call this picture of quantum dynamics the gauge picture since it exhibits a local gauge invariance. The local dynamics of a single spatial patch is related to the interaction picture, where the interaction Hamiltonian consists of only nearby Hamiltonian terms. We can also generalize the explicit locality to include locality in local charge and energy densities.
公開日:2024-03-15
翻訳日:2024-03-19 08:01:36
# CFT$_D$ from TQFT$_{D+1}$ via Holographic Tensor Network and Precision Discretisation of CFT$_2$

CFT$_D$ from TQFT$_{D+1}$ via Holographic Tensor Network, and Precision Discretisation of CFT$_2$ ( http://arxiv.org/abs/2210.12127v3 )

ライセンス: Link先を確認
Lin Chen, Haochen Zhang, Kaixin Ji, Ce Shen, Ruoshui Wang, Xiangdong Zeng, Ling-Yan Hung, (参考訳) D$次元(CFT$_D$)における共形場理論の経路積分は、D+1$次元(TQFT$_{D+1}$)における位相場理論のトゥラエフ・ヴェロの定式化(TQFT$_{D+1}$)に従ってRG作用素の固有状態に対して解き、対称理論とTQFTの間のホログラフィックサンドイッチ関係を明示的に実現することで構成できることを示す。 本質的に、対称-TQFT$_D$に対応する正確な固有状態は、TQFT$_{D+1}$のフロベニウス代数から従う。 D=2$ の場合、我々は2次元有理 CFT パス積分を正確に生成する固有状態を構築した。 また、CFT$_D$を対称TQFT$_D$間の相転移点として探索するために$D=2,3$の数値法を考案し、説明する。 最後に、RG演算子は実際に正確な解析ホログラフィックテンソルネットワークであるため、 ``bulk-boundary'' 相関器を計算し、AdS/CFT辞書を$D=2$で比較する。 しかし,AdS/CFT対応との正確な関係を解明するためには,さらなる研究が必要である。

We show that the path-integral of conformal field theories in $D$ dimensions (CFT$_D$) can be constructed by solving for eigenstates of an RG operator following from the Turaev-Viro formulation of a topological field theory in $D+1$ dimensions (TQFT$_{D+1}$), explicitly realising the holographic sandwich relation between a symmetric theory and a TQFT. Generically, exact eigenstates corresponding to symmetric-TQFT$_D$ follow from Frobenius algebra in the TQFT$_{D+1}$. For $D=2$, we constructed eigenstates that produce 2D rational CFT path-integral exactly, which, curiously connects a continuous field theoretic path-integral with the Turaev-Viro state sum. We also devise and illustrate numerical methods for $D=2,3$ to search for CFT$_D$ as phase transition points between symmetric TQFT$_D$. Finally since the RG operator is in fact an exact analytic holographic tensor network, we compute ``bulk-boundary'' correlator and compare with the AdS/CFT dictionary at $D=2$. Promisingly, they are numerically compatible given our accuracy, although further works will be needed to explore the precise connection to the AdS/CFT correspondence.
公開日:2024-03-15
翻訳日:2024-03-19 08:01:36
# ThreatCluster: コンピュータ緊急対応チームにおける情報負荷低減のための脅威クラスタリング

ThreatCluster: Threat Clustering for Information Overload Reduction in Computer Emergency Response Teams ( http://arxiv.org/abs/2210.14067v2 )

ライセンス: Link先を確認
Philipp Kuehn, Dilara Nadermahmoodi, Moritz Kerk, Christian Reuter, (参考訳) 脅威の増加と既存の情報ソースの多様性は、コンピュータ緊急対応チーム(CERT)の課題を引き起こしている。 新たな脅威に対応するため、CERTはタイムリーで包括的な方法で情報を集める必要がある。 しかし、情報源や情報の量は、情報の過負荷につながる。 本稿では,CERTにおける情報過負荷を低減する方法について考察する。 我々は、この情報をスキャンするときに、最も面倒だが必要な手動ステップの1つとして、入ってくる情報をクラスタリングすることを提案する。 現状の研究では,このような枠組みの条件を定めている。 異なるタイプの評価指標が、フレームワークの条件に応じて使用され、選択される。 さらに、異なる文書埋め込みと距離測定をクラスタリング法と組み合わせて評価し、解釈する。 評価には3つの異なるコーパス,脅威レポートに基づく新たな真実コーパス,セキュリティバグレポート(SBR)コーパス,ニュース記事を含む。 我々の研究は、同種クラスタで最大84.8%の情報オーバーロードを削減可能であることを示している。 クラスタリング手法のランタイム解析により,選択したクラスタリング手法の決定が強化される。 ソースコードとデータセットは、受理後に公開される。

The ever-increasing number of threats and the existing diversity of information sources pose challenges for Computer Emergency Response Teams (CERTs). To respond to emerging threats, CERTs must gather information in a timely and comprehensive manner. But the volume of sources and information leads to information overload. This paper contributes to the question of how to reduce information overload for CERTs. We propose clustering incoming information as scanning this information is one of the most tiresome, but necessary, manual steps. Based on current studies, we establish conditions for such a framework. Different types of evaluation metrics are used and selected in relation to the framework conditions. Furthermore, different document embeddings and distance measures are evaluated and interpreted in combination with clustering methods. We use three different corpora for the evaluation, a novel ground truth corpus based on threat reports, one security bug report (SBR) corpus, and one with news articles. Our work shows, it is possible to reduce the information overload by up to 84.8% with homogeneous clusters. A runtime analysis of the clustering methods strengthens the decision of selected clustering methods. The source code and dataset will be made publicly available after acceptance.
公開日:2024-03-15
翻訳日:2024-03-19 08:01:36
# ヒッグス凝縮は対称性が検出される位相相:I.離散対称性

Higgs Condensates are Symmetry-Protected Topological Phases: I. Discrete Symmetries ( http://arxiv.org/abs/2211.01376v2 )

ライセンス: Link先を確認
Ruben Verresen, Umberto Borla, Ashvin Vishwanath, Sergej Moroz, Ryan Thorngren, (参考訳) 物質の多体相の風景では、ゲージ理論のヒッグス凝縮体をどこに配置するか。 一方、ヒッグス位相はギャップがあり、局所順序パラメータがなく、基本ヒッグス場は閉じ込められた位相に断続的に連結である。 一方、超伝導体のようなヒッグス相は豊富な現象論を示す。 本研究では, 従来および高次対称性を用いた対称性保護位相(SPT)相としてヒッグス位相の最小記述を提案する。 この第一部では、2+1D $\mathbb Z_2$ gauge 理論に焦点をあて、ヒッグス相が物理的文脈に依存する高次磁気対称性と物質対称性によって保護されていることが分かる。 この提案はヒッグス相の既知の性質を捉えるが、フラドキン・シェンカーモデルのヒッグス相は位相図の対称部分においてSPTエッジモードを持つと予測し、解析的に確認する。 さらに、このSPT特性は、磁気対称性を明示的に破る際、極めて堅牢であると主張する。 ヒッグスと閉じ込められた位相はバルク遷移なしで接続されるが、境界相転移によって分離され、テンソルネットワークシミュレーションで確認される。 より一般に、ヒッグス SPT 相の境界異常は対称性破れ相の創発的異常と一致し、ヒッグス相と対称性破れの関係を正確にする。 ヒッグス相のSPTの性質は、ヒッグス凝縮体間の遷移においてバルク、例えば、バルクに現れる。 最後に、超伝導体-絶縁体-超伝導体(SIS)接合の離散ゲージ群アナログを一般化する「バルク欠陥対応」のような一般的なSPT位相に適用可能な知見を抽出する。 この研究の続編は「ヒッグス=SPT」を連続対称性に一般化し、超伝導をSPT特性として解釈する。

Where in the landscape of many-body phases of matter do we place the Higgs condensate of a gauge theory? On the one hand, the Higgs phase is gapped, has no local order parameter, and for fundamental Higgs fields is adiabatically connected to the confined phase. On the other hand, Higgs phases such as superconductors display rich phenomenology. In this work, we propose a minimal description of the Higgs phase as a symmetry-protected topological (SPT) phase, utilizing conventional and higher-form symmetries. In this first part, we focus on 2+1D $\mathbb Z_2$ gauge theory and find that the Higgs phase is protected by a higher-form magnetic symmetry and a matter symmetry, whose meaning depends on the physical context. While this proposal captures known properties of Higgs phases, it also predicts that the Higgs phase of the Fradkin-Shenker model has SPT edge modes in the symmetric part of the phase diagram, which we confirm analytically. In addition, we argue that this SPT property is remarkably robust upon explicitly breaking the magnetic symmetry. Although the Higgs and confined phases are then connected without a bulk transition, they are separated by a boundary phase transition, which we confirm with tensor network simulations. More generally, the boundary anomaly of the Higgs SPT phase coincides with the emergent anomaly of symmetry-breaking phases, making precise the relation between Higgs phases and symmetry breaking. The SPT nature of the Higgs phase can also manifest in the bulk, e.g., at transitions between distinct Higgs condensates. Finally, we extract insights which are applicable to general SPT phases, such as a 'bulk-defect correspondence' generalizing discrete gauge group analogs of Superconductor-Insulator-Superconductor (SIS) junctions. The sequel to this work will generalize 'Higgs=SPT' to continuous symmetries, interpreting superconductivity as an SPT property.
公開日:2024-03-15
翻訳日:2024-03-19 08:01:36
# OpenAPI Specification Extended Security Scheme:Broken Object Level Authorizationの頻度を下げる方法

OpenAPI Specification Extended Security Scheme: A method to reduce the prevalence of Broken Object Level Authorization ( http://arxiv.org/abs/2212.06606v2 )

ライセンス: Link先を確認
Rami Haddad, Rim El Malki, (参考訳) APIは、サービス間通信を達成するための重要な技術になっています。 APIデプロイメントの増加により、セキュリティ標準の欠如に対処する緊急性が高まっている。 API Securityは、OpenAPI標準の標準化された認証がないため、不適切な認証は、既知の脆弱性や未知の脆弱性の可能性を開く。 本稿は,API Security: Broken Object Level Authorization (BOLA) における第1の脆弱性について検討し,この脆弱性の頻度を下げるための方法とツールを提案する。 BOLAはさまざまなAPIフレームワークに影響を与えており、私たちのスコープはOpenAPI Specification(OAS)に固定されています。 OASはAPIの記述と実装の標準であり、一般的なOAS実装はFastAPI、Connexion(Flask)などである。 これらの実装には、OASsのAPIプロパティに関する知識に関連する長所と短所がある。 Open API Specificationsのセキュリティプロパティは、オブジェクト認証に対処せず、そのようなオブジェクトプロパティを定義するための標準化されたアプローチを提供しない。 これにより、オブジェクトレベルのセキュリティは開発者の慈悲に委ねられ、意図しない攻撃ベクタ生成のリスクが増大する。 私たちの目標は、この空白に挑戦することです。 1) OAS ESS(OpenAPI Specification Extended Security Scheme)には、OAS(Design-based approach)内のオブジェクトに対する宣言型セキュリティ制御が含まれている。 2) APIサービス(Flask/FastAPI)にインポートして、オブジェクトレベルで認証チェックを実行することができる認証モジュール(開発ベースのアプローチ)。 APIサービスを構築する場合、開発者はAPI設計(仕様)またはそのコードから始めることができる。 どちらの場合も、BOLAの頻度を緩和し、削減するために一連のメカニズムが導入される。

APIs have become the prominent technology of choice for achieving inter-service communications. The growth of API deployments has driven the urgency in addressing its lack of security standards. API Security is a topic for concern given the absence of standardized authorization in the OpenAPI standard, improper authorization opens the possibility for known and unknown vulnerabilities, which in the past years have been exploited by malicious actors resulting in data loss. This paper examines the number one vulnerability in API Security: Broken Object Level Authorization(BOLA), and proposes methods and tools to reduce the prevalence of this vulnerability. BOLA affects various API frameworks, our scope is fixated on the OpenAPI Specification(OAS). The OAS is a standard for describing and implementing APIs; popular OAS Implementations are FastAPI, Connexion (Flask), and many more. These implementations carry the pros and cons that are associated with the OASs knowledge of API properties. The Open API Specifications security properties do not address object authorization and provide no standardized approach to define such object properties. This leaves object-level security at the mercy of developers, which presents an increased risk of unintentionally creating attack vectors. Our aim is to tackle this void by introducing 1) the OAS ESS (OpenAPI Specification Extended Security Scheme) which includes declarative security controls for objects in OAS (design-based approach), and 2) an authorization module that can be imported to API services (Flask/FastAPI) to enforce authorization checks at the object level (development-based approach). When building an API service, a developer can start with the API design (specification) or its code. In both cases, a set of mechanisms are introduced to help developers mitigate and reduce the prevalence of BOLA.
公開日:2024-02-27
翻訳日:2024-03-19 08:01:36
# クラウス作用素の数値範囲による操作忠実度の検討

Operation fidelity explored by numerical range of Kraus operators ( http://arxiv.org/abs/2212.10139v2 )

ライセンス: Link先を確認
Igor Chełstowski, Grzegorz Rajchel-Mieldzioć, Karol Życzkowski, (参考訳) 現在の量子デバイスは、所望の量子チャネルを正確に実装する必要がある。 実装の質を特徴付けるために、初期純状態と解析された操作に対する画像との忠実度として定義される平均演算忠実度$F$を用いて、純状態のアンサンブル上で平均化される。 低次元チャネルに対する操作忠実度の統計的性質を解析し、その極端な値と確率分布を統計的チャネル識別に利用することができる。 これらの結果は、チャネルを表すクラウス作用素の集合の合同数値範囲の助けを借りて得られる。 密度$P\left(F\right)$の解析式は、ユニタリチャネルと混合ユニタリチャネルを含む特定のケースと、クラウス作用素の交換によって表される量子写像から導出される。 演算忠実度の測定された分布は、2つの量子演算を区別するために用いられる。

Present-day quantum devices require precise implementation of desired quantum channels. To characterize the quality of implementation one uses the average operation fidelity $F$, defined as the fidelity between an initial pure state and its image with respect to the analyzed operation, averaged over an ensemble of pure states. We analyze statistical properties of the operation fidelity for low-dimensional channels and study its extreme values and probability distribution, both of which can be used for statistical channel discrimination. These results are obtained with help of the joint numerical range of the set of Kraus operators representing a channel. Analytic expressions for the density $P\left(F\right)$ are derived in some particular cases including unitary and mixed unitary channels as well as quantum maps represented by commuting Kraus operators. Measured distributions of operation fidelity can be used to distinguish between two quantum operations.
公開日:2024-03-15
翻訳日:2024-03-19 08:01:36
# 量子貯留層計算のための資源としての散逸

Dissipation as a resource for Quantum Reservoir Computing ( http://arxiv.org/abs/2212.12078v2 )

ライセンス: Link先を確認
Antonio Sannia, Rodrigo Martínez-Peña, Miguel C. Soriano, Gian Luca Giorgi, Roberta Zambrini, (参考訳) 外部環境との相互作用によって引き起こされる散逸は、典型的には量子計算の性能を阻害するが、いくつかの場合において有用な資源として証明できる。 本稿では,スピンネットワークモデルに局所的損失をもたらす量子貯水池計算の分野において,散逸によって引き起こされるポテンシャルの増大を示す。 連続散逸に基づくアプローチは、不連続消去マップに基づく従来の量子貯水池計算の提案のダイナミクスを再現するだけでなく、その性能を向上させることができる。 減衰率の制御は、入力履歴を線形に非線形に処理し、カオス系列を予測する能力として、一般的な機械学習の時間的タスクを促進することが示されている。 最後に、非制限条件下では、我々の散逸モデルが貯水池計算の普遍クラスとなることを正式に証明する。 これは、我々のアプローチを考えると、任意の精度で任意の暗色メモリマップを近似することができることを意味している。

Dissipation induced by interactions with an external environment typically hinders the performance of quantum computation, but in some cases can be turned out as a useful resource. We show the potential enhancement induced by dissipation in the field of quantum reservoir computing introducing tunable local losses in spin network models. Our approach based on continuous dissipation is able not only to reproduce the dynamics of previous proposals of quantum reservoir computing, based on discontinuous erasing maps but also to enhance their performance. Control of the damping rates is shown to boost popular machine learning temporal tasks as the capability to linearly and non-linearly process the input history and to forecast chaotic series. Finally, we formally prove that, under non-restrictive conditions, our dissipative models form a universal class for reservoir computing. It means that considering our approach, it is possible to approximate any fading memory map with arbitrary precision.
公開日:2024-03-15
翻訳日:2024-03-19 08:01:36
# CinPatent: 特許分類のためのデータセット

CinPatent: Datasets for Patent Classification ( http://arxiv.org/abs/2212.12192v3 )

ライセンス: Link先を確認
Minh-Tien Nguyen, Nhung Bui, Manh Tran-Tien, Linh Le, Huy-The Vu, (参考訳) 特許分類は、各入力特許を複数のコード(クラス)に割り当てるタスクである。 需要が高いため、いくつかのデータセットや手法が導入されている。 しかしながら、ベースラインの体系的なパフォーマンス比較といくつかのデータセットへのアクセスの欠如は、タスクのギャップを生み出します。 このギャップを埋めるために、CPCコードを用いて収集した英語と日本語の新しいデータセットを2つ導入する。 英語データセットには45,131の特許文書と425のラベルがあり、日本語データセットには54,657のドキュメントと523のラベルが含まれている。 次の研究を容易にするために,2つのデータセット上での強力な多ラベルテキスト分類手法の性能を比較した。 実験の結果、AttentionXMLは他の強力なベースラインよりも一貫して優れていることが示されています。 アブレーション研究は、特許の異なる部分(タイトル、抽象、記述、クレーム)の貢献と、異なるトレーニングデータセグメンテーションによるパフォーマンスの面でのベースラインの挙動の2つの側面で実施される。 2つの新しいデータセットをベースラインのコードでリリースします。

Patent classification is the task that assigns each input patent into several codes (classes). Due to its high demand, several datasets and methods have been introduced. However, the lack of both systematic performance comparison of baselines and access to some datasets creates a gap for the task. To fill the gap, we introduce two new datasets in English and Japanese collected by using CPC codes. The English dataset includes 45,131 patent documents with 425 labels and the Japanese dataset contains 54,657 documents with 523 labels. To facilitate the next studies, we compare the performance of strong multi-label text classification methods on the two datasets. Experimental results show that AttentionXML is consistently better than other strong baselines. The ablation study is also conducted in two aspects: the contribution of different parts (title, abstract, description, and claims) of a patent and the behavior of baselines in terms of performance with different training data segmentation. We release the two new datasets with the code of the baselines.
公開日:2024-03-15
翻訳日:2024-03-19 08:01:36
# 超伝導カプラアーキテクチャにおける量子チップ設計の最適化と自動化

Quantum chip design optimization and automation in superconducting coupler architecture ( http://arxiv.org/abs/2212.13751v2 )

ライセンス: Link先を確認
Fei-Yu Li, Li-Jing Jin, (参考訳) 超伝導カプラアーキテクチャは、スケーラブルで高性能な量子プロセッサにとって大きな可能性を示しているが、レイアウトの観点からハイパフォーマンスの「Qubit-Coupler-Qubit (QCQ)」を効率的にかつ自動的に設計する方法はいまだ不明である。 本研究は,3つの重要な知見が得られた結果として,本研究を初めて行った。 まず,レイアウトの幾何学的設計にのみ依存する重要なゼロカップリング条件を得る。 第二に、量子ビット有効結合の上限は$0.0822~ \omega_l/\beta_s^2$であり、これは特定のレイアウトではなく、人工的にあらかじめ決定された量$\omega_l, \beta_s$にのみ依存する。 第3に,超上界に到達するための最適レイアウト設計手法を提案し,効率的かつ高性能なレイアウト設計を実現する。 この方法の有効性は電磁シミュレーション実験を用いて精査的に実証されている。 スパイリングアプリケーションとして、量子誤り訂正に特に重要な長距離でスケーラブルなQCQレイアウトについて、最先端の3202を報告する。 我々の研究は、既存のカプラアーキテクチャの性能を最適化し、新しいレイアウトを見つけ、量子チップ設計の自動化をさらに進めるための実用的なガイドを提供する。

Superconducting coupler architecture demonstrates great potential for scalable and high-performance quantum processors, yet how to design efficiently and automatically 'Qubit-Coupler-Qubit (QCQ)' of high performance from the layout perspective remains obscure. In this work, this issue is studied for the first time resulting in three key findings. Firstly, we acquire the crucial zero-coupling condition that is only dependent on the geometric design of the layout. Secondly, the upper bound of the qubit-qubit effective coupling is found as $0.0822~ \omega_l/\beta_s^2$ which surprisingly depends only on the artificially pre-decided quantities $\omega_l, \beta_s$ instead of specific layouts. Thirdly, we propose an optimal layout design procedure to reach the very upper bound, leading to efficient and high-performance layout design. The effectiveness of the procedure has been demonstrated scrupulously using electromagnetic simulation experiments. As a stirring application, we report a state-of-the-art 3202 um long-range and scalable QCQ layout that is especially crucial to quantum error correction. Our work provides practical guides to optimize the performance of the existing coupler architecture, find out novel layouts, and further advance the progress of quantum chip design automation.
公開日:2024-03-15
翻訳日:2024-03-19 07:51:44
# センサ強化クイックドリューの配向に基づくスポーツクライミングにおける下降検出

Lowering Detection in Sport Climbing Based on Orientation of the Sensor Enhanced Quickdraw ( http://arxiv.org/abs/2301.10164v3 )

ライセンス: Link先を確認
Sadaf Moaveninejad, Andrea Janes, Camillo Porcaro, (参考訳) 登山者の活動を追跡してサービスを改善し、インフラを最大限活用することは、体育館を登る際の関心事である。 各クライミングセッションは、登山者の開始から下降まで分析されなければならない。 そのため、登山者が降り注ぐのは、登頂がいつ終わったかを示すためである。 この問題は、登山者のプライバシーと利便性と体育館のコストを保ちながら解決しなければならない。 この目的のために,クライミングロープをボルトアンカーに接続するクイックドリューと呼ばれる壁に取り付けられたクライミング機器に取り付けられた加速度センサを用いて,データを収集するハードウェアプロトタイプを開発した。 対応するセンサはエネルギー効率がよいように構成されており、登山ジムで大量に使用する場合の費用や代替の時間消費の観点から実用的になる。 本稿では、ハードウェア仕様、超低電力モードでセンサが測定したデータ、異なる経路におけるセンサの向きパターンを検出し、低電力モードを特定するための教師ありアプローチを開発する。

Tracking climbers' activity to improve services and make the best use of their infrastructure is a concern for climbing gyms. Each climbing session must be analyzed from beginning till lowering of the climber. Therefore, spotting the climbers descending is crucial since it indicates when the ascent has come to an end. This problem must be addressed while preserving privacy and convenience of the climbers and the costs of the gyms. To this aim, a hardware prototype is developed to collect data using accelerometer sensors attached to a piece of climbing equipment mounted on the wall, called quickdraw, that connects the climbing rope to the bolt anchors. The corresponding sensors are configured to be energy-efficient, hence become practical in terms of expenses and time consumption for replacement when using in large quantity in a climbing gym. This paper describes hardware specifications, studies data measured by the sensors in ultra-low power mode, detect sensors' orientation patterns during lowering different routes, and develop an supervised approach to identify lowering.
公開日:2024-03-15
翻訳日:2024-03-19 07:51:44
# 強化学習のためのプロトタイプを用いたクロスドメインランダム事前学習

Cross-domain Random Pre-training with Prototypes for Reinforcement Learning ( http://arxiv.org/abs/2302.05614v2 )

ライセンス: Link先を確認
Xin Liu, Yaran Chen, Haoran Li, Boyu Li, Dongbin Zhao, (参考訳) この研究はIEEEに提出された。 著作権は無通知で転送され、その後、このバージョンはアクセスできなくなる。 タスク非依存のクロスドメイン事前トレーニングは、イメージベース強化学習(RL)において大きな可能性を秘めているが、大きな課題となっている。 本稿では,画像ベースRLのプロトタイプを用いたクロスドメイン自己教師型ランダム事前学習フレームワークCRPTproを提案する。 CRPTproはクロスドメインランダムポリシーを使用して、複数のドメインから多様なデータを簡単かつ迅速にサンプリングし、事前学習効率を向上させる。 さらに,異なる領域にまたがる有効で汎用的なエンコーダを事前学習するために,新規な内在的損失を伴う原型表現学習を提案する。 微調整なしで、クロスドメインエンコーダは、異なるドメインで定義された下流視覚制御RLタスクに効率よく挑戦するために実装できる。 APTやProto-RLといった先行技術と比較して、CRPTproは専門家データ収集のための探索エージェントを余分に訓練することなく、クロスドメインの下流RLタスクのパフォーマンス向上を実現し、事前学習の負担を大幅に軽減する。 DeepMind Control Suite(DMControl)の実験では、CRPTproは11/12のクロスドメインRLタスクにおいてわずか39%の事前トレーニング時間でAPTを著しく上回り、政策学習性能と事前トレーニング効率の両方において最先端のクロスドメイン事前トレーニング方法となった。 完全なコードはhttps://github.com/liuxin0824/CRPTproでリリースされる。

This work has been submitted to the IEEE for possible publication. Copyright may be transferred without notice, after which this version may no longer be accessible. Task-agnostic cross-domain pre-training shows great potential in image-based Reinforcement Learning (RL) but poses a big challenge. In this paper, we propose CRPTpro, a Cross-domain self-supervised Random Pre-Training framework with prototypes for image-based RL. CRPTpro employs cross-domain random policy to easily and quickly sample diverse data from multiple domains, to improve pre-training efficiency. Moreover, prototypical representation learning with a novel intrinsic loss is proposed to pre-train an effective and generic encoder across different domains. Without finetuning, the cross-domain encoder can be implemented for challenging downstream visual-control RL tasks defined in different domains efficiently. Compared with prior arts like APT and Proto-RL, CRPTpro achieves better performance on cross-domain downstream RL tasks without extra training on exploration agents for expert data collection, greatly reducing the burden of pre-training. Experiments on DeepMind Control suite (DMControl) demonstrate that CRPTpro outperforms APT significantly on 11/12 cross-domain RL tasks with only 39% pre-training hours, becoming a state-of-the-art cross-domain pre-training method in both policy learning performance and pre-training efficiency. The complete code will be released at https://github.com/liuxin0824/CRPTpro.
公開日:2024-03-15
翻訳日:2024-03-19 07:51:44
# 接触力場の触覚推定による滑り検出の学習とそのエントロピー

Learning to Detect Slip through Tactile Estimation of the Contact Force Field and its Entropy ( http://arxiv.org/abs/2303.00935v3 )

ライセンス: Link先を確認
Xiaohai Hu, Aparajit Venkatesh, Guiliang Zheng, Xu Chen, (参考訳) 物体の握りと操作におけるすべりの検出は、物体のハンドリングにおいて重要な役割を果たす。 既存のソリューションは主に視覚情報に依存して、把握のための戦略を考案する。 しかしながら、ロボットシステムが人間に匹敵する習熟度に達するためには、特に不慣れな物体を一貫して扱い、操作する場合は、人工的な触覚センサーを統合することがますます不可欠である。 本研究では,スリップ検出をリアルタイムで連続的に行う物理インフォームド・データ駆動方式を提案する。 我々は、光学式触覚センサーであるGelSight Miniを、カスタムデザインのグリップに装着して、触覚データを収集する。 本研究は,スリップイベントにおける触覚センサの非均一性を活用して特徴を発達させ,スリップ検出を分類問題として定式化する。 提案手法を評価するため, 異なる負荷条件, テクスチャ, 材料条件下で10個の共通オブジェクト上で複数のデータ駆動モデルをテストする。 その結果,最高の分類アルゴリズムは95.61%の精度が得られることがわかった。 さらに、リアルタイムスリップ検出・防止アルゴリズムを実装した動的ロボット操作タスクにおける我々の研究の実践的応用について述べる。

Detection of slip during object grasping and manipulation plays a vital role in object handling. Existing solutions primarily rely on visual information to devise a strategy for grasping. However, for robotic systems to attain a level of proficiency comparable to humans, especially in consistently handling and manipulating unfamiliar objects, integrating artificial tactile sensing is increasingly essential. We introduce a novel physics-informed, data-driven approach to detect slip continuously in real time. We employ the GelSight Mini, an optical tactile sensor, attached to custom-designed grippers to gather tactile data. Our work leverages the inhomogeneity of tactile sensor readings during slip events to develop distinctive features and formulates slip detection as a classification problem. To evaluate our approach, we test multiple data-driven models on 10 common objects under different loading conditions, textures, and materials. Our results show that the best classification algorithm achieves a high average accuracy of 95.61%. We further illustrate the practical application of our research in dynamic robotic manipulation tasks, where our real-time slip detection and prevention algorithm is implemented.
公開日:2024-03-14
翻訳日:2024-03-19 07:51:44
# シリコン中における高忠実度2ビットゲートの誤差変動の評価

Assessment of error variation in high-fidelity two-qubit gates in silicon ( http://arxiv.org/abs/2303.04090v3 )

ライセンス: Link先を確認
Tuomo Tanttu, Wee Han Lim, Jonathan Y. Huang, Nard Dumoulin Stuyck, Will Gilbert, Rocky Y. Su, MengKe Feng, Jesus D. Cifuentes, Amanda E. Seedhouse, Stefan K. Seritan, Corey I. Ostrove, Kenneth M. Rudinger, Ross C. C. Leon, Wister Huang, Christopher C. Escott, Kohei M. Itoh, Nikolay V. Abrosimov, Hans-Joachim Pohl, Michael L. W. Thewalt, Fay E. Hudson, Robin Blume-Kohout, Stephen D. Bartlett, Andrea Morello, Arne Laucht, Chih Hwan Yang, Andre Saraiva, Andrew S. Dzurak, (参考訳) 量子ビット間の高忠実なエンタングリング操作を一貫して達成することは、マルチキュービットシステムの性能に不可欠であり、フォールトトレラントな量子プロセッサを実現する上で重要な要素である。 ソリッドステートプラットフォームは、クォービット間の材料誘起のばらつきにより、特にエラーに晒されるため、パフォーマンス上の不整合が生じる。 ここでは、スピン量子ビットプロセッサの誤差を調査し、それらを物理的起源に結びつける。 技術的に重要なシリコン-酸化物-半導体(SiMOS)量子ドットプラットフォームにおいて、2量子ゲートの99%以上の忠実度で一貫した繰り返し動作を示すために、この知識を活用する。 複数のデバイスにおける物理誤差と忠実度を多数の試行錯誤と拡張期間を通じて分析することにより,これらの動作を詳細に検討し,その変動と最も一般的なエラータイプを確実に把握する。 物理誤差源には、単一量子ビット上の遅い核と電気のノイズと文脈ノイズがある。 ノイズ源の識別は、耐久性能を維持するだけでなく、将来のデバイス製造を知らせるためにも利用できる。 さらに,量子ビット設計,フィードバックシステム,ロバストゲートがスケーラブルかつ高忠実な制御戦略の実装に与える影響について検討する。 これらの結果は3つの異なるキャラクタリゼーション手法を用いて,96.8%から99.8%までの密閉ゲート密度を測定することで達成される。 解析ツールは、量子ビット劣化の原因を特定し、それらの物理的メカニズムを理解する方法を提供する。 これらの結果は、シリコンスピンベースの量子ビットをフルスケールの量子プロセッサにスケールアップする能力と課題の両方を強調している。

Achieving high-fidelity entangling operations between qubits consistently is essential for the performance of multi-qubit systems and is a crucial factor in achieving fault-tolerant quantum processors. Solid-state platforms are particularly exposed to errors due to materials-induced variability between qubits, which leads to performance inconsistencies. Here we study the errors in a spin qubit processor, tying them to their physical origins. We leverage this knowledge to demonstrate consistent and repeatable operation with above 99% fidelity of two-qubit gates in the technologically important silicon metal-oxide-semiconductor (SiMOS) quantum dot platform. We undertake a detailed study of these operations by analysing the physical errors and fidelities in multiple devices through numerous trials and extended periods to ensure that we capture the variation and the most common error types. Physical error sources include the slow nuclear and electrical noise on single qubits and contextual noise. The identification of the noise sources can be used to maintain performance within tolerance as well as inform future device fabrication. Furthermore, we investigate the impact of qubit design, feedback systems, and robust gates on implementing scalable, high-fidelity control strategies. These results are achieved by using three different characterization methods, we measure entangling gate fidelities ranging from 96.8% to 99.8%. Our analysis tools identify the causes of qubit degradation and offer ways understand their physical mechanisms. These results highlight both the capabilities and challenges for the scaling up of silicon spin-based qubits into full-scale quantum processors.
公開日:2024-03-15
翻訳日:2024-03-19 07:51:44
# SelfPromer: 奥行きに一貫性のあるセルフプロンプトデハージングトランス

SelfPromer: Self-Prompt Dehazing Transformers with Depth-Consistency ( http://arxiv.org/abs/2303.07033v3 )

ライセンス: Link先を確認
Cong Wang, Jinshan Pan, Wanyu Lin, Jiangxin Dong, Xiao-Ming Wu, (参考訳) 本研究は,画像デハージングに有効な深度整合型セルフプロンプトトランスを提案する。 ヘイズ残像とその明確な像の深さが異なるという観測によって動機づけられた。 したがって、デハズド画像の奥行きの整合性を確保することは、デハズド画像のデハズ化に不可欠である。 そこで本研究では, より優れた修復のために, ヘイズ入力画像とそれに対応する鮮明な画像との深度差の特徴に基づくプロンプトを開発する。 具体的には、入力画像から抽出した深度特徴を、入力に迷路残差情報を含むプロンプトを生成するための深度差特徴に適用する。 そこで我々は,深い特徴にプロンプトを線形に追加することにより,迷路残差を知覚するプロンプト埋め込みモジュールを提案する。 さらに, より優れた除去のために, ヘイズ残留物により多くの注意を払うために, 効果的な注意モジュールを開発した。 VQGANに基づくエンコーダ・デコーダネットワークにプロンプト、プロンプト埋め込み、そしてインタプリタを組み込むことにより、より優れた知覚品質を実現することができる。 画像の鮮明な深さは推論では得られず,一方のフィードフォワード実行によるデハズ化画像は依然として一部のヘイズ残差を含む可能性があるため,より優れたヘイズフリー画像生成に向けてデハズ化モデルを反復的に補正できる新しい連続自己プロンプト推論を提案する。 本手法は,NIQE,PI,PIQEなどの知覚指標を用いて,合成と実世界の両方のデータセットに対する最先端のアプローチに対して良好に作用することを示す。

This work presents an effective depth-consistency self-prompt Transformer for image dehazing. It is motivated by an observation that the estimated depths of an image with haze residuals and its clear counterpart vary. Enforcing the depth consistency of dehazed images with clear ones, therefore, is essential for dehazing. For this purpose, we develop a prompt based on the features of depth differences between the hazy input images and corresponding clear counterparts that can guide dehazing models for better restoration. Specifically, we first apply deep features extracted from the input images to the depth difference features for generating the prompt that contains the haze residual information in the input. Then we propose a prompt embedding module that is designed to perceive the haze residuals, by linearly adding the prompt to the deep features. Further, we develop an effective prompt attention module to pay more attention to haze residuals for better removal. By incorporating the prompt, prompt embedding, and prompt attention into an encoder-decoder network based on VQGAN, we can achieve better perception quality. As the depths of clear images are not available at inference, and the dehazed images with one-time feed-forward execution may still contain a portion of haze residuals, we propose a new continuous self-prompt inference that can iteratively correct the dehazing model towards better haze-free image generation. Extensive experiments show that our method performs favorably against the state-of-the-art approaches on both synthetic and real-world datasets in terms of perception metrics including NIQE, PI, and PIQE.
公開日:2024-03-15
翻訳日:2024-03-19 07:51:44
# NAISR: 解釈可能な形状表現のための3次元ニューラル付加モデル

NAISR: A 3D Neural Additive Model for Interpretable Shape Representation ( http://arxiv.org/abs/2303.09234v5 )

ライセンス: Link先を確認
Yining Jiao, Carlton Zdanski, Julia Kimbell, Andrew Prince, Cameron Worden, Samuel Kirse, Christopher Rutter, Benjamin Shields, William Dunn, Jisan Mahmud, Marc Niethammer, (参考訳) 深暗黙の関数(DIF)は、3次元形状の再構成、生成、登録、完了、編集、理解といった多くのコンピュータビジョンタスクの強力なパラダイムとして登場した。 しかし、関連する共変量を持つ3次元形状の集合を考えると、現在、各共変量に対する個々の依存を捕捉しながら、その形状を正確に表現できる形状表現法は存在しない。 このような手法は、形状の集団に隠された知識を発見するために、研究者にとって非常に有用である。 科学的な形状発見のための3次元ニューラルネットワークによる解釈可能な形状表現モデル(\texttt{NAISR}$)を提案する。 本手法は, 形状人口の傾向を把握し, 形状移動による患者固有の予測を可能にする。 $\texttt{NAISR}$は、深い暗黙の形状表現の利点と特定の共変量に従って変形するアトラスを結合する最初のアプローチである。 形状再構成, 形状異方性, 形状進化, 形状伝達について, 3つのデータセットで$\texttt{NAISR}$を評価する。 1) $\textit{Starman}$, シミュレーションされた2D形状データセット。 2)ADNI海馬3次元形状データセット,及び 3)小児気道3次元形状データセット。 実験の結果,$\textit{Starman}$は,解釈性を維持しながら優れた形状復元性能を発揮することがわかった。 私たちのコードは$\href{https://github.com/uncbiag/NAISR}{https://github.com/uncbiag/NAISR}$で利用可能です。

Deep implicit functions (DIFs) have emerged as a powerful paradigm for many computer vision tasks such as 3D shape reconstruction, generation, registration, completion, editing, and understanding. However, given a set of 3D shapes with associated covariates there is at present no shape representation method which allows to precisely represent the shapes while capturing the individual dependencies on each covariate. Such a method would be of high utility to researchers to discover knowledge hidden in a population of shapes. For scientific shape discovery, we propose a 3D Neural Additive Model for Interpretable Shape Representation ($\texttt{NAISR}$) which describes individual shapes by deforming a shape atlas in accordance to the effect of disentangled covariates. Our approach captures shape population trends and allows for patient-specific predictions through shape transfer. $\texttt{NAISR}$ is the first approach to combine the benefits of deep implicit shape representations with an atlas deforming according to specified covariates. We evaluate $\texttt{NAISR}$ with respect to shape reconstruction, shape disentanglement, shape evolution, and shape transfer on three datasets: 1) $\textit{Starman}$, a simulated 2D shape dataset; 2) the ADNI hippocampus 3D shape dataset; and 3) a pediatric airway 3D shape dataset. Our experiments demonstrate that $\textit{Starman}$ achieves excellent shape reconstruction performance while retaining interpretability. Our code is available at $\href{https://github.com/uncbiag/NAISR}{https://github.com/uncbiag/NAISR}$.
公開日:2024-03-14
翻訳日:2024-03-19 07:51:44
# 身体リハビリテーション運動情報のためのマイニング臨床ノート:自然言語処理アルゴリズムの開発と検証研究

Mining Clinical Notes for Physical Rehabilitation Exercise Information: Natural Language Processing Algorithm Development and Validation Study ( http://arxiv.org/abs/2303.13466v2 )

ライセンス: Link先を確認
Sonish Sivarajkumar, Fengyi Gao, Parker E. Denny, Bayan M. Aldhahwani, Shyam Visweswaran, Allyn Bove, Yanshan Wang, (参考訳) 術後患者のリハビリテーションには、正確にパーソナライズされた治療計画が必要である。 自然言語処理(NLP)は、より効果的なリハビリテーション戦略の開発を支援するために、臨床ノートから貴重な運動情報を抽出する可能性がある。 目的: 本研究の目的は, ピッツバーグ大学医学部における術後患者の臨床ノートから, 身体リハビリテーション運動情報を抽出し, 分類するための様々なNLPアルゴリズムを開発し, 評価することである。 脳卒中と診断された13,605人のコホートを同定し,リハビリテーション治療ノートを含む臨床ノートを検索した。 身体リハビリテーション運動の様々な側面を表す包括的臨床オントロジーが作成された。 その後、ルールベース、機械学習ベースのアルゴリズム、大規模言語モデル(LLM)ベースのアルゴリズム(ChatGPT)など、最先端のNLPアルゴリズムを開発し、比較した。 分析は23,724枚のノートからなり,詳細な統計学的特徴と臨床特性が得られた。 規則に基づく NLP アルゴリズムは,F1 スコア 0.975 の 'Right Side' 位置を検出し,グラディエントブースティング 0.063 よりも優れた性能を示した。 グラディエントブースティングは「下限」位置検出(F1スコア:0.978)に優れ、ルールベースNLPを0.023で上回った。 また、F1スコア0.970の「Passive Range of Motion」では、ルールベースのNLPよりも0.032改善された。 ルールベースのアルゴリズムは、F1スコアの「Duration」、「Sets」、そして「Reps」を最大0.65まで効率的に処理した。 LLMベースのNLP、特に数発のプロンプトを持つChatGPTは高いリコールを達成したが、一般的には低い精度とF1スコアを得た。 しかし、これは「後方平面」運動検出において顕著に優れ、F1スコアは0.846であり、ルールベースのアルゴリズムの0.720を上回った。

Post-stroke patient rehabilitation requires precise, personalized treatment plans. Natural Language Processing (NLP) offers potential to extract valuable exercise information from clinical notes, aiding in the development of more effective rehabilitation strategies. Objective: This study aims to develop and evaluate a variety of NLP algorithms to extract and categorize physical rehabilitation exercise information from the clinical notes of post-stroke patients treated at the University of Pittsburgh Medical Center. A cohort of 13,605 patients diagnosed with stroke was identified, and their clinical notes containing rehabilitation therapy notes were retrieved. A comprehensive clinical ontology was created to represent various aspects of physical rehabilitation exercises. State-of-the-art NLP algorithms were then developed and compared, including rule-based, machine learning-based algorithms, and large language model (LLM)-based algorithms (ChatGPT). Analysis was conducted on a dataset comprising 23,724 notes with detailed demographic and clinical characteristics. The rule-based NLP algorithm demonstrated superior performance in most areas, particularly in detecting the 'Right Side' location with an F1 score of 0.975, outperforming Gradient Boosting by 0.063. Gradient Boosting excelled in 'Lower Extremity' location detection (F1 score: 0.978), surpassing rule-based NLP by 0.023. It also showed notable performance in 'Passive Range of Motion' with an F1 score of 0.970, a 0.032 improvement over rule-based NLP. The rule-based algorithm efficiently handled 'Duration', 'Sets', and 'Reps' with F1 scores up to 0.65. LLM-based NLP, particularly ChatGPT with few-shot prompts, achieved high recall but generally lower precision and F1 scores. However, it notably excelled in 'Backward Plane' motion detection, achieving an F1 score of 0.846, surpassing the rule-based algorithm's 0.720.
公開日:2024-03-15
翻訳日:2024-03-19 07:51:44
# ビデオデモへのステップバイステップインストラクショナルダイアグラムの適応

Aligning Step-by-Step Instructional Diagrams to Video Demonstrations ( http://arxiv.org/abs/2303.13800v3 )

ライセンス: Link先を確認
Jiahao Zhang, Anoop Cherian, Yanbin Liu, Yizhak Ben-Shabat, Cristian Rodriguez, Stephen Gould, (参考訳) マルチモーダルアライメントは、あるモダリティから別のモダリティを使ってクエリする際のインスタンスの検索を容易にする。 本稿では,このようなアライメントを両立させる新しい環境について考察する。 一 組立図(池田組立マニュアルによく見られる)、及び (II)このビデオは,実世界の組み立て動作を再現した映像である。 このアライメントを学習するために,新しい教師付きコントラスト学習手法を導入する。 本手法の有効性を検証し,本手法の有効性を示すために,多様な家具組立コレクションから183時間分の映像と関連する指導マニュアルから8,300点近いイラストを収録した野生のイケア組立用IAWと,それらの真実のアライメントに注釈を付したアノテートを用いた新しいデータセットを提案する。 このデータセットでは、まず、ビデオセグメントとイラストの隣り合う検索と、命令ステップと各ビデオのセグメントのアライメントという2つのタスクを定義している。 IAWに関する大規模な実験は、代替案に対する我々のアプローチの優れた性能を示す。

Multimodal alignment facilitates the retrieval of instances from one modality when queried using another. In this paper, we consider a novel setting where such an alignment is between (i) instruction steps that are depicted as assembly diagrams (commonly seen in Ikea assembly manuals) and (ii) video segments from in-the-wild videos; these videos comprising an enactment of the assembly actions in the real world. To learn this alignment, we introduce a novel supervised contrastive learning method that learns to align videos with the subtle details in the assembly diagrams, guided by a set of novel losses. To study this problem and demonstrate the effectiveness of our method, we introduce a novel dataset: IAW for Ikea assembly in the wild consisting of 183 hours of videos from diverse furniture assembly collections and nearly 8,300 illustrations from their associated instruction manuals and annotated for their ground truth alignments. We define two tasks on this dataset: First, nearest neighbor retrieval between video segments and illustrations, and, second, alignment of instruction steps and the segments for each video. Extensive experiments on IAW demonstrate superior performances of our approach against alternatives.
公開日:2024-03-15
翻訳日:2024-03-19 07:51:44
# WebQAmGaze: マルチリンガルなWebカメラアイトラッキング-While-Readingデータセット

WebQAmGaze: A Multilingual Webcam Eye-Tracking-While-Reading Dataset ( http://arxiv.org/abs/2303.17876v3 )

ライセンス: Link先を確認
Tiago Ribeiro, Stephanie Brandl, Anders Søgaard, Nora Hollenstein, (参考訳) WebQAmGazeはマルチリンガルで低コストな視線追跡時読取データセットであり,Webカメラによる視線追跡コーパスとして初めて設計され,説明可能な計算言語処理モデルの開発を支援する。 WebQAmGazeには、英語、ドイツ語、スペイン語、トルコ語のテキストを自然に読む幅広い年齢層の600人の参加者によるWebカメラによるアイトラッキングデータが含まれている。 参加者はそれぞれ5つのテキストからなる2つの読解タスク、通常の読解タスクと情報検索タスクを実行し、続いて理解可能な質問を行う。 収集したウェブカメラデータを高品質なアイトラッキング記録と比較した。 その結果,Webカメラで得られた眼球運動測定値と市販の眼球追跡装置で得られた眼球運動測定値との間には中程度から強い相関関係が認められた。 データを検証すると、関連するテキストに対する高い固定期間が、対応する質問に答える際の正確さを示すことが分かる。 このデータセットは、Webカメラベースの読書研究を前進させ、低コストで多様なデータ収集への道を開く。 WebQAmGazeは、質問応答の背後にある認知過程について学び、これらの知見を言語理解の計算モデルに適用するのに有益である。

We present WebQAmGaze, a multilingual low-cost eye-tracking-while-reading dataset, designed as the first webcam-based eye-tracking corpus of reading to support the development of explainable computational language processing models. WebQAmGaze includes webcam eye-tracking data from 600 participants of a wide age range naturally reading English, German, Spanish, and Turkish texts. Each participant performs two reading tasks composed of five texts each, a normal reading and an information-seeking task, followed by a comprehension question. We compare the collected webcam data to high-quality eye-tracking recordings. The results show a moderate to strong correlation between the eye movement measures obtained with the webcam compared to those obtained with a commercial eye-tracking device. When validating the data, we find that higher fixation duration on relevant text spans accurately indicates correctness when answering the corresponding questions. This dataset advances webcam-based reading studies and opens avenues to low-cost and diverse data collection. WebQAmGaze is beneficial to learn about the cognitive processes behind question-answering and to apply these insights to computational models of language understanding.
公開日:2024-03-15
翻訳日:2024-03-19 07:51:44
# 誘導エネルギー参加比を用いた超伝導量子チップのキャラクタリゼーション

Using the inductive-energy participation ratio to characterize a superconducting quantum chip ( http://arxiv.org/abs/2303.18220v2 )

ライセンス: Link先を確認
Ke-Hui Yu, Xiao-Yang Jiao, Li-Jing Jin, (参考訳) 超伝導量子チップをシミュレーションし検証するための誘導エネルギー参加率(IEPR)法と合理化手法を開発した。 これらの進歩は、大規模でフォールトトレラントな量子コンピューティングの文脈でますます重要になっている。 提案手法は,量子チップレイアウトのハミルトニアンと同様に,重要な線形および非線形特性パラメータを効率的に抽出する。 理論上、IEPR法はエネルギー分布と表現変換の関係に関する洞察を提供する。 本稿では,量子チップレイアウトに適用し,素面および正規表現の両方において重要な特性パラメーターを効率よく取得することで,その実用性を実証する。 我々の研究はシミュレーションと検証技術の大幅な強化を約束しており、量子電子設計の自動化に向けた重要なステップを示している。

We developed an inductive energy participation ratio (IEPR) method and a streamlined procedure for simulating and verifying superconducting quantum chips. These advancements are increasingly vital in the context of large-scale, fault-tolerant quantum computing. Our approach efficiently extracts the key linear and nonlinear characteristic parameters, as well as the Hamiltonian of a quantum chip layout. In theory, the IEPR method provides insights into the relationship between energy distribution and representation transformation. We demonstrate its practicality by applying it to quantum chip layouts, efficiently obtaining crucial characteristic parameters in both bare and normal representations-an endeavor that challenges existing methods. Our work holds the promise of significant enhancements in simulation and verification techniques and represents a pivotal step towards quantum electronic design automation.
公開日:2024-03-15
翻訳日:2024-03-19 07:51:44
# ストリーミング社会選択理論による公正秩序

Fair Ordering via Streaming Social Choice Theory ( http://arxiv.org/abs/2304.02730v3 )

ライセンス: Link先を確認
Geoffrey Ramseyer, Ashish Goel, (参考訳) 以前の研究は、複製された状態マシンで'`fairly'の順序付けトランザクションの問題を研究していた。 n$のレプリカはそれぞれ、おそらく異なる順序でトランザクションを受け取り、システムは観測された順序を単一の順序に集約しなければならない。 この問題は、(選好集約問題において)候補者のランクが選挙結果に集約される社会選択理論のレンズを通して、最もよく見られていると論じる。 2つの特徴がこの問題を新しくする。 まず、トランザクションの数は非有界であり、順序付けは数え切れない無限集合上で定義されなければならない。 第二に、意思決定は、部分的な情報だけで迅速に行う必要があります。 さらに、いくつかの欠陥のあるレプリカは、報告された観察を変更できるかもしれない。 先行研究は ``$\gamma$-batch-order-fairness'' プロパティを研究し、注文を連続したバッチに分割する。 レプリカの$\gamma$が$\tau$の前に$\tau^\prime$を受け取るなら、$\tau^\prime$は$\tau$よりも早いバッチには入らない。 この定義を強化して、バッチのサイズが最小限であること("\gamma$-batch-order-fairness can be vacuously satisfied by large batchs")と、障害のあるレプリカの可能性を考慮する。 この社会的選択レンズは、前よりも厳密な公正性と生活性を持つ注文プロトコルを可能にする。 ランク付きペア法について検討する。 欠落した情報がアルゴリズムを通してどのように動くかを分析することで、ストリーミングバージョンはいつトランザクションを出力できるかを知ることができる。 整合性ルールの復号化により,アルゴリズムは(同期ネットワーク上で)有界時間後にトランザクションを出力する。 以前の作業では、$\gamma$ の固定された選択と、失敗するレプリカの数に縛られる $f$ に依存していたが、我々のアルゴリズムは、すべての $\frac{1}{2}<\gamma\leq 1$ と任意の $f$ に対して我々の定義を満たす。

Prior work studies the question of ``fairly'' ordering transactions in a replicated state machine. Each of $n$ replicas receives transactions in a possibly different order, and the system must aggregate the observed orderings into a single order. We argue that this problem is best viewed through the lens of social choice theory, in which (in the preference aggregation problem) rankings on candidates are aggregated into an election result. Two features make this problem novel. First, the number of transactions is unbounded, and an ordering must be defined over a countably infinite set. And second, decisions must be made quickly, with only partial information. Additionally, some faulty replicas might alter their reported observations; their influence on the output should be bounded and well understood. Prior work studies a ``$\gamma$-batch-order-fairness'' property, which divides an ordering into contiguous batches. If a $\gamma$ fraction of replicas receive $\tau$ before $\tau^\prime$, then $\tau^\prime$ cannot be in an earlier batch than $\tau$. We strengthen this definition to require that batches have minimal size ($\gamma$-batch-order-fairness can be vacuously satisfied by large batches) while accounting for the possibility of faulty replicas. This social choice lens enables an ordering protocol with strictly stronger fairness and liveness properties than prior work. We study the Ranked Pairs method. Analysis of how missing information moves through the algorithm allows our streaming version to know when it can output a transaction. Deliberate construction of a tiebreaking rule ensures our algorithm outputs a transaction after a bounded time (in a synchronous network). Prior work relies on a fixed choice of $\gamma$ and bound on the number of faulty replicas $f$, but our algorithm satisfies our definition for every $\frac{1}{2}<\gamma\leq 1$ simultaneously and for any $f$.
公開日:2024-02-28
翻訳日:2024-03-19 07:51:44
# 個人知識グラフのためのエコシステム:調査と研究ロードマップ

An Ecosystem for Personal Knowledge Graphs: A Survey and Research Roadmap ( http://arxiv.org/abs/2304.09572v2 )

ライセンス: Link先を確認
Martin G. Skjæveland, Krisztian Balog, Nolwenn Bernard, Weronika Łajewska, Trond Linjordet, (参考訳) 本稿では,個人に関連するエンティティや属性,それらの関係に関する構造化情報の資源として一般的に定義されるPKG(Personal Knowledge Graphs)のエコシステムについて述べる。 PKGは、セキュアで洗練された個人データ管理とパーソナライズサービスを実現する重要な手段である。 しかしながら、PKGが広く採用される前に対処する必要がある課題がある。 基本的な課題の1つは、この用語の複数の解釈が存在するため、PKGを構成するものの定義である。 我々は,(1)個人によるデータ所有の側面を強調し,(2)パーソナライズされたサービスの提供を主目的とする,PKGの独自の定義を提案する。 PKGは、データサービスやデータソースに対する明確なインターフェースを備えた、より大きなエコシステムの一部である。 既存の作業の総合的な調査と合成を行い、調査された作業のマッピングを、提案された統合されたエコシステムにマッピングする。 最後に、人口、表現と管理、利用を含むPKGの具体的な側面と同様に、生態系全体に対するオープンな課題と研究機会を特定します。

This paper presents an ecosystem for personal knowledge graphs (PKGs), commonly defined as resources of structured information about entities related to an individual, their attributes, and the relations between them. PKGs are a key enabler of secure and sophisticated personal data management and personalized services. However, there are challenges that need to be addressed before PKGs can achieve widespread adoption. One of the fundamental challenges is the very definition of what constitutes a PKG, as there are multiple interpretations of the term. We propose our own definition of a PKG, emphasizing the aspects of (1) data ownership by a single individual and (2) the delivery of personalized services as the primary purpose. We further argue that a holistic view of PKGs is needed to unlock their full potential, and propose a unified framework for PKGs, where the PKG is a part of a larger ecosystem with clear interfaces towards data services and data sources. A comprehensive survey and synthesis of existing work is conducted, with a mapping of the surveyed work into the proposed unified ecosystem. Finally, we identify open challenges and research opportunities for the ecosystem as a whole, as well as for the specific aspects of PKGs, which include population, representation and management, and utilization.
公開日:2024-03-15
翻訳日:2024-03-19 07:51:44
# 注意に基づくシームズ複合ニューラルネットワークの医用画像認識への応用

Application of attention-based Siamese composite neural network in medical image recognition ( http://arxiv.org/abs/2304.09783v3 )

ライセンス: Link先を確認
Zihao Huang, Yue Wang, Weixing Xin, Xingtong Lin, Huizhen Li, Haowen Chen, Yizhen Lao, Xia Chen, (参考訳) 医用画像認識は、実際的な応用において不十分なデータに直面することが多い。 数ショットの条件下での画像認識と処理は、過度に適合し、認識精度が低く、信頼性が低く、ロバスト性が不十分である。 特徴の違いが微妙な場合が多く、認識は視点、背景、閉塞、その他の要因に影響され、認識の難しさが増す。 さらに、きめ細かい画像では、少数ショットの問題により、画像の有用な特徴情報が不十分になる。 本研究は,少ないショットときめ細かい画像認識の特性を考慮し,注目とシームズニューラルネットワークに基づく認識モデルを構築した。 数発のサンプルの問題を考慮し,分類モデルに適したシームズニューラルネットワークを提案する。 アテンションに基づくニューラルネットワークは、分類効果を改善するためにメインネットワークとして使用される。 このモデルをテストするために、コビッド-19の肺サンプルが選択されている。 その結果、画像サンプルの数が少ないほど、通常のニューラルネットワークよりも利点が明らかになることがわかった。

Medical image recognition often faces the problem of insufficient data in practical applications. Image recognition and processing under few-shot conditions will produce overfitting, low recognition accuracy, low reliability and insufficient robustness. It is often the case that the difference of characteristics is subtle, and the recognition is affected by perspectives, background, occlusion and other factors, which increases the difficulty of recognition. Furthermore, in fine-grained images, the few-shot problem leads to insufficient useful feature information in the images. Considering the characteristics of few-shot and fine-grained image recognition, this study has established a recognition model based on attention and Siamese neural network. Aiming at the problem of few-shot samples, a Siamese neural network suitable for classification model is proposed. The Attention-Based neural network is used as the main network to improve the classification effect. Covid- 19 lung samples have been selected for testing the model. The results show that the less the number of image samples are, the more obvious the advantage shows than the ordinary neural network.
公開日:2024-03-15
翻訳日:2024-03-19 07:51:44
# 大規模言語モデルにおける反復ブートストラップによる思考連鎖の促進

Enhancing Chain-of-Thoughts Prompting with Iterative Bootstrapping in Large Language Models ( http://arxiv.org/abs/2304.11657v3 )

ライセンス: Link先を確認
Jiashuo Sun, Yi Luo, Yeyun Gong, Chen Lin, Yelong Shen, Jian Guo, Nan Duan, (参考訳) 大規模言語モデル (LLM) は、ステップ・バイ・ステップ・チェーン・オブ・シークレット (CoT) をデモンストレーションとして組み込むことで、様々な推論タスクにおいて高い効果的な性能を達成することができる。 しかし、LLMによって生成された実演の推論連鎖は誤りを起こしやすいため、推論中に誤った推論につながる可能性がある。 さらに、不適切な例(過度に単純化または複雑)は、様々な難易度の中で全体的なパフォーマンスに影響を与える可能性がある。 本稿では,イターCoT (Iterative bootstrapping in Chain-of-Thoughts Prompting) を導入する。 反復的なブートストラップを活用することで,LLMが自動でエラーを修正できるようになり,より正確で包括的な推論チェーンが実現される。 同時に,LLMの難易度を適度に向上させるため,解答が困難で解答し難易度の高い質問を解答チェーンとして選択する。 実験結果から, Iter-CoTは10個のデータセット上での3つの異なる推論タスクにまたがる競合性能を実現していることがわかった。

Large language models (LLMs) can achieve highly effective performance on various reasoning tasks by incorporating step-by-step chain-of-thought (CoT) prompting as demonstrations. However, the reasoning chains of demonstrations generated by LLMs are prone to errors, which can subsequently lead to incorrect reasoning during inference. Furthermore, inappropriate exemplars (overly simplistic or complex), can affect overall performance among varying levels of difficulty. We introduce Iter-CoT (Iterative bootstrapping in Chain-of-Thoughts Prompting), an iterative bootstrapping approach for selecting exemplars and generating reasoning chains. By utilizing iterative bootstrapping, our approach enables LLMs to autonomously rectify errors, resulting in more precise and comprehensive reasoning chains. Simultaneously, our approach selects challenging yet answerable questions accompanied by reasoning chains as exemplars with a moderate level of difficulty, which enhances the LLMs' generalizability across varying levels of difficulty. Experimental results indicate that Iter-CoT exhibits superiority, achieving competitive performance across three distinct reasoning tasks on ten datasets.
公開日:2024-03-15
翻訳日:2024-03-19 07:51:44
# 複数の光子の時間と周波数を直接測定した高速データ駆動分光計

Fast data-driven spectrometer with direct measurement of time and frequency for multiple single photons ( http://arxiv.org/abs/2304.11999v4 )

ライセンス: Link先を確認
Jakub Jirsa, Sergei Kulkov, Raphael A. Abrahao, Jesse Crawford, Aaron Mueninghoff, Ermanno Bernasconi, Claudio Bruschini, Samuel Burri, Stephen Vintskevich, Michal Marcisovsky, Edoardo Charbon, Andrei Nomerotski, (参考訳) 波長0.04nm、時間分解能40psの512個の単光子アバランシェダイオード検出器の線形アレイに基づく単光子感度分光計を提案する。 我々は、単一光子の同時検出に時間と周波数を直接測定できる高速なデータ駆動型演算を用い、各単光子の検出に時間と周波数をスタンプする。 その結果,時間分解能とスペクトル分解能の両立が得られた。 我々は,室温操作を含む実験装置の単純さにもかかわらず,hbar/2 の Heisenberg Uncertainty Principle limit に対して時間とエネルギーについてベンチマークを行った。 この研究は古典的および量子フォトニクス、特に単一光子のスペクトル特性と時間特性の両方を利用する場合に多くの応用を開放する。

We present a single-photon-sensitive spectrometer, based on a linear array of 512 single-photon avalanche diode detectors, with 0.04 nm spectral and 40 ps temporal resolutions. We employ a fast data-driven operation that allows direct measurement of time and frequency for simultaneous single photons, time- and frequency-stamping each single-photon detection. Our results combine excellent temporal and spectral resolution. We benchmark our result against the Heisenberg Uncertainty Principle limit of hbar/2 for time and energy, and we are only a factor of 10 above it, despite the simplicity of our experimental setup, including room temperature operation. This work opens numerous applications in both classical and quantum photonics, especially when both spectral and temporal properties of single photons are exploited.
公開日:2024-03-15
翻訳日:2024-03-19 07:42:00
# Musketeer:タスク説明プロンプトを用いたマルチタスク視覚言語モデルの合同トレーニング

Musketeer: Joint Training for Multi-task Vision Language Model with Task Explanation Prompts ( http://arxiv.org/abs/2305.07019v2 )

ライセンス: Link先を確認
Zhaoyang Zhang, Yantao Shen, Kunyu Shi, Zhaowei Cai, Jun Fang, Siqi Deng, Hao Yang, Davide Modolo, Zhuowen Tu, Stefano Soatto, (参考訳) 我々は,全てのタスクでパラメータを共同で訓練し,複数の異種タスク間で完全に共有する視覚言語モデルを提案する。 不均一なタスクにまたがる知識の統合は、タスク説明プロンプト(TEP)と呼ばれる新しい機能によって実現される。 タスク入力/出力フォーマットなどのリッチで構造化された情報により、TEPはタスク間の干渉を減らし、モデルが共有構造に集中できるようにする。 単一のモデルで、Musteteerは単一のタスクでトレーニングされた強いベースラインに匹敵する結果を得る。

We present a vision-language model whose parameters are jointly trained on all tasks and fully shared among multiple heterogeneous tasks which may interfere with each other, resulting in a single model which we named Musketeer. The integration of knowledge across heterogeneous tasks is enabled by a novel feature called Task Explanation Prompt (TEP). With rich and structured information such as task input/output format, TEP reduces interference among tasks, allowing the model to focus on their shared structure. With a single model, Musketeer achieves results comparable to or better than strong baselines trained on single tasks, almost uniformly across multiple tasks.
公開日:2024-03-14
翻訳日:2024-03-19 07:42:00
# 短期軌跡予測のための蒸留知識

Distilling Knowledge for Short-to-Long Term Trajectory Prediction ( http://arxiv.org/abs/2305.08553v3 )

ライセンス: Link先を確認
Sourav Das, Guglielmo Camporese, Shaokang Cheng, Lamberto Ballan, (参考訳) 長期軌跡予測はコンピュータビジョン、機械学習、ロボット工学の分野において重要かつ困難な問題である。 1つの根本的な困難は、時間的地平線が大きくなるにつれてますます不確実で予測不可能になる軌道の進化であり、その後、問題の複雑さを増大させる。 そこで本稿では,学生ネットワークの長期軌跡予測を指導する短期軌跡モデル予測器の蒸留手法であるDi-Longを提案する。 学生ネットワークと相補的対象系列に対する許容された観測を理解できる全順序長が与えられた場合、学生と教師は、同じ全軌道上で定義された2つの異なる関連タスクを解決させる: 学生は短い順序を観察し、長い軌道を予測し、教師は長い順序を観察し、残りの短目標軌道を予測する。 教師の課題は不確実性が少なく,その正確な予測を用いて知識蒸留の枠組みを通じて学生を指導し,長期的な不確実性を軽減する。 実験の結果,提案手法は長期予測に有効であり,InD(Intersection Drone Dataset)とSDD(Stanford Drone Dataset)の最先端性能を実現する。

Long-term trajectory forecasting is an important and challenging problem in the fields of computer vision, machine learning, and robotics. One fundamental difficulty stands in the evolution of the trajectory that becomes more and more uncertain and unpredictable as the time horizon grows, subsequently increasing the complexity of the problem. To overcome this issue, in this paper, we propose Di-Long, a new method that employs the distillation of a short-term trajectory model forecaster that guides a student network for long-term trajectory prediction during the training process. Given a total sequence length that comprehends the allowed observation for the student network and the complementary target sequence, we let the student and the teacher solve two different related tasks defined over the same full trajectory: the student observes a short sequence and predicts a long trajectory, whereas the teacher observes a longer sequence and predicts the remaining short target trajectory. The teacher's task is less uncertain, and we use its accurate predictions to guide the student through our knowledge distillation framework, reducing long-term future uncertainty. Our experiments show that our proposed Di-Long method is effective for long-term forecasting and achieves state-of-the-art performance on the Intersection Drone Dataset (inD) and the Stanford Drone Dataset (SDD).
公開日:2024-03-15
翻訳日:2024-03-19 07:42:00
# 工学的アンシラリセットによる量子状態生成

Quantum state preparation via engineered ancilla resetting ( http://arxiv.org/abs/2305.08641v3 )

ライセンス: Link先を確認
Daniel Alcalde Puente, Felix Motzoi, Tommaso Calarco, Giovanna Morigi, Matteo Rizzi, (参考訳) 本研究では, フラストレーションのない親ハミルトニアンの基底状態を作成するために, 周期量子リセットを組み込んだプロトコルの有効性について検討する。 このプロトコルでは、ハミルトニアンを操り、システムとアシラリー自由度の間の局所的な結合を可能にする。 周期的な間隔で、補助システムは初期状態にリセットされる。 無限に短いリセット時間に対して、この力学は、定常状態が目標状態であるリンドブラディアンによって近似することができる。 しかし、有限リセット時間の間、スピン鎖とアンシラはリセット操作の間に絡み合う。 プロトコルの性能を評価するため,我々は,スピン-1 Affleck-Kennedy-Lieb-Tasaki状態の作成に焦点をあてて,行列積状態シミュレーションと量子軌道法を用いている。 我々の分析は、異なるリセット間隔下での収束時間、忠実度、エネルギー進化を考察する。 以上の結果から,アンシラ系の絡み合いはより高速な収束に不可欠であることが示唆された。 特に、プロトコルが最高に機能する最適なリセット時間が存在する。 簡単な近似を用いて、リセット手順中にシステムに適用されたマッピング演算子を最適に選択する方法の知見を提供する。 さらに、このプロトコルは、リセット時間とデフォーカスノイズの小さな偏差に対して顕著なレジリエンスを示す。 我々の研究は、量子リセットを用いたストロボスコピックマップが、マルコフ力学に依存する量子貯水池工学や量子状態ステアリングプロトコルといった代替手法よりも有利である可能性を示唆している。

In this theoretical investigation, we study the effectiveness of a protocol that incorporates periodic quantum resetting to prepare ground states of frustration-free parent Hamiltonians. This protocol uses a steering Hamiltonian that enables local coupling between the system and ancillary degrees of freedom. At periodic intervals, the ancillary system is reset to its initial state. For infinitesimally short reset times, the dynamics can be approximated by a Lindbladian whose steady state is the target state. For finite reset times, however, the spin chain and the ancilla become entangled between reset operations. To evaluate the performance of the protocol, we employ Matrix Product State simulations and quantum trajectory techniques, focusing on the preparation of the spin-1 Affleck-Kennedy-Lieb-Tasaki state. Our analysis considers convergence time, fidelity, and energy evolution under different reset intervals. Our numerical results show that ancilla system entanglement is essential for faster convergence. In particular, there exists an optimal reset time at which the protocol performs best. Using a simple approximation, we provide insights into how to optimally choose the mapping operators applied to the system during the reset procedure. Furthermore, the protocol shows remarkable resilience to small deviations in reset time and dephasing noise. Our study suggests that stroboscopic maps using quantum resetting may offer advantages over alternative methods, such as quantum reservoir engineering and quantum state steering protocols, which rely on Markovian dynamics.
公開日:2024-03-15
翻訳日:2024-03-19 07:42:00
# アノテーションの課題:ウェアラブルセンサからのIn situおよびSelf-Recallアクティビティアノテーションに関する実証的研究

A Matter of Annotation: An Empirical Study on In Situ and Self-Recall Activity Annotations from Wearable Sensors ( http://arxiv.org/abs/2305.08752v2 )

ライセンス: Link先を確認
Alexander Hoelzemann, Kristof Van Laerhoven, (参考訳) ウェアラブルセンサーから人間の活動を検出する研究は、フィットネスコーチングから手作業プロセスの合理化に至るまで、多くの応用の恩恵を受け、非常に活発な分野である。 そこで本研究では,ユーザ研究でよく使われている4種類のアノテーション手法を比較し,その対象データに焦点をあてた実証的研究を行う。 これらのメソッドはユーザ主導のin situアノテーション – アクティビティの前後に実行される – とリコールメソッド – にグループ化することができる。 本研究は,異なるラベル付け手法がアノテーションの品質や,データで訓練されたディープラーニング分類器の能力に直接影響を及ぼすことを示す。 In situ法はリコール法よりも精度の低いラベルを生成することに気づいた。 さらに,アクティビティダイアログと可視化ツールを組み合わせることで,参加者のアクティビティデータの検査とラベル付けを可能にした。 このようなツールの導入により、欠落したアノテーションを減らし、アノテーションの一貫性を高めることができ、深層学習モデルのF1スコアは最大8%向上した(82.1から90.4%のF1スコア)。 さらに,本研究と比較した手法の利点と欠点,導入可能なバイアス,人間の活動認識研究における使用結果,および可能な解決策について考察した。

Research into the detection of human activities from wearable sensors is a highly active field, benefiting numerous applications, from ambulatory monitoring of healthcare patients via fitness coaching to streamlining manual work processes. We present an empirical study that compares 4 different commonly used annotation methods utilized in user studies that focus on in-the-wild data. These methods can be grouped in user-driven, in situ annotations - which are performed before or during the activity is recorded - and recall methods - where participants annotate their data in hindsight at the end of the day. Our study illustrates that different labeling methodologies directly impact the annotations' quality, as well as the capabilities of a deep learning classifier trained with the data respectively. We noticed that in situ methods produce less but more precise labels than recall methods. Furthermore, we combined an activity diary with a visualization tool that enables the participant to inspect and label their activity data. Due to the introduction of such a tool were able to decrease missing annotations and increase the annotation consistency, and therefore the F1-score of the deep learning model by up to 8% (ranging between 82.1 and 90.4% F1-score). Furthermore, we discuss the advantages and disadvantages of the methods compared in our study, the biases they may could introduce and the consequences of their usage on human activity recognition studies and as well as possible solutions.
公開日:2024-03-15
翻訳日:2024-03-19 07:42:00
# コンクリート量子チャネルと抽象量子チャネルの代数構造

Concrete Quantum Channels and Algebraic Structure of Abstract Quantum Channels ( http://arxiv.org/abs/2305.11471v2 )

ライセンス: Link先を確認
M. N. N. Namboodiri, (参考訳) 本稿では、ホレボ表現を持つ全ての量子チャネルとその部分集合の代数的構造を解析する。 写像の構成によるこれらの半群の正則性は解析される。 これらの集合はコンパクト凸集合であり、したがって幾何学に富むことも知られている。 一般化された非可逆チャネルと等等性チャネルを識別する試みが行われた。 チャネルがホレボ型である場合、これらの2つの問題はこの記事で完全に研究されている。 本研究の背景には, チャネル変換の可逆性の適用性, 資源破壊チャネルの最近の発展等がある。 これは量子情報理論における符号化問題と関連している。 数値線形代数において、プレコンディショナーを行列に割り当てるプレコンディショナー写像の主な例を含むいくつかの例が提供されるが、既知のプレコンディショナー写像は有限次元の量子チャネルと見なされる。

This article analyzes the algebraic structure of the set of all quantum channels and its subset consisting of quantum channels that have Holevo representation. The regularity of these semigroups under composition of mappings are analysed. It is also known that these sets are compact convex sets and, therefore, rich in geometry. An attempt is made to identify generalized invertible channels and also the idempotent channels. When channels are of the Holevo type, these two problems are fully studied in this article. The motivation behind this study is its applicability to the reversibility of channel transformations and recent developments in resource-destroying channels, which are idempotents. This is related to the coding-encoding problem in quantum information theory. Several examples are provided, with the main examples coming from pre-conditioner maps which assigns preconditioners to matrices, in numerical linear algebra.Thus the known pre-conditioner maps are viewd as a quantum-channel in finite dimentions.
公開日:2024-03-15
翻訳日:2024-03-19 07:42:00
# Neyman-Pearson 試験による適合性の良さ

Goodness of fit by Neyman-Pearson testing ( http://arxiv.org/abs/2305.14137v2 )

ライセンス: Link先を確認
Gaia Grosso, Marco Letizia, Maurizio Pierini, Andrea Wulzer, (参考訳) 仮説テストのためのナイマン・ピアソンの戦略は、統計変動の影響を制御しながら、リッチなパラメトリドモデルのファミリーを探索することによって、データから代替仮説が選択される場合、適合性のために用いられる。 新しい物理学習機械(NPLM)手法は、高エネルギー物理コライダー実験の文脈における新しい物理効果の検出を目的とした、このアイデアの具体的実装として開発された。 本稿では,NPLMと強い類似性を持つ分類器ベースの戦略と,他の手法との適合性を比較検討する。 以上の結果から,NPLMはより敏感な検査として,予測分布からデータを取り除き,特定の種類の異常の検出に偏りがないことが示唆された。 これらの特徴は、コライダー実験における新しい物理学の発見に適している。 その他の科学的・工業的なシナリオへの展開について検討する必要がある。

The Neyman-Pearson strategy for hypothesis testing can be employed for goodness of fit if the alternative hypothesis is selected from data by exploring a rich parametrised family of models, while controlling the impact of statistical fluctuations. The New Physics Learning Machine (NPLM) methodology has been developed as a concrete implementation of this idea, to target the detection of new physical effects in the context of high energy physics collider experiments. In this paper we conduct a comparison of this approach to goodness of fit with others, in particular with classifier-based strategies that share strong similarities with NPLM. From our comparison, NPLM emerges as the more sensitive test to small departures of the data from the expected distribution and not biased towards detecting specific types of anomalies. These features make it suited for agnostic searches for new physics at collider experiments. Its deployment in other scientific and industrial scenarios should be investigated.
公開日:2024-03-15
翻訳日:2024-03-19 07:42:00
# 長文のためのニューラル自然言語処理:分類と要約に関する調査

Neural Natural Language Processing for Long Texts: A Survey on Classification and Summarization ( http://arxiv.org/abs/2305.16259v6 )

ライセンス: Link先を確認
Dimitrios Tsirmpas, Ioannis Gkionis, Georgios Th. Papadopoulos, Ioannis Mademlis, (参考訳) ディープニューラルネットワーク(DNN)の採用は、過去10年間に自然言語処理(NLP)に大きな恩恵をもたらしてきた。 しかし、長文解析の要求は短いテキストの要求とはかなり異なるが、オンラインにアップロードされた文書のサイズが増大すると、長文の自動理解が重要な問題となる。 関連するアプリケーションは、自動化されたWebマイニング、法的文書レビュー、医療記録分析、財務報告分析、契約管理、環境影響評価、ニュース集約などである。 長い文書を解析するための効率的なアルゴリズムが近年開発されているにもかかわらず、この分野の実践的ツールは現在盛んである。 この記事では、この動的ドメインのエントリポイントとして機能し、2つの目的を達成することを目的としています。 まず第一に、関連するニューラルネットワーク構築ブロックの入門的な概要を提供し、フィールドの簡潔なチュートリアルとして機能する。 第2に、文書分類と文書要約の2つの重要な長文文書解析タスクにおいて、最先端技術の現状を簡潔に検証する。 典型的には文書分類の特定の事例として扱われるので、長文の感性分析もカバーされている。 そこで本論文では,文書レベルの分析の序文として,主要な課題,関心事,既存ソリューションについて考察する。 最後に、"long text/document"の簡潔な定義を提供し、長いドキュメント分析のために共通のディープ・ニューラル・メソッドのオリジナルの包括的な分類を示し、この領域でさらなる研究を促進するために利用可能な注釈付きデータセットのリストを提供する。

The adoption of Deep Neural Networks (DNNs) has greatly benefited Natural Language Processing (NLP) during the past decade. However, the demands of long document analysis are quite different from those of shorter texts, while the ever increasing size of documents uploaded online renders automated understanding of lengthy texts a critical issue. Relevant applications include automated Web mining, legal document review, medical records analysis, financial reports analysis, contract management, environmental impact assessment, news aggregation, etc. Despite the relatively recent development of efficient algorithms for analyzing long documents, practical tools in this field are currently flourishing. This article serves as an entry point into this dynamic domain and aims to achieve two objectives. First of all, it provides an introductory overview of the relevant neural building blocks, serving as a concise tutorial for the field. Secondly, it offers a brief examination of the current state-of-the-art in two key long document analysis tasks: document classification and document summarization. Sentiment analysis for long texts is also covered, since it is typically treated as a particular case of document classification. Consequently, this article presents an introductory exploration of document-level analysis, addressing the primary challenges, concerns, and existing solutions. Finally, it offers a concise definition of "long text/document", presents an original overarching taxonomy of common deep neural methods for long document analysis and lists publicly available annotated datasets that can facilitate further research in this area.
公開日:2024-03-15
翻訳日:2024-03-19 07:42:00
# 雑音入力による二重発振と過度整合と線形復調器の配電シフト

Double Descent and Overfitting under Noisy Inputs and Distribution Shift for Linear Denoisers ( http://arxiv.org/abs/2305.17297v3 )

ライセンス: Link先を確認
Chinmaya Kausik, Kashvi Srivastava, Rishi Sonthalia, (参考訳) 現代の機械学習における認知論の重要性と教師付き認知論に関する経験的な研究にもかかわらず、その理論的理解はいまだに乏しい。 教師付きdenoisingを研究することの1つの懸念は、テスト分布からのノイズレストレーニングデータが常に存在するとは限らないことである。 テストデータセットとは異なるデータセットからノイズレストレーニングデータにアクセスするのは、より合理的である。 そこで本研究では,分散シフト下での教師付きノイズ除去とノイズインプット回帰について検討した。 実生活データや現代の機械学習への理論的洞察の適用性を高めるために、3つの考慮事項を追加します。 第一に、過去の理論的な研究は、データ共分散行列が完全ランクで十分に条件付けされていると仮定しているが、実生活データは概して低ランクであることを示した経験的研究である。 したがって、我々のデータ行列は低ランクであると仮定する。 第2に、データの独立性の前提を下げます。 第三に、計算力の増大とデータの次元性は、非古典的な学習体制の研究を重要視している。 したがって、データ次元$d$とサンプル数$N$が$d/N = c + o(1)$として成長する非古典的比例法で作業する。 この設定では, 雑音の重なりが良さ, 誘惑性, 破滅的である場合, ノイズの重なりについて検討する。 テスト誤差は、一般分布シフトの下で二重降下を示し、データ拡張と暗黙の正規化器としてのノイズの役割についての洞察を提供する。 また、実生活データを用いて実験を行い、低ランクデータに対する理論予測を1\% MSE誤差で一致させる。

Despite the importance of denoising in modern machine learning and ample empirical work on supervised denoising, its theoretical understanding is still relatively scarce. One concern about studying supervised denoising is that one might not always have noiseless training data from the test distribution. It is more reasonable to have access to noiseless training data from a different dataset than the test dataset. Motivated by this, we study supervised denoising and noisy-input regression under distribution shift. We add three considerations to increase the applicability of our theoretical insights to real-life data and modern machine learning. First, while most past theoretical work assumes that the data covariance matrix is full-rank and well-conditioned, empirical studies have shown that real-life data is approximately low-rank. Thus, we assume that our data matrices are low-rank. Second, we drop independence assumptions on our data. Third, the rise in computational power and dimensionality of data have made it important to study non-classical regimes of learning. Thus, we work in the non-classical proportional regime, where data dimension $d$ and number of samples $N$ grow as $d/N = c + o(1)$. For this setting, we derive data-dependent, instance specific expressions for the test error for both denoising and noisy-input regression, and study when overfitting the noise is benign, tempered or catastrophic. We show that the test error exhibits double descent under general distribution shift, providing insights for data augmentation and the role of noise as an implicit regularizer. We also perform experiments using real-life data, where we match the theoretical predictions with under 1\% MSE error for low-rank data.
公開日:2024-03-14
翻訳日:2024-03-19 07:42:00
# 逆適応サンプリング:PDEの近似のためのPINNと最適輸送の統合

Adversarial Adaptive Sampling: Unify PINN and Optimal Transport for the Approximation of PDEs ( http://arxiv.org/abs/2305.18702v2 )

ライセンス: Link先を確認
Kejun Tang, Jiayu Zhai, Xiaoliang Wan, Chao Yang, (参考訳) 偏微分方程式(PDE)の解法は、科学計算における中心的な課題である。 近年、メッシュレスのフレキシブルな離散化と高次元問題の可能性により、PDEのニューラルネットワーク近似が注目されている。 1つの基本的な数値的な困難は、トレーニングセットのランダムなサンプルは、損失関数の離散化に統計的誤差を導入し、最終近似において支配的な誤差となり、したがってニューラルネットワークのモデリング能力を覆す。 本研究では,ニューラルネットワークモデルによって与えられる近似解と,深部生成モデルによって提供されるトレーニングセット内のランダムサンプルを同時に最適化する,minmaxの新たな定式化を提案する。 鍵となる考え方は、深層生成モデルを用いてトレーニングセット内のランダムサンプルを調整し、近似PDE解によって誘導される残差が最小化されるときに滑らかなプロファイルを維持することである。 そのようなアイデアは、残留誘起分布と一様分布の間のワッサーシュタイン距離を損失に暗黙的に埋め込むことによって達成され、残余とともに最小化される。 ほぼ均一な残差プロファイルは、その分散が任意の正規化重み関数に対して小さいことを意味するので、損失関数のモンテカルロ近似誤差は特定のサンプルサイズに対して著しく減少する。 本研究で提案される対向適応サンプリング(英語版)(AAS)アプローチは、残差を最小化し最適なトレーニングセットを求める2つの必須成分をPDEのニューラルネットワーク近似のための1つの最小目標関数に定式化する最初の試みである。

Solving partial differential equations (PDEs) is a central task in scientific computing. Recently, neural network approximation of PDEs has received increasing attention due to its flexible meshless discretization and its potential for high-dimensional problems. One fundamental numerical difficulty is that random samples in the training set introduce statistical errors into the discretization of loss functional which may become the dominant error in the final approximation, and therefore overshadow the modeling capability of the neural network. In this work, we propose a new minmax formulation to optimize simultaneously the approximate solution, given by a neural network model, and the random samples in the training set, provided by a deep generative model. The key idea is to use a deep generative model to adjust random samples in the training set such that the residual induced by the approximate PDE solution can maintain a smooth profile when it is being minimized. Such an idea is achieved by implicitly embedding the Wasserstein distance between the residual-induced distribution and the uniform distribution into the loss, which is then minimized together with the residual. A nearly uniform residual profile means that its variance is small for any normalized weight function such that the Monte Carlo approximation error of the loss functional is reduced significantly for a certain sample size. The adversarial adaptive sampling (AAS) approach proposed in this work is the first attempt to formulate two essential components, minimizing the residual and seeking the optimal training set, into one minmax objective functional for the neural network approximation of PDEs.
公開日:2024-03-15
翻訳日:2024-03-19 07:42:00
# ゼロから乱流へ:3次元流れシミュレーションのための生成モデル

From Zero to Turbulence: Generative Modeling for 3D Flow Simulation ( http://arxiv.org/abs/2306.01776v3 )

ライセンス: Link先を確認
Marten Lienen, David Lüdke, Jan Hansen-Palmus, Stephan Günnemann, (参考訳) 3Dにおける乱流のシミュレーションは計算流体力学(CFD)において最も高価なシミュレーションの1つである。 流体の数値解法を高速で学習された自己回帰モデルに置き換えるために、サロゲートモデルに関する多くの研究が書かれてきた。 しかし、3次元での乱流の複雑さは、これらのモデルを非常に小さな時間ステップでトレーニングする必要がある一方で、現実的なフロー状態を生成するには、多くのステップで長いロールアウトが必要になる。 その代わり, 乱流シミュレーションを, 初期流れの状態に頼らずに, 可能な全ての乱流状態の多様体を直接学習する生成タスクとして提案する。 本実験では,高分解能流れの3次元乱流データセットと各種物体による渦構造の詳細な解析を行い,乱流に対する2つの新しいサンプル評価指標を導出する。 本データセットでは, 生成モデルを用いて, 未確認物体による乱流の分布を把握し, 初期状態にアクセスせずに下流アプリケーションに適用可能な, 高品質で現実的なサンプルを生成する。

Simulations of turbulent flows in 3D are one of the most expensive simulations in computational fluid dynamics (CFD). Many works have been written on surrogate models to replace numerical solvers for fluid flows with faster, learned, autoregressive models. However, the intricacies of turbulence in three dimensions necessitate training these models with very small time steps, while generating realistic flow states requires either long roll-outs with many steps and significant error accumulation or starting from a known, realistic flow state - something we aimed to avoid in the first place. Instead, we propose to approach turbulent flow simulation as a generative task directly learning the manifold of all possible turbulent flow states without relying on any initial flow state. For our experiments, we introduce a challenging 3D turbulence dataset of high-resolution flows and detailed vortex structures caused by various objects and derive two novel sample evaluation metrics for turbulent flows. On this dataset, we show that our generative model captures the distribution of turbulent flows caused by unseen objects and generates high-quality, realistic samples amenable for downstream applications without access to any initial state.
公開日:2024-03-14
翻訳日:2024-03-19 07:42:00
# マッピングアシスタントとしてのChatGPT:ストリートレベルの画像から得られた生成AIとコンテンツで地図を豊かにする新しい方法

ChatGPT as a mapping assistant: A novel method to enrich maps with generative AI and content derived from street-level photographs ( http://arxiv.org/abs/2306.03204v2 )

ライセンス: Link先を確認
Levente Juhász, Peter Mooney, Hartwig H. Hochmair, Boyuan Guan, (参考訳) 本稿では,コラボレーティブマッピングの効率を高めるために,生成AIをマッピングアシスタントとして活用するという概念について検討する。 本稿では,ボランティア地理情報(VGI)と大規模言語モデル(LLM)を組み合わせた実験結果について述べる。 3人のアナリストは、フロリダ州マイアミの小さなテストエリアで道路に沿って撮影されたクラウドソースのMapillaryストリートレベルの写真の内容について説明した。 GPT-3.5-turbo は OpenStreetMap (OSM) で各道路に最適なタグ付けを提案するように指示された。 この研究は、人間の分析に加え、ストリートレベルの写真の人為的分析として、最先端のマルチモーダル事前学習手法であるBLIP-2の利用についても検討した。 その結果,(1)ソース画像のより詳細な記述を提供すること,(2)プロンプトエンジニアリングと追加のコンテキスト(例えば,道路に沿って検出された位置や物体)を組み合わせることで,AIモデルを変更することなく,マッピング提案の精度を効果的に向上する2つの方法が示された。 第1のアプローチでは提案精度を最大29%、第2のアプローチでは最大20%向上する。

This paper explores the concept of leveraging generative AI as a mapping assistant for enhancing the efficiency of collaborative mapping. We present results of an experiment that combines multiple sources of volunteered geographic information (VGI) and large language models (LLMs). Three analysts described the content of crowdsourced Mapillary street-level photographs taken along roads in a small test area in Miami, Florida. GPT-3.5-turbo was instructed to suggest the most appropriate tagging for each road in OpenStreetMap (OSM). The study also explores the utilization of BLIP-2, a state-of-the-art multimodal pre-training method as an artificial analyst of street-level photographs in addition to human analysts. Results demonstrate two ways to effectively increase the accuracy of mapping suggestions without modifying the underlying AI models: by (1) providing a more detailed description of source photographs, and (2) combining prompt engineering with additional context (e.g. location and objects detected along a road). The first approach increases the suggestion accuracy by up to 29%, and the second one by up to 20%.
公開日:2024-03-15
翻訳日:2024-03-19 07:42:00
# ScoreCL: スコアマッチング機能による拡張適応型コントラスト学習

ScoreCL: Augmentation-Adaptive Contrastive Learning via Score-Matching Function ( http://arxiv.org/abs/2306.04175v2 )

ライセンス: Link先を確認
Jin-Young Kim, Soonwoo Kwon, Hyojun Go, Yunsung Lee, Seungtaek Choi, (参考訳) 自己教師付きコントラスト学習(CL)は、正のペア間の距離を最小化し、負のペア間の距離を最大化し、表現学習における最先端のパフォーマンスを達成した。 近年,モデルが多彩な正のペアでより良い表現を学習することが確認されている。 しかし、CLに関するいくつかの研究は、拡張的な視点の違いを考慮し、手作りの知見を超えていない。 本稿では、まず、スコアマッチング関数が、元のデータから拡張までの変化量を測定することができることを観察する。 観測特性により、CL内の各ペアはスコア値の差により適応的に重み付けが可能となり、既存のCL法の性能が向上する。 我々は,CIFAR-10,CIFAR-100,ImageNet-100のk-NN評価において,SimCLR,SimSiam,W-MSE,VICRegの様々なCL法を一貫して改良し,ScoreCLと呼ばれる手法の一般性を示す。 さらに,様々な下流タスクの結果,ベースラインとの比較,および他の拡張手法を用いた場合の改善など,徹底的な実験と改善を実施してきた。 CLのスコアマッチングを利用したさらなる研究が期待できる。

Self-supervised contrastive learning (CL) has achieved state-of-the-art performance in representation learning by minimizing the distance between positive pairs while maximizing that of negative ones. Recently, it has been verified that the model learns better representation with diversely augmented positive pairs because they enable the model to be more view-invariant. However, only a few studies on CL have considered the difference between augmented views, and have not gone beyond the hand-crafted findings. In this paper, we first observe that the score-matching function can measure how much data has changed from the original through augmentation. With the observed property, every pair in CL can be weighted adaptively by the difference of score values, resulting in boosting the performance of the existing CL method. We show the generality of our method, referred to as ScoreCL, by consistently improving various CL methods, SimCLR, SimSiam, W-MSE, and VICReg, up to 3%p in k-NN evaluation on CIFAR-10, CIFAR-100, and ImageNet-100. Moreover, we have conducted exhaustive experiments and ablations, including results on diverse downstream tasks, comparison with possible baselines, and improvement when used with other proposed augmentation methods. We hope our exploration will inspire more research in exploiting the score matching for CL.
公開日:2024-03-15
翻訳日:2024-03-19 07:42:00
# アルゴリズムフェアネスの7年間の非処理

Unprocessing Seven Years of Algorithmic Fairness ( http://arxiv.org/abs/2306.07261v5 )

ライセンス: Link先を確認
André F. Cruz, Moritz Hardt, (参考訳) 7年前、研究者は、異なる人口集団にわたるモデルのエラー率を等化するためのポストプロセッシング手法を提案した。 作業は後処理のベースラインを改善するために数百の論文を発行した。 いくつかの表付きデータセット上で数千のモデル評価を行うことで,これらの主張を実証的に評価する。 ポストプロセッシングによって達成されたフェアネス精度のParetoフロンティアには、評価可能な他の方法がすべて含まれていることが分かりました。 そこで本研究では,従来の観測結果から得られた2つの一般的な方法論的誤りに対処する。 1つは、異なる制約のないベースモデルとのメソッドの比較に関するものである。 他の関心事は、異なるレベルの制約緩和を達成する方法である。 私たちの研究の中心は、ポストプロセッシングの逆に対応するアンプロセッシング(unprocessing)と呼ばれる単純なアイデアです。 アンプロセッシングは、異なる基礎モデルと緩和レベルを用いたメソッドの直接比較を可能にする。

Seven years ago, researchers proposed a postprocessing method to equalize the error rates of a model across different demographic groups. The work launched hundreds of papers purporting to improve over the postprocessing baseline. We empirically evaluate these claims through thousands of model evaluations on several tabular datasets. We find that the fairness-accuracy Pareto frontier achieved by postprocessing contains all other methods we were feasibly able to evaluate. In doing so, we address two common methodological errors that have confounded previous observations. One relates to the comparison of methods with different unconstrained base models. The other concerns methods achieving different levels of constraint relaxation. At the heart of our study is a simple idea we call unprocessing that roughly corresponds to the inverse of postprocessing. Unprocessing allows for a direct comparison of methods using different underlying models and levels of relaxation.
公開日:2024-03-15
翻訳日:2024-03-19 07:42:00
# 拡散モデルを用いた3次元アノテーションによる画像生成

Generating Images with 3D Annotations Using Diffusion Models ( http://arxiv.org/abs/2306.08103v3 )

ライセンス: Link先を確認
Wufei Ma, Qihao Liu, Jiahao Wang, Angtian Wang, Xiaoding Yuan, Yi Zhang, Zihao Xiao, Guofeng Zhang, Beijia Lu, Ruxiao Duan, Yongrui Qi, Adam Kortylewski, Yaoyao Liu, Alan Yuille, (参考訳) 拡散モデルは強力な生成法として登場し、自然言語の記述から素晴らしい写真リアル画像を生成することができる。 しかし、これらのモデルでは生成された画像の3D構造を明示的に制御することができない。 これにより、生成された画像の詳細な3Dアノテーションを入手したり、特定のポーズと距離でインスタンスを作れなくなる。 本稿では,3次元幾何制御を拡散モデルに組み込んだ3次元拡散スタイル転送(3D-DST)を提案する。 提案手法は,テキストプロンプトに加えて視覚的プロンプトを用いて拡散モデルを拡張する制御ネットを利用する。 我々は3D形状リポジトリー~(eg, ShapeNet, Objaverse)から抽出した3Dオブジェクトの画像を生成し、様々なポーズや方向からレンダリングし、レンダリングされた画像のエッジマップを計算し、これらのエッジマップを視覚的プロンプトとして使用し、現実的な画像を生成する。 明示的な3次元幾何制御により、生成した画像中のオブジェクトの3次元構造を容易に変更でき、グラウンドトルース3Dアノテーションを自動で取得できる。 これにより、例えば分類や3次元ポーズ推定といった幅広い視覚タスクを、内分布(ID)と外分布(OOD)の両方で改善することができる。 我々は,ImageNet-100/200, ImageNet-R, PASCAL3D+, ObjectNet3D, OOD-CV の広範な実験により提案手法の有効性を実証した。 その結果,DeiT-Bを用いたImageNet-100では既存の手法よりも3.8ポイント優れていた。

Diffusion models have emerged as a powerful generative method, capable of producing stunning photo-realistic images from natural language descriptions. However, these models lack explicit control over the 3D structure in the generated images. Consequently, this hinders our ability to obtain detailed 3D annotations for the generated images or to craft instances with specific poses and distances. In this paper, we propose 3D Diffusion Style Transfer (3D-DST), which incorporates 3D geometry control into diffusion models. Our method exploits ControlNet, which extends diffusion models by using visual prompts in addition to text prompts. We generate images of the 3D objects taken from 3D shape repositories~(e.g., ShapeNet and Objaverse), render them from a variety of poses and viewing directions, compute the edge maps of the rendered images, and use these edge maps as visual prompts to generate realistic images. With explicit 3D geometry control, we can easily change the 3D structures of the objects in the generated images and obtain ground-truth 3D annotations automatically. This allows us to improve a wide range of vision tasks, e.g., classification and 3D pose estimation, in both in-distribution (ID) and out-of-distribution (OOD) settings. We demonstrate the effectiveness of our method through extensive experiments on ImageNet-100/200, ImageNet-R, PASCAL3D+, ObjectNet3D, and OOD-CV. The results show that our method significantly outperforms existing methods, e.g., 3.8 percentage points on ImageNet-100 using DeiT-B.
公開日:2024-03-15
翻訳日:2024-03-19 07:42:00
# 断続的に観測可能な熱時間

Thermal time as an unsharp observable ( http://arxiv.org/abs/2306.13774v2 )

ライセンス: Link先を確認
Jan van Neerven, Pierre Portal, (参考訳) 量子調和振動子に付随するConnes-Rovelli熱時間は(非シャープ)観測可能、すなわち正の演算子値測定値として記述できることを示す。 さらに、この結果を1次元の自由質量を持たない相対論的粒子や、非可換積分によって平衡状態が与えられる仮説物理系に拡張する。

We show that the Connes-Rovelli thermal time associated with the quantum harmonic oscillator can be described as an (unsharp) observable, that is, as a positive operator valued measure. We furthermore present extensions of this result to the free massless relativistic particle in one dimension and to a hypothetical physical system whose equilibrium state is given by the noncommutative integral.
公開日:2024-03-15
翻訳日:2024-03-19 07:32:15
# 高次タスク親和性によるグラフ上でのマルチタスク学習の促進

Boosting Multitask Learning on Graphs through Higher-Order Task Affinities ( http://arxiv.org/abs/2306.14009v4 )

ライセンス: Link先を確認
Dongyue Li, Haotian Ju, Aneesh Sharma, Hongyang R. Zhang, (参考訳) 与えられたグラフ上のノードラベルの予測は、コミュニティ検出や分子グラフ予測など、多くのアプリケーションにおいて広く研究されている問題である。 本稿では,グラフ上の複数のノードラベリング関数を同時に予測し,マルチタスク学習の観点からこの問題を再考する。 各コミュニティメンバシップはバイナリノード分類タスクである。 マルチタスク学習を複数のコミュニティ検出に適用した場合,タスク関係はノードのラベル付けによって非常に非線形であるため,複雑な重複パターンにより負の移動が頻繁に発生する。 この課題に対処するため,高次タスク親和性尺度に基づくグループにタスクをクラスタリングするアルゴリズムを開発した。 次に,各タスク群にマルチタスクモデルを適用し,ベースラインモデル上での強化処理を行う。 本研究では,2つのタスク間の高次タスク親和性尺度を,他のタスクの存在下での1つのタスクの予測損失と,他のタスクのランダムなサブセットとして推定する。 次に、親和性スコア行列上のスペクトルクラスタリングを用いてタスクグループ化を同定する。 我々は高次アフィニティスコアを効率的に計算し、負の遷移をペアのタスク親和性よりも正確に予測できることを示すために、いくつかの高速化手法を設計する。 提案手法は,様々なコミュニティ検出と分子グラフ予測データセットを用いて検証し,既存の手法と比較して良好な結果を示した。 最後に、グラフ上のタスクの植込みブロックモデルの下では、アフィニティスコアが確実にタスクをグループに分割できることを示す理論的分析を提供する。

Predicting node labels on a given graph is a widely studied problem with many applications, including community detection and molecular graph prediction. This paper considers predicting multiple node labeling functions on graphs simultaneously and revisits this problem from a multitask learning perspective. For a concrete example, consider overlapping community detection: each community membership is a binary node classification task. Due to complex overlapping patterns, we find that negative transfer is prevalent when we apply naive multitask learning to multiple community detection, as task relationships are highly nonlinear across different node labeling. To address the challenge, we develop an algorithm to cluster tasks into groups based on a higher-order task affinity measure. We then fit a multitask model on each task group, resulting in a boosting procedure on top of the baseline model. We estimate the higher-order task affinity measure between two tasks as the prediction loss of one task in the presence of another task and a random subset of other tasks. Then, we use spectral clustering on the affinity score matrix to identify task grouping. We design several speedup techniques to compute the higher-order affinity scores efficiently and show that they can predict negative transfers more accurately than pairwise task affinities. We validate our procedure using various community detection and molecular graph prediction data sets, showing favorable results compared with existing methods. Lastly, we provide a theoretical analysis to show that under a planted block model of tasks on graphs, our affinity scores can provably separate tasks into groups.
公開日:2024-03-14
翻訳日:2024-03-19 07:32:15
# ステレオマッチングのための適応型多モードクロスエントロピー損失

Adaptive Multi-Modal Cross-Entropy Loss for Stereo Matching ( http://arxiv.org/abs/2306.15612v2 )

ライセンス: Link先を確認
Peng Xu, Zhiyu Xiang, Chenyu Qiao, Jingyun Fu, Tianyu Pu, (参考訳) ステレオマッチングにおけるディープラーニングの大きな成功にもかかわらず、正確な格差マップの復元は依然として困難である。 現在、L1とクロスエントロピーはステレオネットワークトレーニングにおいて最も広く使われている2つの損失である。 前者と比較して、後者は確率モデリングとコストボリュームの直接監督により、通常より優れた性能を発揮する。 しかし、クロスエントロピー損失のための立体構造を正確にモデル化する方法はほとんど探索されていない。 既存の研究は、接地構造分布がユニモーダルであることを単純に仮定し、エッジピクセルの大半がマルチモーダルであるという事実を無視している。 本稿では,ADL(Adaptive Multi-modal Cross-Entropy Los)を提案する。 さらに, 差分推定器を最適化することにより, 推論における出血や誤認識を緩和する。 実験の結果,本手法は汎用的であり,従来のステレオネットワークが最先端の性能を取り戻すのに役立つことが示された。 特に,本手法を用いたGANetは,KITTI 2015 と 2012 のベンチマークでそれぞれ$ $1^{st}$ である。 一方、従来の損失を我々のものに置き換えることで、優れた合成と現実の一般化性能を実現することができる。

Despite the great success of deep learning in stereo matching, recovering accurate disparity maps is still challenging. Currently, L1 and cross-entropy are the two most widely used losses for stereo network training. Compared with the former, the latter usually performs better thanks to its probability modeling and direct supervision to the cost volume. However, how to accurately model the stereo ground-truth for cross-entropy loss remains largely under-explored. Existing works simply assume that the ground-truth distributions are uni-modal, which ignores the fact that most of the edge pixels can be multi-modal. In this paper, a novel adaptive multi-modal cross-entropy loss (ADL) is proposed to guide the networks to learn different distribution patterns for each pixel. Moreover, we optimize the disparity estimator to further alleviate the bleeding or misalignment artifacts in inference. Extensive experimental results show that our method is generic and can help classic stereo networks regain state-of-the-art performance. In particular, GANet with our method ranks $1^{st}$ on both the KITTI 2015 and 2012 benchmarks among the published methods. Meanwhile, excellent synthetic-to-realistic generalization performance can be achieved by simply replacing the traditional loss with ours.
公開日:2024-03-15
翻訳日:2024-03-19 07:32:15
# 投票に基づくマルチモーダル自動偽造検出

Voting-based Multimodal Automatic Deception Detection ( http://arxiv.org/abs/2307.07516v3 )

ライセンス: Link先を確認
Lana Touma, Mohammad Al Horani, Manar Tailouni, Anas Dahabiah, Khloud Al Jallad, (参考訳) 自動偽証検出は長い間ホットな研究トピックであり、機械学習とディープラーニングを使って偽証を自動的に検出し、この古い分野に新たな光をもたらす。 本稿では,音声,視覚的,語彙的特徴を用いたビデオからの自動偽造検出のための投票方式を提案する。 ミシガン大学のリアルライフトライアルデータセットとマイアミ大学の偽装検出データセットの2つのデータセットで実験が行われた。 ビデオサンプルは、画像、オーディオ、原稿のフレームに分割された。 我々の投票に基づくマルチモーダル・ソリューションは3つのモデルから成り立っている。 第1のモデルは画像から詐欺を検出するCNNであり、第2のモデルはMelスペクトログラム上のサポートベクトルマシン(SVM)であり、第3のモデルは原稿からの詐欺を検出するWord2Vec on Support Vector Machine(SVM)である。 提案手法は最先端のソリューションよりも優れている。 画像,音声,テキストで得られた最良の結果は,実生活試験データセットで97%,96%,97%,82%,動画,音声,テキストで73%であった。

Automatic Deception Detection has been a hot research topic for a long time, using machine learning and deep learning to automatically detect deception, brings new light to this old field. In this paper, we proposed a voting-based method for automatic deception detection from videos using audio, visual and lexical features. Experiments were done on two datasets, the Real-life trial dataset by Michigan University and the Miami University deception detection dataset. Video samples were split into frames of images, audio, and manuscripts. Our Voting-based Multimodal proposed solution consists of three models. The first model is CNN for detecting deception from images, the second model is Support Vector Machine (SVM) on Mel spectrograms for detecting deception from audio and the third model is Word2Vec on Support Vector Machine (SVM) for detecting deception from manuscripts. Our proposed solution outperforms state of the art. Best results achieved on images, audio and text were 97%, 96%, 92% respectively on Real-Life Trial Dataset, and 97%, 82%, 73% on video, audio and text respectively on Miami University Deception Detection.
公開日:2024-03-15
翻訳日:2024-03-19 07:32:15
# 自己整合性: 地中真実を伴わない因果発見の評価

Self-Compatibility: Evaluating Causal Discovery without Ground Truth ( http://arxiv.org/abs/2307.09552v2 )

ライセンス: Link先を確認
Philipp M. Faller, Leena Chennuru Vankadara, Atalanti A. Mastakouri, Francesco Locatello, Dominik Janzing, (参考訳) 因果的基底真理は非常に稀であるため、因果的発見アルゴリズムは一般的にシミュレーションデータでのみ評価される。 このことは、ノイズ分布やモデルクラスなどに関するプロセスの生成について、シミュレーションが先入観を反映していることに関係している。 本研究では,基底真理が欠如している場合に因果探索アルゴリズムの出力をfalsificationする新しい手法を提案する。 我々の重要な洞察は、統計的学習がデータポイントのサブセット間の安定性を求める一方で、因果学習は変数のサブセット間の安定性を求めるべきであるということである。 この知見により、本手法は変数の異なる部分集合で学習した因果グラフ間の整合性の概念に依存している。 本研究では,不整合性の検出が,仮定や誤差が有限なサンプル効果によって誤って因果関係を推定することを証明する。 このような整合性テストの通過は, 良好な性能を示す上で必要な基準に過ぎないが, 整合性が結合分布に強い影響を及ぼす場合, 因果関係モデルに対して強い証拠を与えると論じる。 また,不整合の検出が因果モデル選択に有効であることを示す。

As causal ground truth is incredibly rare, causal discovery algorithms are commonly only evaluated on simulated data. This is concerning, given that simulations reflect preconceptions about generating processes regarding noise distributions, model classes, and more. In this work, we propose a novel method for falsifying the output of a causal discovery algorithm in the absence of ground truth. Our key insight is that while statistical learning seeks stability across subsets of data points, causal learning should seek stability across subsets of variables. Motivated by this insight, our method relies on a notion of compatibility between causal graphs learned on different subsets of variables. We prove that detecting incompatibilities can falsify wrongly inferred causal relations due to violation of assumptions or errors from finite sample effects. Although passing such compatibility tests is only a necessary criterion for good performance, we argue that it provides strong evidence for the causal models whenever compatibility entails strong implications for the joint distribution. We also demonstrate experimentally that detection of incompatibilities can aid in causal model selection.
公開日:2024-03-15
翻訳日:2024-03-19 07:32:15
# 計測ショットノイズによる変分量子最適化の課題

Challenges of variational quantum optimization with measurement shot noise ( http://arxiv.org/abs/2308.00044v2 )

ライセンス: Link先を確認
Giuseppe Scriva, Nikita Astrakhantsev, Sebastiano Pilati, Guglielmo Mazzola, (参考訳) 古典的コスト関数の量子拡張最適化は、科学技術における高い潜在価値のために、量子コンピューティングの中心的なテーマである。 変分量子固有解法 (VQE) と量子近似最適化アルゴリズム (QAOA) は、ノイズ・中間スケール量子 (NISQ) 時代の最も有効な解である。 本稿では,要求回路繰り返し数として定義された量子資源のスケーリングを,問題の大きさが大きくなるにつれて一定の成功確率に達するために検討し,現実的な実装では避けられない計測ショットノイズが果たす役割に着目した。 単純で再現可能な問題、すなわち強磁性および不規則なイジング鎖に対処する。 私たちの結果はこう示しています。 (i)エネルギーベースオプティマイザを用いる場合、標準ヒューリスティックアンサッツのVQEは、直接ブルートフォースサーチに好適にスケールする。 性能は、グラデーションベースのオプティマイザを使用して、少なくとも2次的に改善される。 (II)パラメータがランダムな推測から最適化された場合、QAOAのスケーリングは、大きな問題のサイズに対して問題の多い長い絶対実行ランタイムを意味する。 三)QAOAは、パラメータの物理的に着想を得た初期化を補うと実用的になる。 この結果から,ハイブリッド量子古典アルゴリズムは古典的外ループの破壊力を回避する必要があるが,スマートパラメータの初期化に着目することが示唆された。

Quantum enhanced optimization of classical cost functions is a central theme of quantum computing due to its high potential value in science and technology. The variational quantum eigensolver (VQE) and the quantum approximate optimization algorithm (QAOA) are popular variational approaches that are considered the most viable solutions in the noisy-intermediate scale quantum (NISQ) era. Here, we study the scaling of the quantum resources, defined as the required number of circuit repetitions, to reach a fixed success probability as the problem size increases, focusing on the role played by measurement shot noise, which is unavoidable in realistic implementations. Simple and reproducible problem instances are addressed, namely, the ferromagnetic and disordered Ising chains. Our results show that: (i) VQE with the standard heuristic ansatz scales comparably to direct brute-force search when energy-based optimizers are employed. The performance improves at most quadratically using a gradient-based optimizer. (ii) When the parameters are optimized from random guesses, also the scaling of QAOA implies problematically long absolute runtimes for large problem sizes. (iii) QAOA becomes practical when supplemented with a physically-inspired initialization of the parameters. Our results suggest that hybrid quantum-classical algorithms should possibly avoid a brute force classical outer loop, but focus on smart parameters initialization.
公開日:2024-03-14
翻訳日:2024-03-19 07:32:15
# 事前学習したエンコーダに基づく言語モデルに対する正確なリトレーニングフリープルーニング

Accurate Retraining-free Pruning for Pretrained Encoder-based Language Models ( http://arxiv.org/abs/2308.03449v2 )

ライセンス: Link先を確認
Seungcheol Park, Hojun Choi, U Kang, (参考訳) 事前訓練されたエンコーダベースの言語モデルを考えると、リトレーニングなしで正確に圧縮できるだろうか? リトレーニングフリーな構造化プルーニングアルゴリズムは、大規模言語モデルのプルーニング能力と大幅に削減されたプルーニングコストのために、事前訓練された言語モデルの圧縮に不可欠である。 しかし、既存のリトレーニングフリーアルゴリズムは、特に高い圧縮速度でプルーニングエラーを処理できないため、精度が著しく低下する。 本稿では,事前学習したエンコーダに基づく言語モデルに対して,K-prune (Knowledge-serving pruning) を提案する。 K-pruneは、知識測定、知識保存マスクサーチ、知識保存ウェイトチューニングからなる、慎重に設計された反復的プルーニングプロセスを通じて、プレトレーニングされたモデルの有用な知識を保存し、プルーニングエラーを最小限に抑えることに焦点を当てている。 その結果、K-pruneは、SQuADベンチマークの80%の圧縮率で既存の再トレーニングなしプルーニングアルゴリズムと比較して、最大58.02%pのF1スコアの大幅な精度向上を示した。

Given a pretrained encoder-based language model, how can we accurately compress it without retraining? Retraining-free structured pruning algorithms are crucial in pretrained language model compression due to their significantly reduced pruning cost and capability to prune large language models. However, existing retraining-free algorithms encounter severe accuracy degradation, as they fail to handle pruning errors, especially at high compression rates. In this paper, we propose K-prune (Knowledge-preserving pruning), an accurate retraining-free structured pruning algorithm for pretrained encoder-based language models. K-prune focuses on preserving the useful knowledge of the pretrained model to minimize pruning errors through a carefully designed iterative pruning process composed of knowledge measurement, knowledge-preserving mask search, and knowledge-preserving weight-tuning. As a result, K-prune shows significant accuracy improvements up to 58.02%p higher F1 score compared to existing retraining-free pruning algorithms under a high compression rate of 80% on the SQuAD benchmark without any retraining process.
公開日:2024-03-15
翻訳日:2024-03-19 07:32:15
# 機械学習: 解決策と課題

Machine Unlearning: Solutions and Challenges ( http://arxiv.org/abs/2308.07061v3 )

ライセンス: Link先を確認
Jie Xu, Zihan Wu, Cong Wang, Xiaohua Jia, (参考訳) 機械学習モデルは、機密性、不正、悪意のあるデータを不注意に記憶し、プライバシ侵害、セキュリティ脆弱性、パフォーマンス劣化のリスクを生じさせる可能性がある。 これらの問題に対処するために、機械学習は訓練されたモデルに対する特定の訓練データポイントの影響を選択的に除去する重要なテクニックとして登場した。 本稿では,機械学習における解の包括的分類と解析について述べる。 既存のソリューションを、データの影響を徹底的に除去する正確なアンラーニングアプローチと、データの影響を効率的に最小化するアンラーニングアプローチに分類する。 ソリューションを包括的にレビューすることで、その強みと限界を特定し、議論する。 さらに,機械学習を進化させるための今後の方向性を提案し,それを信頼性と適応性のある機械学習モデルに欠かせない能力として確立する。 本稿では、研究者にオープンな問題のロードマップを提供し、選択的データ除去の現実的なニーズに対処するためのインパクトのある貢献を奨励する。

Machine learning models may inadvertently memorize sensitive, unauthorized, or malicious data, posing risks of privacy breaches, security vulnerabilities, and performance degradation. To address these issues, machine unlearning has emerged as a critical technique to selectively remove specific training data points' influence on trained models. This paper provides a comprehensive taxonomy and analysis of the solutions in machine unlearning. We categorize existing solutions into exact unlearning approaches that remove data influence thoroughly and approximate unlearning approaches that efficiently minimize data influence. By comprehensively reviewing solutions, we identify and discuss their strengths and limitations. Furthermore, we propose future directions to advance machine unlearning and establish it as an essential capability for trustworthy and adaptive machine learning models. This paper provides researchers with a roadmap of open problems, encouraging impactful contributions to address real-world needs for selective data removal.
公開日:2024-03-15
翻訳日:2024-03-19 07:32:15
# 小児脳腫瘍分節の自動アンサンブル法

Automated ensemble method for pediatric brain tumor segmentation ( http://arxiv.org/abs/2308.07212v2 )

ライセンス: Link先を確認
Shashidhar Reddy Javaji, Sovesh Mohapatra, Advait Gosai, Gottfried Schlaug, (参考訳) 脳腫瘍は依然として重要な世界的な健康問題であり、診断技術や治療方法の進歩を必要としている。 腫瘍またはその再発はしばしば、画像研究において識別され、正常な脳組織と区別される必要がある。 年齢別セグメンテーションモデル(特に小児患者)の必要性が高まっている中で,MRIを用いた深層学習技術の展開について検討した。 ONetとUNetの修正版と革新的な損失関数を組み合わせた新しいアンサンブルアプローチを導入することにより、BraTS-PEDs 2023 Challengeの正確なセグメンテーションモデルを実現する。 単一および複合変換を含むデータ拡張は、異なるスキャンプロトコル間でモデルの堅牢性と正確性を保証する。 ONet と UNet モデルを統合したアンサンブル戦略は、MRI 画像の特定の特徴を捉え、病変の賢明さをもたらす様々な側面をモデル化し、未確認の検証データでは Dice スコアが 0.52, 0.72, 0.78 となり、それぞれ "enhancing tumor" と "tumor core" と "whole tumor" ラベルの最終的なテストデータでは 0.55, 0.70, 0.79 となる。 画像比較により, 正確な腫瘍領域被覆において, アンサンブル法が優れていることが確認された。 その結果、この高度なアンサンブルアプローチは、個々のモデルの独特な強みの上に構築され、診断精度を向上し、小児脳の脳腫瘍の効果的な治療計画とモニタリングを行うための有望な可能性をもたらすことが示唆された。

Brain tumors remain a critical global health challenge, necessitating advancements in diagnostic techniques and treatment methodologies. A tumor or its recurrence often needs to be identified in imaging studies and differentiated from normal brain tissue. In response to the growing need for age-specific segmentation models, particularly for pediatric patients, this study explores the deployment of deep learning techniques using magnetic resonance imaging (MRI) modalities. By introducing a novel ensemble approach using ONet and modified versions of UNet, coupled with innovative loss functions, this study achieves a precise segmentation model for the BraTS-PEDs 2023 Challenge. Data augmentation, including both single and composite transformations, ensures model robustness and accuracy across different scanning protocols. The ensemble strategy, integrating the ONet and UNet models, shows greater effectiveness in capturing specific features and modeling diverse aspects of the MRI images which result in lesion wise Dice scores of 0.52, 0.72 and 0.78 on unseen validation data and scores of 0.55, 0.70, 0.79 on final testing data for the "enhancing tumor", "tumor core" and "whole tumor" labels respectively. Visual comparisons further confirm the superiority of the ensemble method in accurate tumor region coverage. The results indicate that this advanced ensemble approach, building upon the unique strengths of individual models, offers promising prospects for enhanced diagnostic accuracy and effective treatment planning and monitoring for brain tumors in pediatric brains.
公開日:2024-03-15
翻訳日:2024-03-19 07:32:15
# Platypus:LLMのクイック、チープ、パワーフルリファインメント

Platypus: Quick, Cheap, and Powerful Refinement of LLMs ( http://arxiv.org/abs/2308.07317v2 )

ライセンス: Link先を確認
Ariel N. Lee, Cole J. Hunter, Nataniel Ruiz, (参考訳) 我々は,HuggingFace の Open LLM Leaderboard において,この作業のリリース日時点で最強のパフォーマンスを達成し,現在一位に立っている,細かな調整と統合されたLarge Language Models (LLMs) のファミリである $\textbf{Platypus}$ を提示する。 この作業では、(1) キュレートされたデータセット $\textbf{Open-Platypus}$、これは、他のオープンデータセットのサブセットであり、(2) LoRAモジュールを微調整し、マージするプロセスである。 具体的には、Platypusファミリは、モデルサイズをまたいだ定量的LLMメトリクスの強力なパフォーマンスを実現し、グローバルなOpen LLMリーダーボードをトッピングし、その他の最先端の細調整LLMに必要な、わずかな微調整データと全体的な計算を使用する。 特に、13B Platypusモデルは、5時間で25kの質問を使用して、$\textit{a single}$ A100 GPUでトレーニングすることができる。 これはOpen-Platypusデータセットの品質の証明であり、この分野におけるさらなる改善の機会を開くものです。 プロジェクトページ: https://platypus-llm.github.io

We present $\textbf{Platypus}$, a family of fine-tuned and merged Large Language Models (LLMs) that achieves the strongest performance and currently stands at first place in HuggingFace's Open LLM Leaderboard as of the release date of this work. In this work we describe (1) our curated dataset $\textbf{Open-Platypus}$, that is a subset of other open datasets and which $\textit{we release to the public}$ (2) our process of fine-tuning and merging LoRA modules in order to conserve the strong prior of pretrained LLMs, while bringing specific domain knowledge to the surface (3) our efforts in checking for test data leaks and contamination in the training data, which can inform future research. Specifically, the Platypus family achieves strong performance in quantitative LLM metrics across model sizes, topping the global Open LLM leaderboard while using just a fraction of the fine-tuning data and overall compute that are required for other state-of-the-art fine-tuned LLMs. In particular, a 13B Platypus model can be trained on $\textit{a single}$ A100 GPU using 25k questions in 5 hours. This is a testament of the quality of our Open-Platypus dataset, and opens opportunities for more improvements in the field. Project page: https://platypus-llm.github.io
公開日:2024-03-14
翻訳日:2024-03-19 07:32:15
# 視覚皮質の幾何学と画像強調への応用

Geometry of the Visual Cortex with Applications to Image Inpainting and Enhancement ( http://arxiv.org/abs/2308.07652v3 )

ライセンス: Link先を確認
Francesco Ballerin, Erlend Grong, (参考訳) ロート翻訳群$SE(2)$を視覚野V1にインスパイアされたサブリーマン構造で取得し,低楕円波拡散に基づく画像の着色と強調のためのアルゴリズムを提案する。 我々はCitti, Sarti, Boscainらによる従来の手法の実装を革新し, フェードを防止し, WaxOn-WaxOff と呼ばれる手順でよりシャープな結果を生成する方法を提案する。 また,2次元画像処理のための古典的アンシャープフィルタに類似した$SE(2)$を用いて,完全に新しいアンシャープフィルタを定義するために,サブリーマン構造を利用する。 網膜シンチグラフィーにおける血管造影法について検討した。

Equipping the rototranslation group $SE(2)$ with a sub-Riemannian structure inspired by the visual cortex V1, we propose algorithms for image inpainting and enhancement based on hypoelliptic diffusion. We innovate on previous implementations of the methods by Citti, Sarti, and Boscain et al., by proposing an alternative that prevents fading and is capable of producing sharper results in a procedure that we call WaxOn-WaxOff. We also exploit the sub-Riemannian structure to define a completely new unsharp filter using $SE(2)$, analogous to the classical unsharp filter for 2D image processing. We demonstrate our method on blood vessels enhancement in retinal scans.
公開日:2024-03-15
翻訳日:2024-03-19 07:32:15
# スパイクニューラルネットワークの表現性

Expressivity of Spiking Neural Networks ( http://arxiv.org/abs/2308.08218v2 )

ライセンス: Link先を確認
Manjot Singh, Adalbert Fono, Gitta Kutyniok, (参考訳) スパイクニューラルネットワークとニューロモルフィックハードウェアの相乗効果は、エネルギー効率の良いAIアプリケーションの開発を約束する。 この可能性に触発されて、我々は基礎的な側面を再考し、ニューロンの発射時間に情報を符号化する神経回路をスパイクする能力について研究する。 スパイク応答モデルでは、スパイク応答関数を持つスパイクニューロンの数学的モデルとして、人工ニューラルネットワークとスパイクニューラルネットワークの表現力を比較する。 ReLUネットワークとは対照的に、スパイクニューラルネットワークは連続関数と不連続関数の両方を実現することができる。 さらに,多層ニューラルネットワーク(ReLU)をエミュレートするために,スパイクニューラルネットワークのサイズによる複雑性境界を提供する。 連続的な設定を制限することにより、一層スパイクニューラルネットワークの逆方向の複雑性境界も確立する。

The synergy between spiking neural networks and neuromorphic hardware holds promise for the development of energy-efficient AI applications. Inspired by this potential, we revisit the foundational aspects to study the capabilities of spiking neural networks where information is encoded in the firing time of neurons. Under the Spike Response Model as a mathematical model of a spiking neuron with a linear response function, we compare the expressive power of artificial and spiking neural networks, where we initially show that they realize piecewise linear mappings. In contrast to ReLU networks, we prove that spiking neural networks can realize both continuous and discontinuous functions. Moreover, we provide complexity bounds on the size of spiking neural networks to emulate multi-layer (ReLU) neural networks. Restricting to the continuous setting, we also establish complexity bounds in the reverse direction for one-layer spiking neural networks.
公開日:2024-03-15
翻訳日:2024-03-19 07:32:15
# 一般量子前兆を持つ観測エントロピー

Observational entropy with general quantum priors ( http://arxiv.org/abs/2308.08763v2 )

ライセンス: Link先を確認
Ge Bai, Dominik Šafránek, Joseph Schindler, Francesco Buscemi, Valerio Scarani, (参考訳) 観測エントロピーは熱力学状態の本質的な不確実性と粗粒化による知識の欠如の両方を捉えている。 本稿では,観測エントロピーの2つの解釈について述べる。一方は測定結果の統計的欠如であり,他方は量子ベイズ回帰法による測定統計から入力状態の推測が困難であることを示す。 これらの解釈は、観測エントロピーが暗黙的に一様参照を含むことを示している。 系が無限次元である場合やエネルギー制約がある場合、均一な事前は使用できないため、均一な量子状態に置き換えることで一般化を提案する。 この一般化の候補を3つ提案し、それらの特性について議論し、そのうちの1つが両解釈を関連づけた統一表現であることを示す。

Observational entropy captures both the intrinsic uncertainty of a thermodynamic state and the lack of knowledge due to coarse-graining. We demonstrate two interpretations of observational entropy, one as the statistical deficiency resulting from a measurement, the other as the difficulty of inferring the input state from the measurement statistics by quantum Bayesian retrodiction. These interpretations show that the observational entropy implicitly includes a uniform reference prior. Since the uniform prior cannot be used when the system is infinite-dimensional or otherwise energy-constrained, we propose generalizations by replacing the uniform prior with arbitrary quantum states that may not even commute with the state of the system. We propose three candidates for this generalization, discuss their properties, and show that one of them gives a unified expression that relates both interpretations.
公開日:2024-03-15
翻訳日:2024-03-19 07:32:15
# フェデレーションラーニングにおける分散資源管理のための価格差別ゲーム

Price-Discrimination Game for Distributed Resource Management in Federated Learning ( http://arxiv.org/abs/2308.13838v5 )

ライセンス: Link先を確認
Han Zhang, Halvin Yang, Guopeng Zhang, (参考訳) FedAvgのようなバニラ連合学習(FL)では、パラメータサーバ(PS)と複数の分散クライアントが典型的な買い手市場を形成し、FLサービスのPS/購入者数はクライアント/販売者数よりはるかに少ない。 本稿では、FLの性能向上と、FLに参加するクライアントの動機付けコストの低減を図るため、異なるクライアントに対して同じサービス価格を提供するのではなく、異なるクライアントが提供するサービスの価格を区別することを提案する。 FLがもたらす性能改善と、コンピューティングと通信能力における不均一性に基づいて、価格が差別化されている。 この目的のために、多目的トレードオフ、クライアント選択、インセンティブ機構を含むFLの分散リソース管理問題に包括的に対処するために、価格判別ゲーム(PDG)を定式化する。 PDGは混合整数非線形プログラミング(MINLP)問題であるため、計算複雑性が低く通信オーバーヘッドの少ない分散半ヒューリスティックアルゴリズムがこの問題を解決するために設計されている。 シミュレーションの結果,提案手法の有効性を検証した。

In vanilla federated learning (FL) such as FedAvg, the parameter server (PS) and multiple distributed clients can form a typical buyer's market, where the number of PS/buyers of FL services is far less than the number of clients/sellers. In order to improve the performance of FL and reduce the cost of motivating clients to participate in FL, this paper proposes to differentiate the pricing for services provided by different clients rather than simply providing the same service pricing for different clients. The price is differentiated based on the performance improvements brought to FL and their heterogeneity in computing and communication capabilities. To this end, a price-discrimination game (PDG) is formulated to comprehensively address the distributed resource management problems in FL, including multi-objective trade-off, client selection, and incentive mechanism. As the PDG is a mixed-integer nonlinear programming (MINLP) problem, a distributed semi-heuristic algorithm with low computational complexity and low communication overhead is designed to solve it. The simulation result verifies the effectiveness of the proposed approach.
公開日:2024-03-15
翻訳日:2024-03-19 07:32:15
# MITRE ATT&CK:最先端の最先端

MITRE ATT&CK: State of the Art and Way Forward ( http://arxiv.org/abs/2308.14016v1 )

ライセンス: Link先を確認
Bader Al-Sada, Alireza Sadighian, Gabriele Oligeri, (参考訳) MITRE ATT&CKは、現実世界の観測に基づく敵の戦術、技術、手順の包括的なフレームワークである。 政府、アカデミア、産業など様々な分野における脅威モデリングの基礎として利用されている。 私たちの知る限りでは、MITRE ATT&CKフレームワークを活用した現在の最先端技術に関する包括的な収集、研究、調査に、これまでの研究は注がれていない。 我々は、50以上の主要な研究貢献を選定し、MITRE ATT&CKフレームワークに関して、その方法論と目的を詳細に分析する。 ユースケース,アプリケーションシナリオ,採用手法,追加データの使用など,さまざまな基準に従って,特定論文の分類を行う。 最後に、MITRE ATT&CKフレームワークだけでなく、リスク分析やサイバー脅威インテリジェンス全般に関わるオープンな問題と今後の研究方向性について論じる。

MITRE ATT&CK is a comprehensive framework of adversary tactics, techniques and procedures based on real-world observations. It has been used as a foundation for threat modelling in different sectors, such as government, academia and industry. To the best of our knowledge, no previous work has been devoted to the comprehensive collection, study and investigation of the current state of the art leveraging the MITRE ATT&CK framework. We select and inspect more than fifty major research contributions, while conducting a detailed analysis of their methodology and objectives in relation to the MITRE ATT&CK framework. We provide a categorization of the identified papers according to different criteria such as use cases, application scenarios, adopted methodologies and the use of additional data. Finally, we discuss open issues and future research directions involving not only the MITRE ATT&CK framework but also the fields of risk analysis and cyber-threat intelligence at large.
公開日:2023-08-27
翻訳日:2024-03-19 07:32:15
# P3LI5: 5G Coreの実用的かつ信頼性の高い合法的解釈

P3LI5: Practical and Confidential Lawful Interception on the 5G Core ( http://arxiv.org/abs/2308.14164v1 )

ライセンス: Link先を確認
Francesco Intoci, Julian Sturm, Daniel Fraunholz, Apostolos Pyrgelis, Colin Barschel, (参考訳) LI(Lawful Interception)は、刑事訴訟のためのネットワーク通信から洞察力のあるデータを得るために、法律執行機関(LEA)にインターセプション機能を提供する通信サービスプロバイダ(CSP)の法的義務である。 第5世代モバイルネットワーク(5G)におけるネットワーク識別子のプライバシー強化により、LEAはネットワーク識別子の解決のためにCSPと対話する必要がある。 これは、信頼できないCSPが、現在進行中の調査に関する機密情報を推測できるため、新しいプライバシー問題を引き起こす。 本研究では,情報検索プロトコルであるSparseWPIRを利用して,LEAがプライベートにCSPを問合せするシステムであるP3LI5を提案する。 このため、P3LI5は、バウンド情報漏洩を選択的に許容し、パフォーマンスを向上させることで、異なる機密性やレイテンシ要件を持つさまざまな運用シナリオに適応することができる。 我々は、よく知られたオープンソースプロジェクトを使用して、5G LIインフラ上にP3LI5を実装し、低レイテンシを維持しながら、大規模データベースへのスケーラビリティを実証した。 私たちの知る限りでは、P3LI5は、5GコアネットワークにおけるLIの必須要件によって提起されたプライバシー問題に対処する最初の提案である。

Lawful Interception (LI) is a legal obligation of Communication Service Providers (CSPs) to provide interception capabilities to Law Enforcement Agencies (LEAs) in order to gain insightful data from network communications for criminal proceedings, e.g., network identifiers for tracking suspects. With the privacy-enhancements of network identifiers in the 5th generation of mobile networks (5G), LEAs need to interact with CSPs for network identifier resolution. This raises new privacy issues, as untrusted CSPs are able to infer sensitive information about ongoing investigations, e.g., the identities of their subscribers under suspicion. In this work, we propose P3LI5, a novel system that enables LEAs to privately query CSPs for network identifier resolution leveraging on an information retrieval protocol, SparseWPIR, that is based on private information retrieval and its weakly private version. As such, P3LI5 can be adapted to various operational scenarios with different confidentiality or latency requirements, by selectively allowing a bounded information leakage for improved performance. We implement P3LI5 on the 5G LI infrastructure using well known open-source projects and demonstrate its scalability to large databases while retaining low latency. To the best of our knowledge, P3LI5 is the first proposal for addressing the privacy issues raised by the mandatory requirement for LI on the 5G core network.
公開日:2023-08-27
翻訳日:2024-03-19 07:22:30
# 通信ネットワークにおける大規模言語モデルにおけるバックドア攻撃の包括的概要

A Comprehensive Overview of Backdoor Attacks in Large Language Models within Communication Networks ( http://arxiv.org/abs/2308.14367v2 )

ライセンス: Link先を確認
Haomiao Yang, Kunlan Xiang, Mengyu Ge, Hongwei Li, Rongxing Lu, Shui Yu, (参考訳) LLM(Large Language Models)は、言語理解と生成における例外的な能力のため、将来のモバイル通信ネットワークに効率的でインテリジェントなサービスを提供することを目指している。 しかし、LLMのパフォーマンスに対する非常に高いデータと計算リソースの要求は、開発者はトレーニングのアウトソーシングや、サードパーティのデータとコンピューティングリソースの利用に頼らざるを得ない。 これらの戦略は、ネットワーク内のモデルを悪質に操作されたトレーニングデータと処理に公開し、攻撃者がバックドア攻撃と呼ばれるモデルに隠れたバックドアを埋め込む機会を提供する。 LLMのバックドア攻撃は、LLMに隠れたバックドアを埋め込むことで、モデルが正常に良性サンプルで実行されるが、有毒なものでは劣化した性能を示す。 この問題は、信頼性とセキュリティが最重要である通信ネットワークにおいて特に問題となる。 バックドア攻撃に関する広範な研究にもかかわらず、通信ネットワークで使用されるLLMの文脈内での詳細な調査は依然として行われておらず、そのような攻撃の体系的なレビューは今のところ行われていない。 本研究では,LLMにおけるバックドア攻撃の分類を,入力トリガー,即時トリガー,命令トリガー,実演トリガーの4つの主要なカテゴリに分類する。 さらに、ベンチマークデータセットの包括的な分析を行う。 最後に、潜在的な問題とオープンな課題を特定し、通信ネットワークにおけるLLMのセキュリティと整合性を高めるための今後の研究の方向性について貴重な洞察を提供する。

The Large Language Models (LLMs) are poised to offer efficient and intelligent services for future mobile communication networks, owing to their exceptional capabilities in language comprehension and generation. However, the extremely high data and computational resource requirements for the performance of LLMs compel developers to resort to outsourcing training or utilizing third-party data and computing resources. These strategies may expose the model within the network to maliciously manipulated training data and processing, providing an opportunity for attackers to embed a hidden backdoor into the model, termed a backdoor attack. Backdoor attack in LLMs refers to embedding a hidden backdoor in LLMs that causes the model to perform normally on benign samples but exhibit degraded performance on poisoned ones. This issue is particularly concerning within communication networks where reliability and security are paramount. Despite the extensive research on backdoor attacks, there remains a lack of in-depth exploration specifically within the context of LLMs employed in communication networks, and a systematic review of such attacks is currently absent. In this survey, we systematically propose a taxonomy of backdoor attacks in LLMs as used in communication networks, dividing them into four major categories: input-triggered, prompt-triggered, instruction-triggered, and demonstration-triggered attacks. Furthermore, we conduct a comprehensive analysis of the benchmark datasets. Finally, we identify potential problems and open challenges, offering valuable insights into future research directions for enhancing the security and integrity of LLMs in communication networks.
公開日:2023-09-06
翻訳日:2024-03-19 07:22:30
# 非Fungible Token (NFT) の評価

Evaluation of Non-Fungible Token (NFT) ( http://arxiv.org/abs/2308.14389v1 )

ライセンス: Link先を確認
Priyanshu Lohar, Kiran Rathi, (参考訳) Ethereumブロックチェーンのトークン標準の派生体であるNon Fungible Tokenは区別可能なトークンである。 これらのトークンは、識別可能なトークンの目的を達成するのに役立つユニークな識別を提供するデジタルプロパティと結びついている。 これらのトークンは、それらが拘束されているデジタル資産の所有権の証拠として使用される。 そして、デジタル資産の所有権を証明する問題は解決されており、開発者が現実世界の多くの問題を解決するのを楽しみにしているのは、芸術、不動産、その他多くの分野のトレーダビリティソリューションを提供するかもしれない。 この記事執筆期間中、NFTは近年、予測不可能な成長を見せており、これはDApps(Decentralized Application)の繁栄を刺激している。 予想外の成長と世界中で注目され、多くの主要投資家がそれに投資しているため、NFTはまだ発展段階にあり、まだ未熟だ。 本稿はNFT開発を体系的に絞る試みであり、開発者が開発プロセスを始め、支援するためのリソースを得られるようにする。

The derivative of token standard of Ethereum blockchain, termed as Non Fungible Token is distinguishable token. These tokens are bound with digital properties that provide them unique identification which helps in fulfilling the aim of distinguishable tokens. These tokens are used as an evidence of ownership for the digital asset, with which they are bound to. And it is with these non fungible tokens that the problem of proving ownership of digital asset is being solved and with this technique, it is with hope that developers are looking forward to solve many more problems of the real world with it, may it be providing tradability solutions for arts, real estate and many other sectors. During the time of writing this, the NFT has shown unpredictable growth in the recent years and this has caused the stimulation of prosperity of DApps(Decentralized Application).With an unpredictable growth and garnering attention worldwide with many mainstream key people investing in it , the NFT is still in developing stage and is still premature. This paper is an attempt to squeeze the NFT developments systematically, so the aspiring developers can have the resource to start with and aid the development process further
公開日:2023-08-28
翻訳日:2024-03-19 07:22:30
# CryptoBap: 暗号化プロトコルのバイナリ分析プラットフォーム

CryptoBap: A Binary Analysis Platform for Cryptographic Protocols ( http://arxiv.org/abs/2308.14450v2 )

ライセンス: Link先を確認
Faezeh Nasrabadi, Robert Künnemann, Hamed Nemati, (参考訳) 暗号プロトコルの(ARMv8およびRISC-V)マシンコードに対する弱い秘密と認証を検証するためのプラットフォームであるCryptoBapを紹介する。 まずプロトコルのバイナリを中間表現にトランスパイルし、次に暗号対応のシンボル実行を実行して、すべての実行パスを表すプロトコルのモデルを自動的に抽出する。 我々のシンボリックな実行は間接ジャンプを解消し、完全に自動化されたループ要約技術を用いて有界ループをサポートする。 抽出されたモデルは、サードパーティのツールチェーンを使用して、ProVerifとCryptoVerifを介して自動検証が可能なモデルに変換される。 提案手法の健全さを実証し,CryptoBapを用いて,おもちゃの例から実世界のプロトコルまで,TinySSH,SSHの実装,最新のVPNプロトコルであるWireGuardの複数のケーススタディを検証する。

We introduce CryptoBap, a platform to verify weak secrecy and authentication for the (ARMv8 and RISC-V) machine code of cryptographic protocols. We achieve this by first transpiling the binary of protocols into an intermediate representation and then performing a crypto-aware symbolic execution to automatically extract a model of the protocol that represents all its execution paths. Our symbolic execution resolves indirect jumps and supports bounded loops using the loop-summarization technique, which we fully automate. The extracted model is then translated into models amenable to automated verification via ProVerif and CryptoVerif using a third-party toolchain. We prove the soundness of the proposed approach and used CryptoBap to verify multiple case studies ranging from toy examples to real-world protocols, TinySSH, an implementation of SSH, and WireGuard, a modern VPN protocol.
公開日:2023-09-18
翻訳日:2024-03-19 07:22:30
# Zip to Zip-it: ローカルな差別的プライバシを実現する圧縮

Zip to Zip-it: Compression to Achieve Local Differential Privacy ( http://arxiv.org/abs/2308.14627v1 )

ライセンス: Link先を確認
Francesco Taurone, Daniel Lucani, Qi Zhang, (参考訳) 数値データに対する局所的な差分プライバシー技術は、一般的にデータセットを変換し、クエリが与えられた場合、悪意のあるユーザは元のサンプルに関する情報を推測できる可能性を保証する。 クエリはユーザとその要件のみに基づいており、結果を民営化する一方で、その有用性を損なうことのないプロセスに摂動の設計を制限する。 本稿では,摂動器とアグリゲータを単位として設計するZealと呼ばれる民営化手法を提案する。この手法は,設計上,原文と比較して摂動データセットの圧縮性を向上し,データ収集のための送信ビットを節約し,他の最先端方式に影響を及ぼす浮動小数点演算によるプライバシの脆弱性に対して保護する,局所的に微分プライベートな機構を実現する。 平均クエリにおけるユーティリティエラーは、Zealが幅広い条件で導入したバイアスと不変であり、同じ状況下でもZealは上記の脆弱性に対する保護も保証している。 計算の結果,圧縮性能は最大94%向上し,データ伝送効率は最大95%向上し,ユーティリティエラーは2%に抑えられた。

Local differential privacy techniques for numerical data typically transform a dataset to ensure a bound on the likelihood that, given a query, a malicious user could infer information on the original samples. Queries are often solely based on users and their requirements, limiting the design of the perturbation to processes that, while privatizing the results, do not jeopardize their usefulness. In this paper, we propose a privatization technique called Zeal, where perturbator and aggregator are designed as a unit, resulting in a locally differentially private mechanism that, by-design, improves the compressibility of the perturbed dataset compared to the original, saves on transmitted bits for data collection and protects against a privacy vulnerabilities due to floating point arithmetic that affect other state-of-the-art schemes. We prove that the utility error on querying the average is invariant to the bias introduced by Zeal in a wide range of conditions, and that under the same circumstances, Zeal also guarantee protection against the aforementioned vulnerability. Our numerical results show up to 94% improvements in compression and up to 95% more efficient data transmissions, while keeping utility errors within 2%.
公開日:2023-08-28
翻訳日:2024-03-19 07:22:30
# 一般粒度表記法(Long Version)における差分プライバシーの構成

Composition in Differential Privacy for General Granularity Notions (Long Version) ( http://arxiv.org/abs/2308.14649v1 )

ライセンス: Link先を確認
Patricia Guerra-Balboa, Àlex Miranda-Pascual, Javier Parra-Arnau, Thorsten Strufe, (参考訳) 差分プライバシー(DP)の合成定理により、データキュレーターは異なるアルゴリズムを組み合わせてDPを満たす新しいアルゴリズムを得ることができる。 しかし、古典的な合成定理がカバーしていないという文献には、新しい粒度の概念(すなわち、近傍の定義)、データ領域、構成設定が出現している。 例えば、平行合成定理は一般の粒度の概念には適用されない。 これにより、新しい設定でDP機構を構成する機会が複雑になり、構成後のプライバシー損失の正確な推定値が得られる。 これらの制約を克服するため、一般のフレームワークにおけるDPの構成可能性や、データドメインや近傍の定義について検討する。 独立版と適応版の両方で一般的な合成定理を与え、近似的、ゼロ集中型、ガウスDPに対して類似した合成結果を与える。 さらに,最適な構成境界を得るために必要な仮説について検討する。 私たちの定理は、並列およびシーケンシャルな構成設定の両方をカバーする。 重要なことに、これらはすべての設定をカバーしています。これにより、コンポジションの最終的なプライバシ損失を、精度を大幅に向上して計算することができます。

The composition theorems of differential privacy (DP) allow data curators to combine different algorithms to obtain a new algorithm that continues to satisfy DP. However, new granularity notions (i.e., neighborhood definitions), data domains, and composition settings have appeared in the literature that the classical composition theorems do not cover. For instance, the parallel composition theorem does not apply to general granularity notions. This complicates the opportunity of composing DP mechanisms in new settings and obtaining accurate estimates of the incurred privacy loss after composition. To overcome these limitations, we study the composability of DP in a general framework and for any kind of data domain or neighborhood definition. We give a general composition theorem in both independent and adaptive versions and we provide analogous composition results for approximate, zero-concentrated, and Gaussian DP. Besides, we study the hypothesis needed to obtain the best composition bounds. Our theorems cover both parallel and sequential composition settings. Importantly, they also cover every setting in between, allowing us to compute the final privacy loss of a composition with greatly improved accuracy.
公開日:2023-08-28
翻訳日:2024-03-19 07:22:30
# 有限非アベリア単純群の量子時代の暗号への応用

Applications of Finite non-Abelian Simple Groups to Cryptography in the Quantum Era ( http://arxiv.org/abs/2308.14725v1 )

ライセンス: Link先を確認
María Isabel González Vasco, Delaram Kahrobaei, Eilidh McKemmie, (参考訳) 有限単純群の理論は、暗号の文脈で有用な興味深い計算問題やモデリングツールを提供する(探索されていない)分野である。 本稿では, 有限非アーベル単純群の暗号への応用を概観し, この理論が明らかに中心的な様々なシナリオについて論じ, これら2つの(非随伴でない)コミュニティ間のさらなる相互作用を促進するために, 暗号学者と群論者の両方に物質をアクセスできるようにするための関連する定義を提供する。 特に、様々な群理論的分解問題に基づく構成について考察し、群理論的ハッシュ関数をレビューし、単純群を用いた完全同型暗号化について議論する。 隠れた部分群問題は、この文脈で簡単に議論される。

The theory of finite simple groups is a (rather unexplored) area likely to provide interesting computational problems and modelling tools useful in a cryptographic context. In this note, we review some applications of finite non-abelian simple groups to cryptography and discuss different scenarios in which this theory is clearly central, providing the relevant definitions to make the material accessible to both cryptographers and group theorists, in the hope of stimulating further interaction between these two (non-disjoint) communities. In particular, we look at constructions based on various group-theoretic factorization problems, review group theoretical hash functions, and discuss fully homomorphic encryption using simple groups. The Hidden Subgroup Problem is also briefly discussed in this context.
公開日:2023-08-28
翻訳日:2024-03-19 07:22:30
# 不完全なシャッフルによる個人集団の識別

Differentially Private Aggregation via Imperfect Shuffling ( http://arxiv.org/abs/2308.14733v1 )

ライセンス: Link先を確認
Badih Ghazi, Ravi Kumar, Pasin Manurangsi, Jelani Nelson, Samson Zhou, (参考訳) 本稿では,未完成なシャッフル差分プライバシモデルを紹介し,ユーザからのメッセージは,キュレーターがプライベートアグリゲーションのために観察する前にほぼ均一にシャッフルされる。 次に、私的和問題を考える。 We show that that the standard split-and-mix protocol by Ishai et al [FOCS 2006] can be adapt to achieve near-timal utility bounds in the imperfect shuffle model。 特に,不完全なシャッフルモデルでは,追加のエラーオーバーヘッドは発生しない。

In this paper, we introduce the imperfect shuffle differential privacy model, where messages sent from users are shuffled in an almost uniform manner before being observed by a curator for private aggregation. We then consider the private summation problem. We show that the standard split-and-mix protocol by Ishai et. al. [FOCS 2006] can be adapted to achieve near-optimal utility bounds in the imperfect shuffle model. Specifically, we show that surprisingly, there is no additional error overhead necessary in the imperfect shuffle model.
公開日:2023-08-28
翻訳日:2024-03-19 07:22:30
# プライベート・インターセクション・サムプロトコルのセキュリティ応用の進展

Advancement on Security Applications of Private Intersection Sum Protocol ( http://arxiv.org/abs/2308.14741v1 )

ライセンス: Link先を確認
Yuvaray Athur Raghuvir, Senthil Govindarajan, Sanjeevi Vijayakumar, Pradeep Yadlapalli, Fabio Di Troia, (参考訳) セキュアな計算プロトコルは、関係者からの入力を組み合わせて、入力をプライベートに保ちながら出力を生成する。 プライベート・セット・インターセクション(英: Private Set Intersection、PSI)は、セキュアな計算プロトコルである。 プライベート・インターセクション・サム(PIS)は、両者が交叉の基数と、交叉の各識別子の関連する整数値の和を学習したいときにPSIを拡張するが、それ以上のことはない。 最後に、Private Join and Compute(PJC)はPISプロトコルのスケーラブルな拡張であり、組織が機密データセットと連携するのに役立つ。 本論文で提案されている拡張は以下のとおりである。 (a)PJCプロトコルを追加のデータ列に拡張し、サポート対象の同型演算に基づいたカラムアグリゲーションを適用する。 (b) 正方形の和や和などの算術演算を適用するために、RLWE(Ring Learning with Errors)準同型暗号スキームを探索する。 (c)証明書を用いた通信当事者の相互認証を用いて、より強力なセキュリティを確保すること。 (d)そのようなサービスの提供を運用するウェブサイトを開発すること。 JingBingは、異なる州がセキュアな通信モジュールを登録、取得し、インストールし、認証されたピアツーピア通信を行うことを可能にする投票者リスト検証サービスである。 我々は,このようなソリューションを現実のシナリオにスケーラブルにするための今後の研究の方向性について,論文をまとめる。

Secure computation protocols combine inputs from involved parties to generate an output while keeping their inputs private. Private Set Intersection (PSI) is a secure computation protocol that allows two parties, who each hold a set of items, to learn the intersection of their sets without revealing anything else about the items. Private Intersection Sum (PIS) extends PSI when the two parties want to learn the cardinality of the intersection, as well as the sum of the associated integer values for each identifier in the intersection, but nothing more. Finally, Private Join and Compute (PJC) is a scalable extension of PIS protocol to help organizations work together with confidential data sets. The extensions proposed in this paper include: (a) extending PJC protocol to additional data columns and applying columnar aggregation based on supported homomorphic operations, (b) exploring Ring Learning with Errors (RLWE) homomorphic encryption schemes to apply arithmetic operations such as sum and sum of squares, (c) ensuring stronger security using mutual authentication of communicating parties using certificates, and (d) developing a Website to operationalize such a service offering. We applied our results to develop a Proof-of-Concept solution called JingBing, a voter list validation service that allows different states to register, acquire secure communication modules, install it, and then conduct authenticated peer-to-peer communication. We conclude our paper with directions for future research to make such a solution scalable for practical real-life scenarios.
公開日:2023-08-28
翻訳日:2024-03-19 07:22:30
# AI ATAC 1: 有能な商用マルウェア検出器の評価

AI ATAC 1: An Evaluation of Prominent Commercial Malware Detectors ( http://arxiv.org/abs/2308.14835v1 )

ライセンス: Link先を確認
Robert A. Bridges, Brian Weber, Justin M. Beaver, Jared M. Smith, Miki E. Verma, Savannah Norem, Kevin Spakes, Cory Watson, Jeff A. Nichols, Brian Jewell, Michael. D. Iannacone, Chelsey Dunivan Stahl, Kelly M. T. Huffer, T. Sean Oesch, (参考訳) 本研究は,6つの有名な商用エンドポイントマルウェア検出装置,ネットワークマルウェア検出装置,およびサイバー技術ベンダーによるファイル検証アルゴリズムの評価を行う。 この評価は、アメリカ海軍の資金提供を受けたり、完成したりして、AI ATAC(Artificial Intelligence Applications to Autonomous Cybersecurity)賞の1つとして管理された。 実験では100Kファイル(50/50%の良さ/悪さ)を使用し、1Kのゼロデイプログラム実行ファイルを含むファイルタイプを階層化した。 本稿では,検出技術を搭載した新しい仮想マシンにファイルを配信し,90年代の静的検出を待ってファイルを実行し,動的検出のために別の期間待つ評価プロセスを提案する。 800Kトライアル(100Kファイル$\times$8ツール)を実行するために、ソフトウェアフレームワークは、実験を完全に自動化され、時間同期され、再現可能なワークフローに、相当な並列化で振る舞うように設計されている。 コストベネフィットモデルは、ツールのリコール、精度、検出までの時間、リソース要求を、使用コストをシミュレートすることで、単一の同等の量に統合するように構成された。 これは、サイバーコンペティションのランキング手法と、結果の様々な統計的視点を推論するレンズを提供する。 これらの統計的およびコストモデルの結果は、商用マルウェア検出の状況に関する洞察を与える。

This work presents an evaluation of six prominent commercial endpoint malware detectors, a network malware detector, and a file-conviction algorithm from a cyber technology vendor. The evaluation was administered as the first of the Artificial Intelligence Applications to Autonomous Cybersecurity (AI ATAC) prize challenges, funded by / completed in service of the US Navy. The experiment employed 100K files (50/50% benign/malicious) with a stratified distribution of file types, including ~1K zero-day program executables (increasing experiment size two orders of magnitude over previous work). We present an evaluation process of delivering a file to a fresh virtual machine donning the detection technology, waiting 90s to allow static detection, then executing the file and waiting another period for dynamic detection; this allows greater fidelity in the observational data than previous experiments, in particular, resource and time-to-detection statistics. To execute all 800K trials (100K files $\times$ 8 tools), a software framework is designed to choreographed the experiment into a completely automated, time-synced, and reproducible workflow with substantial parallelization. A cost-benefit model was configured to integrate the tools' recall, precision, time to detection, and resource requirements into a single comparable quantity by simulating costs of use. This provides a ranking methodology for cyber competitions and a lens through which to reason about the varied statistical viewpoints of the results. These statistical and cost-model results provide insights on state of commercial malware detection.
公開日:2023-08-28
翻訳日:2024-03-19 07:22:30
# 任意のRowhammer閾値に対するスケーラブルで構成可能なトラッキング

Scalable and Configurable Tracking for Any Rowhammer Threshold ( http://arxiv.org/abs/2308.14889v2 )

ライセンス: Link先を確認
Anish Saxena, Moinuddin Qureshi, (参考訳) Rowhammer Threshold (TRH) は過去10年間で139Kから4.8Kに減少している。 ローハンマーの典型的な緩和は攻撃行を追跡することに依存している。 可能な攻撃者の数はしきい値の低下とともに増加するため、そのような行をストレージ効率のよい方法で確実に追跡することは困難である。 低閾値では、Grapheneのような学術トラッカーは禁止的なSRAMオーバーヘッド(数十KBからMB)を必要とする。 DSAC-TRRのような業界からの最近のDRAMトラッカーは、ほぼ追従し、ストレージオーバーヘッドを減らすために保証された保護を犠牲にし、DRAMはローハンマー攻撃に弱いままである。 理想的には、我々は、安全かつ正確に追跡するスケーラブルなトラッカーを求め、任意に低いしきい値を追跡することができる一方で、無視可能な専用SRAMとパフォーマンスオーバーヘッドを発生させます。 そこで我々は,Any Rowhammer Threshold用のスケーラブルなトラッカーSTARTを提案する。 専用のSRAM構造に頼るのではなく、STARTは追跡メタデータを保存するためにLLC(Last-Level Cache)を動的に再利用する。 STARTは、メモリに数百万行が含まれているのに対して、典型的なワークロードは64msのリフレッシュ期間内に行の小さなサブセットにしか触れないため、オンデマンドでのトラッキングエントリの割り当てはストレージを大幅に削減する、という観察に基づいている。 アプリケーションがメモリ内の多くの行にアクセスしない場合、STARTはLLCのキャパシティを予約しない。 そうでなければ、STARTは要求に応じて設定されたキャッシュの1-way、2-way、または8-wayを動的に使用する。 STARTはメタデータを保存するためにLLCの容量の9.4%を消費しており、これはメモリの各行に対してLLCにカウンタを割り当てるよりも5倍低い。 また,大規模メモリシステムのためのメモリマップSTARTであるSTART-Mを提案する。 我々の設計では、新たに追加された構造に対してわずか4KBのSRAMしか必要とせず、100未満のTRHでも、理想化されたトラッキングの1%以内に動作します。

The Rowhammer vulnerability continues to get worse, with the Rowhammer Threshold (TRH) reducing from 139K activations to 4.8K activations over the last decade. Typical Rowhammer mitigations rely on tracking aggressor rows. The number of possible aggressors increases with lowering thresholds, making it difficult to reliably track such rows in a storage-efficient manner. At lower thresholds, academic trackers such as Graphene require prohibitive SRAM overheads (hundreds of KBs to MB). Recent in-DRAM trackers from industry, such as DSAC-TRR, perform approximate tracking, sacrificing guaranteed protection for reduced storage overheads, leaving DRAM vulnerable to Rowhammer attacks. Ideally, we seek a scalable tracker that tracks securely and precisely, and incurs negligible dedicated SRAM and performance overheads, while still being able to track arbitrarily low thresholds. To that end, we propose START - a Scalable Tracker for Any Rowhammer Threshold. Rather than relying on dedicated SRAM structures, START dynamically repurposes a small fraction the Last-Level Cache (LLC) to store tracking metadata. START is based on the observation that while the memory contains millions of rows, typical workloads touch only a small subset of rows within a refresh period of 64ms, so allocating tracking entries on demand significantly reduces storage. If the application does not access many rows in memory, START does not reserve any LLC capacity. Otherwise, START dynamically uses 1-way, 2-way, or 8-way of the cache set based on demand. START consumes, on average, 9.4% of the LLC capacity to store metadata, which is 5x lower compared to dedicating a counter in LLC for each row in memory. We also propose START-M, a memory-mapped START for large-memory systems. Our designs require only 4KB SRAM for newly added structures and perform within 1% of idealized tracking even at TRH of less than 100.
公開日:2023-11-06
翻訳日:2024-03-19 07:22:30
# ローハマー除去のためのランダム化ライン・ツー・ローマッピング

Randomized Line-to-Row Mapping for Low-Overhead Rowhammer Mitigations ( http://arxiv.org/abs/2308.14907v1 )

ライセンス: Link先を確認
Anish Saxena, Saurav Mathur, Moinuddin Qureshi, (参考訳) 現代のシステムは、犠牲者のリフレッシュを使用してRowhammerを緩和し、特定の数のアクティベーションに遭遇すると、攻撃者の行の隣人2人をリフレッシュする。 残念なことに、Half-Doubleのような複雑な攻撃パターンは、被害者をリフレッシュし、現在のシステムを脆弱にする。 代わりに、最近提案された安全なローハンマーの緩和は、犠牲者ではなく攻撃者に対する緩和的行動に頼っている。 このようなスキームは行移動やアクセス制御といった緩和的なアクションを採用しており、AQUA、SRS、Blockhammerなどがある。 これらのスキームはローハンマーのしきい値で数千の緩やかな減速しか発生しないが、近い将来の低いしきい値に対して禁止的な減速(15%-600%)を引き起こす。 本稿の目的は,ローハンマーの安全対策をこのような低閾値で実用化することである。 本論文は,空間的に近接する線を同じ列に配置して行バッファのヒット率を最大化するメモリマッピングにより,数千行のホット行(しきい値よりも多くのアクティベーションを受信する)に良質なアプリケーションが遭遇する,重要な知見を提供する。 残念なことに、多くの頻繁に使われる行に対して行がアクティベートされる。 本稿では,暗号化アドレスを用いてメモリにアクセスすることにより,行間マッピングの空間的相関を破るRubixを提案する。 行バッファヒットを助けるために、Rubixは1-4行のグループをランダムにする。 また,行間マッピングを動的に変更するRubix-Dを提案する。 Rubix-Dはホットロウを最小化し、敵が行の空間的近傍を学ぶのをずっと難しくする。 RubixはAQUA(15%から1%)、SRS(60%から2%)、Blockhammer(600%から3%)の減速を減らし、ストレージは1キロバイト未満である。

Modern systems mitigate Rowhammer using victim refresh, which refreshes the two neighbours of an aggressor row when it encounters a specified number of activations. Unfortunately, complex attack patterns like Half-Double break victim-refresh, rendering current systems vulnerable. Instead, recently proposed secure Rowhammer mitigations rely on performing mitigative action on the aggressor rather than the victims. Such schemes employ mitigative actions such as row-migration or access-control and include AQUA, SRS, and Blockhammer. While these schemes incur only modest slowdowns at Rowhammer thresholds of few thousand, they incur prohibitive slowdowns (15%-600%) for lower thresholds that are likely in the near future. The goal of our paper is to make secure Rowhammer mitigations practical at such low thresholds. Our paper provides the key insights that benign application encounter thousands of hot rows (receiving more activations than the threshold) due to the memory mapping, which places spatially proximate lines in the same row to maximize row-buffer hitrate. Unfortunately, this causes row to receive activations for many frequently used lines. We propose Rubix, which breaks the spatial correlation in the line-to-row mapping by using an encrypted address to access the memory, reducing the likelihood of hot rows by 2 to 3 orders of magnitude. To aid row-buffer hits, Rubix randomizes a group of 1-4 lines. We also propose Rubix-D, which dynamically changes the line-to-row mapping. Rubix-D minimizes hot-rows and makes it much harder for an adversary to learn the spatial neighbourhood of a row. Rubix reduces the slowdown of AQUA (from 15% to 1%), SRS (from 60% to 2%), and Blockhammer (from 600% to 3%) while incurring a storage of less than 1 Kilobyte.
公開日:2023-08-28
翻訳日:2024-03-19 07:22:30
# 二重公開キー署名機能 OracleがEdDSAソフトウェア実装を攻撃

Double Public Key Signing Function Oracle Attack on EdDSA Software Implementations ( http://arxiv.org/abs/2308.15009v2 )

ライセンス: Link先を確認
Sam Grierson, Konstantinos Chalkias, William J Buchanan, Leandros Maglaras, (参考訳) EdDSAは、より確立されたECDSA標準で一般的な問題を克服するために導入された楕円曲線デジタル署名スキームである。 EdDSAの規格では、EDDSAの署名が決定論的であることを規定しているため、もし署名関数が攻撃者の公開鍵署名のオラクルとして使用されるならば、スキームのセキュリティに関する偽造不可能な概念を破ることができる。 本稿では,最もポピュラーなEDDSA実装に対する攻撃について述べる。 この復元されたシークレットキーにより、敵はEDDSA検証機能によって有効と見なされる任意のメッセージに署名することができる。 公開時点で脆弱なAPIを持つライブラリのリストが提供されている。 さらに,この脆弱性に対してEdDSA署名APIを確保するための2つの提案を行った。

EdDSA is a standardised elliptic curve digital signature scheme introduced to overcome some of the issues prevalent in the more established ECDSA standard. Due to the EdDSA standard specifying that the EdDSA signature be deterministic, if the signing function were to be used as a public key signing oracle for the attacker, the unforgeability notion of security of the scheme can be broken. This paper describes an attack against some of the most popular EdDSA implementations, which results in an adversary recovering the private key used during signing. With this recovered secret key, an adversary can sign arbitrary messages that would be seen as valid by the EdDSA verification function. A list of libraries with vulnerable APIs at the time of publication is provided. Furthermore, this paper provides two suggestions for securing EdDSA signing APIs against this vulnerability while it additionally discusses failed attempts to solve the issue.
公開日:2023-10-10
翻訳日:2024-03-19 07:22:30
# より良いプレフィックス認証

Better Prefix Authentication ( http://arxiv.org/abs/2308.15058v1 )

ライセンス: Link先を確認
Aljoscha Meyer, (参考訳) 我々は,プレフィックス認証と相対的タイムスタンプの確保のための新しい手法を提案する。 アンチモノトンリンク方式に新たな光を当てることで,プレフィックス認証における最先端と,境界長のラウンドによるタイムスタンプの改善を実現した。 私たちの設計は、証明書の透明性ログのより効率的な代替手段として機能します。

We present new schemes for solving prefix authentication and secure relative timestamping. By casting a new light on antimonotone linking schemes, we improve upon the state of the art in prefix authentication, and in timestamping with rounds of bounded length. Our designs can serve as more efficient alternatives to certificate transparency logs.
公開日:2023-08-29
翻訳日:2024-03-19 07:22:30
# 任意静的モジュールのためのハードウェアにおける領域効率のよいモジュラー削減

Area Efficient Modular Reduction in Hardware for Arbitrary Static Moduli ( http://arxiv.org/abs/2308.15079v1 )

ライセンス: Link先を確認
Robin Müller, Willi Meier, Christoph F. Wildfeuer, (参考訳) モジュラーリダクションは、キー交換法やディリシウムシグネチャスキームを含む多くの後量子暗号スキームにおいて重要な操作である。 しかし、計算コストが高く、ハードウェア実装のパフォーマンスボトルネックを引き起こす可能性がある。 この問題に対処するため,任意の静的変調のためのハードウェアにおいて,モジュールリダクションを効率的に計算するための新しい手法を提案する。 バレットやモンゴメリー還元のような他の一般的な方法とは異なり、この方法は乗法を必要としない。 優れた性能と低面積消費のために、特定のモジュラー選択の特性に依存しない。 その最大の強みは低面積の消費であり、最適化により60%、KyberとDilithium向けの一般的なBarrett実装では90%まで削減された。 さらに、並列化やパイプライニングに適しており、演算幅を増大させながら、ハードウェアリソース消費において線形にスケールする。 すべての演算は、減数される数ではなく、モジュラーのビット幅で行うことができる。 これにより鎖を運ぶことができ、より高速なクロックが可能となる。 さらに,シークレットキーに関する情報を取得するためにタイミング攻撃を使用できる暗号アプリケーションにおいて,本手法は一定時間で実行可能である。

Modular reduction is a crucial operation in many post-quantum cryptographic schemes, including the Kyber key exchange method or Dilithium signature scheme. However, it can be computationally expensive and pose a performance bottleneck in hardware implementations. To address this issue, we propose a novel approach for computing modular reduction efficiently in hardware for arbitrary static moduli. Unlike other commonly used methods such as Barrett or Montgomery reduction, the method does not require any multiplications. It is not dependent on properties of any particular choice of modulus for good performance and low area consumption. Its major strength lies in its low area consumption, which was reduced by 60% for optimized and up to 90% for generic Barrett implementations for Kyber and Dilithium. Additionally, it is well suited for parallelization and pipelining and scales linearly in hardware resource consumption with increasing operation width. All operations can be performed in the bit-width of the modulus, rather than the size of the number being reduced. This shortens carry chains and allows for faster clocking. Moreover, our method can be executed in constant time, which is essential for cryptography applications where timing attacks can be used to obtain information about the secret key.
公開日:2023-08-29
翻訳日:2024-03-19 07:22:30
# FedChain: ブロックチェーンのための効果的なフェデレーション学習の証明に基づく、効率的でセキュアなコンセンサスプロトコル

FedChain: An Efficient and Secure Consensus Protocol based on Proof of Useful Federated Learning for Blockchain ( http://arxiv.org/abs/2308.15095v1 )

ライセンス: Link先を確認
Peiran Wang, (参考訳) ブロックチェーンは、ゼロトラスト環境において、さまざまなアプリケーションのための一般的な分散パラダイムになっています。 ブロックチェーンの中核はコンセンサスプロトコルであり、すべての参加者の間でコンセンサスを確立する。 PoW(Proof-of-Work)は、最も一般的なコンセンサスプロトコルの1つである。 しかし、参加者に無意味なハッシュパズルを解くためにコンピュータパワーを使用するよう促すPoWコンセンサスプロトコルは、常にエネルギー浪費として疑問視されている。 これらの問題に対処するため,ブロックチェーン(FedChain)の有用なフェデレーション学習の証明に基づく,効率的かつセキュアなコンセンサスプロトコルを提案する。 私たちはまず、フェデレートされた学習タスクを作業の証明として利用する、セキュアで堅牢なブロックチェーンアーキテクチャを提案します。 次に、FedChainアーキテクチャの効率を改善するためにプールアグリゲーション機構を統合する。 マイニングプール内の各参加者のモデルパラメータのプライバシを保護するために、秘密共有ベースのリングオールリデュースアーキテクチャを設計する。 また、FedChainのモデル性能を改善するために、データ分散に基づくフェデレーション学習モデル最適化アルゴリズムを導入する。 最後に、ゼロ知識証明に基づくフェデレーション学習モデルの検証を導入し、フェデレーション学習参加者のモデル性能を証明しつつ、フェデレーション学習参加者のプライバシを保存する。 当社のアプローチは広範な実験を通じて検証され,その性能を実証している。

Blockchain has become a popular decentralized paradigm for various applications in the zero-trust environment. The core of the blockchain is the consensus protocol, which establishes consensus among all the participants. PoW (Proof-of-Work) is one of the most popular consensus protocols. However, the PoW consensus protocol which incentives the participants to use their computing power to solve a meaningless hash puzzle is continuously questioned as energy-wasting. To address these issues, we propose an efficient and secure consensus protocol based on proof of useful federated learning for blockchain (called FedChain). We first propose a secure and robust blockchain architecture that takes federated learning tasks as proof of work. Then a pool aggregation mechanism is integrated to improve the efficiency of the FedChain architecture. To protect model parameter privacy for each participant within a mining pool, a secret sharing-based ring-all reduce architecture is designed. We also introduce a data distribution-based federated learning model optimization algorithm to improve the model performance of FedChain. At last, a zero-knowledge proof-based federated learning model verification is introduced to preserve the privacy of federated learning participants while proving the model performance of federated learning participants. Our approach has been tested and validated through extensive experiments, demonstrating its performance.
公開日:2023-08-29
翻訳日:2024-03-19 07:12:46
# LoVeは空中にいる --分散公開センサを用いたADS-B信号の位置検証

LoVe is in the Air -- Location Verification of ADS-B Signals using Distributed Public Sensors ( http://arxiv.org/abs/2308.15104v1 )

ライセンス: Link先を確認
Johanna Ansohn McDougall, Alessandro Brighente, Willi Großmann, Ben Ansohn McDougall, Joshua Stock, Hannes Federrath, (参考訳) Automatic Dependant Surveillance-Broadcast (ADS-B) メッセージスキームは、メッセージの認証や暗号化なしに設計された。 したがって、スプーフされたメッセージを注入したり、送信されたグローバルナビゲーション衛星システム(GNSS)の座標を変更することで、簡単に攻撃することができる。 受信した情報の完全性を検証するため,マルチレイタレーション,カルマンフィルタの使用,グループ認証など,様々な手法が提案されている。 しかしながら、標準の変更に基づくソリューションは、法的および規制上の問題により、実装が困難で遅すぎる可能性がある。 はるかに調査の少ないバンテージは、公開センサーデータを用いた位置検証である。 本稿では,空間的指標を用いた軽量なメッセージ検証手法であるLoVeを提案する。 LoVeでは、データ駆動で軽量なアプローチを使用して、報告された座標の妥当性を、位置プライバシー保護の方法で評価することができる。 2つのオープンデータセットでアプローチをテストすることで、LoVeは非常に低い偽陽性率(0と0.00106)と非常に低い偽陰性率(0.00065と0.00334)を達成し、大きなセンサーセットでもうまくスケール可能なリアルタイム互換アプローチを提供することを示した。 既存のアプローチと比較して、LoVeは大量のセンサーを必要としたり、位置情報の請求を確認するために可能な限り多くのセンサーがメッセージを同時に記録する必要はない。 さらに、現在デプロイされているシステムに直接適用できるため、後方互換性がある。

The Automatic Dependant Surveillance-Broadcast (ADS-B) message scheme was designed without any authentication or encryption of messages in place. It is therefore easily possible to attack it, e.g., by injecting spoofed messages or modifying the transmitted Global Navigation Satellite System (GNSS) coordinates. In order to verify the integrity of the received information, various methods have been suggested, such as multilateration, the use of Kalman filters, group certification, and many others. However, solutions based on modifications of the standard may be difficult and too slow to be implemented due to legal and regulatory issues. A vantage far less explored is the location verification using public sensor data. In this paper, we propose LoVe, a lightweight message verification approach that uses a geospatial indexing scheme to evaluate the trustworthiness of publicly deployed sensors and the ADS-B messages they receive. With LoVe, new messages can be evaluated with respect to the plausibility of their reported coordinates in a location privacy-preserving manner, while using a data-driven and lightweight approach. By testing our approach on two open datasets, we show that LoVe achieves very low false positive rates (between 0 and 0.00106) and very low false negative rates (between 0.00065 and 0.00334) while providing a real-time compatible approach that scales well even with a large sensor set. Compared to currently existing approaches, LoVe neither requires a large number of sensors, nor for messages to be recorded by as many sensors as possible simultaneously in order to verify location claims. Furthermore, it can be directly applied to currently deployed systems thus being backward compatible.
公開日:2023-08-29
翻訳日:2024-03-19 07:12:46
# PTTS:Ethereumブロックチェーン上のゼロ知識証明に基づくプライベートトークン転送システムとそのネットワークフローに基づくバランス範囲プライバシ攻撃解析

PTTS: Zero-Knowledge Proof-based Private Token Transfer System on Ethereum Blockchain and its Network Flow Based Balance Range Privacy Attack Analysis ( http://arxiv.org/abs/2308.15139v1 )

ライセンス: Link先を確認
Goshgar Ismayilov, Can Ozturan, (参考訳) ブロックチェーンは分散化され、不変のデータベースであり、ネットワークのノード間で共有される。 ブロックチェーンは近年、従来の金融システムを破壊して大きな注目を集めていますが、トランザクションのプライバシは依然として問題であり、対処と分析が必要です。 本稿では,Ethereum公開ブロックチェーンのためのPTTS(Private Token Transfer System)を提案する。 提案するフレームワークでは,ゼロ知識ベースのプロトコルをZokratesを使用して設計し,当社のプライベートトークンスマートコントラクトに統合しています。 Webユーザインターフェースの設計の助けを借りて、エンドユーザはサードパーティのセットアップなしでスマートコントラクトと対話できる。 本論文の第2部では,ネットワークフロー問題としてモデル化されたリプレイ攻撃やバランス範囲のプライバシ攻撃を含む,セキュリティとプライバシの分析を行う。 特定の組織や相手に意図的にバランス範囲が漏れている場合、多項式複雑性の最小コストフローネットワークアルゴリズムを用いることで、ユーザバランスに関する有意義な情報を抽出できることが示されている。 実験では,提案フレームワークのEthereumガス消費と証明生成時間について報告する。 また、ネットワークソリューションの時間とバランス範囲のプライバシ攻撃によるアドレスのサブセットの良さ率を、アドレス数、トランザクション数、漏洩した転送トランザクション量の比率に関して報告する。

Blockchains are decentralized and immutable databases that are shared among the nodes of the network. Although blockchains have attracted a great scale of attention in the recent years by disrupting the traditional financial systems, the transaction privacy is still a challenging issue that needs to be addressed and analysed. We propose a Private Token Transfer System (PTTS) for the Ethereum public blockchain in the first part of this paper. For the proposed framework, zero-knowledge based protocol has been designed using Zokrates and integrated into our private token smart contract. With the help of web user interface designed, the end users can interact with the smart contract without any third-party setup. In the second part of the paper, we provide security and privacy analysis including the replay attack and the balance range privacy attack which has been modelled as a network flow problem. It is shown that in case some balance ranges are deliberately leaked out to particular organizations or adversial entities, it is possible to extract meaningful information about the user balances by employing minimum cost flow network algorithms that have polynomial complexity. The experimental study reports the Ethereum gas consumption and proof generation times for the proposed framework. It also reports network solution times and goodness rates for a subset of addresses under the balance range privacy attack with respect to number of addresses, number of transactions and ratio of leaked transfer transaction amounts.
公開日:2023-08-29
翻訳日:2024-03-19 07:12:46
# オンラインサービスにおけるリアルタイムリスクベース認証の評価:複雑さの勝利

Evaluation of Real-World Risk-Based Authentication at Online Services Revisited: Complexity Wins ( http://arxiv.org/abs/2308.15156v1 )

ライセンス: Link先を確認
Jan-Phillip Makowski, Daniela Pöhn, (参考訳) リスクベースの認証(RBA)は、第2の認証メソッドを常に必要とせずに、盗まれたパスワードや、その他の推測されたパスワードによる攻撃からエンドユーザを保護することを目的としている。 オンラインサービスは一般的に、通常と見なされるもの、そうでないもの、そしてその後のアクションに制限を課す。 その結果、RBAはログイン中の位置情報やデバイスなど、さまざまな機能を監視している。 機能が期待値と異なる場合、第2の認証方法が要求される。 しかし、システムがどのように動作するかに関する情報を公表するオンラインサービスはごくわずかである。 これにより、RBAの研究だけでなく、組織における開発や採用も妨げられます。 RBAシステムがどのように動作するかを理解するため、ブラックボックステストが適用される。 結果を検証するため、Google、Amazon、Facebookの3大プロバイダを再評価しました。 テスト設定とテストケースに基づいて、Googleのアカウント作成に基づくRAAの違いに気付きました。 さらに、いくつかのテストケースがRABシステムをトリガーすることは滅多にない。 RBAシステムに対する新たな洞察を与え,今後の課題を提起する。

Risk-based authentication (RBA) aims to protect end-users against attacks involving stolen or otherwise guessed passwords without requiring a second authentication method all the time. Online services typically set limits on what is still seen as normal and what is not, as well as the actions taken afterward. Consequently, RBA monitors different features, such as geolocation and device during login. If the features' values differ from the expected values, then a second authentication method might be requested. However, only a few online services publish information about how their systems work. This hinders not only RBA research but also its development and adoption in organizations. In order to understand how the RBA systems online services operate, black box testing is applied. To verify the results, we re-evaluate the three large providers: Google, Amazon, and Facebook. Based on our test setup and the test cases, we notice differences in RBA based on account creation at Google. Additionally, several test cases rarely trigger the RBA system. Our results provide new insights into RBA systems and raise several questions for future work.
公開日:2023-08-29
翻訳日:2024-03-19 07:12:46
# TASEP: ソーシャルエンジニアリングの失敗を防ぐソーシャルエンジニアリングテーブルトップロールプレイングゲーム

TASEP: A Collaborative Social Engineering Tabletop Role-Playing Game to Prevent Successful Social Engineering Attacks ( http://arxiv.org/abs/2308.15161v1 )

ライセンス: Link先を確認
Lukas Hafner, Florian Wutz, Daniela Pöhn, Wolfgang Hommel, (参考訳) 高度な永続的脅威グループによる組織に対する攻撃によるデータ漏洩は、しばしば、悪意のあるソフトウェアが使われる前に、社会工学(SE)を初期攻撃ベクタとして巻き込む。 フィッシングメールの自動検出などの技術的セキュリティコントロールは、SEのリスク軽減、教育によるSE攻撃の認識の向上、人員のモチベーション向上など、組織のレジリエンスを高めるための重要なビルディングブロックとなっている。 より広範なSE認知キャンペーンの1つの要素として、SE認知トレーニングを促進するために、2つのエディションでテーブルトップ・アズ・ソーシャル・エンジニアリング・ディザクション(TASEP)と呼ばれるSEテーブルトップゲームを開発した。 (a)中小企業 (b)大企業はそれぞれ。 ゲームデザインはダンジョンズ&ドラゴンズのロールプレイングゲームにインスパイアされ、ゲーム内のターゲット組織のLEGOモデルを促進する。 参加者は、SE侵入テスターのグループをプレイし、ゲームマスターが指導するセキュリティ監査を実行することで役割を切り替える。 異なる学生グループで作成したゲームを評価し,高度に没入的かつ柔軟なトレーニングを達成し,SEについて学ぶ楽しさと意識を高める方法を得た。

Data breaches resulting from targeted attacks against organizations, e.g., by advanced persistent threat groups, often involve social engineering (SE) as the initial attack vector before malicious software is used, e.g., for persistence, lateral movement, and data exfiltration. While technical security controls, such as the automated detection of phishing emails, can contribute to mitigating SE risks, raising awareness for SE attacks through education and motivation of personnel is an important building block to increasing an organization's resilience. To facilitate hands-on SE awareness training as one component of broader SE awareness campaigns, we created a SE tabletop game called Tabletop As Social Engineering Prevention (TASEP) in two editions for (a) small and medium enterprises and (b) large corporations, respectively. Its game design is inspired by Dungeons & Dragons role-playing games and facilitates LEGO models of the in-game target organizations. Participants switch roles by playing a group of SE penetration testers and conducting a security audit guided by the game master. We evaluated the created game with different student groups, achieving highly immersive and flexible training, resulting in an entertaining way of learning about SE and raising awareness.
公開日:2023-08-29
翻訳日:2024-03-19 07:12:46
# 企業における異なる意識キャンペーンに関する研究

A Study of Different Awareness Campaigns in a Company ( http://arxiv.org/abs/2308.15176v1 )

ライセンス: Link先を確認
Laura Gamisch, Daniela Pöhn, (参考訳) フィッシング(英: Phishing)は、金融や評判にダメージを与え、その存在を脅かす組織にとって大きなサイバー脅威である。 フィッシング対策は、従業員に対する意識訓練によって補完されるべきである。 しかし、意識の指標の検証はほとんどない。 その結果、どの手法が最高の成功をもたらすかというコンセンサスがないため、意識トレーニングを統合する際に、組織はさらなる負担を負うことになる。 本稿では,意識概念をうまく実装し,検証する方法について検討する。 この目的のために,中小企業(中小企業)におけるケーススタディにおいて,要件や手法の組み合わせ等の諸要因を考慮に入れた。 成功を測るためにフィッシング運動が行われる。 本研究は,シミュレートされたフィッシング運動において,快適な運動がより良いパフォーマンスをもたらすことを示唆している。 また,標的群に有意な改善と相違が認められた。 主要なパフォーマンス指標を統合した意識訓練の実施は、他の組織の基盤として利用することができる。

Phishing is a major cyber threat to organizations that can cause financial and reputational damage, threatening their existence. The technical measures against phishing should be complemented by awareness training for employees. However, there is little validation of awareness measures. Consequently, organizations have an additional burden when integrating awareness training, as there is no consensus on which method brings the best success. This paper examines how awareness concepts can be successfully implemented and validated. For this purpose, various factors, such as requirements and possible combinations of methods, are taken into account in our case study at a small- and medium-sized enterprise (SME). To measure success, phishing exercises are conducted. The study suggests that pleasant campaigns result in better performance in the simulated phishing exercise. In addition, significant improvements and differences in the target groups could be observed. The implementation of awareness training with integrated key performance indicators can be used as a basis for other organizations.
公開日:2023-08-29
翻訳日:2024-03-19 07:12:46
# State of the Art Report: Verified Computation

State of the Art Report: Verified Computation ( http://arxiv.org/abs/2308.15191v2 )

ライセンス: Link先を確認
Jim Woodcock, Mikkel Schmidt Andersen, Diego F. Aranha, Stefan Hallerstede, Simon Thrane Hansen, Nikolaj Kuhne Jakobsen, Tomas Kulik, Peter Gorm Larsen, Hugo Daniel Macedo, Carlos Ignacio Isasa Martin, Victor Alexander Mtsimbe Norrild, (参考訳) 本報告では、検証可能な計算の最先端について述べる。 検証可能な計算問題(検証可能な計算問題) コンピュータエージェントが2つあることを仮定する。 第1のエージェントは検証者、第2のエージェントは証明者である。 検証者は、証明者が計算を実行することを望んでいる。 検証者は、計算の記述を証明者に送信する。 証明者がタスクを完了すると、証明者は検証者に出力を返す。 出力には証明が含まれます。 検証者は、この証明を使用して、証明者が出力を正しく計算したかどうかを確認することができる。 このチェックは、計算で使用されるアルゴリズムを検証するために必要ではない。 代わりに、証明者が検証者によって指定された計算を用いて出力を計算したチェックである。 チェックに必要な労力は、計算の実行に必要な労力よりもはるかに少なくなければならない。 この最先端のレポートは、4000ページ以上に及ぶ文献から128の論文を調査している。 その他の論文や書籍は調査されたが、削除された。 調査された論文は圧倒的に数学的だった。 我々は、検証可能な計算の基礎を形成する主要な概念を要約した。 報告書には2つの主要なセクションが含まれている。 第一のより大きい節は確率的にチェック可能な証明とゼロ知識証明の理論的基礎をカバーしている。 第2節では、検証可能な計算の現在の実践について記述している。 次の2つの報告がカバーされる 一 検証可能な計算の軍事的応用及び (ii)技術デモ参加者の集まり。 ひとつは、検証可能な計算における現在の最先端技術によって、どのようなアプリケーションが有効になっているかを知りたい人によって読み取られるように意図されている。 2つ目は、実践的なツールを見て、実験を自分自身で実行したい人のためのものです。

This report describes the state of the art in verifiable computation. The problem being solved is the following: The Verifiable Computation Problem (Verifiable Computing Problem) Suppose we have two computing agents. The first agent is the verifier, and the second agent is the prover. The verifier wants the prover to perform a computation. The verifier sends a description of the computation to the prover. Once the prover has completed the task, the prover returns the output to the verifier. The output will contain proof. The verifier can use this proof to check if the prover computed the output correctly. The check is not required to verify the algorithm used in the computation. Instead, it is a check that the prover computed the output using the computation specified by the verifier. The effort required for the check should be much less than that required to perform the computation. This state-of-the-art report surveys 128 papers from the literature comprising more than 4,000 pages. Other papers and books were surveyed but were omitted. The papers surveyed were overwhelmingly mathematical. We have summarised the major concepts that form the foundations for verifiable computation. The report contains two main sections. The first, larger section covers the theoretical foundations for probabilistically checkable and zero-knowledge proofs. The second section contains a description of the current practice in verifiable computation. Two further reports will cover (i) military applications of verifiable computation and (ii) a collection of technical demonstrators. The first of these is intended to be read by those who want to know what applications are enabled by the current state of the art in verifiable computation. The second is for those who want to see practical tools and conduct experiments themselves.
公開日:2024-02-16
翻訳日:2024-03-19 07:12:46
# CVSSスコーディングの不整合性に対するシーディングライト:広帯域セキュリティ脆弱性の評価に関するユーザ中心的研究

Shedding Light on CVSS Scoring Inconsistencies: A User-Centric Study on Evaluating Widespread Security Vulnerabilities ( http://arxiv.org/abs/2308.15259v1 )

ライセンス: Link先を確認
Julia Wunder, Andreas Kurtz, Christian Eichenmüller, Freya Gassmann, Zinaida Benenson, (参考訳) CVSS(Common Vulnerability Scoring System)は、脆弱性管理における脆弱性の深刻さを評価する一般的な手法である。 評価工程では、0〜10の数値スコアが算出され、10が最も重い(臨界)値となる。 CVSSの目標は、さまざまな評価指標に匹敵するスコアを提供することである。 脆弱性が複数のアナリストによって評価された場合、そのスコアはしばしば異なります。 CVSSの評価は一貫性があるか? CVSS評価に影響を与える要因は何か? CVSS利用者196名のオンライン調査において,これらの質問を体系的に調査した。 CVSSの特定の指標は、''2022 CWE Top 25 Most Dangerous Software Weaknesses'リストの上位3の脆弱性を含む、広範な脆弱性タイプに対して矛盾して評価されている。 59人の参加者によるフォローアップ調査では、本調査と同じ脆弱性に対して、これらのユーザの68%が、異なる重症度評価をしました。 本研究は,ほとんどの評価者はCVSSの問題点を自覚しているが,CVSSは依然として脆弱性評価に有用なツールであると考えている。 最後に,不整合評価の可能性を議論し,スコアの整合性を改善するためのレコメンデーションを提供する。

The Common Vulnerability Scoring System (CVSS) is a popular method for evaluating the severity of vulnerabilities in vulnerability management. In the evaluation process, a numeric score between 0 and 10 is calculated, 10 being the most severe (critical) value. The goal of CVSS is to provide comparable scores across different evaluators. However, previous works indicate that CVSS might not reach this goal: If a vulnerability is evaluated by several analysts, their scores often differ. This raises the following questions: Are CVSS evaluations consistent? Which factors influence CVSS assessments? We systematically investigate these questions in an online survey with 196 CVSS users. We show that specific CVSS metrics are inconsistently evaluated for widespread vulnerability types, including Top 3 vulnerabilities from the ''2022 CWE Top 25 Most Dangerous Software Weaknesses'' list. In a follow-up survey with 59 participants, we found that for the same vulnerabilities from the main study, 68% of these users gave different severity ratings. Our study reveals that most evaluators are aware of the problematic aspects of CVSS, but they still see CVSS as a useful tool for vulnerability assessment. Finally, we discuss possible reasons for inconsistent evaluations and provide recommendations on improving the consistency of scoring.
公開日:2023-08-29
翻訳日:2024-03-19 07:12:46
# HypercubeネットワークトポロジによるEthereum上の信頼性のないプライバシ保護データアグリゲーション

Trustless Privacy-Preserving Data Aggregation on Ethereum with Hypercube Network Topology ( http://arxiv.org/abs/2308.15267v1 )

ライセンス: Link先を確認
Goshgar Ismayilov, Can Ozturan, (参考訳) プライバシー保護データアグリゲーションは、複数のパーティが互いにプライベートに協力し合う必要がある多くのアプリケーションにとって重要な問題である。 ブロックチェーンは、ネットワーク間で共有されるデータベースとして、このようなアグリゲーションを分散的に実行できる基盤となるプラットフォームを提供する。 そこで本稿では,ハイパキューブネットワークトポロジとともに,コミットメントスキームや非対称暗号化,ゼロ知識証明などの暗号化プリミティブを統合することにより,Ethereumブロックチェーンの要約のためのスケーラブルなプライバシ保護データアグリゲーションプロトコルを提案する。 プロトコルは、契約の展開、ユーザ登録、プライベートな提出、証明検証の4段階で構成されている。 プロトコルの分析は、セキュリティとスケーラビリティの2つの主な観点で行われ、計算、通信、ストレージのオーバーヘッドを含む。 本稿では,プロトコルのゼロ知識証明,スマートコントラクト,Webユーザインターフェースモデルについて述べる。 本研究は,各システム毎のガスコストを特定するための実験的研究である。 ユーザの増加にともなうガスコストの変化を特徴付けるために、一般的な定式化が提供される。 また、ゼロ知識証明生成と検証時間も測定する。

The privacy-preserving data aggregation is a critical problem for many applications where multiple parties need to collaborate with each other privately to arrive at certain results. Blockchain, as a database shared across the network, provides an underlying platform on which such aggregations can be carried out with a decentralized manner. Therefore, in this paper, we have proposed a scalable privacy-preserving data aggregation protocol for summation on the Ethereum blockchain by integrating several cryptographic primitives including commitment scheme, asymmetric encryption and zero-knowledge proof along with the hypercube network topology. The protocol consists of four stages as contract deployment, user registration, private submission and proof verification. The analysis of the protocol is made with respect to two main perspectives as security and scalability including computational, communicational and storage overheads. In the paper, the zero-knowledge proof, smart contract and web user interface models for the protocol are provided. We have performed an experimental study in order to identify the required gas costs per individual and per system. The general formulation is provided to characterize the changes in gas costs for the increasing number of users. The zero-knowledge proof generation and verification times are also measured.
公開日:2023-08-29
翻訳日:2024-03-19 07:12:46
# 長鎖攻撃:困難な調整とタイムスタンプの検証

Longest-chain Attacks: Difficulty Adjustment and Timestamp Verifiability ( http://arxiv.org/abs/2308.15312v1 )

ライセンス: Link先を確認
Tzuo Hann Law, Selman Erol, Lewis Tseng, (参考訳) 本稿では,POW(Proof-of-Work)ブロックチェーンを攻撃し,より長いチェーンを自制的に構築する敵について検討する。 我々は、難易度調整規則が適用された場合、敵が採用する最適な戦略を特徴付ける。 ほとんどの無許可のPOWブロックチェーンにおける時間(つまり各ブロックで指定されたタイムスタンプ)はある程度主観的であるため、時間を完全に検証可能な場合と、それが完全に検証不可能な場合の2つの極端なシナリオに注目します。 我々は、困難調整規則に直面する敵は、タイムスタンプが検証された場合、最も長いチェーン攻撃を見つけることができると結論付けている。 時間報告の柔軟性に対する調整が頻繁なPOWブロックチェーンは、最長のチェーン攻撃に対して、かなり脆弱である。 本研究のメインフィニングは,難易度調整規則の設計指針を提供し,タイムスタンプの妥当性を実証するものである。

We study an adversary who attacks a Proof-of-Work (POW) blockchain by selfishly constructing an alternative longest chain. We characterize optimal strategies employed by the adversary when a difficulty adjustment rule al\`a Bitcoin applies. As time (namely the times-tamp specified in each block) in most permissionless POW blockchains is somewhat subjective, we focus on two extreme scenarios: when time is completely verifiable, and when it is completely unverifiable. We conclude that an adversary who faces a difficulty adjustment rule will find a longest-chain attack very challenging when timestamps are verifiable. POW blockchains with frequent difficulty adjustments relative to time reporting flexibility will be substantially more vulnerable to longest-chain attacks. Our main fining provides guidance on the design of difficulty adjustment rules and demonstrates the importance of timestamp verifiability.
公開日:2023-08-29
翻訳日:2024-03-19 07:12:46
# Masquerade: ブロックチェーンのシンプルで軽量なトランザクションリオーダー

Masquerade: Simple and Lightweight Transaction Reordering Mitigation in Blockchains ( http://arxiv.org/abs/2308.15347v1 )

ライセンス: Link先を確認
Arti Vedula, Shaileshh Bojja Venkatakrishnan, Abhishek Gupta, (参考訳) ブロックチェーンは強力なセキュリティ保証を提供するが、トランザクションの順序からユーザを保護することはできない。 マイナー、ボット、バリデータといったプレイヤーは、様々な取引をリオーダーし、最大抽出可能な価値(MEV)と呼ばれる重要な利益を享受することができる。 本稿では,MEV対応プロトコルであるMasqueradeを提案する。 我々は、取引が開示されたとしても、取引がいずれにせよコミットされることを保証するために、取引ごとの厳格な順序付けを提案する。 そこで本プロトコルでは,攻撃シナリオにおける敵の行動を軽減するための「トークン」の概念を導入する。 このようなトークンは、ユーザが自発的に購入でき、トランザクションにトークン番号を含めることを選択できる。 ユーザがトークンをトランザクションに含めている場合、私たちのプロトコルでは、トークン番号に従って厳密にトランザクションを注文するためにブロックビルダが必要です。 シミュレーションにより、既存の慣行と比較して、敵がMEVトランザクションの恩恵を受ける確率を減少させることを示す。

Blockchains offer strong security gurarantees, but cannot protect users against the ordering of transactions. Players such as miners, bots and validators can reorder various transactions and reap significant profits, called the Maximal Extractable Value (MEV). In this paper, we propose an MEV aware protocol design called Masquerade, and show that it will increase user satisfaction and confidence in the system. We propose a strict per-transaction level of ordering to ensure that a transaction is committed either way even if it is revealed. In this protocol, we introduce the notion of a "token" to mitigate the actions taken by an adversary in an attack scenario. Such tokens can be purchased voluntarily by users, who can then choose to include the token numbers in their transactions. If the users include the token in their transactions, then our protocol requires the block-builder to order the transactions strictly according to token numbers. We show through extensive simulations that this reduces the probability that the adversaries can benefit from MEV transactions as compared to existing current practices.
公開日:2023-08-29
翻訳日:2024-03-19 07:12:46
# 最も一般的な因子を学習する:変圧器の予測を説明する

Learning the greatest common divisor: explaining transformer predictions ( http://arxiv.org/abs/2308.15594v2 )

ライセンス: Link先を確認
François Charton, (参考訳) 2つの正の整数の最大共通因子(GCD)を計算するために訓練された小さな変圧器の予測は、モデル入力と出力を見ることで完全に特徴付けられる。 トレーニングが進むと、モデルは整数の$\mathcal D$、整数と小さな素数を表すために使用される基底の因子の積を学習し、両方の入力を分割する$\mathcal D$の最大の要素を予測する。 トレーニングディストリビューションはパフォーマンスに影響を与えます。 均一なオペランドから訓練されたモデルは、ほんのわずかのGCD(最大38ドルGCD$\leq100$)しか学ばない。 対数ユニフォームオペランドはパフォーマンスを7,3$ GCD $\leq 100$、対数ユニフォーム分布(すなわちGCD)を9,11ドルに向上させる。 しかし、均一(バランスの取れた)GCDからのトレーニングは説明責任を損なう。

The predictions of small transformers, trained to calculate the greatest common divisor (GCD) of two positive integers, can be fully characterized by looking at model inputs and outputs. As training proceeds, the model learns a list $\mathcal D$ of integers, products of divisors of the base used to represent integers and small primes, and predicts the largest element of $\mathcal D$ that divides both inputs. Training distributions impact performance. Models trained from uniform operands only learn a handful of GCD (up to $38$ GCD $\leq100$). Log-uniform operands boost performance to $73$ GCD $\leq 100$, and a log-uniform distribution of outcomes (i.e. GCD) to $91$. However, training from uniform (balanced) GCD breaks explainability.
公開日:2024-03-14
翻訳日:2024-03-19 07:12:46
# テキスト分類における適応的攻撃検出:テキスト知覚分類のための空間探索機能を活用する

Adaptive Attack Detection in Text Classification: Leveraging Space Exploration Features for Text Sentiment Classification ( http://arxiv.org/abs/2308.15663v1 )

ライセンス: Link先を確認
Atefeh Mahdavi, Neda Keivandarian, Marco Carvalho, (参考訳) 敵のサンプル検出は、特に急速に進化する攻撃に直面して、適応的なサイバー防御において重要な役割を果たす。 適応型サイバー防御では、攻撃の性質と特性が継続的に変化し、これらの脅威を効果的に検出し、対処するための堅牢なメカニズムを持つことが重要である。 敵のサンプル検出技術を取り入れることで、適応型サイバー防御システムは、機械学習モデルやその他のシステムの脆弱性を悪用しようとする攻撃を識別し軽減する能力を高めることができる。 逆の例は、意図的な摂動を自然の入力に適用し、誤った分類をもたらす入力である。 本稿では,BERT(Bidirectional Encoder Representations from Transformers)のパワーを活用し,空間探索機能(Space Exploration Features)の概念を提案する。 BERTモデルの出力から得られた特徴ベクトルを用いて特徴空間の新たな表現を捕捉し、密度推定法を改善する。

Adversarial example detection plays a vital role in adaptive cyber defense, especially in the face of rapidly evolving attacks. In adaptive cyber defense, the nature and characteristics of attacks continuously change, making it crucial to have robust mechanisms in place to detect and counter these threats effectively. By incorporating adversarial example detection techniques, adaptive cyber defense systems can enhance their ability to identify and mitigate attacks that attempt to exploit vulnerabilities in machine learning models or other systems. Adversarial examples are inputs that are crafted by applying intentional perturbations to natural inputs that result in incorrect classification. In this paper, we propose a novel approach that leverages the power of BERT (Bidirectional Encoder Representations from Transformers) and introduces the concept of Space Exploration Features. We utilize the feature vectors obtained from the BERT model's output to capture a new representation of feature space to improve the density estimation method.
公開日:2023-08-29
翻訳日:2024-03-19 07:12:46
# 機械学習と統計的アルゴリズムを用いたDDOS攻撃の予測と防止

Predict And Prevent DDOS Attacks Using Machine Learning and Statistical Algorithms ( http://arxiv.org/abs/2308.15674v1 )

ライセンス: Link先を確認
Azadeh Golduzian, (参考訳) 被害者のリソースを浪費してサービスのクラッシュや停止を起こそうとする悪意のある試みは、DDoS(Distributed Denial-of-service)攻撃として知られている。 DDOS攻撃は、認証されたユーザーがインターネット上で利用可能な特定のサービスにアクセスするのを阻止する。 ネットワーク層の様々なコンポーネントをターゲットにしており、より高いレイヤに近づく前にネットワークのレイヤ4(トランスポート層)に停止する方がよい。 本研究では、複数の機械学習と統計モデルを用いて、トラフィックフローのトレースからDDoS攻撃を検出するとともに、DDOS攻撃を防ぐ方法を提案する。 この目的のために、ロジスティック回帰、CNN、XGBoost、Naive Bayes、AdaBoostClassifier、KNN、ランダムフォレストMLアルゴリズムを用いた。 さらに、最も関連性の高い特徴を特定するために、3つの手法を用いてデータ前処理を行った。 本稿では,5000万件を超える記録を持つ最新のデータセットであるCICDDoS2019を用いて,DDOS攻撃検出精度を改善する問題について検討する。 この調査に広範囲なデータセットを使用したので、我々の発見は信頼でき、実用的です。 我々の標的クラス(攻撃クラス)は不均衡だった。 そこで,機械学習において不均衡なデータを扱うために2つの手法を用いた。 XGboostの機械学習モデルは、ターゲットクラスにSMOTEアプローチを適用した後、最高の検出精度(99.9999%)を提供し、最近開発されたDDoS検出システムを上回った。 我々の知る限りでは、5000万以上のレコードを持つ最新のデータセットの研究は行われておらず、最も重要な特徴を選択するための統計技術に対処し、この高い精度を持ち、DDOS攻撃を避ける方法を提案する。

A malicious attempt to exhaust a victim's resources to cause it to crash or halt its services is known as a distributed denial-of-service (DDoS) attack. DDOS attacks stop authorized users from accessing specific services available on the Internet. It targets varying components of a network layer and it is better to stop into layer 4 (transport layer) of the network before approaching a higher layer. This study uses several machine learning and statistical models to detect DDoS attacks from traces of traffic flow and suggests a method to prevent DDOS attacks. For this purpose, we used logistic regression, CNN, XGBoost, naive Bayes, AdaBoostClassifier, KNN, and random forest ML algorithms. In addition, data preprocessing was performed using three methods to identify the most relevant features. This paper explores the issue of improving the DDOS attack detection accuracy using the latest dataset named CICDDoS2019, which has over 50 million records. Because we employed an extensive dataset for this investigation, our findings are trustworthy and practical. Our target class (attack class) was imbalanced. Therefore, we used two techniques to deal with imbalanced data in machine learning. The XGboost machine learning model provided the best detection accuracy of (99.9999%) after applying the SMOTE approach to the target class, outperforming recently developed DDoS detection systems. To the best of our knowledge, no other research has worked on the most recent dataset with over 50 million records, addresses the statistical technique to select the most significant feature, has this high accuracy, and suggests ways to avoid DDOS attackI.
公開日:2023-08-30
翻訳日:2024-03-19 07:12:46
# IoTベースのスマートグリッドに応用された機械学習アプローチの脆弱性

Vulnerability of Machine Learning Approaches Applied in IoT-based Smart Grid: A Review ( http://arxiv.org/abs/2308.15736v3 )

ライセンス: Link先を確認
Zhenyong Zhang, Mengxiang Liu, Mingyang Sun, Ruilong Deng, Peng Cheng, Dusit Niyato, Mo-Yuen Chow, Jiming Chen, (参考訳) 機械学習(ML)は、IoT(Internet-of-Things)ベースのスマートグリッドでの使用頻度が高まっている。 しかし、MLの信頼性は深刻な問題であり、MLベースのスマートグリッドアプリケーション(MLsgAPPs)のトレンドに対応するために対処する必要がある。 電力信号に注入される対向歪みは、システムの通常の制御と操作に大きな影響を与える。 したがって、安全クリティカルパワーシステムに適用されたMLsgAPPの脆弱性評価を行うことが不可欠である。 本稿では,MLsgAPPの攻撃・防御手法の設計における最近の進歩を概観する。 MLセキュリティに関する従来の調査とは異なり、電力システムの特徴に焦点を当てたMLsgAPPsのセキュリティに関する最初のレビュー作業である。 まず、MLsgAPPに対する敵攻撃を構築するための具体例を強調します。 次に、電力系統とMLモデルの両面からMLsgAPPの脆弱性を分析する。 その後、MLsgAPPに対する敵の攻撃を発生・伝達・流通・消費のシナリオで検証・比較する総合的な調査を行い、その対策を防御する攻撃に応じて検討する。 最後に,攻撃者側と守備側について,今後の研究方針について考察する。 また、大規模言語モデルベース(例えば、ChatGPT)パワーシステムアプリケーションの潜在的な脆弱性を分析する。 総合的に、MLsgAPPsの敵問題の調査により多くの研究者が貢献することを奨励する。

Machine learning (ML) sees an increasing prevalence of being used in the internet-of-things (IoT)-based smart grid. However, the trustworthiness of ML is a severe issue that must be addressed to accommodate the trend of ML-based smart grid applications (MLsgAPPs). The adversarial distortion injected into the power signal will greatly affect the system's normal control and operation. Therefore, it is imperative to conduct vulnerability assessment for MLsgAPPs applied in the context of safety-critical power systems. In this paper, we provide a comprehensive review of the recent progress in designing attack and defense methods for MLsgAPPs. Unlike the traditional survey about ML security, this is the first review work about the security of MLsgAPPs that focuses on the characteristics of power systems. We first highlight the specifics for constructing the adversarial attacks on MLsgAPPs. Then, the vulnerability of MLsgAPP is analyzed from both the aspects of the power system and ML model. Afterward, a comprehensive survey is conducted to review and compare existing studies about the adversarial attacks on MLsgAPPs in scenarios of generation, transmission, distribution, and consumption, and the countermeasures are reviewed according to the attacks that they defend against. Finally, the future research directions are discussed on the attacker's and defender's side, respectively. We also analyze the potential vulnerability of large language model-based (e.g., ChatGPT) power system applications. Overall, we encourage more researchers to contribute to investigating the adversarial issues of MLsgAPPs.
公開日:2023-12-25
翻訳日:2024-03-19 07:12:46
# 有限場上の一変数アフィンマップに基づくケイリーハッシュ関数のクリプトアナリシス

Cryptanalysis of a Cayley Hash Function Based on Affine Maps in one Variable over a Finite Field ( http://arxiv.org/abs/2308.15765v3 )

ライセンス: Link先を確認
Bianca Sosnovski, (参考訳) ケイリーハッシュ関数は、グループのケイリーグラフから構築された暗号ハッシュである。 Shpilrain と Sosnovski (2016) によって提案されたハッシュ関数は、有限体上の線型函数に基づいて、安全でないことが証明された。 本稿では, シュピリンとソスノフスキのハッシュを用いたGhaffari and Mostaghim (2018) の提案も安全でないことを示す。 衝突によるセキュリティの脆弱性を実証する。

Cayley hash functions are cryptographic hashes constructed from Cayley graphs of groups. The hash function proposed by Shpilrain and Sosnovski (2016), based on linear functions over a finite field, was proven insecure. This paper shows that the proposal by Ghaffari and Mostaghim (2018) that uses the Shpilrain and Sosnovski's hash in its construction is also insecure. We demonstrate its security vulnerability by constructing collisions.
公開日:2023-09-04
翻訳日:2024-03-19 07:03:01
# ポスト量子暗号は中央銀行デジタル通貨にどのように影響するか?

How does post-quantum cryptography affect Central Bank Digital Currency? ( http://arxiv.org/abs/2308.15787v2 )

ライセンス: Link先を確認
Lars Hupel, Makan Rafiee, (参考訳) 中央銀行デジタル通貨(CBDC、Central Bank Digital Currency)は、デジタル決済の新興トレンドであり、世界中の中央銀行の大半がデジタル版の現金を調査、試験、運用している。 デザインの選択は、アカウント対トークンなど、大きく異なるが、ウォレットは一般的に暗号アルゴリズムによって保護され、二重支出から保護され、非審査が保証される。 量子コンピューティングの出現により、これらのアルゴリズムは新たな攻撃ベクトルによって脅かされる。 これらの脅威をよりよく理解するために、CBDCシステムにおける典型的な資産の研究を行い、どの資産がポスト量子暗号に最も適しているかを説明し、アップグレード戦略を提案する。

Central Bank Digital Currency (CBDC) is an emerging trend in digital payments, with the vast majority of central banks around the world researching, piloting, or even operating a digital version of cash. While design choices differ broadly, such as accounts vs. tokens, the wallets are generally protected through cryptographic algorithms that safeguard against double spending and ensure non-repudiation. With the advent of quantum computing, these algorithms are threatened by new attack vectors. To better understand those threats, we conducted a study of typical assets in a CBDC system, describe which ones are most amenable to post-quantum cryptography, and propose an upgrade strategy.
公開日:2023-12-18
翻訳日:2024-03-19 07:03:01
# ブロックチェーンシステムのセキュア化:トランザクションとスマートコントラクトの攻撃を検出するための新しい協調学習フレームワーク

Securing Blockchain Systems: A Novel Collaborative Learning Framework to Detect Attacks in Transactions and Smart Contracts ( http://arxiv.org/abs/2308.15804v1 )

ライセンス: Link先を確認
Tran Viet Khoa, Do Hai Son, Chi-Hieu Nguyen, Dinh Thai Hoang, Diep N. Nguyen, Nguyen Linh Trung, Tran Thi Thuy Quynh, Trong-Minh Hoang, Nguyen Viet Ha, Eryk Dutkiewicz, (参考訳) ブロックチェーンシステムの脆弱性を悪用する悪意のあるアクティビティがエスカレートしているため、堅牢な攻撃検出メカニズムには緊急の要件がある。 この課題に対処するために、ブロックチェーントランザクションとスマートコントラクトの攻撃を検出するために、トランザクションの特徴を分析することによって、新しい協調学習フレームワークを提案する。 当社のフレームワークは,マシンコードレベルでの複雑な攻撃(不正にユーザからコインを取り出す悪意のあるコードを注入するなど)など,さまざまな種類のブロックチェーン攻撃を分類する機能を備えています。 これを実現するために、提案フレームワークは、トランザクション機能を視覚表現に変換するユニークなツールを導入し、低レベルのマシンコードの効率的な分析と分類を容易にする。 さらに,分散マイニングノードにおける多様な攻撃タイプをリアルタイムに検出できる,カスタマイズされた協調学習モデルを提案する。 包括的なデータセットを作成するために、プライベートEthereumネットワークに基づいたパイロットシステムをデプロイし、複数の攻撃シナリオを実行する。 私たちの知る限り、私たちのデータセットは、ブロックチェーンシステムにおけるサイバー攻撃検出のための研究所で合成された、最も包括的で多様なトランザクションとスマートコントラクトのコレクションです。 我々のフレームワークは、広範囲なシミュレーションや、毎秒1,100トランザクション以上のスループットでリアルタイムな実験を通じて、約94 %の検知精度を実現している。 これらの説得力のある結果は、我々のフレームワークの有効性を検証し、現実世界のサイバー攻撃シナリオに対処する際の適応性を示す。

With the escalating prevalence of malicious activities exploiting vulnerabilities in blockchain systems, there is an urgent requirement for robust attack detection mechanisms. To address this challenge, this paper presents a novel collaborative learning framework designed to detect attacks in blockchain transactions and smart contracts by analyzing transaction features. Our framework exhibits the capability to classify various types of blockchain attacks, including intricate attacks at the machine code level (e.g., injecting malicious codes to withdraw coins from users unlawfully), which typically necessitate significant time and security expertise to detect. To achieve that, the proposed framework incorporates a unique tool that transforms transaction features into visual representations, facilitating efficient analysis and classification of low-level machine codes. Furthermore, we propose a customized collaborative learning model to enable real-time detection of diverse attack types at distributed mining nodes. In order to create a comprehensive dataset, we deploy a pilot system based on a private Ethereum network and conduct multiple attack scenarios. To the best of our knowledge, our dataset is the most comprehensive and diverse collection of transactions and smart contracts synthesized in a laboratory for cyberattack detection in blockchain systems. Our framework achieves a detection accuracy of approximately 94\% through extensive simulations and real-time experiments with a throughput of over 1,100 transactions per second. These compelling results validate the efficacy of our framework and showcase its adaptability in addressing real-world cyberattack scenarios.
公開日:2023-08-30
翻訳日:2024-03-19 07:03:01
# Wikipediaの利用データを強力なプライバシー保証付きで公開

Publishing Wikipedia usage data with strong privacy guarantees ( http://arxiv.org/abs/2308.16298v2 )

ライセンス: Link先を確認
Temilola Adeleye, Skye Berghel, Damien Desfontaines, Michael Hay, Isaac Johnson, Cléo Lemoisson, Ashwin Machanavajjhala, Tom Magerlein, Gabriele Modena, David Pujol, Daniel Simmons-Marengo, Hal Triedman, (参考訳) 約20年間、ウィキメディア財団はウィキペディアの各ページを毎日何人訪問したかという統計を公表してきた。 このデータは、ウィキペディアの編集者がオンライン百科事典を改善するためにどこに力を注ぐかを決めるのに役立ち、学術的な研究を可能にする。 2023年6月、ウィキメディア財団はTumult Labsの支援を受け、ウィキペディアの編集者や学術研究者からの長年の要請に応えた。 この新たなデータパブリッシングは、ウィキペディアを閲覧または編集する人々に堅牢な保証を提供するために、差分プライバシーを使用する。 本稿では、このデータ公開について、その目標、その展開の開始から続くプロセス、データ生成に使用されるアルゴリズム、およびデータリリースの結果について説明する。

For almost 20 years, the Wikimedia Foundation has been publishing statistics about how many people visited each Wikipedia page on each day. This data helps Wikipedia editors determine where to focus their efforts to improve the online encyclopedia, and enables academic research. In June 2023, the Wikimedia Foundation, helped by Tumult Labs, addressed a long-standing request from Wikipedia editors and academic researchers: it started publishing these statistics with finer granularity, including the country of origin in the daily counts of page views. This new data publication uses differential privacy to provide robust guarantees to people browsing or editing Wikipedia. This paper describes this data publication: its goals, the process followed from its inception to its deployment, the algorithms used to produce the data, and the outcomes of the data release.
公開日:2023-09-01
翻訳日:2024-03-19 07:03:01
# SIMD用大型整数器の高効率付加とモンゴメリー低減

Efficient Additions and Montgomery Reductions of Large Integers for SIMD ( http://arxiv.org/abs/2308.16432v1 )

ライセンス: Link先を確認
Pengchang Ren, Reiji Suda, Vorapong Suppakitpaisarn, (参考訳) 本稿では,SIMDを利用して512ビット以上の整数に対してモンゴメリー還元と加算を行うアルゴリズムを提案する。 既存のアルゴリズムは、SIMDを使用して並列化する場合、両方の操作に大きく依存するため、特にARMのSVEのような高価な操作では、非効率に遭遇する。 この問題を軽減するために、より小さな加算を用いて大きな整数の加算をシミュレートする新しい加算アルゴリズムが導入された。 これらのキャリアは、大きな整数に対して並列的な加算を実行するために使用される。 モンゴメリー還元の場合、シリアル乗算はSIMD拡張を用いて効果的に計算できるプリ計算に置き換えられる。 実験的な証拠は、これらの提案されたアルゴリズムが、いくつかの量子後暗号アルゴリズムの最先端実装の性能を大幅に向上させることを証明している。 特に、最新のCTIDH実装からの30%のスピードアップ、AVX-512プロセッサのCSIDH実装からの11%のスピードアップ、A64FX上のSIKEp503用のMicrosoftの標準PQCrypto-SIDHからの7%のスピードアップを提供する。

This paper presents efficient algorithms, designed to leverage SIMD for performing Montgomery reductions and additions on integers larger than 512 bits. The existing algorithms encounter inefficiencies when parallelized using SIMD due to extensive dependencies in both operations, particularly noticeable in costly operations like ARM's SVE. To mitigate this problem, a novel addition algorithm is introduced that simulates the addition of large integers using a smaller addition, quickly producing the same set of carries. These carries are then utilized to perform parallel additions on large integers. For Montgomery reductions, serial multiplications are replaced with precomputations that can be effectively calculated using SIMD extensions. Experimental evidence demonstrates that these proposed algorithms substantially enhance the performance of state-of-the-art implementations of several post-quantum cryptography algorithms. Notably, they deliver a 30% speed-up from the latest CTIDH implementation, an 11% speed-up from the latest CSIDH implementation in AVX-512 processors, and a 7% speed-up from Microsoft's standard PQCrypto-SIDH for SIKEp503 on A64FX.
公開日:2023-08-31
翻訳日:2024-03-19 07:03:01
# スマートホームの実現に向けた設計課題

Design Challenges for the Implementation of Smart Homes ( http://arxiv.org/abs/2308.16602v1 )

ライセンス: Link先を確認
Nesreen Mufid, (参考訳) ホームオートメーションは長年、世界中の普及を制限する課題に直面してきた。 これらの課題は、家庭の所有、柔軟性の低いシステム(家庭の外では監視できない)、最適なセキュリティを達成するための問題によって引き起こされる。 私たちの主な目的は、ユーザにとってシンプルで手頃な価格のスマートホームモデルの設計と実装です。 提案システムは,信頼性の高いセルネットワークを用いて,自宅の監視に柔軟性を提供する。 ユーザーは家から離れているとき、家の中にあるものを見ることができる。 さらに, 煙, ガス, 水漏れ, 強盗事件を検知する異なるセンサを提供することで, 安全性の問題を克服する。 さらに、自宅の外にカメラを置き、家の外にいるユーザーにフルビューを提供する。 ユーザは、火災や水漏れ、誰かが家に押し入った場合、自分の電話ケースのアプリケーションから通知を受ける。 これにより、そのようなケースが発生した場合、ユーザはアクションを取る機会が与えられる。 さらに、ユーザは、リモートで照明をオン/オフする機会を与えることで、家の照明システムを監視することができる。

Home automation for many years had faced challenges that limit its spreading around the world. These challenges caused by the high cost of Own such a home, inflexibility system (cannot be monitored outside the home) and issues to achieve optimal security. Our main objective is to design and implement a smart home model that is simple, affordable to the users. The proposed system provide flexibility to monitor the home, using the reliable cellular network. The user will be able what is inside the home when he /she is away from home. In addition to that, our model overcome the issue of the security by providing different sensors that detects smoke, gas, leakage of water and incases of burglary. Moreover, a camera will be available in the home to give a full view for the user when he/she is outside the home. The user will be informed by an application on his/she phone incase if there is a fire, water leakage and if someone break into the house. This will give the user a chance to take an action if such cases happened. Furthermore, the user can monitor the lighting system of the home, by giving the user a chance to turn the lights on and off remotely.
公開日:2023-08-31
翻訳日:2024-03-19 07:03:01
# ゼロ知識プロトコルと楕円曲線暗号の研究とJavaカードを用いたスマートカード環境における実装

Study of Zero-Knowledge protocols and Elliptic Curve Cryptography and their implementation in Smart Card environments using Java Card ( http://arxiv.org/abs/2308.16666v1 )

ライセンス: Link先を確認
Carlos Andres Agudelo Serna, (参考訳) 本稿では,ZKP(Zero-Knowledge Protocol)と楕円曲線暗号実装の問題について,Java Cardを用いて計算的に制限された環境において検討する。 さらに、スマートカード上に実装するためのゼロ知識プロトコルの選択方法と、このプロトコルを選択するためのベンチマークの実施方法について説明する。 また,楕円曲線暗号を用いたZKPプロトコルの実装に関する理論的検討を行った。 キーワード:認証、ゼロ知識、暗号、楕円曲線、Javaカード、スマートカード

This paper studies the problem of Zero-Knowledge Protocol (ZKP) and elliptic curve cryptographic implementation in a computationally limited environment, such as, the smart cards, using Java Card. Besides that, it is explained how the zero-knowledge protocol was selected to implement it on a smart card and how the benchmarking was conducted to select this protocol. The paper also shows a theoretical development to implement the ZKP protocol using elliptic curve cryptography. Keywords: Authentication; Zero-knowledge; Cryptography; Elliptic Curve; Java card; Smart cards
公開日:2023-08-31
翻訳日:2024-03-19 07:03:01
# プライバシーリスク定量化のための厳密かつ効率的なベイズ推定法(拡張版)

Exact and Efficient Bayesian Inference for Privacy Risk Quantification (Extended Version) ( http://arxiv.org/abs/2308.16700v1 )

ライセンス: Link先を確認
Rasmus C. Rønneberg, Raúl Pardo, Andrzej Wąsowski, (参考訳) データ分析は、商業目的と研究目的の両方において高い価値がある。 しかし、分析結果の開示は個人に深刻なプライバシーリスクをもたらす可能性がある。 Privugは、ソースコードを分析して、データ分析プログラムのプライバシーリスクを定量化する手法である。 この手法は確率分布を用いて攻撃者の知識をモデル化し、ベイズ推定により観測可能な出力に基づいてその知識を更新する。 現在、プリヴグはマルコフ・チェイン・モンテカルロ(MCMC)を用いて推論を行っている。 本稿では,多変量ガウス分布に基づくベイズ推論エンジンを提案する。 推論エンジンは、多変量ガウスモデルとしてモデル化できるPythonプログラムのサブセット向けに実装されている。 公共統計を公開するためのプログラムのプライバシーリスクを分析して評価する。 本手法は,プライバシのリスクを正確にかつ効率的に分析し,既存手法よりも優れていることを示す。 さらに,公共統計における差分プライバシの影響を解析するために,我々のエンジンを用いて実演する。

Data analysis has high value both for commercial and research purposes. However, disclosing analysis results may pose severe privacy risk to individuals. Privug is a method to quantify privacy risks of data analytics programs by analyzing their source code. The method uses probability distributions to model attacker knowledge and Bayesian inference to update said knowledge based on observable outputs. Currently, Privug uses Markov Chain Monte Carlo (MCMC) to perform inference, which is a flexible but approximate solution. This paper presents an exact Bayesian inference engine based on multivariate Gaussian distributions to accurately and efficiently quantify privacy risks. The inference engine is implemented for a subset of Python programs that can be modeled as multivariate Gaussian models. We evaluate the method by analyzing privacy risks in programs to release public statistics. The evaluation shows that our method accurately and efficiently analyzes privacy risks, and outperforms existing methods. Furthermore, we demonstrate the use of our engine to analyze the effect of differential privacy in public statistics.
公開日:2023-08-31
翻訳日:2024-03-19 07:03:01
# Facing Unknown: Contrastive Pre-Trainingに基づくオープンワールド暗号化トラフィック分類

Facing Unknown: Open-World Encrypted Traffic Classification Based on Contrastive Pre-Training ( http://arxiv.org/abs/2308.16861v1 )

ライセンス: Link先を確認
Xiang Li, Beibei Feng, Tianning Zang, Shuyuan Zhao, Jingrun Ma, (参考訳) 従来のETC(Encrypted Traffic Classification)手法は、オープンワールドの仮定で大量の暗号化されたトラフィックを分類すること、すなわち、既知のアプリケーションを同時に分類し、未知のアプリケーションを検出することにおいて、大きな課題に直面している。 オープンワールドコントラスト事前学習(OWCP)フレームワークを提案する。 OWCPは、頑健な特徴表現を得るために、対照的な事前訓練を行う。 これに基づいて球面写像空間を決定し,GANを訓練して既知の部分と類似した新しい流れを合成するが,どのクラスにも属さないような,既知のクラスごとの限界流を求める。 これらの合成フローは、分類器を変更するためにSoftmaxの未知ノードに割り当てられ、既知のフローに対する感度を効果的に向上し、未知のフローを著しく抑制する。 3つのデータセットに対する大規模な実験により、OWCPは既存のETCおよび一般的なオープンワールド分類法よりも大幅に優れていることが示された。 さらに、OWCPの各積分成分を検証するために、包括的アブレーション研究と感度分析を行った。

Traditional Encrypted Traffic Classification (ETC) methods face a significant challenge in classifying large volumes of encrypted traffic in the open-world assumption, i.e., simultaneously classifying the known applications and detecting unknown applications. We propose a novel Open-World Contrastive Pre-training (OWCP) framework for this. OWCP performs contrastive pre-training to obtain a robust feature representation. Based on this, we determine the spherical mapping space to find the marginal flows for each known class, which are used to train GANs to synthesize new flows similar to the known parts but do not belong to any class. These synthetic flows are assigned to Softmax's unknown node to modify the classifier, effectively enhancing sensitivity towards known flows and significantly suppressing unknown ones. Extensive experiments on three datasets show that OWCP significantly outperforms existing ETC and generic open-world classification methods. Furthermore, we conduct comprehensive ablation studies and sensitivity analyses to validate each integral component of OWCP.
公開日:2023-08-31
翻訳日:2024-03-19 07:03:01
# 速報:説明責任の安全性は最終結果に影響を及ぼす

Short Paper: Accountable Safety Implies Finality ( http://arxiv.org/abs/2308.16902v3 )

ライセンス: Link先を確認
Joachim Neu, Ertem Nusret Tas, David Tse, (参考訳) BFT(Byzantine-fault Tolerant)ステートマシンレプリケーション(SMR)コンセンサスプロトコルでは,EthereumなどのPoSブロックチェーンをモチベーションとして,2つの重要なDesiderataが研究されている。 アカウンタブル・セーフティとは、いかなる不整合の場合でも、一部のバリデーターがプロトコルに確実に違反したと特定できることを意味する。 初期の研究は、これらの特性に対する可逆性の結果とプロトコル構築を別々に開発した。 説明責任の安全性が最終性を意味することを示し、その結果、以前の結果を統一する。

Motivated by proof-of-stake (PoS) blockchains such as Ethereum, two key desiderata have recently been studied for Byzantine-fault tolerant (BFT) state-machine replication (SMR) consensus protocols: Finality means that the protocol retains consistency, as long as less than a certain fraction of validators are malicious, even in partially-synchronous environments that allow for temporary violations of assumed network delay bounds. Accountable safety means that in any case of inconsistency, a certain fraction of validators can be identified to have provably violated the protocol. Earlier works have developed impossibility results and protocol constructions for these properties separately. We show that accountable safety implies finality, thereby unifying earlier results.
公開日:2023-12-28
翻訳日:2024-03-19 07:03:01
# 低トラストアーキテクチャのセキュリティ検証

Security Verification of Low-Trust Architectures ( http://arxiv.org/abs/2309.00181v1 )

ライセンス: Link先を確認
Qinhan Tan, Yonathan Fisseha, Shibo Chen, Lauren Biernacki, Jean-Baptiste Jeannin, Sharad Malik, Todd Austin, (参考訳) 低信頼アーキテクチャは、ソフトウェアの観点からは、常に暗号化されたデータを使用し、ハードウェア信頼の量を小さなソフトウェアフリーなエンクレーブコンポーネントに大幅に削減する。 本稿では,特定の低信頼アーキテクチャであるSequestered Encryption (SE) アーキテクチャの完全検証を行い,その設計が全てのプログラムに対して直接データ開示やデジタルサイドチャネルに対して安全であることを示す。 まず、SE低信頼アーキテクチャのISAのセキュリティ要件を定義します。 上向きに見ると、このISAはソフトウェアのためのハードウェアの抽象化として機能し、これらの命令を構成するプログラムが、どのように情報を漏らすことができないかを示すために使用される。 下向きに見ると、このISAはハードウェアの仕様であり、ISAレベルのセキュリティ要件から生じるRTL実装の証明義務を定義するために使用される。 これらは、機能的およびデジタル的なサイドチャネルリークの両方をカバーする。 次に,これらの証明義務を,商用の形式的検証ツールを用いてうまく解約できることを示す。 我々は,SEアーキテクチャの7つの異なる正バグ実装に対するRTLセキュリティ検証手法の有効性を実証する。

Low-trust architectures work on, from the viewpoint of software, always-encrypted data, and significantly reduce the amount of hardware trust to a small software-free enclave component. In this paper, we perform a complete formal verification of a specific low-trust architecture, the Sequestered Encryption (SE) architecture, to show that the design is secure against direct data disclosures and digital side channels for all possible programs. We first define the security requirements of the ISA of SE low-trust architecture. Looking upwards, this ISA serves as an abstraction of the hardware for the software, and is used to show how any program comprising these instructions cannot leak information, including through digital side channels. Looking downwards this ISA is a specification for the hardware, and is used to define the proof obligations for any RTL implementation arising from the ISA-level security requirements. These cover both functional and digital side-channel leakage. Next, we show how these proof obligations can be successfully discharged using commercial formal verification tools. We demonstrate the efficacy of our RTL security verification technique for seven different correct and buggy implementations of the SE architecture.
公開日:2023-09-01
翻訳日:2024-03-19 07:03:01
# 効果的なサイバー詐欺対策のためのネットワーク要件の検討

A Survey of Network Requirements for Enabling Effective Cyber Deception ( http://arxiv.org/abs/2309.00184v3 )

ライセンス: Link先を確認
Md Abu Sayed, Moqsadur Rahman, Mohammad Ariful Islam Khan, Deepak Tosh, (参考訳) サイバーセキュリティの進化する状況において、サイバー詐欺の利用は高度な攻撃に対する積極的な防衛戦略として注目されている。 本稿では,効果的なサイバー詐欺の実施に不可欠なネットワーク要件を網羅的に調査する。 多様なネットワークアーキテクチャとトポロジに注目して、ネットワーク特性と偽装機構の展開の間の複雑な関係を掘り下げる。 この調査は、一般的なサイバー詐欺フレームワークの詳細な分析を提供し、最適な効果の要件を満たす上での、その強みと限界を強調している。 理論的および実践的な視点から洞察を合成することにより、ロバストで適応可能なサイバー詐欺戦略の実現に不可欠なネットワークの前提条件の包括的理解に寄与する。

In the evolving landscape of cybersecurity, the utilization of cyber deception has gained prominence as a proactive defense strategy against sophisticated attacks. This paper presents a comprehensive survey that investigates the crucial network requirements essential for the successful implementation of effective cyber deception techniques. With a focus on diverse network architectures and topologies, we delve into the intricate relationship between network characteristics and the deployment of deception mechanisms. This survey provides an in-depth analysis of prevailing cyber deception frameworks, highlighting their strengths and limitations in meeting the requirements for optimal efficacy. By synthesizing insights from both theoretical and practical perspectives, we contribute to a comprehensive understanding of the network prerequisites crucial for enabling robust and adaptable cyber deception strategies.
公開日:2024-01-08
翻訳日:2024-03-19 07:03:01
# MIMOCrypt:MIMO暗号化によるマルチユーザプライバシ保護Wi-Fiセンシング

MIMOCrypt: Multi-User Privacy-Preserving Wi-Fi Sensing via MIMO Encryption ( http://arxiv.org/abs/2309.00250v1 )

ライセンス: Link先を確認
Jun Luo, Hangcheng Cao, Hongbo Jiang, Yanbing Yang, Zhe Chen, (参考訳) Wi-Fi信号は、低コストで非侵襲的な人間のセンシングを実現するのに役立ちますが、盗聴器を使って個人情報を捕捉することもできます。 これまでのところ、このプライバシー問題に対処する研究はほとんどない。すべてのセンシングの試みを妨害するか、単一のセンシングユーザのみをサポートするための高度な技術に依存しているか、マルチユーザシナリオでは現実的ではない。 さらに、これらの提案はすべてWi-Fiのマルチイン・マルチアウト(MIMO)機能を利用することができない。 そこで本研究では,現実的なマルチユーザシナリオをサポートするプライバシー保護型Wi-FiセンシングフレームワークMIMOCryptを提案する。 MIMOCryptは、正当なユーザに対するセンシングおよび通信能力を保ちながら、不正な盗聴を防止するために、MIMOを利用してWi-Fiチャネルを物理的に暗号化し、知覚された人間の活動を物理的平文として扱うことを革新する。 暗号化スキームは最適化フレームワークを通じてさらに強化され、バランスをとることを目的としている。 一 盗難の危険 二 精度、及び 三 正統な利用者に復号鍵を確実に伝達し、通信品質 我々は、SDRプラットフォーム上でMIMOCryptのプロトタイプを実装し、一般的なアプリケーションシナリオ、特にプライバシーに敏感な人間のジェスチャー認識において、その有効性を評価するための広範な実験を行った。

Wi-Fi signals may help realize low-cost and non-invasive human sensing, yet it can also be exploited by eavesdroppers to capture private information. Very few studies rise to handle this privacy concern so far; they either jam all sensing attempts or rely on sophisticated technologies to support only a single sensing user, rendering them impractical for multi-user scenarios. Moreover, these proposals all fail to exploit Wi-Fi's multiple-in multiple-out (MIMO) capability. To this end, we propose MIMOCrypt, a privacy-preserving Wi-Fi sensing framework to support realistic multi-user scenarios. To thwart unauthorized eavesdropping while retaining the sensing and communication capabilities for legitimate users, MIMOCrypt innovates in exploiting MIMO to physically encrypt Wi-Fi channels, treating the sensed human activities as physical plaintexts. The encryption scheme is further enhanced via an optimization framework, aiming to strike a balance among i) risk of eavesdropping, ii) sensing accuracy, and iii) communication quality, upon securely conveying decryption keys to legitimate users. We implement a prototype of MIMOCrypt on an SDR platform and perform extensive experiments to evaluate its effectiveness in common application scenarios, especially privacy-sensitive human gesture recognition.
公開日:2023-09-01
翻訳日:2024-03-19 07:03:01
# Account Abstraction, Analysed

Account Abstraction, Analysed ( http://arxiv.org/abs/2309.00448v1 )

ライセンス: Link先を確認
Qin Wang, Shiping Chen, (参考訳) EIP-\hlhref{https://eips.ethereum.org/EIPS/eip-3074}{4337} は、アカウント抽象化(AA)の基礎標準として統合されている。 AAは、ユーザアクセシビリティを高め、機能の拡張を促進することを目的としている。 予想通り、AAの展開は、多くの新規ユーザーを引きつけ、DAppsのさらなるイノベーションを火付けようとしている。 本稿では,この新概念の基盤となる動作機構を解明するとともに,その開発に関する会計・財布・標準の同時進行を概観する。 さらに、AA更新によるセキュリティ強化の程度を質的に評価するために、予備的なセキュリティ評価を実施する。

Ethereum recently unveiled its upcoming roadmap's \textit{Splurge} phase, highlighting the integration of EIP-\hlhref{https://eips.ethereum.org/EIPS/eip-3074}{4337} as a foundational standard for account abstraction (AA). AA aims to enhance user accessibility and facilitate the expansion of functionalities. Anticipatedly, the deployment of AA is poised to attract a broad spectrum of new users and ignite further innovation in DApps. In this paper, we elucidate the underlying operating mechanisms of this new concept, as well as provide a review of concurrent advancements in accounts, wallets, and standards related to its development. We step further by conducting a preliminary security evaluation to qualitatively assess the extent of security enhancements achieved through AA updates.
公開日:2023-09-01
翻訳日:2024-03-19 07:03:01
# 船体メタバースにおけるデジタル双極子マイグレーションのプライバシ攻撃と防御

Privacy Attacks and Defenses for Digital Twin Migrations in Vehicular Metaverses ( http://arxiv.org/abs/2309.00477v1 )

ライセンス: Link先を確認
Xiaofeng Luo, Jinbo Wen, Jiawen Kang, Jiangtian Nie, Zehui Xiong, Yang Zhang, Zhaohui Yang, Shengli Xie, (参考訳) 知的輸送システムとメタバース技術が徐々に融合し、仮想空間と物理空間を融合する車体メタバースが生まれつつある。 VTはVehicular Metaverse Users(VMU)のデジタルレプリカであり、VMUへのカスタマイズを容易にする。 VTはRoadSide Units (RSU) で確立され、十分な計算資源とストレージ資源を持つ。 RSUの通信範囲が限られており、VMUのモビリティが高いため、VMUのリアルタイムかつシームレスなサービスを保証するために、VTはRSU間で移行する必要がある。 しかしながら、VTマイグレーションの間、VT間の物理仮想同期と大規模な通信は、VMUとVTの同一性および位置プライバシー開示を引き起こす可能性がある。 本稿では,車載メタバースにおけるプライバシー問題とそれに対応するVTマイグレーション対策について検討する。 VTマイグレーション中に、まず4種類の特定のプライバシ攻撃を提示する。 そこで本研究では,VMU-VTの2つの擬似化方式と,これらの攻撃を防御するための同期擬似化フレームワークを提案する。 さらに、擬似的変化に対する平均プライバシーエントロピーを評価し、在庫理論に基づく擬似的分布の数を最適化する。 数値計算の結果,提案方式におけるVMUの平均効用は等分布方式よりも33.8%高く,提案方式の優位性を示している。

The gradual fusion of intelligent transportation systems with metaverse technologies is giving rise to vehicular metaverses, which blend virtual spaces with physical space. As indispensable components for vehicular metaverses, Vehicular Twins (VTs) are digital replicas of Vehicular Metaverse Users (VMUs) and facilitate customized metaverse services to VMUs. VTs are established and maintained in RoadSide Units (RSUs) with sufficient computing and storage resources. Due to the limited communication coverage of RSUs and the high mobility of VMUs, VTs need to be migrated among RSUs to ensure real-time and seamless services for VMUs. However, during VT migrations, physical-virtual synchronization and massive communications among VTs may cause identity and location privacy disclosures of VMUs and VTs. In this article, we study privacy issues and the corresponding defenses for VT migrations in vehicular metaverses. We first present four kinds of specific privacy attacks during VT migrations. Then, we propose a VMU-VT dual pseudonym scheme and a synchronous pseudonym change framework to defend against these attacks. Additionally, we evaluate average privacy entropy for pseudonym changes and optimize the number of pseudonym distribution based on inventory theory. Numerical results show that the average utility of VMUs under our proposed schemes is 33.8% higher than that under the equal distribution scheme, demonstrating the superiority of our schemes.
公開日:2023-09-01
翻訳日:2024-03-19 07:03:01
# 新規ランサムウェアキャンペーンの時間横断的検出:マルチモーダルアラートアプローチ

Cross-temporal Detection of Novel Ransomware Campaigns: A Multi-Modal Alert Approach ( http://arxiv.org/abs/2309.00700v1 )

ライセンス: Link先を確認
Sathvik Murli, Dhruv Nandakumar, Prabhat Kumar Kushwaha, Cheng Wang, Christopher Redino, Abdul Rahman, Shalini Israni, Tarun Singh, Edward Bowen, (参考訳) 本研究では,被害者ネットワーク内の攻撃タイムライン表現からランサムウェアを識別する手法を提案する。 複数のアラートソースから開発された悪意あるアクティビティプロファイルは、アラートグラフの構築をサポートする。 このアプローチにより、個々のノードが悪意のあるアクティビティ検出を、潜在的な攻撃経路を記述するコネクションで表現する、攻撃タイムラインの効果的でスケーラブルな表現が可能になる。 この研究は、潜在的に低次元のノード機能にもかかわらず有効性を保ちながら警告グラフを解析・分類する新しい方法を実装することで、異なる攻撃パターンへの適応性を実証する。

We present a novel approach to identify ransomware campaigns derived from attack timelines representations within victim networks. Malicious activity profiles developed from multiple alert sources support the construction of alert graphs. This approach enables an effective and scalable representation of the attack timelines where individual nodes represent malicious activity detections with connections describing the potential attack paths. This work demonstrates adaptability to different attack patterns through implementing a novel method for parsing and classifying alert graphs while maintaining efficacy despite potentially low-dimension node features.
公開日:2023-09-01
翻訳日:2024-03-19 06:53:05
# Make Them Change It Every Week!:A Qualitative Exploration of Online Developer Advice on Usable and Secure Authentication

"Make Them Change it Every Week!": A Qualitative Exploration of Online Developer Advice on Usable and Secure Authentication ( http://arxiv.org/abs/2309.00744v2 )

ライセンス: Link先を確認
Jan H. Klemmer, Marco Gutfleisch, Christian Stransky, Yasemin Acar, M. Angela Sasse, Sascha Fahl, (参考訳) ウェブ以降で使用可能なセキュアな認証は、ミッションクリティカルだ。 パスワードベースの認証はまだ普及しているが、ユーザーは数百のオンラインアカウントとパスワードを扱うのに苦労している。 多要素認証のような代替や拡張には独自の課題があり、限定的な採用しか見つからない。 セキュリティとユーザビリティの適切なバランスを見つけることは、開発者にとっては難しい。 以前の調査では、開発者はオンラインリソースを使用してコードを記述する際のセキュリティ上の決定を通知していた。 他の分野と同様、Stack Overflowに関する議論、OWASPやNISTといった機関によるガイドラインなど、開発者の認証アドバイスがオンラインで公開されている。 エンドユーザのセキュリティに影響を及ぼす認証に関する,開発者のアドバイスを最初に検討しています。 18名のプロのWeb開発者を対象に調査を行い,406件の文書と272件のアドバイスを質的に分析した。 我々は、オンラインアドバイスのアクセシビリティと品質を理解し、オンラインアドバイスが安全および(使用不能な)認証にどのように貢献するかについての洞察を提供することを目指している。 アドバイスは散在しており、推奨され、一貫したアドバイスを見つけることは、開発者にとっても問題である。 最も一般的なアドバイスはパスワードベースの認証だが、より現代的な代替案はほとんどない。 残念ながら、多くのアドバイスはデバタブル(複雑なパスワードポリシーなど)、時代遅れ(例えば、通常のパスワード変更を強制)、あるいは矛盾し、使用不能または安全でない認証につながる可能性がある。 調査の結果から,開発者,アドバイス提供者,公式機関,学界に対して,開発者のオンラインアドバイスを改善する方法について提言する。

Usable and secure authentication on the web and beyond is mission-critical. While password-based authentication is still widespread, users have trouble dealing with potentially hundreds of online accounts and their passwords. Alternatives or extensions such as multi-factor authentication have their own challenges and find only limited adoption. Finding the right balance between security and usability is challenging for developers. Previous work found that developers use online resources to inform security decisions when writing code. Similar to other areas, lots of authentication advice for developers is available online, including blog posts, discussions on Stack Overflow, research papers, or guidelines by institutions like OWASP or NIST. We are the first to explore developer advice on authentication that affects usable security for end-users. Based on a survey with 18 professional web developers, we obtained 406 documents and qualitatively analyzed 272 contained pieces of advice in depth. We aim to understand the accessibility and quality of online advice and provide insights into how online advice might contribute to (in)secure and (un)usable authentication. We find that advice is scattered and that finding recommendable, consistent advice is a challenge for developers, among others. The most common advice is for password-based authentication, but little for more modern alternatives. Unfortunately, many pieces of advice are debatable (e.g., complex password policies), outdated (e.g., enforcing regular password changes), or contradicting and might lead to unusable or insecure authentication. Based on our findings, we make recommendations for developers, advice providers, official institutions, and academia on how to improve online advice for developers.
公開日:2023-11-26
翻訳日:2024-03-19 06:53:05
# 言語エージェントのための認知アーキテクチャ

Cognitive Architectures for Language Agents ( http://arxiv.org/abs/2309.02427v3 )

ライセンス: Link先を確認
Theodore R. Sumers, Shunyu Yao, Karthik Narasimhan, Thomas L. Griffiths, (参考訳) 近年,大規模言語モデル (LLM) を外部リソース (例えばインターネット) や内部制御フロー (例えば,即時連鎖) で拡張し,基礎化や推論を必要とするタスクを処理し,新たな言語エージェントを創出している。 これらのエージェントは経験的成功をおさめたものの,既存のエージェントを組織化し,今後の展開を計画するための体系的な枠組みは欠如している。 本稿では,認知科学と象徴的人工知能の豊富な歴史を振り返り,言語エージェントのための認知アーキテクチャ(CoALA)を提案する。 CoALAはモジュラーメモリコンポーネントを備えた言語エージェント、内部メモリと外部環境と相互作用する構造化されたアクションスペース、アクションを選択するための一般的な意思決定プロセスを記述する。 我々は、CoALAを使用して、振り返りによる調査と、最近の多くの作業の組織化を行い、より有能なエージェントに対する行動可能な方向を前向きに特定します。 CoALAはAIの幅広い歴史の中で、今日の言語エージェントを文脈的に扱い、言語ベースの汎用インテリジェンスへの道筋を概説している。

Recent efforts have augmented large language models (LLMs) with external resources (e.g., the Internet) or internal control flows (e.g., prompt chaining) for tasks requiring grounding or reasoning, leading to a new class of language agents. While these agents have achieved substantial empirical success, we lack a systematic framework to organize existing agents and plan future developments. In this paper, we draw on the rich history of cognitive science and symbolic artificial intelligence to propose Cognitive Architectures for Language Agents (CoALA). CoALA describes a language agent with modular memory components, a structured action space to interact with internal memory and external environments, and a generalized decision-making process to choose actions. We use CoALA to retrospectively survey and organize a large body of recent work, and prospectively identify actionable directions towards more capable agents. Taken together, CoALA contextualizes today's language agents within the broader history of AI and outlines a path towards language-based general intelligence.
公開日:2024-03-15
翻訳日:2024-03-19 06:53:05
# 反事実生成の過程を知識の源として見る--分類器の説明のための新しいアプローチ

Viewing the process of generating counterfactuals as a source of knowledge: a new approach for explaining classifiers ( http://arxiv.org/abs/2309.04284v3 )

ライセンス: Link先を確認
Vincent Lemaire, Nathan Le Boudec, Victor Guyomard, Françoise Fessant, (参考訳) 現在、機械学習モデルの決定を理解するための説明可能なAIメソッドが多数存在する。 そのうちの1つは、特徴の変化をシミュレートし、予測への影響を観察する反事実的推論に基づくものである。 本稿では,このシミュレーションプロセスを,使用可能な知識を,後に異なる方法で生成するための情報源として捉えることを提案する。 この過程は加法モデルで説明され、より具体的には、この目的の興味深い性質を示すネーブ・ベイズ分類器の場合に説明される。

There are now many explainable AI methods for understanding the decisions of a machine learning model. Among these are those based on counterfactual reasoning, which involve simulating features changes and observing the impact on the prediction. This article proposes to view this simulation process as a source of creating a certain amount of knowledge that can be stored to be used, later, in different ways. This process is illustrated in the additive model and, more specifically, in the case of the naive Bayes classifier, whose interesting properties for this purpose are shown.
公開日:2024-03-15
翻訳日:2024-03-19 06:53:05
# 拡張韻律と言語的感情表現を用いた音声感情認識

Speech Emotion Recognition with Distilled Prosodic and Linguistic Affect Representations ( http://arxiv.org/abs/2309.04849v2 )

ライセンス: Link先を確認
Debaditya Shome, Ali Etemad, (参考訳) 本研究では,言語的・韻律的な感情表現を音声から学習するために,訓練中のクロスモーダルな知識蒸留を利用した新しい音声感情認識(SER)フレームワークであるEmoDistillを提案する。 提案手法では,音声信号のストリームのみを用いて一斉SERを実行することで,計算オーバーヘッドを低減し,実行時の書き起こしや韻律的特徴抽出エラーを回避する。 学習中,本手法は,SER向けに微調整された,事前学習された韻律教師と言語教師のペアから,埋め込みレベルとロジットレベルの両方の情報を抽出する。 IEMOCAPベンチマークによる実験により,本手法は,非加重精度77.49%,重み付け精度78.91%,非加重精度77.49%,非加重精度78.91%と,他の非加重・マルチモーダル技術よりも優れた性能を示した。 詳細なアブレーション研究は、我々の方法の各成分の影響を実証している。

We propose EmoDistill, a novel speech emotion recognition (SER) framework that leverages cross-modal knowledge distillation during training to learn strong linguistic and prosodic representations of emotion from speech. During inference, our method only uses a stream of speech signals to perform unimodal SER thus reducing computation overhead and avoiding run-time transcription and prosodic feature extraction errors. During training, our method distills information at both embedding and logit levels from a pair of pre-trained Prosodic and Linguistic teachers that are fine-tuned for SER. Experiments on the IEMOCAP benchmark demonstrate that our method outperforms other unimodal and multimodal techniques by a considerable margin, and achieves state-of-the-art performance of 77.49% unweighted accuracy and 78.91% weighted accuracy. Detailed ablation studies demonstrate the impact of each component of our method.
公開日:2024-03-14
翻訳日:2024-03-19 06:53:05
# Serberus: コンパイル時のスペックから暗号化コードを保護する

Serberus: Protecting Cryptographic Code from Spectres at Compile-Time ( http://arxiv.org/abs/2309.05174v1 )

ライセンス: Link先を確認
Nicholas Mosier, Hamed Nemati, John C. Mitchell, Caroline Trippel, (参考訳) Serberusは、既存のハードウェア上でSpectre攻撃(PHT、BTB、RSB、STLおよび/またはPSF推測プリミティブを含む)に対して、CT(Constant-time)コードをハードニングするための最初の包括的緩和である。 Serberusは3つの洞察に基づいている。 第一に、いくつかのハードウェア制御フロー整合性(CFI)保護は、過渡制御フローをソフトウェア解析によって包括的に考慮される程度に制限する。 第二に、承認されたCTコード規律に従って、スペクトル後の時代に安全でない2つのコードパターンを許可する。 第三に、一度これらのコードパターンに対処すると、CTプログラムのすべてのSpectreのシークレットリークは、パブリック型レジスタにシークレット値をトランジェントに割り当てるインストラクションの4つのクラスのうちの1つに帰せられる。 我々は,OpenSSL,Libsodium,HACL*ライブラリの暗号プリミティブ上でSerberusを評価する。 Serberusは21.3%のランタイムオーバーヘッドを導入している。

We present Serberus, the first comprehensive mitigation for hardening constant-time (CT) code against Spectre attacks (involving the PHT, BTB, RSB, STL and/or PSF speculation primitives) on existing hardware. Serberus is based on three insights. First, some hardware control-flow integrity (CFI) protections restrict transient control-flow to the extent that it may be comprehensively considered by software analyses. Second, conformance to the accepted CT code discipline permits two code patterns that are unsafe in the post-Spectre era. Third, once these code patterns are addressed, all Spectre leakage of secrets in CT programs can be attributed to one of four classes of taint primitives--instructions that can transiently assign a secret value to a publicly-typed register. We evaluate Serberus on cryptographic primitives in the OpenSSL, Libsodium, and HACL* libraries. Serberus introduces 21.3% runtime overhead on average, compared to 24.9% for the next closest state-of-the-art software mitigation, which is less secure.
公開日:2023-09-11
翻訳日:2024-03-19 06:53:05
# FuzzLLM: 大規模言語モデルにおけるジェイルブレイク脆弱性を積極的に発見するための新しいユニバーサルファズリングフレームワーク

FuzzLLM: A Novel and Universal Fuzzing Framework for Proactively Discovering Jailbreak Vulnerabilities in Large Language Models ( http://arxiv.org/abs/2309.05274v1 )

ライセンス: Link先を確認
Dongyu Yao, Jianshu Zhang, Ian G. Harris, Marcel Carlsson, (参考訳) 大規模言語モデル(LLMs)におけるジェイルブレイクの脆弱性は、サービスガイドラインに違反したコンテンツを細心の注意を払って引き起こすプロンプトを利用して、研究コミュニティの注目を集めている。 モデルオーナーは、安全訓練戦略を通じて個々のジェイルブレイクプロンプトを防御できるが、この比較的パッシブなアプローチは、同様のジェイルブレイクの幅広いカテゴリーを扱うのに苦労している。 この問題に対処するために、私たちはLLMのジェイルブレイク脆弱性を積極的にテストし発見するために設計された自動ファジリングフレームワークであるFuzzLLMを紹介した。 テンプレートを使用してプロンプトの構造的整合性をキャプチャし、制約としてJailbreakクラスの重要な特徴を分離します。 異なるベースクラスを強力なコンボ攻撃に統合し、制約や禁止された質問の要素を変更することで、FazLLMは手作業の少ない効率的なテストを可能にする。 大規模な実験では、様々なLSMにわたる脆弱性発見におけるFuzzLLMの有効性と包括性を実証している。

Jailbreak vulnerabilities in Large Language Models (LLMs), which exploit meticulously crafted prompts to elicit content that violates service guidelines, have captured the attention of research communities. While model owners can defend against individual jailbreak prompts through safety training strategies, this relatively passive approach struggles to handle the broader category of similar jailbreaks. To tackle this issue, we introduce FuzzLLM, an automated fuzzing framework designed to proactively test and discover jailbreak vulnerabilities in LLMs. We utilize templates to capture the structural integrity of a prompt and isolate key features of a jailbreak class as constraints. By integrating different base classes into powerful combo attacks and varying the elements of constraints and prohibited questions, FuzzLLM enables efficient testing with reduced manual effort. Extensive experiments demonstrate FuzzLLM's effectiveness and comprehensiveness in vulnerability discovery across various LLMs.
公開日:2023-09-11
翻訳日:2024-03-19 06:53:05
# D2WFP: 深層および暗黒のWebブラウジング活動の法的な特定、抽出、分析のための新しいプロトコル

D2WFP: A Novel Protocol for Forensically Identifying, Extracting, and Analysing Deep and Dark Web Browsing Activities ( http://arxiv.org/abs/2309.05537v1 )

ライセンス: Link先を確認
Mohamed Chahine Ghanem, Patrick Mulvihill, Karim Ouazzane, Ramzi Djemai, Dipo Dunsin, (参考訳) ディープウェブ(Deep Web)やダークウェブ(ダークウェブ)として知られるインデクシングされていないWebを使って犯罪行為を犯したり促進したりすることは、過去10年間で劇的に増加している。 ダークウェブは、あらゆる種類の犯罪行為が [1-2] 起こる、悪名高い危険な場所であり、ウェブの法医学的手法、ツール、方法論の進歩にもかかわらず、暗黒と深みのあるウェブの法医学と、調査技術とアーティファクトの識別と抽出という技術的違いを公式に取り組んだ研究はほとんどない。 D2WFPというプロトコルは、ボラティリティの順序を観察し、ブラウジングに関連するすべてのハイブやアーティファクトを網羅するシステム的アプローチを導入し、最終的に精度と有効性を即興的に実現し、調査活動を行うための新たなシーケンシャルなアプローチを確立します。 科学的に健全で包括的なプロセスを経てD2WFPを評価することによって、厳密な量的・質的な研究が行われ、その結果、現在の産業やオープンソースのブラウジング法則よりも優れたD2WFPを採用する際に、再発見されたアーティファクトの数が明らかに増加することを示した。 D2WFPの第二の貢献は、D2WFP内のアーティファクト相関とクロスバリデーションの堅牢な定式化である。

The use of the un-indexed web, commonly known as the deep web and dark web, to commit or facilitate criminal activity has drastically increased over the past decade. The dark web is an in-famously dangerous place where all kinds of criminal activities take place [1-2], despite advances in web forensics techniques, tools, and methodologies, few studies have formally tackled the dark and deep web forensics and the technical differences in terms of investigative techniques and artefacts identification and extraction. This research proposes a novel and comprehensive protocol to guide and assist digital forensics professionals in investigating crimes committed on or via the deep and dark web, The protocol named D2WFP establishes a new sequential approach for performing investigative activities by observing the order of volatility and implementing a systemic approach covering all browsing related hives and artefacts which ultimately resulted into improv-ing the accuracy and effectiveness. Rigorous quantitative and qualitative research has been conducted by assessing D2WFP following a scientifically-sound and comprehensive process in different scenarios and the obtained results show an apparent increase in the number of artefacts re-covered when adopting D2WFP which outperform any current industry or opensource browsing forensics tools. The second contribution of D2WFP is the robust formulation of artefact correlation and cross-validation within D2WFP which enables digital forensics professionals to better document and structure their analysis of host-based deep and dark web browsing artefacts.
公開日:2023-09-11
翻訳日:2024-03-19 06:53:05
# 高速超大容量定数乗算のマルチプライアレス設計

Multiplierless Design of High-Speed Very Large Constant Multiplications ( http://arxiv.org/abs/2309.05550v2 )

ライセンス: Link先を確認
Levent Aksoy, Debapriya Basu Roy, Malik Imran, Samuel Pagliarini, (参考訳) 暗号アルゴリズムでは、変数に乗じるべき定数は、セキュリティ要件のために非常に大きい。 したがって、そのようなアルゴリズムのハードウェアの複雑さは、大きな定数を扱う設計アーキテクチャに大きく依存する。 本稿では,低複雑かつ高速なアプリケーションに対して,非常に大きな定数乗算を自動生成する,LEIGERという電子設計自動化ツールを提案する。 LEIGERはシフト加算アーキテクチャを利用して3入力演算、すなわちキャリーセーブ加算器(CSA)を使用することができる。 また、2と3のインプット演算を異なる段階で使用するハイブリッド設計アーキテクチャの下で、一定の乗算を生成することもできる。 さらに、圧縮機木を用いて設計アーキテクチャの下での定数乗法を記述することもできる。 ケーススタディとして、暗号アルゴリズムの基本演算である高速モンゴメリー乗算は、提案アーキテクチャで実現された定数乗算ブロックを用いて設計されている。 実験の結果, LEIGERにより設計者は, 非常に大きな定数とモンゴメリー乗算の遅延の領域間のトレードオフを探索することができ, エリア遅延積, 遅延, エネルギー消費値を持つ設計を最近提案したアルゴリズムよりも大幅に向上させることができることがわかった。

In cryptographic algorithms, the constants to be multiplied by a variable can be very large due to security requirements. Thus, the hardware complexity of such algorithms heavily depends on the design architecture handling large constants. In this paper, we introduce an electronic design automation tool, called LEIGER, which can automatically generate the realizations of very large constant multiplications for low-complexity and high-speed applications, targeting the ASIC design platform. LEIGER can utilize the shift-adds architecture and use 3-input operations, i.e., carry-save adders (CSAs), where the number of CSAs is reduced using a prominent optimization algorithm. It can also generate constant multiplications under a hybrid design architecture, where 2-and 3-input operations are used at different stages. Moreover, it can describe constant multiplications under a design architecture using compressor trees. As a case study, high-speed Montgomery multiplication, which is a fundamental operation in cryptographic algorithms, is designed with its constant multiplication block realized under the proposed architectures. Experimental results indicate that LEIGER enables a designer to explore the trade-off between area and delay of the very large constant and Montgomery multiplications and leads to designs with area-delay product, latency, and energy consumption values significantly better than those obtained by a recently proposed algorithm.
公開日:2023-09-12
翻訳日:2024-03-19 06:53:05
# REVERSIM: ハードウェアリバースエンジニアリングにおける人的側面学習のための大規模人口アクセスのためのゲームベースアプローチ

REVERSIM: A Game-Based Approach to Accessing Large Populations for Studying Human Aspects in Hardware Reverse Engineering ( http://arxiv.org/abs/2309.05740v1 )

ライセンス: Link先を確認
Steffen Becker, Carina Wiesen, René Walendy, Nikol Rummel, Christof Paar, (参考訳) ハードウェアリバースエンジニアリング(英: Hardware Reverse Engineering, HRE)は、集積回路(IC)を解析するための技術である。 専門家は、設計検証や知的財産権侵害の検出など、さまざまなセキュリティクリティカルなタスクにHREを使用している。 しかし、HREはまた、脅威アクターがICのセキュリティを覆すことを可能にする。 これまでの研究では、完全に自動化されたソリューションが存在しないため、アナリストはHREを実行するための認知能力に大きく依存していることが示されている。 したがって、HREに関わる認知過程を評価するための制御された実験を行えば、ハードウェア保護のための新たな道が開ける可能性がある。 しかし、HREの専門家がこのような経験的な研究でほとんど利用できないという方法論的な課題に直面している。 この不足に対処するため、現実的なHREサブプロセスを模倣するゲームベースのシミュレーションであるREVERSIMを開発し、事前の知識を必要としないよう特別に設計した。 まず,現実のHRE問題に対するREVERSIMの適合性を実証した14人の専門家と研究者を対象に,半構造化インタビューを行った。 第2に,89名の非専門家を対象とするユーザスタディを実施し,HREや関連ドメインの事前知識を必要とせずにシミュレーションを実施できることを実証した。 最後に,REVERSIMを用いた実験の方向性について概説し,HRE研究の進展の可能性を明らかにする。

Hardware Reverse Engineering (HRE) is a technique for analyzing Integrated Circuits (ICs). Experts employ HRE for various security-critical tasks, such as design verification or the detection of intellectual property violations. However, HRE also enables threat actors to subvert the security of an IC. Previous studies have shown that analysts rely heavily on their cognitive abilities to perform HRE as no fully automated solutions exist. Therefore, conducting controlled experimental studies to assess the cognitive processes involved in HRE could open new avenues for hardware protection. However, researchers have faced the methodological challenge that HRE experts are largely unavailable for such empirical research. To address this scarcity, we have developed REVERSIM, a game-based simulation that mimics realistic HRE subprocesses and is specifically designed to require no prior knowledge. To support these claims, we conducted two empirical studies: First, we performed semi-structured interviews with 14 professionals and researchers from the HRE domain, who attested to the comparability of REVERSIM to real-world HRE problems. Second, we conducted a user study involving 89 non-expert participants, demonstrating that participants could engage in the simulation without prior knowledge in HRE or related domains. Finally, we outline several research directions for experiments with REVERSIM, highlighting its potential in advancing HRE research.
公開日:2023-09-11
翻訳日:2024-03-19 06:53:05
# SkillScanner: 開発段階における静的解析によるポリシー違反音声アプリケーションの検出

SkillScanner: Detecting Policy-Violating Voice Applications Through Static Analysis at the Development Phase ( http://arxiv.org/abs/2309.05867v1 )

ライセンス: Link先を確認
Song Liao, Long Cheng, Haipeng Cai, Linke Guo, Hongxin Hu, (参考訳) Amazon AlexaマーケットプレースはVPA(Voice Personal Assistant)プラットフォームで、スキルストアに10万以上の音声アプリケーション(スキル)が発行されている。 ボイスアプリの品質と信頼性を維持するため、Amazon Alexaは、サードパーティのスキル開発者が遵守する一連のポリシー要件を実装した。 しかし、近年の研究では、現在のスキルストアで政策違反のスキルが流行していることが明らかになっている。 スキルにおけるポリシー違反の原因を理解するために、まず、Amazon Alexaプラットフォームで定義されたさまざまなポリシー要件を認識しているかどうかに注目した34人のサードパーティのスキル開発者を対象に、ユーザスタディを実施します。 ユーザスタディの結果から,VPAのポリシ要件とスキル開発者のプラクティスとの間には,顕著なギャップがあることが分かる。 結果として、政策違反のスキルが出版されることは避けられない。 人材からのスキルストアへの新たなポリシー違反スキルの流入を防止するため、開発段階での潜在的なポリシー違反を特定することが重要である。 本研究では,SkillScannerの設計と開発を行う。SkillScannerは,サードパーティ開発者がスキル開発ライフサイクルの初期段階でポリシー違反を検出するための,効率的な静的コード解析ツールである。 SkillScannerの性能を評価するために、GitHubから収集した2,451のオープンソーススキルについて実証的研究を行った。 SkillScannerは786のスキルから、1,328のポリシー違反を効果的に特定した。 我々の結果は、これらのポリシー違反の32%が、コードの複製(コードコピーとペースト)を通じて導入されていることを示唆している。 特に、潜在的なAlexaの公式アカウント(GitHubの"alexa"や"alexa-samples"など)からの42のスキルコード例には、ポリシー違反が含まれていることが分かりました。

The Amazon Alexa marketplace is the largest Voice Personal Assistant (VPA) platform with over 100,000 voice applications (i.e., skills) published to the skills store. In an effort to maintain the quality and trustworthiness of voice-apps, Amazon Alexa has implemented a set of policy requirements to be adhered to by third-party skill developers. However, recent works reveal the prevalence of policy-violating skills in the current skills store. To understand the causes of policy violations in skills, we first conduct a user study with 34 third-party skill developers focusing on whether they are aware of the various policy requirements defined by the Amazon Alexa platform. Our user study results show that there is a notable gap between VPA's policy requirements and skill developers' practices. As a result, it is inevitable that policy-violating skills will be published. To prevent the inflow of new policy-breaking skills to the skills store from the source, it is critical to identify potential policy violations at the development phase. In this work, we design and develop SkillScanner, an efficient static code analysis tool to facilitate third-party developers to detect policy violations early in the skill development lifecycle. To evaluate the performance of SkillScanner, we conducted an empirical study on 2,451 open source skills collected from GitHub. SkillScanner effectively identified 1,328 different policy violations from 786 skills. Our results suggest that 32% of these policy violations are introduced through code duplication (i.e., code copy and paste). In particular, we found that 42 skill code examples from potential Alexa's official accounts (e.g., "alexa" and "alexa-samples" on GitHub) contain policy violations, which lead to 81 policy violations in other skills due to the copy-pasted code snippets from these Alexa's code examples.
公開日:2023-09-11
翻訳日:2024-03-19 06:53:05
# 一般化レインボー微分プライバシー

Generalized Rainbow Differential Privacy ( http://arxiv.org/abs/2309.05871v1 )

ライセンス: Link先を確認
Yuzhou Gu, Ziqi Zhou, Onur Günlü, Rafael G. L. D'Oliveira, Parastoo Sadeghi, Muriel Médard, Rafael F. Schaefer, (参考訳) 偏微分プライバシーと呼ばれるランダムなグラフカラー化により,DP機構を設計するための新しい枠組みについて検討する。 このフレームワークでは、データセットはグラフのノードであり、2つの隣接するデータセットはエッジで接続される。 グラフの各データセットは、メカニズムの出力を優先的に順序付けしており、これらの順序付けは虹と呼ばれる。 異なる虹色は、接続されたデータセットのグラフを異なる領域に分割する。 そのような領域の境界におけるDP機構が固定され、すべての同じレインボー境界データセットに対して同一に振る舞う場合、(境界条件が有効である限り)一意の最適$(\epsilon,\delta)$-DP機構が存在し、閉形式で表現できることを示す。 提案手法は,任意の有限色および$(\epsilon,\delta)$-DPに対して適用される支配順序とDPの興味深い関係に基づいており,従来の3色のみに適用される場合と$(\epsilon,\delta)$-DPの場合は$\epsilon$-DPに対してのみ適用可能である。 我々は、最適DP機構が存在しない非均一境界条件の例を与えることによって、同次境界条件の仮定を正当化する。

We study a new framework for designing differentially private (DP) mechanisms via randomized graph colorings, called rainbow differential privacy. In this framework, datasets are nodes in a graph, and two neighboring datasets are connected by an edge. Each dataset in the graph has a preferential ordering for the possible outputs of the mechanism, and these orderings are called rainbows. Different rainbows partition the graph of connected datasets into different regions. We show that if a DP mechanism at the boundary of such regions is fixed and it behaves identically for all same-rainbow boundary datasets, then a unique optimal $(\epsilon,\delta)$-DP mechanism exists (as long as the boundary condition is valid) and can be expressed in closed-form. Our proof technique is based on an interesting relationship between dominance ordering and DP, which applies to any finite number of colors and for $(\epsilon,\delta)$-DP, improving upon previous results that only apply to at most three colors and for $\epsilon$-DP. We justify the homogeneous boundary condition assumption by giving an example with non-homogeneous boundary condition, for which there exists no optimal DP mechanism.
公開日:2023-09-11
翻訳日:2024-03-19 06:53:05
# 知識の体系化(SoK)-サイバーセキュリティにおける伝達学習のクロスインパクト--攻撃的、防御的、脅威的知性の観点から

Systemization of Knowledge (SoK)- Cross Impact of Transfer Learning in Cybersecurity: Offensive, Defensive and Threat Intelligence Perspectives ( http://arxiv.org/abs/2309.05889v1 )

ライセンス: Link先を確認
Sofiya Makar, Ali Dehghantanha, Fattane Zarrinkalam, Gautam Srivastava, Abbas Yazdinejad, (参考訳) 近年の文献では、トランスファーラーニングとサイバーセキュリティの間に大きな影響を与えている。 トランスファーラーニングを用いてセキュリティを高めるために多くの研究が行われ、様々なサイバーセキュリティタスクに様々な応用がもたらされた。 しかし、これまでの研究はサイバーセキュリティの特定の分野に焦点を当てていた。 本稿では,幅広い領域を網羅し,現状を把握し,未探索領域に光を当てることにより,サイバーセキュリティにおけるトランスファーラーニング応用の包括的調査を行う。 この調査は、検出精度の向上、トレーニング時間の短縮、データの不均衡の処理、プライバシー保護の強化など、サイバーセキュリティにおける重要な問題に対処する上で、トランスファーラーニングの重要性を強調している。 ラベル付きデータの欠如、異なるデータ分散、プライバシの懸念など、トランスファーラーニングを使用して解決された一般的な問題に関するさらなる洞察が提供される。 本稿では、プライバシー保護モデルの必要性、知識伝達のための自動ツール、ドメイン関連度測定のためのメトリクス、プライバシー保護機構の強化など、コミュニティの注意を要する今後の研究の方向性と課題を明らかにする。 この論文で示された洞察とロードマップは、サイバーセキュリティにおけるトランスファー学習をさらに推進し、新たな脅威に対処し、機密情報を保護するための堅牢で効率的なサイバーセキュリティシステムの開発を促進する。 我々の知る限り、この論文は、トランスファーラーニングの恩恵を受けたサイバーセキュリティのあらゆる分野の包括的分類を提示し、この領域における研究の方向性を形作るための詳細な今後のロードマップを提案する最初のものである。

Recent literature highlights a significant cross-impact between transfer learning and cybersecurity. Many studies have been conducted on using transfer learning to enhance security, leading to various applications in different cybersecurity tasks. However, previous research is focused on specific areas of cybersecurity. This paper presents a comprehensive survey of transfer learning applications in cybersecurity by covering a wide range of domains, identifying current trends, and shedding light on under-explored areas. The survey highlights the significance of transfer learning in addressing critical issues in cybersecurity, such as improving detection accuracy, reducing training time, handling data imbalance, and enhancing privacy preservation. Additional insights are provided on the common problems solved using transfer learning, such as the lack of labeled data, different data distributions, and privacy concerns. The paper identifies future research directions and challenges that require community attention, including the need for privacy-preserving models, automatic tools for knowledge transfer, metrics for measuring domain relatedness, and enhanced privacy preservation mechanisms. The insights and roadmap presented in this paper will guide researchers in further advancing transfer learning in cybersecurity, fostering the development of robust and efficient cybersecurity systems to counter emerging threats and protect sensitive information. To the best of our knowledge, this paper is the first of its kind to present a comprehensive taxonomy of all areas of cybersecurity that benefited from transfer learning and propose a detailed future roadmap to shape the possible research direction in this area.
公開日:2023-09-12
翻訳日:2024-03-19 06:53:05
# 適応型プライバシー損失パラメータを用いた対話型微分プライバシーのコンカレント構成

Concurrent Composition for Interactive Differential Privacy with Adaptive Privacy-Loss Parameters ( http://arxiv.org/abs/2309.05901v1 )

ライセンス: Link先を確認
Samuel Haney, Michael Shoemate, Grace Tian, Salil Vadhan, Andrew Vyrros, Vicki Xu, Wanrong Zhang, (参考訳) 本稿では,適応的に選択されたプライバシ-ロスパラメータを用いた対話機構の同時構成について検討する。 この設定では、相手はクエリを既存の対話メカニズムにインターリーブし、新しいものを作成することができる。 プライバシー損失を$(\epsilon, \delta)$-DP, $f$-DP, R\'enyi DPを一定の順序で測定した場合、非インタラクティブなメカニズムに対する有効なプライバシフィルタとオドメータは、対話機構の同時構成にまで拡張することを示す。 この結果から, 並列性はプライバシ保証に影響を与えないことを示すため, 差分的にプライベートな対話機構を構成する上で, 完全な適応性を実現するための強力な理論的基盤を提供する。 実際にデプロイするための実装も提供しています。

In this paper, we study the concurrent composition of interactive mechanisms with adaptively chosen privacy-loss parameters. In this setting, the adversary can interleave queries to existing interactive mechanisms, as well as create new ones. We prove that every valid privacy filter and odometer for noninteractive mechanisms extends to the concurrent composition of interactive mechanisms if privacy loss is measured using $(\epsilon, \delta)$-DP, $f$-DP, or R\'enyi DP of fixed order. Our results offer strong theoretical foundations for enabling full adaptivity in composing differentially private interactive mechanisms, showing that concurrency does not affect the privacy guarantees. We also provide an implementation for users to deploy in practice.
公開日:2023-09-12
翻訳日:2024-03-19 06:53:05
# DJI拡張Wi-Fiプロトコルにおけるリバースエンジニアリングとドローンハイジャックの事例

Behind The Wings: The Case of Reverse Engineering and Drone Hijacking in DJI Enhanced Wi-Fi Protocol ( http://arxiv.org/abs/2309.05913v1 )

ライセンス: Link先を確認
Derry Pratama, Jaegeun Moon, Agus Mahardika Ari Laksmono, Dongwook Yun, Iqbal Muhammad, Byeonguk Jeong, Janghyun Ji, Howon Kim, (参考訳) 本研究は,制御指令のリバースエンジニアリング解析とその後のハイジャック攻撃の実証に着目し,拡張Wi-Fiプロトコルの検証を行う。 調査では、強化Wi-Fiコントロールコマンドの脆弱性が発見され、ハイジャック攻撃の危険性が指摘されました。 この研究は、手軽で費用対効果の高い市販のWi-Fiルーターでも、そのような攻撃を実行する効果的なツールとして活用できることを証明した。 この脆弱性を説明するために、DJI Mini SEドローンで概念実証リモートハイジャック攻撃が行われ、制御コマンドをインターセプトしてドローンの飛行軌跡を操作した。 本研究の成果は、無人航空機をハイジャックの脅威から守るために、堅牢なセキュリティ対策を実装することの重要性を強調した。 民間ドローンが現在軍用兵器として使われていることを考えると、この研究は民間ドローンのセキュリティ分野におけるさらなる調査と進歩の必要性を浮き彫りにしている。

This research paper entails an examination of the Enhanced Wi-Fi protocol, focusing on its control command reverse-engineering analysis and subsequent demonstration of a hijacking attack. Our investigation discovered vulnerabilities in the Enhanced Wi-Fi control commands, rendering them susceptible to hijacking attacks. Notably, the study established that even readily available and cost-effective commercial off-the-shelf Wi-Fi routers could be leveraged as effective tools for executing such attacks. To illustrate this vulnerability, a proof-of-concept remote hijacking attack was carried out on a DJI Mini SE drone, whereby we intercepted the control commands to manipulate the drone's flight trajectory. The findings of this research emphasize the critical necessity of implementing robust security measures to safeguard unmanned aerial vehicles against potential hijacking threats. Considering that civilian drones are now used as war weapons, the study underscores the urgent need for further exploration and advancement in the domain of civilian drone security.
公開日:2023-09-12
翻訳日:2024-03-19 06:53:05
# 反復関数システムに基づく公開鍵暗号システム

Public key cryptosystems based on Iterated Functions Systems ( http://arxiv.org/abs/2309.05917v1 )

ライセンス: Link先を確認
Jacques Peyriere, Fengxia Liu, Zhiyong Zheng, Zixian Gong, (参考訳) f=(f_0,f_1,\dots,f_{\nu-1})$ を、ある空間~$X$ からそれ自身への 1 対 1 個の関数の集合とし、集合 $f_j(X)$ が非随伴であるとする。 w=w_1w_2\cdots w_k$ がアルファベット $\{0,1,\dots,\nu-1\}$ であるなら、$\Phi_{f,w} = f_{w_1}\circ f_{w_2}\circ \cdots\circ f_{w_k}$ とする。 関数~$F$が与えられたとき、$\Phi_{f,w}$と書くことができれば、~$w$は簡単に回収できる。 ある秘密鍵を使って新しいシステム($g=(g_1,g_2,\dots,g_{\nu-1})$を別のセット~$Y$で取得し、$g_j$のイメージがもはや分離されないようにする。 公開鍵が~$$である暗号システムを定義する。 暗号化されるメッセージはワード~w$で、関連する暗号文は$\Phi_{g,w}$です。 秘密鍵は$\Phi_{f,w}$を$\Phi_{g,w}$から回収することができる。

Let $f=(f_0,f_1,\dots, f_{\nu-1})$ be a collection of one-to-one functions from some space~$X$ into itself such that the sets $f_j(X)$ are disjoint. If $w=w_1w_2\cdots w_k$ is a word on the alphabet $\{0,1,\dots,\nu-1\}$, let $\Phi_{f,w} = f_{w_1}\circ f_{w_2}\circ\cdots\circ f_{w_k}$. Given a function~$F$ of which we know that it can be written as $\Phi_{f,w}$, it is easy to recover~$w$. We give some examples of this situation where everything can be scrambled up by using some private key to get a new system $g=(g_1,g_2,\dots,g_{\nu-1})$ on another set~$Y$ in such a way that the images of the $g_j$ are no longer disjoint. We define a cryptosystem whose public key is~$g$. The message to be encrypted is a word~$w$ and the associated cryptogram is $\Phi_{g,w}$. The private key allows to recover $\Phi_{f,w}$ from $\Phi_{g,w}$.
公開日:2023-09-12
翻訳日:2024-03-19 06:43:22
# あらゆるものをキャッチする:コンセプト・ウォーターマーキングでテキストのインバージョンを守る

Catch You Everything Everywhere: Guarding Textual Inversion via Concept Watermarking ( http://arxiv.org/abs/2309.05940v1 )

ライセンス: Link先を確認
Weitao Feng, Jiyan He, Jie Zhang, Tianwei Zhang, Wenbo Zhou, Weiming Zhang, Nenghai Yu, (参考訳) AIGC(AI-Generated Content)は、テキスト・ツー・イメージタスクのような多くのアプリケーションにおいて、さまざまなプロンプト、すなわち自然言語の異なる記述で高品質な画像を生成することができる。 さらに驚くべきことに、新しいパーソナライゼーション技術は、いくつかの個人イメージを参照として、目に見えない概念を記述することに成功し、価値あるパーソナライズされたコンセプトを共有するための商用プラットフォームもいくつか存在する。 しかし、このような高度な手法は、悪意のあるユーザーがターゲット概念を誤用して、高度に現実的な違法な画像を生成するという深刻な脅威をもたらす。 そのため、悪意のあるユーザーを追跡して責任を負う必要がある。 本稿では、最も人気のある軽量パーソナライズモデルであるテキスト・インバージョン(TI)の保護に焦点を当てる。 そこで本研究では,透かし情報を対象概念に埋め込んで,その概念に基づいて生成された画像から抽出する新しい概念透かしを提案する。 具体的には、ループ内のサンプルと透かしエンコーダと透かしデコーダを共同でトレーニングする。 悪意のあるユーザによって選択される可能性のある,さまざまな拡散サンプリングプロセスに対する大きなレジリエンスを示します。 実際には、コンセプトオーナは、自身のコンセプトを異なる透かし(e, serial number)をプラットフォームにアップロードすることができ、プラットフォームは異なるシリアル番号を、その後の追跡と法医学のために割り当てる。

AIGC (AI-Generated Content) has achieved tremendous success in many applications such as text-to-image tasks, where the model can generate high-quality images with diverse prompts, namely, different descriptions in natural languages. More surprisingly, the emerging personalization techniques even succeed in describing unseen concepts with only a few personal images as references, and there have been some commercial platforms for sharing the valuable personalized concept. However, such an advanced technique also introduces a severe threat, where malicious users can misuse the target concept to generate highly-realistic illegal images. Therefore, it becomes necessary for the platform to trace malicious users and hold them accountable. In this paper, we focus on guarding the most popular lightweight personalization model, ie, Textual Inversion (TI). To achieve it, we propose the novel concept watermarking, where watermark information is embedded into the target concept and then extracted from generated images based on the watermarked concept. Specifically, we jointly train a watermark encoder and a watermark decoder with the sampler in the loop. It shows great resilience to different diffusion sampling processes possibly chosen by malicious users, meanwhile preserving utility for normal use. In practice, the concept owner can upload his concept with different watermarks (ie, serial numbers) to the platform, and the platform allocates different users with different serial numbers for subsequent tracing and forensics.
公開日:2023-09-12
翻訳日:2024-03-19 06:43:22
# ランダムセグメンテーション: パケットサイズベースのサイドチャネル攻撃に対する新しいトラフィック難読化

Random Segmentation: New Traffic Obfuscation against Packet-Size-Based Side-Channel Attacks ( http://arxiv.org/abs/2309.05941v1 )

ライセンス: Link先を確認
Mnassar Alyami, Abdulmajeed Alghamdi, Mohammed Alkhowaiter, Cliff Zou, Yan Solihin, (参考訳) 暗号化されているにもかかわらず、パケットサイズはまだ見えており、オブザーバはIoT(Internet of Things)環境でプライベート情報を推測することができる(IoTデバイス識別など)。 パケットパディングは、データにノイズを加えることに依存するため、パケット長特性を高いデータオーバーヘッドで難なくする。 本稿では,ノイズを伴わずにパケットサイズをランダム化する,よりデータ効率のよい手法を提案する。 大規模なTCPセグメントをランダムな大きさのチャンクに分割することで,ノイズデータを追加せずにパケット長分布を難読化することができる。 TCPソケットを使用したクライアントサーバの実装は、アプリケーションレベルでのアプローチの実現可能性を示します。 ローカルソケットプログラミングパラメータを2つ調整することで,パケットサイズ制御を実現する。 まず、TCP_NODELAYオプションを使って、指定された長さのパケットを送信します。 第二に、送信バッファを小さくして、送信側が受信可能なより多くのデータを出力しないようにし、パケットサイズの制御を無効にします。 我々は4つのIoTデバイスのネットワークトレースに対する防御をシミュレートし、デバイス分類の精度を98%から63%に引き下げた。 一方、実世界のデータ伝送実験では、追加のレイテンシは21%未満で、追加のパケットヘッダーのオーバーヘッドは約5%である。

Despite encryption, the packet size is still visible, enabling observers to infer private information in the Internet of Things (IoT) environment (e.g., IoT device identification). Packet padding obfuscates packet-length characteristics with a high data overhead because it relies on adding noise to the data. This paper proposes a more data-efficient approach that randomizes packet sizes without adding noise. We achieve this by splitting large TCP segments into random-sized chunks; hence, the packet length distribution is obfuscated without adding noise data. Our client-server implementation using TCP sockets demonstrates the feasibility of our approach at the application level. We realize our packet size control by adjusting two local socket-programming parameters. First, we enable the TCP_NODELAY option to send out each packet with our specified length. Second, we downsize the sending buffer to prevent the sender from pushing out more data than can be received, which could disable our control of the packet sizes. We simulate our defense on a network trace of four IoT devices and show a reduction in device classification accuracy from 98% to 63%, close to random guessing. Meanwhile, the real-world data transmission experiments show that the added latency is reasonable, less than 21%, while the added packet header overhead is only about 5%.
公開日:2023-09-12
翻訳日:2024-03-19 06:43:22
# CToMP: 無人システムのためのサイクルタスク指向メモリ保護スキーム

CToMP: A Cycle-task-oriented Memory Protection Scheme for Unmanned Systems ( http://arxiv.org/abs/2309.05978v1 )

ライセンス: Link先を確認
Chengyan Ma, Ning Xi, Di Lu, Yebo Feng, Jianfeng Ma, (参考訳) メモリ破損攻撃(英: Memory corruption attack、MCA)とは、コンピュータシステムの正常な動作を妨害するためにメモリ位置の内容を変更するシステム侵入者の悪意ある行動を指す。 汎用システムとは異なり、無人システムは、サイズ、コスト、性能に制限があるため、完全なセキュリティ保護スキームを展開できない。 無人システムのMCAは特に防御が難しい。 さらに、MCAは無人システムにおいて多様で予測不可能な攻撃インタフェースを持ち、デジタルおよび物理的セクターに深刻な影響を与えている。 本稿では,現在無人システムにあるMCAを一般化し,モデル化し,分類し,ポータブルで汎用的な防衛手法を設計するための基礎を築いた。 異なる攻撃機構により, MCAは主にreturn2libcとreturn2shellcodeの2種類に分類されることがわかった。 return2libcアタックに対処するために、サイクル付き無人システムの不安定な動作をモデル化し、制御フローの改ざんを防ぐためのサイクルタスク指向メモリ保護(CToMP)アプローチを提案する。 return2shellcode攻撃に対する防御として,Shellcodeの実行を防止するためにメモリプールを活用することにより,ランダムなメモリアドレスを持つセキュアなプロセススタックを導入する。 また,リターン2libc 攻撃の新たな変種である ROP 攻撃に対して CTOMP が抵抗する機構についても論じる。 最後に,CUAV V5+ 上で Ardupilot と Crazyflie を用いて CTOMP を実装した。 評価とセキュリティ解析の結果から,提案手法は,フットプリントが低く,システムオーバーヘッドの少ない無人システムにおいて,様々なMCAに耐性があることが示されている。

Memory corruption attacks (MCAs) refer to malicious behaviors of system intruders that modify the contents of a memory location to disrupt the normal operation of computing systems, causing leakage of sensitive data or perturbations to ongoing processes. Unlike general-purpose systems, unmanned systems cannot deploy complete security protection schemes, due to their limitations in size, cost and performance. MCAs in unmanned systems are particularly difficult to defend against. Furthermore, MCAs have diverse and unpredictable attack interfaces in unmanned systems, severely impacting digital and physical sectors. In this paper, we first generalize, model and taxonomize MCAs found in unmanned systems currently, laying the foundation for designing a portable and general defense approach. According to different attack mechanisms, we found that MCAs are mainly categorized into two types--return2libc and return2shellcode. To tackle return2libc attacks, we model the erratic operation of unmanned systems with cycles and then propose a cycle-task-oriented memory protection (CToMP) approach to protect control flows from tampering. To defend against return2shellcode attacks, we introduce a secure process stack with a randomized memory address by leveraging the memory pool to prevent Shellcode from being executed. Moreover, we discuss the mechanism by which CToMP resists the ROP attack, a novel variant of return2libc attacks. Finally, we implement CToMP on CUAV V5+ with Ardupilot and Crazyflie. The evaluation and security analysis results demonstrate that the proposed approach CToMP is resilient to various MCAs in unmanned systems with low footprints and system overhead.
公開日:2023-09-12
翻訳日:2024-03-19 06:43:22
# 自然言語処理モデルにおけるバックドア攻撃と対策:包括的セキュリティレビュー

Backdoor Attacks and Countermeasures in Natural Language Processing Models: A Comprehensive Security Review ( http://arxiv.org/abs/2309.06055v4 )

ライセンス: Link先を確認
Pengzhou Cheng, Zongru Wu, Wei Du, Haodong Zhao, Wei Lu, Gongshen Liu, (参考訳) サードパーティのデータとモデルを応用することは、NLPにおける言語モデリングの新しいパラダイムとなり、攻撃者がトレーニングプロセスとデータソースを操作できるため、潜在的なセキュリティ脆弱性も導入されている。 この場合、バックドアアタックは特定のトリガーを通じて期待される振る舞いを示すモデルを誘導し、プリミティブなタスクにはほとんど影響しない。 したがって、特にバックドアの攻撃面が広いことを考えると、これは恐ろしい結果をもたらす可能性がある。 しかし、攻撃面に応じたセキュリティ上の課題、攻撃者の能力、目的を反映する体系的かつ包括的なレビューはいまだに存在しない。 さらに、この文脈における多様なバックドア対策の分析と比較が不足している。 本報告では,NLPセキュリティコミュニティのレッドアラームを鳴らすため,バックドア攻撃と対策のタイムリーなレビューを行う。 機械学習パイプラインの影響を受けるステージによると、攻撃面は広く認識され、その後、微調整(APMF)による事前訓練されたモデル攻撃(APMP)と、トレーニング(AFMT)による最終モデル攻撃(AFMT)の3つのカテゴリに分類される。 これにより、各カテゴリの攻撃が組み合わされる。 対策は、サンプル検査とモデル検査の2つの一般的なクラスに分類される。 全体として、防衛側の研究は攻撃側よりはるかに遅れており、あらゆる種類のバックドア攻撃を防げる単一の防御は存在しない。 攻撃者は、より見えない攻撃で既存の防御を知的にバイパスすることができる。 本研究は,大規模言語モデルにおける実証的セキュリティ評価,特に,より効率的で実践的な対策を要請するなど,バックドアに関する今後の研究にとって重要な領域を提示する。

Applicating third-party data and models has become a new paradigm for language modeling in NLP, which also introduces some potential security vulnerabilities because attackers can manipulate the training process and data source. In this case, backdoor attacks can induce the model to exhibit expected behaviors through specific triggers and have little inferior influence on primitive tasks. Hence, it could have dire consequences, especially considering that the backdoor attack surfaces are broad. However, there is still no systematic and comprehensive review to reflect the security challenges, attacker's capabilities, and purposes according to the attack surface. Moreover, there is a shortage of analysis and comparison of the diverse emerging backdoor countermeasures in this context. In this paper, we conduct a timely review of backdoor attacks and countermeasures to sound the red alarm for the NLP security community. According to the affected stage of the machine learning pipeline, the attack surfaces are recognized to be wide and then formalized into three categorizations: attacking pre-trained model with fine-tuning (APMF) or parameter-efficient tuning (APMP), and attacking final model with training (AFMT). Thus, attacks under each categorization are combed. The countermeasures are categorized into two general classes: sample inspection and model inspection. Overall, the research on the defense side is far behind the attack side, and there is no single defense that can prevent all types of backdoor attacks. An attacker can intelligently bypass existing defenses with a more invisible attack. Drawing the insights from the systematic review, we also present crucial areas for future research on the backdoor, such as empirical security evaluations on large language models, and in particular, more efficient and practical countermeasures are solicited.
公開日:2023-11-08
翻訳日:2024-03-19 06:43:22
# HoneyEVSE:電気自動車のサプライ機器をエミュレートするHoneypot

HoneyEVSE: An Honeypot to emulate Electric Vehicle Supply Equipments ( http://arxiv.org/abs/2309.06077v1 )

ライセンス: Link先を確認
Massimiliano Baldo, Tommaso Bianchi, Mauro Conti, Alessio Trevisan, Federico Turrin, (参考訳) 気候変動と戦うために、新しい「グリーン」技術が登場し、そのほとんどが電力として電気を使用している。 ソリューションのうち、電気自動車(EV)は将来の輸送システムの中心的な資産である。 EVは、スマートグリッドとEVの間の充電プロセスを管理するために、いわゆるV2Gパラダイムを実現するための複雑なインフラを必要としている。 このパラダイムでは、電気自動車供給装置(EVSE)または充電ステーションは、車両を認証し、充電する電力を供給する最終装置である。 しかしながら、EVSEが公開されインターネットに接続されているため、最近の研究は、物理的な改ざんとリモートアクセスを持つ攻撃者がEVSEをターゲットとして、インフラストラクチャ全体と最終ユーザのセキュリティを公開する方法を示している。 そのため、このようなインフラを確保するための新たな戦略を開発することが重要である。 本稿では,EVSEを模擬した最初のハニーポットであるHoneyEVSEを紹介する。 HoneyEVSEは、EV充電プロセスの忠実度の高さをシミュレートすると同時に、ユーザがダッシュボードを通じてそれを操作できるようにする。 さらに、インターネット上に公開された他の充電カラムに基づいて、ログインおよびデバイス情報ページをエミュレートし、ユーザエンゲージメントを高める。 我々はHoneyEVSEを30日間インターネットに公開し、その能力を評価し、Shodan Honeyscoreで受信したインタラクションを測定した。 結果から,HoneyEVSEは露呈したサービス上で多数のインタラクションを惹きつけながら,Shodan honeyscoreメトリックを回避できることが示唆された。

To fight climate change, new "green" technology are emerging, most of them using electricity as a power source. Among the solutions, Electric Vehicles (EVs) represent a central asset in the future transport system. EVs require a complex infrastructure to enable the so-called Vehicle-to-Grid (V2G) paradigm to manage the charging process between the smart grid and the EV. In this paradigm, the Electric Vehicle Supply Equipment (EVSE), or charging station, is the end device that authenticates the vehicle and delivers the power to charge it. However, since an EVSE is publicly exposed and connected to the Internet, recent works show how an attacker with physical tampering and remote access can target an EVSE, exposing the security of the entire infrastructure and the final user. For this reason, it is important to develop novel strategies to secure such infrastructures. In this paper we present HoneyEVSE, the first honeypot conceived to simulate an EVSE. HoneyEVSE can simulate with high fidelity the EV charging process and, at the same time, enables a user to interact with it through a dashboard. Furthermore, based on other charging columns exposed on the Internet, we emulate the login and device information pages to increase user engagement. We exposed HoneyEVSE for 30 days to the Internet to assess its capability and measured the interaction received with its Shodan Honeyscore. Results show that HoneyEVSE can successfully evade the Shodan honeyscore metric while attracting a high number of interactions on the exposed services.
公開日:2023-09-12
翻訳日:2024-03-19 06:43:22
# 位置情報のプライバシメカニズムの体系的評価

Systematic Evaluation of Geolocation Privacy Mechanisms ( http://arxiv.org/abs/2309.06263v1 )

ライセンス: Link先を確認
Alban Héon, Ryan Sheatsley, Quinn Burke, Blaine Hoak, Eric Pauley, Yohan Beugin, Patrick McDaniel, (参考訳) 位置情報データプライバシは、位置情報ベースサービス(LBS)が生活の重要な部分となっているため、ユーザにとって深刻な関心事となっている。 悪意ある当事者が位置情報データにアクセスして、宗教や政治的見解などのユーザに関する機密情報を学習することは可能である。 位置情報プライバシ保護メカニズム(LPPM)は、ユーザがLBSを使用できるようにしながら、共有データのプライバシを確保するために、以前の作業によって提案されている。 しかし、ユーザがLBSを使用するシナリオに応じて、どのメカニズムを使うべきかを明確には見当たらない。 シナリオは、ユーザがLBS(レポートの頻度、レポートの数)を使用する方法です。 本稿では,LPPMが使用するシナリオに対する感度について検討する。 本稿では,LPPM,アタック,メトリクスの徹底的な組み合わせを考慮し,LPPMを体系的に評価する枠組みを提案する。 本フレームワークを用いて,導入したLPPMを改良した機構を含む選択したLPPMと比較する。 様々なシナリオを評価することで、研究されたメカニズムの有効性(プライバシ、ユーティリティ、ロバスト性)がシナリオに依存していることが分かる。 このシナリオは、特定のアプリケーションに対して難読化メカニズムを選択する際には不可欠であることを示す。

Location data privacy has become a serious concern for users as Location Based Services (LBSs) have become an important part of their life. It is possible for malicious parties having access to geolocation data to learn sensitive information about the user such as religion or political views. Location Privacy Preserving Mechanisms (LPPMs) have been proposed by previous works to ensure the privacy of the shared data while allowing the users to use LBSs. But there is no clear view of which mechanism to use according to the scenario in which the user makes use of a LBS. The scenario is the way the user is using a LBS (frequency of reports, number of reports). In this paper, we study the sensitivity of LPPMs on the scenario on which they are used. We propose a framework to systematically evaluate LPPMs by considering an exhaustive combination of LPPMs, attacks and metrics. Using our framework we compare a selection of LPPMs including an improved mechanism that we introduce. By evaluating over a variety of scenarios, we find that the efficacy (privacy, utility, and robustness) of the studied mechanisms is dependent on the scenario: for example the privacy of Planar Laplace geo-indistinguishability is greatly reduced in a continuous scenario. We show that the scenario is essential to consider when choosing an obfuscation mechanism for a given application.
公開日:2023-09-12
翻訳日:2024-03-19 06:43:22
# レベルアップ: レベルアップ同型暗号を用いたプライベート非インタラクティブ決定木の評価

Level Up: Private Non-Interactive Decision Tree Evaluation using Levelled Homomorphic Encryption ( http://arxiv.org/abs/2309.06496v1 )

ライセンス: Link先を確認
Rasoul Akhavan Mahdavi, Haoyan Ni, Dimitry Linkov, Florian Kerschbaum, (参考訳) マシンラーニング・アズ・ア・サービスの人気が高まるにつれ、プライバシや知的財産権に対する懸念が高まっている。 サービスはプロプライエタリなモデルを保護することを目的としているのに対して、ユーザはサービスを取得するためにプライベート情報を開示することをためらうことが多い。 機械学習モデルとして広く使用されている決定木は、その単純さ、解釈可能性、トレーニングの容易さに好まれる。 このコンテキストにおいて、プライベート決定木評価(PDTE)は、クライアントのプライベート属性に基づいて、プライベート決定木を保持するサーバが予測を提供することを可能にする。 プロトコルは、サーバがクライアントのプライベート属性について何も学ばないようなものです。 同様に、クライアントは予測とハイパーパラメータ以外に、サーバのモデルについて何も学ばない。 本稿では,新しい非対話型PDTEプロトコルであるXXCMP-PDTEとRCC-PDTEの2つの新しい非対話型PDTEプロトコルであるXXCMPとRCCをベースとして提案する。 これらの比較演算子の評価は,提案手法が高精度な数値を効率的に評価できることを実証するものである。 具体的には、RCCは32ビットの数を10ミリ秒未満で比較できる。 提案したPDTEプロトコルを、UCIデータセット上でトレーニングされた決定木上で評価し、その分野における既存の研究結果と比較する。 さらに,RCC-PDTEは1000以上のノードと16ビットの精度を持つ決定木を2秒以内で評価できることを示す。 対照的に、現在の最先端技術は、たった11ビットの精度で、そのような木を評価するのに10秒以上かかります。

As machine learning as a service continues gaining popularity, concerns about privacy and intellectual property arise. Users often hesitate to disclose their private information to obtain a service, while service providers aim to protect their proprietary models. Decision trees, a widely used machine learning model, are favoured for their simplicity, interpretability, and ease of training. In this context, Private Decision Tree Evaluation (PDTE) enables a server holding a private decision tree to provide predictions based on a client's private attributes. The protocol is such that the server learns nothing about the client's private attributes. Similarly, the client learns nothing about the server's model besides the prediction and some hyperparameters. In this paper, we propose two novel non-interactive PDTE protocols, XXCMP-PDTE and RCC-PDTE, based on two new non-interactive comparison protocols, XXCMP and RCC. Our evaluation of these comparison operators demonstrates that our proposed constructions can efficiently evaluate high-precision numbers. Specifically, RCC can compare 32-bit numbers in under 10 milliseconds. We assess our proposed PDTE protocols on decision trees trained over UCI datasets and compare our results with existing work in the field. Moreover, we evaluate synthetic decision trees to showcase scalability, revealing that RCC-PDTE can evaluate a decision tree with over 1000 nodes and 16 bits of precision in under 2 seconds. In contrast, the current state-of-the-art requires over 10 seconds to evaluate such a tree with only 11 bits of precision.
公開日:2023-09-12
翻訳日:2024-03-19 06:43:22
# 実世界の処理-インメモリシステムにおける同型動作の評価

Evaluating Homomorphic Operations on a Real-World Processing-In-Memory System ( http://arxiv.org/abs/2309.06545v2 )

ライセンス: Link先を確認
Harshita Gupta, Mayank Kabra, Juan Gómez-Luna, Konstantinos Kanellopoulos, Onur Mutlu, (参考訳) 暗号化されたデータのコンピューティングは、データセキュリティとプライバシリスクを低減するための有望なアプローチであり、同型暗号化がこの目標を達成するファシリテータとして機能する。 本研究では、PIM(Processing-in-Memory)パラダイムを用いて、メモリ容量と頻繁なデータ移動要求を緩和するホモモルフィック操作を高速化する。 実世界のPIMシステムを用いて、同型加法および乗法のためのBrakerski-Fan-Vercauteren (BFV) スキームを高速化する。 統計的ワークロード(パラメータ平均、分散、線形回帰)によるこれらの同型演算のPIM実装を評価し、CPUおよびGPU実装と比較する。 実PIMシステム(UPMEM)をCPU上で50~100倍,ベクトル加算時にGPU上で2~15倍の高速化を示した。 ベクトル乗算では、実際のPIMシステムはCPUを40-50倍の性能で上回る。 しかし、評価された第1世代の実PIMシステムでは、ネイティブな広範な乗算サポートが不足しているため、GPUの10~15倍遅れている。 例えば、分散と線形回帰により、実際のPIMシステムの性能改善はCPU上で30倍から300倍、GPU上では10倍から30倍の間で変化し、様々な量のデータに対して同型演算のスケーラビリティの観点から実際のPIMシステムトレードオフを明らかにする。 将来、実装をオープンソースにする予定です。

Computing on encrypted data is a promising approach to reduce data security and privacy risks, with homomorphic encryption serving as a facilitator in achieving this goal. In this work, we accelerate homomorphic operations using the Processing-in- Memory (PIM) paradigm to mitigate the large memory capacity and frequent data movement requirements. Using a real-world PIM system, we accelerate the Brakerski-Fan-Vercauteren (BFV) scheme for homomorphic addition and multiplication. We evaluate the PIM implementations of these homomorphic operations with statistical workloads (arithmetic mean, variance, linear regression) and compare to CPU and GPU implementations. Our results demonstrate 50-100x speedup with a real PIM system (UPMEM) over the CPU and 2-15x over the GPU in vector addition. For vector multiplication, the real PIM system outperforms the CPU by 40-50x. However, it lags 10-15x behind the GPU due to the lack of native sufficiently wide multiplication support in the evaluated first-generation real PIM system. For mean, variance, and linear regression, the real PIM system performance improvements vary between 30x and 300x over the CPU and between 10x and 30x over the GPU, uncovering real PIM system trade-offs in terms of scalability of homomorphic operations for varying amounts of data. We plan to make our implementation open-source in the future.
公開日:2023-10-03
翻訳日:2024-03-19 06:43:22
# ポンプ、ダンプ、それから何?暗号通貨のポンプ・ダンプ・スキームの長期的影響

Pump, Dump, and then What? The Long-Term Impact of Cryptocurrency Pump-and-Dump Schemes ( http://arxiv.org/abs/2309.06608v1 )

ライセンス: Link先を確認
Joshua Clough, Matthew Edwards, (参考訳) ポンプ・ダンプ・スキーム(英: pump and dump scheme)は、調整されたアクターがより高い価格で販売するために資産の価格を上昇させる市場操作攻撃の一種である。 強制力の欠如により、これらのスキームは暗号通貨市場に広く浸透しているが、これらのイベントがターゲットとするコインに負の影響が及ぼされることは、まだ完全には理解されていない。 論文では,Telegramチャネルから抽出されたポンプイベントの新たなデータセットに基づいて,ポンプチャネルの異なる戦術と,765枚のコインにまたがるポンプ・ダンプスキームの長期的影響について検討する。 また, 短期的な影響にもかかわらず, ポンプやダンプの長期的影響が対象資産に与える影響は否定的であり, ポンプ発生後1年で平均30%の相対的な価格下落がみられた。

The pump and dump scheme is a form of market manipulation attack in which coordinated actors drive up the price of an asset in order to sell at a higher price. Due in part to a lack of enforcement, these schemes are widespread within the cryptocurrency marketplace, but the negative impact of these events on the coins they target is not yet fully understood. Drawing upon a novel dataset of pump events extracted from Telegram channels, an order of magnitude larger than the nearest comparable dataset in the literature, we explore the differing tactics of pumping channels and the long-term impact of pump and dump schemes across 765 coins. We find that, despite a short-term positive impact in some cases, the long-term impact of pump and dump schemes on the targeted assets is negative, amounting to an average 30% relative drop in price a year after the pump event.
公開日:2023-09-12
翻訳日:2024-03-19 06:43:22
# 複数の変数を持つオンラインアルゴリズムの微分プライバシーの決定

Deciding Differential Privacy of Online Algorithms with Multiple Variables ( http://arxiv.org/abs/2309.06615v1 )

ライセンス: Link先を確認
Rohit Chadha, A. Prasad Sistla, Mahesh Viswanathan, Bishnu Bhusal, (参考訳) 本稿では、入力ストリームを処理し、各入力に対応する出力を生成するオンラインランダム化アルゴリズムの差分プライバシーチェックの問題について考察する。 本稿では,複数の実数値ストレージ変数を許容することにより,Dip Automatica (See arXiv:2104.14519) と呼ばれるオートマトンモデルを一般化する。 DiPオートマトンは、プライバシー予算$\epsilon$に依存するパラメトリックオートマトンである。 オートマトン$A$は、ある$\mathfrak{D}$の場合、$\mathfrak{D}\epsilon$-differentially private for all values of $\epsilon>0$である。 微分プライベートなDiPオートマチックのクラスを正確に同定する。 与えられたDiPオートマトンがこのクラスに属するかどうかを決定する問題はPSPACE完全であることを示す。 我々のPSPACEアルゴリズムは、与えられたオートマトンが微分プライベートであるときに、$\mathfrak{D}$の値も計算する。 アルゴリズムが実装され,その有効性を示す実験結果が提示された。

We consider the problem of checking the differential privacy of online randomized algorithms that process a stream of inputs and produce outputs corresponding to each input. This paper generalizes an automaton model called DiP automata (See arXiv:2104.14519) to describe such algorithms by allowing multiple real-valued storage variables. A DiP automaton is a parametric automaton whose behavior depends on the privacy budget $\epsilon$. An automaton $A$ will be said to be differentially private if, for some $\mathfrak{D}$, the automaton is $\mathfrak{D}\epsilon$-differentially private for all values of $\epsilon>0$. We identify a precise characterization of the class of all differentially private DiP automata. We show that the problem of determining if a given DiP automaton belongs to this class is PSPACE-complete. Our PSPACE algorithm also computes a value for $\mathfrak{D}$ when the given automaton is differentially private. The algorithm has been implemented, and experiments demonstrating its effectiveness are presented.
公開日:2023-09-12
翻訳日:2024-03-19 06:43:22
# 自動モデル選択による階層的非負行列分解による極端クラス不均衡下のマルウェア群の半教師付き分類

Semi-supervised Classification of Malware Families Under Extreme Class Imbalance via Hierarchical Non-Negative Matrix Factorization with Automatic Model Selection ( http://arxiv.org/abs/2309.06643v1 )

ライセンス: Link先を確認
Maksim E. Eren, Manish Bhattarai, Robert J. Joyce, Edward Raff, Charles Nicholas, Boian S. Alexandrov, (参考訳) マルウェア標本が属する家族の同定は、マルウェアの挙動を理解し、緩和戦略を開発する上で不可欠である。 しかし、先行研究によって提案された解決策は、現実的な評価因子が欠如しているため、しばしば実践不可能である。 これらの要因には、クラス不均衡下での学習、新しいマルウェアを識別する能力、生産品質のラベル付きデータのコストが含まれる。 実際には、デプロイされたモデルは、顕著で稀で新しいマルウェアファミリーに直面しています。 同時に、モデルを訓練するための最新のラベル付きマルウェアの大量取得もコストがかかる。 本稿では,これらの問題に対処し,HNMFk分類器(HNMFk Classifier)と呼ばれる新しい階層的半教師付きアルゴリズムを提案する。 本手法は,自動モデル選択による非負行列分解,すなわちクラスタ数の推定に基づく。 HNMFk分類器を用いて、マルウェアデータの階層構造と半教師付き設定を併用し、極度のクラス不均衡の条件下でマルウェア群を分類する。 我々のソリューションは、新しいマルウェアファミリーの識別において有望な結果を生み出し、低量のラベル付きデータを使用する場合のモデルの性能維持を支援する、持続的な予測または拒絶オプションを実行することができる。 EMBER-2018コーパスの388,000点のサンプルを静的解析により,2900点近いマルウェアの集団分類を行った。 実験では、F1スコアが0.80の教師付きベースラインモデルと半教師付きベースラインモデルの両方を上回った。

Identification of the family to which a malware specimen belongs is essential in understanding the behavior of the malware and developing mitigation strategies. Solutions proposed by prior work, however, are often not practicable due to the lack of realistic evaluation factors. These factors include learning under class imbalance, the ability to identify new malware, and the cost of production-quality labeled data. In practice, deployed models face prominent, rare, and new malware families. At the same time, obtaining a large quantity of up-to-date labeled malware for training a model can be expensive. In this paper, we address these problems and propose a novel hierarchical semi-supervised algorithm, which we call the HNMFk Classifier, that can be used in the early stages of the malware family labeling process. Our method is based on non-negative matrix factorization with automatic model selection, that is, with an estimation of the number of clusters. With HNMFk Classifier, we exploit the hierarchical structure of the malware data together with a semi-supervised setup, which enables us to classify malware families under conditions of extreme class imbalance. Our solution can perform abstaining predictions, or rejection option, which yields promising results in the identification of novel malware families and helps with maintaining the performance of the model when a low quantity of labeled data is used. We perform bulk classification of nearly 2,900 both rare and prominent malware families, through static analysis, using nearly 388,000 samples from the EMBER-2018 corpus. In our experiments, we surpass both supervised and semi-supervised baseline models with an F1 score of 0.80.
公開日:2023-09-12
翻訳日:2024-03-19 06:43:22
# 境界ストレージモデルにおける機能暗号化

Functional Encryption in the Bounded Storage Models ( http://arxiv.org/abs/2309.06702v1 )

ライセンス: Link先を確認
Mohammed Barhoush, Louis Salvail, (参考訳) 関数暗号は公開鍵暗号の強力なパラダイムであり、暗号化されたデータへの制御されたアクセスを可能にする。 このプリミティブは一般に標準設定では不可能であるため、有界量子記憶モデル(BQSM)と有界古典記憶モデル(BCSM)の可能性を検討する。 これらのモデルでは、暗号文は潜在的に消滅し、不合理な結果が無効になり、ポジティブな結果が得られる。 まず、BQSMでは、$\texttt{q}=O(\sqrt{\textt{s}/\texttt{r}})$で情報理論的に安全な機能暗号化を構築します。 ここで、$\texttt{r}$は、相手がプロトコル内の量子メモリの$\texttt{s}$-qubitsに制限される回数を表し、$\texttt{q}$はプロトコルを正直に実行するために必要な量子メモリを表す。 次に,情報理論的にセキュアな関数型暗号を$\texttt{q} < \sqrt{\texttt{s}/\texttt{r}}$で達成することは不可能であることを示す。 しかし、量子後片道関数の存在を仮定することで、従来のキーと$\texttt{q}=0$と$\texttt{r}=1$で関数暗号化を実現することができる。 次に、BCSMでは、$(O(\texttt{n}),\texttt{n}^2)$関数暗号を構築し、$(\texttt{n},\texttt{n}^2)$仮想弱灰色の箱難読化を仮定する。 ここで、$(\texttt{n},\texttt{n}^2)$は、セキュリティを壊すために必要なメモリと、セキュリティを壊すために必要なメモリを示す。 このメモリギャップは最適であり、仮定は最小限である。 特に、$(O(\texttt{n}),\texttt{n}^2)$ virtual weak gray-box obfuscation assuming $(\texttt{n},\texttt{n}^2)$ functional encryption.

Functional encryption is a powerful paradigm for public-key encryption which allows for controlled access to encrypted data. This primitive is generally impossible in the standard setting so we investigate possibilities in the bounded quantum storage model (BQSM) and the bounded classical storage model (BCSM). In these models, ciphertexts potentially disappear which nullifies impossibility results and allows us to obtain positive outcomes. Firstly, in the BQSM, we construct information-theoretically secure functional encryption with $\texttt{q}=O(\sqrt{\texttt{s}/\texttt{r}})$ where $\texttt{r}$ can be set to any value less than $\texttt{s}$. Here $\texttt{r}$ denotes the number of times that an adversary is restricted to $\texttt{s}$--qubits of quantum memory in the protocol and $\texttt{q}$ denotes the required quantum memory to run the protocol honestly. We then show that our scheme is optimal by proving that it is impossible to attain information-theoretically secure functional encryption with $\texttt{q} < \sqrt{\texttt{s}/\texttt{r}}$. However, by assuming the existence of post-quantum one-way functions, we can do far better and achieve functional encryption with classical keys and with $\texttt{q}=0$ and $\texttt{r}=1$. Secondly, in the BCSM, we construct $(O(\texttt{n}),\texttt{n}^2)$ functional encryption assuming the existence of $(\texttt{n},\texttt{n}^2)$ virtual weak grey-box obfuscation. Here, the pair $(\texttt{n},\texttt{n}^2)$ indicates the required memory to run honestly and the needed memory to break security, respectively. This memory gap is optimal and the assumption is minimal. In particular, we also construct $(O(\texttt{n}),\texttt{n}^2)$ virtual weak grey-box obfuscation assuming $(\texttt{n},\texttt{n}^2)$ functional encryption.
公開日:2023-09-13
翻訳日:2024-03-19 06:43:22
# DP-フォワード:フォワードパスにおける差分プライバシーを持つ言語モデルの微調整と推論

DP-Forward: Fine-tuning and Inference on Language Models with Differential Privacy in Forward Pass ( http://arxiv.org/abs/2309.06746v2 )

ライセンス: Link先を確認
Minxin Du, Xiang Yue, Sherman S. M. Chow, Tianhao Wang, Chenyu Huang, Huan Sun, (参考訳) 個人確率勾配勾配(DP-SGD)は、バックプロパゲーションの勾配にノイズを加え、プライバシー漏洩、特にメンバーシップ推論からトレーニングデータを保護している。 インバージョンやセンシティブな属性推論のような(推論時の)脅威をカバーできない。 また、大規模な訓練済み言語モデル(LM)を微調整する際には、ストレージや計算に費用がかかる。 本稿では,LMの前方通過に行列を埋め込んで直接摂動するDP-フォワードを提案する。 トレーニングと推論データに対する厳格なローカルDP要件を満たす。 最小の行列値ノイズを用いてこれをインスタンス化するために、行列ガウス分布から非二項ノイズを引いて解析行列ガウス—力学(aMGM)を考案する。 次に、AMGMノイズを有するLMの異なる隠れ(サブ)層からの摂動出力について検討する。 典型的な3つのタスクのユーティリティは、ほとんどプライベートでないベースラインに到達し、プライバシーレベルではDP-SGDを7.7ppまで上回っている。 最新の高速ライブラリであるDP-SGDと比較して,3$\timesの時間とメモリコストを節約できる。 また、DP-SGDは失敗するのに対し、埋め込み反転と感度特性推定の平均成功率を最大88ppと41ppに下げる。

Differentially private stochastic gradient descent (DP-SGD) adds noise to gradients in back-propagation, safeguarding training data from privacy leakage, particularly membership inference. It fails to cover (inference-time) threats like embedding inversion and sensitive attribute inference. It is also costly in storage and computation when used to fine-tune large pre-trained language models (LMs). We propose DP-Forward, which directly perturbs embedding matrices in the forward pass of LMs. It satisfies stringent local DP requirements for training and inference data. To instantiate it using the smallest matrix-valued noise, we devise an analytic matrix Gaussian~mechanism (aMGM) by drawing possibly non-i.i.d. noise from a matrix Gaussian distribution. We then investigate perturbing outputs from different hidden (sub-)layers of LMs with aMGM noises. Its utility on three typical tasks almost hits the non-private baseline and outperforms DP-SGD by up to 7.7pp at a moderate privacy level. It saves 3$\times$ time and memory costs compared to DP-SGD with the latest high-speed library. It also reduces the average success rates of embedding inversion and sensitive attribute inference by up to 88pp and 41pp, respectively, whereas DP-SGD fails.
公開日:2023-09-19
翻訳日:2024-03-19 06:43:22
# ZKROWNN: ニューラルネットワークのオーナシップのゼロ知識

ZKROWNN: Zero Knowledge Right of Ownership for Neural Networks ( http://arxiv.org/abs/2309.06779v1 )

ライセンス: Link先を確認
Nojan Sheybani, Zahra Ghodsi, Ritvik Kapila, Farinaz Koushanfar, (参考訳) 現代のAIモデルをトレーニングするには、学習データとコンピューティングリソースの調達に投資する必要がある。 一般的なモデルウォーターマーキングソリューションは、検出のためのキー入力トリガに依存している。 ZKROWNNはZero-Knowledge Proofs (ZKP) を利用した初の自動エンドツーエンドフレームワークである。 ZKROWNNは、サードパーティのクライアントがモデルオーナシップを1秒以内で検証できるようにする。

Training contemporary AI models requires investment in procuring learning data and computing resources, making the models intellectual property of the owners. Popular model watermarking solutions rely on key input triggers for detection; the keys have to be kept private to prevent discovery, forging, and removal of the hidden signatures. We present ZKROWNN, the first automated end-to-end framework utilizing Zero-Knowledge Proofs (ZKP) that enable an entity to validate their ownership of a model, while preserving the privacy of the watermarks. ZKROWNN permits a third party client to verify model ownership in less than a second, requiring as little as a few KBs of communication.
公開日:2023-09-13
翻訳日:2024-03-19 06:43:22
# 地球科学と基礎モデル:一般地球科学人工知能システムを目指して

When Geoscience Meets Foundation Models: Towards General Geoscience Artificial Intelligence System ( http://arxiv.org/abs/2309.06799v3 )

ライセンス: Link先を確認
Hao Zhang, Jin-Jian Xu, Hong-Wei Cui, Lin Li, Yaowen Yang, Chao-Sheng Tang, Niklas Boers, (参考訳) 地球科学基礎モデル (GFMs) は、地球系の力学のシミュレーションと理解を改善するために大規模な学際データを統合するための、地球科学における革命的なアプローチである。 データ中心の人工知能パラダイムとして、GFMは構造化データと非構造化データのペタバイトから貴重な洞察を抽出する。 タスク仕様、多様なインプットとアウトプット、マルチモーダルな知識表現におけるそれらの汎用性は、個々のデータソースの能力を超越した包括的な分析を可能にする。 GFMのスケーラビリティと一般化性は、地球システムコンポーネント間の複雑な相互作用に関連する様々な予測、シミュレーション、決定タスクに対処することを可能にする。 観測されたパターンや変化の根底にある因果的メカニズムを明らかにすることで、GFMは地球系の知識と様々なドライバや摂動に対する応答の促進に貢献します。 ドメインの専門家とコンピュータ科学者のコラボレーションは、地球の歴史、現在、未来を理解する上で、これらの貴重なツールにおいて、イノベーションを育む上で重要な役割を担います。 さらに,GFM,特にリモートセンシングアプリケーションを構築するための重要な技術を含む最近の進歩を紹介する。 しかし、検証と検証、スケーラビリティ、解釈可能性、知識表現、社会的偏見への対処には課題が残っている。 今後は、学際的なチームワークを通じて、モデル統合、解決、正確性、エクイティを強化することが鍵となる。 現在の制限にもかかわらず、GFMは、気候変動、自然災害、持続可能性などの問題に対する重要な洞察を複数のシナリオを探索し、不確実性を定量化する能力を通じて提供することを約束している。 データ駆動モデリングへの彼らの継続的な進化は、地球科学のパラダイムシフトの可能性を秘めている。

Geoscience foundation models (GFMs) represent a revolutionary approach within Earth sciences to integrate massive cross-disciplinary data for improved simulation and understanding of Earth system dynamics. As a data-centric artificial intelligence paradigm, GFMs extract valuable insights from petabytes of both structured and unstructured data. Their versatility in task specification, diverse inputs and outputs, and multi-modal knowledge representation enable a comprehensive analysis that surpasses the capabilities of individual data sources. Critically, the scalability and generalizability of GFMs empower them to address a wide array of prediction, simulation, and decision tasks related to the intricate interactions among Earth system components. By unraveling the causal mechanisms underlying observed patterns and changes, GFMs contribute to advancing our knowledge of the Earth system and its responses to various drivers and perturbations. Collaboration between domain experts and computer scientists plays a pivotal role in fostering innovations in these invaluable tools for understanding the past, present, and future of our planet. Moreover, we introduce recent advances including key technologies for constructing GFMs, especially remote sensing applications. However, challenges remain in validation and verification, scalability, interpretability, knowledge representation, and addressing social bias. Going forward, the key lies in enhancing model integration, resolution, accuracy, and equity through interdisciplinary teamwork. Despite current limitations, GFMs hold great promise for providing critical insights into pressing issues including climate change, natural hazards, and sustainability through their ability to explore multiple scenarios and quantify uncertainties. Their continued evolution toward integrated, data-driven modeling holds paradigm-shifting potential for Earth science.
公開日:2024-03-15
翻訳日:2024-03-19 04:50:58
# 検出不能なセルフリッシュマイニング

Undetectable Selfish Mining ( http://arxiv.org/abs/2309.06847v2 )

ライセンス: Link先を確認
Maryam Bahrani, S. Matthew Weinberg, (参考訳) Eyal and Sirer (2014) は、戦略的なBitcoinマイナーが意図したBitcoinプロトコルから逸脱することで厳密に利益を得る可能性があると定めている。 より具体的に言えば、総ハッシュレートの1/3ドル以上の採掘者は、意図したプロトコルに従うよりも利己的なマイニングによってビットコインをより高速に得ることができる(ネットワーク条件によっては、ハッシュレートの低い割合も十分である)。 利己的なマイニングの実践的批判の一つは、利己的なマイニングの存在は、*統計的に検出できる*、すなわち、利己的なマイニングの存在によって生み出された孤児ブロックのパターンは、自然のネットワーク遅延によって説明できない、ということである。 したがって、攻撃者が自尊心のあるマイニングを選んだ場合、ユーザーはこれを検出でき、これは(顕著に)BTCの価値に悪影響を及ぼす可能性がある。 つまり、攻撃者は自家用マイニングによって少し高額なビットコインを手に入れるかもしれないが、これらのビットコインの価値は著しく低くなるかもしれない。 オーファンドブロックのパターンは、正直なマイニング者しかいないが、ネットワーク遅延が高い世界と統計的に同一である。 具体的には,ネットワーク遅延のある正直な鉱山労働者が,確率$\beta'$と独立に,各高さの孤児ブロックを生成するスタイルモデルを考える。 代わりに,確率$\beta > \beta'$と独立に,それぞれの高さで孤児ブロックを生産する自家的マイニング戦略を提案する。 さらに、我々の戦略は、総ハッシュレートの38.2 % \ll 50 %$の攻撃者にとって厳格に利益があることを示している(これは全ての自然孤児率の$\beta'$に対して成り立つ)。

Seminal work of Eyal and Sirer (2014) establishes that a strategic Bitcoin miner may strictly profit by deviating from the intended Bitcoin protocol, using a strategy now termed *selfish mining*. More specifically, any miner with $>1/3$ of the total hashrate can earn bitcoin at a faster rate by selfish mining than by following the intended protocol (depending on network conditions, a lower fraction of hashrate may also suffice). One convincing critique of selfish mining in practice is that the presence of a selfish miner is *statistically detectable*: the pattern of orphaned blocks created by the presence of a selfish miner cannot be explained by natural network delays. Therefore, if an attacker chooses to selfish mine, users can detect this, and this may (significantly) negatively impact the value of BTC. So while the attacker may get slightly more bitcoin by selfish mining, these bitcoin may be worth significantly less USD. We develop a selfish mining variant that is provably *statistically undetectable*: the pattern of orphaned blocks is statistically identical to a world with only honest miners but higher network delay. Specifically, we consider a stylized model where honest miners with network delay produce orphaned blocks at each height independently with probability $\beta'$. We propose a selfish mining strategy that instead produces orphaned blocks at each height independently with probability $\beta > \beta'$. We further show that our strategy is strictly profitable for attackers with $38.2\% \ll 50\%$ of the total hashrate (and this holds for all natural orphan rates $\beta'$).
公開日:2024-02-04
翻訳日:2024-03-19 04:50:58
# 局所微分プライバシー下における一般グラフのスペクトルクラスタリングのロバスト性

Robustness for Spectral Clustering of General Graphs under Local Differential Privacy ( http://arxiv.org/abs/2309.06867v1 )

ライセンス: Link先を確認
Sayan Mukherjee, Vorapong Suppakitpaisarn, (参考訳) スペクトルクラスタリングは、ネットワーク内のクラスタを見つけるために広く使われているアルゴリズムである。 複数の研究者が局所微分プライバシーの下でスペクトルクラスタリングの安定性について研究しており、基礎となるネットワークは確率ブロックモデル(SBM)から生成されると仮定している。 しかし、ソーシャルネットワークはSBMから派生していないため、この仮定は制限的すぎると論じる。 このようにして、この研究における一般グラフの解析を掘り下げる。 私たちの主な焦点は、エッジフリップメソッド -- ローカルな差分プライバシーを保護するための一般的なテクニック -- にあります。 正の面では、ある合理的なクラスタリング仮定を満たす$n$-頂点グラフの辺が$O(\log n/n)$の確率で反転しても、クラスタリングの結果は概ね一貫したものである。 実証実験はこれらの理論的な発見をさらに裏付ける。 逆に、クラスタリングの結果は SBM から生成される密集グラフやクラスタリンググラフに対して安定であるが、一般にスペクトルクラスタリングは、フリップ確率が $\omega(\log n/n)$ であるとき、ある密集グラフに対して非常に不規則な結果が得られることを示す。 これは、一般的なグラフで得られる最高のプライバシー予算が$\Theta(\log n)$であることを示している。

Spectral clustering is a widely used algorithm to find clusters in networks. Several researchers have studied the stability of spectral clustering under local differential privacy with the additional assumption that the underlying networks are generated from the stochastic block model (SBM). However, we argue that this assumption is too restrictive since social networks do not originate from the SBM. Thus, delve into an analysis for general graphs in this work. Our primary focus is the edge flipping method -- a common technique for protecting local differential privacy. On a positive side, our findings suggest that even when the edges of an $n$-vertex graph satisfying some reasonable well-clustering assumptions are flipped with a probability of $O(\log n/n)$, the clustering outcomes are largely consistent. Empirical tests further corroborate these theoretical findings. Conversely, although clustering outcomes have been stable for dense and well-clustered graphs produced from the SBM, we show that in general, spectral clustering may yield highly erratic results on certain dense and well-clustered graphs when the flipping probability is $\omega(\log n/n)$. This indicates that the best privacy budget obtainable for general graphs is $\Theta(\log n)$.
公開日:2023-09-13
翻訳日:2024-03-19 04:50:57
# ランダム量子化による差分プライバシーのための通信効率の良いラプラス機構

Communication-Efficient Laplace Mechanism for Differential Privacy via Random Quantization ( http://arxiv.org/abs/2309.06982v1 )

ライセンス: Link先を確認
Ali Moradi Shahmiri, Chih Wei Ling, Cheuk Ting Li, (参考訳) サーバやデータベースに対するプライバシを確保しつつ,限られた通信量しか必要としないLaplace機構を正確に実現した最初の方法(Laplaceノイズをデータに追加する)を提案する。 当社のメカニズムは,Laplace機構を使用するローカルあるいは集中型ディファレンシャルプライバシアプリケーションに対して,ドロップインで置き換えることが可能です。 本機構はランダム量子化法を用いて構築する。 単純で一般的なLaplace-mechanism-then-quantizeアプローチとは異なり、我々のメカニズムの量子化は有用性の歪みや劣化をもたらすことはない。 付加的なラプラシアンノイズをシミュレートする既存のディザ量子化やチャネルシミュレーションと異なり、我々のメカニズムはデータベースや下流だけでなく、ディザ信号を使ってデータを復号しようとする正直だが好奇心のあるサーバに対してもプライバシーを保証する。

We propose the first method that realizes the Laplace mechanism exactly (i.e., a Laplace noise is added to the data) that requires only a finite amount of communication (whereas the original Laplace mechanism requires the transmission of a real number) while guaranteeing privacy against the server and database. Our mechanism can serve as a drop-in replacement for local or centralized differential privacy applications where the Laplace mechanism is used. Our mechanism is constructed using a random quantization technique. Unlike the simple and prevalent Laplace-mechanism-then-quantize approach, the quantization in our mechanism does not result in any distortion or degradation of utility. Unlike existing dithered quantization and channel simulation schemes for simulating additive Laplacian noise, our mechanism guarantees privacy not only against the database and downstream, but also against the honest but curious server which attempts to decode the data using the dither signals.
公開日:2023-09-13
翻訳日:2024-03-19 04:50:57
# 暗号:AIとQAIに反する

Cryptography: Against AI and QAI Odds ( http://arxiv.org/abs/2309.07022v1 )

ライセンス: Link先を確認
Sheetal Harris, Hassan Jalil Hadi, Umer Zukaib, (参考訳) 人工知能(AI)は、開発のための素晴らしい技術展望を提示しています。 サイバーワールドは、AIと量子コンピュータの出現で最悪の悪夢に直面している。 量子人工知能(QAI)とともに、現代の暗号に壊滅的な脅威をもたらす。 また、永続的で広範な予測インテリジェンスを内蔵することで、クリプトアナリスト多様体の能力も向上する。 この予測能力は、デバイス暗号における制約されたメッセージ空間を無力化する。 これらの仮定とインターセプトされた暗号文の比較により、コードクラッキングプロセスは大幅に加速する。 AIの活発で堅牢な開発に先立ち、直面することはなく、このような平易なテキストのオリジン攻撃に備える必要もなかった。 AIの優位性は、AI攻撃者がランダム性によって汚された誤った応答を与え、それらを誤指示する暗号文を作成することで、問題になる可能性がある。 AI脅威は、既知の小さなキーとパターンローディングされた暗号を従来の使用法から逸脱することで抑制される。 この戦略は、非有界制限の一方的一方的ランダム性とパターンデボイド技術によって補う、より大きな秘密サイズキーを実装するのに最適である。 非常に大きなキーサイズは、所望のユニシティ距離を達成するために、低処理と計算負荷で処理できる。 AIオッズに対する戦略は、非アルゴリズム的ランダム性、大規模で安価なメモリチップ、広域通信ネットワークを実装することで実現可能である。 AIの強み、すなわちランダムネスとパターン検出は高度に最適化された暗号とアルゴリズムを生成するために使用できる。 これらのパターンデヴォイドでランダム性に富んだ暗号は、NISTの量子チャレンジに対する前向きなアプローチに対して、タイムリーで妥当な解決策を提供する。

Artificial Intelligence (AI) presents prodigious technological prospects for development, however, all that glitters is not gold! The cyber-world faces the worst nightmare with the advent of AI and quantum computers. Together with Quantum Artificial Intelligence (QAI), they pose a catastrophic threat to modern cryptography. It would also increase the capability of cryptanalysts manifold, with its built-in persistent and extensive predictive intelligence. This prediction ability incapacitates the constrained message space in device cryptography. With the comparison of these assumptions and the intercepted ciphertext, the code-cracking process will considerably accelerate. Before the vigorous and robust developments in AI, we have never faced and never had to prepare for such a plaintext-originating attack. The supremacy of AI can be challenged by creating ciphertexts that would give the AI attacker erroneous responses stymied by randomness and misdirect them. AI threat is deterred by deviating from the conventional use of small, known-size keys and pattern-loaded ciphers. The strategy is vested in implementing larger secret size keys, supplemented by ad-hoc unilateral randomness of unbound limitations and a pattern-devoid technique. The very large key size can be handled with low processing and computational burden to achieve desired unicity distances. The strategy against AI odds is feasible by implementing non-algorithmic randomness, large and inexpensive memory chips, and wide-area communication networks. The strength of AI, i.e., randomness and pattern detection can be used to generate highly optimized ciphers and algorithms. These pattern-devoid, randomness-rich ciphers also provide a timely and plausible solution for NIST's proactive approach toward the quantum challenge.
公開日:2023-09-13
翻訳日:2024-03-19 04:50:57
# Chained-DP:プライバシ予算のリサイクルは可能か?

Chained-DP: Can We Recycle Privacy Budget? ( http://arxiv.org/abs/2309.07075v3 )

ライセンス: Link先を確認
Jingyi Li, Guangjing Huang, Liekang Zeng, Lin Chen, Xu Chen, (参考訳) プライバシー保護ベクター平均推定は、フェデレーション分析において重要なプリミティブである。 既存のプラクティスは、通常、ユーザと中央サーバと通信する際に、ユーザのベクトルにランダムノイズを注入するローカル微分プライバシ(LDP)メカニズムを利用する。 プライバシとユーティリティのトレードオフのため、プライバシー予算は十分に計画を必要とするボトルネックリソースとして広く認識されている。 本稿では,プライバシ予算のリサイクルの可能性を検討するとともに,ユーザが順次データアグリゲーションを実行して,プライバシ予算のリサイクルを可能にする新しいチェインドDPフレームワークを提案する。 当社のフレームワークにおけるユーザインタラクションをモデル化するためのシーケンシャルなゲームを構築します。 理論的には、シーケンシャルゲームの数学的性質を示し、ナッシュ平衡を解き、証明可能な経済特性を持つインセンティブメカニズムを設計する。 さらに、プライバシー保証プロトコルにより、プライバシー侵害の可能性を軽減し、全体的な暴露を避ける。 提案手法の有効性を数値シミュレーションにより検証し,従来のLPP機構と比較して,プライバシ予算の大幅な削減と推定誤差の低減を図った。

Privacy-preserving vector mean estimation is a crucial primitive in federated analytics. Existing practices usually resort to Local Differentiated Privacy (LDP) mechanisms that inject random noise into users' vectors when communicating with users and the central server. Due to the privacy-utility trade-off, the privacy budget has been widely recognized as the bottleneck resource that requires well-provisioning. In this paper, we explore the possibility of privacy budget recycling and propose a novel Chained-DP framework enabling users to carry out data aggregation sequentially to recycle the privacy budget. We establish a sequential game to model the user interactions in our framework. We theoretically show the mathematical nature of the sequential game, solve its Nash Equilibrium, and design an incentive mechanism with provable economic properties. We further derive a differentially privacy-guaranteed protocol to alleviate potential privacy collusion attacks to avoid holistic exposure. Our numerical simulation validates the effectiveness of Chained-DP, showing that it can significantly save privacy budget and lower estimation error compared to the traditional LDP mechanism.
公開日:2023-09-19
翻訳日:2024-03-19 04:50:57
# 科学計算のためのロスレス同型暗号化に向けて

Toward Lossless Homomorphic Encryption for Scientific Computation ( http://arxiv.org/abs/2309.07284v1 )

ライセンス: Link先を確認
Muhammad Jahanzeb Khan, Bo Fang, Dongfang Zhao, (参考訳) 本稿では, CKKS (Cheon-Kim-Kim-Song) 方式を用いて, 多次元ベクトル演算と実世界の応用に焦点をあてて, 暗号化処理の総合的な研究を行う。 この研究は、厳密に設計された2つの実験を通して、スーパーコンピューティングにおけるCKKSスキームの可能性とそのデータプライバシと計算効率への影響について検討した。 最初の実験では、行列乗法へのCKKSの有望な適用性を明らかにし、ユークリッド距離と行列サイズ間の平均二乗誤差の差が示されている。 第2の実験は、ワイルドファイアデータセットに適用され、精度を著しく損なうことなく、暗号化された機械学習モデルを使用することの可能性を示している。 この研究から得られた洞察は、TenSEAL内のCKKS計算におけるGPUアクセラレーションの可能性を含む、将来のイノベーションのための堅牢な基盤となる。 また、ノイズ予算計算、乗算における精度損失、CKKSの文脈における算術演算の特徴等についても論じる。 この論文は、暗号化された計算の複雑さとポテンシャルを理解するための重要なステップであり、様々な科学領域におけるセキュアなデータ処理とプライバシ保護に幅広い意味を持つ。

This paper presents a comprehensive investigation into encrypted computations using the CKKS (Cheon-Kim-Kim-Song) scheme, with a focus on multi-dimensional vector operations and real-world applications. Through two meticulously designed experiments, the study explores the potential of the CKKS scheme in Super Computing and its implications for data privacy and computational efficiency. The first experiment reveals the promising applicability of CKKS to matrix multiplication, indicating marginal differences in Euclidean distance and near-to-zero mean square error across various matrix sizes. The second experiment, applied to a wildfire dataset, illustrates the feasibility of using encrypted machine learning models without significant loss in accuracy. The insights gleaned from the research set a robust foundation for future innovations, including the potential for GPU acceleration in CKKS computations within TenSEAL. Challenges such as noise budget computation, accuracy loss in multiplication, and the distinct characteristics of arithmetic operations in the context of CKKS are also discussed. The paper serves as a vital step towards understanding the complexities and potentials of encrypted computations, with broad implications for secure data processing and privacy preservation in various scientific domains.
公開日:2023-09-13
翻訳日:2024-03-19 04:50:57
# ShiELD: ローカルな差別的プライバシを活用したセキュアなハプロタイプインプット

SHIELD: Secure Haplotype Imputation Employing Local Differential Privacy ( http://arxiv.org/abs/2309.07305v1 )

ライセンス: Link先を確認
Marc Harary, (参考訳) 本プログラムでは,配列ベースのジェノタイピングプラットフォームでは直接測定されないマーカーを用いて,対象サンプルの遺伝子型を正確に推定し,公開参照パネルへのドナーのプライバシを保存する。 ShiELDの中核は遺伝子組換えのLi-Stephensモデルであり、ゲノム情報はマルコフランダムフィールドを介して結合する祖先のハプロタイプ断片のモザイクで構成されている。 そこで本研究では, ランダム化応答技術によりプライバシが保証されるテンプレートハプロタイプの参照パネルを用いて, 対象ゲノムの祖先ハプロタイプを推定するために, 標準的なフォワード・バックワードアルゴリズムを用いて, 未観測部位における最も可能性の高いジェノタイプを推定する。

We introduce Secure Haplotype Imputation Employing Local Differential privacy (SHIELD), a program for accurately estimating the genotype of target samples at markers that are not directly assayed by array-based genotyping platforms while preserving the privacy of donors to public reference panels. At the core of SHIELD is the Li-Stephens model of genetic recombination, according to which genomic information is comprised of mosaics of ancestral haplotype fragments that coalesce via a Markov random field. We use the standard forward-backward algorithm for inferring the ancestral haplotypes of target genomes, and hence the most likely genotype at unobserved sites, using a reference panel of template haplotypes whose privacy is guaranteed by the randomized response technique from differential privacy.
公開日:2023-09-13
翻訳日:2024-03-19 04:50:57
# サイバー防衛環境における自律エージェントについて

On Autonomous Agents in a Cyber Defence Environment ( http://arxiv.org/abs/2309.07388v1 )

ライセンス: Link先を確認
Mitchell Kiely, David Bowman, Maxwell Standen, Christopher Moir, (参考訳) 自律サイバー防衛は高度のサイバー攻撃に対応するために必要である。 この課題領域における研究を促進するために,CAGEチャレンジ2(Cyber Autonomy Gym for Experimentation, CAGE)チャレンジの一部として提示される自律型サイバー運用環境の有用性について検討する。 CAGE Challenge 2は攻撃するレッドエージェントからネットワークを守るためにブルーエージェントを必要とした。 本稿では,この課題の詳細な説明と,課題参加者によるアプローチについて述べる。 提案したエージェントから,シングルエージェント深層強化学習(DRL),階層DRL,アンサンブル,非DRLの4種類のアルゴリズムを同定する。 これらのクラスの中で,階層型DRLアプローチが最も効果的なサイバー防御戦略を学習できることが判明した。 エージェントポリシーの分析では,同一クラス内の異なるアルゴリズムが多様な戦略を生み出し,防御的ブルーエージェントの戦略は攻撃的レッドエージェントの戦略によって異なることが明らかとなった。 我々はDRLアルゴリズムが自律型サイバー防衛アプリケーションに適した候補であると結論付けた。

Autonomous Cyber Defence is required to respond to high-tempo cyber-attacks. To facilitate the research in this challenging area, we explore the utility of the autonomous cyber operation environments presented as part of the Cyber Autonomy Gym for Experimentation (CAGE) Challenges, with a specific focus on CAGE Challenge 2. CAGE Challenge 2 required a defensive Blue agent to defend a network from an attacking Red agent. We provide a detailed description of the this challenge and describe the approaches taken by challenge participants. From the submitted agents, we identify four classes of algorithms, namely, Single- Agent Deep Reinforcement Learning (DRL), Hierarchical DRL, Ensembles, and Non-DRL approaches. Of these classes, we found that the hierarchical DRL approach was the most capable of learning an effective cyber defensive strategy. Our analysis of the agent policies identified that different algorithms within the same class produced diverse strategies and that the strategy used by the defensive Blue agent varied depending on the strategy used by the offensive Red agent. We conclude that DRL algorithms are a suitable candidate for autonomous cyber defence applications.
公開日:2023-09-14
翻訳日:2024-03-19 04:50:57
# マルチパーティ・プライベート・セット・インターセクションのためのセキュアでスケーラブルな回路ベースプロトコル

Secure and Scalable Circuit-based Protocol for Multi-Party Private Set Intersection ( http://arxiv.org/abs/2309.07406v1 )

ライセンス: Link先を確認
Jiuheng Su, Zhili Chen, (参考訳) マルチパーティ・プライベート・セット・交差点機能(PSI)を実装した回路を計算するための新しいプロトコルを提案する。 回路ベースのアプローチは、PSIの多くのアプリケーションは交差点自体の計算を必要とせず、むしろ交差点の項目に対する特定の関数計算を必要とするため、このタスクを達成するためにカスタムプロトコルを使用するよりも利点がある。 本プロトコルは,2 つのパーティ SCS {\displaystyle \cite{huang2012private} プロトコル上に構築し,最適化する,先駆的な回路ベースのマルチパーティ PSI プロトコルである。 2つのパーティ間のセキュアな計算を使用することで、プロトコルは複数パーティのインタラクションに関連する複雑さを回避し、優れたスケーラビリティを示す。 回路ベース構築に伴うオーバヘッドを軽減するため,単純なハッシュ方式と置換型ハッシュ関数を用いることで,プロトコルをさらに強化した。 これらの手法により,バケット方式を用いることで回路サイズを最小化し,計算コストと通信コストを同時に削減できる。

We propose a novel protocol for computing a circuit which implements the multi-party private set intersection functionality (PSI). Circuit-based approach has advantages over using custom protocols to achieve this task, since many applications of PSI do not require the computation of the intersection itself, but rather specific functional computations over the items in the intersection. Our protocol represents the pioneering circuit-based multi-party PSI protocol, which builds upon and optimizes the two-party SCS \cite{huang2012private} protocol. By using secure computation between two parties, our protocol sidesteps the complexities associated with multi-party interactions and demonstrates good scalability. In order to mitigate the high overhead associated with circuit-based constructions, we have further enhanced our protocol by utilizing simple hashing scheme and permutation-based hash functions. These tricks have enabled us to minimize circuit size by employing bucketing techniques while simultaneously attaining noteworthy reductions in both computation and communication expenses.
公開日:2023-09-14
翻訳日:2024-03-19 04:50:57
# 商業用防汚工具とその近代的脅威に対する比較効果

Commercial Anti-Smishing Tools and Their Comparative Effectiveness Against Modern Threats ( http://arxiv.org/abs/2309.07447v1 )

ライセンス: Link先を確認
Daniel Timko, Muhammad Lutfor Rahman, (参考訳) SMSフィッシング(SMS phishing)は、攻撃者がSMS通信を偽装してターゲットを欺いて機密データを提供する不正なコミュニケーションの一種である。 スマイッシング攻撃には様々な戦術があるが、金銭を盗んだり、被害者から個人情報(PII)を個人識別するという同様の目的がある。 これらの攻撃に対して、これらの通信をブロックまたはフィルタリングするために、幅広い種類のアンチ・スミッシング・ツールが開発されている。 しかし、フィッシング攻撃の数は増え続けている。 本稿では,新しいスマイッシング攻撃に対する一般的なアンチ・スマイッシング・ツールの有効性を評価するためのテストベッドを開発した。 Smishtank.comはスマイッシングデータセットの報告と収集のための協調的なオンラインリソースである。 SMSメッセージはセキュリティの専門家によって検証され、収集されたメッセージに対して詳細な質的分析が行われ、さらなる洞察が得られた。 ツールの有効性を比較するために、SMSメッセージング配信エコシステムの3つの重要な部分にわたって、20のスマイシングと良心的なメッセージを実験した。 以上の結果から,スマイッシングセットに対する3つの領域で改善の余地が認められた。 ほとんどのアンチフィッシングアプリやバルクメッセージングサービスは、キャリアブロック以上のスマイシングメッセージをフィルタリングしなかった。 最もスムーズなメッセージをブロックした2つのアプリも85~100\%の良質なメッセージをブロックした。 最後に、キャリアは良質なメッセージをブロックしなかったが、メッセージをスマイシングするために25~35倍のブロックレートにしか到達できなかった。 私たちの作業は、アンチスマイシングツールのパフォーマンスと、メッセージブロッキングプロセスで彼らが果たす役割に関する洞察を提供します。 本稿は、SMSプラットフォームにおけるアンチ・スマイシング技術の現状について、研究コミュニティや業界がより深く知ることを可能にするものである。

Smishing, also known as SMS phishing, is a type of fraudulent communication in which an attacker disguises SMS communications to deceive a target into providing their sensitive data. Smishing attacks use a variety of tactics; however, they have a similar goal of stealing money or personally identifying information (PII) from a victim. In response to these attacks, a wide variety of anti-smishing tools have been developed to block or filter these communications. Despite this, the number of phishing attacks continue to rise. In this paper, we developed a test bed for measuring the effectiveness of popular anti-smishing tools against fresh smishing attacks. To collect fresh smishing data, we introduce Smishtank.com, a collaborative online resource for reporting and collecting smishing data sets. The SMS messages were validated by a security expert and an in-depth qualitative analysis was performed on the collected messages to provide further insights. To compare tool effectiveness, we experimented with 20 smishing and benign messages across 3 key segments of the SMS messaging delivery ecosystem. Our results revealed significant room for improvement in all 3 areas against our smishing set. Most anti-phishing apps and bulk messaging services didn't filter smishing messages beyond the carrier blocking. The 2 apps that blocked the most smish also blocked 85-100\% of benign messages. Finally, while carriers did not block any benign messages, they were only able to reach a 25-35\% blocking rate for smishing messages. Our work provides insights into the performance of anti-smishing tools and the roles they play in the message blocking process. This paper would enable the research community and industry to be better informed on the current state of anti-smishing technology on the SMS platform.
公開日:2023-09-14
翻訳日:2024-03-19 04:50:57
# $k$-均質アクセス構造に対する理想的な秘密共有方式について

On Ideal Secret-Sharing Schemes for $k$-homogeneous access structures ( http://arxiv.org/abs/2309.07479v1 )

ライセンス: Link先を確認
Younjin Kim, Jihye Kwon, Hyang-Sook Lee, (参考訳) $k$-uniform hypergraphは、各$k$-hyperedgeが正確に$k$ verticesを持つハイパーグラフである。 k$-一様アクセス構造は$k$-一様ハイパーグラフ$\mathcal{H}$で表され、参加者はハイパーグラフ$\mathcal{H}$の頂点に対応する。 バーチカンのセットは、$k$-hyperedgeで接続されている場合、その株式から秘密の値を再構築することができるが、非隣のバーチカンのセットは秘密に関する情報を入手しない。 秘密共有方式の効率を測定するためのパラメータの1つは、秘密の長さと参加者に与えられた株式の最大長との比率として定義される情報レートである。 情報レートが等しい秘密共有スキームを理想秘密共有スキームと呼ぶ。 理想的な秘密共有方式が実現できれば、アクセス構造は理想的と考えられる。 理想的なアクセス構造の特徴付けは、秘密共有方式における重要な問題の1つである。 理想的なアクセス構造の特徴は、多くの著者によって研究されている。 本稿では,独立シーケンス法を用いて,理想的な$k$-均一アクセス構造を特徴付ける。 特に、$\Gamma$のアクセス構造が$(k, n)$-thresholdアクセス構造であるとは、$\Gamma$の最適情報レートが$\frac{k-1}{k}$より大きいときに証明する。

A $k$-uniform hypergraph is a hypergraph where each $k$-hyperedge has exactly $k$ vertices. A $k$-homogeneous access structure is represented by a $k$-uniform hypergraph $\mathcal{H}$, in which the participants correspond to the vertices of hypergraph $\mathcal{H}$. A set of vertices can reconstruct the secret value from their shares if they are connected by a $k$-hyperedge, while a set of non-adjacent vertices does not obtain any information about the secret. One parameter for measuring the efficiency of a secret sharing scheme is the information rate, defined as the ratio between the length of the secret and the maximum length of the shares given to the participants. Secret sharing schemes with an information rate equal to one are called ideal secret sharing schemes. An access structure is considered ideal if an ideal secret sharing scheme can realize it. Characterizing ideal access structures is one of the important problems in secret sharing schemes. The characterization of ideal access structures has been studied by many authors~\cite{BD, CT,JZB, FP1,FP2,DS1,TD}. In this paper, we characterize ideal $k$-homogeneous access structures using the independent sequence method. In particular, we prove that the reduced access structure of $\Gamma$ is an $(k, n)$-threshold access structure when the optimal information rate of $\Gamma$ is larger than $\frac{k-1}{k}$, where $\Gamma$ is a $k$-homogeneous access structure satisfying specific criteria.
公開日:2023-09-14
翻訳日:2024-03-19 04:50:57
# アイデンティティを小さく保つ:プライバシを保存するクライアントサイドフィンガープリント

Keep your Identity Small: Privacy-preserving Client-side Fingerprinting ( http://arxiv.org/abs/2309.07563v2 )

ライセンス: Link先を確認
Alberto Fernandez-de-Retana, Igor Santos-Grueiro, (参考訳) デバイスフィンガープリントは、サードパーティが特定のデバイスを特定するために広く使用されるテクニックである。 デバイス指紋認証の応用例としては、認証、攻撃者識別、ソフトウェアライセンスのバインディングなどがある。 デバイスフィンガープリントは、ユーザを特定する方法として、Webでも使用されている。 残念ながら、最も普及している用途の1つは、異なるウェブサイトを訪れているユーザーを特定し、ブラウジング履歴を構築することである。 これは、ユーザのプライバシに脅威をもたらす、特定のタイプのWebトラッキングを構成する。 多くのアンチトラッキングソリューションが提案されているが、それらはすべて、Webトラッキングアプリケーションをブロックするだけでなく、デバイスの指紋認証技術によってブロックまたは改ざんされている。 そのため、Webサイトを使っているユーザエクスペリエンスは制限される可能性がある。 本稿では,Web上でのデバイスフィンガープリントを可能にする新しい手法であるプライバシ保護クライアントサイドフィンガープリント(PCF)を提案する。 この目的のために、PCFは指紋認証の透明性に基づいて構築されている。どのウェブサイトでも指紋認証スクリプトを宣言すべきであり、ユーザーはそれをプライバシー保護の方法で計算し、その結果の指紋をそれぞれのドメインに制限する。

Device fingerprinting is a widely used technique that allows a third party to identify a particular device. Applications of device fingerprinting include authentication, attacker identification, or software license binding. Device fingerprinting is also used on the web as a method for identifying users. Unfortunately, one of its most widespread uses is to identify users visiting different websites and thus build their browsing history. This constitutes a specific type of web tracking that poses a threat to users' privacy. While many anti-tracking solutions have been proposed, all of them block or tamper with device fingerprinting techniques rather than just blocking their web tracking application. Therefore, users may be limited in their experience while using a website. In this paper, we propose Privacy-preserving Client-side Fingerprinting (PCF), a new method that allows device fingerprinting on the web, while blocks the possibility of performing web tracking. To this end, PCF is built upon fingerprinting transparency: any website ought to declare its fingerprinting scripts while users will compute them in a privacy-preserving manner, limiting the resultant fingerprints for each different domain and, therefore, making web tracking not feasible.
公開日:2023-09-15
翻訳日:2024-03-19 04:50:57
# 秘密を忘れるな - ニューラルコード補完ツールのプライバシー問題を明らかにする

Do Not Give Away My Secrets: Uncovering the Privacy Issue of Neural Code Completion Tools ( http://arxiv.org/abs/2309.07639v1 )

ライセンス: Link先を確認
Yizhan Huang, Yichen Li, Weibin Wu, Jianping Zhang, Michael R. Lyu, (参考訳) ニューラルコード補完ツール(NCCT)は、言語モデリング技術から恩恵を受けるコンテキスト関連コードスニペットを正確に提案するソフトウェア開発の分野を変革した。 しかし、言語モデルは適切なプロンプトで推論中に冗長なトレーニングデータを出力することができる。 この記憶特性は、ハードコードされたクレデンシャルリークに関する商業NCCTのプライバシー上の懸念を高め、システムへの不正アクセスにつながる。 したがって、NCCTが必然的にハードコードされたクレデンシャルを出力するかどうかを問うために、ハードコードCredential Revealer (HCR) と呼ばれる評価ツールを提案する。 HCRはGitHubのコードファイルからテストプロンプトを効果的に構築し、商用NCCTの暗記現象をトリガーする。 そして、HCRは、4つの設計されたフィルタにより、応答から予め定義されたフォーマットで認証情報を抽出する。 GitHub CopilotとAmazon CodeWhispererの2つの代表的な商用NCCTを評価するためにHCRを適用し、Copilotから2,702のハードコード認証を抽出し、ブラックボックス設定でCodeWhisperから129のシークレットを抽出しました。 さらに、2つの運用証明書が特定された。 実験の結果、商業NCCTのトレーニングデータにハードコードされた認証情報が漏洩する可能性があるという深刻なプライバシー上の懸念が浮き彫りになった。

Neural Code Completion Tools (NCCTs) have reshaped the field of software development, which accurately suggest contextually-relevant code snippets benefiting from language modeling techniques. However, language models may emit the training data verbatim during inference with appropriate prompts. This memorization property raises privacy concerns of commercial NCCTs about the hard-coded credential leakage, leading to unauthorized access to systems. Therefore, to answer whether NCCTs will inadvertently emit the hard-coded credential, we propose an evaluation tool called Hard-coded Credential Revealer (HCR). HCR effectively constructs test prompts from GitHub code files with credentials to trigger memorization phenomenon of commercial NCCTs. Then, HCR extracts credentials with pre-defined format from the responses by four designed filters. We apply HCR to evaluate two representative commercial NCCTs: GitHub Copilot and Amazon CodeWhisperer and successfully extracted 2,702 hard-coded credentials from Copilot and 129 secrets from CodeWhisper under the black-box setting, among which at least 3.6% and 5.4% secrets are real strings from GitHub repositories. Moreover, two operational credentials were identified. The experimental results raise the severe privacy concern of the potential leakage of hard-coded credentials in the training data of commercial NCCTs.
公開日:2023-09-14
翻訳日:2024-03-19 04:50:57
# Sync+Sync: ストレージ付きfsync上に構築されたCovert Channel

Sync+Sync: A Covert Channel Built on fsync with Storage ( http://arxiv.org/abs/2309.07657v1 )

ライセンス: Link先を確認
Qisheng Jiang, Chundong Wang, (参考訳) 科学者はCPUキャッシュとメインメモリを備えた秘密情報伝送のための様々な秘密チャンネルを構築した。 本稿では,メモリ階層の下位レベル,すなわち永続ストレージに目を向ける。 ほとんどのプログラムはファイルの形式で中間結果または最終的な結果を格納し、一部のプログラムはfsyncを呼び出して、整然とした永続化のためにストレージデバイスと同期的にファイルを永続化する。 我々の定量的研究は、他のプログラムがfsyncを同時に呼び出している場合、fsync呼び出しのレスポンス時間が大幅に長いことを示しています。 さらに、ソフトウェア構造(Ext4のジャーナルなど)とハードウェアリソース(ディスクのI/Oディスパッチキューなど)の共有によって、並列fsyncコールが複数のストレージスタックで競合していることも分かりました。 そこで私たちはSync+Syncという秘密チャンネルを構築しました。 Sync+Syncは、通常のソリッドステートドライブで約0.40%のエラーレートで、毎秒20,000ビットの伝送帯域を提供する。 Sync+Syncは、プログラム間でデータを共有することなく、クロスディスクパーティション、クロスファイルシステム、クロスコンテナ、クロス仮想マシン、さらにはクロスディスクドライブのスタイルで実行できる。 次に、Sync+Syncでサイドチャネルアタックを起動し、被害者データベース(例えば、挿入/更新、B-Treeノード分割)の操作を正確に検出します。 また、Sync+Syncを利用して、アプリケーションやWebサイトを高精度に識別する。 これらの攻撃は、よりきめ細かい情報漏洩をサポートするのに役立つ。

Scientists have built a variety of covert channels for secretive information transmission with CPU cache and main memory. In this paper, we turn to a lower level in the memory hierarchy, i.e., persistent storage. Most programs store intermediate or eventual results in the form of files and some of them call fsync to synchronously persist a file with storage device for orderly persistence. Our quantitative study shows that one program would undergo significantly longer response time for fsync call if the other program is concurrently calling fsync, although they do not share any data. We further find that, concurrent fsync calls contend at multiple levels of storage stack due to sharing software structures (e.g., Ext4's journal) and hardware resources (e.g., disk's I/O dispatch queue). We accordingly build a covert channel named Sync+Sync. Sync+Sync delivers a transmission bandwidth of 20,000 bits per second at an error rate of about 0.40% with an ordinary solid-state drive. Sync+Sync can be conducted in cross-disk partition, cross-file system, cross-container, cross-virtual machine, and even cross-disk drive fashions, without sharing data between programs. Next, we launch side-channel attacks with Sync+Sync and manage to precisely detect operations of a victim database (e.g., insert/update and B-Tree node split). We also leverage Sync+Sync to distinguish applications and websites with high accuracy by detecting and analyzing their fsync frequencies and flushed data volumes. These attacks are useful to support further fine-grained information leakage.
公開日:2023-09-14
翻訳日:2024-03-19 04:50:57
# コンプライアンスからインパクトへ - 組織的セキュリティ意識プログラムの変容の追跡

From Compliance to Impact: Tracing the Transformation of an Organizational Security Awareness Program ( http://arxiv.org/abs/2309.07724v1 )

ライセンス: Link先を確認
Julie M. Haney, Wayne Lutters, (参考訳) コンプライアンス(トレーニング完了率によって測定される)に焦点を当てた組織セキュリティ意識プログラムから、行動の変化をもたらすプログラムへの転換の必要性は、ますます認識されている。 しかし、プログラム変換の実行に携わるセキュリティ意識チームの組織的プラクティスを解き放ち始めた以前の研究はほとんどない。 我々は、米国政府機関におけるセキュリティ意識プログラムの1年間のケーススタディを行い、フィールド観察、インタビュー、文書を通じてデータを収集した。 本研究は, セキュリティ意識プログラムの進展に伴う課題と実践を, コンプライアンスを重視して, 従業員の態度や行動に与える影響を強調している。 複数の従業員の視点を取り入れた縦断的な調査を通じて、変革的な組織的セキュリティ意識の実践を独自に捉えた。 我々の研究は、他のセキュリティ意識プログラムや労働開発イニシアチブのリソースとして機能し、セキュリティ意識の業務の役割をよりよく定義することを目的としています。

There is a growing recognition of the need for a transformation from organizational security awareness programs focused on compliance -- measured by training completion rates -- to those resulting in behavior change. However, few prior studies have begun to unpack the organizational practices of the security awareness teams tasked with executing program transformation. We conducted a year-long case study of a security awareness program in a United States (U.S.) government agency, collecting data via field observations, interviews, and documents. Our findings reveal the challenges and practices involved in the progression of a security awareness program from being compliance-focused to emphasizing impact on workforce attitudes and behaviors. We uniquely capture transformational organizational security awareness practices in action via a longitudinal study involving multiple workforce perspectives. Our study insights can serve as a resource for other security awareness programs and workforce development initiatives aimed at better defining the security awareness work role.
公開日:2023-09-14
翻訳日:2024-03-19 04:41:11
# TGh: 信頼できるFaaSプラットフォームを実現するTEE/GCハイブリッド

TGh: A TEE/GC Hybrid Enabling Confidential FaaS Platforms ( http://arxiv.org/abs/2309.07764v1 )

ライセンス: Link先を確認
James Choncholas, Ketan Bhardwaj, Ada Gavrilovska, (参考訳) Trusted Execution Environments (TEE) は、エンクレーブの作成、保護モードからのコンテキスト切り替え、キャッシュされたページの交換など、特定の管理命令を実行する際のパフォーマンス上の問題に悩まされる。 これは、ファンクション・アズ・ア・サービス(FaaS)プラットフォームにおいて、エンクレーブオーバーヘッドに対処する既存のテクニックが不十分な、短時間でインタラクティブな機能に特に問題となる。 FaaS関数は、アプリケーション命令を実行するよりも、エンクレーブの管理に多くの時間を費やすことができる。 本研究では,秘密のFaaSプラットフォームを実現するためのTEE/GCハイブリッド(TGh)プロトコルを提案する。 TGhは、セキュアな関数評価のための暗号構造であるガーブロード回路(GC)を用いて、エンクレーブから信頼できないホストへ計算を移動させる。 本手法では,エンクレーブのセキュリティ保証を維持しつつ,管理命令に関連する性能問題を回避する。

Trusted Execution Environments (TEEs) suffer from performance issues when executing certain management instructions, such as creating an enclave, context switching in and out of protected mode, and swapping cached pages. This is especially problematic for short-running, interactive functions in Function-as-a-Service (FaaS) platforms, where existing techniques to address enclave overheads are insufficient. We find FaaS functions can spend more time managing the enclave than executing application instructions. In this work, we propose a TEE/GC hybrid (TGh) protocol to enable confidential FaaS platforms. TGh moves computation out of the enclave onto the untrusted host using garbled circuits (GC), a cryptographic construction for secure function evaluation. Our approach retains the security guarantees of enclaves while avoiding the performance issues associated with enclave management instructions.
公開日:2023-09-14
翻訳日:2024-03-19 04:41:11
# Webセキュリティのナンス・エンス:CSPのナンス・リユースに関する調査

The Nonce-nce of Web Security: an Investigation of CSP Nonces Reuse ( http://arxiv.org/abs/2309.07782v1 )

ライセンス: Link先を確認
Matteo Golinelli, Francesco Bonomi, Bruno Crispo, (参考訳) Content Security Policy(CSP)は、Webサイトのクロスサイトスクリプティング(XSS)脆弱性の悪用を防ぐために、Webページがスクリプトやスタイルなどのリソースをロードできるソースを指定する、効果的なセキュリティメカニズムである。 CSPのナンスにより、Webサイトはホワイトリストに頼ることなく、特定のインラインスクリプトやスタイルを実行することができる。 本研究では,野生におけるCSPナンスの使用状況,特にノエンス再利用,短いノエンス,無効ノエンスを計測し,分析する。 ナンスベースのポリシーを展開している2271のサイトのうち、598のサイトは複数のレスポンスで同じナンス値を再利用しており、攻撃者はXSS攻撃に対してCSPが提供する保護を回避できる可能性がある。 我々は、nonceの再利用の原因を分析し、サーバサイドコードによって導入されているか、あるいはnonceがWebキャッシュによってキャッシュされているかを特定する。 さらに, ナンセが同一セッション内でのみ再利用されるか, あるいは異なるセッションに対してのみ再利用されるかを検討した。 最後に、攻撃者がCSPをバイパスし、異なるナンス再利用シナリオでXSSを実現する可能性について議論する。

Content Security Policy (CSP) is an effective security mechanism that prevents the exploitation of Cross-Site Scripting (XSS) vulnerabilities on websites by specifying the sources from which their web pages can load resources, such as scripts and styles. CSP nonces enable websites to allow the execution of specific inline scripts and styles without relying on a whitelist. In this study, we measure and analyze the use of CSP nonces in the wild, specifically looking for nonce reuse, short nonces, and invalid nonces. We find that, of the 2271 sites that deploy a nonce-based policy, 598 of them reuse the same nonce value in more than one response, potentially enabling attackers to bypass protection offered by the CSP against XSS attacks. We analyze the causes of the nonce reuses to identify whether they are introduced by the server-side code or if the nonces are being cached by web caches. Moreover, we investigate whether nonces are only reused within the same session or for different sessions, as this impacts the effectiveness of CSP in preventing XSS attacks. Finally, we discuss the possibilities for attackers to bypass the CSP and achieve XSS in different nonce reuse scenarios.
公開日:2023-09-14
翻訳日:2024-03-19 04:41:11
# 量子コンピュータにおける線形微分方程式の解法コスト--明示的な資源数への高速フォワード

The cost of solving linear differential equations on a quantum computer: fast-forwarding to explicit resource counts ( http://arxiv.org/abs/2309.07881v2 )

ライセンス: Link先を確認
David Jennings, Matteo Lostaglio, Robert B. Lowrie, Sam Pallister, Andrew T. Sornborger, (参考訳) 量子コンピュータはいかに古典力学系をシミュレートできるか? ハミルトンシミュレーション以外の力学を効率的にシミュレートする量子アルゴリズムの開発には多くの取り組みがあるが、今のところ正確な資源推定は分かっていない。 この仕事において、私たちは2つの重要な貢献をします。 まず、一般線型常微分方程式に対する解を量子状態に符号化するコストを、最後に解を符号化するか、時間間隔で歴史全体を符号化するという、最初の漸近的でない計算を与える。 第二に、古典力学の大規模クラスの安定性は、その高速なフォワードを可能にし、量子シミュレーションをはるかに時間効率良くすることを示した。 この観点から、量子ハミルトニアン力学は、この安定性によって引き起こされる高速なフォワードを許さない境界ケースである。 特に、任意の安定線型系に対して、履歴状態は常に複雑性$O(T^{1/2})$で出力できることが分かる。 様々な体制における最先端技術に対する漸近的な改善について述べる。 本稿では, 線形化プラズマ問題, 結合型, 減衰型, 強制型高調波発振器, 散逸性非線形問題など, 一連の力学系について述べる。 この場合、スケーリングは2次的に改善され、関連するすべての定数プレファクターを含めると、クエリ数が大幅に削減される。

How well can quantum computers simulate classical dynamical systems? There is increasing effort in developing quantum algorithms to efficiently simulate dynamics beyond Hamiltonian simulation, but so far exact resource estimates are not known. In this work, we provide two significant contributions. First, we give the first non-asymptotic computation of the cost of encoding the solution to general linear ordinary differential equations into quantum states -- either the solution at a final time, or an encoding of the whole history within a time interval. Second, we show that the stability properties of a large class of classical dynamics allow their fast-forwarding, making their quantum simulation much more time-efficient. From this point of view, quantum Hamiltonian dynamics is a boundary case that does not allow this form of stability-induced fast-forwarding. In particular, we find that the history state can always be output with complexity $O(T^{1/2})$ for any stable linear system. We present a range of asymptotic improvements over state-of-the-art in various regimes. We illustrate our results with a family of dynamics including linearized collisional plasma problems, coupled, damped, forced harmonic oscillators and dissipative nonlinear problems. In this case the scaling is quadratically improved, and leads to significant reductions in the query counts after inclusion of all relevant constant prefactors.
公開日:2024-03-15
翻訳日:2024-03-19 04:41:11
# リモート光胸腺撮影による顔面キンシップの検証

Facial Kinship Verification from remote photoplethysmography ( http://arxiv.org/abs/2309.08006v2 )

ライセンス: Link先を確認
Xiaoting Wu, Xiaoyi Feng, Constantino Álvarez Casado, Lili Liu, Miguel Bordallo López, (参考訳) FKV(Facial Kinship Verification)は、2人の被験者が人間の顔に基づいて血縁関係を持つかどうかを自動的に判定することを目的としている。 行方不明の子供の発見やソーシャルメディア分析に応用できる可能性がある。 従来のFKVは、スプーフ攻撃に脆弱であり、プライバシーの問題を引き起こすため、課題に直面している。 本稿では,生体信号を用いたFKV実験を初めて実施し,遠隔光断層撮影(rPPG)に焦点を当てた。 rPPG信号は顔の映像から抽出され、心臓の鼓動によって皮膚から放射され検出される可視光の反射の変化を測定する1次元信号となる。 具体的には,1DCNN-Attentionモジュールとkinship contrastive lossを併用した1次元畳み込みニューラルネットワーク(1DCNN)を用いて,RPPGの類似性を学習した。 ネットワークは、様々な関心領域(ROI)から抽出された複数のrPPG信号を入力として取り出す。 さらに、1DCNNアテンションモジュールは、特徴埋め込みから識別的親類機能を学習し、キャプチャするように設計されている。 最後に、異なる親族関係からUvANEMO Smile Databaseで実験評価を行い、親族関係を検出するためのrPPGの実現可能性を示す。

Facial Kinship Verification (FKV) aims at automatically determining whether two subjects have a kinship relation based on human faces. It has potential applications in finding missing children and social media analysis. Traditional FKV faces challenges as it is vulnerable to spoof attacks and raises privacy issues. In this paper, we explore for the first time the FKV with vital bio-signals, focusing on remote Photoplethysmography (rPPG). rPPG signals are extracted from facial videos, resulting in a one-dimensional signal that measures the changes in visible light reflection emitted to and detected from the skin caused by the heartbeat. Specifically, in this paper, we employed a straightforward one-dimensional Convolutional Neural Network (1DCNN) with a 1DCNN-Attention module and kinship contrastive loss to learn the kin similarity from rPPGs. The network takes multiple rPPG signals extracted from various facial Regions of Interest (ROIs) as inputs. Additionally, the 1DCNN attention module is designed to learn and capture the discriminative kin features from feature embeddings. Finally, we demonstrate the feasibility of rPPG to detect kinship with the experiment evaluation on the UvANEMO Smile Database from different kin relations.
公開日:2024-03-15
翻訳日:2024-03-19 04:41:11
# トラベリングウェーブは、最近の過去とエンハンス・シーケンス学習を符号化する

Traveling Waves Encode the Recent Past and Enhance Sequence Learning ( http://arxiv.org/abs/2309.08045v2 )

ライセンス: Link先を確認
T. Anderson Keller, Lyle Muller, Terrence Sejnowski, Max Welling, (参考訳) 神経活動の進行波は脳全体で様々な領域やスケールで観測されているが、その正確な計算的役割は議論されている。 ある物理的にインスピレーションを受けた仮説は、皮質シートが、皮質表面を横断する誘導波を通して、連続的な刺激の短期記憶を無意識に保存できる波動伝播系のように振る舞うことを示唆している。 しかし、このアイデアの計算的意味は、そのような波を表現できる単純なリカレントニューラルネットワークアーキテクチャが欠如しているため、いまだに仮説的のままである。 本稿では、このギャップを埋めるモデルを紹介し、このアーキテクチャが、WRNNよりも高速に学習し、エラーをかなり少なくする合成メモリタスクを通じて、どのようにして近年の過去を効率的にエンコードしているかを示す。 さらに, 逐次画像分類などの複雑なシーケンスモデリングタスクにおいて, このメモリ記憶システムが持つ意味を考察し, パラメータを著しく少なくしながら, ウェーブベースモデルが再び同等のウェーブフリーRNNより優れているだけでなく, LSTMやGRUといったより複雑なゲートアーキテクチャと相容れないことを見出した。

Traveling waves of neural activity have been observed throughout the brain at a diversity of regions and scales; however, their precise computational role is still debated. One physically inspired hypothesis suggests that the cortical sheet may act like a wave-propagating system capable of invertibly storing a short-term memory of sequential stimuli through induced waves traveling across the cortical surface, and indeed many experimental results from neuroscience correlate wave activity with memory tasks. To date, however, the computational implications of this idea have remained hypothetical due to the lack of a simple recurrent neural network architecture capable of exhibiting such waves. In this work, we introduce a model to fill this gap, which we denote the Wave-RNN (wRNN), and demonstrate how such an architecture indeed efficiently encodes the recent past through a suite of synthetic memory tasks where wRNNs learn faster and reach significantly lower error than wave-free counterparts. We further explore the implications of this memory storage system on more complex sequence modeling tasks such as sequential image classification and find that wave-based models not only again outperform comparable wave-free RNNs while using significantly fewer parameters, but additionally perform comparably to more complex gated architectures such as LSTMs and GRUs.
公開日:2024-03-15
翻訳日:2024-03-19 04:41:11
# 大規模言語モデルの連鎖によるプライベートチュータの強化

Empowering Private Tutoring by Chaining Large Language Models ( http://arxiv.org/abs/2309.08112v1 )

ライセンス: Link先を確認
Yulin Chen, Ning Ding, Hai-Tao Zheng, Zhiyuan Liu, Maosong Sun, Bowen Zhou, (参考訳) 人工知能は、教育と学習を促進するために、オンライン教育の様々な側面に応用されてきた。 しかし、完全なAIによるチューリングシステムへのアプローチはほとんどない。 本研究では,現在最先端の大規模言語モデル (LLM) をベースとした知的学習システムの開発について検討し,自動コース計画と調整,調整,柔軟なクイズ評価について検討する。 システムを長期の相互作用に堅牢にし、個別の教育に役立てるために、システムは3つの相互接続されたコアプロセス(相互作用、反射、反応)に分解される。 各プロセスは LLM ベースのツールと動的に更新されたメモリモジュールによって実装される。 ツールは、一度に1つの特定のタスクを実行するように促されるLSMであり、メモリは、教育プロセス中に更新されるデータストレージである。 学習ログから得られた統計的結果は、各ツールの使用の有効性とメカニズムを示している。 ヒトのユーザからの主観的なフィードバックは、各機能のユーザビリティを明らかにし、アブレーションシステムとの比較により、長期的相互作用における設計プロセスのメリットをさらに証明する。

Artificial intelligence has been applied in various aspects of online education to facilitate teaching and learning. However, few approaches has been made toward a complete AI-powered tutoring system. In this work, we explore the development of a full-fledged intelligent tutoring system powered by state-of-the-art large language models (LLMs), covering automatic course planning and adjusting, tailored instruction, and flexible quiz evaluation. To make the system robust to prolonged interaction and cater to individualized education, the system is decomposed into three inter-connected core processes-interaction, reflection, and reaction. Each process is implemented by chaining LLM-powered tools along with dynamically updated memory modules. Tools are LLMs prompted to execute one specific task at a time, while memories are data storage that gets updated during education process. Statistical results from learning logs demonstrate the effectiveness and mechanism of each tool usage. Subjective feedback from human users reveal the usability of each function, and comparison with ablation systems further testify the benefits of the designed processes in long-term interaction.
公開日:2023-09-15
翻訳日:2024-03-19 04:41:11
# アンタングル情報ボトルネックに基づく画像伝送のためのプライバシ対応ジョイントソースチャネル符号化

Privacy-Aware Joint Source-Channel Coding for image transmission based on Disentangled Information Bottleneck ( http://arxiv.org/abs/2309.08188v1 )

ライセンス: Link先を確認
Lunan Sun, Caili Guo, Mingzhe Chen, Yang Yang, (参考訳) 現在のプライバシ対応ジョイントソースチャネル符号化(JSCC)は、盗聴者の特定の信号対雑音比(SNR)に基づいて、JSCCエンコーダとデコーダを敵対的に訓練することにより、プライベート情報伝送を回避することを目的としている。 しかし、これらのアプローチは、送信された情報を決定するために、複数のニューラルネットワークを様々な盗聴者のSNRのために訓練する必要があるため、さらなる計算と記憶の要求を生じさせる。 この課題を克服するために,不整合情報ボトルネック(DIB-PAJSCC)に基づく画像伝送のための新しいプライバシ対応JSCCを提案する。 特に,私的・公的な情報をアンタングル化するための,新たなアンタングル化情報ボトルネックを導出する。 送信機は、別途の情報を考慮し、復元歪みを最小化しつつ、公開情報のみを受信機に送信することができる。 DIB-PAJSCCは、盗聴者のSNRにかかわらず、公開情報のみを送信するため、盗聴者のSNRに適合した追加の訓練を不要にすることができる。 実験の結果,DIB-PAJSCCは従来の手法に比べて最大20倍の精度でプライベート情報の盗聴精度を低下させることができることがわかった。

Current privacy-aware joint source-channel coding (JSCC) works aim at avoiding private information transmission by adversarially training the JSCC encoder and decoder under specific signal-to-noise ratios (SNRs) of eavesdroppers. However, these approaches incur additional computational and storage requirements as multiple neural networks must be trained for various eavesdroppers' SNRs to determine the transmitted information. To overcome this challenge, we propose a novel privacy-aware JSCC for image transmission based on disentangled information bottleneck (DIB-PAJSCC). In particular, we derive a novel disentangled information bottleneck objective to disentangle private and public information. Given the separate information, the transmitter can transmit only public information to the receiver while minimizing reconstruction distortion. Since DIB-PAJSCC transmits only public information regardless of the eavesdroppers' SNRs, it can eliminate additional training adapted to eavesdroppers' SNRs. Experimental results show that DIB-PAJSCC can reduce the eavesdropping accuracy on private information by up to 20\% compared to existing methods.
公開日:2023-09-15
翻訳日:2024-03-19 04:41:11
# 暗黒での学習:関数近似を用いたプライバシ保護機械学習

Learning in the Dark: Privacy-Preserving Machine Learning using Function Approximation ( http://arxiv.org/abs/2309.08190v1 )

ライセンス: Link先を確認
Tanveer Khan, Antonis Michalas, (参考訳) 過去数年間で、クラウドベースのサービスの採用と実装が大幅に増加したことで、機械学習の大幅な成長がもたらされた。 その結果、マシンラーニングモデルがリモートクラウドプロバイダ上で動作し、ユーザのマシン上でローカルに動作しない、さまざまなソリューションが提案されている。 しかし、そのようなモデルが信頼できないクラウドプロバイダにデプロイされる場合、ユーザのプライバシを保存することが極めて重要である。 そこで本研究では,学習フェーズを平文データで行うハイブリッド機械学習モデルであるLearning in the Darkを提案する。 低次チェビシェフ多項式を用いたReLUおよびSigmoidアクティベーション関数を近似する。 これによって私たちは、暗号化された画像を高精度に分類可能な、プライバシ保護機械学習モデルであるLearning in the Darkを構築することができました。 暗黒での学習は,暗号化データ上で直接計算を行うことで,高精度な予測を行うことができるため,ユーザのプライバシを保護している。 それに加えて、暗黒における学習の出力は、同型暗号の特性を利用して視覚的かつプライバシー保護的な方法で生成される。

Over the past few years, a tremendous growth of machine learning was brought about by a significant increase in adoption and implementation of cloud-based services. As a result, various solutions have been proposed in which the machine learning models run on a remote cloud provider and not locally on a user's machine. However, when such a model is deployed on an untrusted cloud provider, it is of vital importance that the users' privacy is preserved. To this end, we propose Learning in the Dark -- a hybrid machine learning model in which the training phase occurs in plaintext data, but the classification of the users' inputs is performed directly on homomorphically encrypted ciphertexts. To make our construction compatible with homomorphic encryption, we approximate the ReLU and Sigmoid activation functions using low-degree Chebyshev polynomials. This allowed us to build Learning in the Dark -- a privacy-preserving machine learning model that can classify encrypted images with high accuracy. Learning in the Dark preserves users' privacy since it is capable of performing high accuracy predictions by performing computations directly on encrypted data. In addition to that, the output of Learning in the Dark is generated in a blind and therefore privacy-preserving way by utilizing the properties of homomorphic encryption.
公開日:2023-09-15
翻訳日:2024-03-19 04:41:11
# 自己組織化ゲートによる素因数分解のスケールアップ--memcomputingアプローチ

Scaling up prime factorization with self-organizing gates: A memcomputing approach ( http://arxiv.org/abs/2309.08198v1 )

ライセンス: Link先を確認
Tristan Sharp, Rishabh Khare, Erick Pederson, Fabio Lorenzo Traversa, (参考訳) 本稿では,MEMCPU\texttrademark{} プラットフォームを用いた大規模バイプリムの素因数分解計算の予備的結果について報告する。 最初のアプローチ、直接モデルは、与えられたビプリムの因子を直接返す。 第二のアプローチである合同モデル(英語版)は、標準シーブ法のボトルネックに対処するために滑らかな合同を返す。 モデルのサイズに依存した構造を持ち、MEMCPUプラットフォームは最適な性能を得るために構造に依存したチューニングを必要とする。 そのため、両モデルとも、利用可能なリソースに応じて、特定のサイズのサンプル問題に基づいてプラットフォームを調整した。 次に、厳密なスケーリング分析を行うためにRSAライクなベンチマークバイプリムを生成した。 調整範囲上のMEMCPUタイミングは、一般数フィールドシーブを含む他の試験方法と明らかに異なるビット数における低次多項式に従っていた。 MEMCPUの合同モデルは最も有望であり、300ビットの分解問題までスケールし、次数2$の多項式フィッティングに追従した。 私たちはまた、今日の最も先進的なメソッドの範囲を超えた問題に対してMEMCPUプラットフォームをチューニングするためのアプローチについても論じます。 最後に、ASIC実装から期待される加速度の基本的な解析を行い、大きなバイプリムのリアルタイム分解の可能性を提案する。

We report preliminary results on using the MEMCPU\texttrademark{} Platform to compute the prime factorization of large biprimes. The first approach, the direct model, directly returns the factors of a given biprime. The second approach, the congruence model, returns smooth congruences to address the bottleneck of standard sieve methods. The models have size-dependent structure, and the MEMCPU Platform requires structure-dependent tuning for optimal performance. Therefore, for both models, we tuned the platform on sample problems up to a given size according to available resources. Then we generated RSA-like benchmark biprimes to perform rigorous scaling analysis. The MEMCPU timings over the tuned range followed low degree polynomials in the number of bits, markedly different than other tested methods including general number field sieve. MEMCPU's congruence model was the most promising, which was scaled up to 300-bit factorization problems while following a $2^{nd}$ degree polynomial fit. We also discuss the approach to tuning the MEMCPU Platform for problems beyond the reach of today's most advanced methods. Finally, basic analysis of the acceleration expected from an ASIC implementation is provided and suggests the possibility of real time factorization of large biprimes.
公開日:2023-09-15
翻訳日:2024-03-19 04:41:11
# 保証される権利を忘れる義務 : 機械学習サービスにおける脆弱性を露呈する

A Duty to Forget, a Right to be Assured? Exposing Vulnerabilities in Machine Unlearning Services ( http://arxiv.org/abs/2309.08230v2 )

ライセンス: Link先を確認
Hongsheng Hu, Shuo Wang, Jiamin Chang, Haonan Zhong, Ruoxi Sun, Shuang Hao, Haojin Zhu, Minhui Xue, (参考訳) 忘れられる権利は、機械学習モデルからユーザのデータを削除または"アンラーニング"する必要がある。 しかしながら、MLaaS(Machine Learning as a Service)のコンテキストでは、サービスプロバイダ側(サーバ)のトレーニングデータが不足しているため、未学習の要求を満たすためにモデルをスクラッチから再トレーニングすることは現実的ではありません。 さらに、近似アンラーニングは、ユーティリティ(モデルパフォーマンス)とプライバシ(アンラーニングパフォーマンス)の間の複雑なトレードオフをさらに受け入れる。 本稿では,MLaaSにおける未学習サービス,特に過剰学習における潜在的な脅威について検討する。 そこで我々は,既存の非学習攻撃が適用できないブラックボックスアクセス設定の下で,オーバー・アンラーニングを利用してトレードオフバランスに与える影響を計測する2つの戦略を提案する。 これらの戦略の有効性は、ベンチマークデータセットの広範な実験、さまざまなモデルアーキテクチャ、代表的な非学習的アプローチを通じて評価される。 その結果,両戦略が未学習シナリオにおけるモデルの有効性を損なう可能性が示唆された。 この研究は、アンラーニングと現代のMLaaSの間の未探索のギャップを明らかにし、データアンラーニング、モデルユーティリティ、セキュリティのバランスをとるための注意深い考慮の必要性を強調している。

The right to be forgotten requires the removal or "unlearning" of a user's data from machine learning models. However, in the context of Machine Learning as a Service (MLaaS), retraining a model from scratch to fulfill the unlearning request is impractical due to the lack of training data on the service provider's side (the server). Furthermore, approximate unlearning further embraces a complex trade-off between utility (model performance) and privacy (unlearning performance). In this paper, we try to explore the potential threats posed by unlearning services in MLaaS, specifically over-unlearning, where more information is unlearned than expected. We propose two strategies that leverage over-unlearning to measure the impact on the trade-off balancing, under black-box access settings, in which the existing machine unlearning attacks are not applicable. The effectiveness of these strategies is evaluated through extensive experiments on benchmark datasets, across various model architectures and representative unlearning approaches. Results indicate significant potential for both strategies to undermine model efficacy in unlearning scenarios. This study uncovers an underexplored gap between unlearning and contemporary MLaaS, highlighting the need for careful considerations in balancing data unlearning, model utility, and security.
公開日:2024-01-15
翻訳日:2024-03-19 04:41:11
# 検証可能なプライバシ保護コンピューティング

Verifiable Privacy-Preserving Computing ( http://arxiv.org/abs/2309.08248v2 )

ライセンス: Link先を確認
Tariq Bontekoe, Dimka Karastoyanova, Fatih Turkmen, (参考訳) セキュアなマルチパーティ計算(MPC)やホモモルフィック暗号(HE)といったプライバシ保護計算(PPC)手法は、プライベートな分散データ上の計算におけるデータの機密性を保証するために、ますます頻繁に展開される。 同様に、局所的に実行される計算の(公的な)検証性を保証するため、ゼロ知識証明(ZKP)の採用が急激な増加を観察する。 我々は、データ集約的で強力なプライバシー保証を必要とするアプリケーションは、特にアウトソース時に、正確性を保証する必要があると予測している。 検証可能性とプライバシ保護の方法の組み合わせには明確なメリットがあるが、いくつかの課題は広く実用化される前に解決される。 本研究では,分散データ上での検証可能性とプライバシ保護計算を組み合わせた既存のソリューションを解析し,機密性を保護し,同時に正当性を保証するために,ソリューションアプローチ,セキュリティ,効率,実用性に関する32の異なるスキームを分類・比較する。 最後に、この点に関して最も有望なソリューションについて論じ、今後の研究に様々な課題と方向性を提示する。

Privacy-preserving computation (PPC) methods, such as secure multiparty computation (MPC) and homomorphic encryption (HE), are deployed increasingly often to guarantee data confidentiality in computations over private, distributed data. Similarly, we observe a steep increase in the adoption of zero-knowledge proofs (ZKPs) to guarantee (public) verifiability of locally executed computations. We project that applications that are data intensive and require strong privacy guarantees, are also likely to require correctness guarantees, especially when outsourced. While the combination of methods for verifiability and privacy protection has clear benefits, certain challenges stand before their widespread practical adoption. In this work, we analyze existing solutions that combine verifiability with privacy-preserving computations over distributed data, in order to preserve confidentiality and guarantee correctness at the same time.We classify and compare 32 different schemes, regarding solution approach, security, efficiency, and practicality. Lastly, we discuss some of the most promising solutions in this regard, and present various open challenges and directions for future research.
公開日:2023-12-04
翻訳日:2024-03-19 04:41:11
# 群環NTRUに対する格子攻撃:二面体群の場合

Lattice attack on group ring NTRU: The case of the dihedral group ( http://arxiv.org/abs/2309.08304v1 )

ライセンス: Link先を確認
Vikas Kumar, Ali Raya, Sugata Gangopadhyay, Aditi Kar Gangopadhyay, (参考訳) グループリングNTRU(GR-NTRU)は、異なるグループを用いて異なるNTRU様スキームを設計するための一般的な構造を提供する。 文学におけるほとんどのスキームは巡回群の上に構築されるが、非アーベル群も用いられる。 1997年、銅細工師とシャミールは、非可換性は一部のグループに対する格子攻撃に対してより良い安全性をもたらすことを示唆している。 NTRUのような暗号システムの公開鍵に対する格子攻撃は、公開鍵の知識を前提として、最短ベクトル問題(SVP)またはその近似をある次元の格子で解くことで、秘密鍵を回収しようとする。 本稿は,二面体群がこの種の攻撃に対する安全性を保証していないことを示す。 二面体群に基づくGR-NTRUで生成された原格子の次元の半分の2つの格子でSVPを解くことで、秘密鍵の取得が可能であることを証明した。 このような攻撃の可能性については安田らが言及している(IACR/2015/1170)。 提案されたアプローチとは対照的に、有限群の表現論から構造定理を含まない格子還元を明示的に提供する。 さらに,本手法の有効性を実験的に検証した。

Group ring NTRU (GR-NTRU) provides a general structure to design different variants of NTRU-like schemes by employing different groups. Although, most of the schemes in literature are built over cyclic groups, nonabelian groups can also be used. Coppersmith and Shamir in 1997 have suggested that noncommutativity may result in better security against some lattice attacks for some groups. Lattice attacks on the public key of NTRU-like cryptosystems try to retrieve the private key by solving the shortest vector problem (SVP) or its approximation in a lattice of a certain dimension, assuming the knowledge of the public key only. This paper shows that dihedral groups do not guarantee better security against this class of attacks. We prove that retrieving the private key is possible by solving the SVP in two lattices with half the dimension of the original lattice generated for GR-NTRU based on dihedral groups. The possibility of such an attack was mentioned by Yasuda et al.(IACR/2015/1170). In contrast to their proposed approach, we explicitly provide the lattice reduction without any structure theorem from the representation theory for finite groups. Furthermore, we demonstrate the effectiveness of our technique with experimental results.
公開日:2023-09-15
翻訳日:2024-03-19 04:41:11
# 表層異常検出のための自己教師型学習の限界を理解する

Understanding the limitations of self-supervised learning for tabular anomaly detection ( http://arxiv.org/abs/2309.08374v3 )

ライセンス: Link先を確認
Kimberly T. Mai, Toby Davies, Lewis D. Griffin, (参考訳) 自己教師付き学習はコンピュータビジョンや自然言語処理における異常検出を改善しているが、表形式のデータがそれの恩恵を受けるかどうかは不明である。 本稿では,タブ状異常検出における自己スーパービジョンの限界について検討する。 26のベンチマークデータセット上で、様々なプリテキストタスクにまたがるいくつかの実験を行い、その理由を解明した。 その結果,自己超越から導出される表現は,データの生表現を用いた場合と比較して,表層異常検出性能は向上しないことがわかった。 これは、ニューラルネットワークが無関係な特徴を導入し、異常検出の有効性を低下させることによるものである。 しかし、ニューラルネットワークの表現のサブスペースを使用することで、性能を回復できることを示す。

While self-supervised learning has improved anomaly detection in computer vision and natural language processing, it is unclear whether tabular data can benefit from it. This paper explores the limitations of self-supervision for tabular anomaly detection. We conduct several experiments spanning various pretext tasks on 26 benchmark datasets to understand why this is the case. Our results confirm representations derived from self-supervision do not improve tabular anomaly detection performance compared to using the raw representations of the data. We show this is due to neural networks introducing irrelevant features, which reduces the effectiveness of anomaly detectors. However, we demonstrate that using a subspace of the neural network's representation can recover performance.
公開日:2024-03-14
翻訳日:2024-03-19 04:41:11
# DP-PQD:Black-Boxメカニズムによって生成された合成データにおけるクエリごとのギャップをプライベートに検出する

DP-PQD: Privately Detecting Per-Query Gaps In Synthetic Data Generated By Black-Box Mechanisms ( http://arxiv.org/abs/2309.08574v1 )

ライセンス: Link先を確認
Shweta Patwa, Danyu Sun, Amir Gilad, Ashwin Machanavajjhala, Sudeepa Roy, (参考訳) 合成データ生成手法、特にプライベートな合成データ生成手法は、研究やデータ分析のために広く共有できる機密データベースのコピーを作成する手段として人気を集めている。 データ分析における基本的な操作には、いくつかの条件を満たすデータのサブセット上で、集約された統計、例えば、カウント、和、中央値などの分析が含まれる。 合成データが生成されると、ユーザは、例えば、合成データが特定のタスクに適しているかどうかを決定するために、そのような統計を生成する集約クエリが、合成データに対して確実に答えられるかどうかを知ることに興味を持つ。 しかし、標準データ生成システムは、合成データに対して「クエリごと」の品質保証を提供しておらず、ユーザーは合成データの集計された統計がどれだけ信頼できるかを知ることができない。 この問題に対処するため,DP-PQD という新しいフレームワークを提案し,プライベートおよび合成データセット上の問合せ回答が,差分プライバシを確保しつつ,ユーザ指定のしきい値内にあることを検出する。 提案手法は,クエリごとのクエリ数,総和,中央値のクエリに対してプライベートアルゴリズム群を提供し,その特性を解析し,実験的に評価する。

Synthetic data generation methods, and in particular, private synthetic data generation methods, are gaining popularity as a means to make copies of sensitive databases that can be shared widely for research and data analysis. Some of the fundamental operations in data analysis include analyzing aggregated statistics, e.g., count, sum, or median, on a subset of data satisfying some conditions. When synthetic data is generated, users may be interested in knowing if their aggregated queries generating such statistics can be reliably answered on the synthetic data, for instance, to decide if the synthetic data is suitable for specific tasks. However, the standard data generation systems do not provide "per-query" quality guarantees on the synthetic data, and the users have no way of knowing how much the aggregated statistics on the synthetic data can be trusted. To address this problem, we present a novel framework named DP-PQD (differentially-private per-query decider) to detect if the query answers on the private and synthetic datasets are within a user-specified threshold of each other while guaranteeing differential privacy. We give a suite of private algorithms for per-query deciders for count, sum, and median queries, analyze their properties, and evaluate them experimentally.
公開日:2023-09-15
翻訳日:2024-03-19 04:41:11
# 米国の量子情報教育における格差

Disparities in access to US quantum information education ( http://arxiv.org/abs/2309.08629v3 )

ライセンス: Link先を確認
Josephine C. Meyer, Gina Passante, Bethany R. Wilcox, (参考訳) 2018年の国家量子イニシアティブ法(National Quantum Initiative Act of 2018)により、量子情報科学(QIS)のコースワークと学位プログラムが米国の機関に急速に普及している。 しかし、以前の研究は、量子労働者教育へのアクセスが不平等に分散しており、学生団体が米国全体の高等教育を代表していない民間の研究機関の学生に不公平に利益をもたらすことを示唆していた。 我々は、2022年秋時点で456の高等教育機関におけるQISコースワークの分布を分析するために回帰分析を用い、特に制度分類、資金提供、地理的分布の軸に沿った機関間での統計的に重要な格差を特定し、今日のQIS教育プログラムが低所得・農村の学生にほとんど届かないことを示唆している。 また、新たな専用QIS学位プログラムの分布を簡潔に分析し、ほぼ同じ傾向を呈する。 我々は、低所得・農村の学生を対象とする学校へのQIS教育への直接投資、量子コミュニティ内で発生した既存の草の根の多様性と包摂的イニシアチブの活用、QIS教育データ収集のための手順の更新・近代化など、教育者、政策立案者、教育研究者への意味の議論から締めくくくった。

Driven in large part by the National Quantum Initiative Act of 2018, quantum information science (QIS) coursework and degree programs are rapidly spreading across US institutions. Yet prior work suggests that access to quantum workforce education is unequally distributed, disproportionately benefiting students at private research-focused institutions whose student bodies are unrepresentative of US higher education as a whole. We use regression analysis to analyze the distribution of QIS coursework across 456 institutions of higher learning as of fall 2022, identifying statistically significant disparities across institutions in particular along the axes of institution classification, funding, and geographic distribution suggesting today's QIS education programs are largely failing to reach low-income and rural students. We also conduct a brief analysis of the distribution of emerging dedicated QIS degree programs, discovering much the same trends. We conclude with a discussion of implications for educators, policymakers, and education researchers including specific policy recommendations to direct investments in QIS education to schools serving low-income and rural students, leverage existing grassroots diversity and inclusion initiatives that have arisen within the quantum community, and update and modernize procedures for collecting QIS educational data to better track these trends.
公開日:2024-03-15
翻訳日:2024-03-19 04:30:16
# よりセキュアなスプリット:プライバシ保護型スプリット学習のセキュリティを強化する

A More Secure Split: Enhancing the Security of Privacy-Preserving Split Learning ( http://arxiv.org/abs/2309.08697v1 )

ライセンス: Link先を確認
Tanveer Khan, Khoa Nguyen, Antonis Michalas, (参考訳) Split Learning(SL)は、クライアントとサーバといった参加者が、クライアントが生データを共有せずに機械学習モデルをトレーニングすることを可能にする、新たなコラボレーティブな学習テクニックである。 この設定では、クライアントは最初、生データに機械学習モデルの一部を適用して Activation Maps (AM) を生成し、その後、トレーニングプロセスを継続するためにサーバに送信する。 この分野での以前の研究は、AMの再構築がクライアントデータのプライバシー漏洩につながることを実証した。 それに加えて、SLのプライバシー漏洩を克服する既存の緩和技術は、精度の点で著しく悪化している。 本稿では,U字型SLをベースとしたプロトコルを構築し,同義的に暗号化されたデータを操作することにより,従来の作業を改善する。 より正確には、当社のアプローチでは、クライアントはAMに同型暗号化を適用してサーバに送信し、ユーザのプライバシを保護する。 これは、他のSLベースの作業と比べてプライバシーの漏洩を減らす重要な改善である。 最後に, パラメータの最適セットを用いて, U字型SLにおけるHEデータを用いたトレーニングは, 平文でのトレーニングに比べて2.65%の精度しか低下しないことを示した。 さらに、生のトレーニングデータプライバシが保存される。

Split learning (SL) is a new collaborative learning technique that allows participants, e.g. a client and a server, to train machine learning models without the client sharing raw data. In this setting, the client initially applies its part of the machine learning model on the raw data to generate Activation Maps (AMs) and then sends them to the server to continue the training process. Previous works in the field demonstrated that reconstructing AMs could result in privacy leakage of client data. In addition to that, existing mitigation techniques that overcome the privacy leakage of SL prove to be significantly worse in terms of accuracy. In this paper, we improve upon previous works by constructing a protocol based on U-shaped SL that can operate on homomorphically encrypted data. More precisely, in our approach, the client applies homomorphic encryption on the AMs before sending them to the server, thus protecting user privacy. This is an important improvement that reduces privacy leakage in comparison to other SL-based works. Finally, our results show that, with the optimum set of parameters, training with HE data in the U-shaped SL setting only reduces accuracy by 2.65% compared to training on plaintext. In addition, raw training data privacy is preserved.
公開日:2023-09-15
翻訳日:2024-03-19 04:30:16
# Stylish Risk-Limiting Audits in Practice

Stylish Risk-Limiting Audits in Practice ( http://arxiv.org/abs/2309.09081v1 )

ライセンス: Link先を確認
Amanda K. Glazer, Jacob V. Spertus, Philip B. Stark, (参考訳) リスクリミット監査(RLA)は、どの投票カードにどのコンテスト(カードスタイルのデータ、CSD)が含まれているかの情報を使用して、各コンテストが必要以上に多くのカードを検査することなく適切な精査を受けるようにする。 このように CSD を用いる RLA は、すべてのキャストカードから無差別にサンプリングする RLA よりも、はるかに効率的である。 本稿では,Hart InterCivic Verity 投票システムと Dominion Democracy Suite(R) 投票システムに対する CSD を用いた RLA のオープンソースPython 実装について述べる。 このソフトウェアは、2020年の総選挙で181回、アメリカ合衆国カリフォルニア州オレンジ郡で2022年の総選挙で214回、アメリカ合衆国で5番目に大きな選挙権を持つ。 (オレンジ郡はハート・バーティ・システムを使っている。) 2020年の181大会をCDDを使わずに5%のリスク制限で監査するには、全3,094,308枚の投票カードの完全な手振りが必要だった。 CSDでは、サンプルサイズが約20,100枚、鋳造量の0.65%で、完全な手数が必要とされ、2022年の第214回大会をCSDを使わずに5%のリスク限界まで監査するには、全1,989,416枚の鋳造カードの完全な手高が必要であった。CSDでは、サンプルサイズが62,250枚、鋳造量の3.1%が0.1%未満、3つのコンテストを含む0.5%未満のマージンを含む。

Risk-limiting audits (RLAs) can use information about which ballot cards contain which contests (card-style data, CSD) to ensure that each contest receives adequate scrutiny, without examining more cards than necessary. RLAs using CSD in this way can be substantially more efficient than RLAs that sample indiscriminately from all cast cards. We describe an open-source Python implementation of RLAs using CSD for the Hart InterCivic Verity voting system and the Dominion Democracy Suite(R) voting system. The software is demonstrated using all 181 contests in the 2020 general election and all 214 contests in the 2022 general election in Orange County, CA, USA, the fifth-largest election jurisdiction in the U.S., with over 1.8 million active voters. (Orange County uses the Hart Verity system.) To audit the 181 contests in 2020 to a risk limit of 5% without using CSD would have required a complete hand tally of all 3,094,308 cast ballot cards. With CSD, the estimated sample size is about 20,100 cards, 0.65% of the cards cast--including one tied contest that required a complete hand count. To audit the 214 contests in 2022 to a risk limit of 5% without using CSD would have required a complete hand tally of all 1,989,416 cast cards. With CSD, the estimated sample size is about 62,250 ballots, 3.1% of cards cast--including three contests with margins below 0.1% and 9 with margins below 0.5%.
公開日:2023-09-16
翻訳日:2024-03-19 04:30:16
# 第230条の改善, 民主主義の保全と言論の自由の保護

Improving Section 230, Preserving Democracy and Protecting Free Speech ( http://arxiv.org/abs/2309.09110v1 )

ライセンス: Link先を確認
Marshall Van Alstyne, Michael David Smith, Herb Lin, (参考訳) 本稿では,政府も企業も,情報の流れを制御していない分散市場を基盤としたコンテンツモデレーションの枠組みを提案する。

This article proposes a framework for content moderation based on a decentralized market where no one party, neither governments nor firms, controls the flow of information.
公開日:2023-09-16
翻訳日:2024-03-19 04:30:16
# 差分プライバシーにおける未知領域アルゴリズムの統一型プライバシ分析フレームワーク

A Unifying Privacy Analysis Framework for Unknown Domain Algorithms in Differential Privacy ( http://arxiv.org/abs/2309.09170v1 )

ライセンス: Link先を確認
Ryan Rogers, (参考訳) ヒストグラムをリリースするための多くの既存の微分プライベートアルゴリズム、すなわち対応するラベルのカウントを様々な設定でリリースしている。 この調査の焦点は、未知のドメイン上でヒストグラムを公開するための既存の微分プライベートアルゴリズムのいくつかを再検討することである。 未知の領域でヒストグラムを解放する主な実用上の利点は、アルゴリズムが元のヒストグラムには存在しないが、仮説的近傍データセットにはヒストグラムに現れるため、欠落したラベルを埋める必要がないことである。 しかし、未知のドメイン上でヒストグラムをリリースするための微分プライベートアルゴリズムを設計する上での課題は、どの入力が使われたかを明確に示す結果が、明らかにプライバシーを侵害していることである。 目的は、差別化の結果が非常に低い確率で起こることを示すことである。 いくつかの既存アルゴリズムのプライバシー分析のための統一的なフレームワークを提案する。 さらに、我々の分析では、Bun と Steinke'16 の近似微分プライバシーを用いており、特に多くのアルゴリズムを総合システムに組み込む場合、差分プライバシーを直接使用するのではなく、プライバシー損失パラメータを改善することができる。

There are many existing differentially private algorithms for releasing histograms, i.e. counts with corresponding labels, in various settings. Our focus in this survey is to revisit some of the existing differentially private algorithms for releasing histograms over unknown domains, i.e. the labels of the counts that are to be released are not known beforehand. The main practical advantage of releasing histograms over an unknown domain is that the algorithm does not need to fill in missing labels because they are not present in the original histogram but in a hypothetical neighboring dataset could appear in the histogram. However, the challenge in designing differentially private algorithms for releasing histograms over an unknown domain is that some outcomes can clearly show which input was used, clearly violating privacy. The goal then is to show that the differentiating outcomes occur with very low probability. We present a unified framework for the privacy analyses of several existing algorithms. Furthermore, our analysis uses approximate concentrated differential privacy from Bun and Steinke'16, which can improve the privacy loss parameters rather than using differential privacy directly, especially when composing many of these algorithms together in an overall system.
公開日:2023-09-17
翻訳日:2024-03-19 04:30:16
# ATM:攻撃木のセキュリティ特性を定量化するための論理

ATM: a Logic for Quantitative Security Properties on Attack Trees ( http://arxiv.org/abs/2309.09231v1 )

ライセンス: Link先を確認
Stefano M. Nicoletti, Milan Lopuhaä-Zwakenberg, E. Moritz Hahn, Mariëlle Stoelinga, (参考訳) 信頼性と可用性が最重要である重要なインフラストラクチャシステムは、安全に運用する必要があります。 アタックツリー(AT)は、システムの攻撃方法を評価するのに使用されるフレキシブルなモデリング言語を提供する階層図である。 ATは業界と学界の両方で広く利用されているが、その人気にもかかわらず、実践者がAT上のクエリを理解できるが強力な方法で定式化するための作業はほとんど行われていない。 本稿では,AT 上の量的セキュリティ特性を表現するロジックであるATM を提示することで,このギャップを埋める。 ATMは、"コスト"、"確率"、"スキル"を含むセキュリティメトリクスに関連するプロパティの仕様を可能にし、洞察に富んだWhat-ifシナリオの定式化を可能にする。 その可能性を示すために、ATMをCubeSATのケーススタディに適用し、攻撃者がその可用性を損なう3つの方法を示す。 本稿では、対応する攻撃ツリーのプロパティ仕様を示し、ATM-formulaeのプロパティと計算メトリクスをチェックするために、バイナリ決定図に基づく理論とアルゴリズムを提案する。

Critical infrastructure systems - for which high reliability and availability are paramount - must operate securely. Attack trees (ATs) are hierarchical diagrams that offer a flexible modelling language used to assess how systems can be attacked. ATs are widely employed both in industry and academia but - in spite of their popularity - little work has been done to give practitioners instruments to formulate queries on ATs in an understandable yet powerful way. In this paper we fill this gap by presenting ATM, a logic to express quantitative security properties on ATs. ATM allows for the specification of properties involved with security metrics that include "cost", "probability" and "skill" and permits the formulation of insightful what-if scenarios. To showcase its potential, we apply ATM to the case study of a CubeSAT, presenting three different ways in which an attacker can compromise its availability. We showcase property specification on the corresponding attack tree and we present theory and algorithms - based on binary decision diagrams - to check properties and compute metrics of ATM-formulae.
公開日:2023-09-17
翻訳日:2024-03-19 04:30:16
# OSの分離にDéjà vuは必要ない

OSmosis: No more Déjà vu in OS isolation ( http://arxiv.org/abs/2309.09291v1 )

ライセンス: Link先を確認
Sidhartha Agrawal, Reto Achermann, Margo Seltzer, (参考訳) オペレーティングシステムはハードウェアと高レベルのソフトウェアを抽象化するレイヤを提供する。 スレッド、プロセス、コンテナ、仮想マシンなどの多くの抽象化は、分離を提供するメカニズムである。 新しいアプリケーションシナリオは、しばしば新しい分離メカニズムを導入します。 各分離メカニズムを独立した抽象化として実装することは、さまざまなタスク間で共有される状態とリソースを判断することが難しく、セキュリティ上の脆弱性とパフォーマンス上の干渉につながる。 本稿では、OSmosis、リソース共有の正確なレベルを表現する分離モデル、モデルに基づく分離機構を実装するフレームワーク、および、seL4上でのフレームワークの実装について述べる。 OSmosisモデルは、ユーザがシステムから必要なアイソレーションの度合いを判断することを可能にする。 この決定により、開発者は、分離とパフォーマンスのトレードオフに関する情報的な決定を下すことができ、フレームワークは、望まれる分離の程度でメカニズムを作成することができる。

Operating systems provide an abstraction layer between the hardware and higher-level software. Many abstractions, such as threads, processes, containers, and virtual machines, are mechanisms to provide isolation. New application scenarios frequently introduce new isolation mechanisms. Implementing each isolation mechanism as an independent abstraction makes it difficult to reason about the state and resources shared among different tasks, leading to security vulnerabilities and performance interference. We present OSmosis, an isolation model that expresses the precise level of resource sharing, a framework in which to implement isolation mechanisms based on the model, and an implementation of the framework on seL4. The OSmosis model lets the user determine the degree of isolation guarantee that they need from the system. This determination empowers developers to make informed decisions about isolation and performance trade-offs, and the framework enables them to create mechanisms with the desired degree of isolation.
公開日:2023-09-17
翻訳日:2024-03-19 04:30:16
# 分散データによるプライバシ保護多言語コンピューティング

Privacy-Preserving Polynomial Computing Over Distributed Data ( http://arxiv.org/abs/2309.09315v1 )

ライセンス: Link先を確認
Zhiquan Tan, Dingli Yuan, Zhongyi Huang, (参考訳) 本稿では,ユーザが自身のデータと分散ソースから得られるデータを用いて多項式関数を計算しようとするシナリオを掘り下げる。 これを実現するために、ユーザは$N$の分散ワーカーの助けを借りて、分散データ上でのプライバシ保護多項式コンピューティングと呼ばれる問題を定義する。 この課題に対処するため,Lagrangeエンコーディングに基づくアプローチを提案する。 本手法は, ストラグラーやビザンチン作業員の存在に耐えるだけでなく, 安全の確保も図っている。 具体的には、たとえ$X$の労働者連合が共謀したとしても、分散ソースやユーザから派生したデータに関する知識を取得できない。

In this letter, we delve into a scenario where a user aims to compute polynomial functions using their own data as well as data obtained from distributed sources. To accomplish this, the user enlists the assistance of $N$ distributed workers, thereby defining a problem we refer to as privacy-preserving polynomial computing over distributed data. To address this challenge, we propose an approach founded upon Lagrange encoding. Our method not only possesses the ability to withstand the presence of stragglers and byzantine workers but also ensures the preservation of security. Specifically, even if a coalition of $X$ workers collude, they are unable to acquire any knowledge pertaining to the data originating from the distributed sources or the user.
公開日:2023-09-17
翻訳日:2024-03-19 04:30:16
# AIGCにおける生成データのセキュリティとプライバシ

Security and Privacy on Generative Data in AIGC: A Survey ( http://arxiv.org/abs/2309.09435v2 )

ライセンス: Link先を確認
Tao Wang, Yushu Zhang, Shuren Qi, Ruoyu Zhao, Zhihua Xia, Jian Weng, (参考訳) 人工知能生成コンテンツ(AIGC)の出現は、情報技術の進化における重要な瞬間である。 AIGCでは、人々が区別することの難しい高品質なデータを生成するのに苦労する必要がない。 それでも、サイバースペース全体にわたる生成データの増加は、個人のプライバシー漏洩や不正な目的でのメディア偽造など、セキュリティとプライバシの問題をもたらす。 結果として、学術と産業は、生成データの信頼性を強調し始め、セキュリティとプライバシに対する一連の対策を順次提供します。 本稿では,AIGCにおける生成データに対するセキュリティとプライバシを,特に情報セキュリティ特性の観点から初めて体系的に検討する。 具体的には、プライバシ、制御可能性、信頼性、コンプライアンスの基本的な性質の観点から、最先端の対策が成功した経験を明らかにする。 最後に、これらの特性のそれぞれから、オープンな課題と潜在的な探索方向を要約する。

The advent of artificial intelligence-generated content (AIGC) represents a pivotal moment in the evolution of information technology. With AIGC, it can be effortless to generate high-quality data that is challenging for the public to distinguish. Nevertheless, the proliferation of generative data across cyberspace brings security and privacy issues, including privacy leakages of individuals and media forgery for fraudulent purposes. Consequently, both academia and industry begin to emphasize the trustworthiness of generative data, successively providing a series of countermeasures for security and privacy. In this survey, we systematically review the security and privacy on generative data in AIGC, particularly for the first time analyzing them from the perspective of information security properties. Specifically, we reveal the successful experiences of state-of-the-art countermeasures in terms of the foundational properties of privacy, controllability, authenticity, and compliance, respectively. Finally, we summarize the open challenges and potential exploration directions from each of theses properties.
公開日:2023-12-18
翻訳日:2024-03-19 04:30:16
# 関数秘密共有に基づくオンライン安全なロジスティック回帰

Online Efficient Secure Logistic Regression based on Function Secret Sharing ( http://arxiv.org/abs/2309.09486v1 )

ライセンス: Link先を確認
Jing Liu, Jamie Cui, Cen Chen, (参考訳) ロジスティック回帰(英: Logistic regression)は、不正検出、医療診断、レコメンデーションシステムなど、様々な現実世界の応用において二項分類に広く用いられているアルゴリズムである。 しかし、異なるパーティのデータでロジスティック回帰モデルをトレーニングすると、プライバシの懸念が高まる。 Secure Multi-Party Computation (MPC)は、複数のパーティがプライバシーを損なうことなく、ロジスティック回帰モデルを共同でトレーニングできる暗号化ツールである。 大規模データを扱う際には,オンライントレーニングフェーズの効率性が重要となる。 本稿では,FSS(Function Secret Sharing)に基づくプライバシー保護ロジスティック回帰のためのオンラインプロトコルを提案する。 我々のプロトコルは、2つの非解凍サーバで設計され、計算相手に相関するランダム性のみを示すサードパーティのディーラーの存在を前提としています。 オンラインフェーズでは、2つのサーバが、事前に生成された相関ランダム性を利用して、プライベートデータのロジスティック回帰モデルを共同でトレーニングする。 さらに,Sigmoid関数の高精度かつMPCフレンドリな代替手法を提案し,ロジスティック回帰学習プロセスを関数秘密共有ゲートにカプセル化する。 オンラインコミュニケーションのオーバーヘッドは、秘密共有に基づく従来の安全なロジスティック回帰トレーニングと比較して著しく減少する。 提案手法の有効性と有効性を示すため,理論的および実験的解析を行った。

Logistic regression is an algorithm widely used for binary classification in various real-world applications such as fraud detection, medical diagnosis, and recommendation systems. However, training a logistic regression model with data from different parties raises privacy concerns. Secure Multi-Party Computation (MPC) is a cryptographic tool that allows multiple parties to train a logistic regression model jointly without compromising privacy. The efficiency of the online training phase becomes crucial when dealing with large-scale data in practice. In this paper, we propose an online efficient protocol for privacy-preserving logistic regression based on Function Secret Sharing (FSS). Our protocols are designed in the two non-colluding servers setting and assume the existence of a third-party dealer who only poses correlated randomness to the computing parties. During the online phase, two servers jointly train a logistic regression model on their private data by utilizing pre-generated correlated randomness. Furthermore, we propose accurate and MPC-friendly alternatives to the sigmoid function and encapsulate the logistic regression training process into a function secret sharing gate. The online communication overhead significantly decreases compared with the traditional secure logistic regression training based on secret sharing. We provide both theoretical and experimental analyses to demonstrate the efficiency and effectiveness of our method.
公開日:2023-09-18
翻訳日:2024-03-19 04:30:16
# 高度な脅威を議論する - 課題と解決策

Combating Advanced Persistent Threats: Challenges and Solutions ( http://arxiv.org/abs/2309.09498v1 )

ライセンス: Link先を確認
Yuntao Wang, Han Liu, Zhou Su, (参考訳) 高度な永続的脅威(APTs)の台頭は、高度なオーケストレーション、ステルス実行、永続性の拡張、さまざまな分野における価値ある資産の標的など、重要なサイバーセキュリティ上の課題を特徴としている。 複雑なネットワーク環境における可視性とトレーサビリティを高めるための有望なアプローチとして,前向きなグラフベースのカーネルレベルの監査が登場している。 しかし、複雑な横鎖の再構築、ダイナミックな回避行動の検出、スマートな敵のサブグラフの防衛といった課題に直面している。 研究ギャップを埋めるために,ネットワークレベルの分散監査モデルによる費用対効果攻撃再建,信頼指向のAPT回避行動検出戦略,マルコフモデルに基づく逆サブグラフ防御手法など,プロファイナンスグラフを活用した効率的かつ堅牢なAPT防御手法を提案する。 プロトタイプの実装と広範な実験を通じて,本システムの有効性を検証した。 最後に、この新興分野において重要なオープンリサーチの方向性を概説する。

The rise of advanced persistent threats (APTs) has marked a significant cybersecurity challenge, characterized by sophisticated orchestration, stealthy execution, extended persistence, and targeting valuable assets across diverse sectors. Provenance graph-based kernel-level auditing has emerged as a promising approach to enhance visibility and traceability within intricate network environments. However, it still faces challenges including reconstructing complex lateral attack chains, detecting dynamic evasion behaviors, and defending smart adversarial subgraphs. To bridge the research gap, this paper proposes an efficient and robust APT defense scheme leveraging provenance graphs, including a network-level distributed audit model for cost-effective lateral attack reconstruction, a trust-oriented APT evasion behavior detection strategy, and a hidden Markov model based adversarial subgraph defense approach. Through prototype implementation and extensive experiments, we validate the effectiveness of our system. Lastly, crucial open research directions are outlined in this emerging field.
公開日:2023-09-18
翻訳日:2024-03-19 04:30:16
# モーダル論理のレンズによるセキュリティ特性

Security Properties through the Lens of Modal Logic ( http://arxiv.org/abs/2309.09542v1 )

ライセンス: Link先を確認
Matvey Soloviev, Musard Balliu, Roberto Guanciale, (参考訳) モーダル論理を用いたコンピュータシステムのセキュリティに関する推論フレームワークを提案する。 このフレームワークは、様々な既知のセキュリティ特性を捉えるのに十分な表現力を持ち、直感的で、構文の詳細や執行機構とは独立している。 我々は, 機密性, 完全性, 堅牢な非分類化, 透過的な支持の様々な変種を表現するために, フォーマリズムをどう使うかを示し, 標準定義と等価性を証明した。 このアプローチのセマンティックリアリティーに対する直感的な性質と密接性により、これらの定義のいくつかの隠された仮定を明確化し、潜在的な問題や微妙な関係を特定できると同時に、よりクリーンなバージョンと、完全に新しい性質への将来の拡張を約束できる。

We introduce a framework for reasoning about the security of computer systems using modal logic. This framework is sufficiently expressive to capture a variety of known security properties, while also being intuitive and independent of syntactic details and enforcement mechanisms. We show how to use our formalism to represent various progress- and termination-(in)sensitive variants of confidentiality, integrity, robust declassification and transparent endorsement, and prove equivalence to standard definitions. The intuitive nature and closeness to semantic reality of our approach allows us to make explicit several hidden assumptions of these definitions, and identify potential issues and subtleties with them, while also holding the promise of formulating cleaner versions and future extension to entirely novel properties.
公開日:2023-09-18
翻訳日:2024-03-19 04:30:16
# スポーフィング攻撃増強:異なる訓練された攻撃モデルは一般化を改善することができるか?

Spoofing attack augmentation: can differently-trained attack models improve generalisation? ( http://arxiv.org/abs/2309.09586v2 )

ライセンス: Link先を確認
Wanying Ge, Xin Wang, Junichi Yamagishi, Massimiliano Todisco, Nicholas Evans, (参考訳) 信頼性の高いディープフェイク検出器やスプーフ対策(CM)は、予測不可能なスプーフ攻撃に直面して堅牢であるべきである。 既知の攻撃に限らず、より一般化可能なアーティファクトの学習を促進するため、CMは通常、訓練中に様々な種類の攻撃にさらされる。 それでも、ディープラーニングベースのCMソリューションのパフォーマンスは、異なる初期化やハイパーパラメータ、トレーニングデータパーティションで再トレーニングされた場合、大きく変化することが知られている。 本稿では,スプーフィング攻撃の有効性(ディープラーニングベース)が訓練条件によっても同様に変化し,検出性能が著しく低下することを示す。 しかしながら,攻撃アルゴリズムに対する調整のみを行う場合,RawNet2 CMモデルは脆弱であるが,グラフアテンションネットワークと自己教師型学習に基づくモデルは確実に堅牢である。 異なる攻撃アルゴリズムで生成されたトレーニングデータに焦点を合わせることは、汎用性を確保するのに十分ではないかもしれない。

A reliable deepfake detector or spoofing countermeasure (CM) should be robust in the face of unpredictable spoofing attacks. To encourage the learning of more generaliseable artefacts, rather than those specific only to known attacks, CMs are usually exposed to a broad variety of different attacks during training. Even so, the performance of deep-learning-based CM solutions are known to vary, sometimes substantially, when they are retrained with different initialisations, hyper-parameters or training data partitions. We show in this paper that the potency of spoofing attacks, also deep-learning-based, can similarly vary according to training conditions, sometimes resulting in substantial degradations to detection performance. Nevertheless, while a RawNet2 CM model is vulnerable when only modest adjustments are made to the attack algorithm, those based upon graph attention networks and self-supervised learning are reassuringly robust. The focus upon training data generated with different attack algorithms might not be sufficient on its own to ensure generaliability; some form of spoofing attack augmentation at the algorithm level can be complementary.
公開日:2024-01-08
翻訳日:2024-03-19 04:30:16