このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20221222となっている論文です。

PDF登録状況(公開日: 20221222)

TitleAuthorsAbstract論文公表日・翻訳日
# 時間領域における分数的Schr\"{o}dinger方程式の実験的実現

Experimental realisations of the fractional Schr\"{o}dinger equation in the temporal domain ( http://arxiv.org/abs/2208.01128v2 )

ライセンス: Link先を確認
Shilong Liu, Yingwen Zhang, Boris A. Malomed, and Ebrahim Karimi(参考訳) 分数的なSchr\"{o}dinger equation (FSE) - 標準のSchr\"{o}dinger equationの自然な拡張 - は分数的な量子力学の基礎である。 運動エネルギー演算子を分数微分に置き換えることで得られる。 本稿では、時間領域におけるフェムト秒レーザーパルスに対する光FSEの実験的実現について報告する。 プログラマブルホログラムと単発計測法は、それぞれ \textit{l\'evy waveguide} をエミュレートし、パルスの振幅と位相を再構成するために用いられる。 fseと初期パルスのl\'evy指数を変化させると、時間的ダイナミクスは、孤立、分割、マージ、ダブルエアリーモード、'rain-like'のマルチパルスパターンを含む様々な形態で観察される。 さらに、分数相を有する入力パルスの伝送は、通常の(非分数相)材料を介して「フラクショナルフェーズ保護」効果を示す。 実験的に生成された時間領域パルスは、光学信号処理方式を設計する可能性がある。

The fractional Schr\"{o}dinger equation (FSE) -- a natural extension of the standard Schr\"{o}dinger equation -- is the basis of fractional quantum mechanics. It can be obtained by replacing the kinetic-energy operator with a fractional derivative. Here, we report the experimental realisation of an optical FSE for femtosecond laser pulses in the temporal domain. Programmable holograms and the single-shot measurement technique are respectively used to emulate a \textit{L\'evy waveguide} and to reconstruct the amplitude and phase of the pulses. Varying the L\'evy index of the FSE and the initial pulse, the temporal dynamics is observed in diverse forms, including solitary, splitting and merging pulses, double Airy modes, and ``rain-like'' multi-pulse patterns. Furthermore, the transmission of input pulses carrying a fractional phase exhibits a ``fractional-phase protection'' effect through a regular (non-fractional) material. The experimentally generated fractional time-domain pulses offer the potential for designing optical signal-processing schemes.
翻訳日:2023-02-02 18:56:06 公開日:2022-12-22
# スピン系の量子同期における半整数対整数効果

Half-integer vs. integer effects in quantum synchronization of spin systems ( http://arxiv.org/abs/2208.12766v2 )

ライセンス: Link先を確認
Ryan Tan, Christoph Bruder, Martin Koppenh\"ofer(参考訳) 量子自己持続発振器をホストする最小の系である$s = 1$以上のスピン数に対する外部半古典的信号によって駆動される単一スピンの量子同期について検討する。 干渉に基づく量子同期遮断の発生は、整数対半整数スピン数$S$に対して質的に異なる。 本稿では,この現象を,システムのコヒーレンス発生における外部信号と限界周期の構造との相互作用として説明する。 さらに、同じ散逸的極限サイクル安定化機構は、整数対半整数$S$に対する量子同期のレベルが全く異なることを示す。 しかし、各スピン数に対して適切な極限サイクルを選択することで、整数系と半整数系の両方で同等の量子同期が達成できる。

We study the quantum synchronization of a single spin driven by an external semiclassical signal for spin numbers larger than $S = 1$, the smallest system to host a quantum self-sustained oscillator. The occurrence of interference-based quantum synchronization blockade is found to be qualitatively different for integer vs. half-integer spin number $S$. We explain this phenomenon as the interplay between the external signal and the structure of the limit cycle in the generation of coherence in the system. Moreover, we show that the same dissipative limit-cycle stabilization mechanism leads to very different levels of quantum synchronization for integer vs. half-integer $S$. However, by choosing an appropriate limit cycle for each spin number, comparable levels of quantum synchronization can be achieved for both integer and half-integer spin systems.
翻訳日:2023-01-29 14:35:31 公開日:2022-12-22
# 人間のフィードバックを用いたAIアライメント研究のための方法論的考察

Methodological reflections for AI alignment research using human feedback ( http://arxiv.org/abs/2301.06859v1 )

ライセンス: Link先を確認
Thilo Hagendorff, Sarah Fabi(参考訳) 人工知能(AI)アライメントの分野は、AI技術が人間の関心や価値観、機能と安全で倫理的な方法で一致しているかどうかを調査することを目的としている。 aiアライメントは、特に大きな言語モデル(llm)に関係しており、予測が難しい方法で学習し、適応する能力があるため、意図しない行動を示す可能性がある。 本稿では,テキストを要約するために訓練されたllmの文脈におけるアライメント問題に対する方法論的課題について述べる。 特に,要約モデルを改善する報奨モデルをトレーニングするために,要約に対する信頼性の高いフィードバックを集める方法に焦点を当てた。 我々は,LLMの要約能力に関するアライメント研究の実験的設計の具体的な改善を提案する。

The field of artificial intelligence (AI) alignment aims to investigate whether AI technologies align with human interests and values and function in a safe and ethical manner. AI alignment is particularly relevant for large language models (LLMs), which have the potential to exhibit unintended behavior due to their ability to learn and adapt in ways that are difficult to predict. In this paper, we discuss methodological challenges for the alignment problem specifically in the context of LLMs trained to summarize texts. In particular, we focus on methods for collecting reliable human feedback on summaries to train a reward model which in turn improves the summarization model. We conclude by suggesting specific improvements in the experimental design of alignment studies for LLMs' summarization capabilities.
翻訳日:2023-01-29 14:17:33 公開日:2022-12-22
# 深層学習とドローン技術を用いた野生動物フェンスの検出と認識による野生動物と車両の衝突を緩和する高速道路の安全と安全性の認識

Creating awareness about security and safety on highways to mitigate wildlife-vehicle collisions by detecting and recognizing wildlife fences using deep learning and drone technology ( http://arxiv.org/abs/2301.07174v1 )

ライセンス: Link先を確認
Irene Nandutu, Marcellin Atemkeng, Patrice Okouma, Nokubonga Mgqatsa, Jean Louis Ebongue Kedieng Fendji, Franklin Tchakounte(参考訳) 南アフリカでは、短い快適休憩のために長距離を旅するときに道路脇に車を置いて行くのが一般的である。 この慣行は野生生物との遭遇を高め、安全と安全を脅かす可能性がある。 ここでは,野生生物のフェンスや関連機能を認識・検出するために,ドローン技術とコンピュータビジョンアルゴリズムを用いて野生生物のフェンシングに関する認識を作成する。 南アフリカの東ケープにあるamakhalaとlalibelaのプライベートゲーム・リザーブでデータを集めました。 野生生物の電気フェンスデータに単一フェンスと二重フェンスを併用して分類を行った。 さらに、ドローンから抽出した空中および静止した注釈付き画像と、セグメンテーションおよび検出タスクのための静止カメラを使用した。 ドローンカメラのトレーニング結果は、静止カメラのトレーニングよりも優れていた。 一般的には,(1)画像の過剰な圧縮,(2)ドローンカメラによる機械学習モデルにおける画像のより詳細な取得能力は,野生生物フェンスの正面像のみを捉えた静止カメラと比較して学習する能力に起因している。 我々は、我々のモデルは、野生動物との遭遇を最小限に抑える野生動物フェンシングの存在と意義を人々に伝えるために、クライアントエッジデバイスにデプロイできると主張している。

In South Africa, it is a common practice for people to leave their vehicles beside the road when traveling long distances for a short comfort break. This practice might increase human encounters with wildlife, threatening their security and safety. Here we intend to create awareness about wildlife fencing, using drone technology and computer vision algorithms to recognize and detect wildlife fences and associated features. We collected data at Amakhala and Lalibela private game reserves in the Eastern Cape, South Africa. We used wildlife electric fence data containing single and double fences for the classification task. Additionally, we used aerial and still annotated images extracted from the drone and still cameras for the segmentation and detection tasks. The model training results from the drone camera outperformed those from the still camera. Generally, poor model performance is attributed to (1) over-decompression of images and (2) the ability of drone cameras to capture more details on images for the machine learning model to learn as compared to still cameras that capture only the front view of the wildlife fence. We argue that our model can be deployed on client-edge devices to inform people about the presence and significance of wildlife fencing, which minimizes human encounters with wildlife, thereby mitigating wildlife-vehicle collisions.
翻訳日:2023-01-29 14:07:17 公開日:2022-12-22
# ロボットマニピュレータのシーン表現に関する一考察

A Review of Scene Representations for Robot Manipulators ( http://arxiv.org/abs/2301.11275v1 )

ライセンス: Link先を確認
Carter Sifferman(参考訳) ロボットがインテリジェントに行動するためには、周囲の世界を感知する必要がある。 ますますロボットは、センサーによる読み出しから世界の内的表現を作り上げている。 この表現は、操作、衝突回避、ヒューマンインタラクションといった下流のタスクを通知するために使用することができる。 実際には、シーン表現はロボットの種類、センシングモダリティ、ロボットが行うように設計されたタスクによって大きく異なる。 本稿では,ロボットマニピュレータ(ロボットアーム)のシーン表現について概観する。 我々は、主に現実世界のセンシングから構築された表現に焦点を当て、下流のロボティクスのタスクを通知するために使用される。

For a robot to act intelligently, it needs to sense the world around it. Increasingly, robots build an internal representation of the world from sensor readings. This representation can then be used to inform downstream tasks, such as manipulation, collision avoidance, or human interaction. In practice, scene representations vary widely depending on the type of robot, the sensing modality, and the task that the robot is designed to do. This review provides an overview of the scene representations used for robot manipulators (robot arms). We focus primarily on representations which are built from real world sensing and are used to inform some downstream robotics task.
翻訳日:2023-01-29 13:12:42 公開日:2022-12-22
# 非エルミート系における反単位対称性による全ての非欠陥二倍退化の保護

Protection of all nondefective twofold degeneracies by anti-unitary symmetries in non-Hermitian systems ( http://arxiv.org/abs/2209.01592v3 )

ライセンス: Link先を確認
Sharareh Sayyad(参考訳) 非エルミート退化は、欠陥的および非欠陥的例外点~(EP)に分類される。 欠陥EPでは、固有値と固有エネルギーが合体するが、非欠陥EPは、その固有値における退化の発生によってのみ特徴づけられる。 また、全ての縮退は対称性によって保護されるか偶発的であることも知られている。 本稿では, 抗単位対称性がすべての非欠陥性2倍EPを保護していることを証明する。 2次元非エルミート結合モデルを開発することで、これらの対称性は離散的あるいは空間的点群対称性や非エルミートパラメータ空間におけるウィックの回転のような様々な対称性演算の合成であることを示した。 これらの複合対称性を導入し, 各種パラメーター系における非欠陥EPの保護について述べる。 この研究は、非欠陥EPを安定化する方法を舗装し、非エルミートバンド交差を理解するための新しい視点を提供する。

Non-Hermitian degeneracies are classified as defective and nondefective exceptional points~(EP). While in defective EPs, both eigenvalues and eigenenergies coalesce, nondefective EPs are characterized merely by the occurrence of degeneracies in their eigenvalues. It is also known that all degeneracies are either symmetry-protected or accidental. In this paper, I prove that anti-unitary symmetries protect all nondefective twofold EPs. By developing a 2D non-Hermitian tight-binding model, I have demonstrated that these symmetries are composite of various symmetry operations such as discrete or spatial point-group symmetries and Wick's rotation in the non-Hermitian parameter space. Introducing these composite symmetries, I present the protection of nondefective EPs in various parameter regimes of my model. This work paves the way to stabilizing nondefective EPs and offers a new perspective on understanding non-Hermitian band crossings.
翻訳日:2023-01-27 23:16:45 公開日:2022-12-22
# クロス共振パルス駆動エンタングルによるパラメータ化量子回路の評価

Evaluation of Parameterized Quantum Circuits with Cross-Resonance Pulse-Driven Entanglers ( http://arxiv.org/abs/2211.00350v3 )

ライセンス: Link先を確認
Mohannad Ibrahim, Hamed Mohammadbagherpoor, Cynthia Rios, Nicholas T. Bronn, Gregory T. Byrd(参考訳) 変分量子アルゴリズム(vqas)は、ノイズの多い量子デバイスに適した強力なアルゴリズムのクラスとして登場した。 そのため、量子コンピューティング研究において、設計の研究が鍵となっている。 これまでの研究では、VQAの有効パラメタライズド量子回路(PQC)やアンサッツの選択が、特に短期デバイスにおいて、その全体的な性能に不可欠であることが示されている。 本稿では,量子マシンへのパルスレベルアクセスと2量子相互作用の理解を利用して,VQAに適した2量子エンタングルの設計を最適化する。 解析の結果,パルス最適化アンサターゼは,通常のPQCに対する表現性を維持し,局所的なコスト関数解析によりより訓練可能な状態生成時間を半減することがわかった。 アルゴリズムの性能評価の結果,pqc構成がベース実装を上回る3つのケースが得られた。 ibm量子ハードウェア上で実行されるアルゴリズム性能の結果は、我々のパルス最適化pqc構成は、標準構成よりもマックスカットや化学の問題をより解決できることを示しています。

Variational Quantum Algorithms (VQAs) have emerged as a powerful class of algorithms that is highly suitable for noisy quantum devices. Therefore, investigating their design has become key in quantum computing research. Previous works have shown that choosing an effective parameterized quantum circuit (PQC) or ansatz for VQAs is crucial to their overall performance, especially on near-term devices. In this paper, we utilize pulse-level access to quantum machines and our understanding of their two-qubit interactions to optimize the design of two-qubit entanglers in a manner suitable for VQAs. Our analysis results show that pulse-optimized ansatze reduce state preparation times by more than half, maintain expressibility relative to standard PQCs, and are more trainable through local cost function analysis. Our algorithm performance results show that in three cases, our PQC configuration outperforms the base implementation. Our algorithm performance results, executed on IBM Quantum hardware, demonstrate that our pulse-optimized PQC configurations are more capable of solving MaxCut and Chemistry problems compared to a standard configuration.
翻訳日:2023-01-20 19:45:49 公開日:2022-12-22
# レーザー駆動半導体帯内励起による非古典光発生と制御

Nonclassical light generation and control from laser-driven semiconductor intraband excitations ( http://arxiv.org/abs/2211.06177v2 )

ライセンス: Link先を確認
Ivan Gonoskov, Ren\'e Sondenheimer, Christian H\"unecke, Daniil Kartashov, Ulf Peschel, and Stefanie Gr\"afe(参考訳) 量子光学の観点から高次高調波の発生を半導体とコヒーレントポンプ場との相互作用を通して検討する。 系の関連するシュリンガー方程式を概ね解き、基本光モードの古典的および量子的特性と高い周波数モードを解析する。 我々は, 複雑な非線形相互作用による近似内での高調波モードに対する駆動レーザ場の位置2次成分に依存する基本モードとコヒーレント変位を, 複雑だが十分に微調整した。 原子の高調波発生と同様に、全ての放射場モードは絡み合っており、様々な周波数で高い光子数を持つ量子情報処理のための新しいプロトコルを実現できる。

We investigate the generation of higher-order harmonics from a quantum optics perspective via the interaction of a semiconductor with a coherent pump field focusing on the regime where strong-field intraband excitations dominate. The related Schr\"odinger equation for the system is solved approximately and the classical and quantum characteristics of the fundamental light mode as well as the higher frequency modes are analyzed. We find intricate but sufficiently mild modifications of the fundamental mode and coherent displacements depending on the position quadrature component of the driving laser field for the harmonic modes within our approximations due to the intricate induced nonlinear interactions. Similar to high-harmonic generation in atoms, all radiation field modes are entangled, allowing for potential novel protocols for quantum information processing with high photon numbers over a large range of frequencies.
翻訳日:2023-01-19 18:28:05 公開日:2022-12-22
# 複数のチャネルを持つ量子グラフの散乱エントロピー

Scattering entropies of quantum graphs with several channels ( http://arxiv.org/abs/2211.09693v2 )

ライセンス: Link先を確認
Alison A. Silva and Fabiano M. Andrade and D. Bazeia(参考訳) この研究は多くの異なる状況において量子グラフの散乱エントロピーを扱う。 まずシャノンエントロピーについて考察し,次にr\'enyiエントロピーとtsallisエントロピーについて考察した。 いくつかの頂点、辺、鉛の存在下で異なる種類の量子グラフに関連する多くの結果を記述する。 特に、この結果は、量子グラフの輸送に関連する多様性や非付加性の量化子として用いられる可能性があることを強調する。

This work deals with the scattering entropy of quantum graphs in many different circumstances. We first consider the case of the Shannon entropy, and then the R\'enyi and Tsallis entropies, which are more adequate to study distinct quantitative behavior such as entanglement and nonextensive behavior, respectively. We describe many results, associated with different types of quantum graphs in the presence of several vertices, edges and leads. In particular, we emphasize that the results may be used as quantifiers of diversity or nonadditivity, related to the transport in quantum graphs.
翻訳日:2023-01-19 06:39:45 公開日:2022-12-22
# 多光子共鳴で放出を分離する:条件付き進化を可視化する

Telling emissions apart in a multiphoton resonance: visualizing a conditional evolution ( http://arxiv.org/abs/2211.12144v2 )

ライセンス: Link先を確認
Th. K. Mavrogordatos(参考訳) 2レベル原子に強く結合した誘導空洞内の電磁界の位相空間表現は、2光子共鳴を持続する着衣状態のはしごに沿って光子放射を識別するために用いられる。 放出は、それらが準備する条件状態によって生成される異なる量子ビートによって区別される。 サンプル量子軌道は、ジェインズ・カミングススペクトルによって設定され、強い結合極限によって明らかにされる背景において、初期状態による過渡性の差を明確に示している。 これらのアンサンブル平均進化は、強度相関関数のピークによって示される、次の光子の損失を最大非排他的確率として待つような期間に追跡される。

We find that the phase-space representation of the electromagnetic field inside a driven cavity strongly coupled to a two-level atom can be employed to distinguish photon emissions along a ladder of dressed states sustaining a two-photon resonance. The emissions are told apart by means of the different quantum beats generated by the conditional states they prepare. Sample quantum trajectories explicitly reveal the difference in the transient due to the initial condition, in a background set by the Jaynes-Cummings spectrum and revealed by the strong-coupling limit. Their ensemble-averaged evolution is tracked for a time period similar to that waited for the loss of a next photon as the maximum non-exclusive probability, indicated by the peak of the intensity correlation function.
翻訳日:2023-01-19 04:16:34 公開日:2022-12-22
# 計算複雑性を超越した試行錯誤の動的行動と知性

Exceeding Computational Complexity Trial-and-Error Dynamic Action and Intelligence ( http://arxiv.org/abs/2301.03384v1 )

ライセンス: Link先を確認
Chuyu Xiong(参考訳) 計算複雑性(Computational complexity)は、計算の難易度を規定する計算機科学のコア理論である。 複雑度の高い問題は数多くありますが、AIには特に当てはまります。 計算複雑性に縛られること以外に、これらの非常に複雑な問題に対処するより良い方法があるだろうか? 我々は、知性科学のアイデアや手法がこれらの問題に適用され、計算の複雑さを超えるのに役立つと信じている。 本稿では,概念の明確化を試み,非特殊化コンピューティング,特定化コンピューティング,計算エージェント,動的検索などの定義を提案する。 また、試行錯誤+動的検索というフレームワークを提案し、議論する。 数値分割問題はよく知られたNP完全問題であり、議論されているアイデアを説明する例としてこの問題を用いる。

Computational complexity is a core theory of computer science, which dictates the degree of difficulty of computation. There are many problems with high complexity that we have to deal, which is especially true for AI. This raises a big question: Is there a better way to deal with these highly complex problems other than bounded by computational complexity? We believe that ideas and methods from intelligence science can be applied to these problems and help us to exceed computational complexity. In this paper, we try to clarify concepts, and we propose definitions such as unparticularized computing, particularized computing, computing agents, and dynamic search. We also propose and discuss a framework, i.e., trial-and-error + dynamic search. Number Partition Problem is a well-known NP-complete problem, and we use this problem as an example to illustrate the ideas discussed.
翻訳日:2023-01-15 23:16:18 公開日:2022-12-22
# なぜ絡み合うの?

Why entanglement? ( http://arxiv.org/abs/2212.06986v2 )

ライセンス: Link先を確認
Huw Price and Ken Wharton(参考訳) 本稿では量子エンタングルメントのメカニズムを提案する。 主な要因は、衝突型バイアス(バークソンのバイアス)のよく知られた統計現象である。 因果モデルの言語では、衝突型は2つ以上の変数によって因果的に影響を受ける変数である。 衝突型加速器のコンディショニングは、たとえそれが実際には独立であっても、通常、その寄与する原因間の非因果関係を生じさせる。 この現象がベル相関に類似した関係を、適切な選択後アンサンブルで生成できることを示すことは容易である。 また、衝突器が「拘束(constrained)」されている場合(例えば、将来の境界条件によって)、そのような衝突器アーティファクトは因果性に似た真の接続になる可能性がある。 我々はこれらの点の時間反転アナログをQMの逆因数モデルの文脈で考察する。 レトロカウシリティはeprベル粒子対の源に衝突器を生じさせ、この場合、衝突器の制約は通常の実験方法によって可能である。 因果関係に類似した接続が、実験の一方の分岐部からもう一方の分岐部まで、このような衝突器に出現することが期待できる。 我々の仮説では、この制約付きレトロコーサル衝突型加速器のバイアスが絡み合いの起源である。 この作品は一般向けに書かれており、arXiv:2101.05370[quant-ph]で最初に提案された提案に基づいている。

We propose a mechanism for quantum entanglement. The key ingredient is the familiar statistical phenomenon of collider bias, or Berkson's bias. In the language of causal models a collider is a variable causally influenced by two or more other variables. Conditioning on a collider typically produces non-causal associations between its contributing causes, even if they are actually independent. It is easy to show that this phenomenon can produce associations analogous to Bell correlations, in suitable post-selected ensembles. It is also straightforward that such collider artefacts may become real connections, resembling causality, if a collider is 'constrained' (e.g., by a future boundary condition). We consider the time-reversed analogues of these points in the context of retrocausal models of QM. Retrocausality yields a collider at the source of an EPR-Bell particle pair, and in this case constraint of the collider is possible by normal methods of experimental preparation. It follows that connections resembling causality may be expected to emerge across such colliders, from one branch of the experiment to the other. Our hypothesis is that this constrained retrocausal collider bias is the origin of entanglement. The piece is written for a general audience, and is based on a suggestion first made in arXiv:2101.05370 [quant-ph].
翻訳日:2023-01-09 16:11:49 公開日:2022-12-22
# ハイゼンベルク対共変文字列

Heisenberg versus the Covariant String ( http://arxiv.org/abs/2212.07256v2 )

ライセンス: Link先を確認
Norbert Dragon and Florian Oppermann(参考訳) 質量固有状態の Poincar\'e 多重項 $(P^2 - m^2)\Psi = 0$ は、D$-ベクトル位置作用素 $X=(X_0,\dots X_{D-1})$: ハイゼンベルク代数 $[P^m, X_n] = i \delta^m{}_n$ を持つ空間の部分空間ではない。 結果はストーン=ヴォン・ノイマンの定理と一致する。 量子論において、連続スペクトルの部分多様体への制約は、ディラックの対応する古典的制約に対する処理が一貫した対応する量子モデルを持つシンプレクティック部分多様体を定義するとしても、0$ となる。 そのヒルベルト空間は、制約のない理論の部分空間ではない。 我々の議論は、質量倍数、物理的状態、補体の直交和に作用する共変量子弦にも適用される。 各質量多重項は消滅するので、共変量子列は物理的粒子を持たない。 この結果は以前の知識を前進させ、弦理論を推進していないにもかかわらず科学的進歩に寄与する。

A Poincar\'e multiplet of mass eigenstates $(P^2 - m^2)\Psi = 0$ is not a subspace of a space with a $D$-vector position operator $X=(X_0,\dots X_{D-1})$: the Heisenberg algebra $[P^m, X_n] = i \delta^m{}_n$ implies by a back-of-the-envelope-calculation that the multiplet vanishes. The result chimes with the Stone-von Neumann theorem. In a quantum theory the constraint of a continuous spectrum to a submanifold yields $0$ even if Dirac's treatment of the corresponding classical constraint defines a symplectic submanifold with a consistent corresponding quantum model. Its Hilbert space is not a subspace of the unconstrained theory. Our arguments apply also to the covariant quantum string, which acts on an orthogonal sum of mass multiplets, the physical states, and a complement. Each mass multiplet vanishes, so the covariant quantum string has no physical particles. This result advances previous knowledge and contributes to scientific progress even though it does not promote string theory.
翻訳日:2023-01-09 16:10:51 公開日:2022-12-22
# 基底状態生成アルゴリズムを拒絶する時

When to Reject a Ground State Preparation Algorithm ( http://arxiv.org/abs/2212.09492v2 )

ライセンス: Link先を確認
Katerina Gratsea, Chong Sun and Peter D. Johnson(参考訳) 近年、化学や材料における基底状態エネルギー推定(GSEE)のための量子アルゴリズムの研究が盛んに行われている。 多くのヒューリスティックで非ヒューリスティックな手法が開発されていることから、最終的にどの組み合わせが実際に使用されるかを評価することは困難である。 ユーティリティを評価するための重要な指標は、ランタイムです。 ほとんどのGSEEアルゴリズムでは、ランタイムは基底状態準備(GSP)メソッドに依存する。 GSEE法とGSP法の様々な組み合わせの有用性を評価するために,GSP法がHartree-Fock状態などの参照手法でどの条件で受け入れられるかを質問した。 GSEE の目的のために GSP 法を受理又は拒絶するための基準を導入する。 我々は、水素原子のような小さな分子からジェリウムのようなより大きな系まで、異なる化学系での性能をベンチマークするために、ヒューリスティックスからアルゴリズムまで、様々なgsp法を検討し、数値シミュレーションを行う。 将来的には、このアプローチはある種のVQEアンサテイゼや他のヒューリスティックを放棄するために使われるかもしれない。 しかしこれまでのところ、VQEや低深度ブースターのような高価なヒューリスティックな手法の使用に対する証拠は得られていない。 この研究は、量子化学における量子優位を達成するための要件をさらに探究するための基礎となる。

In recent years substantial research effort has been devoted to quantum algorithms for ground state energy estimation (GSEE) in chemistry and materials. Given the many heuristic and non-heuristic methods being developed, it is challenging to assess what combination of these will ultimately be used in practice. One important metric for assessing utility is runtime. For most GSEE algorithms, the runtime depends on the ground state preparation (GSP) method. Towards assessing the utility of various combinations of GSEE and GSP methods, we asked under which conditions a GSP method should be accepted over a reference method, such as the Hartree-Fock state. We introduce a criteria for accepting or rejecting a GSP method for the purposes of GSEE. We consider different GSP methods ranging from heuristics to algorithms with provable performance guarantees and perform numerical simulations to benchmark their performance on different chemical systems, starting from small molecules like the hydrogen atom to larger systems like the jellium. In the future this approach may be used to abandon certain VQE ansatzes and other heursitics. Yet so far our findings do not provide evidence against the use of VQE and more expensive heuristic methods, like the low-depth booster. This work sets a foundation from which to further explore the requirements to achieve quantum advantage in quantum chemistry.
翻訳日:2023-01-09 07:51:18 公開日:2022-12-22
# アメーバによる高次元非エルミート皮膚効果の定式化

Amoeba formulation of the non-Hermitian skin effect in higher dimensions ( http://arxiv.org/abs/2212.11743v1 )

ライセンス: Link先を確認
Hong-Yi Wang, Fei Song and Zhong Wang(参考訳) 非エルミートスキン効果は、非エルミート系のエネルギーバンドを劇的に再認識し、つまり通常のブロッホバンド理論はその特性として根本的に不十分である。 ブリルアンゾーンの概念を一般化した非ブロッホバンド理論は、1つの空間次元における非エルミート系の研究に広く応用されている。 しかし、高次元への一般化は困難である。 ここでは,アメーバと呼ばれる自然幾何学的対象に基づいて,任意の空間次元における非エルミタンスキン効果と非ブロッホバンド理論の定式化を開発する。 我々の理論は、1次元を超えて非エルミート帯域を研究するための一般的な枠組みを提供する。 エネルギースペクトル、固有状態プロファイル、一般化されたブリルアンゾーンを含む非エルミートバンドの重要な量は、このアプローチから効率的に得ることができる。

The non-Hermitian skin effect dramatically reshapes the energy bands of non-Hermitian systems, meaning that the usual Bloch band theory is fundamentally inadequate as their characterization. The non-Bloch band theory, in which the concept of Brillouin zone is generalized, has been widely applied to investigate non-Hermitian systems in one spatial dimension. However, its generalization to higher dimensions has been challenging. Here, we develop a formulation of the non-Hermitian skin effect and non-Bloch band theory in arbitrary spatial dimensions, which is based on a natural geometrical object known as the amoeba. Our theory provides a general framework for studying non-Hermitian bands beyond one dimension. Key quantities of non-Hermitian bands, including the energy spectrum, eigenstates profiles, and the generalized Brillouin zone, can be efficiently obtained from this approach.
翻訳日:2023-01-09 07:15:17 公開日:2022-12-22
# 任意の空間次元におけるディラック方程式の次元還元

Dimensional reduction of the Dirac equation in arbitrary spatial dimensions ( http://arxiv.org/abs/2212.11965v1 )

ライセンス: Link先を確認
Davide Lonigro, Rocco Maggi, Giuliano Angelone, Elisa Ercolessi, Paolo Facchi, Giuseppe Marmo, Saverio Pascazio, Francesco V. Pepe(参考訳) 空間次元の任意の数を持つミンコフスキー時空で定式化されたディラック理論の次元還元の一般性について検討する。 これは、加法空間座標に沿って一様である高次元理論の特殊化として低次元理論を導出するアダマールの降下法を適用することによってなされる。 ディラック方程式は、高次元多様体が偶数次元か奇数空間次元かによって、1つのディラック方程式か2つのデカップリングディラック方程式に還元される。 さらに,この手順が明示され,反復が容易な表現の明示的な階層を構築し,議論する。

We investigate the general properties of the dimensional reduction of the Dirac theory, formulated in a Minkowski spacetime with an arbitrary number of spatial dimensions. This is done by applying Hadamard's method of descent, which consists in conceiving low-dimensional theories as a specialization of high-dimensional ones that are uniform along the additional space coordinate. We show that the Dirac equation reduces to either a single Dirac equation or two decoupled Dirac equations, depending on whether the higher-dimensional manifold has even or odd spatial dimensions, respectively. Furthermore, we construct and discuss an explicit hierarchy of representations in which this procedure becomes manifest and can easily be iterated.
翻訳日:2023-01-09 07:00:22 公開日:2022-12-22
# 量子ガス顕微鏡における単一サイト再構成のための教師なし深層学習アルゴリズム

An unsupervised deep learning algorithm for single-site reconstruction in quantum gas microscopes ( http://arxiv.org/abs/2212.11974v1 )

ライセンス: Link先を確認
Alexander Impertro, Julian F. Wienand, Sophie H\"afele, Hendrik von Raven, Scott Hubele, Till Klostermann, Cesar R. Cabrera, Immanuel Bloch, Monika Aidelsburger(参考訳) 量子ガス顕微鏡実験では, 物理観測物の正確な抽出には, サイト分解格子占有率を高い忠実度で再構成することが不可欠である。 短い原子間分離と限られた信号対雑音比では、この課題はますます困難になる。 格子間隔が画像解像度の半分以下になるにつれて, 共通手法の性能は急速に低下した。 本稿では,深部畳み込みニューラルネットワークに基づく新しいアルゴリズムを提案する。 このアルゴリズムは、実験的な蛍光画像を用いて教師なしの方法で直接訓練することができ、数千の格子サイトを含む大きな画像の高速再構成を可能にする。 格子定数383.5\,$nm、典型的なレイリー分解能850\,$nmの短間隔光学格子を用いるセシウム原子を用いた量子ガス顕微鏡を用いて、その性能をベンチマークする。 統計的解析により,全ての充填物に対して有望な復元フィドリティ~$\gtrsim 96\%$を得る。 このアルゴリズムは、格子間隔を短くすることで新しい実験を可能にし、低分解能撮像システムの読み出し精度と速度を高め、さらにトラップイオンなどの関連する実験にも適用できると予想する。

In quantum gas microscopy experiments, reconstructing the site-resolved lattice occupation with high fidelity is essential for the accurate extraction of physical observables. For short interatomic separations and limited signal-to-noise ratio, this task becomes increasingly challenging. Common methods rapidly decline in performance as the lattice spacing is decreased below half the imaging resolution. Here, we present a novel algorithm based on deep convolutional neural networks to reconstruct the site-resolved lattice occupation with high fidelity. The algorithm can be directly trained in an unsupervised fashion with experimental fluorescence images and allows for a fast reconstruction of large images containing several thousand lattice sites. We benchmark its performance using a quantum gas microscope with cesium atoms that utilizes short-spaced optical lattices with lattice constant $383.5\,$nm and a typical Rayleigh resolution of $850\,$nm. We obtain promising reconstruction fidelities~$\gtrsim 96\%$ across all fillings based on a statistical analysis. We anticipate this algorithm to enable novel experiments with shorter lattice spacing, boost the readout fidelity and speed of lower-resolution imaging systems, and furthermore find application in related experiments such as trapped ions.
翻訳日:2023-01-09 07:00:04 公開日:2022-12-22
# アンドレエフ境界状態の非局所輸送シグネチャ

Nonlocal transport signatures of Andreev bound states ( http://arxiv.org/abs/2212.12068v1 )

ライセンス: Link先を確認
Andreas P\"oschl(参考訳) 本稿では,分子ビームエピタキシー成長InAs半導体とその場成長したエピタキシャルAl膜を用いた量子デバイスについて検討した。 スピン軌道結合、ゼーマン効果、超伝導近接効果の存在により、半導体ナノワイヤの低温で発生する境界状態の研究を可能にする新しいデバイスジオメトリが実現された。 ゲート定義ナノワイヤを用いた2次元ヘテロ構造およびal全殻気液固形ナノワイヤの試作実験を行った。 ナノワイヤの複数箇所でトンネル分光を可能にするデバイスと実験方法が開発された。 アンドレフ境界状態の非局所伝導輸送測定結果について述べる。 その拡張波動関数のため、量子ドットで局所的にハイブリダイズされた境界状態は、隣り合う測定箇所でトンネル分光法の特徴的特徴を示す。 隣り合うトンネル測定位置間の距離が0.8$\mathrm{\mu m}$より大きい場合、拡張された境界状態のシグネチャは観測されない。

In this PhD thesis, quantum devices based on molecular-beam epitaxy grown InAs semiconductor with an in-situ grown epitaxial Al film were investigated. Novel device geometries were realized that allow for the study of bound states that emerge at low temperatures in semiconducting nanowires due to the presence of spin-orbit coupling, Zeeman effect, and superconducting proximity effect. Experiments utilizing either gate-defined nanowires in two-dimensional heterostructures or vapor-liquid-solid grown nanowires with a full-shell of Al are presented. Devices and experimental methods were developed that allow for tunneling spectroscopy at multiple locations of a nanowire. Results of nonlocal conductance transport measurements of Andreev bound states are discussed. Due to their extended wavefunction, bound states that are locally hybridized with a quantum dot show characteristic signatures in tunneling spectroscopy at neighboring measurement locations. If the distance between neighboring tunneling measurement locations is larger than 0.8 $\mathrm{\mu m}$ no signatures of extended bound states was observed.
翻訳日:2023-01-09 06:59:34 公開日:2022-12-22
# 理想量子気体の熱力学幾何学--BEC強化熱エンジンの一般的な枠組みと幾何学図

Thermodynamic geometry of ideal quantum gases: a general framework and a geometric picture of BEC-enhanced heat engines ( http://arxiv.org/abs/2212.12076v1 )

ライセンス: Link先を確認
Joshua Eglinton, Tuomas Pyharanta, Keiji Saito and Kay Brandner(参考訳) 熱力学幾何学は、外部制御パラメータの遅い変化によって駆動されるメソスケールおよびマイクロスケールシステムの熱力学過程を記述する物理的に透明な枠組みを提供する。 熱機械の周期駆動に着目し,この枠組みを理想的な量子気体に拡張する。 この目的のために, 大カノニカルアンサンブルを用いて化学ポテンシャルを介して平均粒子数を固定することにより標準粒子をモデル化する平衡物理学の標準的なアプローチが, 熱力学的に一貫した方法で低速駆動系に拡張可能であることを示す。 我々の理論の鍵となる応用として、リンドブラッド型量子マスター方程式を用いて、調和に閉じ込められたボース気体を用いて量子多体エンジンの力学モデルを構築する。 本研究の結果は, 従来, 可逆モデルに基づいて予測されていたBEC誘起パワー向上の幾何学的図形(ニューJ. Phys. 24, 025001 (2022)]を提供する。 従来から導出されたパワーと効率のトレードオフ関係をベンチマークとして用いた結果,Bose-Gasエンジンはシングルボディエンジンのコレクションよりも効率が大幅に向上することを示した。 私たちの研究は、量子多体効果が熱機械の性能に与える影響を体系的に評価できる、より一般的な熱力学フレームワークへの道を開くものです。

Thermodynamic geometry provides a physically transparent framework to describe thermodynamic processes in meso- and micro-scale systems that are driven by slow variations of external control parameters. Focusing on periodic driving for thermal machines, we extend this framework to ideal quantum gases. To this end, we show that the standard approach of equilibrium physics, where a grand-canonical ensemble is used to model a canonical one by fixing the mean particle number through the chemical potential, can be extended to the slow driving regime in a thermodynamically consistent way. As a key application of our theory, we use a Lindblad-type quantum master equation to work out a dynamical model of a quantum many-body engine using a harmonically trapped Bose gas. Our results provide a geometric picture of the BEC-induced power enhancement that was previously predicted for this type of engine on the basis of an endoreversible model [New J. Phys. 24, 025001 (2022)]. Using an earlier derived universal trade-off relation between power and efficiency as a benchmark, we further show that the Bose-gas engine can deliver significantly more power at given efficiency than an equally large collection of single-body engines. Our work paves the way for a more general thermodynamic framework that makes it possible to systematically assess the impact of quantum many-body effects on the performance of thermal machines.
翻訳日:2023-01-09 06:59:08 公開日:2022-12-22
# 香港-奥羽-マンデル干渉による量子カーネル評価

Quantum Kernel Evaluation via Hong-Ou-Mandel Interference ( http://arxiv.org/abs/2212.12083v1 )

ライセンス: Link先を確認
Cassandra Bowie, Sally Shrapnel, Michael Kewming(参考訳) 量子コンピューティングにおける最も急速に成長している分野の1つは、機械学習手法の適用と統合である。 量子機械学習における最も一般的な応用の1つは量子カーネル法である。 2つの量子状態の重なりを測定する必要があるため、量子カーネルの評価は実験的に難しい。 本稿では,時間符号化光子とhong-ou-mandel(hom)干渉を用いたカーネル評価の実験的応用を提案する。 本手法の完全な記述を行い,カーネル平均埋め込みと最大平均整合性を組み合わせて効率よく符号化データの分類を行うことを示す。

One of the fastest growing areas of interest in quantum computing is its application to, and unification with machine learning methods. One of the most popular applications in quantum machine learning methods are quantum kernels methods. Evaluating quantum kernels can be experimentally difficult as it requires measuring the overlap of two quantum states. In this article we propose an experimentally realisable application of kernel evaluation using temporally encoded photons and Hong-Ou-Mandel (HOM) interference. We present a complete description of this method and show that it can be combined with kernel mean embedding and maximum mean discrepancy to efficiently classify encoded data.
翻訳日:2023-01-09 06:58:41 公開日:2022-12-22
# 極低温における高安定で完全可変な開放型マイクロキャビティプラットフォーム

A highly stable and fully tunable open microcavity platform at cryogenic temperatures ( http://arxiv.org/abs/2212.11601v1 )

ライセンス: Link先を確認
Maximilian Pallmann, Timon Eichhorn, Julia Benedikter, Bernardo Casabone, Thomas H\"ummer, David Hunger(参考訳) オープンアクセスマイクロキャビティは、固体量子系とナノ系の光物質相互作用を強化する強力なツールであり、量子技術における先進的な応用の鍵となる。 この目的のために、キャビティは、材料の空間的およびスペクトル的不均一性に対処するための完全なチューナビリティと、共鳴条件を維持するために低温環境での運用中の最高安定性の2つの相反する要件を同時に満たすべきである。 この課題に対処するため,我々は,閉サイクルクライオスタットにおける騒音レベルの増加下でも動作可能な,完全可変でオープンアクセス可能なファイバベースのファブリ・パウエルトマイクロキャビティプラットフォームを開発した。 カスタムデザインのモノリシックなマイクロ・ナノ配置素子を最大mmの走行範囲で構成し、クローズドサイクルクライオスタットでわずか15 pm rms、静かなフロークライオスタットで5 pmの低温でパッシブキャビティ長安定性を達成する。 これは能動安定化によりさらに改善することができ、閉サイクル冷凍機の静寂相中に0:8 pm rmsのキャビティミラー間の直接の機械的接触によりさらに高い安定性が得られる。 このプラットフォームは、高精細で小さなモードの体積を持つ低温キャビティの操作を提供し、光-物質相互作用を強力に強化し、様々な量子およびナノ材料の実験のための新しい可能性を開く。

Open-access microcavities are a powerful tool to enhance light-matter interactions for solid-state quantum and nano systems and are key to advance applications in quantum technologies. For this purpose, the cavities should simultaneously meet two conflicting requirements - full tunability to cope with spatial and spectral inhomogeneities of a material, and highest stability under operation in a cryogenic environment to maintain resonance conditions. To tackle this challenge, we have developed a fully-tunable, open-access, fiber-based Fabry-P\'erot microcavity platform which can be operated also under increased noise levels in a closed-cycle cryostat. It comprises custom-designed monolithic micro- and nanopositioning elements with up to mm-scale travel range that achieve a passive cavity length stability at low temperature of only 15 pm rms in a closed-cycle cryostat, and 5 pm in a more quiet flow cryostat. This can be further improved by active stabilization, and even higher stability is obtained under direct mechanical contact between the cavity mirrors, yielding 0:8 pm rms during the quiet phase of the closed-cycle cryo cooler. The platform provides operation of cryogenic cavities with high finesse and small mode volume for strong enhancement of light-matter interactions, opening up novel possibilities for experiments with a great variety of quantum and nano materials.
翻訳日:2023-01-09 06:51:11 公開日:2022-12-22
# 強磁性粒子の平面磁気ポールトラップ

Planar Magnetic Paul Traps for Ferromagnetic Particles ( http://arxiv.org/abs/2212.11622v1 )

ライセンス: Link先を確認
Maxime Perdriat, Cl\'ement Pellet-Mary, Thomas Copie, Gabriel H\'etet(参考訳) 本研究では,強磁性粒子の交互磁場によるトラップについて検討し,平面トラップ測地に着目した。 まず、回転する磁力に基づいてミリサイズの磁力を持つ磁力ポールトラップの設計と特徴付けを行う。 2対の永久磁石と対極を持つ物理的に回転するプラットフォームを用いて,トラップより1cm上の強磁性体の安定トラッピングを示し,粒子形状がトラッピングにおいて重要な役割を担っていることを示す。 最後に,強磁性微粒子を用いたジャイロ磁気効果の研究への道を開くチップトラップ設計を提案する。

We present a study on the trapping of hard ferromagnetic particles using alternating magnetic fields, with a focus on planar trap geometries. First, we realize and characterize a magnetic Paul trap design for millimeter-size magnets based on a rotating magnetic potential. Employing a physically rotating platform with two pairs of permanent magnets with opposite poles, we show stable trapping of hard ferromagnets a centimeter above the trap and demonstrate that the particle shape plays a critical role in the trapping. Finally, we propose a chip trap design that will open a path to studies of gyromagnetic effects with ferromagnetic micro-particles.
翻訳日:2023-01-09 06:50:43 公開日:2022-12-22
# p$波ユニタリ極限近傍の非エルミート位相フェルミ超流動

Non-Hermitian topological Fermi superfluid near the $p$-wave unitary limit ( http://arxiv.org/abs/2212.11633v1 )

ライセンス: Link先を確認
Hiroyuki Tajima, Yuta Sekino, Daisuke Inotani, Akira Dohi, Shigehiro Nagataki, Tomoya Hayata(参考訳) 二極緩和に伴う2体損失を伴う1次元フェルミ気体のp$-wave feshbach共鳴付近における非ヘルミ的超流動相転移について理論的に考察する。 発散する$p$波散乱長における普遍熱力学、消滅する化学ポテンシャルにおける位相的位相遷移、非エルミート的バルデン=クーパー=シュリーファー(BCS)からボース=アインシュタイン凝縮(BEC)遷移など、様々な非自明な性質間の相互作用を統一的に探求する機会を与える。 BCS 相において、損失誘起超流動-正規遷移は、非エルミート的ハミルトニアンに例外点が現れるときに起こる。 BEC相では、拡散性ギャップレスモードは超流動状態の不安定性の前駆体とみなすことができる。 さらに,超流動状態は位相相転移点付近の2体損失に対して脆弱であることを示す。

We theoretically discuss the non-Hermitian superfluid phase transition in one-dimensional two-component Fermi gases near the $p$-wave Feshbach resonance accompanied by the two-body loss associated with the dipolar relaxation. For the first time we point out that this system gives us an opportunity to explore the interplay among various non-trivial properties such as universal thermodynamics at divergent $p$-wave scattering length, topological phase transition at vanishing chemical potential, and non-Hermitian Bardeen-Cooper-Schrieffer(BCS) to Bose-Einstein condensate (BEC) transition, in a unified manner. In the BCS phase, the loss-induced superfluid-normal transition occurs when the exceptional point appears in the effective non-Hermitian Hamiltonian. In the BEC phase, the diffusive gapless mode can be regarded as a precursor of the instability of the superfluid state. Moreover, we show that the superfluid state is fragile against the two-body loss near the topological phase transition point.
翻訳日:2023-01-09 06:50:34 公開日:2022-12-22
# チャンネルシミュレーション:有限ブロック長と放送チャンネル

Channel Simulation: Finite Blocklengths and Broadcast Channels ( http://arxiv.org/abs/2212.11666v1 )

ライセンス: Link先を確認
Michael X. Cao, Navneeth Ramakrishnan, Mario Berta, Marco Tomamichel(参考訳) 本研究では,有限ブロック長系における共通ランダム性支援下でのチャネルシミュレーションについて検討し,スムーズなチャネル最大値情報を線形プログラムとして同定する。 このワンショットの逆は、符号なし補助符号を用いて正確に達成でき、ほぼランダム性支援符号を用いて達成できることを示す。 したがって、我々のワンショット・コンバースは、チャネル符号化の相補的な問題において、有名なメタコンバースと類似の役割を果たす。 我々は離散的メモリレスチャネルのシミュレーションコストの限界を漸近的に拡大し、第2次および適度な偏差率の増大に繋がる。 これらは、ノイズチャネル符号化から知られているチャネル容量とチャネル分散の観点で表すことができる。 我々の境界は、一つのチャネルの最適な漸近的な1次速度が、共通のランダム性支援の下で他のチャネルをシミュレートするという事実を、それぞれの容量の比で示している。 さらに、我々の高次漸近拡大は、この可逆性が二階に分解されることを示している。 この技術は、離散的なメモリレス放送チャネルにも拡張できる。 放送チャンネルキャパシティ問題とは対照的に、共通ランダム性支援下での放送チャンネルシミュレーションの逆問題により、チャンネルのマルチパーティの相互情報の観点から、漸近的レート領域の効率よく計算可能なシングルレター特性が得られることを示す。 レート領域を効率的に計算するためにblahut-arimoto型アルゴリズムを提案する。 このことは、放送チャンネルのキャパシティの標準的境界と共に、共通のランダム性支援下でのチャネル間変換が漸近的に不可逆であることを示唆する。

We study channel simulation under common randomness-assistance in the finite-blocklength regime and identify the smooth channel max-information as a linear program one-shot converse on the minimal simulation cost for fixed error tolerance. We show that this one-shot converse can be achieved exactly using no-signaling assisted codes, and approximately achieved using common randomness-assisted codes. Our one-shot converse thus takes on an analogous role to the celebrated meta-converse in the complementary problem of channel coding. We asymptotically expand our bounds on the simulation cost for discrete memoryless channels, leading to the second-order as well as the moderate deviation rate expansion. These can be expressed in terms of the channel capacity and channel dispersion known from noisy channel coding. Our bounds then imply the well-known fact that the optimal asymptotic first-order rate of one channel to simulate another under common randomness-assistance is given by the ratio of their respective capacities. Additionally, our higher-order asymptotic expansion shows that this reversibility falls apart in second-order. Our techniques extend to discrete memoryless broadcast channels. In stark contrast to the elusive broadcast channel capacity problem, we show that the reverse problem of broadcast channel simulation under common randomness-assistance allows for an efficiently computable single-letter characterization of the asymptotic rate region in terms of the channel's multi-partite mutual information. We present an Blahut-Arimoto type algorithm to compute the rate region efficiently. This finding together with standard bounds on the broadcast channel capacity then imply that channel inter-conversion under common randomness-assistance is asymptotically irreversible.
翻訳日:2023-01-09 06:50:14 公開日:2022-12-22
# 任意距離における完全状態移動

Perfect State Transfer in Arbitrary Distance ( http://arxiv.org/abs/2212.11699v1 )

ライセンス: Link先を確認
Supriyo Dutta(参考訳) 量子完全状態転送(quantum perfect state transfer, pst)は、ネットワーク内の量子通信の基本的なツールである。 珍しい現象と考えられている。 PSTの元々の考え方は、連続時間量子ウォークの基本に依存する。 3つの頂点を持つパスグラフは、PSTを許す。 本稿ではマルコフ量子ウォークに基づいて,PSTの極めて強力な手法を紹介する。 任意の長さの経路グラフの極端頂点間のpstを確立する。 さらに、$j$ と $n - j - 1$ の任意の頂点対は、$n$ の経路グラフにおいて、PST for $0 \leq j < \frac{n - 1}{2}$ を許す。 また、4ドル以上の頂点を持つサイクルグラフは、連続時間量子ウォークに基づいてpstを許可しない。 対照的に、我々は2m$の頂点を持つサイクルグラフにおいて、j = 0, 1, \dots (m - 1)$ に対して、2つの頂点の対である$j$ と $j + m$ の間のマルコフ量子ウォークに基づいてpstを確立する。

Quantum Perfect State Transfer (PST) is a fundamental tool of quantum communication in a network. It is considered a rare phenomenon. The original idea of PST depends on the fundamentals of the continuous-time quantum walk. A path graph with at most three vertices allows PST. Based on the Markovian quantum walk, we introduce a significantly powerful method for PST in this article. We establish PST between the extreme vertices of a path graph of arbitrary length. Moreover, any pair of vertices $j$ and $n - j - 1$ in a path graph with $n$ vertices allow PST for $0 \leq j < \frac{n - 1}{2}$. Also, no cycle graph with more than $4$ vertices does not allow PST based on the continuous-time quantum walk. In contrast, we establish PSTs based on Markovian quantum walk between the pair of vertices $j$ and $j + m$ for $j = 0, 1, \dots (m - 1)$ in a cycle graph with $2m$ vertices.
翻訳日:2023-01-09 06:49:49 公開日:2022-12-22
# 共鳴価結合状態の分離性と絡み合い

Separability and entanglement of resonating valence-bond states ( http://arxiv.org/abs/2212.11740v1 )

ライセンス: Link先を確認
Gilles Parez, Cl\'ement Berthiere, William Witczak-Krempa(参考訳) 我々はロクサー・キヴェルソン状態(RK)と共鳴価結合状態(RVB)の分離性と絡み合いについて検討した。 これらの状態は、物質と量子スピン液体の量子臨界状態を記述することができるため、凝縮物質物理学において重要な役割を果たす。 任意のタイル状グラフ上の二量体 RK 状態に対して、2つの非連結部分系の還元密度行列の正確な分離性を証明する。 より一般的な局所的制約を持つRK状態に対しては、熱力学極限における分離性を主張し、密度行列が正確に分離可能でない場合でも、任意の局所的RK状態が対数否定性を持たないことを示す。 隣接するサブシステムの場合、基礎となる統計モデルの分割関数の観点から対数否定性の正確な式が見つかる。 RVB状態の場合、分離性は2つのサブシステム間の距離$d$で指数関数的に小さく、対数否定性は$d$で指数関数的に抑制される。 任意の小さな比$d/L$であっても、分離性はスケーリングの限界を保ち、$L$はサブシステムの特性サイズである。

We investigate separability and entanglement of Rokhsar-Kivelson (RK) states and resonating valence-bond (RVB) states. These states play a prominent role in condensed matter physics, as they can describe quantum critical states of matter and quantum spin liquids, depending on their underlying lattices. For dimer RK states on arbitrary tileable graphs, we prove the exact separability of the reduced density matrix of two disconnected subsystems, implying the absence of entanglement between the two subsystems. For more general RK states with local constraints, we argue separability in the thermodynamic limit, and show that any local RK state has zero logarithmic negativity, even if the density matrix is not exactly separable. In the case of adjacent subsystems, we find an exact expression for the logarithmic negativity in terms of partition functions of the underlying statistical model. For RVB states, we show separability for disconnected subsystems up to exponentially small terms in the distance $d$ between the two subsystems, and that the logarithmic negativity is exponentially suppressed with $d$. We argue that separability does hold in the scaling limit, even for arbitrarily small ratio $d/L$, where $L$ is the characteristic size of the subsystems.
翻訳日:2023-01-09 06:49:33 公開日:2022-12-22
# 一般化デコレーショングラフ上のAKLTモデルに対する非消滅スペクトルギャップ

A Nonvanishing Spectral Gap for AKLT Models on Generalized Decorated Graphs ( http://arxiv.org/abs/2212.11872v1 )

ライセンス: Link先を確認
Angelo Lucia, Amanda Young(参考訳) 単純連結グラフの装飾版上で定義される aklt モデルのスペクトルギャップ問題を考える。 この装飾グラフのクラスは、$g$ のすべての辺を $n$ のサイト列に置き換えることで定義され、特に装飾された多次元格子を含む。 Abdul-Rahman氏らの研究によるTensor Network States(TNS)アプローチの利用。 2020年現在, 装飾パラメータが最大頂点度の線形関数よりも大きい場合, 装飾モデルは基底状態エネルギー以上のスペクトルギャップを有することが証明されている。

We consider the spectral gap question for AKLT models defined on decorated versions of simple, connected graphs G. This class of decorated graphs, which are defined by replacing all edges of $G$ with a chain of $n$ sites, in particular includes any decorated multi-dimensional lattice. Using the Tensor Network States (TNS) approach from a work by Abdul-Rahman et. al. 2020, we prove that if the decoration parameter is larger than a linear function of the maximal vertex degree, then the decorated model has a nonvanishing spectral gap above the ground state energy.
翻訳日:2023-01-09 06:49:10 公開日:2022-12-22
# グループ独身車としてのマヨアナ・スカーズ

Majorana Scars as Group Singlets ( http://arxiv.org/abs/2212.11914v1 )

ライセンス: Link先を確認
Z. Sun, F.K. Popov, I.R. Klebanov, K. Pakrouski(参考訳) いくつかの量子多体系では、ヒルベルト空間は大きなエルゴードセクタとより小さいスカー部分空間に分解される。 arxiv:2007.00845] 二つのセクタは、系の大きさで階数が大きくなる大きな群の下での変換特性によって区別される可能性がある(ハミルトニアンの対称性ではない)。 量子多体傷はこの群の下で不変であるが、他の全ての状態は不変である。 ここでは、このアイデアを、サイトごとに$M$Majorana fermionsを含む$N$サイトを持つ格子系に適用する。 ヒルベルト空間は${\text{SO}}(N)\times {\text{SO}}(M)$ groupの作用の下で分解され、傷跡は$ {\text{SO}}(N)$ singletsである。 たとえ100万ドルでも、傷跡の家族は2つある。 それらのうちの1つは、$\eta$状態と呼ばれ、反射を含む群 O$(N)$ の下で対称である。 もう1つは$\zeta$状態であり、$ {\text{SO}}(N)$不変量のみを持つ。 m=4$ では、我々の構成が局所的な相互作用を持つ変形した $ {\text{su}}(2)$ hubbard chain に還元される場合、前者は $n+1$ $\eta$-pairing 状態であり、後者は最大スピンの $n+1$ 状態である。 我々はこの構成を$M>4$に一般化する。 M=6$の場合、スカー状態の明示的な公式を示し、二部分エンタングルメントエントロピーを解析的に計算する。 大きなn$の場合、地域規模で対数的に成長する。 一般的に、それぞれの家族内の傷跡のエネルギーは等しくない。 M>6$ の場合、局所ハミルトン群は典型的にはある種の退化を持つ。

In some quantum many-body systems, the Hilbert space breaks up into a large ergodic sector and a much smaller scar subspace. It has been suggested [arXiv:2007.00845] that the two sectors may be distinguished by their transformation properties under a large group whose rank grows with the system size (it is not a symmetry of the Hamiltonian). The quantum many-body scars are invariant under this group, while all other states are not. Here we apply this idea to lattice systems with $N$ sites that contain $M$ Majorana fermions per site. The Hilbert space may be decomposed under the action of the ${\text{SO}}(N)\times {\text{SO}}(M)$ group, and the scars are the $ {\text{SO}}(N)$ singlets. For any even $M$ there are two families of scars. One of them, which we call the $\eta$ states, is symmetric under the group O$(N)$ that includes a reflection. The other, the $\zeta$ states, has the $ {\text{SO}}(N)$ invariance only. For $M=4$, where our construction reduces to a deformed $ {\text{SU}}(2)$ Hubbard chain with local interactions, the former family are the $N+1$ $\eta$-pairing states, while the latter are the $N+1$ states of maximum spin. We generalize this construction to $M>4$. For $M=6$ we exhibit explicit formulae for the scar states and use them to calculate the bipartite entanglement entropy analytically. For large $N$, it grows logarithmically with the region size. In general, the energies of the scars within each family are not equidistant. For $M>6$ we also find that the scars will local Hamiltonians typically have certain degeneracies.
翻訳日:2023-01-09 06:49:00 公開日:2022-12-22
# 光子を介するエンタングルメントによる原子アンサンブルのエンジニアリンググラフ状態

Engineering Graph States of Atomic Ensembles by Photon-Mediated Entanglement ( http://arxiv.org/abs/2212.11961v1 )

ライセンス: Link先を確認
Eric S. Cooper, Philipp Kunkel, Avikar Periwal, Monika Schleier-Smith(参考訳) グラフ状態は、量子計算と量子強調測定のための汎用的な資源である。 これらの生成は、量子系における絡み合いに対する高いレベルの制御を示す。 グラフのノードを構成する原子スピンアンサンブルの連続変数グラフ状態の生成について報告する。 エッジは絡み合い構造を表し、光空洞内の大域的な光子相互作用と局所スピン回転を組み合わせることでプログラムする。 2つの空間モードの絡み合いを調整することにより、各サブシステム内の相関関係を局所化するか、または、サブシステム間のアインシュタイン-ポドルスキー-ローゼンステアリングを可能にする。 さらに4モードの正方形グラフ状態を設計し,アプローチの柔軟性を強調した。 提案手法は,大規模で複雑なグラフに対して拡張性があり,測定に基づく量子計算と量子メトロジーにおける高度なプロトコルの基礎となる。

Graph states are versatile resources for quantum computation and quantum-enhanced measurement. Their generation illustrates a high level of control over entanglement in a quantum system. We report on the generation of continuous-variable graph states of atomic spin ensembles, which form the nodes of the graph. The edges represent the entanglement structure, which we program by combining global photon-mediated interactions in an optical cavity with local spin rotations. By tuning the entanglement of two spatial modes, we either localize correlations within each subsystem or enable Einstein-Podolsky-Rosen steering between subsystems. We further engineer a four-mode square graph state, highlighting the flexibility of our approach. Our method is scalable to larger and more complex graphs, laying groundwork for measurement-based quantum computation and advanced protocols in quantum metrology.
翻訳日:2023-01-09 06:48:25 公開日:2022-12-22
# 作用素緩和と古典的影の最適深さ

Operator relaxation and the optimal depth of classical shadows ( http://arxiv.org/abs/2212.11963v1 )

ライセンス: Link先を確認
Matteo Ippoliti, Yaodong Li, Tibor Rakovszky, Vedika Khemani(参考訳) 古典的影はランダム化測定を用いることで、サンプル効率の良い方法で量子状態の多くの性質を学習する強力な方法である。 ここでは,確率化ステップが可変深さ$t$の局所ユニタリ回路に作用する,最近提案されている古典影のバージョンである ``shallow shadows'' を用いて,ポーリ作用素の期待値を学ぶサンプル複雑性について検討する。 平均的な影ノルム(平均サンプルの複雑さを制御する量)は、演算子のランダム化( ``twirling''')回路の下でのハイゼンベルク時間発展の特性、すなわち演算子の非自明な作用部位の数を特徴付ける重み分布の進化で表されることを示す。 空間的に連続な k$ の作用素に対しては、作用素の拡散(作用素の支持が時間とともに増大し、その重みが増加する)と作用素の緩和(作用素の体積によって単位作用素の平衡密度が発達し、その重みが減少する)の2つの過程の競合が伴う。 この単純な絵から導き出す (i) 奥行き $t\sim \log(k)$ に対して任意の空間次元における$t=0$ プロトコルに対するサンプル複雑性の指数関数的な増加を保証する影ノルム上の上限 (ii) 平均場近似における一次元の定量的結果、例えば、最適深さへの普遍部分リード補正は、無限行列積状態の数値シミュレーションとよく一致することが判明した。 我々の研究は量子多体力学の基本的な考え方と量子情報科学の応用を結びつけ、量子状態の異なる性質を学ぶための高度に最適化されたプロトコルへの道を開く。

Classical shadows are a powerful method for learning many properties of quantum states in a sample-efficient manner, by making use of randomized measurements. Here we study the sample complexity of learning the expectation value of Pauli operators via ``shallow shadows'', a recently-proposed version of classical shadows in which the randomization step is effected by a local unitary circuit of variable depth $t$. We show that the state-averaged shadow norm (the quantity controlling the average sample complexity) is expressed in terms of properties of the Heisenberg time evolution of operators under the randomizing (``twirling'') circuit -- namely the evolution of the weight distribution characterizing the number of sites on which an operator acts nontrivially. For spatially-contiguous operators of weight $k$, this entails a competition between two processes: operator spreading (whereby the support of an operator grows over time, increasing its weight) and operator relaxation (whereby the bulk of the operator develops an equilibrium density of identity operators, decreasing its weight). From this simple picture we derive (i) an upper bound on the shadow norm which, for depth $t\sim \log(k)$, guarantees an exponential gain in sample complexity over the $t=0$ protocol in any spatial dimension, and (ii) quantitative results in one dimension within a mean-field approximation, including a universal subleading correction to the optimal depth, found to be in excellent agreement with infinite matrix product state numerical simulations. Our work connects fundamental ideas in quantum many-body dynamics to applications in quantum information science, and paves the way to highly-optimized protocols for learning different properties of quantum states.
翻訳日:2023-01-09 06:48:11 公開日:2022-12-22
# kane-meleモデルにおけるキラルおよび(ジェネリック)ヘリカルエッジ状態の明示的な導出:波動関数、分散関係、スピン回転に対する閉表現

Explicit derivation of the chiral and (generic) helical edge states for the Kane-Mele model: Closed expressions for the wave function, dispersion relation, and spin rotation ( http://arxiv.org/abs/2212.11520v1 )

ライセンス: Link先を確認
Fatemeh Rahmati, Mohsen Amini, Morteza Soltani, Mozhgan Sadeghizadeh(参考訳) トポロジカル絶縁体の最も重要な特徴の1つはエッジ状態の存在であるが、有名なトポロジカルモデルのエッジ状態に対する閉形式表現はいまだに欠けている。 ここでは、Rashba スピン軌道カップリングとなしの Kane-Mele モデルをよく知られたモデルとし、そのエッジ状態の性質を解析的に研究するための $\mathbb{Z}_2$ 位相絶縁体の二次元バージョンを記述する。 ジグザグ境界を持つハニカム格子上の強結合モデルを考慮し、摂動的アプローチを導入することにより、波動関数、エネルギー分散関係、および(一般的な)ヘリカルエッジ状態のスピン回転に対する明示的な表現を導出する。 この目的のために,まずリボン形状のエッジ状態を運動量依存エネルギーパラメータを持つ効果的な2脚ラダーモデルにマッピングする。 次に,システムのハミルトニアンを非摂動部分と摂動部分に分けた。 非摂動部分は、フラットバンドエネルギースペクトルを持ち、正確に解くことができ、ハミルトニアンの残りの部分を摂動的に考えることができる。 1次摂動におけるエネルギー分散関係は、驚くべきことに、非常に広範囲の波数に関する数値スペクトルとよく一致している。 摂動的枠組みはまた、ラシュバスピン軌道相互作用による軸方向スピン対称性がなければ、運動量エッジ状態のスピンの回転の明示的な形式を導出することができる。

While one of the most important and intriguing features of the topological insulators is the presence of edge states, the closed-form expressions for the edge states of some famous topological models are still lacking. Here, we focus on the Kane-Mele model with and without Rashba spin-orbit coupling as a well-known model to describe a two-dimensional version of the $\mathbb{Z}_2$ topological insulator to study the properties of its edge states analytically. By considering the tight-binding model on a honeycomb lattice with zigzag boundaries and introducing a perturbative approach, we derive explicit expressions for the wave functions, energy dispersion relations, and the spin rotations of the (generic) helical edge states. To this end, we first map the edge states of the ribbon geometry into an effective two-leg ladder model with momentum-dependent energy parameters. Then, we split the Hamiltonian of the system into an unperturbed part and a perturbation. The unperturbed part has a flat-band energy spectrum and can be solved exactly which allows us to consider the remaining part of the Hamiltonian perturbatively. The resulting energy dispersion relation within the first-order perturbation, surprisingly, is in excellent agreement with the numerical spectra over a very wide range of wavenumbers. Our perturbative framework also allows deriving an explicit form for the rotation of the spins of the momentum edge states in the absence of axial spin symmetry due to the Rashba spin-orbit interaction.
翻訳日:2023-01-09 06:38:29 公開日:2022-12-22
# 一般化ランガー補正と全標準ポテンシャルに対するWKBの実用性

Generalized Langer Correction and the Exactness of WKB for all Conventional Potentials ( http://arxiv.org/abs/2212.13118v1 )

ライセンス: Link先を確認
Asim Gangopadhyaya, Jonathan Bougie, Constantin Rasinariu(参考訳) 本稿では,翻訳形不変系のWKB量子化条件の正確性について検討する。 特に、超対称量子力学の定式化を用いて、ランガー補正を一般化し、従来のすべてのポテンシャルに対して正確な量子化条件を生成することを示す。

In this paper we investigate the exactness of the WKB quantization condition for translationally shape invariant systems. In particular, using the formalism of supersymmetric quantum mechanics, we generalize the Langer correction and show that it generates the exact quantization condition for all conventional potentials.
翻訳日:2023-01-09 06:30:40 公開日:2022-12-22
# 一般相対論的量子振動子場に及ぼすローレンツ対称性遮断環境の影響

Effects of Lorentz Symmetry Breaking Environment on Generalized Relativistic Quantum Oscillator Field ( http://arxiv.org/abs/2212.12426v1 )

ライセンス: Link先を確認
Faizuddin Ahmed(参考訳) 本稿では、テンソル場 $(k_f)_{\mu\nu\alpha\beta}$ out of the standard model extension (sme) で定義されるローレンツ対称性の破れの影響で一般化されたクライン・ゴルドン振動子方程式を考察する。 我々は、スカラー振動子の相対論的量子運動において、コーネル型電場と調和型中心ポテンシャルに寄与する線形磁場とのローレンツ振動効果のシナリオを考察する。 クーロンおよびコーネル型ポテンシャル形式関数を考慮したパラメトリックニキフォロフ-ウバロフ法による波動方程式の境界状態解を求める。 固有値解はランダウレベルと比較してローレンツ対称性破れ効果によって修正される(平坦空間におけるローレンツ・ヴァイオレーション効果なしで)。

In this paper, we study the generalized Klein-Gordon oscillator equation under the effects of the violation of Lorentz Symmetry defined by a tensor field $(K_F)_{\mu\nu\alpha\beta}$ out of the Standard Model Extension (SME). We consider a possible scenario of the Lorentz-Violating effects with a Cornell-type electric field and a linear magnetic field that contributes a harmonic-type central potential in the relativistic quantum motions of scalar oscillator fields. The bound-states solutions of the wave equation using the parametric Nikiforov-Uvarov method by considering a Coulomb and Cornell-type potential form functions are obtained. We see that the eigenvalue solutions get modified by the Lorentz symmetry-breaking effects in comparison to the Landau levels (without Lorentz-Violation effects in flat space)
翻訳日:2023-01-09 06:13:07 公開日:2022-12-22
# 平面内を移動する電子のハミルトニアンのユニタリ写像とコヒーレント状態構築

Unitary maps on Hamiltonians of an electron moving in a plane and coherent states construction ( http://arxiv.org/abs/2212.12446v1 )

ライセンス: Link先を確認
Isiaka Aremua and Laure Gouba(参考訳) 本研究では、一様外部磁場と電界下の平面内を移動する電子のモデルについて考察する。 我々は、関連する量子ハミルトニアンのユニタリ写像の作用を調査し、ガゼウ・クラウダー型のコヒーレントな状態を構築する。

In this work we consider a model of an electron moving in a plane under uniform external magnetic and electric fields. We investigate the action of unitary maps on the associated quantum Hamiltonians and construct the coherent states of Gazeau-Klauder type.
翻訳日:2023-01-09 06:12:34 公開日:2022-12-22
# 古典的禁止地域における粒子速度と長距離輸送

Particle velocities and long-range transport in classically forbidden regions ( http://arxiv.org/abs/2212.11575v1 )

ライセンス: Link先を確認
Jan Klaers, Violetta Sharoglazova, Chris Toebes(参考訳) 本研究では,2つの結合導波路電位系において,導波路間の物質移動が時計として効果的に作用し,粒子速度を決定できる粒子の運動について検討した。 反射電位でのトンネル現象へのこのスキームの適用は、古典的に禁止された運動に対するエネルギー-速度関係を明らかにし、古典的に禁止された長距離粒子輸送の存在を予測する。 我々の研究は、波動関数の密度勾配は真の量子力学タイプの運動を示すことを示唆している。

We study the motion of massive particles in a system of two coupled waveguide potentials, where the population transfer between the waveguides effectively acts as a clock and allows particle velocities to be determined. Application of this scheme to tunneling phenomena at a reflective step potential reveals an energy-velocity relationship for classically forbidden motion and predicts the existence of classically forbidden long-range particle transport. Our work suggests that density gradients in wave functions are indicative of a genuine quantum mechanical type of motion.
翻訳日:2023-01-09 06:04:54 公開日:2022-12-22
# 線形鎖に閉じ込められたスピン量子ビットのモジュラーナノ磁石設計

Modular nanomagnet design for spin qubits confined in a linear chain ( http://arxiv.org/abs/2212.11612v1 )

ライセンス: Link先を確認
Michele Aldeghi and Rolf Allenspach and Gian Salis(参考訳) オンチップマイクロマグネットは電子スピン量子ビット上で電気的に制御された量子ゲートを可能にする。 この概念を多数の量子ビットに拡張することは、十分な駆動勾配と個々のアドレナビリティを提供するという点で困難である。 本稿では,線形鎖に配置したスピン量子ビットを,鎖の横方向に強く拘束する設計について述べる。 ナノマグネットはキュービットチェーンの片側に横に配置され、2キュービットごとに1ナノマグネットが配置される。 個々の磁石はU字型であり、外磁場がクビット鎖に沿って印加された場合でも、磁気形状異方性はクビット鎖に対して交互に磁化を配向させる。 縦方向および横方向のストライフィールドコンポーネントは、アドレナビリティおよび駆動フィールドとして機能する。 マイクロ磁気シミュレーションを用いて, 駆動・デファスメント速度と対応する量子ビット品質係数を計算する。 この概念は、シリコン基板上に作製されたFeナノマグネットのスピン偏極走査電子顕微鏡で検証され、マイクロ磁気シミュレーションとよく一致している。 スケーラブルなスピン量子ビット設計に必要ないくつかの特徴は、強い駆動と弱い強調勾配、クロストークの低減、低い外部磁場での動作である。

On-chip micromagnets enable electrically controlled quantum gates on electron spin qubits. Extending the concept to a large number of qubits is challenging in terms of providing large enough driving gradients and individual addressability. Here we present a design aimed at driving spin qubits arranged in a linear chain and strongly confined in directions lateral to the chain. Nanomagnets are placed laterally to one side of the qubit chain, one nanomagnet per two qubits. The individual magnets are "U"-shaped, such that the magnetic shape anisotropy orients the magnetization alternately towards and against the qubit chain even if an external magnetic field is applied along the qubit chain. The longitudinal and transversal stray field components serve as addressability and driving fields. Using micromagnetic simulations we calculate driving and dephasing rates and the corresponding qubit quality factor. The concept is validated with spin-polarized scanning electron microscopy of Fe nanomagnets fabricated on silicon substrates, finding excellent agreement with micromagnetic simulations. Several features required for a scalable spin qubit design are met in our approach: strong driving and weak dephasing gradients, reduced crosstalk and operation at low external magnetic field.
翻訳日:2023-01-09 06:04:46 公開日:2022-12-22
# 強化学習による近似型自律量子誤差補正

Approximate Autonomous Quantum Error Correction with Reinforcement Learning ( http://arxiv.org/abs/2212.11651v1 )

ライセンス: Link先を確認
Yexiong Zeng, Zheng-Yang Zhou, Enrico Rinaldi, Clemens Gneiting, Franco Nori(参考訳) 自律的量子誤差補正(autonomous quantum error correction, aqec)は、設計された散逸によって論理量子ビットを保護する。 ボソニック符号空間は単一光子損失が主要なエラー源であり、その柔軟性と制御性のために aqec の候補として有望である。 既存の提案では、AQECがボソニックな符号空間で実現可能であることを示したが、これらのスキームは通常、Knill-Laflamme条件の正確な実装に基づいているため、ハミルトン距離を$d\geq 2$で実現する必要がある。 このようなハミルトン距離を実装するには、複数の非線形相互作用と制御場が必要である。 本稿では,ニールラフラム条件を緩和して近似 aqec のボソニック符号を提案する。 強化学習(RL)を用いて、Fock状態の$\vert 2\rangle$と$\vert 4\rangle$からなる最適なボソニックなコードワード(ここではRLコードで記述する)を同定する。 我々が示すように、rlコードは、近似的な性質にもかかわらず、単一光子損失を効果的に抑制し、断続的なしきい値を大きく超える効果的な減光プロセスに還元する。 したがって、完全なエラー保護に向けた価値あるビルディングブロックを提供するかもしれない。 エンジニアリングされた散逸をエミュレートするアシラシステムを含む誤り訂正ハミルトンは、ハミルトン距離$d=1$に基づいており、モデルの複雑さを著しく減少させる。 シングルキュービットゲートは、最大距離$d_g=2$のRL符号で実装される。

Autonomous quantum error correction (AQEC) protects logical qubits by engineered dissipation and thus circumvents the necessity of frequent, error-prone measurement-feedback loops. Bosonic code spaces, where single-photon loss represents the dominant source of error, are promising candidates for AQEC due to their flexibility and controllability. While existing proposals have demonstrated the in-principle feasibility of AQEC with bosonic code spaces, these schemes are typically based on the exact implementation of the Knill-Laflamme conditions and thus require the realization of Hamiltonian distances $d\geq 2$. Implementing such Hamiltonian distances requires multiple nonlinear interactions and control fields, rendering these schemes experimentally challenging. Here, we propose a bosonic code for approximate AQEC by relaxing the Knill-Laflamme conditions. Using reinforcement learning (RL), we identify the optimal bosonic set of codewords (denoted here by RL code), which, surprisingly, is comprised of the Fock states $\vert 2\rangle$ and $\vert 4\rangle$. As we show, the RL code, despite its approximate nature, successfully suppresses single-photon loss, reducing it to an effective dephasing process that well surpasses the break-even threshold. It may thus provide a valuable building block toward full error protection. The error-correcting Hamiltonian, which includes ancilla systems that emulate the engineered dissipation, is entirely based on the Hamiltonian distance $d=1$, significantly reducing model complexity. Single-qubit gates are implemented in the RL code with a maximum distance $d_g=2$.
翻訳日:2023-01-09 06:04:26 公開日:2022-12-22
# 第一原理からの固体常磁性欠陥におけるスピンフォノンデコヒーレンス

Spin-phonon decoherence in solid-state paramagnetic defects from first principles ( http://arxiv.org/abs/2212.11705v1 )

ライセンス: Link先を確認
Sourav Mondal and Alessandro Lunghi(参考訳) ダイヤモンドと六方晶窒化ホウ素の常磁性欠陥はスピンと光学的性質のユニークな組み合わせを持ち、原型的な固体量子ビットとなる。 これらのスピン量子ビットのコヒーレンスはスピンフォノン緩和によって著しく制限されているが、この過程の完全な理解はまだ得られていない。 本稿では, Ab initio spin dynamics シミュレーションをこの問題に適用し, スピン緩和時間とスピンコヒーレンス時間の実験的温度依存性を定量的に再現する。 ゼロフィールド分割の低周波2フォノン変調はスピン緩和とデコヒーレンスの原因となり、2次元材料における振動の性質をコヒーレンス時間の短縮の要因として指摘する。

Paramagnetic defects in diamond and hexagonal boron nitride possess a unique combination of spin and optical properties that make them prototypical solid-state qubits. Despite the coherence of these spin qubits being critically limited by spin-phonon relaxation, a full understanding of this process is not yet available. Here we apply ab initio spin dynamics simulations to this problem and quantitatively reproduce the experimental temperature dependence of spin relaxation time and spin coherence time. We demonstrate that low-frequency two-phonon modulations of the zero-field splitting are responsible for spin relaxation and decoherence, and point to the nature of vibrations in 2-dimensional materials as the culprit for their shorter coherence time.
翻訳日:2023-01-09 06:03:57 公開日:2022-12-22
# 組合せ最適化問題に対するゲート型量子計算における変分量子アルゴリズムの導入

An introduction to variational quantum algorithms on gate-based quantum computing for combinatorial optimization problems ( http://arxiv.org/abs/2212.11734v1 )

ライセンス: Link先を確認
Camille Grange (LIRMM), Michael Poss (LIRMM), Eric Bourreau (LIRMM)(参考訳) ノイズの多い中間規模量子コンピュータ(NISQ)が利用可能となり、多くの研究者が変分量子アルゴリズム(VQA)を実験する動機となった。 中でも量子近似最適化アルゴリズム(QAOA)は、組合せ最適化コミュニティによって研究されている最も人気のあるアルゴリズムの一つである。 本チュートリアルでは,変分量子アルゴリズムのクラスを数学的に記述し,それ以前の量子物理学の知識を読者に与えていないと仮定する。 量子側(パラメタライズド量子回路)と古典側(誘導関数,最適化器)におけるこれらのハイブリッドアルゴリズムの重要な側面を正確に紹介する。 我々はQAOAに特に注意を払って、そのアルゴリズムに関わる量子回路と、その可能な誘導関数によって満たされる特性を詳述した。 最後に、近年のQAOAに関する文献について論じ、いくつかの研究動向を紹介する。

Noisy intermediate-scale quantum computers (NISQ computers) are now readily available, motivating many researchers to experiment with Variational Quantum Algorithms (VQAs). Among them, the Quantum Approximate Optimization Algorithm (QAOA) is one of the most popular one studied by the combinatorial optimization community. In this tutorial, we provide a mathematical description of the class of Variational Quantum Algorithms, assuming no previous knowledge of quantum physics from the readers. We introduce precisely the key aspects of these hybrid algorithms on the quantum side (parametrized quantum circuit) and the classical side (guiding function, optimizer). We devote a particular attention to QAOA, detailing the quantum circuits involved in that algorithm, as well as the properties satisfied by its possible guiding functions. Finally, we discuss the recent literature on QAOA, highlighting several research trends.
翻訳日:2023-01-09 06:03:44 公開日:2022-12-22
# Floquetエンジニアリングによるソリトン列車の生成

Generating soliton trains through Floquet engineering ( http://arxiv.org/abs/2212.11904v1 )

ライセンス: Link先を確認
Pablo Blanco-Mas and Charles E. Creffield(参考訳) 光格子電位の存在下でパラボリックトラップに保持された超低温粒子の相互作用ガスについて検討した。 系を離散Gross-Pitaevskiiモデルとして扱うと、Floquet工学は格子を高速に'シェーキング'することで、ホッピングエネルギーの符号を反転させることで、系の基底状態が明るいソリトンに変換されることを示す。 生成したソリトンの数がどのようにシステムの非線形性やトラップの曲率に依存するかを調べ,高周波と低周波の双方に適用可能な手法を示し,その現象の雑音に対する安定性を実証する。 Floquet法は, 低温原子系におけるソリトン生成法として有用かつ安定した手法である。

We study a gas of interacting ultracold bosons held in a parabolic trap in the presence of an optical lattice potential. Treating the system as a discretised Gross-Pitaevskii model, we show how Floquet engineering, by rapidly ``shaking'' the lattice, allows the ground-state of the system to be converted into a train of bright solitons by inverting the sign of the hopping energy. We study how the number of solitons produced depends on the system's nonlinearity and the curvature of the trap, show how the technique can be applied both in the high and low driving-frequency regimes, and demonstrate the phenomenon's stability against noise. We conclude that the Floquet approach is a useful and stable method of preparing solitons in cold atom systems.
翻訳日:2023-01-09 06:03:30 公開日:2022-12-22
# 逆散逸キャビティ光学系におけるパリティ依存一方向およびキラル光子移動

Parity-dependent unidirectional and chiral photon transfer in reversed-dissipation cavity optomechanics ( http://arxiv.org/abs/2212.12085v1 )

ライセンス: Link先を確認
Zhen Chen and Qichun Liu and Jingwei Zhou and Peng Zhao and Haifeng Yu and Tiefu Li and Yulong Liu(参考訳) アイソレータや循環器のような非相互要素は、古典的および量子情報処理において重要な役割を果たす。 近年,キャビティ光力学系において強い非相反効果が実験的に実証されている。 これらのアプローチでは、非相反光子伝送の帯域幅は、多くの電気機械または光機械装置のキャビティモードのライン幅よりもかなり小さいメカニカル共振器のライン幅によって制限される。 本研究では,2種類の位相因子と反-$\mathcal{pt}$-symmetric dissipative couplingを媒介しながら,減衰率の大きいメカニカルモードを断続的に除去できる \emph{reversed-dissipation} 方式において,広帯域の非相反光子伝送を実証する。 相対位相を調整することにより、分散例外点 (Eps) を持つリーマンシート構造の観測が可能になる。 epsでは、破壊的な量子干渉は$\mathcal{t}$- と$\mathcal{p}$-反転の対称性の両方を壊し、一方向光子とキラル光子伝送をもたらす。 逆散逸状態においては、非相反帯域幅はメカニカルモード線幅に制限されることなく、キャビティ共鳴の線幅に改善される。 さらに、一方向エネルギー移動とキラルエネルギー移動の方向は、Epsの 'emph{parity} を変更することで逆転できることがわかった。 非エルミートカップリングを3次元キャビティモデルに拡張すると、破れた反$\mathcal{pt}$-対称性は、パリティ依存のカイラル循環器が示される高次epsを観測できる。 駆動相制御周期リーマンシートは、パリティ依存の一方向およびキラルエネルギー移動の観測を可能にし、非相互配列を構築し、イソレータ、循環器、増幅器などのトポロジーを実現するのに有用なセルを提供する。

Nonreciprocal elements, such as isolators and circulators, play an important role in classical and quantum information processing. Recently, strong nonreciprocal effects have been experimentally demonstrated in cavity optomechanical systems. In these approaches, the bandwidth of the nonreciprocal photon transmission is limited by the mechanical resonator linewidth, which is arguably much smaller than the linewidths of the cavity modes in most electromechanical or optomechanical devices. In this work, we demonstrate broadband nonreciprocal photon transmission in the \emph{reversed-dissipation} regime, where the mechanical mode with a large decay rate can be adiabatically eliminated while mediating anti-$\mathcal{PT}$-symmetric dissipative coupling with two kinds of phase factors. Adjusting the relative phases allows the observation of \emph{periodic} Riemann-sheet structures with distributed exceptional points (Eps). At the Eps, destructive quantum interference breaks both the $\mathcal{T}$- and $\mathcal{P}$-inversion symmetry, resulting in unidirectional and chiral photon transmissions. In the reversed-dissipation regime, the nonreciprocal bandwidth is no longer limited by the mechanical mode linewidth but is improved to the linewidth of the cavity resonance. Furthermore, we find that the direction of the unidirectional and chiral energy transfer could be reversed by changing the \emph{parity} of the Eps. Extending non-Hermitian couplings to a three-cavity model, the broken anti-$\mathcal{PT}$-symmetry allows us to observe high-order Eps, at which a parity-dependent chiral circulator is demonstrated. The driving-phase controlled periodical Riemann sheets allow observation of the parity-dependent unidirectional and chiral energy transfer and thus provide a useful cell for building up nonreciprocal array and realizing topological, e.g., isolators, circulators, or amplifiers.
翻訳日:2023-01-09 06:03:17 公開日:2022-12-22
# 量子エンタングル光子を用いたスペクトル選択性を持つ励起子ダイナミクスの探索

Probing exciton dynamics with spectral selectivity through the use of quantum entangled photons ( http://arxiv.org/abs/2212.11519v1 )

ライセンス: Link先を確認
Yuta Fujihashi, Kuniyuki Miwa, Masahiro Higashi, Akihito Ishizaki(参考訳) 量子光は新しい分光技術を開発するための有望な資源としてますます認識されている。 例えば、絡み合った光子間の非古典的相関は、古典的な技術を超えた光学測定の精度を高めるために利用することができる。 そこで本研究では,パラメトリックダウンコンバージョン(PDC)を用いて発生する絡み合った光子間の非古典的相関を利用して,特定の信号の寄与を選択的に向上する時間分解分光法を提案する。 非古典的な光子相関の指標である絡み合い時間は、信号処理におけるシンクフィルタとして機能し、分子内のダイナミックスのアクセス可能な時間領域を同時に制御しながらスペクトルの特定の領域を選択的に解決する。 非線形結晶におけるpdcの位相整合関数は、光合成色素-タンパク質複合体におけるスペクトルの特定のピークを、絡み合い時間を調整することで別々に測定することができる。 この技術は、複雑な分子の動的過程のステップバイステップの経路を監視するのに役立つ。

Quantum light is increasingly recognized as a promising resource for developing new spectroscopic techniques. For example, nonclassical correlations between entangled photons can potentially be exploited to enhance the precision of optical measurements beyond classical techniques. Here, we propose a time-resolved spectroscopy in which specific signal contributions are selectively enhanced by harnessing the nonclassical correlations between entangled photons generated via parametric down-conversion (PDC). The entanglement time, which is the hallmark of nonclassical photon correlations, works as a sinc filter in signal processing to selectively resolve a specific region of spectra while simultaneously controlling the accessible time region of dynamics in molecules. The phase-matching functions of the PDC in nonlinear crystals makes it possible to separately measure the specific peaks of the spectra in a photosynthetic pigment-protein complex by tuning the entanglement time. This technique can be a useful tool for monitoring the step-by-step pathways of dynamic processes in complex molecules.
翻訳日:2023-01-09 05:53:13 公開日:2022-12-22
# 塑性変形結晶の構造検出のための教師なし学習

Unsupervised learning for structure detection in plastically deformed crystals ( http://arxiv.org/abs/2212.14813v1 )

ライセンス: Link先を確認
Armand Barbot, Riccardo Gatti(参考訳) 塑性変形した結晶材料中の粒子スケールの構造を検出することは、発生現象をよりよく理解する。 従来の手法では, 様々な局所パラメータにハンドチョン基準を適用することが多かったが, 既に知られている構造のみを検出できるため, 塑性変形下で結晶内の構造を自動的に検出する教師なし学習アルゴリズムを導入する。 このアプローチはコロイド材料の構造検出のために開発された研究に基づいている。 このアルゴリズムは計算が高速で実装が容易であるという利点がある。 ボンド角分布に基づく局所パラメータを用いることで,従来の手作り基準よりも高い精度で,より多くの構造を検出できることを示す。

Detecting structures at the particle scale within plastically deformed crystalline materials allows a better understanding of the occurring phenomena. While previous approaches mostly relied on applying hand-chosen criteria on different local parameters, these approaches could only detect already known structures.We introduce an unsupervised learning algorithm to automatically detect structures within a crystal under plastic deformation. This approach is based on a study developed for structural detection on colloidal materials. This algorithm has the advantage of being computationally fast and easy to implement. We show that by using local parameters based on bond-angle distributions, we are able to detect more structures and with a higher degree of precision than traditional hand-made criteria.
翻訳日:2023-01-09 05:35:16 公開日:2022-12-22
# コヒーレントおよび非ガウス圧縮真空状態を入力とするパリティ検出に基づくマッハ・ツェンダー干渉法

Parity-detection-based Mach-Zehnder interferometry with coherent and non-Gaussian squeezed vacuum states as inputs ( http://arxiv.org/abs/2212.12421v1 )

ライセンス: Link先を確認
Chandan Kumar, Rishabh, Mohak Sharma, and Shikhar Arora(参考訳) 我々は、パリティ検出に基づくマッハ・ツェンダー干渉計を用いて位相推定における非ガウス演算による利点を理論的に検討し、一方の入力はコヒーレント状態であり、他方の入力は非ガウス圧縮真空状態(SVS)である。 単一モードSVS上での光子サブトラクション,光子付加,光子触媒の3種類の非ガウス的操作を現実的に行うモデルを考える。 まず、非ガウスSVSのウィグナー関数を導出し、位相感度の式を導出する。 位相感度の解析により、3つの異なる非ガウシアン演算が適切なパラメータの選択の下で位相感度を高めることが判明した。 また、これらの非ガウジアン演算の確率論的性質についても考察し、その結果、単一光子付加が最適演算であることが判明した。 さらに,本分析により,非ガウス演算の実装に関わるSVSの最適スキューズとビームスプリッタの透過率の同定が可能となった。

We theoretically explore the advantages rendered by non-Gaussian operations in phase estimation using a parity-detection-based Mach-Zehnder interferometer, with one input being a coherent state and the other being a non-Gaussian squeezed vacuum state (SVS). We consider a realistic model to perform three different non-Gaussian operations, namely photon subtraction, photon addition, and photon catalysis on a single-mode SVS. We start by deriving the Wigner function of the non-Gaussian SVSs, which is then utilized to derive the expression for the phase sensitivity. The analysis of the phase sensitivity reveals that all three different non-Gaussian operations can enhance the phase sensitivity under suitable choices of parameters. We also consider the probabilistic nature of these non-Gaussian operations, the results of which reveal the single photon addition to be the optimal operation. Further, our analysis also enables us to identify the optimal squeezing of the SVS and the transmissivity of the beam splitter involved in the implementation of the non-Gaussian operations.
翻訳日:2023-01-09 05:19:06 公開日:2022-12-22
# 補助量子ビットを用いたボソニックモードにおける決定的および選択的光子付加の実験的実現

Experimental realization of deterministic and selective photon addition in a bosonic mode assisted by an ancillary qubit ( http://arxiv.org/abs/2212.12079v1 )

ライセンス: Link先を確認
Marina Kudra, Tahereh Abad, Mikael Kervinen, Axel M. Eriksson, Fernando Quijandr\'ia, Per Delsing, Simone Gasparinetti(参考訳) ボソニック量子誤り訂正符号は、主に単一光子損失を防ぐために設計されている。 このタイプの誤りを正すには、猫符号や二項符号のような一定の光子パリティを持つ符号空間で論理キュービットを符号化することができる。 エラー訂正には、エラー状態 -- 反対のパリティを持つ -- をコード状態にマッピングするリカバリ操作が必要である。 ここでは, 超伝導量子ビットを用いたボソニックモード, マイクロ波空洞上での光子数選択同時光子付加操作のコレクションを実現する。 これらの操作は、キャビティとキュービットを同時に励起する2光子遷移として実装される。 量子ビットの自由度の追加により、対向光子パリティ空間間のコヒーレントで一方向の写像を実装できる。 本稿では、Fock状態の重ね合わせで実現したドライブの実験的実装と位相制御について述べる。 提案手法は, 量子ビットリセットを補足した場合, ボソニック系における自己量子誤差補正に適しており, より一般的には, ボソニックモード上での非単位変換の範囲を実現する可能性がある。

Bosonic quantum error correcting codes are primarily designed to protect against single-photon loss. To correct for this type of error, one can encode the logical qubit in code spaces with a definite photon parity, such as cat codes or binomial codes. Error correction requires a recovery operation that maps the error states -- which have opposite parity -- back onto the code states. Here, we realize a collection of photon-number-selective, simultaneous photon addition operations on a bosonic mode, a microwave cavity, assisted by a superconducting qubit. These operations are implemented as two-photon transitions that excite the cavity and the qubit at the same time. The additional degree of freedom of the qubit makes it possible to implement a coherent, unidirectional mapping between spaces of opposite photon parity. We present the successful experimental implementation of the drives and the phase control they enable on superpositions of Fock states. The presented technique, when supplemented with qubit reset, is suitable for autonomous quantum error correction in bosonic systems, and, more generally, opens the possibility to realize a range of non-unitary transformations on a bosonic mode.
翻訳日:2023-01-09 05:10:18 公開日:2022-12-22
# 高速ノイズ動作を用いた高速繰り返し猫符号

High-performance repetition cat code using fast noisy operations ( http://arxiv.org/abs/2212.11927v1 )

ライセンス: Link先を確認
Francois-Marie Le R\'egent, Camille Berdou, Zaki Leghtas, J\'er\'emie Guillaud and Mazyar Mirrahimi(参考訳) 2光子駆動の散逸によって安定化されるボソニックキャットキュービットは、ビットフリップエラーの指数関数的な抑制と、この保護を保った広いゲートの恩恵を受ける。 これらの特性により、ハードウェア効率が高くフォールトトレラントな量子プロセッサのビルディングブロックが期待できる。 本稿では,高速だがノイズの多いCNOTゲートを用いた繰り返しキャットコードアーキテクチャの性能最適化手法を提案する。 この最適化は、ボソニックモードの内在的な単光子損失率と2光子損失率との比として与えられる物理量に対する高い閾値をもたらし、また、必要オーバーヘッドのしきい値以下の非常に興味深いスケーリングにより、期待される論理誤差率に達する。 キャット量子ビット演算の特定の誤差モデルに基づき、この最適化は高速パリティ測定を利用して、高速化された低忠実度CNOTゲートと高速アンシラパリティチェックキュービットを組み合わせる。 キャットキュービットCNOTゲートが制御(アンシラ)キュービットの主要成分を持つ高度非対称誤差モデルである1-と、高速動作によって誘導されるリークの有無でエラー訂正性能の堅牢性を示す2-である。 これらの性能を示すために,猫のクビット状態のリークを考慮した回路レベルの雑音下での繰り返しコードのサンプリング法を開発した。

Bosonic cat qubits stabilized by two-photon driven dissipation benefit from exponential suppression of bit-flip errors and an extensive set of gates preserving this protection. These properties make them promising building blocks of a hardware-efficient and fault-tolerant quantum processor. In this paper, we propose a performance optimization of the repetition cat code architecture using fast but noisy CNOT gates for stabilizer measurements. This optimization leads to high thresholds for the physical figure of merit, given as the ratio between intrinsic single-photon loss rate of the bosonic mode and the engineered two-photon loss rate, as well as a very interesting scaling below threshold of the required overhead, to reach an expected level of logical error rate. Relying on the specific error models for cat qubit operations, this optimization exploits fast parity measurements, using accelerated low-fidelity CNOT gates, combined with fast ancilla parity-check qubits. The significant enhancement in the performance is explained by: 1- the highly asymmetric error model of cat qubit CNOT gates with a major component on control (ancilla) qubits, and 2- the robustness of the error correction performance in presence of the leakage induced by fast operations. In order to demonstrate these performances, we develop a method to sample the repetition code under circuit-level noise that also takes into account cat qubit state leakage.
翻訳日:2023-01-09 05:01:30 公開日:2022-12-22
# ボゾン符号化量子ビット上のゲートの高オンオフ比ビームスプリッター相互作用

A high on-off ratio beamsplitter interaction for gates on bosonically encoded qubits ( http://arxiv.org/abs/2212.11929v1 )

ライセンス: Link先を確認
Benjamin J. Chapman, Stijn J. de Graaf, Sophia H. Xue, Yaxing Zhang, James Teoh, Jacob C. Curtis, Takahiro Tsunoda, Alec Eickbusch, Alexander P. Read, Akshay Koottandavida, Shantanu O. Mundhada, Luigi Frunzio, M. H. Devoret, S. M. Girvin, R. J. Schoelkopf(参考訳) 量子ビットを高品質の超伝導マイクロ波空洞にエンコードすることで、1つのデバイスで最初のエラー補正を行う機会が得られるが、量子発振器を最小限のエラーチャネルを導入しながら制御する方法が課題となる。 本研究では3波混合結合素子を用いて1オクターブ以上の周波数で分離された2つのボソニックモード間のプログラム可能なビームスプリッタ相互作用を設計し,この制御問題の2ビット部分に着目した。 これを分散結合トランスモンによって提供される単一オシレータ制御と組み合わせることで、複数の符号化量子ビットの量子制御のためのフレームワークを提供する。 ビームスプリッター相互作用 $g_\text{bs}$ は発振子のデコヒーレンスの時間スケールと比較して高速であり、コヒーレンス時間あたり10^3$のビームスプリッター操作が可能であり、個々の発振器制御に使用される分散結合 $\chi$ の典型的な速度に近づく。 さらに、10^5$を超える操作のオンオフ比が示すように、プログラマブル結合は、発振器間の望ましくない相互作用を加えることなく設計される。 次に,2つのボソニックモードのSWAPに対して,トランスモンが制御ビットを提供するレシエーション$g_{bs}\approx\chi$におけるハイブリッド制御SWAP演算を実現するための新しいプロトコルを提案する。 最後に、このゲートをSWAPテストで使用し、1対のボソニック量子ビットを9,5\% \pm 0.2\%$の精度でベル状態に投影する。

Encoding a qubit in a high quality superconducting microwave cavity offers the opportunity to perform the first layer of error correction in a single device, but presents a challenge: how can quantum oscillators be controlled while introducing a minimal number of additional error channels? We focus on the two-qubit portion of this control problem by using a 3-wave mixing coupling element to engineer a programmable beamsplitter interaction between two bosonic modes separated by more than an octave in frequency, without introducing major additional sources of decoherence. Combining this with single-oscillator control provided by a dispersively coupled transmon provides a framework for quantum control of multiple encoded qubits. The beamsplitter interaction $g_\text{bs}$ is fast relative to the timescale of oscillator decoherence, enabling over $10^3$ beamsplitter operations per coherence time, and approaching the typical rate of the dispersive coupling $\chi$ used for individual oscillator control. Further, the programmable coupling is engineered without adding unwanted interactions between the oscillators, as evidenced by the high on-off ratio of the operations, which can exceed $10^5$. We then introduce a new protocol to realize a hybrid controlled-SWAP operation in the regime $g_{bs}\approx\chi$, in which a transmon provides the control bit for the SWAP of two bosonic modes. Finally, we use this gate in a SWAP test to project a pair of bosonic qubits into a Bell state with measurement-corrected fidelity of $95.5\% \pm 0.2\%$.
翻訳日:2023-01-09 05:01:05 公開日:2022-12-22
# Pauli Transfer matrix direct reconstruction: channel tomography without process tomography

Pauli transfer matrix direct reconstruction: channel tomography without process tomography ( http://arxiv.org/abs/2212.11968v1 )

ライセンス: Link先を確認
Simone Roncallo, Lorenzo Maccone, Chiara Macchiavello(参考訳) マルチキュービット量子チャネルのキャラクタリゼーションのためのトモグラフィープロトコルを提案する。 入力状態の特定のクラスについて検討し、チャネルの出力における pauli 測定の集合は、その pauli 伝達行列成分に直接関係する。 実験結果と標準量子プロセストモグラフィーの結果を比較し, 単一行列要素抽出で要求される異なる実験構成数を指数関数的に減少させるとともに, 同じショット数を維持できることを示した。 このことは、パウリ転移行列の選択的知識が必要な場合、より効率的な実験的な実装の道を開く。 いくつか例とシミュレーションを紹介します。

We present a tomographic protocol for the characterization of multi-qubit quantum channels. We discuss a specific class of input states, for which the set of Pauli measurements at the output of the channel directly relates to its Pauli transfer matrix components. We compare our results to those of standard quantum process tomography, showing an exponential reduction in the number of different experimental configurations required by a single matrix element extraction, while keeping the same number of shots. This paves the way for more efficient experimental implementations, whenever a selective knowledge of the Pauli transfer matrix is needed. We provide several examples and simulations.
翻訳日:2023-01-09 05:00:32 公開日:2022-12-22
# 発振器の高次発振器への最適符号化

Optimal encoding of oscillators into more oscillators ( http://arxiv.org/abs/2212.11970v1 )

ライセンス: Link先を確認
Jing Wu, Anthony J. Brady and Quntao Zhuang(参考訳) 量子情報の調和振動子へのボソニック符号化は、バトルノイズに対するハードウェア効率の良いアプローチである。 この点において、発振器-オシレータ符号はボソニック符号化における追加の機会を提供するだけでなく、量子センシングや通信においてユビキタスな連続可変状態への誤り訂正の適用性も拡張する。 本研究では,同種雑音に対するゴッテマン・キタエフ・プレススキル(GKP)-スタビライザー符号の一般家系間で最適な発振器・オシレータ符号を導出する。 任意のGKP安定化コードを一般化GKP2モードスケザリング(TMS)コードに還元できることを示す。 したがって、最適化されたGKP格子とTMSゲインを持つGKP-TMS符号から最適符号化を構築することができる。 単一モードデータやアンシラに対しては,この最適符号設計問題を効率よく解くことができ,また,六角形GKP格子が従来採用されていた2乗格子よりも最適かつ厳密であることを示す数値的証拠も提供する。 マルチモードの場合、一般的なGKP格子最適化は困難である。 2モードデータとアンシラケースでは、d4格子(4次元密充填格子)を低次元格子の積よりも優れていると同定する。

Bosonic encoding of quantum information into harmonic oscillators is a hardware efficient approach to battle noise. In this regard, oscillator-to-oscillator codes not only provide an additional opportunity in bosonic encoding, but also extend the applicability of error correction to continuous-variable states ubiquitous in quantum sensing and communication. In this work, we derive the optimal oscillator-to-oscillator codes among the general family of Gottesman-Kitaev-Preskill (GKP)-stablizer codes for homogeneous noise. We prove that an arbitrary GKP-stabilizer code can be reduced to a generalized GKP two-mode-squeezing (TMS) code. Therefore, the optimal encoding can be constructed from GKP-TMS codes with optimized GKP lattice and TMS gains. For single-mode data and ancilla, this optimal code design problem can be efficiently solved, and we further provide numerical evidence that a hexagonal GKP lattice is optimal and strictly better than the previously adopted square lattice. For the multimode case, general GKP lattice optimization is challenging. In the two-mode data and ancilla case, we identify the D4 lattice -- a 4-dimensional dense-packing lattice -- to be superior to a product of lower dimensional lattices.
翻訳日:2023-01-09 05:00:19 公開日:2022-12-22
# Graphix: 局所クリフォード装飾グラフ上の測定に基づく量子計算の最適化とシミュレーション

Graphix: optimizing and simulating measurement-based quantum computation on local-Clifford decorated graph ( http://arxiv.org/abs/2212.11975v1 )

ライセンス: Link先を確認
Shinichi Sunami, Masato Fukushima(参考訳) 計測に基づく量子計算(mbqc)を最適化し,シミュレートするオープンソースソフトウェアライブラリであるgraphixを提案する。 測定計算と効率的なグラフ状態シミュレータを組み合わせることで、グラフィクスは測定パターンにおけるパウリ測定の古典的な前処理を可能にし、決定性を維持しながら量子計算を行うために必要な演算数を著しく削減する。 量子回路から変換された測定パターンは、全てのクリフォードゲートの前処理に対応しており、この片道モデルの改善は量子ハードウェアにおける量子ビット数に制限のある効率的な演算に重要である。 ゲートネットワークからの直接翻訳に加えて,フロー探索アルゴリズムに基づくパターン生成法を提案し,決定性を確保するために副生成物補正シーケンスを自動的に生成する。 さらに,標準化手続きを超えて測定パターンの最適化戦略を実装し,mbqcを古典的にシミュレートするためのテンソルネットワークバックエンドを提供する。

We introduce an open-source software library Graphix, which optimizes and simulates measurement-based quantum computation (MBQC). By combining the measurement calculus with an efficient graph state simulator, Graphix allows the classical preprocessing of Pauli measurements in the measurement patterns, significantly reducing the number of operations required to perform the quantum computation while maintaining determinism. For a measurement pattern translated from a quantum circuit, this corresponds to the preprocessing of all Clifford gates, and this improvement in the one-way model is important for efficient operations in quantum hardware with limited qubit numbers. In addition to the direct translation from gate networks, we provide a pattern generation method based on flow-finding algorithms, which automatically generates byproduct correction sequences to ensure determinism. We further implement optimization strategies for measurement patterns beyond the standardization procedure and provide tensor-network backend for classically simulating the MBQC.
翻訳日:2023-01-09 04:59:45 公開日:2022-12-22
# ディラックフリー粒子のヘリシティ状態に対するマトリックスアプローチ

Matrix Approach to Helicity States of Dirac Free Particles ( http://arxiv.org/abs/2212.11994v1 )

ライセンス: Link先を確認
Ben Goren and Kamal Barley and Sergei K. Suslov(参考訳) 我々は行列代数の観点からディラック方程式の自由波動解を導出する。 スピンの概念と対応するヘリシティ状態は詳細に分析される。 この考察は、相対論的量子力学の数学的方法を研究するのに役立つかもしれない。

We derive the free wave solutions of the Dirac equation from the viewpoint of matrix algebra. The concept of spin and the corresponding helicity states are analyzed in detail. This consideration may help the readers to study mathematical methods of relativistic quantum mechanics.
翻訳日:2023-01-09 04:59:20 公開日:2022-12-22
# 改良Jaynes-Cummingsモデルのダイナミクス

The Dynamics of a Modified Jaynes-Cummings Model ( http://arxiv.org/abs/2212.12021v1 )

ライセンス: Link先を確認
Moorad Alexanian(参考訳) 我々は、通常のJaynes-Cummingsモデル(JCM)の原子系のように単一の光子を交換する代わりに、圧縮されたコヒーレント光子を交換する力学系を導入する。 したがって、JCMにおける生成および消滅光子演算子は、それぞれ圧縮されたコヒーレント状態の生成と消滅演算子に置き換えられる。 この変換は、回転波近似を行う際に通常JCMで省略される項を含むJCMを修飾する光子ハミルトニアンを生成し、さらに、変換はJCMに存在しない原子交換項を導入する。

We introduce a dynamical system that instead of exchanging a single photon as in the atomic system of the usual Jaynes-Cummings model (JCM), it exchanges instead a squeezed coherent photon. Accordingly, the creation and annihilation photon operators in the JCM are replaced by the creation and annihilation operators of squeezed coherent states, respectively. This transformation generates a photon Hamiltonian that modifies the JCM that includes terms usually omitted in the JCM when making the rotating-wave approximation and, in addition, the transformation introduces atom exchange terms absent in the JCM.
翻訳日:2023-01-09 04:59:17 公開日:2022-12-22
# ベイズ量子多体磁気測定のためのニューラルネットワーク

Neural networks for Bayesian quantum many-body magnetometry ( http://arxiv.org/abs/2212.12058v1 )

ライセンス: Link先を確認
Yue Ban, Jorge Casanova and Ricardo Puebla(参考訳) 絡み合った量子多体系は、個々の量子検出器のアンサンブルで達成可能な精度よりも大きいパラメータを推定できるセンサーとして使用できる。 通常、パラメータ推定戦略は、量子多体系の微視的なモデリングと、その力学の正確な記述を必要とする。 これはベイズ推論手法の適用性を妨げる複雑さを伴う。 本研究では、量子多体センサのダイナミクスを忠実に再現するニューラルネットワークを用いて、これらの問題を回避し、効率の良いベイズ解析を可能にする方法を示す。 我々は、磁場によって駆動されるXXZモデルを例示し、標準量子制限スケーリングを超えて、フィールドパラメータの推定を行うことができることを示す。 我々の研究は、量子多体系を量子資源を利用したブラックボックスセンサとして実用化し、精度推定を改善するための道を開くものである。

Entangled quantum many-body systems can be used as sensors that enable the estimation of parameters with a precision larger than that achievable with ensembles of individual quantum detectors. Typically, the parameter estimation strategy requires the microscopic modelling of the quantum many-body system, as well as a an accurate description of its dynamics. This entails a complexity that can hinder the applicability of Bayesian inference techniques. In this work we show how to circumvent these issues by using neural networks that faithfully reproduce the dynamics of quantum many-body sensors, thus allowing for an efficient Bayesian analysis. We exemplify with an XXZ model driven by magnetic fields, and show that our method is capable to yield an estimation of field parameters beyond the standard quantum limit scaling. Our work paves the way for the practical use of quantum many-body systems as black-box sensors exploiting quantum resources to improve precision estimation.
翻訳日:2023-01-09 04:59:07 公開日:2022-12-22
# 超伝導キャビティを用いたデュアルレール符号化

Dual-rail encoding with superconducting cavities ( http://arxiv.org/abs/2212.12077v1 )

ライセンス: Link先を確認
James D. Teoh, Patrick Winkel, Harshvardhan K. Babla, Benjamin J. Chapman, Jahan Claes, Stijn J. de Graaf, John W.O. Garmon, William D. Kalfus, Yao Lu, Aniket Maiti, Kaavya Sahay, Neel Thakur, Takahiro Tsunoda, Sophia H. Xue, Luigi Frunzio, Steven M. Girvin, Shruti Puri, and Robert J. Schoelkopf(参考訳) 誤りを減らし緩和する量子ハードウェアの設計は、実用的な量子エラー補正(QEC)と有用な量子計算に不可欠である。 この目的のために,2つの超伝導キャビティの単一光子部分空間に物理量子ビットを符号化する回路QEDデュアルレール量子ビットを導入する。 支配的な光子損失誤差は検出され、消去誤差に変換され、修正がより容易になる。 線形光学とは対照的に、デュアルレール符号の回路QED実装は、全く新しい機能を提供する。 1つのトランスモンアンシラを用いて、状態準備、論理読み出し、パラメータ可能な単一および2量子ビットゲートを含むユニバーサルゲートセットを記述する。 さらに、これらの操作のキャビティとトランスモンによる一階のハードウェアエラーを検知し、消去エラーに変換することができ、背景のPauliエラーは桁違いに小さくなってしまう。 したがって、デュアルレールキャビティキュービットはエラーとレートの最適階層を提供し、今日のデバイスと関連するQECしきい値よりかなり低いことが期待されている。

The design of quantum hardware that reduces and mitigates errors is essential for practical quantum error correction (QEC) and useful quantum computations. To this end, we introduce the circuit-QED dual-rail qubit in which our physical qubit is encoded in the single-photon subspace of two superconducting cavities. The dominant photon loss errors can be detected and converted into erasure errors, which are much easier to correct. In contrast to linear optics, a circuit-QED implementation of the dual-rail code offers completely new capabilities. Using a single transmon ancilla, we describe a universal gate set that includes state preparation, logical readout, and parametrizable single and two-qubit gates. Moreover, first-order hardware errors due to the cavity and transmon in all of these operations can be detected and converted to erasure errors, leaving background Pauli errors that are orders of magnitude smaller. Hence, the dual-rail cavity qubit delivers an optimal hierarchy of errors and rates, and is expected to be well below the relevant QEC thresholds with today's devices.
翻訳日:2023-01-09 04:58:54 公開日:2022-12-22
# 量子貯留層計算のための資源としての散逸

Dissipation as a resource for Quantum Reservoir Computing ( http://arxiv.org/abs/2212.12078v1 )

ライセンス: Link先を確認
Antonio Sannia, Rodrigo Mart\'inez-Pe\~na, Miguel C. Soriano, Gian Luca Giorgi, Roberta Zambrini(参考訳) 外部環境との相互作用によって引き起こされる散逸は、一般的に量子計算の性能を妨げるが、場合によっては有用な資源として表されることもある。 本稿では,スピンネットワークモデルに局所的損失をもたらす量子貯水池計算の分野における散逸によるポテンシャル増強について述べる。 連続散逸に基づくアプローチは、不連続消去マップに基づく従来の量子貯水池計算の提案のダイナミクスを再現するだけでなく、その性能を向上させることができる。 減衰率の制御は、入力履歴を線形に非線形に処理し、カオス系列を予測する能力として、一般的な機械学習の時間的タスクを促進することが示されている。 最後に、非制限条件下では、散逸モデルが貯水池計算の普遍クラスとなることを正式に証明する。 つまり、このアプローチを考慮すれば、任意の精度でフェーディングメモリマップを近似することが可能である。

Dissipation induced by interactions with an external environment typically hinders the performance of quantum computation, but in some cases can be turned out as a useful resource. We show the potential enhancement induced by dissipation in the field of quantum reservoir computing introducing tunable local losses in spin network models. Our approach based on continuous dissipation is able not only to reproduce the dynamics of previous proposals of quantum reservoir computing, based on discontinuous erasing maps but also to enhance their performance. Control of the damping rates is shown to boost popular machine learning temporal tasks as the capability to linearly and non-linearly process the input history and to forecast chaotic series. Finally, we formally prove that, under non-restrictive conditions, our dissipative models form a universal class for reservoir computing. It means that considering our approach, it is possible to approximate any fading memory map with arbitrary precision.
翻訳日:2023-01-09 04:58:36 公開日:2022-12-22
# レゲット・ガーグマクロリアリズムと時間相関

Leggett-Garg Macrorealism and temporal correlations ( http://arxiv.org/abs/2212.11616v1 )

ライセンス: Link先を確認
Giuseppe Vitagliano and Costantino Budroni(参考訳) leggett と garg は、古典的システムにおける我々の直観をコードするマクロリアリズムモデル、すなわち物理量は、最小の外乱で測定できる一定の値を持ち、マクロ的量子コヒーレンス効果をテストすることを目標としている。 系上の逐次測定の統計を含む関連する不等式は、量子力学的予測と実験的観測によって破られる。 古典的な説明は、測定障害の特定のモデルを想定して復元することができる。 本稿では,マクロリアリズムと量子時間相関を特徴付ける最近の理論および実験の進展と,レゲット・ガーグ試験に関連する閉孔について概説する。 最後に、測定障害の仮定を緩和し、マクロリアリストモデルを超えた非古典的時間相関の最近の定義とそのシーケンシャル量子情報処理への応用について述べる。

Leggett and Garg formulated macrorealist models encoding our intuition on classical systems, i.e., physical quantities have a definite value that can be measured with minimal disturbance, and with the goal of testing macroscopic quantum coherence effects. The associated inequalities, involving the statistics of sequential measurements on the system, are violated by quantum mechanical predictions and experimental observations. Such tests, however, are subject to loopholes: a classical explanation can be recovered assuming specific models of measurement disturbance. We review recent theoretical and experimental progress in characterizing macrorealist and quantum temporal correlations, and in closing loopholes associated with Leggett-Garg tests. Finally, we review recent definitions of nonclassical temporal correlations, which go beyond macrorealist models by relaxing the assumption on the measurement disturbance, and their applications in sequential quantum information processing.
翻訳日:2023-01-09 04:52:15 公開日:2022-12-22
# 再帰的MWPM復号による表面符号の性能向上

Performance enhancement of surface codes via recursive MWPM decoding ( http://arxiv.org/abs/2212.11632v1 )

ライセンス: Link先を確認
Antonio deMarti iOlius, Josu Etxezarreta Martinez, Patricio Fuentes and Pedro M. Crespo(参考訳) 最小重み完全マッチング(MWPM decoder)は、量子曲面符号の標準的な復号法である。 しかし、バイアスまたは非同一の量子ノイズを受けると、性能が著しく低下する。 本研究では,従来のMWPMデコーダを,所定の曲面符号の構成量子ビットの偏りや不均一性を考慮して修正する。 再帰的MWPMデコーダ(recursive MWPM decoder)と呼ぶ我々の修正手法は、偏極雑音下での確率閾値$p_{th}$の18 %$の改善が得られる。 また、偏りのあるノイズや、最先端の量子プロセッサで実施した測定結果から導かれた独立な非同定分散(i.ni.d)誤差モデルを考えると、性能が大幅に向上する。 実際、i.ni.dノイズを受けると、再帰的mwpmデコーダは、従来のmwpm戦略よりも105.5\%$の性能改善を生じさせ、場合によっては、よく知られた非分極チャネル上で得られる性能を超えるものさえある。

The minimum weight perfect matching (MWPM) decoder is the standard decoding strategy for quantum surface codes. However, it suffers a harsh decrease in performance when subjected to biased or non-identical quantum noise. In this work, we modify the conventional MWPM decoder so that it considers the biases and non-uniformities of the constituent qubits of a given surface code. Our modified approach, which we refer to as the recursive MWPM decoder, obtains an $18\%$ improvement in the probability threshold $p_{th}$ under depolarizing noise. We also obtain significant performance improvements when considering biased noise and independent non-identically distributed (i.ni.d) error models derived from measurements performed on state-of-the-art quantum processors. In fact, when subjected to i.ni.d noise, the recursive MWPM decoder yields a performance improvement of $105.5\%$ over the conventional MWPM strategy and, in some cases, it even surpasses the performance obtained over the well-known depolarizing channel.
翻訳日:2023-01-09 04:51:58 公開日:2022-12-22
# 単一分子偏光子回転の量子コヒーレント制御

Quantum Coherent Control of a Single Molecular-Polariton Rotation ( http://arxiv.org/abs/2212.11649v1 )

ライセンス: Link先を確認
Li-Bao Fan, Chuan-Cun Shu, Daoyi Dong, Jun He, Niels E. Henriksen, and Franco Nori(参考訳) 本研究では,分子の2つの回転状態と単一モードキャビティを強く結合した単一分子偏光子のコヒーレントテラヘルツ制御に関する解析的および数値的研究を行った。 単一テラヘルツパルスによって駆動される素分子と比較して、キャビティの存在はポラリトンのパルス後配向を強く修飾し、最大配向度を得るのが困難である。 完全量子コヒーレント制御の実現に向けたこの課題を解決するため、パルス駆動型量子Jaynes-Cummingsモデルの解析解を導出し、波動関数を絡み合った状態に拡張し、効果的なハミルトニアンを構築する。 複合テラヘルツパルスの設計に利用し、光子遮断効果を利用したポラリトンの最大配向度を得る。 この研究は、強結合状態における回転ダイナミクスを研究する新しい戦略を提供し、単一の分子ポラリトンを完全に量子コヒーレント制御する方法を提供する。 そのため、新しい量子光学現象の探索にポラリトン化学や分子分極論に直接的な応用がある。

We present a combined analytical and numerical study for coherent terahertz control of a single molecular polariton, formed by strongly coupling two rotational states of a molecule with a single-mode cavity. Compared to the bare molecules driven by a single terahertz pulse, the presence of a cavity strongly modifies the post-pulse orientation of the polariton, making it difficult to obtain its maximal degree of orientation. To solve this challenging problem toward achieving complete quantum coherent control, we derive an analytical solution of a pulse-driven quantum Jaynes-Cummings model by expanding the wave function into entangled states and constructing an effective Hamiltonian. We utilize it to design a composite terahertz pulse and obtain the maximum degree of orientation of the polariton by exploiting photon blockade effects. This work offers a new strategy to study rotational dynamics in the strong-coupling regime and provides a method for complete quantum coherent control of a single molecular polariton. It, therefore, has direct applications in polariton chemistry and molecular polaritonics for exploring novel quantum optical phenomena.
翻訳日:2023-01-09 04:51:39 公開日:2022-12-22
# 単一量子系におけるグロタンディーク結合

Grothendieck bound in a single quantum system ( http://arxiv.org/abs/2212.11663v1 )

ライセンス: Link先を確認
A. Vourdas(参考訳) グロタンディークの境界は、1つの量子系の文脈で用いられるが、それ以前の多部交絡系やベルのような不等式に用いた研究とは対照的である。 大まかに言えば、グロタンディークの定理は、単位円板の複素数を使い、1ドル未満の値を取る「古典的」二次形式${\cal C}$を考える。 すると、複素数がヒルベルト空間の単位球のベクトルに置き換わるなら、 'quantum' 二次形式 ${\cal Q}$ は複素グロタンディーク定数 $k_G$ まで1ドル以上の値を取るかもしれないことを証明した。 グロタンディークの定理は任意の行列(適切な正規化前因子と乗算される)の項で再定義され、量子量に直接適用できる。 論文で強調されているのは 'Grothendieck region' $(1,k_G)$ であり、${\cal C}$ が値を取ることができないという意味で古典的に禁止された領域である。 grothendieck領域における${\cal q}$の値を取るために必要な(しかし十分ではない)条件が与えられる。 6$と12$のヒルベルト空間を持つ系の物理的量を含む2つの例は、グロタンディーク領域における${\cal Q}$(1,k_G)$に導かれる。 これらは、同一性を解消し離散的等方性を持つ新しい一般化コヒーレント状態の重複のプロジェクタを含んでいる。

Grothendieck's bound is used in the context of a single quantum system, in contrast to previous work which used it for multipartite entangled systems and the violation of Bell-like inequalities. Roughly speaking the Grothendieck theorem considers a `classical' quadratic form ${\cal C}$ that uses complex numbers in the unit disc, and takes values less than $1$. It then proves that if the complex numbers are replaced with vectors in the unit ball of the Hilbert space, then the `quantum' quadratic form ${\cal Q}$ might take values greater than $1$, up to the complex Grothendieck constant $k_G$. The Grothendieck theorem is reformulated here in terms of arbitrary matrices (which are multiplied with appropriate normalisation prefactors), so that it is directly applicable to quantum quantities. The emphasis in the paper is in the `Grothendieck region' $(1,k_G)$, which is a classically forbidden region in the sense that ${\cal C}$ cannot take values in it. Necessary (but not sufficient) conditions for ${\cal Q}$ taking values in the Grothendieck region are given. Two examples that involve physical quantities in systems with $6$ and $12$-dimensional Hilbert space, are shown to lead to ${\cal Q}$ in the Grothendieck region $(1,k_G)$. They involve projectors of the overlaps of novel generalised coherent states that resolve the identity and have a discrete isotropy.
翻訳日:2023-01-09 04:51:22 公開日:2022-12-22
# エネルギー非有界系におけるユニタリゲート実現のためのエネルギー要件

Energy requirement for implementing unitary gates on energy-unbounded systems ( http://arxiv.org/abs/2212.11708v1 )

ライセンス: Link先を確認
Yuxiang Yang, Renato Renner, Giulio Chiribella(参考訳) 量子情報の処理は常にエネルギーや時間といった物理的資源の点でコストがかかる。 リソース要件を決定することは、実用的なデバイスの設計において必須のステップであるだけでなく、物理的に可能なプロセスのクラスに根本的な制約を与える可能性がある。 ここでは、非自明なエネルギースペクトルを持つ量子系上で所望のユニタリゲートを実装するのに必要なエネルギーについて研究する。 我々は、Refの主な結果を拡張するため、エネルギー要求に対する一般的な下限を導出する。 [1] 有限次元系から非有界ハミルトン系へ。 このような拡張は、光学系による量子情報処理に直ちに応用され、変位やスクイーズゲートのような連続的な可変量子ゲートのエネルギー要件の境界を与えることができる。

The processing of quantum information always has a cost in terms of physical resources such as energy or time. Determining the resource requirements is not only an indispensable step in the design of practical devices - the resources need to be actually provided - but may also yield fundamental constraints on the class of processes that are physically possible. Here we study how much energy is required to implement a desired unitary gate on a quantum system with a non-trivial energy spectrum. We derive a general lower bound on the energy requirement, extending the main result of Ref. [1] from finite dimensional systems to systems with unbounded Hamiltonians. Such an extension has immediate applications in quantum information processing with optical systems, and allows us to provide bounds on the energy requirement of continuous variable quantum gates, such as displacement and squeezing gates.
翻訳日:2023-01-09 04:50:28 公開日:2022-12-22
# エレンフェストとボーム理論におけるパウリの電子 : 比較研究

Pauli's Electron in Ehrenfest and Bohm Theories, a Comparative Study ( http://arxiv.org/abs/2212.11807v1 )

ライセンス: Link先を確認
Asher Yahalom(参考訳) 遅い速度で移動する電子は、光の速度がパウリ方程式の解である波動関数によって記述されるよりもはるかに低い。 これは相対論的ディラック方程式の低速度極限である。 ここでは、電子の軌道を否定するより保守的なコペンハーゲンの解釈と、エレンフェストの定理による電子期待値への軌道を許容する2つのアプローチを比較する。 この期待値は、もちろんパウリ方程式の解を用いて計算される。 より正統でないアプローチはボームによって支持され、ポーリ波関数に由来する電子の速度場を特徴づける。 したがって、電子がボームに従属する軌道と、エーレンフェストに従属する期待値を比較することは興味深い。 類似点と相違点も考慮される。

Electrons moving at slow speeds much lower that the speed of light are described by a wave function which is a solution of Pauli's equation. This is a low velocity limit of the relativistic Dirac equation. Here we compare two approaches, one which is the more conservative Copenhagen's interpretation denying a trajectory of the electron but allowing a trajectory to the electron expectation value through Ehrenfest theorem. The said expectation value is of course calculated using a solution of Pauli's equation. A less orthodox approach is championed by Bohm, and attributes a velocity field to the electron also derived from the Pauli wave function. It is thus interesting to compare the trajectory followed by the electron according to Bohm and its expectation value according to Ehrenfest. Both similarities and differences will be considered.
翻訳日:2023-01-09 04:50:15 公開日:2022-12-22
# Reduce-and-chop:より深い問題に対する浅回路

Reduce-and-chop: Shallow circuits for deeper problems ( http://arxiv.org/abs/2212.11862v1 )

ライセンス: Link先を確認
Adri\'an P\'erez-Salinas, Radoica Dra\v{s}ki\'c, Jordi Tura, Vedran Dunjko(参考訳) 最先端の量子コンピュータのコヒーレンス時間は計算深度を著しく制限する。 これは、小さな量子ビット数のような他の制限の中で、実行可能なアルゴリズムの範囲を大幅に削減する。 少ない量子ビットデバイスを最大限に活用するために多くの技術が発明されているが、深さ制限計算の類似のスキームは研究されていない。 本研究は、より浅い装置を何度も使用することにより、より深い量子計算の性能を模倣できる程度に調査する。 本稿では,フェインマン量子回路シミュレーションの手法に着想を得て,回路を早期に切断・測定し,その結果に基づいて他の回路を動作させる手法を提案する。 いわゆる「計算基底(CB)ランク」がカットでは大きすぎる場合、鼻で当てはまる方法は非効率である。 そこで我々は,リデューサと呼ぶ浅変分回路を用いてこの問題を軽減することを提案し,その目的は,CBランクを既定の許容範囲内で維持することである。 私たちが議論するとおり、このアプローチは特定のケースで有効です。 また,この低減率を求めるための最適化手法を提案する。 この手法は、我々が議論する実用的ボトルネックのため、現在利用可能な大規模量子コンピュータの新たな利用につながるものではないが、浅い量子コンピュータの可能性を活用するための新たな研究を刺激する可能性がある。

The coherence times of state-of-the art quantum computers significantly restricts the feasible computational depth. This, among other limitations such as small qubit numbers, severely reduces the scope of algorithms that can be run. While numerous techniques have been invented to make the most out of fewer-qubit devices, analogous schemes for depth-limited computations are less explored. This work investigates to what extent we can mimic the performance of a deeper quantum computation by using a shallower device many times. We propose a method for this inspired by the Feynman quantum circuit simulation approach, where the circuit is cut and measured early on, and other circuits are run based on the outcomes. The method applied naively is inefficient if the so-called 'computational basis (CB) rank' is too large at the cut. We propose to mitigate this using a shallow variational circuit, which we call the reducer, and whose purpose is to maintain the CB rank within pre-defined tolerable limits. As we discuss, this approach works for certain cases of interest. We also provide a tailored optimisation method to find this reducer. The method as presented likely will not immediately lead to new uses of large currently available quantum computers due to practical bottlenecks we discuss, but we believe it may stimulate new research towards exploiting the potential of shallow quantum computers.
翻訳日:2023-01-09 04:49:45 公開日:2022-12-22
# 量子カーパリネロ分子動力学 : 短期量子コンピュータにおけるコスト効率の高い分子シミュレーション法

Quantum Car-Parrinello Molecular Dynamics: A Cost-Efficient Molecular Simulation Method on Near-Term Quantum Computers ( http://arxiv.org/abs/2212.11921v1 )

ライセンス: Link先を確認
Kohdai Kuroiwa and Takahiro Ohkuma and Hirokazu Sato and Ryosuke Imai(参考訳) 本稿では,量子計算機Quantum Car-Parrinello molecular dynamics (QCPMD)における有限温度分子動力学のコスト削減手法を提案する。 短期量子コンピュータの最も有望な応用の一つは量子化学である。 分子動力学による分子のシミュレーションは、変分量子固有ソルバ(vqe)の有望な短期量子アルゴリズムを適用することで、短期量子コンピュータでも効率的に行うことが期待されている。 しかし、この方法は十分な精度を達成するためにかなりの計算コストを必要とする可能性があり、そうでなければ統計的ノイズは結果に大きく影響する可能性がある。 これらの問題を解決するため,Car-Parrinello法に着想を得た効率的な分子時間進化法を考案した。 本手法では,最適化ではなく,運動方程式に基づいて量子状態を特徴付けるパラメータが進化する。 さらに,ランジュバンダイナミクスを考慮すれば,本質的な統計ノイズを活用できる。 QCPMDの適用例として,QCPMDで計算した分子動力学の結果を有効活用できる分子の振動周波数解析法を提案する。 数値実験により、本手法は平衡状態におけるランジュバンダイナミクスを正確にシミュレートでき、任意の分子の固有周波数をうまく予測できることを示した。 さらに, 数値シミュレーションでは, VQEを用いた分子動力学と比較して, 大幅なコスト削減を実現している。 本手法は,vqeの手法を使わずに効率的な計算を実現する。 この意味で、我々は短期量子コンピュータにおける分子動力学の新しい可能性を開く。 我々は、分子シミュレーションのための効率的な短期量子アルゴリズムのさらなる発明を期待する。

In this paper, we propose a cost-reduced method for finite-temperature molecular dynamics on a near-term quantum computer, Quantum Car-Parrinello molecular dynamics (QCPMD). One of the most promising applications of near-term quantum computers is quantum chemistry. It has been expected that simulations of molecules via molecular dynamics can be also efficiently performed on near-term quantum computers by applying a promising near-term quantum algorithm of the variational quantum eigensolver (VQE). However, this method may demand considerable computational costs to achieve a sufficient accuracy, and otherwise, statistical noise can significantly affect the results. To resolve these problems, we invent an efficient method for molecular time evolution inspired by Car-Parrinello method. In our method, parameters characterizing the quantum state evolve based on equations of motion instead of being optimized. Furthermore, by considering Langevin dynamics, we can make use of the intrinsic statistical noise. As an application of QCPMD, we propose an efficient method for vibrational frequency analysis of molecules in which we can use the results of the molecular dynamics calculated by QCPMD. Numerical experiments show that our method can precisely simulate the Langevin dynamics at the equilibrium state, and we can successfully predict a given molecule's eigen frequencies. Furthermore, in the numerical simulation, our method achieves a substantial cost reduction compared with molecular dynamics using the VQE. Our method achieves an efficient computation without using widely employed method of the VQE. In this sense, we open up a new possibility of molecular dynamics on near-term quantum computers. We expect our results inspire further invention of efficient near-term quantum algorithms for simulation of molecules.
翻訳日:2023-01-09 04:49:24 公開日:2022-12-22
# 対生成と真空情報伝達に及ぼす制御場の影響

Effects of control fields on the pair creation and the vacuum information transmission ( http://arxiv.org/abs/2212.11448v1 )

ライセンス: Link先を確認
J. X. Wu, C. Gong, A. R. Sun, Z. L. Li, and Y. J. Li(参考訳) 制御場がエネルギースペクトルおよび生成ペア数およびディラック真空モードによる情報伝達に与える影響を,計算量子場理論を用いて検討した。 その結果,エネルギースペクトルの発振構造は制御場の方向,幅,発振周波数に敏感であることが判明した。 対収率は、小さな周波数と非常に大きな周波数に対して明らかな変化を持つ。 また、2つのレーザーパルス間の磁場方向、レーザ周波数、時間間隔などの制御フィールドに符号化された情報は、ペア生成率の経時変化において真空モードによっても具現化することができる。 これらの結果は、ペア生成の制御と情報伝達の理解を深めるだけでなく、将来的な関連する実験に対する理論的参照を提供することができる。

The effects of control fields on the energy spectra and the number of created pairs and the information transmission by the Dirac vacuum modes are investigated by employing computational quantum field theory approach. It is found that the oscillation structures on the energy spectra are sensitive to the direction, the width, and the oscillation frequency of control fields. The pair yield can have obvious changes for a small frequency and a very large frequency. Moreover, the information encoded in the control fields, such as the field direction, the laser frequency and the time interval between two laser pulses, can also embodied by the vacuum modes in the change of pair-creation rate with time. These results not only can deepen our understanding of the control of pair creation and the information transmission, but also can provide a theoretical reference to the related experiments in the future.
翻訳日:2023-01-09 04:41:59 公開日:2022-12-22
# ガウスチャネルの影響下での非ガウス状態の量子性の評価

Characterization of Quantumness of non-Gaussian states under the influence of Gaussian channel ( http://arxiv.org/abs/2212.11510v1 )

ライセンス: Link先を確認
Ramniwas Meena, Subhashish Banerjee(参考訳) 本研究では, ガウスチャネルの雑音が非ガウス入力状態に与える影響について検討した。 入力と出力の両方の状態の非古典的性質は、対応する光子統計と準確率分布を研究することによって開発される。 光子付加は、光子減算の場合と比較してより強固な量子力学的性質を持つことが判明した。 位相空間の中心において、偏陰(W,P)と零(Q)への遷移に対応する雑音パラメータの閾値は、状態中の平均熱光子の数だけでなく、スクイーズパラメータにも依存する。 さらに,光子(s)を添加することにより,kth価ろ過熱状態の非古典性がさらに向上することが観察された。

The impact of a noisy Gaussian channel on a wide range of non-Gaussian input states is studied in this work. The nonclassical nature of the states, both input and output, is developed by studying the corresponding photon statistics and quasi-probability distributions. It is found that photon addition has more robust quantum mechanical properties as compared to the photon subtraction case. The threshold value of the noise parameter corresponding to the transition from partial negative (W and P ) and zero (Q) to completely positive definite, at the center of phase space, depends not only on the average number of thermal photons in the state, but also on the squeezing parameter. In addition it is observed that the nonclassicality of the kth-number filtrated thermal state could be further enhanced by adding photon(s).
翻訳日:2023-01-09 04:41:45 公開日:2022-12-22
# 100km以上の光ファイバーを用いたサブMbps鍵レート連続可変量子鍵分布

Sub-Mbps key-rate continuous-variable quantum key distribution with local-local-oscillator over 100 km fiber ( http://arxiv.org/abs/2212.11534v1 )

ライセンス: Link先を確認
Yaodi Pi, Heng Wang, Yan Pan, Yun Shao, Yang Li, Jie Yang, Yichen Zhang, Wei Huang, and Bingjie Xu(参考訳) 我々は,100km以上の伝送距離で,サブMbps鍵レートをガウス変調したコヒーレント状態連続可変量子鍵分布(CV-QKD)を実験的に実証した。 余剰ノイズを効率的に制御するために、広帯域周波数と偏波多重法に基づいて、量子信号とパイロット音をファイバチャネル内で共送する。 さらに、位相雑音と低信号対雑音比の偏極変動を補償する高精度なデータアシスト時間領域等化アルゴリズムを慎重に設計する。 CV-QKDの漸近安全鍵レート(SKR)は、それぞれ50km、75km、100kmの伝送距離で10.36Mbps、2.59Mbps、0.69Mbpsと実験的に評価されている。 実験によるCV-QKDシステムは,最先端のGMCS CV-QKD実験結果と比較して伝送距離とSKRを大幅に改善し,長距離かつ高速なセキュア量子鍵分布の可能性を示した。

We experimentally demonstrated a sub-Mbps key rate Gaussian-modulated coherent-state continuous-variable quantum key distribution (CV-QKD) over 100 km transmission distance. To efficiently control the excess noise, the quantum signal and the pilot tone are co-transmitted in fiber channel based on wide-band frequency and polarization multiplexing methods. Furthermore, a high-accuracy data-assisted time domain equalization algorithm is carefully designed to compensate the phase noise and polarization variation in low signal-to-noise ratio. The asymptotic secure key rate (SKR) of the demonstrated CV-QKD is experimentally evaluated to be 10.36 Mbps, 2.59 Mbps, and 0.69 Mbps over transmission distance of 50 km, 75 km, and 100 km, respectively. The experimental demonstrated CV-QKD system significantly improves transmission distance and SKR compared to the state-of-art GMCS CV-QKD experimental results, and shows the potential for long-distance and high-speed secure quantum key distribution.
翻訳日:2023-01-09 04:41:31 公開日:2022-12-22
# 任意変調プロトコルを用いたofdmマルチキャリア連続可変量子鍵分布の性能解析

Performance analysis for OFDM-based multi-carrier continuous-variable quantum key distribution with arbitrary modulation protocol ( http://arxiv.org/abs/2212.11537v1 )

ライセンス: Link先を確認
Heng Wang, Yan Pan, Yun Shao, Yaodi Pi, Ting Ye, Yang Li, Tao Zhang, Jinlu Liu, Jie Yang, Li Ma, Wei Huang and Bingjie Xu(参考訳) 複数キャリア連続可変量子鍵分布(CV-QKD)は、既存の単一キャリアCV-QKD方式よりも秘密鍵レート(SKR)を向上する有望な方法と考えられている。 しかし、Nサブキャリアの不完全なマルチキャリア量子状態生成プロセスで発生する余剰ノイズは、システムの性能を制限する。 本稿では,直交周波数分割多重化(OFDM)に基づくマルチキャリアCV-QKDに対して,システマティック変調ノイズモデルを提案する。 その後、任意の変調プロトコル(QPSK、256QAM、ガウス変調プロトコル)を用いたマルチキャリアCV-QKDの性能を、単一キャリアCV-QKDのセキュリティ解析手法を組み合わせて定量的に評価することができる。 実用システムパラメータでは, CV-QKDのSKRは, 不完全な実用変調でもキャリア数Nを増大させることで, 著しく改善可能であることが示された。 具体的には,Nを慎重に選択することで,多キャリアCV-QKDの総SKRを最適化することができる。

Multi-carrier continuous-variable quantum key distribution (CV-QKD) is considered to be a promising way to boost the secret key rate (SKR) over the existing single-carrier CV-QKD scheme. However, the extra excess noise induced in the imperfect multi-carrier quantum state preparation process of N subcarriers will limit the performance of the system. Here, a systematic modulation noise model is proposed for the multi-carrier CV-QKD based on the orthogonal frequency division multiplexing (OFDM). Subsequently, the performance of multi-carrier CV-QKD with arbitrary modulation protocol (e.g. QPSK, 256QAM and Gaussian modulation protocol) can be quantitatively evaluated by combining the security analysis method of the single-carrier CV-QKD. Under practical system parameters, the simulation results show that the SKR of the multi-carrier CV-QKD can still be significantly improved by increasing the carrier number N even with imperfect practical modulations. Specifically, the total SKR of multi-carrier CV-QKD can be optimized by carefully choosing N. The proposed model provides a feasible theoretical framework for the future multi-carrier CV-QKD experimental implementation.
翻訳日:2023-01-09 04:41:12 公開日:2022-12-22
# 有限次元量子テクスチュアリティのキャラクタリゼーション

Characterizing finite-dimensional quantum contextuality ( http://arxiv.org/abs/2212.11559v1 )

ライセンス: Link先を確認
Xiao-Dong Yu, Isadora Veeren, Otfried G\"uhne(参考訳) 測定の不整合性とベル非局所性を含む現象として、量子文脈性は量子力学の理解の中心であるだけでなく、多くの量子情報処理タスクにおいて重要な資源でもある。 量子コンテキスト性の発見以来、次元依存の特徴は知られているが、固定次元系の量子コンテキスト性を特徴付ける体系的な手法はまだ不足している。 本研究では,この問題を解決する。 得られた確率分布が$d$次元量子システムから得られるかどうかを検証するための体系的かつ信頼性の高い手法を提供し、一般の非文脈不等式に対する有限次元の違反を計算する。 応用として, 有限次元量子文脈性の非凸構造を明らかにする。

As a phenomenon encompassing measurement incompatibility and Bell nonlocality, quantum contextuality is not only central to our understanding of quantum mechanics, but also an essential resource in many quantum information processing tasks. The dimension-dependent feature of quantum contextuality is known ever since its discovery, but systematic methods for characterizing the quantum contextuality in systems with fixed dimension are still lacking. In this work, we solve this problem. We provide systematic and reliable methods for verifying whether or not an obtained probability distribution can result from a $d$-dimensional quantum system, as well as calculating finite-dimensional violation of a general noncontextuality inequality. As an application, our methods reveal the non-convex structure of finite-dimensional quantum contextuality.
翻訳日:2023-01-09 04:40:54 公開日:2022-12-22
# 非破壊的自己テストと自己テスト状態のないゲーム

A non-robust self-test and games that do not self-test states ( http://arxiv.org/abs/2212.11572v1 )

ライセンス: Link先を確認
Laura Man\v{c}inska and Simon Schmidt(参考訳) 近年、自己検査は量子デバイスの実用的検証から深い複雑性理論結果に至るまで、リッチで活発な研究領域に成長している。 自己テストにより、古典的検証者は、例えば非局所ゲームにおいてアリスとボブによって、どの量子測定値とどの状態が使われているかを推測することができる。 したがって、自己テストとノイズに耐性のある従兄弟であるロバストな自己テストは、非ローカルゲームにとって望ましい機能である。 予想とは対照的に、自己テストが失敗するかどうかに関して、私たちはかなり不完全な理解を持っています。 特に、量子アドバンテージを持つ2つの非局所ゲームやベルの不等式が特定の量子状態の存在を証明できるのではないだろうか? また、すべての自己テスト結果が十分な工夫と努力で堅牢に変換できる場合もありますか? 我々は、単純で完全に明示的な反例を提供することで、これらの疑問に否定的に答える。 この目的のために、2つの非局所ゲーム $\mathcal{G}_1$ と $\mathcal{G}_2$ が与えられた場合、プレイヤーがペアの質問を受け取り、プレイしたいゲームを選択する$(\mathcal{G}_1 \lor \mathcal{G}_2)$-game を導入する。 プレイヤーが同じゲームを選び、与えられた答えで勝ち取ると、プレイヤーは勝つ。 私たちの反例はこのゲームに基づいている。

In the recent years self-testing has grown into a rich and active area of study with applications ranging from practical verification of quantum devices to deep complexity theoretic results. Self-testing allows a classical verifier to deduce which quantum measurements and on what state are used, for example, by provers Alice and Bob in a nonlocal game. Hence, self-testing as well as its noise-tolerant cousin -- robust self-testing -- are desirable features for a nonlocal game to have. Contrary to what one might expect, we have a rather incomplete understanding of if and how self-testing could fail to hold. In particular, could it be that every 2-party nonlocal game or Bell inequality with a quantum advantage certifies the presence of a specific quantum state? Also, is it the case that every self-testing result can be turned robust with enough ingeniuty and effort? We answer these questions in the negative by providing simple and fully explicit counterexamples. To this end, given two nonlocal games $\mathcal{G}_1$ and $\mathcal{G}_2$, we introduce the $(\mathcal{G}_1 \lor \mathcal{G}_2)$-game, in which the players get pairs of questions and choose which game they want to play. The players win if they choose the same game and win it with the answers they have given. Our counterexamples are based on this game.
翻訳日:2023-01-09 04:40:41 公開日:2022-12-22
# 真空場誘起状態混合

Vacuum-field-induced state mixing ( http://arxiv.org/abs/2212.11610v1 )

ライセンス: Link先を確認
Diego Fern\'andez de la Pradilla, Esteban Moreno, Johannes Feist(参考訳) 電磁真空場の工学により、誘導カシミール・ポルダーシフト(ラムシフトとも呼ばれる)と個々の原子レベルの自発放出速度を制御することができる。 これらの効果の強さが関連する原子エネルギースケールに匹敵するものになると、異なる原子準位の間の環境によって引き起こされる相互作用は、我々の知る限り、未調査のままであるように見える。 この手紙では、これらの非対角摂動を原子ハミルトニアンに正確な非エルミートハミルトニアンの観点から解析することを可能にする記述を開発する。 この理論を誘電体ナノ粒子に近い水素原子に応用し、従来の対角摂動理論と比較して、エネルギーと崩壊速度の両方に劇的な変化をもたらす強い真空場誘起状態混合を示す。 特に、期待されるパーセルの増進とは対照的に、かなりの範囲の原子-ナノ粒子分離において、崩壊速度は驚くほど低下する。 さらに,非対角摂動による非摂動固有状態の混合量の定量化を行った。 我々の研究は、エネルギー準位が密接なエミッタに新しい量子状態操作の可能性を開く。

By engineering the electromagnetic vacuum field, the induced Casimir-Polder shift (also known as Lamb shift) and spontaneous emission rates of individual atomic levels can be controlled. When the strength of these effects becomes comparable to the relevant atomic energy scale, an environment-induced interaction between different atomic levels appears that, to the best of our knowledge, remains unexplored. In this Letter, we develop a description that permits the analysis of these non-diagonal perturbations to the atomic Hamiltonian in terms of an accurate non-Hermitian Hamiltonian. Applying this theory to a hydrogen atom close to a dielectric nanoparticle, we show strong vacuum-field-induced state mixing that leads to drastic modifications in both the energies and decay rates compared to conventional diagonal perturbation theory. In particular, contrary to the expected Purcell enhancement, we find a surprising decrease of decay rates within a considerable range of atom-nanoparticle separations. Furthermore, we quantify the large degree of mixing of the unperturbed eigenstates due to the non-diagonal perturbation. Our work opens new quantum state manipulation possibilities in emitters with closely spaced energy levels.
翻訳日:2023-01-09 04:40:16 公開日:2022-12-22
# QuOCS: 量子最適制御スイート

QuOCS: The Quantum Optimal Control Suite ( http://arxiv.org/abs/2212.11144v2 )

ライセンス: Link先を確認
Marco Rossignolo, Thomas Reisser, Alastair Marshall, Phila Rembold, Alice Pagano, Philipp J. Vetter, Ressa S. Said, Matthias M. M\"uller, Felix Motzoi, Tommaso Calarco, Fedor Jelezko, Simone Montangero(参考訳) 量子最適制御には、様々な量子技術の完全なポテンシャルを解き放つことを目的としたパルス整形アルゴリズムのファミリーが含まれる。 私たちのquantum optimal control suite(quocs)は、統一フレームワークにおける実験的な焦点とモデルベースのアプローチを統合します。 QuOCSの容易な使用とインストール、および様々な組み合わせ可能な最適化戦略は、ダイヤモンドの色欠陥、超伝導量子ビット、原子またはイオンベースの量子コンピュータなど、多くの量子技術プラットフォームの性能を向上させるために設計されている。 物理学におけるより一般的な現象の研究にも応用できる。 本稿では,勾配フリーおよび勾配ベースアルゴリズムのソフトウェアと主要ツールボックスについて述べる。 次に、ユーザが実験にどのように接続できるかを示す。 さらに,オープンループとクローズドループの両方において,典型的な量子最適制御問題を最適化スイートが解決する例を示す。 実験制御ソフトウェアQudi [J. M. Binder et al., SoftwareX, 6, 85-90, (2017)] に既存の実験制御ソフトウェアへの統合がすでに提供されており、さらなる拡張が検討され、高度に奨励されている。 QuOCSはApache License 2.0の下でGitHubから入手可能であり、PyPIリポジトリで見ることができる。

Quantum optimal control includes the family of pulse-shaping algorithms that aim to unlock the full potential of a variety of quantum technologies. Our Quantum Optimal Control Suite (QuOCS) unites experimental focus and model-based approaches in a unified framework. The easy usage and installation of QuOCS and the availability of various combinable optimization strategies is designed to improve the performance of many quantum technology platforms, such as color defects in diamond, superconducting qubits, atom- or ion-based quantum computers. It can also be applied to the study of more general phenomena in physics. In this paper, we describe the software and the main toolbox of gradient-free and gradient-based algorithms. We then show how the user can connect it to their experiment. In addition, we provide illustrative examples where our optimization suite solves typical quantum optimal control problems, in both open- and closed-loop settings. Integration into existing experimental control software is already provided for the experiment control software Qudi [J. M. Binder et al., SoftwareX, 6, 85-90, (2017)], and further extensions are investigated and highly encouraged. QuOCS is available from GitHub, under Apache License 2.0, and can be found on the PyPI repository.
翻訳日:2023-01-09 04:32:06 公開日:2022-12-22
# 重み再マッピングによる量子変分器の収束性向上

Improving Convergence for Quantum Variational Classifiers using Weight Re-Mapping ( http://arxiv.org/abs/2212.14807v1 )

ライセンス: Link先を確認
Michael K\"olle, Alessandro Giovagnoli, Jonas Stein, Maximilian Balthasar Mansky, Julian Hager and Claudia Linnhoff-Popien(参考訳) 近年、量子機械学習は変分量子回路(VQC)の利用が大幅に増加した。 VQCは、膨大なパラメータ化関数近似器として、幅広いAIタスクで素晴らしいパフォーマンスを達成する人工知能ニューラルネットワークにインスパイアされている。 vqcsはすでに、量子コンピューティングで利用可能なより堅牢なアルゴリズムツールボックスを利用することで、一般化やトレーニングするパラメータの少ない要件など、有望な結果を示している。 vqcsのトレーニング可能なパラメータや重みは通常、回転ゲートの角度として使われ、現在の勾配に基づく訓練方法ではそうはならない。 我々は,vqcsの重み再マッピングを導入し,その重みを2\pi$の間隔にあいまいにマッピングし,データ再スケーリングや正規化技術が多くの状況において大きなメリットを実証した従来のmlからインスピレーションを得た。 変分分類器を例として,5つの関数を例に挙げ,アイリスとワインのデータセット上で評価する。 実験の結果, 重量再マッピングは全試験条件における収束性を向上させることがわかった。 さらに,無修正の重みを用いて,ワインデータセットのテスト精度を10~%向上させることを実証した。

In recent years, quantum machine learning has seen a substantial increase in the use of variational quantum circuits (VQCs). VQCs are inspired by artificial neural networks, which achieve extraordinary performance in a wide range of AI tasks as massively parameterized function approximators. VQCs have already demonstrated promising results, for example, in generalization and the requirement for fewer parameters to train, by utilizing the more robust algorithmic toolbox available in quantum computing. A VQCs' trainable parameters or weights are usually used as angles in rotational gates and current gradient-based training methods do not account for that. We introduce weight re-mapping for VQCs, to unambiguously map the weights to an interval of length $2\pi$, drawing inspiration from traditional ML, where data rescaling, or normalization techniques have demonstrated tremendous benefits in many circumstances. We employ a set of five functions and evaluate them on the Iris and Wine datasets using variational classifiers as an example. Our experiments show that weight re-mapping can improve convergence in all tested settings. Additionally, we were able to demonstrate that weight re-mapping increased test accuracy for the Wine dataset by $10\%$ over using unmodified weights.
翻訳日:2023-01-09 04:14:33 公開日:2022-12-22
# 自動オンライン授業における学生の参加と保持をモデル化する学習シミュレーション環境

A Learned Simulation Environment to Model Student Engagement and Retention in Automated Online Courses ( http://arxiv.org/abs/2212.14693v1 )

ライセンス: Link先を確認
N. Imstepf, S. Senn, A. Fortin, B. Russell, C. Horn(参考訳) 運動順序が学生の関与と保持に及ぼす影響を定量化するシミュレータを開発した。 提案手法は,動的行列因数分解法を用いて,ユーザとエクササイズのためのニューラルネットワーク表現の構築を組み合わせたものである。 さらに、成功とドロップアウト予測の機械学習モデルを作成しました。 その結果,本システムは,選択した課題の系列に基づいて,学生の参加と定着を予測できる。 これは、試験準備における個人教師の役割を代替できる多目的強化学習エージェントの開発への扉を開く。

We developed a simulator to quantify the effect of exercise ordering on both student engagement and retention. Our approach combines the construction of neural network representations for users and exercises using a dynamic matrix factorization method. We further created a machine learning models of success and dropout prediction. As a result, our system is able to predict student engagement and retention based on a given sequence of exercises selected. This opens the door to the development of versatile reinforcement learning agents which can substitute the role of private tutoring in exam preparation.
翻訳日:2023-01-09 04:14:12 公開日:2022-12-22
# 部分単元演算子形式の機械学習知識表現について 知識一般化演算子

On Machine Learning Knowledge Representation In The Form Of Partially Unitary Operator. Knowledge Generalizing Operator ( http://arxiv.org/abs/2212.14810v1 )

ライセンス: Link先を確認
Vladislav Gennadievich Malyshkin(参考訳) 一般化力の高いML知識表現の新たな形式を開発し,数値的に実装した。 初期$\mathit{IN}$属性と$\mathit{OUT}$クラスラベルは、局所波動関数を考慮して対応するヒルベルト空間に変換する。 部分ユニタリ作用素が状態を $\mathit{IN}$ Hilbert space から $\mathit{OUT}$ Hilbert space に最適に変換すると、極大確率を $\mathit{IN}$ から $\mathit{OUT}$ に転送する最適化問題から構築される。 Constructed Knowledge Generalizing Operator $\mathcal{U}$ は $\mathit{IN}$ から $\mathit{OUT}$ の量子チャネルとみなすことができ、これは次元 $\mathrm{dim}(\mathit{OUT}) \times \mathrm{dim}(\mathit{in})$ として作用素を $A^{\mathit{OUT}}=\mathcal{U} A^{\mathit{IN}} \mathcal{U}^{\dagger}$ として変換したものである。 作用素 $\mathcal{U}$ の射影が可観測性 $\left\langle\mathit{OUT}|\mathcal{U}|\mathit{IN}\right\rangle^2$ (確率) であるのに対して、基本方程式は作用素 $\mathcal{U}$ 自身に対して定式化される。 これは、アプローチの高一般化力の理由であり、状況はシュル・"{o}dinger"方程式と同じである:$\psi^2$しか測れないが、この方程式は$\psi$自身のために書かれる。

A new form of ML knowledge representation with high generalization power is developed and implemented numerically. Initial $\mathit{IN}$ attributes and $\mathit{OUT}$ class label are transformed into the corresponding Hilbert spaces by considering localized wavefunctions. A partially unitary operator optimally converting a state from $\mathit{IN}$ Hilbert space into $\mathit{OUT}$ Hilbert space is then built from an optimization problem of transferring maximal possible probability from $\mathit{IN}$ to $\mathit{OUT}$, this leads to the formulation of a new algebraic problem. Constructed Knowledge Generalizing Operator $\mathcal{U}$ can be considered as a $\mathit{IN}$ to $\mathit{OUT}$ quantum channel; it is a partially unitary rectangular matrix of the dimension $\mathrm{dim}(\mathit{OUT}) \times \mathrm{dim}(\mathit{IN})$ transforming operators as $A^{\mathit{OUT}}=\mathcal{U} A^{\mathit{IN}} \mathcal{U}^{\dagger}$. Whereas only operator $\mathcal{U}$ projections squared are observable $\left\langle\mathit{OUT}|\mathcal{U}|\mathit{IN}\right\rangle^2$ (probabilities), the fundamental equation is formulated for the operator $\mathcal{U}$ itself. This is the reason of high generalizing power of the approach; the situation is the same as for the Schr\"{o}dinger equation: we can only measure $\psi^2$, but the equation is written for $\psi$ itself.
翻訳日:2023-01-09 04:14:03 公開日:2022-12-22
# 一般化メートル法を規定するPairwise Multi-Marginal Optimal Transportsの一家系

A Family of Pairwise Multi-Marginal Optimal Transports that Define a Generalized Metric ( http://arxiv.org/abs/2001.11114v6 )

ライセンス: Link先を確認
Liang Mi, Azadeh Sheikholeslami, and Jos\'e Bento(参考訳) 最適輸送(OT)問題は、機械学習に急速に浸透している。 その使用が好まれるのはメートル法の性質である。 多くの問題は、距離空間に埋め込まれたオブジェクトに対してのみ保証のある解を認め、非計量の使用はそれらを複雑にすることができる。 Multi-marginal OT (MMOT) は、複数の分布を同時に輸送するためにOTを一般化する。 輸送が2つの分布のみを含む場合、見逃される重要な関係をキャプチャする。 しかし、MMOTの研究は、その存在、独自性、実用的なアルゴリズム、コスト関数の選択に焦点を当てている。 MMOTの計量的性質については議論の余地がなく、理論的および実践的な使用を制限する。 ここでは、ペアワイズMMOTの族に対する新しい一般化された計量特性を証明する。 まず,この証明の難しさを2つの否定的な結果から説明する。 その後、MMOTsの計量特性を証明した。 最後に、この種類のMMOTの一般化された三角形の不等式は改善できないことを示す。 我々は、他の一般化メトリクスよりも、合成タスクと実タスクの両方において非メトリックよりも、mmotの優越性を示す。

The Optimal transport (OT) problem is rapidly finding its way into machine learning. Favoring its use are its metric properties. Many problems admit solutions with guarantees only for objects embedded in metric spaces, and the use of non-metrics can complicate solving them. Multi-marginal OT (MMOT) generalizes OT to simultaneously transporting multiple distributions. It captures important relations that are missed if the transport only involves two distributions. Research on MMOT, however, has been focused on its existence, uniqueness, practical algorithms, and the choice of cost functions. There is a lack of discussion on the metric properties of MMOT, which limits its theoretical and practical use. Here, we prove new generalized metric properties for a family of pairwise MMOTs. We first explain the difficulty of proving this via two negative results. Afterward, we prove the MMOTs' metric properties. Finally, we show that the generalized triangle inequality of this family of MMOTs cannot be improved. We illustrate the superiority of our MMOTs over other generalized metrics, and over non-metrics in both synthetic and real tasks.
翻訳日:2023-01-05 21:03:13 公開日:2022-12-22
# Debiasing Recommender システムのクロスデータセット確率推定

Cross-Dataset Propensity Estimation for Debiasing Recommender Systems ( http://arxiv.org/abs/2212.13892v1 )

ライセンス: Link先を確認
Fengyu Li, Sarah Dean(参考訳) 推薦システムのトレーニング用データセットは、しばしばユーザの選択バイアスによって引き起こされる分散シフトの影響を受ける。 本稿では,選択バイアスが異なる量子化データセットに与える影響について検討する。 次に, 因果推論から逆確率スコア法を適用することにより, 異なる音源分布からの2つの異なる量子化データセットを活用し, 分布シフトを緩和する。 経験的に、このアプローチはシングルデータセットメソッドや2つのデータセットを組み合わせる別の方法よりも大幅にパフォーマンスが向上する。

Datasets for training recommender systems are often subject to distribution shift induced by users' and recommenders' selection biases. In this paper, we study the impact of selection bias on datasets with different quantization. We then leverage two differently quantized datasets from different source distributions to mitigate distribution shift by applying the inverse probability scoring method from causal inference. Empirically, our approach gains significant performance improvement over single-dataset methods and alternative ways of combining two datasets.
翻訳日:2023-01-01 14:17:12 公開日:2022-12-22
# 局所パターン関連ルックアップテーブル

A Local-Pattern Related Look-Up Table ( http://arxiv.org/abs/2212.13922v1 )

ライセンス: Link先を確認
Chung-Chin Shih, Ting Han Wei, Ti-Rong Wu, and I-Chen Wu(参考訳) 本稿では、従来の転置テーブルを置き換えるために使用できるRelevance-Zoneパターンテーブル(RZT)について述べる。 RZTは、Relevance-Zone-Based Search (RZS)で発見されたパターンの正確なゲーム値を格納する。 同じパターンを共有する位置は、RZTで同じ正確なゲーム値を再利用することができる。 RZTのパターンマッチングスキームは、異なる形状のパターンを考慮したラディックスツリーを用いて実装される。 テーブルルックアップの効率を向上させるため,冗長なルックアップを防止するヒューリスティックを設計した。 ヒューリスティックは、所定の位置に問い合わせられたパターンを安全にスキップすることができ、元のコストの10%にオーバーヘッドを削減できる。 また,rztの時間複雑性を理論的および経験的に解析する。 実験では、テーブルに格納されているエントリ数に関して、ルックアップ中のラディックスツリーを実際に横断するオーバーヘッドが、対数的に平坦であることを示す。 また、従来の転置テーブルの代わりにRZTを使用することで、7x7と19x19のL&D Goの2つのデータセット上の探索ノード数が大幅に減少することを示した。

This paper describes a Relevance-Zone pattern table (RZT) that can be used to replace a traditional transposition table. An RZT stores exact game values for patterns that are discovered during a Relevance-Zone-Based Search (RZS), which is the current state-of-the-art in solving L&D problems in Go. Positions that share the same pattern can reuse the same exact game value in the RZT. The pattern matching scheme for RZTs is implemented using a radix tree, taking into consideration patterns with different shapes. To improve the efficiency of table lookups, we designed a heuristic that prevents redundant lookups. The heuristic can safely skip previously queried patterns for a given position, reducing the overhead to 10% of the original cost. We also analyze the time complexity of the RZT both theoretically and empirically. Experiments show the overhead of traversing the radix tree in practice during lookup remain flat logarithmically in relation to the number of entries stored in the table. Experiments also show that the use of an RZT instead of a traditional transposition table significantly reduces the number of searched nodes on two data sets of 7x7 and 19x19 L&D Go problems.
翻訳日:2023-01-01 13:56:44 公開日:2022-12-22
# マルチモーダル信号を用いた事前学習トランスフォーマーによる感情認識

Emotion Recognition with Pre-Trained Transformers Using Multimodal Signals ( http://arxiv.org/abs/2212.13885v1 )

ライセンス: Link先を確認
Juan Vazquez-Rodriguez (M-PSI), Gr\'egoire Lefebvre, Julien Cumin, James L Crowley (M-PSI)(参考訳) 本稿では,複数の生理的信号からのマルチモーダル感情認識の問題に対処する。 このタスクにはトランスフォーマーベースのアプローチが適していることを示す。 さらに、このようなモデルがマルチモーダルシナリオで事前訓練され、感情認識性能が向上する可能性を示す。 我々は,最先端データセットに対するアプローチを用いて,マルチモーダル入力と事前学習の利点を評価する。

In this paper, we address the problem of multimodal emotion recognition from multiple physiological signals. We demonstrate that a Transformer-based approach is suitable for this task. In addition, we present how such models may be pretrained in a multimodal scenario to improve emotion recognition performances. We evaluate the benefits of using multimodal inputs and pre-training with our approach on a state-ofthe-art dataset.
翻訳日:2023-01-01 13:56:26 公開日:2022-12-22
# 光胸腺造影法による呼吸波形の迅速抽出:ディープエンコーダアプローチ

Rapid Extraction of Respiratory Waveforms from Photoplethysmography: A Deep Encoder Approach ( http://arxiv.org/abs/2212.12578v1 )

ライセンス: Link先を確認
Harry J. Davies and Danilo P. Mandic(参考訳) 呼吸に関する情報の多くは、静脈血流量、心拍数、脳卒中量の変化を通じて、ppg(photoplethysmography)信号に含まれる。 我々は,再利用可能な畳み込みオートエンコーダに基づく新しいディープラーニングフレームワークを用いて,この事実を活用することを目指している。 本モデルは,photoplethysmography波形に含まれる呼吸情報を全てエンコードし,ゴールド標準呼吸基準と類似した波形に復号することを目的としている。 このモデルは、capnobaseとbidmcという2つのフォトプレチモグラフィデータセットで使用される。 本モデルでは,金標準に接近する呼吸波形を生成できると同時に,術中呼吸速度の推定値を生成することができることを示す。 また、デューティサイクルのようなより高度な呼吸波形特性を捉えることに関しても、我々のモデルは殆ど失敗していることを示す。 このことが示唆される理由は、前回の研究から、指-PPGの呼吸の変動は他の記録場所に比べてはるかに弱いためである。 重要なことに、我々のモデルは1ミリ秒でこれらの波形を推定することができ、単一の秒で6時間以上の呼吸波形を生成することができる。 さらに、モデル内のカーネル重みの挙動を解釈しようと試み、その一部は直感的に異なる呼吸周波数を選択することを示す。 この研究で提案されるモデルは、詳細な呼吸情報を必要とする医療応用のための一般のPSGベースのウェアラブルの有用性を向上させるのに役立つ。

Much of the information of breathing is contained within the photoplethysmography (PPG) signal, through changes in venous blood flow, heart rate and stroke volume. We aim to leverage this fact, by employing a novel deep learning framework which is a based on a repurposed convolutional autoencoder. Our model aims to encode all of the relevant respiratory information contained within photoplethysmography waveform, and decode it into a waveform that is similar to a gold standard respiratory reference. The model is employed on two photoplethysmography data sets, namely Capnobase and BIDMC. We show that the model is capable of producing respiratory waveforms that approach the gold standard, while in turn producing state of the art respiratory rate estimates. We also show that when it comes to capturing more advanced respiratory waveform characteristics such as duty cycle, our model is for the most part unsuccessful. A suggested reason for this, in light of a previous study on in-ear PPG, is that the respiratory variations in finger-PPG are far weaker compared with other recording locations. Importantly, our model can perform these waveform estimates in a fraction of a millisecond, giving it the capacity to produce over 6 hours of respiratory waveforms in a single second. Moreover, we attempt to interpret the behaviour of the kernel weights within the model, showing that in part our model intuitively selects different breathing frequencies. The model proposed in this work could help to improve the usefulness of consumer PPG-based wearables for medical applications, where detailed respiratory information is required.
翻訳日:2022-12-27 15:27:24 公開日:2022-12-22
# 局所化近傍フェアネスを用いたグラフ学習

Graph Learning with Localized Neighborhood Fairness ( http://arxiv.org/abs/2212.12040v1 )

ライセンス: Link先を確認
April Chen, Ryan Rossi, Nedim Lipka, Jane Hoffswell, Gromit Chan, Shunan Guo, Eunyee Koh, Sungchul Kim, Nesreen K. Ahmed(参考訳) 下流アプリケーションのための公正グラフ表現の学習はますます重要になっているが、既存の研究は、ノードの局所的な近傍を考慮せずにグラフ構造や目的関数を変更することによって、グローバルレベルで公正性を改善することに集中している。 本研究では,近傍フェアネスの概念を正式に導入し,局所的フェア埋め込みを学習するための計算フレームワークを開発した。 我々は,gnnモデルがノードの局所近傍レベルで動作するため,近傍フェアネスの概念がより適切であると主張する。 Our neighborhood fairness framework has two main components that are flexible for learning fair graph representations from arbitrary data: the first aims to construct fair neighborhoods for any arbitrary node in a graph and the second enables adaption of these fair neighborhoods to better capture certain application or data-dependent constraints, such as allowing neighborhoods to be more biased towards certain attributes or neighbors in the graph.Furthermore, while link prediction has been extensively studied, we are the first to investigate the graph representation learning task of fair link classification. 本稿では,フェアリンク予測,リンク分類,学習フェアグラフ埋め込みなど,さまざまなグラフ機械学習タスクに対して提案手法の有効性を示す。 特に当社のアプローチは,公平性の向上だけでなく,さまざまなグラフや問題設定,メトリクスなどにおいて,ほとんどのケースで精度の向上を実現しています。

Learning fair graph representations for downstream applications is becoming increasingly important, but existing work has mostly focused on improving fairness at the global level by either modifying the graph structure or objective function without taking into account the local neighborhood of a node. In this work, we formally introduce the notion of neighborhood fairness and develop a computational framework for learning such locally fair embeddings. We argue that the notion of neighborhood fairness is more appropriate since GNN-based models operate at the local neighborhood level of a node. Our neighborhood fairness framework has two main components that are flexible for learning fair graph representations from arbitrary data: the first aims to construct fair neighborhoods for any arbitrary node in a graph and the second enables adaption of these fair neighborhoods to better capture certain application or data-dependent constraints, such as allowing neighborhoods to be more biased towards certain attributes or neighbors in the graph.Furthermore, while link prediction has been extensively studied, we are the first to investigate the graph representation learning task of fair link classification. We demonstrate the effectiveness of the proposed neighborhood fairness framework for a variety of graph machine learning tasks including fair link prediction, link classification, and learning fair graph embeddings. Notably, our approach achieves not only better fairness but also increases the accuracy in the majority of cases across a wide variety of graphs, problem settings, and metrics.
翻訳日:2022-12-26 17:22:19 公開日:2022-12-22
# ランダムネットワーク3dプリントメカニカルメタマテリアルのサイズ非依存な逆設計のためのディープラーニング

Deep learning for size-agnostic inverse design of random-network 3D printed mechanical metamaterials ( http://arxiv.org/abs/2212.12047v1 )

ライセンス: Link先を確認
Helda Pahlavani, Kostas Tsifoutis-Kazolis, Prerak Mody, Jie Zhou, Mohammad J. Mirzaali, Amir A. Zadpoor(参考訳) メカニカルメタマテリアルの実践的応用は、しばしば、与えられた性質の集合を生じさせる(複数の)マイクロアーキテクチャを見つけることが目的である逆問題の解決にかかわる。 添加性製造技術の限定的な解決法は、しばしば特定のサイズの逆問題を解決する必要がある。 したがって、与えられた次元の標本の望ましい特性を示す複数のマイクロアーキテクチャ設計を見つけるべきである。 さらに, 候補者のマイクロアーキテクチャは疲労や破壊に耐性を持つべきであり, ピーク応力も最小限に抑えるべきである。 このような多目的逆設計問題は、明らかに解決が難しいが、その解決策は、メカニカルメタマテリアルの現実的な応用の鍵となる。 本稿では,2つの深層学習モデル (DLM) と条件付き変分オートエンコーダ (CVAE) に基づく深部生成モデル (DGM) と直接有限要素シミュレーション (FE) の4つの分離モデルを組み合わせた「深部DRAM」というモジュラー手法を提案する。 deep-dram (deep learning for the design of random-network metamaterials)は、これらのモデルを統合フレームワークに統合し、ここで生じる多目的逆設計問題に対する多くの解決策を見つけることができる。 統合フレームワークはまず、望まれる弾性特性をDGMに導入し、候補設計のセットを返す。 候補となる設計は、対象の標本寸法と共にdlmに渡され、標本サイズを考慮した実際の弾性特性を予測する。 実際の特性と所望の特性の密接性に基づくフィルタリングステップの後、最後のステップはfe直接シミュレーションを用いて最小のピーク応力で設計を識別する。

Practical applications of mechanical metamaterials often involve solving inverse problems where the objective is to find the (multiple) microarchitectures that give rise to a given set of properties. The limited resolution of additive manufacturing techniques often requires solving such inverse problems for specific sizes. One should, therefore, find multiple microarchitectural designs that exhibit the desired properties for a specimen with given dimensions. Moreover, the candidate microarchitectures should be resistant to fatigue and fracture, meaning that peak stresses should be minimized as well. Such a multi-objective inverse design problem is formidably difficult to solve but its solution is the key to real-world applications of mechanical metamaterials. Here, we propose a modular approach titled 'Deep-DRAM' that combines four decoupled models, including two deep learning models (DLM), a deep generative model (DGM) based on conditional variational autoencoders (CVAE), and direct finite element (FE) simulations. Deep-DRAM (deep learning for the design of random-network metamaterials) integrates these models into a unified framework capable of finding many solutions to the multi-objective inverse design problem posed here. The integrated framework first introduces the desired elastic properties to the DGM, which returns a set of candidate designs. The candidate designs, together with the target specimen dimensions are then passed to the DLM which predicts their actual elastic properties considering the specimen size. After a filtering step based on the closeness of the actual properties to the desired ones, the last step uses direct FE simulations to identify the designs with the minimum peak stresses.
翻訳日:2022-12-26 17:22:01 公開日:2022-12-22
# 企業破産予測のための機械学習モデルのベンチマーク

Benchmarking Machine Learning Models to Predict Corporate Bankruptcy ( http://arxiv.org/abs/2212.12051v1 )

ライセンス: Link先を確認
Emmanuel Alanis, Sudheer Chava, Agam Shah(参考訳) 1990年から2019年にかけての2,585件の倒産を包括的にサンプルとして,米国の上場企業の金融危機予測における各種機械学習モデルの性能評価を行った。 勾配が増した木は1年ごとの予測で他のモデルを上回った。 可変置換試験は、過剰なストックリターン、慣性的リスク、相対的なサイズが予測にとってより重要な変数であることを示している。 企業出願から派生したテキスト機能は、パフォーマンスを著しく改善しない。 デフォルトのミス分類の非対称コストを考慮に入れた信用競争モデルでは、サバイバルランダム森林は大きなドル利益を捉えることができる。

Using a comprehensive sample of 2,585 bankruptcies from 1990 to 2019, we benchmark the performance of various machine learning models in predicting financial distress of publicly traded U.S. firms. We find that gradient boosted trees outperform other models in one-year-ahead forecasts. Variable permutation tests show that excess stock returns, idiosyncratic risk, and relative size are the more important variables for predictions. Textual features derived from corporate filings do not improve performance materially. In a credit competition model that accounts for the asymmetric cost of default misclassification, the survival random forest is able to capture large dollar profits.
翻訳日:2022-12-26 17:21:30 公開日:2022-12-22
# NASDAQ予測のための動的フィードフォワード機械学習モデルの設計解釈可能な経験

Design interpretable experience of dynamical feed forward machine learning model for forecasting NASDAQ ( http://arxiv.org/abs/2212.12044v1 )

ライセンス: Link先を確認
Pouriya Khalilian, Sara Azizi, Mohammad Hossein Amiri, and Javad T. Firouzjaee(参考訳) NASDAQ(National Association of Securities Dealers Automated Quotations)は、アメリカ合衆国の証券取引所。 世界で最も価値の高い株式経済指標の1つであり、ニューヨーク市の「{pagano2008quality}」にある。 株式市場のボラティリティや、原油、金、ドルなどの経済指標の影響、NASDAQ株も影響を受け、揮発性でカオス的な性質を持つ。 本稿では、石油、ドル、金、株式市場のボラティリティ(ボラティリティ)が経済市場に与えた影響について検討した上で、これらの指標がnasdaq株に与える影響についても検討した。 その後、nasdaq株の過去の価格に対するフィードバックの影響と、その現在の価格への影響を分析し始めた。 pcaと線形回帰アルゴリズムを用いて,これらのストックのモデリングに最適な動的学習体験を考案した。 定量的分析の結果は、経済研究の質的分析の結果と一致し、機械学習の最適動的経験を用いたモデリングは、NASDAQ株の現在の価格を正当化する。

National Association of Securities Dealers Automated Quotations(NASDAQ) is an American stock exchange based. It is one of the most valuable stock economic indices in the world and is located in New York City \cite{pagano2008quality}. The volatility of the stock market and the influence of economic indicators such as crude oil, gold, and the dollar in the stock market, and NASDAQ shares are also affected and have a volatile and chaotic nature \cite{firouzjaee2022lstm}.In this article, we have examined the effect of oil, dollar, gold, and the volatility of the stock market in the economic market, and then we have also examined the effect of these indicators on NASDAQ stocks. Then we started to analyze the impact of the feedback on the past prices of NASDAQ stocks and its impact on the current price. Using PCA and Linear Regression algorithm, we have designed an optimal dynamic learning experience for modeling these stocks. The results obtained from the quantitative analysis are consistent with the results of the qualitative analysis of economic studies, and the modeling done with the optimal dynamic experience of machine learning justifies the current price of NASDAQ shares.
翻訳日:2022-12-26 17:12:01 公開日:2022-12-22
# 構成可能なインダクティブプログラミングのためのアーキテクチャと知識表現

Architecture and Knowledge Representation for Composable Inductive Programming ( http://arxiv.org/abs/2212.12320v1 )

ライセンス: Link先を確認
Edward McDaid, Sarah McDaid(参考訳) 本稿では,zoeaの知識ベースで構成可能なインダクティブ・プログラミング・システムの現在のアーキテクチャのアップデートについて述べる。 Zoeaコンパイラは、ブラックボードアーキテクチャの現代的なバリエーションを使って構築されている。 Zoeaは多くの知識ソースを統合し、プログラミング言語とソフトウェア開発の専門知識の異なる側面をコード化します。 本稿では,様々な推論戦略を超越する知識と仮説表現のユビキタスな形式として,合成テストケースの使用について述べる。 今後の計画も概説されている。

We present an update on the current architecture of the Zoea knowledge-based, Composable Inductive Programming system. The Zoea compiler is built using a modern variant of the black-board architecture. Zoea integrates a large number of knowledge sources that encode different aspects of programming language and software development expertise. We describe the use of synthetic test cases as a ubiquitous form of knowledge and hypothesis representation that sup-ports a variety of reasoning strategies. Some future plans are also outlined.
翻訳日:2022-12-26 17:11:10 公開日:2022-12-22
# 英語およびスペイン語アクセントにおけるASRモデルの性能向上

Pushing the performances of ASR models on English and Spanish accents ( http://arxiv.org/abs/2212.12048v1 )

ライセンス: Link先を確認
Pooja Chitkara, Morgane Riviere, Jade Copet, Frank Zhang, Yatharth Saraf(参考訳) テキストモデルへのスピーチは、単一のターゲットアクセントに対して訓練され、評価される傾向にある。 これは、アメリカ出身のネイティブスピーカーが主要なベンチマークとなった英語に特に当てはまる。 本稿では,asrシステムの性能向上のために,事前学習した組込みと補助的分類損失という2つの単純な方法を提案する。 可能な限り普遍的なアップグレードを探しているので、いくつかのモデルアーキテクチャといくつかの言語への影響について検討する。

Speech to text models tend to be trained and evaluated against a single target accent. This is especially true for English for which native speakers from the United States became the main benchmark. In this work, we are going to show how two simple methods: pre-trained embeddings and auxiliary classification losses can improve the performance of ASR systems. We are looking for upgrades as universal as possible and therefore we will explore their impact on several models architectures and several languages.
翻訳日:2022-12-26 17:11:03 公開日:2022-12-22
# 平面上の揺動:非安定写真からの教師なし深度推定

Shakes on a Plane: Unsupervised Depth Estimation from Unstabilized Photography ( http://arxiv.org/abs/2212.12324v1 )

ライセンス: Link先を確認
Ilya Chugunov, Yuxuan Zhang, Felix Heide(参考訳) 現代のモバイルバースト撮影パイプラインは、拡張されたイメージを回収するために短いフレーム列をキャプチャしてマージするが、多くの場合、キャプチャするシーンの3D特性を無視し、画像間のピクセルの動きを2Dアグリゲーション問題として扱う。 2秒で取得した12メガピクセルのRAWフレームの長バースト(長バースト)では,自然手振れのみからのパララックス情報で高品質なシーン深度を再現できることがわかった。 この目的のために, ニューラルRGB-D表現をロングバーストデータに適合させるテスト時間最適化手法を考案し, シーン深度とカメラモーションを同時に推定する。 我々の平面+深度モデルはエンドツーエンドに訓練され、トレーニング中にネットワークがアクセスするマルチレゾリューションボリュームを制御して粗大な精細化を行う。 本手法を実験的に検証し,追加のハードウェアや別個のデータ前処理やポーズ推定ステップを伴わずに,幾何学的精度の高い奥行き復元を行う。

Modern mobile burst photography pipelines capture and merge a short sequence of frames to recover an enhanced image, but often disregard the 3D nature of the scene they capture, treating pixel motion between images as a 2D aggregation problem. We show that in a "long-burst", forty-two 12-megapixel RAW frames captured in a two-second sequence, there is enough parallax information from natural hand tremor alone to recover high-quality scene depth. To this end, we devise a test-time optimization approach that fits a neural RGB-D representation to long-burst data and simultaneously estimates scene depth and camera motion. Our plane plus depth model is trained end-to-end, and performs coarse-to-fine refinement by controlling which multi-resolution volume features the network has access to at what time during training. We validate the method experimentally, and demonstrate geometrically accurate depth reconstructions with no additional hardware or separate data pre-processing and pose-estimation steps.
翻訳日:2022-12-26 16:53:49 公開日:2022-12-22
# サハラ以南のアフリカにおけるオープンストリートマップ医療施設と学校を分類するためのトピックモデリングアプローチ

A Topic Modeling Approach to Classifying Open Street Map Health Clinics and Schools in Sub-Saharan Africa ( http://arxiv.org/abs/2212.12084v1 )

ライセンス: Link先を確認
Joshua W. Anderson, Luis I\~naki Alberro Encina, Tina George Karippacheril, Jonathan Hersh, Cadence Stringer(参考訳) データ剥奪、または個人の幸福に関する容易かつ実行可能な情報の欠如は、発展途上国にとって重要な課題であり、貧困を緩和するための政策の設計と運用の障害である。 本稿では,学校と医療クリニックという2つの重要な公共サービスの位置を代行するために,OpenStreetMapから派生したデータの適合性を検討する。 何千人ものデジタル人道主義者の努力のおかげで、OpenStreetMapのようなオンラインマッピングリポジトリには、建物やその他の構造に関する数百万のレコードが含まれており、その場所と頻繁に使用される。 残念ながら、これらのデータの多くは複雑で構造化されていないテキストでロックされており、学校や診療所の分類には適していないように見える。 スケーラブルで教師なしの学習手法をopenstreetmapビルディングデータに適用し,アフリカの10か国における学校や診療所の位置を抽出した。 トピックモデリングアプローチは、構造化キーのみに依存するよりもパフォーマンスを大幅に改善する。 我々は,OSM法で同定された学校とクリニックとWHOで同定されたクリニックを比較検討し,より広い範囲でOSMカバレッジギャップを記述した。

Data deprivation, or the lack of easily available and actionable information on the well-being of individuals, is a significant challenge for the developing world and an impediment to the design and operationalization of policies intended to alleviate poverty. In this paper we explore the suitability of data derived from OpenStreetMap to proxy for the location of two crucial public services: schools and health clinics. Thanks to the efforts of thousands of digital humanitarians, online mapping repositories such as OpenStreetMap contain millions of records on buildings and other structures, delineating both their location and often their use. Unfortunately much of this data is locked in complex, unstructured text rendering it seemingly unsuitable for classifying schools or clinics. We apply a scalable, unsupervised learning method to unlabeled OpenStreetMap building data to extract the location of schools and health clinics in ten countries in Africa. We find the topic modeling approach greatly improves performance versus reliance on structured keys alone. We validate our results by comparing schools and clinics identified by our OSM method versus those identified by the WHO, and describe OSM coverage gaps more broadly.
翻訳日:2022-12-26 16:52:20 公開日:2022-12-22
# ニューラルシンボリックコンピューティングのためのセマンティクスフレームワーク

A Semantic Framework for Neural-Symbolic Computing ( http://arxiv.org/abs/2212.12050v1 )

ライセンス: Link先を確認
Simon Odense, Artur d'Avila Garcez(参考訳) AI、ニューラルネットワーク、シンボリックシステムに対する2つのアプローチは、AI問題に対して非常に成功している。 しかし、人間のような知能に必要な一般的な推論能力は達成できなかった。 これはそれぞれのアプローチに固有の弱点があるという主張がある。 幸いにも、これらの弱点は補完的なもので、ニューラルネットワークが抱える問題や逆転に象徴的なシステムが対応している。 ニューラルシンボリックAIの分野は、ニューラルネットワークとシンボリックAIを統合システムに組み合わせることで、この非対称性を活用しようとする。 これはしばしば、記号的知識をニューラルネットワークに符号化することで実現されている。 残念ながら、多くの異なる方法が提案されているが、それらを比較するための符号化の共通定義は存在しない。 我々は、神経シンボリックaiのためのセマンティックフレームワークを導入することで、この問題を正そうとしている。 このフレームワークの様々な形態の知識表現とニューラルネットワークのニューラルエンコーディングへの応用例と証明を多数提供している。 これらは、当初、異なるアプローチで、すべて、ニューラルネットワークの象徴的AIのセマンティックエンコーディングと呼ばれるフレームワークの正式な定義に該当することが示されている。

Two approaches to AI, neural networks and symbolic systems, have been proven very successful for an array of AI problems. However, neither has been able to achieve the general reasoning ability required for human-like intelligence. It has been argued that this is due to inherent weaknesses in each approach. Luckily, these weaknesses appear to be complementary, with symbolic systems being adept at the kinds of things neural networks have trouble with and vice-versa. The field of neural-symbolic AI attempts to exploit this asymmetry by combining neural networks and symbolic AI into integrated systems. Often this has been done by encoding symbolic knowledge into neural networks. Unfortunately, although many different methods for this have been proposed, there is no common definition of an encoding to compare them. We seek to rectify this problem by introducing a semantic framework for neural-symbolic AI, which is then shown to be general enough to account for a large family of neural-symbolic systems. We provide a number of examples and proofs of the application of the framework to the neural encoding of various forms of knowledge representation and neural network. These, at first sight disparate approaches, are all shown to fall within the framework's formal definition of what we call semantic encoding for neural-symbolic AI.
翻訳日:2022-12-26 16:45:28 公開日:2022-12-22
# 暗黙のシンクホーン分化によるリバジン

Re-basin via implicit Sinkhorn differentiation ( http://arxiv.org/abs/2212.12042v1 )

ライセンス: Link先を確認
Fidel A. Guerrero Pe\~na, Heitor Rapela Medeiros, Thomas Dubail, Masih Aminbeidokhti, Eric Granger, Marco Pedersoli(参考訳) 関数的に等価な解空間の領域にモデルを置換する新しいアルゴリズムが最近登場し、エラー面の複雑さとモード接続のような有望な性質に光を当てた。 しかし、適切な置換を見つけることは困難であり、現在の最適化手法は微分できないため、勾配に基づく最適化に統合することは困難であり、しばしば準最適解につながる。 本稿では,所定の目的に合致する交通計画を得ることのできるシンクホーン再ベースネットワークを提案する。 現在の最先端技術とは異なり、我々の手法は微分可能であり、深層学習領域内のどんなタスクにも容易に適応できる。 さらに,リニアモード接続特性を利用したインクリメンタル学習を可能にする新しいコスト関数を提案することで,本手法の利点を示す。 本手法の利点は, 最適輸送探索と線形モード接続の両方の条件下で, 文献からの類似のアプローチと比較した。 また,再ベースに基づく連続学習手法の有効性を,いくつかの一般的なベンチマークデータセットで示し,文献の最先端結果と競合する実験結果を提供する。

The recent emergence of new algorithms for permuting models into functionally equivalent regions of the solution space has shed some light on the complexity of error surfaces, and some promising properties like mode connectivity. However, finding the right permutation is challenging, and current optimization techniques are not differentiable, which makes it difficult to integrate into a gradient-based optimization, and often leads to sub-optimal solutions. In this paper, we propose a Sinkhorn re-basin network with the ability to obtain the transportation plan that better suits a given objective. Unlike the current state-of-art, our method is differentiable and, therefore, easy to adapt to any task within the deep learning domain. Furthermore, we show the advantage of our re-basin method by proposing a new cost function that allows performing incremental learning by exploiting the linear mode connectivity property. The benefit of our method is compared against similar approaches from the literature, under several conditions for both optimal transport finding and linear mode connectivity. The effectiveness of our continual learning method based on re-basin is also shown for several common benchmark datasets, providing experimental results that are competitive with state-of-art results from the literature.
翻訳日:2022-12-26 16:43:08 公開日:2022-12-22
# マルコフニューラルネットワークのためのランジュバンアルゴリズムと深い確率制御

Langevin algorithms for Markovian Neural Networks and Deep Stochastic control ( http://arxiv.org/abs/2212.12018v1 )

ライセンス: Link先を確認
Pierre Bras(参考訳) 古典的な勾配降下にノイズを加える確率勾配Descent Langevin Dynamics (SGLD)アルゴリズムは、ニューラルネットワークが非常に深い場合において、ニューラルネットワークのトレーニングを改善することが知られている。 本稿では,ニューラルネットワークによって制御がパラメータ化される勾配降下による確率的制御問題の数値解法に対するトレーニング加速の可能性について検討する。 制御が多くの離散化時間に適用されると、確率的制御問題を解くことは、非常に深いニューラルネットワークの損失を最小化する。 本稿では,階層化や資源管理など,様々な確率的制御問題に対するLangevinアルゴリズムの学習改善と,勾配降下法の選択について述べる。

Stochastic Gradient Descent Langevin Dynamics (SGLD) algorithms, which add noise to the classic gradient descent, are known to improve the training of neural networks in some cases where the neural network is very deep. In this paper we study the possibilities of training acceleration for the numerical resolution of stochastic control problems through gradient descent, where the control is parametrized by a neural network. If the control is applied at many discretization times then solving the stochastic control problem reduces to minimizing the loss of a very deep neural network. We numerically show that Langevin algorithms improve the training on various stochastic control problems like hedging and resource management, and for different choices of gradient descent methods.
翻訳日:2022-12-26 16:37:55 公開日:2022-12-22
# 赤外線超解像 : システムレビューと今後の展望

Infrared Image Super-Resolution: Systematic Review, and Future Trends ( http://arxiv.org/abs/2212.12322v1 )

ライセンス: Link先を確認
Yongsong Huang, Tomo Miyazaki, Xiaofeng Liu, Shinichiro Omachi(参考訳) Image Super-Resolution (SR) は、幅広いコンピュータビジョンと画像処理タスクに不可欠である。 赤外線画像(または熱画像)の超解像は、深層学習の発展における継続的な関心事である。 本研究の目的は、IR画像の超解像の総合的な展望を提供することであり、その応用、ハードウェアイメージングシステムジレンマ、画像処理手法の分類などである。 さらに、IR画像超解像タスクにおけるデータセットと評価指標についても論じる。 さらに、現在の技術における欠陥や、コミュニティが探究する有望な方向性が強調されている。 この分野での急速な開発に対処するため、我々は、関連する優れた仕事を定期的に更新するつもりです。

Image Super-Resolution (SR) is essential for a wide range of computer vision and image processing tasks. Investigating infrared (IR) image (or thermal images) super-resolution is a continuing concern within the development of deep learning. This survey aims to provide a comprehensive perspective of IR image super-resolution, including its applications, hardware imaging system dilemmas, and taxonomy of image processing methodologies. In addition, the datasets and evaluation metrics in IR image super-resolution tasks are also discussed. Furthermore, the deficiencies in current technologies and possible promising directions for the community to explore are highlighted. To cope with the rapid development in this field, we intend to regularly update the relevant excellent work at \url{https://github.com/yongsongH/Infrared_Image_SR_Survey
翻訳日:2022-12-26 16:36:23 公開日:2022-12-22
# 多言語DALL-Eストーリータイム

Multi-Lingual DALL-E Storytime ( http://arxiv.org/abs/2212.11985v1 )

ライセンス: Link先を確認
Noga Mudrik and Adam S. Charles(参考訳) 人工知能(AI)言語モデルの最近の進歩は、英語のテキストを扱う際の最先端のパフォーマンスを示しているが、同等のモデルは他の言語には存在しない。 このAIの進歩による望ましくない効果は、世界中の異なる人々から新しい技術にアクセスするためのギャップを増す。 この偏見は、英語のスキルが発達していない個人、例えば非英語話者の子供に対して主に差別している。 近年のAI研究の大きな進歩に続いて、OpenAIは、英語のテキストプロンプトに基づいて画像を作成する強力なツールであるDALL-Eを発表した。 dall-eは多くのアプリケーションにとって有望なツールだが、異なる言語で入力されるとパフォーマンスが低下し、オーディエンスが制限され、人口間のギャップが深まる。 現在のDALL-Eモデルのさらなる制限は、ストーリーを伝え、時間とともに変化するプロセスを記述する一連の連続したコヒーレントフレームではなく、与えられた入力プロンプトに応答して、少数の画像を作成することができることである。 本稿では,既存のDALL-Eモデルを利用して,非英語の楽曲や物語の高速かつコヒーレントな可視化を実現し,現在提供されているワンステップ・アズ・ア・タイムオプションの限界を押し上げる,使い易いDALL-Eストーリーテリングフレームワークを提案する。 本フレームワークは,非英語テキストのストーリーを効果的に可視化し,時間とともにプロットの変化を表現できることを示す。 また、物語の作成や、フレーム間の記述の解釈可能な変更の維持も可能である。 さらに、我々のフレームワークは、特定の場所やコンテキストなどのストーリー要素の制約を指定でき、可視化全体を通して一貫したスタイルを維持することができます。

While recent advancements in artificial intelligence (AI) language models demonstrate cutting-edge performance when working with English texts, equivalent models do not exist in other languages or do not reach the same performance level. This undesired effect of AI advancements increases the gap between access to new technology from different populations across the world. This unsought bias mainly discriminates against individuals whose English skills are less developed, e.g., non-English speakers children. Following significant advancements in AI research in recent years, OpenAI has recently presented DALL-E: a powerful tool for creating images based on English text prompts. While DALL-E is a promising tool for many applications, its decreased performance when given input in a different language, limits its audience and deepens the gap between populations. An additional limitation of the current DALL-E model is that it only allows for the creation of a few images in response to a given input prompt, rather than a series of consecutive coherent frames that tell a story or describe a process that changes over time. Here, we present an easy-to-use automatic DALL-E storytelling framework that leverages the existing DALL-E model to enable fast and coherent visualizations of non-English songs and stories, pushing the limit of the one-step-at-a-time option DALL-E currently offers. We show that our framework is able to effectively visualize stories from non-English texts and portray the changes in the plot over time. It is also able to create a narrative and maintain interpretable changes in the description across frames. Additionally, our framework offers users the ability to specify constraints on the story elements, such as a specific location or context, and to maintain a consistent style throughout the visualization.
翻訳日:2022-12-26 16:36:09 公開日:2022-12-22
# OPT-IML:一般化レンズによる言語モデル学習のスケーリング

OPT-IML: Scaling Language Model Instruction Meta Learning through the Lens of Generalization ( http://arxiv.org/abs/2212.12017v1 )

ライセンス: Link先を確認
Srinivasan Iyer and Xi Victoria Lin and Ramakanth Pasunuru and Todor Mihaylov and Daniel Simig and Ping Yu and Kurt Shuster and Tianlu Wang and Qing Liu and Punit Singh Koura and Xian Li and Brian O'Horo and Gabriel Pereyra and Jeff Wang and Christopher Dewan and Asli Celikyilmaz and Luke Zettlemoyer and Ves Stoyanov(参考訳) 近年の研究では、命令チューニング(インストラクションチューニング)によって記述されたタスクの集合上で、微調整された大規模な事前学習言語モデルが、ゼロおよび少数ショットの一般化を未確認タスクに改善することを示した。 しかし、命令チューニングプロセス中に異なる決定を下すパフォーマンスのトレードオフについては、限定的な理解がある。 これらの決定には、命令チューニングベンチマークのスケールと多様性、異なるタスクサンプリング戦略、デモの有無による微調整、推論と対話のための特殊なデータセットを用いたトレーニング、そして最後に、微調整目標そのものが含まれる。 本稿では,モデルサイズとベンチマークサイズの両方をスケールする場合に,命令チューニングがダウンストリームタスク性能に与える影響を特徴付ける。 そこで我々は,既存の8つのベンチマークからタスクカテゴリに集約された2000のNLPタスクのインストラクションメタラーニング(IML)のための大規模ベンチマークであるOPT-IML Benchを作成し,完全に保留されたカテゴリからタスクへ,見られたカテゴリから保留されたタスクへ,そして、見たタスクから保留するインスタンスへ,という3種類のモデル一般化を測定するための評価フレームワークを準備した。 このフレームワークのレンズを通して、まず、OPT-30Bに適用された命令調整決定に関する知見を提示し、さらにこれらの知見を利用して、命令調整版であるOPT-IML 30Bと175Bをトレーニングする。 opt-imlは、プロンプトソース、flan、super-naturalinstruction、unifiedskgの4つの異なる評価ベンチマークで、両方のスケールで3つの一般化能力を示す。 すべてのベンチマークでOPTを大きく上回るだけでなく、各ベンチマークで微調整された既存のモデルと非常に競争力がある。 我々は,OPT-IML Bench評価フレームワークとともに,OPT-IMLを両スケールでリリースする。

Recent work has shown that fine-tuning large pre-trained language models on a collection of tasks described via instructions, a.k.a. instruction-tuning, improves their zero and few-shot generalization to unseen tasks. However, there is a limited understanding of the performance trade-offs of different decisions made during the instruction-tuning process. These decisions include the scale and diversity of the instruction-tuning benchmark, different task sampling strategies, fine-tuning with and without demonstrations, training using specialized datasets for reasoning and dialogue, and finally, the fine-tuning objectives themselves. In this paper, we characterize the effect of instruction-tuning decisions on downstream task performance when scaling both model and benchmark sizes. To this end, we create OPT-IML Bench: a large benchmark for Instruction Meta-Learning (IML) of 2000 NLP tasks consolidated into task categories from 8 existing benchmarks, and prepare an evaluation framework to measure three types of model generalizations: to tasks from fully held-out categories, to held-out tasks from seen categories, and to held-out instances from seen tasks. Through the lens of this framework, we first present insights about instruction-tuning decisions as applied to OPT-30B and further exploit these insights to train OPT-IML 30B and 175B, which are instruction-tuned versions of OPT. OPT-IML demonstrates all three generalization abilities at both scales on four different evaluation benchmarks with diverse tasks and input formats -- PromptSource, FLAN, Super-NaturalInstructions, and UnifiedSKG. Not only does it significantly outperform OPT on all benchmarks but is also highly competitive with existing models fine-tuned on each specific benchmark. We release OPT-IML at both scales, together with the OPT-IML Bench evaluation framework.
翻訳日:2022-12-26 16:35:36 公開日:2022-12-22
# セマンティックに一貫性のあるLandsat 8画像と高山域のSentinel-2画像翻訳

Semantically-consistent Landsat 8 image to Sentinel-2 image translation for alpine areas ( http://arxiv.org/abs/2212.12056v1 )

ライセンス: Link先を確認
M. Sokolov, J. L. Storie, C. J. Henry, C. D. Storie, J. Cameron, R. S. {\O}deg{\aa}rd, V. Zubinaite, S. Stikbakke(参考訳) 頻繁で費用がかからない衛星画像は、研究の世界で需要が高まっている。 ランドサット8やセンチネル2のような衛星は、毎日大量の貴重なデータを提供している。 しかし、これらの衛星のセンサー特性の相違により、どちらのデータセットにも訓練されたセグメンテーションモデルを用いることは無意味であり、ドメイン適応技術がリモートセンシングの活発な研究領域となったのはそのためである。 本論文では,ランドサット8とセンチネル2のセンサ差を狭めるため,HRSemI2Iモデルを用いてスタイル伝達によるドメイン適応実験を行った。 本論文の主な貢献は,領域適応画像を用いたセグメント化結果と適応しない画像との比較により,このアプローチの迅速性を分析することである。 HRSemI2Iモデルは、6バンド画像で動作するように調整され、平均値とクラス毎のメトリクスの交差対一性能が大幅に向上した。 第2のコントリビューションは、NALCMS 2015とCORINEの2つのラベルスキーム間の異なる一般化スキームを提供することである。 第1のスキームは、より高いレベルの土地被覆クラスによる標準化であり、第2のスキームは、フィールドにおける調和検証である。

The availability of frequent and cost-free satellite images is in growing demand in the research world. Such satellite constellations as Landsat 8 and Sentinel-2 provide a massive amount of valuable data daily. However, the discrepancy in the sensors' characteristics of these satellites makes it senseless to use a segmentation model trained on either dataset and applied to another, which is why domain adaptation techniques have recently become an active research area in remote sensing. In this paper, an experiment of domain adaptation through style-transferring is conducted using the HRSemI2I model to narrow the sensor discrepancy between Landsat 8 and Sentinel-2. This paper's main contribution is analyzing the expediency of that approach by comparing the results of segmentation using domain-adapted images with those without adaptation. The HRSemI2I model, adjusted to work with 6-band imagery, shows significant intersection-over-union performance improvement for both mean and per class metrics. A second contribution is providing different schemes of generalization between two label schemes - NALCMS 2015 and CORINE. The first scheme is standardization through higher-level land cover classes, and the second is through harmonization validation in the field.
翻訳日:2022-12-26 16:28:24 公開日:2022-12-22
# 電子健康記録と事前学習モデルを用いた疾患予後予測の強化

Enhancing the prediction of disease outcomes using electronic health records and pretrained deep learning models ( http://arxiv.org/abs/2212.12067v1 )

ライセンス: Link先を確認
Zhichao Yang, Weisong Liu, Dan Berlowitz, Hong Yu(参考訳) 質問: 長期電子健康記録のデータセットに事前トレーニングされたエンコーダ・デコーダアーキテクチャは、患者の予後予測を改善することができるか? 結果:680万人の患者を対象としたこの予後調査では,膵癌や自傷症を含む幅広い予後について,scuhがbertを事前訓練した複数の予後予測モデルが得られた。 意味: 双方向および自己回帰表現は患者の予後予測を改善する。

Question: Can an encoder-decoder architecture pretrained on a large dataset of longitudinal electronic health records improves patient outcome predictions? Findings: In this prognostic study of 6.8 million patients, our denoising sequence-to-sequence prediction model of multiple outcomes outperformed state-of-the-art models scuh pretrained BERT on a broad range of patient outcomes, including intentional self-harm and pancreatic cancer. Meaning: Deep bidirectional and autoregressive representation improves patient outcome prediction.
翻訳日:2022-12-26 16:26:06 公開日:2022-12-22
# RouteNet-Fermi:グラフニューラルネットワークを用いたネットワークモデリング

RouteNet-Fermi: Network Modeling with Graph Neural Networks ( http://arxiv.org/abs/2212.12070v1 )

ライセンス: Link先を確認
Miquel Ferriol-Galm\'es, Jordi Paillisse, Jos\'e Su\'arez-Varela, Krzysztof Rusek, Shihan Xiao, Xiang Shi, Xiangle Cheng, Pere Barlet-Ros, Albert Cabellos-Aparicio(参考訳) ネットワークモデルは現代のネットワークの重要なブロックである。 例えば、ネットワークの計画や最適化に広く使われている。 しかし、ネットワークの規模や複雑さが増加するにつれて、キューイング理論モデルにおけるマルコフトラフィックの仮定や、ネットワークシミュレータの計算コストの増大など、いくつかのモデルには限界が存在する。 グラフニューラルネットワーク(gnn)などの機械学習の最近の進歩は、データ駆動で複雑な非線形動作を学習できる新しい世代のネットワークモデルを可能にする。 本稿では、キューイング理論と同じ目標を持つカスタムGNNモデルであるRouteNet-Fermiを提案する。 提案モデルでは,ネットワークの遅延,ジッタ,損失を正確に予測する。 複雑な非マルコフモデルを含むトラフィックプロファイルの混在したサンプルや、任意のルーティングとキュースケジューリングの設定を含む、サイズ(最大300ノード)のネットワークでroutenet-fermiをテストしました。 実験の結果,RouteNet-Fermiはパケットレベルシミュレータと同様の精度を実現し,大規模ネットワークに正確にスケール可能であることがわかった。 例えば、1000のサンプルを持つテストデータセットに適用すると、平均相対誤差6.24%の遅延推定が生成される。

Network models are an essential block of modern networks. For example, they are widely used in network planning and optimization. However, as networks increase in scale and complexity, some models present limitations, such as the assumption of markovian traffic in queuing theory models, or the high computational cost of network simulators. Recent advances in machine learning, such as Graph Neural Networks (GNN), are enabling a new generation of network models that are data-driven and can learn complex non-linear behaviors. In this paper, we present RouteNet-Fermi, a custom GNN model that shares the same goals as queuing theory, while being considerably more accurate in the presence of realistic traffic models. The proposed model predicts accurately the delay, jitter, and loss in networks. We have tested RouteNet-Fermi in networks of increasing size (up to 300 nodes), including samples with mixed traffic profiles -- e.g., with complex non-markovian models -- and arbitrary routing and queue scheduling configurations. Our experimental results show that RouteNet-Fermi achieves similar accuracy as computationally-expensive packet-level simulators and it is able to accurately scale to large networks. For example, the model produces delay estimates with a mean relative error of 6.24% when applied to a test dataset with 1,000 samples, including network topologies one order of magnitude larger than those seen during training.
翻訳日:2022-12-26 16:25:53 公開日:2022-12-22
# アライメントエントロピー正則化

Alignment Entropy Regularization ( http://arxiv.org/abs/2212.12442v1 )

ライセンス: Link先を確認
Ehsan Variani, Ke Wu, David Rybach, Cyril Allauzen, Michael Riley(参考訳) 自動音声認識(ASR)における既存の訓練基準により、モデルが特徴とラベルシーケンス間の複数の時間的アライメントを自由に探索することができる。 本稿では,モデルの不確実性を測定するためにエントロピーを用いる。すなわち,許容アライメントの集合に確率質量を分配する方法である。 さらに,モデルが許容アライメントのより小さい部分集合にのみ確率質量を分配することを奨励するエントロピー正則化の効果を評価した。 実験により,単語誤り率を犠牲にすることなく,エントロピー正規化によりより単純な復号化が可能であり,時間アライメントの品質が向上することが示された。

Existing training criteria in automatic speech recognition(ASR) permit the model to freely explore more than one time alignments between the feature and label sequences. In this paper, we use entropy to measure a model's uncertainty, i.e. how it chooses to distribute the probability mass over the set of allowed alignments. Furthermore, we evaluate the effect of entropy regularization in encouraging the model to distribute the probability mass only on a smaller subset of allowed alignments. Experiments show that entropy regularization enables a much simpler decoding method without sacrificing word error rate, and provides better time alignment quality.
翻訳日:2022-12-26 16:19:09 公開日:2022-12-22
# elo ratingアルゴリズムの包括的解析:確率モデル,収束特性,設計指針,実験結果

A comprehensive analysis of the Elo rating algorithm: Stochastic model, convergence characteristics, design guidelines, and experimental results ( http://arxiv.org/abs/2212.12015v1 )

ライセンス: Link先を確認
Daniel Gomes de Pinho Zanco, Leszek Szczecinski, Eduardo Vinicius Kuhn, Rui Seara(参考訳) Eloアルゴリズムは、その単純さから、スポーツ競技のレーティングや、評価/ランク付けが将来の結果を予測する有用なツールである他のアプリケーションで広く使われている。 しかし、その広範にわたる使用にもかかわらず、eloアルゴリズムの収束特性の詳細な理解はいまだに欠けている。 本稿では,このギャップを埋めるために,ラウンドロビン(1対1)の競合を考慮したEloアルゴリズムの包括的(確率的)解析を提案する。 具体的には、分析式は、スキルの振る舞い/進化と重要なパフォーマンス指標を特徴付ける。 次に、アルゴリズムの挙動と、制御可能なハイパーパラメータであるステップサイズ値との関係を考慮して、いくつかの設計ガイドラインとアルゴリズムの性能に関する議論を提供する。 理論的な結果の適用性を説明するために、実世界のデータ(イタリアのスーパーリーグ、バレーボールリーグ)を用いて解析的予測とアルゴリズムから得られたものとの非常に良い一致を裏付ける実験結果を示す。

The Elo algorithm, due to its simplicity, is widely used for rating in sports competitions as well as in other applications where the rating/ranking is a useful tool for predicting future results. However, despite its widespread use, a detailed understanding of the convergence properties of the Elo algorithm is still lacking. Aiming to fill this gap, this paper presents a comprehensive (stochastic) analysis of the Elo algorithm, considering round-robin (one-on-one) competitions. Specifically, analytical expressions are derived characterizing the behavior/evolution of the skills and of important performance metrics. Then, taking into account the relationship between the behavior of the algorithm and the step-size value, which is a hyperparameter that can be controlled, some design guidelines as well as discussions about the performance of the algorithm are provided. To illustrate the applicability of the theoretical findings, experimental results are shown, corroborating the very good match between analytical predictions and those obtained from the algorithm using real-world data (from the Italian SuperLega, Volleyball League).
翻訳日:2022-12-26 16:17:37 公開日:2022-12-22
# ニューラル期待最大化アルゴリズムによる半競合リスクデータの深層学習

Deep Learning of Semi-Competing Risk Data via a New Neural Expectation-Maximization Algorithm ( http://arxiv.org/abs/2212.12028v1 )

ライセンス: Link先を確認
Stephen Salerno and Yi Li(参考訳) 死亡率の主要な原因である肺癌の予後予測は、患者の生涯にわたる危険因子と健康事象の関連を定量化する必要があるため、依然として複雑な課題である。 1つの課題は、個人の病気コースが、半競合関係を形成する非終末(例えば、病気の進行)と終末(例えば、死)イベントを含むことである。 私たちの動機は、大きな肺がん生存コホートであるBoston Lung Cancer Study(ボストン肺がん研究)から来ています。 ニューラルネットワークによる時間-事象の成果予測の発展に伴い、ディープラーニングは生存率分析におけるリスク予測手法の開発の焦点となっている。 しかしながら、患者が死亡前に疾患の進行などの有害事象を経験する多状態または半競合的なリスク結果を予測するために、限られた作業が行われてきた。 古典的統計的アプローチと機械学習のギャップを埋めるためのニューラル期待最大化アルゴリズムを提案する。 本アルゴリズムは,遷移固有のサブアーキテクチャを持つマルチタスクディープニューラルネットワークを用いて,各状態遷移の非パラメトリックベースラインハザード,予測子のリスク関数,および遷移間の依存度を推定できる。 本手法をボストン肺がん研究に適用し,臨床および遺伝的予測因子が疾患の進行と死亡に与える影響について検討した。

Prognostication for lung cancer, a leading cause of mortality, remains a complex task, as it needs to quantify the associations of risk factors and health events spanning a patient's entire life. One challenge is that an individual's disease course involves non-terminal (e.g., disease progression) and terminal (e.g., death) events, which form semi-competing relationships. Our motivation comes from the Boston Lung Cancer Study, a large lung cancer survival cohort, which investigates how risk factors influence a patient's disease trajectory. Following developments in the prediction of time-to-event outcomes with neural networks, deep learning has become a focal area for the development of risk prediction methods in survival analysis. However, limited work has been done to predict multi-state or semi-competing risk outcomes, where a patient may experience adverse events such as disease progression prior to death. We propose a novel neural expectation-maximization algorithm to bridge the gap between classical statistical approaches and machine learning. Our algorithm enables estimation of the non-parametric baseline hazards of each state transition, risk functions of predictors, and the degree of dependence among different transitions, via a multi-task deep neural network with transition-specific sub-architectures. We apply our method to the Boston Lung Cancer Study and investigate the impact of clinical and genetic predictors on disease progression and mortality.
翻訳日:2022-12-26 16:17:18 公開日:2022-12-22
# セマンティックセグメンテーションモデルの校正について:分析とアルゴリズム

On Calibrating Semantic Segmentation Models: Analysis and An Algorithm ( http://arxiv.org/abs/2212.12053v1 )

ライセンス: Link先を確認
Dongdong Wang and Boqing Gong and Liqiang Wang(参考訳) セマンティックセグメンテーションキャリブレーションの問題について検討する。 画像分類では、モデルの信頼性の誤校正を軽減するために、既存のソリューションが多数提案されている。 しかし,今日まで意味セグメンテーションに関する信頼度校正研究は限られている。 セマンティクスセグメンテーションモデルのキャリブレーションに関する体系的な研究を行い,単純かつ効果的なアプローチを提案する。 まず, モデル容量, 作物サイズ, マルチスケールテスト, 予測精度がキャリブレーションに影響を及ぼすことがわかった。 それらの中で、予測の正しさ、特に誤予測は、過信による誤判定にとってより重要である。 次に,スケーリングの正確かつ不正確な予測を分離し,不正確なロジット平滑化に重点を置くことにより,簡便で統一的で効果的な手法,すなわち選択的スケーリングを提案する。 次に,既存のキャリブレーション手法について検討し,セマンティクスセグメンテーションキャリブレーションにおける選択的スケーリングと比較した。 ドメイン内キャリブレーションとドメインシフトキャリブレーションの両方に関する様々なベンチマークを用いて広範な実験を行い、選択スケーリングが他の手法より一貫して優れていることを示す。

We study the problem of semantic segmentation calibration. For image classification, lots of existing solutions are proposed to alleviate model miscalibration of confidence. However, to date, confidence calibration research on semantic segmentation is still limited. We provide a systematic study on the calibration of semantic segmentation models and propose a simple yet effective approach. First, we find that model capacity, crop size, multi-scale testing, and prediction correctness have impact on calibration. Among them, prediction correctness, especially misprediction, is more important to miscalibration due to over-confidence. Next, we propose a simple, unifying, and effective approach, namely selective scaling, by separating correct/incorrect prediction for scaling and more focusing on misprediction logit smoothing. Then, we study popular existing calibration methods and compare them with selective scaling on semantic segmentation calibration. We conduct extensive experiments with a variety of benchmarks on both in-domain and domain-shift calibration, and show that selective scaling consistently outperforms other methods.
翻訳日:2022-12-26 16:10:30 公開日:2022-12-22
# mn-ds:ニュース記事階層分類のためのマルチラベルニュースデータセット

MN-DS: A Multilabeled News Dataset for News Articles Hierarchical Classification ( http://arxiv.org/abs/2212.12061v1 )

ライセンス: Link先を確認
Alina Petukhova, Nuno Fachada(参考訳) 本稿は、2019年1月1日から12月31日までに収集された階層的なニュースカテゴリを持つ10,917のニュース記事のデータセットを示す。 17の1次分類と109の2次分類の階層分類に基づいて,手作業で記事を分類した。 このデータセットは、ニュース記事を自動的にトピック別に分類する機械学習モデルのトレーニングに使用することができる。 このデータセットは、リリースされたニュースに基づいて、ニュース構造化、分類、将来のイベントを予測する研究者に役立つ。

This article presents a dataset of 10,917 news articles with hierarchical news categories collected between January 1st 2019, and December 31st 2019. We manually labelled the articles based on a hierarchical taxonomy with 17 first-level and 109 second-level categories. This dataset can be used to train machine learning models for automatically classifying news articles by topic. This dataset can be helpful for researchers working on news structuring, classification, and predicting future events based on released news.
翻訳日:2022-12-26 16:07:40 公開日:2022-12-22
# レモンはいつ紫ですか。 CLIPのコンセプトアソシエーションバイアス

When are Lemons Purple? The Concept Association Bias of CLIP ( http://arxiv.org/abs/2212.12043v1 )

ライセンス: Link先を確認
Yutaro Yamada, Yingtian Tang, Ilker Yildirim(参考訳) CLIPのような大規模視覚言語モデルは、ゼロショット画像分類と画像からテキストへの検索において顕著な性能を示している。 しかし、このようなCLIPベースのモデルのゼロショット性能は、視覚的質問回答(VQA)のような視覚と言語間のよりきめ細かい対応を必要とするタスクでは実現しない。 ここでは,CLIPをVQAや類似タスクに適用することの難しさの潜在的原因として,CAB(Concept Association Bias)と呼ぶCLIPの興味深い現象を報告する。 CABは、与えられた画像に2つの概念が存在するのに対して、テキストプロンプトは1つの概念のみを含む場合、特に顕著である。 このようなケースでは、CLIPは入力を概念の袋として扱う傾向があり、他の欠落した概念をクロスモーダルに埋めようとするため、予期せぬゼロショット予測が導かれる。 例えば、画像中のレモンの色を尋ねると、CLIPは、イメージにレモンとナスが含まれている場合、'purple'を予測します。 対象物(例えばレモン)と属性(例えばその色)との間に強い概念関連がある場合、CLIPのゼロショット分類性能が著しく低下することを示し、CLIPの概念関連バイアスを実証する。 一方、対象と属性の関係が弱い場合には、この現象は見られない。 さらに、CLIP上にTransformerを追加し、VQAで微調整することで、CLIPが画像とテキストの埋め込みにわたってより深い構造を学べるようになると、CABは大幅に緩和される。 このような微調整されたCLIPでは,モデル内のCABの強度がVQA上での性能を予測できることがわかった。

Large-scale vision-language models such as CLIP have shown impressive performance on zero-shot image classification and image-to-text retrieval. However, such zero-shot performance of CLIP-based models does not realize in tasks that require a finer-grained correspondence between vision and language, such as Visual Question Answering (VQA). We investigate why this is the case, and report an interesting phenomenon of CLIP, which we call the Concept Association Bias (CAB), as a potential cause of the difficulty of applying CLIP to VQA and similar tasks. CAB is especially apparent when two concepts are present in the given image while a text prompt only contains a single concept. In such a case, we find that CLIP tends to treat input as a bag of concepts and attempts to fill in the other missing concept crossmodally, leading to an unexpected zero-shot prediction. For example, when asked for the color of a lemon in an image, CLIP predicts ``purple'' if the image contains a lemon and an eggplant. We demonstrate the Concept Association Bias of CLIP by showing that CLIP's zero-shot classification performance greatly suffers when there is a strong concept association between an object (e.g. lemon) and an attribute (e.g. its color). On the other hand, when the association between object and attribute is weak, we do not see this phenomenon. Furthermore, we show that CAB is significantly mitigated when we enable CLIP to learn deeper structure across image and text embeddings by adding an additional Transformer on top of CLIP and fine-tuning it on VQA. We find that across such fine-tuned variants of CLIP, the strength of CAB in a model predicts how well it performs on VQA.
翻訳日:2022-12-26 16:07:13 公開日:2022-12-22
# 非一様流れ場で効率的に泳ぐことを学ぶ

Learning to swim efficiently in a nonuniform flow field ( http://arxiv.org/abs/2212.11482v1 )

ライセンス: Link先を確認
Krongtum Sankaewtong, John J. Molina, Matthew S. Turner and Ryoichi Yamamoto(参考訳) マイクロスウィマーは機械キューを感知することで周囲の流体に関する情報を取得することができる。 そして、これらの信号に反応してナビゲートできる。 深部強化学習と直接数値シミュレーションを組み合わせて流体力学を解くことにより,この航法を解析する。 本研究では,非一様流場,特にジグザグせん断流れにおいて,スイマーの訓練に局所的および非局所的情報をいかに活用するかを検討する。 水泳課題は,(1)渦方向に泳ぎ方を学ぶこと,(2)せん断勾配方向,(3)せん断流方向を学ぶことである。 その結果, (1,2) の最適方針に達するためには, スイマーの瞬時方向に関するラボフレーム情報へのアクセスが不可欠であることが判明した。 しかし、翻訳速度と回転速度の両方に関する情報は、(3)を達成するために必要と思われる。 また,生物微生物に触発されたスイマーが局所的な情報,すなわち表面の流体力学的力や信号方向を感知するケースについても考察する。 これは重力や、光センサーを持つ微生物の光源に相当するかもしれない。 この場合、スイマーは、実験室のフレーム変数にアクセスできるスイマーとして、同等のパフォーマンスに達することが示される。 我々はまた、異なる水泳モード、すなわちプッシュ、プル、中立スイマーの役割を分析する。

Microswimmers can acquire information on the surrounding fluid by sensing mechanical queues. They can then navigate in response to these signals. We analyse this navigation by combining deep reinforcement learning with direct numerical simulations to resolve the hydrodynamics. We study how local and non-local information can be used to train a swimmer to achieve particular swimming tasks in a non-uniform flow field, in particular a zig-zag shear flow. The swimming tasks are (1) learning how to swim in the vorticity direction, (2) the shear-gradient direction, and (3) the shear flow direction. We find that access to lab frame information on the swimmer's instantaneous orientation is all that is required in order to reach the optimal policy for (1,2). However, information on both the translational and rotational velocities seem to be required to achieve (3). Inspired by biological microorganisms we also consider the case where the swimmers sense local information, i.e. surface hydrodynamic forces, together with a signal direction. This might correspond to gravity or, for micro-organisms with light sensors, a light source. In this case, we show that the swimmer can reach a comparable level of performance as a swimmer with access to lab frame variables. We also analyse the role of different swimming modes, i.e. pusher, puller, and neutral swimmers.
翻訳日:2022-12-23 15:38:01 公開日:2022-12-22
# asyncfleo:高高度プラットフォームを持つleo衛星星座のための非同期フェデレート学習

AsyncFLEO: Asynchronous Federated Learning for LEO Satellite Constellations with High-Altitude Platforms ( http://arxiv.org/abs/2212.11522v1 )

ライセンス: Link先を確認
Mohamed Elmahallawy and Tie Luo(参考訳) 低軌道(leo)の星座は、それぞれ多数の衛星で構成されており、「空から」新しいビッグデータの源となっている。 ビッグデータ分析のために地上局(GS)にデータをダウンロードするには、非常に高い帯域幅が必要であり、大きな伝搬遅延を伴う。 フェデレーテッド・ラーニング(FL)は、データが(衛星を離れることなく)その場に留まることを可能にし、(衛星のデータに基づいてトレーニングされた)機械学習モデルパラメータを送信する必要があるため、有望なソリューションを提供する。 しかし、従来の同期flプロセスでは、ストラグラー衛星によるボトルネックのため、衛星通信(satcom)の文脈で単一のflモデルをトレーニングするのに数日かかることがある。 本稿では、SatcomにおけるFL効率を改善するために、AsyncFLEOと呼ばれるLEO星座のための非同期FLフレームワークを提案する。 AsynFLEOは同期FLのボトルネック(アイドル待ち)に対処するだけでなく、ストラグラー衛星によるモデル安定性の問題も解決している。 AsyncFLEOは高高度プラットフォーム(HAP)をパラメータサーバとして利用し,(1)星間通信トポロジ,(2)星間通信トポロジ,(3)星間通信トポロジ,(3)衛星グループ化と安定化割引によるモデル集約アルゴリズムの3つの技術コンポーネントから構成される。 IIDデータと非IIDデータの両方による広範囲な評価の結果,AsyncFLEOはアートの状態を大きなマージンで上回り,収束遅延を22倍削減し,精度を40%向上させた。

Low Earth Orbit (LEO) constellations, each comprising a large number of satellites, have become a new source of big data "from the sky". Downloading such data to a ground station (GS) for big data analytics demands very high bandwidth and involves large propagation delays. Federated Learning (FL) offers a promising solution because it allows data to stay in-situ (never leaving satellites) and it only needs to transmit machine learning model parameters (trained on the satellites' data). However, the conventional, synchronous FL process can take several days to train a single FL model in the context of satellite communication (Satcom), due to a bottleneck caused by straggler satellites. In this paper, we propose an asynchronous FL framework for LEO constellations called AsyncFLEO to improve FL efficiency in Satcom. Not only does AsynFLEO address the bottleneck (idle waiting) in synchronous FL, but it also solves the issue of model staleness caused by straggler satellites. AsyncFLEO utilizes high-altitude platforms (HAPs) positioned "in the sky" as parameter servers, and consists of three technical components: (1) a ring-of-stars communication topology, (2) a model propagation algorithm, and (3) a model aggregation algorithm with satellite grouping and staleness discounting. Our extensive evaluation with both IID and non-IID data shows that AsyncFLEO outperforms the state of the art by a large margin, cutting down convergence delay by 22 times and increasing accuracy by 40%.
翻訳日:2022-12-23 15:37:39 公開日:2022-12-22
# 完全DVL故障シナリオにおけるAUV速度予測のためのSet-Transformer BeamsNet

Set-Transformer BeamsNet for AUV Velocity Forecasting in Complete DVL Outage Scenarios ( http://arxiv.org/abs/2212.11671v1 )

ライセンス: Link先を確認
Nadav Cohen, Zeev Yampolsky and Itzik Klein(参考訳) 自律型水中車両(AUV)は、海洋深層探査によく使用される。 一般的に、自律ナビゲーションタスクは、慣性ナビゲーションシステムとドップラー速度ログ(DVL)という2つのセンサーの融合によって実行される。 DVLは4つの音響ビームを海底に送信して動作し、一度反射するとAUV速度ベクトルを推定できる。 しかし、不均一な海底、DVLの視界を遮る海洋生物、ロール/ピッチの操作のような現実のシナリオでは、音響ビームの反射はDVLの停止と呼ばれるシナリオをもたらす。 そのため、慣性溶液ドリフトを結合する速度更新は利用できない。 このような状況に対処するため,本論文では,BeamsNetフレームワークを活用し,慣性データ読取とそれ以前のDVL速度測定を利用して,DVLの完全停止時に現在のAUV速度を回復するSet-Transformer-based BeamsNet(ST-BeamsNet)を提案する。 提案手法は,スペンサーAUVを用いて地中海で実施した実験データを用いて評価し,移動平均(MA)推定器と比較した。 我々のST-BeamsNetは、AUV速度ベクトルを8.547%の速度誤差で推定した。

Autonomous underwater vehicles (AUVs) are regularly used for deep ocean applications. Commonly, the autonomous navigation task is carried out by a fusion between two sensors: the inertial navigation system and the Doppler velocity log (DVL). The DVL operates by transmitting four acoustic beams to the sea floor, and once reflected back, the AUV velocity vector can be estimated. However, in real-life scenarios, such as an uneven seabed, sea creatures blocking the DVL's view and, roll/pitch maneuvers, the acoustic beams' reflection is resulting in a scenario known as DVL outage. Consequently, a velocity update is not available to bind the inertial solution drift. To cope with such situations, in this paper, we leverage our BeamsNet framework and propose a Set-Transformer-based BeamsNet (ST-BeamsNet) that utilizes inertial data readings and previous DVL velocity measurements to regress the current AUV velocity in case of a complete DVL outage. The proposed approach was evaluated using data from experiments held in the Mediterranean Sea with the Snapir AUV and was compared to a moving average (MA) estimator. Our ST-BeamsNet estimated the AUV velocity vector with an 8.547% speed error, which is 26% better than the MA approach.
翻訳日:2022-12-23 15:37:09 公開日:2022-12-22
# 物理形ニューラルネットワークのための固定予算オンライン適応メッシュ学習 パラメータ化問題推論に向けて

Fixed-budget online adaptive mesh learning for physics-informed neural networks. Towards parameterized problem inference ( http://arxiv.org/abs/2212.11776v1 )

ライセンス: Link先を確認
Thi Nguyen Khoa Nguyen, Thibault Dairay, Rapha\"el Meunier, Christophe Millet, Mathilde Mougeot(参考訳) 物理インフォームドニューラルネットワーク(PINN)は、物理法則をモデルに組み込む能力によって、様々な工学分野において注目を集めている。 ピンズは、偏微分方程式 (pdes) の残差を一連のコロケーション点上で最小化することで物理的制約を統合する。 これらのコロケーション点の分布はピンのパフォーマンスに大きな影響を与え、これらの点に対するサンプリング法の評価は依然として活発な話題である。 本稿では,pdes残差の局所極大と局所極小に基づいてコロケーションポイントを訓練するために,ドメインをサブドメインに分解する固定予算オンライン適応メッシュ学習(fboaml)手法を提案する。 停止基準は参照のデータセットに基づいており、各特定の問題に対して適応的なイテレーション数をもたらす。 FBOAMLの有効性は、非パラメータ化問題とパラメータ化問題の文脈で示される。 本研究では,FBOAMLにおけるハイパーパラメータの影響について検討した。 他の適応サンプリング手法との比較も示す。 その結果,FBOAMLを用いたPINNの精度は,非適応的コロケーション点を持つ古典的PINNに比べて大きく向上した。 また、FBOAMLを機械と熱電界のカップリングを含む複雑な産業応用に適用する。 我々は,FBOAMLが高次位置を同定し,適応有限要素メッシュ上でのコロケーション点を持つ古典的PINNよりも,いくつかの物理場を予測できることを示した。

Physics-Informed Neural Networks (PINNs) have gained much attention in various fields of engineering thanks to their capability of incorporating physical laws into the models. PINNs integrate the physical constraints by minimizing the partial differential equations (PDEs) residuals on a set of collocation points. The distribution of these collocation points appears to have a huge impact on the performance of PINNs and the assessment of the sampling methods for these points is still an active topic. In this paper, we propose a Fixed-Budget Online Adaptive Mesh Learning (FBOAML) method, which decomposes the domain into sub-domains, for training collocation points based on local maxima and local minima of the PDEs residuals. The stopping criterion is based on a data set of reference, which leads to an adaptive number of iterations for each specific problem. The effectiveness of FBOAML is demonstrated in the context of non-parameterized and parameterized problems. The impact of the hyper-parameters in FBOAML is investigated in this work. The comparison with other adaptive sampling methods is also illustrated. The numerical results demonstrate important gains in terms of accuracy of PINNs with FBOAML over the classical PINNs with non-adaptive collocation points. We also apply FBOAML in a complex industrial application involving coupling between mechanical and thermal fields. We show that FBOAML is able to identify the high-gradient location and even give better prediction for some physical fields than the classical PINNs with collocation points taken on a pre-adapted finite element mesh.
翻訳日:2022-12-23 15:36:42 公開日:2022-12-22
# URLLCと分散学習サービスの共存のためのデバイス選択

Device Selection for the Coexistence of URLLC and Distributed Learning Services ( http://arxiv.org/abs/2212.11805v1 )

ライセンス: Link先を確認
Milad Ganjalizadeh, Hossein Shokri Ghadikolaei, Deniz G\"und\"uz, Marina Petrova(参考訳) 分散人工知能(AI)の最近の進歩は、フォールトトレラントなファクトリ自動化からスマートシティに至るまで、さまざまなコミュニケーションサービスに大きなブレークスルーをもたらした。 無線接続されたデバイス上で分散学習を実行すると、ランダムチャネルのゆらぎと、同じネットワーク上で実行される既存のサービスが、分散学習と共存サービスの双方のパフォーマンスに影響を及ぼす。 本稿では、分散AIワークフローと超信頼性の低遅延通信(URLLC)サービスをネットワーク上で同時に実行する混合サービスシナリオについて検討する。 そこで我々は,URLLCサービスの運用要件を満たすことを保証するとともに,収束期間中のAIトレーニング遅延を最小限に抑えるために,デバイス選択のためのリスク感度に基づく定式化を提案する。 この難解な共存問題に対処するため,我々はそれを深層強化学習問題に変換し,ソフトアクター批判アルゴリズムに基づく枠組みを用いて対処する。 工場自動化のユースケースに対する現実的で3GPPに準拠したシミュレータを用いて,本ソリューションの評価を行った。 シミュレーションの結果、我々のソリューションは、必要なしきい値を超え、URLLCが単にすべてのネットワークリソースを消費するシナリオに近づきながら、分散AIサービスのトレーニング遅延を大幅に低減できることを確認した。

Recent advances in distributed artificial intelligence (AI) have led to tremendous breakthroughs in various communication services, from fault-tolerant factory automation to smart cities. When distributed learning is run over a set of wirelessly connected devices, random channel fluctuations and the incumbent services running on the same network impact the performance of both distributed learning and the coexisting service. In this paper, we investigate a mixed service scenario where distributed AI workflow and ultra-reliable low latency communication (URLLC) services run concurrently over a network. Consequently, we propose a risk sensitivity-based formulation for device selection to minimize the AI training delays during its convergence period while ensuring that the operational requirements of the URLLC service are met. To address this challenging coexistence problem, we transform it into a deep reinforcement learning problem and address it via a framework based on soft actor-critic algorithm. We evaluate our solution with a realistic and 3GPP-compliant simulator for factory automation use cases. Our simulation results confirm that our solution can significantly decrease the training delay of the distributed AI service while keeping the URLLC availability above its required threshold and close to the scenario where URLLC solely consumes all network resources.
翻訳日:2022-12-23 15:36:21 公開日:2022-12-22
# StoRM:音声強調と残響の拡散に基づく確率的再生モデル

StoRM: A Diffusion-based Stochastic Regeneration Model for Speech Enhancement and Dereverberation ( http://arxiv.org/abs/2212.11851v1 )

ライセンス: Link先を確認
Jean-Marie Lemercier and Julius Richter and Simon Welker and Timo Gerkmann(参考訳) 拡散モデルは、音声強調のための予測的アプローチと生成的アプローチの間の性能ギャップを埋める優れた能力を示している。 非付加的な汚職タイプや、不一致条件で評価された場合、予測結果よりも優れる可能性がある。 しかし、拡散モデルは主に逆拡散ステップごとにニューラルネットワークを実行する必要があるため、高い計算負荷を負う一方で、予測アプローチでは1つのパスしか必要としない。 拡散モデルは生成的アプローチであるため、悪条件下で発声や呼吸のアーチファクトを生み出すこともある。 対照的に、このような難しいシナリオでは、予測モデルは通常そのような成果物を生成せず、代わりに対象の音声を歪ませる傾向があり、それによって音声品質が低下する。 本研究では,予測モデルによる推定値がさらなる拡散のガイドとして提供される確率的再生手法を提案する。 提案手法は, 予測モデルを用いて発声と呼吸のアーチファクトを除去し, 拡散モデルにより非常に高品質なサンプルを生成できることを示す。 さらに,本手法は,より少ない拡散ステップでより軽量なサンプリング方式を,品質を犠牲にすることなく利用可能であることを示し,計算負荷を桁違いに高めている。 ソースコードとオーディオサンプルはオンラインで入手できる(https://uhh.de/inf-sp-storm)。

Diffusion models have shown a great ability at bridging the performance gap between predictive and generative approaches for speech enhancement. We have shown that they may even outperform their predictive counterparts for non-additive corruption types or when they are evaluated on mismatched conditions. However, diffusion models suffer from a high computational burden, mainly as they require to run a neural network for each reverse diffusion step, whereas predictive approaches only require one pass. As diffusion models are generative approaches they may also produce vocalizing and breathing artifacts in adverse conditions. In comparison, in such difficult scenarios, predictive models typically do not produce such artifacts but tend to distort the target speech instead, thereby degrading the speech quality. In this work, we present a stochastic regeneration approach where an estimate given by a predictive model is provided as a guide for further diffusion. We show that the proposed approach uses the predictive model to remove the vocalizing and breathing artifacts while producing very high quality samples thanks to the diffusion model, even in adverse conditions. We further show that this approach enables to use lighter sampling schemes with fewer diffusion steps without sacrificing quality, thus lifting the computational burden by an order of magnitude. Source code and audio examples are available online (https://uhh.de/inf-sp-storm).
翻訳日:2022-12-23 15:35:59 公開日:2022-12-22
# 強化学習に基づく分散コンテキスト管理システムにおける適応型コンテキストキャッシング

Reinforcement Learning Based Approaches to Adaptive Context Caching in Distributed Context Management Systems ( http://arxiv.org/abs/2212.11709v1 )

ライセンス: Link先を確認
Shakthi Weerasinghe, Arkady Zaslavsky, Seng W. Loke, Amin Abken, Alireza Hassani(参考訳) パフォーマンスメトリクス駆動のコンテキストキャッシュは、リアルタイムコンテキストクエリのための分散コンテキスト管理システムのスループットとレスポンス時間に大きな影響を与えます。 本稿では,コンテキストクエリに応答するコンテキスト管理システムによるコストの最小化を目的として,コンテキストを適応的にキャッシュする強化学習に基づくアプローチを提案する。 新たなアルゴリズムにより,コンテキストクエリとサブクエリを効率的に再利用し,キャッシュされたコンテキストを再利用することができる。 このアプローチは、従来のデータキャッシングアプローチに3つの主な特徴がある。 まず、コンテキストの事前知識やコンテキストクエリの負荷を使わずに、選択的なコンテキストキャッシュの入力を行う。 第2に,意思決定時にアイテムをキャッシングする期待性能を計算するために,革新的なヒューリスティックモデルを開発し,導入する。 第3に、当社の戦略は、タイムアウェアな継続的キャッシュアクションスペースを定義します。 本稿では,2つの強化学習エージェント,アクター批判エージェントを推定する値関数と,決定論的ポリシー勾配法によるポリシー探索エージェントを提案する。 また,本論文では,eviction や cache memory scaling などの適応ポリシーを提案する。 本手法は,コンテクストサブクエリの合成生成負荷と,実世界データとクエリサンプルにインスパイアされた合成データセットを用いて評価する。 異なる設定下での最適適応キャッシング構成についてさらに検討する。 本稿では,提案する選択的キャッシング手法が短期的かつ長期的コスト・性能効率に到達できることを示す。 提案手法は,リダイレクトモードやデータベースモードなど,他のコンテキスト管理方法よりも優れた性能を示し,全ポリシを最大60%のコスト効率でキャッシュする。

Performance metrics-driven context caching has a profound impact on throughput and response time in distributed context management systems for real-time context queries. This paper proposes a reinforcement learning based approach to adaptively cache context with the objective of minimizing the cost incurred by context management systems in responding to context queries. Our novel algorithms enable context queries and sub-queries to reuse and repurpose cached context in an efficient manner. This approach is distinctive to traditional data caching approaches by three main features. First, we make selective context cache admissions using no prior knowledge of the context, or the context query load. Secondly, we develop and incorporate innovative heuristic models to calculate expected performance of caching an item when making the decisions. Thirdly, our strategy defines a time-aware continuous cache action space. We present two reinforcement learning agents, a value function estimating actor-critic agent and a policy search agent using deep deterministic policy gradient method. The paper also proposes adaptive policies such as eviction and cache memory scaling to complement our objective. Our method is evaluated using a synthetically generated load of context sub-queries and a synthetic data set inspired from real world data and query samples. We further investigate optimal adaptive caching configurations under different settings. This paper presents, compares, and discusses our findings that the proposed selective caching methods reach short- and long-term cost- and performance-efficiency. The paper demonstrates that the proposed methods outperform other modes of context management such as redirector mode, and database mode, and cache all policy by up to 60% in cost efficiency.
翻訳日:2022-12-23 15:35:37 公開日:2022-12-22
# 双方向情報非対称性下でのシグナリングへのコミットメント

Commitment with Signaling under Double-sided Information Asymmetry ( http://arxiv.org/abs/2212.11446v1 )

ライセンス: Link先を確認
Tao Li and Quanyan Zhu(参考訳) ゲームにおける情報非対称性は、他のプレイヤーに戦略的に情報を開示することで、情報有利なプレイヤーが他人の信念を操作することを可能にする。 この研究はバイエルン・スタックルベルグのゲームにおいて、混合戦略のコミットメントからサンプリングされたリーダーの実際の行動が従者から隠された両面の情報非対称性を考える。 対照的に、フォロワーは自分の支払いに関する情報をプライベートに保持している。 双方に非対称な情報を与えると、重要な疑問が生じる: \emph{es the leader's information advantage than the followinger's? ここで、我々は、リーダーが実行した行動に関する部分的な情報を明らかにするシグナル装置を適切に設計することで、リーダーが合図無しに、より高い期待する有用性を達成することができることを実証する。 さらに、数学プログラミングツールを利用するベイジアン・スタックルバーグゲームにおける以前の作品とは異なり、指導者のコミットメントを信念空間上の確率測度として解釈する。 このような確率的言語は解析を大幅に単純化し、間接的なシグナリングスキームを許容し、提案したゲームモデルの下での平衡の幾何学的特徴付けに繋がる。

Information asymmetry in games enables players with the information advantage to manipulate others' beliefs by strategically revealing information to other players. This work considers a double-sided information asymmetry in a Bayesian Stackelberg game, where the leader's realized action, sampled from the mixed strategy commitment, is hidden from the follower. In contrast, the follower holds private information about his payoff. Given asymmetric information on both sides, an important question arises: \emph{Does the leader's information advantage outweigh the follower's?} We answer this question affirmatively in this work, where we demonstrate that by adequately designing a signaling device that reveals partial information regarding the leader's realized action to the follower, the leader can achieve a higher expected utility than that without signaling. Moreover, unlike previous works on the Bayesian Stackelberg game where mathematical programming tools are utilized, we interpret the leader's commitment as a probability measure over the belief space. Such a probabilistic language greatly simplifies the analysis and allows an indirect signaling scheme, leading to a geometric characterization of the equilibrium under the proposed game model.
翻訳日:2022-12-23 15:32:00 公開日:2022-12-22
# 協調型マルチエージェント強化学習のための認証ポリシー平滑化

Certified Policy Smoothing for Cooperative Multi-Agent Reinforcement Learning ( http://arxiv.org/abs/2212.11746v1 )

ライセンス: Link先を確認
Ronghui Mu, Wenjie Ruan, Leandro Soriano Marcolino, Gaojie Jin, Qiang Ni(参考訳) 協調型マルチエージェント強化学習(c-MARL)は安全クリティカルなシナリオに広く適用されており,c-MARLモデルのロバスト性の解析が極めて重要である。 しかし、c-MARLのロバスト性認証はまだコミュニティで検討されていない。 本稿では,C-MARLのスケーラブルなアプローチを活用し,保証された認証境界での動作を決定するための新しい認証手法を提案する。 c-MARL認証は、シングルエージェントシステムと比較して2つの重要な課題を提起する。 i) エージェントの数が増加するにつれて蓄積された不確実性 (ii)一つのエージェントのアクションをグローバルなチーム報酬に変える場合の潜在的影響の欠如。 これらの課題は、既存のアルゴリズムを直接使用することを妨げる。 そこで我々は,各エージェントが国家ごとのロバスト性を証明することの重要性を考慮した偽発見率(FDR)制御手法を採用し,最小限の摂動条件下でグローバル報酬の下位境界を求める木探索に基づくアルゴリズムを提案する。 本手法は一般に,単一エージェント環境においても適用可能である。 我々は、我々の認証境界が最先端のRL認証ソリューションよりもはるかに厳密であることを実証的に示す。 また、人気のあるc-marlアルゴリズムであるqmixとvdnの2つの異なる環境で、2つと4つのエージェントを使った実験も行っています。 実験結果から,本手法はすべてのモデルと環境に対して有意なロバスト性をもたらすことが示された。 私たちのツールCertifyCMARLはhttps://github.com/TrustAI/CertifyCMAで利用可能です。

Cooperative multi-agent reinforcement learning (c-MARL) is widely applied in safety-critical scenarios, thus the analysis of robustness for c-MARL models is profoundly important. However, robustness certification for c-MARLs has not yet been explored in the community. In this paper, we propose a novel certification method, which is the first work to leverage a scalable approach for c-MARLs to determine actions with guaranteed certified bounds. c-MARL certification poses two key challenges compared with single-agent systems: (i) the accumulated uncertainty as the number of agents increases; (ii) the potential lack of impact when changing the action of a single agent into a global team reward. These challenges prevent us from directly using existing algorithms. Hence, we employ the false discovery rate (FDR) controlling procedure considering the importance of each agent to certify per-state robustness and propose a tree-search-based algorithm to find a lower bound of the global reward under the minimal certified perturbation. As our method is general, it can also be applied in single-agent environments. We empirically show that our certification bounds are much tighter than state-of-the-art RL certification solutions. We also run experiments on two popular c-MARL algorithms: QMIX and VDN, in two different environments, with two and four agents. The experimental results show that our method produces meaningful guaranteed robustness for all models and environments. Our tool CertifyCMARL is available at https://github.com/TrustAI/CertifyCMA
翻訳日:2022-12-23 15:31:38 公開日:2022-12-22
# Mind Your Heart:エッジコンピューティングにおける動的ディープニューラルネットワークのバックドア攻撃

Mind Your Heart: Stealthy Backdoor Attack on Dynamic Deep Neural Network in Edge Computing ( http://arxiv.org/abs/2212.11751v1 )

ライセンス: Link先を確認
Tian Dong, Ziyuan Zhang, Han Qiu, Tianwei Zhang, Hewu Li, Terry Wang(参考訳) オフザシェルフディープニューラルネットワーク(DNN)モデルを動的マルチエクイットアーキテクチャに変換することで、エッジコンピューティングシナリオ(エッジデバイスやクラウドサーバなど)で大規模なDNNモデルを断片化して分散することにより、推論と送信効率を達成することができる。 本稿では,動的マルチエクイットDNNモデルに特化して,新たなバックドア攻撃を提案する。 特に、このバニラDNNモデルではなく、動的にデプロイされるマルチエグジットアーキテクチャのみを対象として、あるDNNモデルの浅い隠蔽層を汚染することにより、バックドアを注入する。 バックドアのバニラモデルは、通常パフォーマンスで動作し、正しいトリガでもアクティベートできません。 しかし、被害者がこのモデルを取得してデプロイ時に動的にマルチエクイットアーキテクチャに変換すると、バックドアが起動される。 我々は,4つのデータセット(CIFAR-10,SVHN,GTSRB,Tiny-ImageNet)による3つの構造体(ResNet-56,VGG-16,MobileNet)に対する攻撃の有効性を証明するため,広範囲にわたる実験を行った。

Transforming off-the-shelf deep neural network (DNN) models into dynamic multi-exit architectures can achieve inference and transmission efficiency by fragmenting and distributing a large DNN model in edge computing scenarios (e.g., edge devices and cloud servers). In this paper, we propose a novel backdoor attack specifically on the dynamic multi-exit DNN models. Particularly, we inject a backdoor by poisoning one DNN model's shallow hidden layers targeting not this vanilla DNN model but only its dynamically deployed multi-exit architectures. Our backdoored vanilla model behaves normally on performance and cannot be activated even with the correct trigger. However, the backdoor will be activated when the victims acquire this model and transform it into a dynamic multi-exit architecture at their deployment. We conduct extensive experiments to prove the effectiveness of our attack on three structures (ResNet-56, VGG-16, and MobileNet) with four datasets (CIFAR-10, SVHN, GTSRB, and Tiny-ImageNet) and our backdoor is stealthy to evade multiple state-of-the-art backdoor detection or removal methods.
翻訳日:2022-12-23 15:31:11 公開日:2022-12-22
# 量子パスカーネル:ディープ量子機械学習のための一般化量子ニューラルネットワークカーネル

The Quantum Path Kernel: a Generalized Quantum Neural Tangent Kernel for Deep Quantum Machine Learning ( http://arxiv.org/abs/2212.11826v1 )

ライセンス: Link先を確認
Massimiliano Incudini, Michele Grossi, Antonio Mandarino, Sofia Vallecorsa, Alessandra Di Pierro, David Windridge(参考訳) 古典的ディープニューラルネットワークの量子アナログを構築することは、量子コンピューティングにおける根本的な課題である。 鍵となる問題は、古典的深層学習の固有非線形性、すなわち一連の逐次ユニタリ変換からなる任意の数の量子ゲートの合成が本質的に線形であることによる量子領域の問題に対処する方法である。 この問題は、主にユニタリ変換の層間の測定の導入を通じて、文学において様々なアプローチがなされている。 本稿では、古典的領域、特に階層的特徴学習における優れた一般化性能に関連する深層機械学習のこれらの側面を再現可能な量子機械学習の定式化であるquantum path kernelを提案する。 本手法は,古典的および量子機械学習モデルの力学を研究するために用いられている量子ニューラルタンジェントカーネルの概念を一般化する。 量子パスカーネルは、パラメータの軌道、すなわち、トレーニング中にモデルパラメータによって示される曲線を活用し、微分層毎の収束挙動の表現や、予測関数の勾配空間におけるそれらの出現の観点から階層的パラメトリック依存性の形成を可能にする。 我々は,最適クラス分離を実現するために,本質的に多段階学習を必要とする人工的だがエンブレマティックな問題であるガウスXOR混合の分類の変種について,我々のアプローチを評価する。

Building a quantum analog of classical deep neural networks represents a fundamental challenge in quantum computing. A key issue is how to address the inherent non-linearity of classical deep learning, a problem in the quantum domain due to the fact that the composition of an arbitrary number of quantum gates, consisting of a series of sequential unitary transformations, is intrinsically linear. This problem has been variously approached in the literature, principally via the introduction of measurements between layers of unitary transformations. In this paper, we introduce the Quantum Path Kernel, a formulation of quantum machine learning capable of replicating those aspects of deep machine learning typically associated with superior generalization performance in the classical domain, specifically, hierarchical feature learning. Our approach generalizes the notion of Quantum Neural Tangent Kernel, which has been used to study the dynamics of classical and quantum machine learning models. The Quantum Path Kernel exploits the parameter trajectory, i.e. the curve delineated by model parameters as they evolve during training, enabling the representation of differential layer-wise convergence behaviors, or the formation of hierarchical parametric dependencies, in terms of their manifestation in the gradient space of the predictor function. We evaluate our approach with respect to variants of the classification of Gaussian XOR mixtures - an artificial but emblematic problem that intrinsically requires multilevel learning in order to achieve optimal class separation.
翻訳日:2022-12-23 15:30:44 公開日:2022-12-22
# 生物AIのためのコミュニケーションによる分子機械学習の実現 : 今後の方向性と課題

Realizing Molecular Machine Learning through Communications for Biological AI: Future Directions and Challenges ( http://arxiv.org/abs/2212.11910v1 )

ライセンス: Link先を確認
Sasitharan Balasubramaniam, Samitha Somathilaka, Sehee Sun, Adrian Ratwatte, Massimiliano Pierobon(参考訳) 人工知能(ai)と機械学習(ml)は、私たちの生活の多くの面において重要な役割を担っている社会のファブリックに流れ込んでいます。 さまざまな種類のデバイスにAIとMLがデプロイされるのを目の当たりにしているように、低消費電力デバイスのためのエネルギー効率のアルゴリズムにAIを使用することで恩恵を受けます。 本稿では,機械学習機能,すなわち分子機械学習(MML)を実現するために利用可能な分子システムに向けて,従来の装置よりもはるかに小さいスケールと媒体について検討する。 MMLの操作の基礎は、化学反応を通じて分子によって伝播される情報の輸送、処理、解釈である。 我々は、MMLのために開発された現在のアプローチの見直しから始め、生物内の遺伝子制御ネットワークとそれらの集団間相互作用を頼りにニューラルネットワークを作成する新しい方向に向かう。 次に,カルシウムシグナリングに基づいて生体細胞内の機械学習構造を訓練する機構を解明し,デジタル変換器(adc)のアナログ構築への応用を実証する。 最後に、将来的な方向性と、この分野で解決可能な課題について検討する。

Artificial Intelligence (AI) and Machine Learning (ML) are weaving their way into the fabric of society, where they are playing a crucial role in numerous facets of our lives. As we witness the increased deployment of AI and ML in various types of devices, we benefit from their use into energy-efficient algorithms for low powered devices. In this paper, we investigate a scale and medium that is far smaller than conventional devices as we move towards molecular systems that can be utilized to perform machine learning functions, i.e., Molecular Machine Learning (MML). Fundamental to the operation of MML is the transport, processing, and interpretation of information propagated by molecules through chemical reactions. We begin by reviewing the current approaches that have been developed for MML, before we move towards potential new directions that rely on gene regulatory networks inside biological organisms as well as their population interactions to create neural networks. We then investigate mechanisms for training machine learning structures in biological cells based on calcium signaling and demonstrate their application to build an Analog to Digital Converter (ADC). Lastly, we look at potential future directions as well as challenges that this area could solve.
翻訳日:2022-12-23 15:30:18 公開日:2022-12-22
# 自然道路環境における微小レベルe-scooter挙動研究のためのウェアラブルデータ収集システム

A Wearable Data Collection System for Studying Micro-Level E-Scooter Behavior in Naturalistic Road Environment ( http://arxiv.org/abs/2212.11979v1 )

ライセンス: Link先を確認
Avinash Prabu, Dan Shen, Renran Tian, Stanley Chien, Lingxi Li, Yaobin Chen, Rini Sherony(参考訳) 最も人気のあるマイクロモビリティの選択肢の1つとして、eスクーターは米国や世界中の数百の大都市やカレッジタウンに普及している。 一方、eスクーターは交通安全に新たな課題を提起している。 一般に、eスクーターは自転車レーンやサイドウォークで運転されるか、最大時速約15~20マイルで車と道路を共有することが提案されており、これは台車や自転車よりも柔軟で高速である。 これらの機能は、人間のドライバー、歩行者、車両のアクティブな安全モジュール、そして自動運転モジュールが観察および対話することを困難にしている。 そこで本稿では,この新しいモビリティオプションを検討し,道路利用者の安全問題に対処するため,自然道路環境におけるマイクロレベルの電子スクーター動作挙動を調査できるウェアラブル・データ収集システムを提案する。 ロボットオペレーティングシステム(ROS)を用いてLiDAR、カメラ、GPSを統合することで、e-Scooterベースのデータ取得システムを開発した。 ソフトウェアフレームワークはハードウェアインターフェース、センサー操作、センサー同期、データ保存をサポートするために開発されている。 統合システムは、キャリブレーションの精度や車両の収集能力、データに遭遇する電子スクーターなど、すべての要件を満たしながら、何時間も連続してデータを収集することができる。

As one of the most popular micro-mobility options, e-scooters are spreading in hundreds of big cities and college towns in the US and worldwide. In the meantime, e-scooters are also posing new challenges to traffic safety. In general, e-scooters are suggested to be ridden in bike lanes/sidewalks or share the road with cars at the maximum speed of about 15-20 mph, which is more flexible and much faster than the pedestrains and bicyclists. These features make e-scooters challenging for human drivers, pedestrians, vehicle active safety modules, and self-driving modules to see and interact. To study this new mobility option and address e-scooter riders' and other road users' safety concerns, this paper proposes a wearable data collection system for investigating the micro-level e-Scooter motion behavior in a Naturalistic road environment. An e-Scooter-based data acquisition system has been developed by integrating LiDAR, cameras, and GPS using the robot operating system (ROS). Software frameworks are developed to support hardware interfaces, sensor operation, sensor synchronization, and data saving. The integrated system can collect data continuously for hours, meeting all the requirements including calibration accuracy and capability of collecting the vehicle and e-Scooter encountering data.
翻訳日:2022-12-23 15:29:59 公開日:2022-12-22
# Taylor Remainderシリーズの自動バウンド:タイターバウンドと新しい応用

Automatically Bounding the Taylor Remainder Series: Tighter Bounds and New Applications ( http://arxiv.org/abs/2212.11429v1 )

ライセンス: Link先を確認
Matthew Streeter and Joshua V. Dillon(参考訳) テイラー剰余級数を自動的に有界化する新しいアルゴリズムを提案する。 スカラー関数 $f: \mathbb{R} \mapsto \mathbb{R}$ の特別な場合、我々のアルゴリズムは基準点 $x_0$, Trust region $[a, b]$, and integer $k \ge 0$ を入力とし、$f(x)\sum_{i=0}^k \frac {f^{(i)}(x_0)} {i! x - x_0)^i \in i (x - x_0)^{k+1}$ すべての$x \in [a, b]$。 自動微分と同様に、関数 $f$ はシンボリックな形でアルゴリズムに提供され、既知の基本関数で構成されなければならない。 高いレベルでは、我々のアルゴリズムには2つのステップがある。 まず、様々な一般的な初等函数(例えば、$\exp$、$\log$)に対して、テイラー剰余級数上の鋭い多項式の上限と下限を導出する。 次に、テイラーモード自動微分のインターバル算術変種を用いて基本関数の有界を再帰的に結合する。 我々のアルゴリズムは機械学習ハードウェアアクセラレータを効率的に利用することができ、JAXでオープンソース実装を提供する。 そして、アプリケーションに注意を向けます。 最も注目すべきは、我々の新しい機械を用いて、最初の普遍的偏極最小化最適化アルゴリズムを作成することである:手ではなく自動で導出される行列化器を用いて任意の損失を反復的に最小化するアルゴリズム。 機械学習に適用すると、ハイパーパラメータチューニングなしで任意の出発点から収束するディープネットワークをトレーニングするためのアーキテクチャ固有の最適化が実現する。 実験の結果,いくつかの最適化問題に対して,これらのハイパーパラメータフリーオプティマイザは勾配降下,Adam,AdaGradの調整版よりも優れていた。 また,全球最適化と数値積分を検証し,jensenの不等式をより鋭いバージョンで証明できることを示す。

We present a new algorithm for automatically bounding the Taylor remainder series. In the special case of a scalar function $f: \mathbb{R} \mapsto \mathbb{R}$, our algorithm takes as input a reference point $x_0$, trust region $[a, b]$, and integer $k \ge 0$, and returns an interval $I$ such that $f(x) - \sum_{i=0}^k \frac {f^{(i)}(x_0)} {i!} (x - x_0)^i \in I (x - x_0)^{k+1}$ for all $x \in [a, b]$. As in automatic differentiation, the function $f$ is provided to the algorithm in symbolic form, and must be composed of known elementary functions. At a high level, our algorithm has two steps. First, for a variety of commonly-used elementary functions (e.g., $\exp$, $\log$), we derive sharp polynomial upper and lower bounds on the Taylor remainder series. We then recursively combine the bounds for the elementary functions using an interval arithmetic variant of Taylor-mode automatic differentiation. Our algorithm can make efficient use of machine learning hardware accelerators, and we provide an open source implementation in JAX. We then turn our attention to applications. Most notably, we use our new machinery to create the first universal majorization-minimization optimization algorithms: algorithms that iteratively minimize an arbitrary loss using a majorizer that is derived automatically, rather than by hand. Applied to machine learning, this leads to architecture-specific optimizers for training deep networks that converge from any starting point, without hyperparameter tuning. Our experiments show that for some optimization problems, these hyperparameter-free optimizers outperform tuned versions of gradient descent, Adam, and AdaGrad. We also show that our automatically-derived bounds can be used for verified global optimization and numerical integration, and to prove sharper versions of Jensen's inequality.
翻訳日:2022-12-23 15:28:25 公開日:2022-12-22
# TxAllo: シャードブロックチェーンシステムにおける動的トランザクション割り当て

TxAllo: Dynamic Transaction Allocation in Sharded Blockchain Systems ( http://arxiv.org/abs/2212.11584v1 )

ライセンス: Link先を確認
Yuanzhe Zhang, Shirui Pan and Jiangshan Yu(参考訳) スケーラビリティ問題は、ブロックチェーンの採用を制限する最も重要な障壁のひとつだ。 ブロックチェーンのシャーディングは、この問題に対する有望なアプローチである。 しかし、シャーディングメカニズムは、処理にコストがかかる膨大な数のクロスシャーディングトランザクションを導入している。 本稿では, トランザクション割り当て問題に着目し, クロスシャードトランザクションの数を削減し, スケーラビリティを向上する。 特に、トランザクション割り当て問題を体系的に定式化し、グラフ上のコミュニティ検出問題に変換する。 アカウントの割り当てと関連するトランザクションを動的に推測するために,決定論的かつ高速なアロケーションスキームTxAlloを提案する。 クロスシャードトランザクションの数とシャード間のワークロードバランスの両方を考慮して、システムスループットを直接最適化する。 9100万以上のトランザクションを含むEthereumデータセット上でのTxAlloの性能を評価する。 評価の結果,60シャードのブロックチェーンでは,クロスシャードトランザクション比率が98%(従来のハッシュベースのアロケーションによる)から約12%に削減された。 一方、ワークロードのバランスは良好に維持されています。 他のメソッドと比較すると、TxAlloの実行時間はほとんど無視できる。 例えば、時間毎にアロケーションを更新する場合、TxAlloの実行は平均0.5秒しかかかりませんが、古典的なMETISメソッドを活用する BrokerChain (INFOCOM'22) など、他の並行処理では422秒が必要です。

The scalability problem has been one of the most significant barriers limiting the adoption of blockchains. Blockchain sharding is a promising approach to this problem. However, the sharding mechanism introduces a significant number of cross-shard transactions, which are expensive to process. This paper focuses on the transaction allocation problem to reduce the number of cross-shard transactions for better scalability. In particular, we systematically formulate the transaction allocation problem and convert it to the community detection problem on a graph. A deterministic and fast allocation scheme TxAllo is proposed to dynamically infer the allocation of accounts and their associated transactions. It directly optimizes the system throughput, considering both the number of cross-shard transactions and the workload balance among shards. We evaluate the performance of TxAllo on an Ethereum dataset containing over 91 million transactions. Our evaluation results show that for a blockchain with 60 shards, TxAllo reduces the cross-shard transaction ratio from 98% (by using traditional hash-based allocation) to about 12%. In the meantime, the workload balance is well maintained. Compared with other methods, the execution time of TxAllo is almost negligible. For example, when updating the allocation every hour, the execution of TxAllo only takes 0.5 seconds on average, whereas other concurrent works, such as BrokerChain (INFOCOM'22) leveraging the classic METIS method, require 422 seconds.
翻訳日:2022-12-23 15:23:00 公開日:2022-12-22
# 平均場ニューラルネットワークに基づくmckean-vlasov制御問題のアルゴリズム*

Mean-field neural networks-based algorithms for McKean-Vlasov control problems * ( http://arxiv.org/abs/2212.11518v1 )

ライセンス: Link先を確認
Huy\^en Pham (UPD7, LPSM (UMR\_8001)), Xavier Warin (EDF R\&D, FiME Lab)(参考訳) 本稿では,ワッサーシュタイン空間の解法を学習するために,我々の共用紙[25]に導入した平均場ニューラルネットワークのクラスを用いて,マッキーン・ブラソフ制御問題の数値解法について述べる。 ポリシーや値反復による制御学習を用いた動的プログラミングや,大域的あるいは局所的損失関数を用いた確率的最大原理による逆SDEを提案する。 8つのアルゴリズムの各々の精度を示すために、異なる例の大規模な数値結果を示す。 すべてのテスト方法の長所と短所を議論し,比較する。

This paper is devoted to the numerical resolution of McKean-Vlasov control problems via the class of mean-field neural networks introduced in our companion paper [25] in order to learn the solution on the Wasserstein space. We propose several algorithms either based on dynamic programming with control learning by policy or value iteration, or backward SDE from stochastic maximum principle with global or local loss functions. Extensive numerical results on different examples are presented to illustrate the accuracy of each of our eight algorithms. We discuss and compare the pros and cons of all the tested methods.
翻訳日:2022-12-23 15:22:37 公開日:2022-12-22
# 制約ガウス過程による非線形偏微分方程式の推定

Inference of Nonlinear Partial Differential Equations via Constrained Gaussian Processes ( http://arxiv.org/abs/2212.11880v1 )

ライセンス: Link先を確認
Zhaohui Li, Shihao Yang, Jeff Wu(参考訳) 偏微分方程式(PDE)は物理現象や工学現象の記述に広く用いられている。 重要な科学的解釈を持つ物理特性を表すPDEに関連するいくつかの重要なパラメータは、直接的に測定することが困難または不可能である。 物理量のノイズおよびスパース実験データからこれらのパラメータを推定することは重要な課題である。 pdeパラメータ推定のための多くの手法は、特に非線形pdesの時間消費となる有限要素法のようなアルゴリズムによるpdeの数値解の多くの評価を含む。 本稿では PDE-Informed Gaussian Process Inference (PIGPI) と呼ばれる PDE における未知パラメータを推定する新しい手法を提案する。 PDE の解をガウス過程 (GP) としてモデル化することで、(線型) PDE 構造によって誘導される多様体の制約を導出し、その制約の下では、GP は PDE を満たす。 非線形PDEに対しては、非線形PDEをPIGPIが扱えるすべての微分において等価なPDEシステムに変換する拡張法を提案する。 PIGPIは、観測されていないコンポーネントを持つ多次元PDEシステムやPDEシステムに適用することができる。 この方法はPDEの数値解法を完全にバイパスし、計算時間、特に非線形PDEの大幅な節約を実現する。 さらに、PIGPI法は未知パラメータとPDE解の両方に対して不確実性定量化を与えることができる。 提案手法は様々な分野の応用例で実証されている。

Partial differential equations (PDEs) are widely used for description of physical and engineering phenomena. Some key parameters involved in PDEs, which represents certain physical properties with important scientific interpretations, are difficult or even impossible to be measured directly. Estimation of these parameters from noisy and sparse experimental data of related physical quantities is an important task. Many methods for PDE parameter inference involve a large number of evaluations of numerical solution of PDE through algorithms such as finite element method, which can be time-consuming especially for nonlinear PDEs. In this paper, we propose a novel method for estimating unknown parameters in PDEs, called PDE-Informed Gaussian Process Inference (PIGPI). Through modeling the PDE solution as a Gaussian process (GP), we derive the manifold constraints induced by the (linear) PDE structure such that under the constraints, the GP satisfies the PDE. For nonlinear PDEs, we propose an augmentation method that transfers the nonlinear PDE into an equivalent PDE system linear in all derivatives that our PIGPI can handle. PIGPI can be applied to multi-dimensional PDE systems and PDE systems with unobserved components. The method completely bypasses the numerical solver for PDE, thus achieving drastic savings in computation time, especially for nonlinear PDEs. Moreover, the PIGPI method can give the uncertainty quantification for both the unknown parameters and the PDE solution. The proposed method is demonstrated by several application examples from different areas.
翻訳日:2022-12-23 15:22:25 公開日:2022-12-22
# レコメンダシステムのための地域政策改善

Local Policy Improvement for Recommender Systems ( http://arxiv.org/abs/2212.11431v1 )

ライセンス: Link先を確認
Dawen Liang, Nikos Vlassis(参考訳) レコメンダシステムは次のような質問に答えることを目標としている: ユーザが対話したアイテムを考えると、このユーザが次に取り扱うアイテムは何か? 歴史的に、この問題は(自己)教師付き学習を通じて予測タスクとして構成されることが多い。 近年では、報酬関数を最大化するポリシー(例えば、ユーザエンゲージメント)の学習という政策最適化の観点から、リコメンデーション問題へのアプローチに重点が置かれている。 しかし、これまでデプロイされたポリシーから収集されたデータからのみ、新しいポリシーをトレーニングできるようなレコメンデーションシステムでは、通常はそうである。 このような政策ミスマッチに対処する従来の方法は、重要なサンプリング修正によるものであり、残念ながら独自の制限が伴っている。 本稿では,オフ・ポリティクスの修正を必要とせず,地域政策の整備をともなう代替手法を提案する。 因果推論,盗賊,強化学習の分野における多くの関連する結果から,対象ポリシーの期待される報酬の下位限を計算し,最適化する一連の方法を提案する。 重要なのは、この下限はデータから容易に推定でき、密度比(重要サンプリング補正に見られるものなど)は含まない関数である。 この局所的な政策改善パラダイムは、特にレコメンデーションシステムに適しており、実際には、事前デプロイされた政策は通常、合理的に高い品質であり、さらに頻繁に再トレーニングされ、継続的に更新される傾向にある。 本稿では,提案手法のいくつかを逐次レコメンデーション設定で適用する方法について述べる。

Recommender systems aim to answer the following question: given the items that a user has interacted with, what items will this user likely interact with next? Historically this problem is often framed as a predictive task via (self-)supervised learning. In recent years, we have seen more emphasis placed on approaching the recommendation problem from a policy optimization perspective: learning a policy that maximizes some reward function (e.g., user engagement). However, it is commonly the case in recommender systems that we are only able to train a new policy given data collected from a previously-deployed policy. The conventional way to address such a policy mismatch is through importance sampling correction, which unfortunately comes with its own limitations. In this paper, we suggest an alternative approach, which involves the use of local policy improvement without off-policy correction. Drawing from a number of related results in the fields of causal inference, bandits, and reinforcement learning, we present a suite of methods that compute and optimize a lower bound of the expected reward of the target policy. Crucially, this lower bound is a function that is easy to estimate from data, and which does not involve density ratios (such as those appearing in importance sampling correction). We argue that this local policy improvement paradigm is particularly well suited for recommender systems, given that in practice the previously-deployed policy is typically of reasonably high quality, and furthermore it tends to be re-trained frequently and gets continuously updated. We discuss some practical recipes on how to apply some of the proposed techniques in a sequential recommendation setting.
翻訳日:2022-12-23 15:19:20 公開日:2022-12-22
# EuclidNets: ディープラーニングモデルの効率的な推論のための代替操作

EuclidNets: An Alternative Operation for Efficient Inference of Deep Learning Models ( http://arxiv.org/abs/2212.11803v1 )

ライセンス: Link先を確認
Xinlin Li, Mariana Parazeres, Adam Oberman, Alireza Ghaffari, Masoud Asgharian, Vahid Partovi Nia(参考訳) エッジデバイスにディープラーニングアプリケーションが出現すると、研究者は低消費電力で制限されたメモリデバイスへのデプロイを積極的に最適化しようとする。 量子化やプルーニング,アーキテクチャ検索といった,コモディティハードウェアを活用した圧縮手法が確立されている。 従来の圧縮アルゴリズムとは別に、より効率的な実装につながるディープラーニングモデルの操作を再設計することができる。 この目的のために,Euclidean 距離 $(x-w)^2$ で乗算を$xw$ に置き換えるハードウェア上で実装される圧縮手法である EuclidNet を提案する。 我々は,EuclidNetが行列乗法と整合していることを示し,畳み込み層の場合の類似性の尺度として利用できることを示した。 さらに、様々な変換や雑音のシナリオにおいて、EuclidNetは乗算操作で設計されたディープラーニングモデルと同等の性能を示すことを示す。

With the advent of deep learning application on edge devices, researchers actively try to optimize their deployments on low-power and restricted memory devices. There are established compression method such as quantization, pruning, and architecture search that leverage commodity hardware. Apart from conventional compression algorithms, one may redesign the operations of deep learning models that lead to more efficient implementation. To this end, we propose EuclidNet, a compression method, designed to be implemented on hardware which replaces multiplication, $xw$, with Euclidean distance $(x-w)^2$. We show that EuclidNet is aligned with matrix multiplication and it can be used as a measure of similarity in case of convolutional layers. Furthermore, we show that under various transformations and noise scenarios, EuclidNet exhibits the same performance compared to the deep learning models designed with multiplication operations.
翻訳日:2022-12-23 15:12:44 公開日:2022-12-22
# S-Graphs+:階層表現を利用したリアルタイムローカライゼーションとマッピング

S-Graphs+: Real-time Localization and Mapping leveraging Hierarchical Representations ( http://arxiv.org/abs/2212.11770v1 )

ライセンス: Link先を確認
Hriday Bavle, Jose Luis Sanchez-Lopez, Muhammad Shaheer, Javier Civera and Holger Voos(参考訳) 本稿では,1つの最適化可能な因子グラフ,スラムグラフ,関連する計測とロボットのポーズを含むロボットのキーフレーム,およびそれらの要素間の関係情報を含む異なる幾何学的要素をエンコードする環境の高レベル表現として3dシーングラフを共同でモデル化する,状況グラフの進化版を提案する。 提案したS-Graphs+は,(1)ロボットのポーズ推定値を持つキーフレーム層,(2)壁面を表す壁層,(3)壁面の集合を含む部屋層,(4)床層を所定の階内に集める床層からなる,新しい4層係数グラフである。 上記のグラフをリアルタイムで最適化し、ロボットのポーズとその地図のロバストで正確な推定を行い、同時に環境の高レベル情報を構築し、活用する。 このような高レベル情報を抽出するために,地図化された壁面と自由空間クラスタを用いた新しい部屋と床のセグメンテーションアルゴリズムを提案する。 s-graphs+は,屋内環境の異なるシミュレーション,建設現場やオフィス環境で収集された実データセット,屋内環境の実際の公開データセットなど,複数のデータセットでテストした。 S-Graphs+は4層シーンモデルによってロボットの状況認識を拡張しながら、データセットの大部分で関連するベースラインを上回っている。 さらに,このアルゴリズムをdockerファイルとして利用できるようにした。

In this paper, we present an evolved version of the Situational Graphs, which jointly models in a single optimizable factor graph, a SLAM graph, as a set of robot keyframes, containing its associated measurements and robot poses, and a 3D scene graph, as a high-level representation of the environment that encodes its different geometric elements with semantic attributes and the relational information between those elements. Our proposed S-Graphs+ is a novel four-layered factor graph that includes: (1) a keyframes layer with robot pose estimates, (2) a walls layer representing wall surfaces, (3) a rooms layer encompassing sets of wall planes, and (4) a floors layer gathering the rooms within a given floor level. The above graph is optimized in real-time to obtain a robust and accurate estimate of the robot's pose and its map, simultaneously constructing and leveraging the high-level information of the environment. To extract such high-level information, we present novel room and floor segmentation algorithms utilizing the mapped wall planes and free-space clusters. We tested S-Graphs+ on multiple datasets including, simulations of distinct indoor environments, on real datasets captured over several construction sites and office environments, and on a real public dataset of indoor office environments. S-Graphs+ outperforms relevant baselines in the majority of the datasets while extending the robot situational awareness by a four-layered scene model. Moreover, we make the algorithm available as a docker file.
翻訳日:2022-12-23 15:12:15 公開日:2022-12-22
# IPProtect: データバリュエーション中の視覚データセットの知的特性を保護する

IPProtect: protecting the intellectual property of visual datasets during data valuation ( http://arxiv.org/abs/2212.11468v1 )

ライセンス: Link先を確認
Gursimran Singh, Chendi Wang, Ahnaf Tazwar, Lanjun Wang, Yong Zhang(参考訳) データトレーディングは、データ駆動機械学習パイプラインの開発を加速するために不可欠である。 データトレーディングにおける中心的な問題は、特定の買い手の機械学習タスク(データバリュエーションとしても知られる)に関して、売り手のデータセットの有用性を見積もることである。 通常、データのバリュエーションには1人以上の参加者が生のデータセットを他の人と共有する必要があるため、知的財産権(IP)侵害の潜在的なリスクが生じる。 本稿では,データバリュエーション中に共有する必要があるデータセットのIPをプリエンプティブに保護する,新たな課題に取り組む。 まず、視覚データセットにおける2種類の新しいIPリスク、すなわち、データイテム(画像)IPと統計(データセット)IPを特定し、形式化する。 そこで本研究では,生データセットを正当化バージョンに変換する新しいアルゴリズムを提案し,IP違反に対する耐性を提供すると同時に,正確なデータバリュエーションを実現する。 鍵となるアイデアは、生のデータセットから衛生データセットへの情報の転送を制限することで、潜在的な知的財産侵害を防ぐことである。 次に,ソリューションの存在可能性と再構成攻撃に対する免疫について解析する。 最後に,本手法の利点を他のベースラインと比較して示す3つのコンピュータビジョンデータセットについて広範な実験を行った。

Data trading is essential to accelerate the development of data-driven machine learning pipelines. The central problem in data trading is to estimate the utility of a seller's dataset with respect to a given buyer's machine learning task, also known as data valuation. Typically, data valuation requires one or more participants to share their raw dataset with others, leading to potential risks of intellectual property (IP) violations. In this paper, we tackle the novel task of preemptively protecting the IP of datasets that need to be shared during data valuation. First, we identify and formalize two kinds of novel IP risks in visual datasets: data-item (image) IP and statistical (dataset) IP. Then, we propose a novel algorithm to convert the raw dataset into a sanitized version, that provides resistance to IP violations, while at the same time allowing accurate data valuation. The key idea is to limit the transfer of information from the raw dataset to the sanitized dataset, thereby protecting against potential intellectual property violations. Next, we analyze our method for the likely existence of a solution and immunity against reconstruction attacks. Finally, we conduct extensive experiments on three computer vision datasets demonstrating the advantages of our method in comparison to other baselines.
翻訳日:2022-12-23 15:10:51 公開日:2022-12-22
# マイクロビデオ生成検索のためのマルチキューモーメントコントラスト

Multi-queue Momentum Contrast for Microvideo-Product Retrieval ( http://arxiv.org/abs/2212.11471v1 )

ライセンス: Link先を確認
Yali Du, Yinwei Wei, Wei Ji, Fan Liu, Xin Luo and Liqiang Nie(参考訳) マイクロビデオの急成長と巨大な市場は、商人に新しいeコマースチャネルをもたらす。 現在、多くのマイクロビデオパブリッシャーは、関連広告を自分のマイクロビデオに埋め込むことを好んでいる。 しかし、様々な話題や複数のモダリティを含む非専門機器によるマイクロビデオ記録により、マイクロビデオに関連する製品を効率よく、適切に、正確に見つけることは困難である。 マルチモーダルインスタンスとマルチモーダルインスタンス間の検索を探索する最初の試みであるマイクロビデオ製品検索タスクを定式化する。 マルチキューモーメントコントラスト(MQMC)ネットワークという新しい手法が,一様特徴と多モードインスタンス表現学習からなる双方向検索のために提案されている。 さらに,マルチキューを用いた判別的選択戦略を用いて,カテゴリー別に異なる否定の重要度を識別する。 本研究では,2つの大規模マイクロビデオ製品データセット(MVSとMVS-large)を収集し,日干し製品を対象とした階層的カテゴリーオントロジーを手作業で構築する。 MQMCは最先端のベースラインよりも優れています。 私たちのレプリケーションパッケージ(コード、データセットなど)はhttps://github.com/duyali2000/MQMCで公開されています。

The booming development and huge market of micro-videos bring new e-commerce channels for merchants. Currently, more micro-video publishers prefer to embed relevant ads into their micro-videos, which not only provides them with business income but helps the audiences to discover their interesting products. However, due to the micro-video recording by unprofessional equipment, involving various topics and including multiple modalities, it is challenging to locate the products related to micro-videos efficiently, appropriately, and accurately. We formulate the microvideo-product retrieval task, which is the first attempt to explore the retrieval between the multi-modal and multi-modal instances. A novel approach named Multi-Queue Momentum Contrast (MQMC) network is proposed for bidirectional retrieval, consisting of the uni-modal feature and multi-modal instance representation learning. Moreover, a discriminative selection strategy with a multi-queue is used to distinguish the importance of different negatives based on their categories. We collect two large-scale microvideo-product datasets (MVS and MVS-large) for evaluation and manually construct the hierarchical category ontology, which covers sundry products in daily life. Extensive experiments show that MQMC outperforms the state-of-the-art baselines. Our replication package (including code, dataset, etc.) is publicly available at https://github.com/duyali2000/MQMC.
翻訳日:2022-12-23 15:10:32 公開日:2022-12-22
# SALVE: 自己監督型適応型低照度ビデオエンハンスメント

SALVE: Self-supervised Adaptive Low-light Video Enhancement ( http://arxiv.org/abs/2212.11484v1 )

ライセンス: Link先を確認
Zohreh Azizi, C.-C. Jay Kuo(参考訳) 本研究では,自己監督型低照度映像強調法(SALVE)を提案する。 SALVEは、入力された低照度ビデオのいくつかのキーフレーム上で、効果的なRetinexベースの低照度画像強調を行う。 次に、リッジ回帰を通じて低照度から高輝度のフレームへのマッピングを学ぶ。 最後に、これらのマッピングを使用して、入力ビデオの残りのフレームを強化する。 SALVEは従来のRetinexベースの画像強調法と学習ベースの手法を組み合わせたハイブリッド手法である。 前者のコンポーネントは、新しい現実世界環境に容易に適応できる堅牢なソリューションにつながる。 後者のコンポーネントは高速で安価で時間的に一貫したソリューションを提供する。 SALVEの優れた性能を示すための広範な実験を行った。 ユーザ調査の結果,参加者の87%が先行作業よりもサルブを好んでいることがわかった。

A self-supervised adaptive low-light video enhancement (SALVE) method is proposed in this work. SALVE first conducts an effective Retinex-based low-light image enhancement on a few key frames of an input low-light video. Next, it learns mappings from the low- to enhanced-light frames via Ridge regression. Finally, it uses these mappings to enhance the remaining frames in the input video. SALVE is a hybrid method that combines components from a traditional Retinex-based image enhancement method and a learning-based method. The former component leads to a robust solution which is easily adaptive to new real-world environments. The latter component offers a fast, computationally inexpensive and temporally consistent solution. We conduct extensive experiments to show the superior performance of SALVE. Our user study shows that 87% of participants prefer SALVE over prior work.
翻訳日:2022-12-23 15:10:11 公開日:2022-12-22
# 構造化モバイルwebページの生成カラー化

Generative Colorization of Structured Mobile Web Pages ( http://arxiv.org/abs/2212.11541v1 )

ライセンス: Link先を確認
Kotaro Kikuchi, Naoto Inoue, Mayu Otani, Edgar Simo-Serra, Kota Yamaguchi(参考訳) 色はウェブページにとって重要なデザイン要素であり、視聴者の感情やウェブサイト全体の信頼と満足度といった重要な要素に影響を与える。 効果的な色付けには設計の知識と専門知識が必要だが、もしこのプロセスがデータ駆動モデリング、効率的な探索、代替ワークフローを通じて自動化できるなら、可能だろう。 しかしながら、この方向は、webページカラー化問題、データセット、評価プロトコルの形式化が欠如しているため、未検討のままである。 本研究では,eコマースモバイルWebページを抽出可能な形式で構成した新しいデータセットを提案する。これは,ページの簡素化と共通Webブラウザによる標準カラースタイルの抽出によって作成される。 次に、Webページのカラー化問題は、所定の階層構造を持つWebページコンテンツに対して、妥当なカラースタイルを推定するタスクとして形式化される。 本稿では,要素間の階層的関係を捉えるために,構造的メッセージパッシングを事前に予測することで,このタスクに適応するトランスフォーマーベースの手法を提案する。 この課題のために設計された定量的評価を含む実験結果は,統計的および画像の着色法に対する手法の利点を示すものである。 コードはhttps://github.com/cyberagentailab/webcolorで入手できる。

Color is a critical design factor for web pages, affecting important factors such as viewer emotions and the overall trust and satisfaction of a website. Effective coloring requires design knowledge and expertise, but if this process could be automated through data-driven modeling, efficient exploration and alternative workflows would be possible. However, this direction remains underexplored due to the lack of a formalization of the web page colorization problem, datasets, and evaluation protocols. In this work, we propose a new dataset consisting of e-commerce mobile web pages in a tractable format, which are created by simplifying the pages and extracting canonical color styles with a common web browser. The web page colorization problem is then formalized as a task of estimating plausible color styles for a given web page content with a given hierarchical structure of the elements. We present several Transformer-based methods that are adapted to this task by prepending structural message passing to capture hierarchical relationships between elements. Experimental results, including a quantitative evaluation designed for this task, demonstrate the advantages of our methods over statistical and image colorization methods. The code is available at https://github.com/CyberAgentAILab/webcolor.
翻訳日:2022-12-23 15:09:59 公開日:2022-12-22
# SOTを超えて: 複数のジェネリックオブジェクトを一度に追跡する時が来た

Beyond SOT: It's Time to Track Multiple Generic Objects at Once ( http://arxiv.org/abs/2212.11920v1 )

ライセンス: Link先を確認
Christoph Mayer and Martin Danelljan and Ming-Hsuan Yang and Vittorio Ferrari and Luc Van Gool and Alina Kuznetsova(参考訳) 汎用オブジェクトトラッキング(got)は、ビデオの最初のフレームのバウンディングボックスによって特定される対象オブジェクトを追跡する問題である。 このタスクは過去数十年で大きな注目を集めてきたが、研究者はほとんどが単一のオブジェクトの設定に集中している。 マルチオブジェクトは、より広い適用性から恩恵を受け、現実世界のアプリケーションでより魅力的になる。 この問題に対する研究の関心の欠如は、適切なベンチマークがないためである。 本研究では,複数のアノテート対象オブジェクトをシーケンス毎に含む大規模GOTベンチマークLaGOTを提案する。 本ベンチマークでは,複数オブジェクトの同時追跡によるロバスト性の向上と計算量の削減を目標として,GOTにおける重要な課題に取り組むことができる。 さらに,共有計算による複数オブジェクトの協調処理が可能なトランスフォーマーベースの GOT トラッカー TaMOS を提案する。 TaMOsは、各オブジェクトを独立して追跡するのに対し、10の並列オブジェクトの場合4倍高速な実行を実現し、新しいベンチマークで既存の単一オブジェクトトラッカーより優れています。 最後に、TaMOsはシングルオブジェクトのGOTデータセットで高い競争力を発揮し、TrackingNet上で新しい最先端をAUCの84.4%で設定する。 私たちのベンチマーク、コード、トレーニングされたモデルが公開される予定だ。

Generic Object Tracking (GOT) is the problem of tracking target objects, specified by bounding boxes in the first frame of a video. While the task has received much attention in the last decades, researchers have almost exclusively focused on the single object setting. Multi-object GOT benefits from a wider applicability, rendering it more attractive in real-world applications. We attribute the lack of research interest into this problem to the absence of suitable benchmarks. In this work, we introduce a new large-scale GOT benchmark, LaGOT, containing multiple annotated target objects per sequence. Our benchmark allows researchers to tackle key remaining challenges in GOT, aiming to increase robustness and reduce computation through joint tracking of multiple objects simultaneously. Furthermore, we propose a Transformer-based GOT tracker TaMOS capable of joint processing of multiple objects through shared computation. TaMOs achieves a 4x faster run-time in case of 10 concurrent objects compared to tracking each object independently and outperforms existing single object trackers on our new benchmark. Finally, TaMOs achieves highly competitive results on single-object GOT datasets, setting a new state-of-the-art on TrackingNet with a success rate AUC of 84.4%. Our benchmark, code, and trained models will be made publicly available.
翻訳日:2022-12-23 15:03:38 公開日:2022-12-22
# SupeRGB-D: クラッタ内環境におけるゼロショットインスタンスセグメンテーション

SupeRGB-D: Zero-shot Instance Segmentation in Cluttered Indoor Environments ( http://arxiv.org/abs/2212.11922v1 )

ライセンス: Link先を確認
Evin P{\i}nar \"Ornek, Aravindhan K Krishnan, Shreekant Gayaka, Cheng-Hao Kuo, Arnie Sen, Nassir Navab, Federico Tombari(参考訳) オブジェクトインスタンスのセグメンテーションは多くの小さなオブジェクトで散らかった環境をナビゲートする屋内ロボットにとって重要な課題である。 3Dセンシング能力の限界はしばしば、可能な全てのオブジェクトを検出するのを難しくする。 ディープラーニングのアプローチはこの問題に有効かもしれないが、教師付き学習のために手動で3Dデータをアノテートするのは時間を要する。 本研究では,RGB-Dデータからゼロショットのインスタンスセグメンテーション(ZSIS)を探索し,意味的カテゴリに依存しない方法で未知のオブジェクトを識別する。 本稿では,テーブルトップオブジェクトデータセット(tod-z)のゼロショットスプリットを導入し,アノテートされたオブジェクトを用いてピクセルの ‘objectness' を学習し,乱雑な屋内環境において被写体カテゴリに一般化する手法を提案する。 提案手法であるsupergb-dは,画素を幾何学的手がかりに基づいて小さなパッチにグループ化し,そのパッチを深い凝集的クラスタリング方式でマージすることを学ぶ。 SupeRGB-Dは、見えないオブジェクトで既存のベースラインを上回り、見えるオブジェクトで同様のパフォーマンスを達成する。 さらに、非常に軽量(0.4MBのメモリ要件)で、モバイルおよびロボットアプリケーションに適している。 データセットの分割とコードは、受け入れ次第、公開される予定だ。

Object instance segmentation is a key challenge for indoor robots navigating cluttered environments with many small objects. Limitations in 3D sensing capabilities often make it difficult to detect every possible object. While deep learning approaches may be effective for this problem, manually annotating 3D data for supervised learning is time-consuming. In this work, we explore zero-shot instance segmentation (ZSIS) from RGB-D data to identify unseen objects in a semantic category-agnostic manner. We introduce a zero-shot split for Tabletop Objects Dataset (TOD-Z) to enable this study and present a method that uses annotated objects to learn the ``objectness'' of pixels and generalize to unseen object categories in cluttered indoor environments. Our method, SupeRGB-D, groups pixels into small patches based on geometric cues and learns to merge the patches in a deep agglomerative clustering fashion. SupeRGB-D outperforms existing baselines on unseen objects while achieving similar performance on seen objects. Additionally, it is extremely lightweight (0.4 MB memory requirement) and suitable for mobile and robotic applications. The dataset split and code will be made publicly available upon acceptance.
翻訳日:2022-12-23 15:03:16 公開日:2022-12-22
# 神経放射場からの物体の除去

Removing Objects From Neural Radiance Fields ( http://arxiv.org/abs/2212.11966v1 )

ライセンス: Link先を確認
Silvan Weder, Guillermo Garcia-Hernando, Aron Monszpart, Marc Pollefeys, Gabriel Brostow, Michael Firman, Sara Vicente(参考訳) neural radiance fields(nerfs)は、新しいビュー合成を可能にするユビキタスなシーン表現として登場している。 NeRFはますます他の人たちと共有されていくだろう。 しかし、nerfを共有する前に、個人情報や目立たないオブジェクトを削除するのが望ましいかもしれない。 このような除去は、現在のNeRF編集フレームワークでは容易には達成できない。 RGB-Dシーケンスから生成されたNeRF表現からオブジェクトを除去するフレームワークを提案する。 当社のNeRF塗装法は,最近の2次元画像塗装技術を活用し,ユーザが提供するマスクでガイドされる。 我々のアルゴリズムは信頼度に基づくビュー選択手順によって支えられている。 個々の2Dインペイント画像のうちどれがNeRFの作成に使用されるかを選択し、その結果のNeRFは3D一貫性がある。 提案手法は多視点コヒーレントな方法で可塑性塗料の合成に有効であることを示す。 提案手法は,NeRF塗布作業において,新しい,かつ,未処理のデータセットを用いて検証する。

Neural Radiance Fields (NeRFs) are emerging as a ubiquitous scene representation that allows for novel view synthesis. Increasingly, NeRFs will be shareable with other people. Before sharing a NeRF, though, it might be desirable to remove personal information or unsightly objects. Such removal is not easily achieved with the current NeRF editing frameworks. We propose a framework to remove objects from a NeRF representation created from an RGB-D sequence. Our NeRF inpainting method leverages recent work in 2D image inpainting and is guided by a user-provided mask. Our algorithm is underpinned by a confidence based view selection procedure. It chooses which of the individual 2D inpainted images to use in the creation of the NeRF, so that the resulting inpainted NeRF is 3D consistent. We show that our method for NeRF editing is effective for synthesizing plausible inpaintings in a multi-view coherent manner. We validate our approach using a new and still-challenging dataset for the task of NeRF inpainting.
翻訳日:2022-12-23 15:02:54 公開日:2022-12-22
# DisCoScene: 制御可能な3D認識シーン合成のための空間分散生成放射場

DisCoScene: Spatially Disentangled Generative Radiance Fields for Controllable 3D-aware Scene Synthesis ( http://arxiv.org/abs/2212.11984v1 )

ライセンス: Link先を確認
Yinghao Xu, Menglei Chai, Zifan Shi, Sida Peng, Ivan Skorokhodov, Aliaksandr Siarohin, Ceyuan Yang, Yujun Shen, Hsin-Ying Lee, Bolei Zhou, Sergey Tulyakov(参考訳) 既存の3D認識画像合成手法は、主に単一の標準オブジェクトを生成し、様々なオブジェクトを含む複雑なシーンを構成する際の限られた能力を示す。 高品質かつ制御可能なシーン合成のための3dウェア生成モデルである。 提案手法のキーとなる要素は,シーンレイアウトの先行として,非常に抽象的なオブジェクトレベルの表現(意味論のない3次元境界ボックス)である。 また、シーン編集の直感的なユーザコントロールとしても機能する。 提案モデルでは,2次元画像のみを大域的局所的識別で学習することにより,全シーンを対象中心の放射輝度場に空間的に分離する。 本モデルでは、オブジェクトと背景を効率よく完全なシーンに構成しながら、個々のオブジェクトの生成精度と編集柔軟性を得る。 waymo屋外データセットを含む多くのシーンデータセットで最先端のパフォーマンスを示す。 プロジェクトページ: https://snap-research.github.io/discoscene/

Existing 3D-aware image synthesis approaches mainly focus on generating a single canonical object and show limited capacity in composing a complex scene containing a variety of objects. This work presents DisCoScene: a 3Daware generative model for high-quality and controllable scene synthesis. The key ingredient of our method is a very abstract object-level representation (i.e., 3D bounding boxes without semantic annotation) as the scene layout prior, which is simple to obtain, general to describe various scene contents, and yet informative to disentangle objects and background. Moreover, it serves as an intuitive user control for scene editing. Based on such a prior, the proposed model spatially disentangles the whole scene into object-centric generative radiance fields by learning on only 2D images with the global-local discrimination. Our model obtains the generation fidelity and editing flexibility of individual objects while being able to efficiently compose objects and the background into a complete scene. We demonstrate state-of-the-art performance on many scene datasets, including the challenging Waymo outdoor dataset. Project page: https://snap-research.github.io/discoscene/
翻訳日:2022-12-23 15:02:39 公開日:2022-12-22
# Synopsis: 弱フィードバックによる逐次決定問題

Synopsis: Sequential Decision Problems with Weak Feedback ( http://arxiv.org/abs/2212.11599v1 )

ライセンス: Link先を確認
Arun Verma(参考訳) この論文は、観察されたフィードバックから行動を選択することによって生じる損失/逆の損失を推測できない、シーケンシャルな決定問題を考察する。 この論文の主要な部分は教師なしのシーケンシャル選択問題であり、観察されたフィードバックからアクションを選択する際に発生する損失を推測することはできない。 また,特定の条件下で行動を選択する際に発生する損失を観測できるCensored Semi Banditsという新しい設定も導入する。 最後に,通信ネットワークにおけるチャネル選択問題について検討し,他のプレーヤがラウンドでプレーするアクションを選択しない場合にのみ,アクションに対する報酬が観測される。 これらの問題は、医療、クラウドソーシング、セキュリティ、アダプティブリソース割り当てなど、多くの分野で応用されている。 本論文は,これらの課題の具体的構造を生かして,上記の逐次的決定問題に対処することを目的としている。 我々は,これらの設定に対して,弱いフィードバックで最適なアルゴリズムを開発し,合成および実データから導出する異なる問題インスタンスにおいて,その経験的性能を検証する。

This thesis considers sequential decision problems, where the loss/reward incurred by selecting an action may not be inferred from observed feedback. A major part of this thesis focuses on the unsupervised sequential selection problem, where one can not infer the loss incurred for selecting an action from observed feedback. We also introduce a new setup named Censored Semi Bandits, where the loss incurred for selecting an action can be observed under certain conditions. Finally, we study the channel selection problem in the communication networks, where the reward for an action is only observed when no other player selects that action to play in the round. These problems find applications in many fields like healthcare, crowd-sourcing, security, adaptive resource allocation, among many others. This thesis aims to address the above-described sequential decision problems by exploiting specific structures these problems exhibit. We develop provably optimal algorithms for each of these setups with weak feedback and validate their empirical performance on different problem instances derived from synthetic and real datasets.
翻訳日:2022-12-23 15:01:48 公開日:2022-12-22
# 勾配に基づくメタ学習による再利用可能な選択肢

Reusable Options through Gradient-based Meta Learning ( http://arxiv.org/abs/2212.11726v1 )

ライセンス: Link先を確認
David Kuric, Herke van Hoof(参考訳) 強化学習における階層的手法は、新しいタスクを学ぶ際にエージェントが行うべき決定の量を減らす可能性がある。 しかし、高速学習を容易にする再利用可能な時間的抽象化を見つけることは難しい問題である。 近年,このような時間的抽象化をエンド・ツー・エンドの形で学習するための深層学習手法が提案されている。 本稿では,これらの手法の欠点を指摘し,その潜在的な負の結果について考察する。 次に,再利用可能な選択肢についてデシデラタを定式化し,これを用いて,学習オプションの問題を勾配に基づくメタラーニング問題として構成する。 これにより、選択を明示的にインセンティブ化する目的を定式化し、より高いレベルの意思決定者がいくつかのステップで異なるタスクを調整できるようにします。 実験により,本手法は学習を加速し,従来の手法よりも優れた性能を発揮する移動可能なコンポーネントを学習できることを示した。 さらに、勾配に基づくメタラーニングおよび他の提案された変化を用いた影響の定量化を行う。

Hierarchical methods in reinforcement learning have the potential to reduce the amount of decisions that the agent needs to perform when learning new tasks. However, finding a reusable useful temporal abstractions that facilitate fast learning remains a challenging problem. Recently, several deep learning approaches were proposed to learn such temporal abstractions in the form of options in an end-to-end manner. In this work, we point out several shortcomings of these methods and discuss their potential negative consequences. Subsequently, we formulate the desiderata for reusable options and use these to frame the problem of learning options as a gradient-based meta-learning problem. This allows us to formulate an objective that explicitly incentivizes options which allow a higher-level decision maker to adjust in few steps to different tasks. Experimentally, we show that our method is able to learn transferable components which accelerate learning and performs better than existing prior methods developed for this setting. Additionally, we perform ablations to quantify the impact of using gradient-based meta-learning as well as other proposed changes.
翻訳日:2022-12-23 15:01:29 公開日:2022-12-22
# 不均質なセンサによる人間の動き予測

Few-shot human motion prediction for heterogeneous sensors ( http://arxiv.org/abs/2212.11771v1 )

ライセンス: Link先を確認
Rafael Rego Drumond, Lukas Brinkmeyer and Lars Schmidt-Thieme(参考訳) 人間の動作予測は、接続されたセンサーのグラフ上で時間とともに変数を予測するという複雑なタスクである。 これは特に、わずかな例のみに基づいて、それまで認識されていなかったアクションの動作シーケンスを予測しようとする、少数ショット学習の場合において当てはまります。 これにもかかわらず、ほとんどすべての関連する動き予測のアプローチは、基礎となるグラフを取り入れていないが、古典的な動き予測では共通の要素である。 さらに、数発のモーション予測のための最先端の手法は、固定された出力空間を持つ動作タスクに制限されるため、これらのタスクはすべて同じセンサーグラフに制限される。 本研究では,グラフニューラルネットワークを用いた不均質な属性を用いたマイナショット時系列予測に関する最近の研究を拡張し,空間グラフを明示的に組み込むとともに,不均質なセンサを用いた動作タスクを一般化した最初のマイナショットモーションアプローチを提案する。 異種センサを用いた動作課題実験では、最高の最新モデルと比較してリフトが10.4%から39.3%に向上した。 さらに,本モデルでは,パラメータを2桁少なく保ちながら,一定の出力空間を持つタスクの評価を行う場合に,これまでのベストアプローチと同等に動作可能であることを示す。

Human motion prediction is a complex task as it involves forecasting variables over time on a graph of connected sensors. This is especially true in the case of few-shot learning, where we strive to forecast motion sequences for previously unseen actions based on only a few examples. Despite this, almost all related approaches for few-shot motion prediction do not incorporate the underlying graph, while it is a common component in classical motion prediction. Furthermore, state-of-the-art methods for few-shot motion prediction are restricted to motion tasks with a fixed output space meaning these tasks are all limited to the same sensor graph. In this work, we propose to extend recent works on few-shot time-series forecasting with heterogeneous attributes with graph neural networks to introduce the first few-shot motion approach that explicitly incorporates the spatial graph while also generalizing across motion tasks with heterogeneous sensors. In our experiments on motion tasks with heterogeneous sensors, we demonstrate significant performance improvements with lifts from 10.4% up to 39.3% compared to best state-of-the-art models. Moreover, we show that our model can perform on par with the best approach so far when evaluating on tasks with a fixed output space while maintaining two magnitudes fewer parameters.
翻訳日:2022-12-23 15:01:11 公開日:2022-12-22
# リーマンメートル保存による変形性表面再構成

Deformable Surface Reconstruction via Riemannian Metric Preservation ( http://arxiv.org/abs/2212.11596v1 )

ライセンス: Link先を確認
Oriol Barbany, Adri\`a Colom\'e, Carme Torras(参考訳) モノクロ画像から物体のポーズを推定することは、コンピュータビジョンの基本的な逆問題である。 この問題の誤った性質は、その解決に先立って変形を組み込む必要がある。 実際には、多くの材料は操作時に知覚的に縮小したり拡張したりせず、強力でよく知られた以前の構成となっている。 数学的には、これはリーマン計量の保存を意味する。 ニューラルネットワークは、任意の精度で表面を近似し、微分幾何学量の計算を可能にするため、表面再構成問題を解決するのに最適な遊び場を提供する。 本稿では,画像列から連続的な変形可能な表面を推定する手法を提案する。

Estimating the pose of an object from a monocular image is an inverse problem fundamental in computer vision. The ill-posed nature of this problem requires incorporating deformation priors to solve it. In practice, many materials do not perceptibly shrink or extend when manipulated, constituting a powerful and well-known prior. Mathematically, this translates to the preservation of the Riemannian metric. Neural networks offer the perfect playground to solve the surface reconstruction problem as they can approximate surfaces with arbitrary precision and allow the computation of differential geometry quantities. This paper presents an approach to inferring continuous deformable surfaces from a sequence of images, which is benchmarked against several techniques and obtains state-of-the-art performance without the need for offline training.
翻訳日:2022-12-23 14:55:20 公開日:2022-12-22
# ddcolor:デュアルデコーダによるフォトリアリスティック・セマンティックアウェア画像のカラー化に向けて

DDColor: Towards Photo-Realistic and Semantic-Aware Image Colorization via Dual Decoders ( http://arxiv.org/abs/2212.11613v1 )

ライセンス: Link先を確認
Xiaoyang Kang, Tao Yang, Wenqi Ouyang, Peiran Ren, Lingzhi Li, Xuansong Xie(参考訳) 画像の自動着色は特に難しい問題である。 問題の高い病気とマルチモーダル不確実性のため、ディープニューラルネットワークを直接トレーニングすることは、通常、誤った意味的色と低い色豊かさをもたらす。 既存のトランスフォーマーベースのメソッドは、より良い結果を提供できるが、手作りのデータセットレベルの経験的分散に強く依存する。 本研究では,画像のカラー化のためのデュアルデコーダを用いた新しいエンドツーエンド手法DDColorを提案する。 具体的には、マルチスケール画像デコーダとトランスフォーマーベースのカラーデコーダを設計する。 前者は画像の空間分解能を回復し、後者はクロスアテンションによって意味表現と色問合せの相関を確立する。 2つのデコーダは、マルチスケールの視覚的特徴を活用して意味認識色埋め込みを学ぶために組み込まれている。 この2つのデコーダの助けを借りて,提案手法は意味的に一貫性があり,視覚的に有理な色化結果を生成することに成功した。 さらに、生成した結果の色豊かさをさらに向上するために、単純だが効果的な色度損失を導入する。 提案したDDColorは,既存の最先端技術よりも定量的かつ定性的に優れた性能を発揮することを示す。 コードは公開される予定だ。

Automatic image colorization is a particularly challenging problem. Due to the high illness of the problem and multi-modal uncertainty, directly training a deep neural network usually leads to incorrect semantic colors and low color richness. Existing transformer-based methods can deliver better results but highly depend on hand-crafted dataset-level empirical distribution priors. In this work, we propose DDColor, a new end-to-end method with dual decoders, for image colorization. More specifically, we design a multi-scale image decoder and a transformer-based color decoder. The former manages to restore the spatial resolution of the image, while the latter establishes the correlation between semantic representations and color queries via cross-attention. The two decoders incorporate to learn semantic-aware color embedding by leveraging the multi-scale visual features. With the help of these two decoders, our method succeeds in producing semantically consistent and visually plausible colorization results without any additional priors. In addition, a simple but effective colorfulness loss is introduced to further improve the color richness of generated results. Our extensive experiments demonstrate that the proposed DDColor achieves significantly superior performance to existing state-of-the-art works both quantitatively and qualitatively. Codes will be made publicly available.
翻訳日:2022-12-23 14:55:07 公開日:2022-12-22
# クラスタリングの観点からのタイムスタンプ教師付きアクションセグメンテーション

Timestamp-Supervised Action Segmentation in the Perspective of Clustering ( http://arxiv.org/abs/2212.11694v1 )

ライセンス: Link先を確認
Dazhao Du, Enhan Li, Lingyu Si, Fanjiang Xu, Fuchun Sun(参考訳) ビデオアクションセグメンテーションは、ビデオをいくつかのアクションセグメンテーションに分割することを目的としている。 近年,アノテーションコストの低下によりタイムスタンプ管理が注目されている。 アクションセグメントの境界付近のフレームは、2つの連続するアクション間の遷移領域にあり、不明瞭なセマンティクスを持ち、あいまいな間隔と呼ばれる。 既存の手法のほとんどは、セグメンテーションモデルを訓練するために各ビデオの全てのフレームの擬似ラベルを反復的に生成する。 しかし、あいまいな間隔はノイズや誤った擬似ラベルで割り当てられることが多く、結果としてパフォーマンスが低下する。 本稿では,タイムスタンプ管理下でモデルをトレーニングするための新しい枠組みを提案する。 まず、擬似ラベルエンセムリングは、フレームが擬似ラベルを持たない曖昧な間隔の擬似ラベルシーケンスを生成する。 第二に、反復クラスタリングは擬似ラベルをクラスタリングによってあいまいな間隔に反復的に伝播し、擬似ラベルシーケンスを更新してモデルをトレーニングする。 さらに,同じ動作セグメント内のフレームの特徴をよりコンパクトにするクラスタリングロスについても紹介する。 広範な実験により,本手法の有効性が示された。

Video action segmentation aims to slice the video into several action segments. Recently, timestamp supervision has received much attention due to lower annotation costs. We find the frames near the boundaries of action segments are in the transition region between two consecutive actions and have unclear semantics, which we call ambiguous intervals. Most existing methods iteratively generate pseudo-labels for all frames in each video to train the segmentation model. However, ambiguous intervals are more likely to be assigned with noisy and incorrect pseudo-labels, which leads to performance degradation. We propose a novel framework to train the model under timestamp supervision including the following two parts. First, pseudo-label ensembling generates pseudo-label sequences with ambiguous intervals, where the frames have no pseudo-labels. Second, iterative clustering iteratively propagates the pseudo-labels to the ambiguous intervals by clustering, and thus updates the pseudo-label sequences to train the model. We further introduce a clustering loss, which encourages the features of frames within the same action segment more compact. Extensive experiments show the effectiveness of our method.
翻訳日:2022-12-23 14:53:53 公開日:2022-12-22
# 可逆列ネットワーク

Reversible Column Networks ( http://arxiv.org/abs/2212.11696v1 )

ライセンス: Link先を確認
Yuxuan Cai, Yizhuang Zhou, Qi Han, Jianjian Sun, Xiangwen Kong, Jun Li, Xiangyu Zhang(参考訳) 本稿では,新しいニューラルネットワーク設計パラダイムであるReversible Column Network (RevCol)を提案する。 RevColの本体はサブネットの複数のコピーで構成されており、その間に複数レベルの可逆接続が使われている。 前方伝播の間、revocolの特徴は、他のネットワークのように圧縮されたり破棄されたりするのではなく、全情報が維持される各カラムを通過すると徐々に不連続になるように学習される。 本研究では,画像分類,オブジェクト検出,意味セグメンテーションといった複数のコンピュータビジョンタスクにおいて,cnnスタイルのrevcolモデルが非常に競争力のある性能を実現することを示唆する。 例えば、ImageNet-22Kの事前トレーニングの後、RevCol-XLは88.2%のImageNet-1Kの精度を得る。 事前トレーニングデータが増えると、当社最大のモデルであるRevCol-HはImageNet-1Kで90.0%、COCO検出ミニバルセットで63.8%、ADE20kセグメンテーションで61.0%となる。 我々の知る限り、純粋な(静的)CNNモデルの中ではCOCO検出とADE20kセグメンテーションの結果が最も優れている。 さらに、一般的なマクロアーキテクチャの手法として、RevColはトランスフォーマーや他のニューラルネットワークにも導入することができ、コンピュータビジョンとNLPタスクの両方のパフォーマンスを改善することが実証されている。 コードとモデルはhttps://github.com/megvii-research/revcolでリリースします。

We propose a new neural network design paradigm Reversible Column Network (RevCol). The main body of RevCol is composed of multiple copies of subnetworks, named columns respectively, between which multi-level reversible connections are employed. Such architectural scheme attributes RevCol very different behavior from conventional networks: during forward propagation, features in RevCol are learned to be gradually disentangled when passing through each column, whose total information is maintained rather than compressed or discarded as other network does. Our experiments suggest that CNN-style RevCol models can achieve very competitive performances on multiple computer vision tasks such as image classification, object detection and semantic segmentation, especially with large parameter budget and large dataset. For example, after ImageNet-22K pre-training, RevCol-XL obtains 88.2% ImageNet-1K accuracy. Given more pre-training data, our largest model RevCol-H reaches 90.0% on ImageNet-1K, 63.8% APbox on COCO detection minival set, 61.0% mIoU on ADE20k segmentation. To our knowledge, it is the best COCO detection and ADE20k segmentation result among pure (static) CNN models. Moreover, as a general macro architecture fashion, RevCol can also be introduced into transformers or other neural networks, which is demonstrated to improve the performances in both computer vision and NLP tasks. We release code and models at https://github.com/megvii-research/RevCol
翻訳日:2022-12-23 14:53:33 公開日:2022-12-22
# ライダー画像とステレオ画像の深さ推定マップ

Depth Estimation maps of lidar and stereo images ( http://arxiv.org/abs/2212.11741v1 )

ライセンス: Link先を確認
Fei Wu and Luoyu Chen(参考訳) 本報告は,ライダーデータとステレオ画像(前左および前右)に基づく深度推定の評価と性能に着目した技術報告である。 ライダー3dクラウドデータ及びステレオ画像はフォードにより提供される。 さらに,深度推定性能の最適化について,いくつかの詳細を述べる。 そして、機械学習を深度推定に使わず、純粋数学に代えて立体深度推定に使用する理由もいくつかある。 The structure of this paper is made of by following:(1) Performance: to discuss and evaluate about depth maps created from stereo images and 3D cloud points, and relationships analysis for alignment and errors;(2) Depth estimation by stereo images: to explain the methods about how to use stereo images to estimate depth;(3)Depth estimation by lidar: to explain the methods about how to use 3d cloud datas to estimate depth;In summary, this report is mainly to show the performance of depth maps and their approaches, analysis for them.

This paper as technology report is focusing on evaluation and performance about depth estimations based on lidar data and stereo images(front left and front right). The lidar 3d cloud data and stereo images are provided by ford. In addition, this paper also will explain some details about optimization for depth estimation performance. And some reasons why not use machine learning to do depth estimation, replaced by pure mathmatics to do stereo depth estimation. The structure of this paper is made of by following:(1) Performance: to discuss and evaluate about depth maps created from stereo images and 3D cloud points, and relationships analysis for alignment and errors;(2) Depth estimation by stereo images: to explain the methods about how to use stereo images to estimate depth;(3)Depth estimation by lidar: to explain the methods about how to use 3d cloud datas to estimate depth;In summary, this report is mainly to show the performance of depth maps and their approaches, analysis for them.
翻訳日:2022-12-23 14:53:08 公開日:2022-12-22
# ユークリッド空間と角空間のマージンを最大化するDeep Simplex Classifier

Deep Simplex Classifier for Maximizing the Margin in Both Euclidean and Angular Spaces ( http://arxiv.org/abs/2212.11747v1 )

ライセンス: Link先を確認
Hakan Cevikalp, Hasan Saribas(参考訳) ディープニューラルネットワーク分類器で使用される分類損失関数は、ユークリッド空間または角空間のマージンの最大化に基づいて2つのカテゴリに分類することができる。 サンプルベクトル間のユークリッド距離はユークリッド空間のマージンを最大化する方法の分類に使われ、一方コサイン類似度距離は角空間のマージンを最大化する方法のテスト段階で用いられる。 本稿では,ユークリッド空間と角空間の両辺を同時に最大化する新しい分類損失を提案する。 このようにして、ユークリッド距離とコサイン距離は類似した一貫した結果を生み出し、互いに補完し合い、結果として精度が向上する。 提案された損失関数は、それらを表す中心を囲むクラスタにクラスのサンプルを強制する。 クラスを近似する中心は超球面の境界から選択され、クラス中心間の対距離は常に同値である。 この制限は、正則単純体の頂点から中心を選ぶことに対応する。 提案する損失関数にユーザが設定しなければならないハイパーパラメータは存在せず,古典的分類問題に対して,提案手法の使用が極めて容易である。 さらに, クラスサンプルは, 対応する手段を中心にコンパクトにクラスタリングされているため, 提案する分類器は, 学習段階にない未知のクラスからテストサンプルを抽出できる開集合認識問題にも非常に適している。 実験により,提案手法は単純さに拘わらず,オープンセット認識における最先端の精度を実現することを示す。

The classification loss functions used in deep neural network classifiers can be grouped into two categories based on maximizing the margin in either Euclidean or angular spaces. Euclidean distances between sample vectors are used during classification for the methods maximizing the margin in Euclidean spaces whereas the Cosine similarity distance is used during the testing stage for the methods maximizing margin in the angular spaces. This paper introduces a novel classification loss that maximizes the margin in both the Euclidean and angular spaces at the same time. This way, the Euclidean and Cosine distances will produce similar and consistent results and complement each other, which will in turn improve the accuracies. The proposed loss function enforces the samples of classes to cluster around the centers that represent them. The centers approximating classes are chosen from the boundary of a hypersphere, and the pairwise distances between class centers are always equivalent. This restriction corresponds to choosing centers from the vertices of a regular simplex. There is not any hyperparameter that must be set by the user in the proposed loss function, therefore the use of the proposed method is extremely easy for classical classification problems. Moreover, since the class samples are compactly clustered around their corresponding means, the proposed classifier is also very suitable for open set recognition problems where test samples can come from the unknown classes that are not seen in the training phase. Experimental studies show that the proposed method achieves the state-of-the-art accuracies on open set recognition despite its simplicity.
翻訳日:2022-12-23 14:52:57 公開日:2022-12-22
# RGB-DスキャンによるCADモデルによる室内画像の自動アノテーション

Automatically Annotating Indoor Images with CAD Models via RGB-D Scans ( http://arxiv.org/abs/2212.11796v1 )

ライセンス: Link先を確認
Stefan Ainetter, Sinisa Stekovic, Friedrich Fraundorfer, Vincent Lepetit(参考訳) 本稿では,RGB-Dスキャンに頼って,オブジェクトのCADモデルを用いた室内シーンの自動アノテート手法を提案する。 3Dの専門家による視覚的評価により,本手法は手動アノテーションと同程度の精度のアノテーションを検索し,手動で3Dデータに注釈を付けることなく,基礎的な真実として利用できることを示す。 我々は、CADモデルのレンダリングとキャプチャされたシーンを比較した分析バイシンセシス手法を用いてこれを行う。 我々は,同じ形状のオブジェクトを識別する「閉鎖手順」を導入し,これらのオブジェクトを同じCADモデルでアノテートする。 これにより、ScanNetデータセットと最近のARKitScenesデータセットの完全なアノテーションを得ることができる。

We present an automatic method for annotating images of indoor scenes with the CAD models of the objects by relying on RGB-D scans. Through a visual evaluation by 3D experts, we show that our method retrieves annotations that are at least as accurate as manual annotations, and can thus be used as ground truth without the burden of manually annotating 3D data. We do this using an analysis-by-synthesis approach, which compares renderings of the CAD models with the captured scene. We introduce a 'cloning procedure' that identifies objects that have the same geometry, to annotate these objects with the same CAD models. This allows us to obtain complete annotations for the ScanNet dataset and the recent ARKitScenes dataset.
翻訳日:2022-12-23 14:52:30 公開日:2022-12-22
# 条件付きGANを用いたジャムダニモチーフ生成

Jamdani Motif Generation using Conditional GAN ( http://arxiv.org/abs/2212.11824v1 )

ライセンス: Link先を確認
MD Tanvir Rouf Shawon, Raihan Tanvir, Humaira Ferdous Shifa, Susmoy Kar, Mohammad Imrul Jubair(参考訳) ジャムダニ(jamdani)はバングラデシュの繊維遺産である。 織物に織られた排他的な幾何学的モチーフは、織物や美術に顕著な影響を与えたこの工芸の最も魅力的な部分である。 本稿では,ジャムダニモチーフの集合から全く新しいジャムダニパターンを生成できることを学習し,新たなモチーフがオリジナルデザインの外観を模倣する手法を開発した。 ユーザは大まかなストロークで所望のパターンの骨格を入力でき、実際のジャムダニの幾何学的構造に従って完全なモチーフを生成することで入力を確定する。 この目的のために,フィールドワークにより多数のJamdaniモチーフ画像を含むデータセットを収集・前処理し,pix2pixと呼ばれる最先端の手法を適用した。 我々の知る限り、このデータセットは現在、コンピュータビジョン研究のためのデジタルフォーマットにおけるJamdaniモチーフの唯一のデータセットである。 このデータセット上のpix2pixモデルの実験結果は、コンピュータで生成されたジャムダニモチーフの画像の十分な出力を示しており、我々の研究がさらなる研究のための新しい道を開くと信じている。

Jamdani is the strikingly patterned textile heritage of Bangladesh. The exclusive geometric motifs woven on the fabric are the most attractive part of this craftsmanship having a remarkable influence on textile and fine art. In this paper, we have developed a technique based on the Generative Adversarial Network that can learn to generate entirely new Jamdani patterns from a collection of Jamdani motifs that we assembled, the newly formed motifs can mimic the appearance of the original designs. Users can input the skeleton of a desired pattern in terms of rough strokes and our system finalizes the input by generating the complete motif which follows the geometric structure of real Jamdani ones. To serve this purpose, we collected and preprocessed a dataset containing a large number of Jamdani motifs images from authentic sources via fieldwork and applied a state-of-the-art method called pix2pix to it. To the best of our knowledge, this dataset is currently the only available dataset of Jamdani motifs in digital format for computer vision research. Our experimental results of the pix2pix model on this dataset show satisfactory outputs of computer-generated images of Jamdani motifs and we believe that our work will open a new avenue for further research.
翻訳日:2022-12-23 14:52:16 公開日:2022-12-22
# 階層的コントラスト学習による湿潤気候の回復ビジョン

Restoring Vision in Hazy Weather with Hierarchical Contrastive Learning ( http://arxiv.org/abs/2212.11473v1 )

ライセンス: Link先を確認
Tao Wang, Guangpin Tao, Wanglong Lu, Kaihao Zhang, Wenhan Luo, Xiaoqin Zhang, Tong Lu(参考訳) 濃厚な気象条件下でのイメージ復元は、シングルイメージデハジングと呼ばれ、様々なコンピュータビジョンアプリケーションにとって大きな関心を集めている。 近年,ディープラーニングに基づく手法が成功している。 しかし、既存の画像デハジング手法は通常、ニューラルネットワークの特徴の階層を無視し、それらの関係を完全に活用することができない。 そこで本研究では,特徴融合とコントラスト学習戦略に基づくHCD(Hierarchical Contrastive Dehazing)という効果的な画像デハージング手法を提案する。 HCDは階層的デハージングネットワーク(HDN)と新しい階層的コントラスト損失(HCL)から構成される。 具体的には、HDNの中核設計は階層的相互作用モジュールであり、マルチスケールのアクティベーションを利用して特徴応答を階層的に修正する。 本研究では,hdnの学習と協調するために,階層的な組合わせ例の対比学習を行い,ヘイズ除去を容易にするhclを提案する。 公開データセット(RESIDE、HazeRD、DENSE-HAZE)に関する大規模な実験は、HCDがPSNR、SSIMの点で最先端の手法を定量的に上回り、視覚的品質を向上させることを実証している。

Image restoration under hazy weather condition, which is called single image dehazing, has been of significant interest for various computer vision applications. In recent years, deep learning-based methods have achieved success. However, existing image dehazing methods typically neglect the hierarchy of features in the neural network and fail to exploit their relationships fully. To this end, we propose an effective image dehazing method named Hierarchical Contrastive Dehazing (HCD), which is based on feature fusion and contrastive learning strategies. HCD consists of a hierarchical dehazing network (HDN) and a novel hierarchical contrastive loss (HCL). Specifically, the core design in the HDN is a Hierarchical Interaction Module, which utilizes multi-scale activation to revise the feature responses hierarchically. To cooperate with the training of HDN, we propose HCL which performs contrastive learning on hierarchically paired exemplars, facilitating haze removal. Extensive experiments on public datasets, RESIDE, HazeRD, and DENSE-HAZE, demonstrate that HCD quantitatively outperforms the state-of-the-art methods in terms of PSNR, SSIM and achieves better visual quality.
翻訳日:2022-12-23 14:46:37 公開日:2022-12-22
# 魚眼画像の空間的統合に基づく人物再同定

Spatio-Visual Fusion-Based Person Re-Identification for Overhead Fisheye Images ( http://arxiv.org/abs/2212.11477v1 )

ライセンス: Link先を確認
Mertcan Cokbas, Prakash Ishwar, Janusz Konrad(参考訳) 大きな屋内空間にいる人々の信頼性と費用対効果は、多くのアプリケーションにとって大きな課題である。 新たなアプローチは、複数の魚眼カメラを頭上に設置して空間全体を監視することだ。 しかし、重なり合う視野のため、人の再識別性(prid)はカウントの正確さに欠かせない。 pridは従来の直線型カメラで徹底的に研究されてきたが、魚眼カメラの手法はほとんど提案されておらず、性能は比較的低い。 この性能ギャップを埋めるために,魚眼PRIDのための多機能フレームワークを提案する。 魚眼PRIDデータセットであるFRIDAを用いた各種特徴組合せのためのフレームワークの性能評価を行った。 その結果,近年の外観に基づく深層学習法では,約18%,位置に基づく手法では約3%の精度で性能が向上した。

Reliable and cost-effective counting of people in large indoor spaces is a significant challenge with many applications. An emerging approach is to deploy multiple fisheye cameras mounted overhead to monitor the whole space. However, due to the overlapping fields of view, person re-identificaiton (PRID) is critical for the accuracy of counting. While PRID has been thoroughly researched for traditional rectilinear cameras, few methods have been proposed for fisheye cameras and their performance is comparatively lower. To close this performance gap, we propose a multi-feature framework for fisheye PRID where we combine deep-learning, color-based and location-based features by means of novel feature fusion. We evaluate the performance of our framework for various feature combinations on FRIDA, a public fisheye PRID dataset. The results demonstrate that our multi-feature approach outperforms recent appearance-based deep-learning methods by almost 18% points and location-based methods by almost 3% points in accuracy.
翻訳日:2022-12-23 14:46:16 公開日:2022-12-22
# 画像復調のためのグループスパース符号化

Group Sparse Coding for Image Denoising ( http://arxiv.org/abs/2212.11501v1 )

ライセンス: Link先を確認
Luoyu Chen and Fei Wu(参考訳) グループスパース表現はGSR[3]における画像デブロリングと画像インペインティングの有望な結果を示しており、その主な原因は、自然画像のパッチ間のスパーシリティと非局所自己相似性(NSS)を利用して、正規化された最適化問題を解くことである。 しかし,GSR[3]を画像デノゲーションに直接適応させると,不安定で不満足な結果が得られるため,GSR[3]モデルをうまく適応させるプログレッシブ画像デノゲーションアルゴリズムを提案する。

Group sparse representation has shown promising results in image debulrring and image inpainting in GSR [3] , the main reason that lead to the success is by exploiting Sparsity and Nonlocal self-similarity (NSS) between patches on natural images, and solve a regularized optimization problem. However, directly adapting GSR[3] in image denoising yield very unstable and non-satisfactory results, to overcome these issues, this paper proposes a progressive image denoising algorithm that successfully adapt GSR [3] model and experiments shows the superior performance than some of the state-of-the-art methods.
翻訳日:2022-12-23 14:46:01 公開日:2022-12-22
# 手術場面理解のためのラベル平滑化による信頼度認識ペースト・キュリオクルム学習

Confidence-Aware Paced-Curriculum Learning by Label Smoothing for Surgical Scene Understanding ( http://arxiv.org/abs/2212.11511v1 )

ライセンス: Link先を確認
Mengya Xu, Mobarakol Islam, Ben Glocker and Hongliang Ren(参考訳) カリキュラム学習とセルフペース学習は、サンプルを簡単からより複雑なものに徐々に供給するトレーニング戦略である。 彼らはロボットビジョンの優れた性能のために注目を集めている。 最近の研究は、入力サンプルの難易度や特徴写像の平滑化に基づくカリキュラムの設計に重点を置いている。 しかし、学習ユーティリティをカリキュラム的に制御するためのラベルの平滑化はいまだに未検討である。 本研究では,一様ラベルスムースメント(ULS)を用いたペースト学習を用いたラベルスムースメント(P-CBLS)と,一様ラベルスムースメント(SVLS)を用いた意味的セグメンテーションタスクのための均一かつ空間的に変化するラベルスムースメント(SVLS)をカリキュラム的に設計する。 ULS と SVLS では、より大きな滑らか化係数が真のラベルにおいて重い滑らか化ペナルティを強制し、より少ない情報の学習を制限する。 そこで我々はラベルスムーシング(CBLS)を用いてカリキュラムを設計する。 トレーニング開始時によりスムーズな値を設定し,モデル学習ユーティリティを下位から上位に制御するために,徐々にゼロに減らした。 また,信頼度対応のペーシング関数を設計し,cblと組み合わせて様々なカリキュラムの利点について検討した。 提案手法は,マルチクラス,マルチラベル分類,キャプション,セグメンテーションタスクの4つのロボット手術データセット上で検証される。 また, 本手法のロバスト性についても, 検証データを異なる重度レベルに分解することで検討した。 提案手法は予測精度とロバスト性が向上することを示す。

Curriculum learning and self-paced learning are the training strategies that gradually feed the samples from easy to more complex. They have captivated increasing attention due to their excellent performance in robotic vision. Most recent works focus on designing curricula based on difficulty levels in input samples or smoothing the feature maps. However, smoothing labels to control the learning utility in a curriculum manner is still unexplored. In this work, we design a paced curriculum by label smoothing (P-CBLS) using paced learning with uniform label smoothing (ULS) for classification tasks and fuse uniform and spatially varying label smoothing (SVLS) for semantic segmentation tasks in a curriculum manner. In ULS and SVLS, a bigger smoothing factor value enforces a heavy smoothing penalty in the true label and limits learning less information. Therefore, we design the curriculum by label smoothing (CBLS). We set a bigger smoothing value at the beginning of training and gradually decreased it to zero to control the model learning utility from lower to higher. We also designed a confidence-aware pacing function and combined it with our CBLS to investigate the benefits of various curricula. The proposed techniques are validated on four robotic surgery datasets of multi-class, multi-label classification, captioning, and segmentation tasks. We also investigate the robustness of our method by corrupting validation data into different severity levels. Our extensive analysis shows that the proposed method improves prediction accuracy and robustness.
翻訳日:2022-12-23 14:45:46 公開日:2022-12-22
# LaneAF:アフィニティフィールドを用いたロバストマルチレーン検出

LaneAF: Robust Multi-Lane Detection with Affinity Fields ( http://arxiv.org/abs/2212.11533v1 )

ライセンス: Link先を確認
Genze Zhou, Luoyu Chen and Fei Wu(参考訳) 車線検出は長年の課題であり、自動運転の基本モジュールである。 課題は、現在の運転道路の車線を検知し、ID、方向、曲率、幅、長さなどの関連情報と視覚化を提供することである。 我々の研究は、CNNのバックボーンDLA-34とアフィニティ・フィールズ(Affinity Fields)をベースとし、車線数を仮定することなく、様々な車線を頑健に検出することを目的としている。 さらに,より効率的な車線検出アルゴリズムを実現するための新しい復号法について検討する。

Lane detection is a long-standing task and a basic module in autonomous driving. The task is to detect the lane of the current driving road, and provide relevant information such as the ID, direction, curvature, width, length, with visualization. Our work is based on CNN backbone DLA-34, along with Affinity Fields, aims to achieve robust detection of various lanes without assuming the number of lanes. Besides, we investigate novel decoding methods to achieve more efficient lane detection algorithm.
翻訳日:2022-12-23 14:45:17 公開日:2022-12-22
# SHLE:ステレオベースハイト限界推定のためのデバイス追跡と深さフィルタリング

SHLE: Devices Tracking and Depth Filtering for Stereo-based Height Limit Estimation ( http://arxiv.org/abs/2212.11538v1 )

ライセンス: Link先を確認
Zhaoxin Fan, Kaixing Yang, Min Zhang, Zhenbo Song, Hongyan Liu, and Jun He(参考訳) 近年、過度の車両攻撃が頻繁に発生し、経済的コストと深刻な安全問題を引き起こしている。 したがって, ツーリング車などの近代的な大型車や中型車において, 事前に想定される高度制限装置を正確に検出できる警報システムが必要である。 高さ制限装置の検出と推定は、高度制限警報システムの成功の鍵ポイントとして機能する。 研究の上限推定はいくつかあるが、既存の手法は計算コストが高すぎるか、正確ではないかのどちらかである。 本稿では,高さ限界推定のためのステレオベースパイプラインであるshleを提案する。 SHLEパイプラインは2つのステージで構成されています。 ステージ1では、左右画像中の高さ制限装置を正確に検出する新しい装置検出追跡方式が導入された。 そして、ステージ2では、深さを時間的に測定して抽出し、フィルタして高さ制限装置を算出する。 ハイト限界推定タスクをベンチマークするために,ステレオ画像,事前計算されたディパリティ,地中トルースハイト制限アノテーションなどの大規模データセット"Disparity Height"を構築した。 その結果、車体から70m離れているにもかかわらず、shleの平均誤差は10cm未満であることが判明した。 また, 比較基準を上回り, 最先端性能を実現する。 コードはhttps://github.com/Yang-Kaixing/SHLEで入手できる。

Recently, over-height vehicle strike frequently occurs, causing great economic cost and serious safety problems. Hence, an alert system which can accurately discover any possible height limiting devices in advance is necessary to be employed in modern large or medium sized cars, such as touring cars. Detecting and estimating the height limiting devices act as the key point of a successful height limit alert system. Though there are some works research height limit estimation, existing methods are either too computational expensive or not accurate enough. In this paper, we propose a novel stereo-based pipeline named SHLE for height limit estimation. Our SHLE pipeline consists of two stages. In stage 1, a novel devices detection and tracking scheme is introduced, which accurately locate the height limit devices in the left or right image. Then, in stage 2, the depth is temporally measured, extracted and filtered to calculate the height limit device. To benchmark the height limit estimation task, we build a large-scale dataset named "Disparity Height", where stereo images, pre-computed disparities and ground-truth height limit annotations are provided. We conducted extensive experiments on "Disparity Height" and the results show that SHLE achieves an average error below than 10cm though the car is 70m away from the devices. Our method also outperforms all compared baselines and achieves state-of-the-art performance. Code is available at https://github.com/Yang-Kaixing/SHLE.
翻訳日:2022-12-23 14:45:07 公開日:2022-12-22
# 正準物体検出ネットワークを用いた密集群数に対するマスク焦点損失

Mask Focal Loss for dense crowd counting with canonical object detection networks ( http://arxiv.org/abs/2212.11542v1 )

ライセンス: Link先を確認
Xiaopin Zhong, Guankun Wang, Weixiang Liua, Zongze Wua, Yuanlong Deng(参考訳) 群衆カウントは、リスク認識と早期警告、交通制御、シーン統計解析において重要な役割を果たす。 非常に密集した複雑な場面で群衆を数えることの課題は、人体部分の相互閉塞、体の大きさの大きな変化、画像条件の複雑さにある。 深層学習に基づく頭部検出は, 群集カウントのための有望な方法である。 しかし,2つの主な理由から,対象物検出ネットワークを十分に適用することはできない。 第一に、既存のヘッド検出データセットのほとんどは、標準検出器に必須となる境界ボックスの代わりに、中心点にアノテートされるのみである。 第2に、既存の損失関数が1つのキーポイントまたは同じ重さのターゲットエリア全体の正の損失を計算するため、高濃度で複雑なシーンではサンプルの不均衡は克服されていない。 これらの問題に対処するために、熱マップ基底真理(GT)と二項特徴写像(GT)に基づいて損失関数を統一するMask Focal Lossと呼ばれる新しい損失関数を提案する。 Mask Focal Loss はガウス核のヒートマップの座値に応じて損失寄与の重みを再定義する。 より良い評価と比較のために、35のシーケンス、5096イメージ、バウンディングボックス付き1732043ヘッドラベルを含む新しい合成データセットGTA\_Headが公開されている。 実験の結果,提案したMask Focal Lossが全標準検出器およびGTの異なる各種データセットに適用可能であることが示された。 これは密度推定に基づく群集数法を超越する強力な基礎を提供する。

Crowd counting plays an important role in risk perception and early warning, traffic control and scene statistical analysis. The challenges of crowd counting in highly dense and complex scenes lie in the mutual occlusion of the human body parts, the large variation of the body scales and the complexity of imaging conditions. Deep learning based head detection is a promising method for crowd counting. However the highly concerned object detection networks cannot be well applied to this field for two main reasons. First, most of the existing head detection datasets are only annotated with the center points instead of bounding boxes which is mandatory for the canonical detectors. Second, the sample imbalance has not been overcome yet in highly dense and complex scenes because the existing loss functions calculate the positive loss at a single key point or in the entire target area with the same weight. To address these problems, We propose a novel loss function, called Mask Focal Loss, to unify the loss functions based on heatmap ground truth (GT) and binary feature map GT. Mask Focal Loss redefines the weight of the loss contributions according to the situ value of the heatmap with a Gaussian kernel. For better evaluation and comparison, a new synthetic dataset GTA\_Head is made public, including 35 sequences, 5096 images and 1732043 head labels with bounding boxes. Experimental results show the overwhelming performance and demonstrate that our proposed Mask Focal Loss is applicable to all of the canonical detectors and to various datasets with different GT. This provides a strong basis for surpassing the crowd counting methods based on density estimation.
翻訳日:2022-12-23 14:44:46 公開日:2022-12-22
# 超高精細低光画像強調:ベンチマーク法と変圧器法

Ultra-High-Definition Low-Light Image Enhancement: A Benchmark and Transformer-Based Method ( http://arxiv.org/abs/2212.11548v1 )

ライセンス: Link先を確認
Tao Wang, Kaihao Zhang, Tianrun Shen, Wenhan Luo, Bjorn Stenger, Tong Lu(参考訳) 光センサーの品質が向上するにつれて、大規模な画像を処理する必要がある。 特に、デバイスが超高精細画像(UHD)をキャプチャし、ビデオが画像処理パイプラインに新しい要求を配置する能力がある。 本稿では,低照度画像強調(LLIE)の課題を考察し,4Kおよび8K解像度の画像からなる大規模データベースを提案する。 体系的なベンチマーク研究を行い,llieアルゴリズムの比較を行った。 第2の貢献として,変換器を用いた低光度強調手法であるllformerを提案する。 LLFormerのコアコンポーネントは軸ベースのマルチヘッド自己アテンションと層間アテンション融合ブロックである。 新しいデータセットと既存の公開データセットに関する大規模な実験は、LLFormerが最先端のメソッドより優れていることを示している。 また,我々のベンチマークでトレーニングした既存のllieメソッドを前処理ステップとして使用することで,低照度での顔検出など,下流タスクのパフォーマンスが大幅に向上することを示す。 ソースコードと事前訓練されたモデルはhttps://github.com/TaoWangzj/LLFormer.comで入手できる。

As the quality of optical sensors improves, there is a need for processing large-scale images. In particular, the ability of devices to capture ultra-high definition (UHD) images and video places new demands on the image processing pipeline. In this paper, we consider the task of low-light image enhancement (LLIE) and introduce a large-scale database consisting of images at 4K and 8K resolution. We conduct systematic benchmarking studies and provide a comparison of current LLIE algorithms. As a second contribution, we introduce LLFormer, a transformer-based low-light enhancement method. The core components of LLFormer are the axis-based multi-head self-attention and cross-layer attention fusion block, which significantly reduces the linear complexity. Extensive experiments on the new dataset and existing public datasets show that LLFormer outperforms state-of-the-art methods. We also show that employing existing LLIE methods trained on our benchmark as a pre-processing step significantly improves the performance of downstream tasks, e.g., face detection in low-light conditions. The source code and pre-trained models are available at https://github.com/TaoWangzj/LLFormer.
翻訳日:2022-12-23 14:44:19 公開日:2022-12-22
# Tune-A-Video:テキスト・ビデオ生成のための画像拡散モデルのワンショットチューニング

Tune-A-Video: One-Shot Tuning of Image Diffusion Models for Text-to-Video Generation ( http://arxiv.org/abs/2212.11565v1 )

ライセンス: Link先を確認
Jay Zhangjie Wu, Yixiao Ge, Xintao Wang, Weixian Lei, Yuchao Gu, Wynne Hsu, Ying Shan, Xiaohu Qie, Mike Zheng Shou(参考訳) テキスト・ツー・イメージ(t2i)生成の成功を再現するために、テキスト・ツー・ビデオ(t2v)生成における最近の作品は、微調整のための大規模テキスト・ビデオ・データセットを採用している。 しかし、そのようなパラダイムは計算コストが高い。 人間はたった一つの例から新しい視覚概念を学ぶ素晴らしい能力を持っている。 ここでは、オープンドメインT2Vジェネレータをトレーニングするために、単一のテキストビデオペアのみを提示する、新しいT2V生成問題$\unicode{x2014}$One-Shot Video Generationを研究する。 直感的には、T2V生成のための大量の画像データに基づいて事前訓練されたT2I拡散モデルを適用することを提案する。 2つの重要な観察を行いました 1) T2Iモデルは、動詞用語とよく一致した画像を生成することができる。 2) T2Iモデルを複数の画像を生成するように拡張すると、驚くほど良質なコンテント一貫性が得られる。 さらに連続的な動きを学習するために,事前学習したT2I拡散モデルの効率的なワンショットチューニングによりテキストプロンプトから映像を生成するSparse-Causal Attentionを用いたTune-A-Videoを提案する。 tune-a-videoは、主題や背景の変化、属性編集、スタイル転送、汎用性と有効性を示すなど、さまざまなアプリケーションで時間的に一貫性のあるビデオを生成することができる。

To reproduce the success of text-to-image (T2I) generation, recent works in text-to-video (T2V) generation employ large-scale text-video dataset for fine-tuning. However, such paradigm is computationally expensive. Humans have the amazing ability to learn new visual concepts from just one single exemplar. We hereby study a new T2V generation problem$\unicode{x2014}$One-Shot Video Generation, where only a single text-video pair is presented for training an open-domain T2V generator. Intuitively, we propose to adapt the T2I diffusion model pretrained on massive image data for T2V generation. We make two key observations: 1) T2I models are able to generate images that align well with the verb terms; 2) extending T2I models to generate multiple images concurrently exhibits surprisingly good content consistency. To further learn continuous motion, we propose Tune-A-Video with a tailored Sparse-Causal Attention, which generates videos from text prompts via an efficient one-shot tuning of pretrained T2I diffusion models. Tune-A-Video is capable of producing temporally-coherent videos over various applications such as change of subject or background, attribute editing, style transfer, demonstrating the versatility and effectiveness of our method.
翻訳日:2022-12-23 14:44:00 公開日:2022-12-22
# メタデータによる高画質画像の一貫性学習

Metadata-guided Consistency Learning for High Content Images ( http://arxiv.org/abs/2212.11595v1 )

ライセンス: Link先を確認
Johan Fredin Haslum and Christos Matsoukas and Karl-Johan Leuchowius and Erik M\"ullers and Kevin Smith(参考訳) 高濃度イメージングアッセイは、多量の化合物治療のための豊かな表現型反応データをキャプチャし、新規薬物の特性と発見を助けることができる。 しかし,表現型の微妙なニュアンスを捉えることのできる高画質画像から代表的特徴を抽出することは依然として困難である。 高品質なラベルがないため、教師付きディープラーニングで満足な結果を得るのは難しい。 自動生成ラベルから学習する自己教師付き学習手法は、自然画像において大きな成功を収めており、顕微鏡画像にも魅力的な代替手段を提供する。 しかし, 自己教師あり学習の手法は, ハイコンテントイメージング検査の精度を低下させることがわかった。 一つの課題は、バッチ効果として知られるデータに存在する望ましくない領域シフトであり、これは生物学的ノイズや制御不能な実験条件によって引き起こされる可能性がある。 この目的のために我々は,バッチ効果の存在下で学習可能な新しいアプローチであるCDCL(クロスドメイン一貫性学習)を導入する。 CDCLは、望ましくないバッチ固有の信号を無視しながら生物学的類似性の学習を強制する。 これらの特徴は形態的変化に従って整理され、治療や行動様式を区別するといった下流タスクでより有用である。

High content imaging assays can capture rich phenotypic response data for large sets of compound treatments, aiding in the characterization and discovery of novel drugs. However, extracting representative features from high content images that can capture subtle nuances in phenotypes remains challenging. The lack of high-quality labels makes it difficult to achieve satisfactory results with supervised deep learning. Self-Supervised learning methods, which learn from automatically generated labels has shown great success on natural images, offer an attractive alternative also to microscopy images. However, we find that self-supervised learning techniques underperform on high content imaging assays. One challenge is the undesirable domain shifts present in the data known as batch effects, which may be caused by biological noise or uncontrolled experimental conditions. To this end, we introduce Cross-Domain Consistency Learning (CDCL), a novel approach that is able to learn in the presence of batch effects. CDCL enforces the learning of biological similarities while disregarding undesirable batch-specific signals, which leads to more useful and versatile representations. These features are organised according to their morphological changes and are more useful for downstream tasks - such as distinguishing treatments and mode of action.
翻訳日:2022-12-23 14:43:32 公開日:2022-12-22
# 類比に基づく推論の最近の進歩

Some recent advances in reasoning based on analogical proportions ( http://arxiv.org/abs/2212.11717v1 )

ライセンス: Link先を確認
Myriam Bounhas and Henri Prade and Gilles Richard(参考訳) 類似の比率は、それらの差異と類似性の観点から、(a, b) と (c, d) のペアを比較する。 これらは類推の形式化において重要な役割を果たす。 本稿ではまず,精度と計算コストの観点から,アナログ推論を改善する方法について論じる。 すると、説明のための類比のポテンシャルを示す。 最後に、類似の比率と多値依存の間の密接な関係を強調し、前者の無意味な側面を明らかにする。

Analogical proportions compare pairs of items (a, b) and (c, d) in terms of their differences and similarities. They play a key role in the formalization of analogical inference. The paper first discusses how to improve analogical inference in terms of accuracy and in terms of computational cost. Then it indicates the potential of analogical proportions for explanation. Finally, it highlights the close relationship between analogical proportions and multi-valued dependencies, which reveals an unsuspected aspect of the former.
翻訳日:2022-12-23 14:37:06 公開日:2022-12-22
# 持続可能な人工知能に向けて:環境保護利用と課題の概観

Towards Sustainable Artificial Intelligence: An Overview of Environmental Protection Uses and Issues ( http://arxiv.org/abs/2212.11738v1 )

ライセンス: Link先を確認
Arnault Pachot, C\'eline Patissier(参考訳) 人工知能(AI)は、より持続可能な生産方法を作成し、気候変動をモデル化するために使われ、環境劣化と戦う上で貴重なツールである。 本稿では,明日の生態学的課題に対応するエネルギー消費技術のパラドックスについて述べる。 この研究は、環境保護にaiベースのソリューションを使用するセクターの概要を提供する。 グリーンプレイヤーがユースケースや具体的な例を示すために、aiから多くの例を取り上げている。 研究の第2部では、環境に対するAIの負の影響と、グリーンAIをサポートするための新たな技術ソリューションについて検討した。 また、エネルギー消費の少ないAIの研究は、環境配慮よりもコストとエネルギー自立性の制約によって動機づけられていることも示されている。 これによりリバウンド効果が生じ、モデルの複雑さが増大する。 最後に,環境指標をアルゴリズムに統合する必要性について論じる。 環境の次元は、AIの幅広い倫理的問題の一部であり、長期的にAIの持続可能性を保証するために不可欠である。

Artificial Intelligence (AI) is used to create more sustainable production methods and model climate change, making it a valuable tool in the fight against environmental degradation. This paper describes the paradox of an energy-consuming technology serving the ecological challenges of tomorrow. The study provides an overview of the sectors that use AI-based solutions for environmental protection. It draws on numerous examples from AI for Green players to present use cases and concrete examples. In the second part of the study, the negative impacts of AI on the environment and the emerging technological solutions to support Green AI are examined. It is also shown that the research on less energy-consuming AI is motivated more by cost and energy autonomy constraints than by environmental considerations. This leads to a rebound effect that favors an increase in the complexity of models. Finally, the need to integrate environmental indicators into algorithms is discussed. The environmental dimension is part of the broader ethical problem of AI, and addressing it is crucial for ensuring the sustainability of AI in the long term.
翻訳日:2022-12-23 14:36:57 公開日:2022-12-22
# データ中心人工知能

Data-centric Artificial Intelligence ( http://arxiv.org/abs/2212.11854v1 )

ライセンス: Link先を確認
Johannes Jakubik, Michael V\"ossing, Niklas K\"uhl, Jannis Walk, Gerhard Satzger(参考訳) データ中心の人工知能(データ中心のAI)は、効率的で効率的なAIベースのシステムを構築する上で、データの体系的な設計とエンジニアリングが不可欠であることを強調する新しいパラダイムである。 本論文の目的は,情報システム(IS)分野の実践者や研究者をデータ中心型AIに導入することである。 関連する用語を定義し、データ中心のパラダイムとモデル中心のパラダイムを対比するための重要な特徴を提供し、データ中心のAIのためのフレームワークを導入します。 我々は、データ中心AIと関連する概念を区別し、ISコミュニティへの長期的な影響について議論する。

Data-centric artificial intelligence (data-centric AI) represents an emerging paradigm emphasizing that the systematic design and engineering of data is essential for building effective and efficient AI-based systems. The objective of this article is to introduce practitioners and researchers from the field of Information Systems (IS) to data-centric AI. We define relevant terms, provide key characteristics to contrast the data-centric paradigm to the model-centric one, and introduce a framework for data-centric AI. We distinguish data-centric AI from related concepts and discuss its longer-term implications for the IS community.
翻訳日:2022-12-23 14:36:43 公開日:2022-12-22
# 会話推薦のための不完全知識グラフ上の変分推論

Variational Reasoning over Incomplete Knowledge Graphs for Conversational Recommendation ( http://arxiv.org/abs/2212.11868v1 )

ライセンス: Link先を確認
Xiaoyu Zhang, Xin Xin, Dongdong Li, Wenxuan Liu, Pengjie Ren, Zhumin Chen, Jun Ma, Zhaochun Ren(参考訳) 会話レコメンデータシステム(CRS)は、しばしば外部知識グラフ(KG)を使用して、リッチな意味情報を導入し、自然言語対話を通じて関連する項目を推薦する。 しかし、既存のCRSで使用される元のKGは、しばしば不完全でスパースであり、推奨の推論能力を制限する。 さらに、対話の文脈を利用してKGの知識を動的に洗練し、より良い推薦を行う研究はほとんどない。 上記の問題に対処するため、不完全KGs会話レコメンダ(VRICR)に対する変分推論を提案する。 提案手法は,crssに自然に付随する大規模対話コーパスを組み込んで不完全kgsを強化し,対話コンテキストに基づいた動的知識推論を行うことである。 具体的には、適応的知識グラフのカテゴリ先行を持つ潜在変数として、KGの対話特化部分グラフを示す。 本稿では,対話固有の部分グラフの後方分布を近似する変分ベイズ法を提案する。これは,欠落したエンティティ関係の再構成に対話コーパスを利用するだけでなく,対話コンテキストに基づいて知識を動的に選択する。 最後に、対話特有のサブグラフにレコメンデーションとレスポンスをデコードする。 2つのベンチマークCRSデータセットで実験を行う。 提案手法の有効性を実験的に検証した。

Conversational recommender systems (CRSs) often utilize external knowledge graphs (KGs) to introduce rich semantic information and recommend relevant items through natural language dialogues. However, original KGs employed in existing CRSs are often incomplete and sparse, which limits the reasoning capability in recommendation. Moreover, only few of existing studies exploit the dialogue context to dynamically refine knowledge from KGs for better recommendation. To address the above issues, we propose the Variational Reasoning over Incomplete KGs Conversational Recommender (VRICR). Our key idea is to incorporate the large dialogue corpus naturally accompanied with CRSs to enhance the incomplete KGs; and perform dynamic knowledge reasoning conditioned on the dialogue context. Specifically, we denote the dialogue-specific subgraphs of KGs as latent variables with categorical priors for adaptive knowledge graphs refactor. We propose a variational Bayesian method to approximate posterior distributions over dialogue-specific subgraphs, which not only leverages the dialogue corpus for restructuring missing entity relations but also dynamically selects knowledge based on the dialogue context. Finally, we infuse the dialogue-specific subgraphs to decode the recommendation and responses. We conduct experiments on two benchmark CRSs datasets. Experimental results confirm the effectiveness of our proposed method.
翻訳日:2022-12-23 14:36:33 公開日:2022-12-22
# 完全救急治療前における左下肢の検討 : 最適化された説明型機械学習フレームワーク

A Study of Left Before Treatment Complete Emergency Department Patients: An Optimized Explanatory Machine Learning Framework ( http://arxiv.org/abs/2212.11879v1 )

ライセンス: Link先を確認
Abdulaziz Ahmed, Khalid Y.Aram, Salih Tutun(参考訳) left before treatment complete (lbtc) の問題は救急部門 (eds) で一般的である。 この問題はメディコ法定リスクであり、収益損失を引き起こす可能性がある。 したがって、治療が完了する前に患者を退院させる要因を理解することは、これらの副作用を緩和し、排除する上で不可欠である。 本稿では,EDにおけるLBTC結果に影響を与える要因について検討する枠組みを提案する。 このフレームワークは機械学習、メタヒューリスティック最適化、モデル解釈技術を統合する。 メタヒューリスティック最適化(metaheuristic optimization)は、ハイパーパラメータの最適化に使用される。 3つのメタヒューリスティック最適化アルゴリズムを用いて, 過度勾配促進 (XGB) のパラメータを最適化し, シミュレーションアニール (SA) , アダプティブシミュレートアニール (ASA) , 適応タブーシミュレートアニール (ATSA) のパラメータを最適化する。 ED治療中の患者に対するLBTC結果の予測に最適化されたXGBモデルを用いる。 設計されたアルゴリズムは、4つのデータグループを使って訓練され、テストされる。 最高の予測性能を持つモデルは、SHAP(SHaply Additive exPlanations)法を用いて解釈される。 その結果、atsa-xgbは、auc、感度、特異性、f1-scoreが86.61%、87.50%、85.71%、857.51%、86.60%の精度で他のモード構成よりも優れていた。 shap法を用いて各特徴の効果の程度と方向を決定・説明した。

The issue of left before treatment complete (LBTC) patients is common in emergency departments (EDs). This issue represents a medico-legal risk and may cause a revenue loss. Thus, understanding the factors that cause patients to leave before treatment is complete is vital to mitigate and potentially eliminate these adverse effects. This paper proposes a framework for studying the factors that affect LBTC outcomes in EDs. The framework integrates machine learning, metaheuristic optimization, and model interpretation techniques. Metaheuristic optimization is used for hyperparameter optimization--one of the main challenges of machine learning model development. Three metaheuristic optimization algorithms are employed for optimizing the parameters of extreme gradient boosting (XGB), which are simulated annealing (SA), adaptive simulated annealing (ASA), and adaptive tabu simulated annealing (ATSA). The optimized XGB models are used to predict the LBTC outcomes for the patients under treatment in ED. The designed algorithms are trained and tested using four data groups resulting from the feature selection phase. The model with the best predictive performance is interpreted using SHaply Additive exPlanations (SHAP) method. The findings show that ATSA-XGB outperformed other mode configurations with an accuracy, area under the curve (AUC), sensitivity, specificity, and F1-score of 86.61%, 87.50%, 85.71%, 87.51%, and 86.60%, respectively. The degree and the direction of effects of each feature were determined and explained using the SHAP method.
翻訳日:2022-12-23 14:36:10 公開日:2022-12-22
# 病院緊急手術用E-Triageツール開発のための適応型アニーリング型機械学習手法

An Adaptive Simulated Annealing-Based Machine Learning Approach for Developing an E-Triage Tool for Hospital Emergency Operations ( http://arxiv.org/abs/2212.11892v1 )

ライセンス: Link先を確認
Abdulaziz Ahmed, Mohammed Al-Maamari, Mohammad Firouz, Dursun Delen(参考訳) 救急部門(EDs)の患者トリアージは、重篤で時間に敏感な患者のケアを優先するために必要である。 患者トリアージにはさまざまなツールが使用されており、最も一般的なツールの1つは、レベル1が最も緊急でレベル5が最も緊急である5段階の緊急度指数(esi)である。 本稿では,機械学習を利用してEDで使用できるe-triageツールを開発するためのフレームワークを提案する。 米国中西部の医療提供者の電子健康記録から, ED患者訪問の大規模な振り返りデータセットを3年間取得した。 しかし、機械学習アルゴリズムを使用する主な課題は、そのほとんどは多くのパラメータを持ち、これらのパラメータを最適化せずに高性能なモデルを開発することは不可能である。 本稿では,機械学習のハイパーパラメータを最適化する手法を提案する。 過度勾配促進 (XGB) およびカテゴリー勾配促進 (CaB) のパラメータを最適化するために, メタヒューリスティック最適化アルゴリズム (SA) と適応型アニール (ASA) を提案する。 新たに提案されたアルゴリズムは、SA-XGB、ASA-XGB、SA-CaB、ASA-CaBである。 格子探索(GS)は、機械学習の微調整に使われる従来の手法であり、GS-XGB と GS-CaB と呼ばれる XGB と CaB のパラメータを微調整するためにも用いられる。 6つのアルゴリズムは、特徴選択フェーズから得られた8つのデータグループを使って訓練され、テストされる。 その結果、ASA-CaBは、それぞれ83.3%、83.3%、83.2%、83.2%の精度、精度、リコール、f1で提案された全てのアルゴリズムより優れていた。

Patient triage at emergency departments (EDs) is necessary to prioritize care for patients with critical and time-sensitive conditions. Different tools are used for patient triage and one of the most common ones is the emergency severity index (ESI), which has a scale of five levels, where level 1 is the most urgent and level 5 is the least urgent. This paper proposes a framework for utilizing machine learning to develop an e-triage tool that can be used at EDs. A large retrospective dataset of ED patient visits is obtained from the electronic health record of a healthcare provider in the Midwest of the US for three years. However, the main challenge of using machine learning algorithms is that most of them have many parameters and without optimizing these parameters, developing a high-performance model is not possible. This paper proposes an approach to optimize the hyperparameters of machine learning. The metaheuristic optimization algorithms simulated annealing (SA) and adaptive simulated annealing (ASA) are proposed to optimize the parameters of extreme gradient boosting (XGB) and categorical boosting (CaB). The newly proposed algorithms are SA-XGB, ASA-XGB, SA-CaB, ASA-CaB. Grid search (GS), which is a traditional approach used for machine learning fine-tunning is also used to fine-tune the parameters of XGB and CaB, which are named GS-XGB and GS-CaB. The six algorithms are trained and tested using eight data groups obtained from the feature selection phase. The results show ASA-CaB outperformed all the proposed algorithms with accuracy, precision, recall, and f1 of 83.3%, 83.2%, 83.3%, 83.2%, respectively.
翻訳日:2022-12-23 14:35:42 公開日:2022-12-22
# 確率的法則発見による機械学習:簡潔な入門

Machine Learning with Probabilistic Law Discovery: A Concise Introduction ( http://arxiv.org/abs/2212.11901v1 )

ライセンス: Link先を確認
Alexander Demin and Denis Ponomaryov(参考訳) Probabilistic Law Discovery (PLD) は、確率論的ルール学習の変種を実装する論理ベースの機械学習手法である。 いくつかの面では、pldは決定木/ランダムフォレストメソッドに近いが、関連するルールの定義方法は大きく異なる。 pldの学習手順は、最小の長さと比較的高い確率を持つ規則(確率則と呼ばれる)の探索に関連する最適化問題を解く。 推論では、これらのルールのアンサンブルが予測に使用される。 確率論的法則は可読性があり、pldに基づくモデルは透明で本質的に解釈可能である。 PLDの応用には、分類/クラスタ化/回帰タスク、時系列解析/異常検出および適応(ロボティック)制御が含まれる。 本稿では,PLDの主な原則を概説し,そのメリットと限界を強調し,いくつかのアプリケーションガイドラインを提供する。

Probabilistic Law Discovery (PLD) is a logic based Machine Learning method, which implements a variant of probabilistic rule learning. In several aspects, PLD is close to Decision Tree/Random Forest methods, but it differs significantly in how relevant rules are defined. The learning procedure of PLD solves the optimization problem related to the search for rules (called probabilistic laws), which have a minimal length and relatively high probability. At inference, ensembles of these rules are used for prediction. Probabilistic laws are human-readable and PLD based models are transparent and inherently interpretable. Applications of PLD include classification/clusterization/regression tasks, as well as time series analysis/anomaly detection and adaptive (robotic) control. In this paper, we outline the main principles of PLD, highlight its benefits and limitations and provide some application guidelines.
翻訳日:2022-12-23 14:35:11 公開日:2022-12-22
# 自律運転のための視覚的環境認識

Vision-Based Environmental Perception for Autonomous Driving ( http://arxiv.org/abs/2212.11453v1 )

ライセンス: Link先を確認
Fei Liu, Zihao Lu, Xianke Lin(参考訳) 視覚知覚は自律運転において重要な役割を果たす。 主なタスクの1つはオブジェクトの検出と識別です。 視覚センサは色やテクスチャ情報に富んでいるため、様々な道路情報を迅速かつ正確に識別することができる。 一般的に用いられる技法は、画像の様々な特徴を抽出し計算することに基づいている。 近年の深層学習法の開発は信頼性と処理速度が向上し,複雑な要素を認識する上で大きな利点がある。 深度推定には、小型で低コストの視覚センサも用いられる。 単眼カメラは、物体深度を推定するための入力として、単一の視点からの画像データを使用する。 対照的に、ステレオビジョンはパララックスと異なるビューの特徴点のマッチングに基づいており、ディープラーニングの適用によってさらに精度が向上する。 さらに、同時位置情報マッピング(SLAM)は、道路環境のモデルを構築し、車両が周囲の環境を認識しタスクを完了するのを助ける。 本稿では,物体検出と識別の様々な手法を紹介し,深度推定の展開を説明し,モノクラー,ステレオ,RDBGセンサに基づく様々な手法を比較し,次回レビューとSLAMの様々な手法の比較を行い,最後に現状の問題を要約し,今後のビジョン技術の発展動向を示す。

Visual perception plays an important role in autonomous driving. One of the primary tasks is object detection and identification. Since the vision sensor is rich in color and texture information, it can quickly and accurately identify various road information. The commonly used technique is based on extracting and calculating various features of the image. The recent development of deep learning-based method has better reliability and processing speed and has a greater advantage in recognizing complex elements. For depth estimation, vision sensor is also used for ranging due to their small size and low cost. Monocular camera uses image data from a single viewpoint as input to estimate object depth. In contrast, stereo vision is based on parallax and matching feature points of different views, and the application of deep learning also further improves the accuracy. In addition, Simultaneous Location and Mapping (SLAM) can establish a model of the road environment, thus helping the vehicle perceive the surrounding environment and complete the tasks. In this paper, we introduce and compare various methods of object detection and identification, then explain the development of depth estimation and compare various methods based on monocular, stereo, and RDBG sensors, next review and compare various methods of SLAM, and finally summarize the current problems and present the future development trends of vision technologies.
翻訳日:2022-12-23 14:34:30 公開日:2022-12-22
# ウシ虹彩分節のための新しいディープラーニングフレームワーク

Novel Deep Learning Framework For Bovine Iris Segmentation ( http://arxiv.org/abs/2212.11439v1 )

ライセンス: Link先を確認
Heemoon Yoon, Mira Park, Sang-Hee Lee(参考訳) アイリスセグメンテーションは、家畜のトレーサビリティシステムを確立するために動物の生体計測を識別する最初のステップである。 本研究では,BovineAAEyes80公開データセットを用いて,最小限のアノテーションラベルを用いた画素分割のための新しいディープラーニングフレームワークを提案する。 実験では、vgg16バックボーンを持つu-netがエンコーダとデコーダモデルの最良の組み合わせとして選ばれ、99.50%の精度と98.35%のサイコロ係数スコアを示した。 注目すべきは、適切なアノテーションデータなしに、選択されたモデルが精度良く破損した画像を分割したことである。 本研究では,虹彩分節化の進展と信頼性の高いdnnsトレーニングフレームワークの開発に寄与する。

Iris segmentation is the initial step to identify biometric of animals to establish a traceability system of livestock. In this study, we propose a novel deep learning framework for pixel-wise segmentation with minimum use of annotation labels using BovineAAEyes80 public dataset. In the experiment, U-Net with VGG16 backbone was selected as the best combination of encoder and decoder model, demonstrating a 99.50% accuracy and a 98.35% Dice coefficient score. Remarkably, the selected model accurately segmented corrupted images even without proper annotation data. This study contributes to the advancement of the iris segmentation and the development of a reliable DNNs training framework.
翻訳日:2022-12-23 14:29:14 公開日:2022-12-22
# 車両検査における生成逆ネットワークと3次元データを組み合わせた教師付き異常検出法

Supervised Anomaly Detection Method Combining Generative Adversarial Networks and Three-Dimensional Data in Vehicle Inspections ( http://arxiv.org/abs/2212.11507v1 )

ライセンス: Link先を確認
Yohei Baba, Takuro Hoshi, Ryosuke Mori, Gaurang Gavai(参考訳) 現在、車両の床下機器の外観検査は人間の視覚検査によって行われている。 本研究では,画像処理技術を用いた異常検査アルゴリズムを調査し,視覚検査を部分的に自動化する。 鉄道保守研究は異常データが少ない傾向にあるため、教師なし学習法は通常異常検出に好まれるが、訓練コストと精度は依然として課題である。 さらに、研究者はノイズ等を付加して通常の画像から異常画像を作成するが、本研究が対象とする異常画像は、ノイズを用いて生成することが困難であった配管コックの回転である。 そこで本研究では,3次元コンピュータグラフィックス上で生成逆数ネットワークによるスタイル変換を用い,異常画像を模倣して教師付き学習に基づく異常検出を行う手法を提案する。 形状整合型変換モデルを用いて画像の変換を行い, 画像の色やテクスチャを再現し, 異常な形状を維持しながら実画像の再現に成功した。 生成された異常画像を教師データとして使用すると、複雑な調整なしに容易に異常検出モデルを訓練でき、異常検出に成功する。

The external visual inspections of rolling stock's underfloor equipment are currently being performed via human visual inspection. In this study, we attempt to partly automate visual inspection by investigating anomaly inspection algorithms that use image processing technology. As the railroad maintenance studies tend to have little anomaly data, unsupervised learning methods are usually preferred for anomaly detection; however, training cost and accuracy is still a challenge. Additionally, a researcher created anomalous images from normal images by adding noise, etc., but the anomalous targeted in this study is the rotation of piping cocks that was difficult to create using noise. Therefore, in this study, we propose a new method that uses style conversion via generative adversarial networks on three-dimensional computer graphics and imitates anomaly images to apply anomaly detection based on supervised learning. The geometry-consistent style conversion model was used to convert the image, and because of this the color and texture of the image were successfully made to imitate the real image while maintaining the anomalous shape. Using the generated anomaly images as supervised data, the anomaly detection model can be easily trained without complex adjustments and successfully detects anomalies.
翻訳日:2022-12-23 14:29:02 公開日:2022-12-22
# 高分解能画像生成のためのハイブリッド量子古典生成逆数ネットワーク

Hybrid Quantum-Classical Generative Adversarial Network for High Resolution Image Generation ( http://arxiv.org/abs/2212.11614v1 )

ライセンス: Link先を確認
Shu Lok Tsang and Maxwell T. West and Sarah M. Erfani and Muhammad Usman(参考訳) 量子機械学習(QML)は、古典的な機械学習手法を様々な問題で上回る可能性を秘め、注目を集めている。 QML手法のサブクラスはQGAN(quantum Generative Adversarial Network)であり、画像操作や生成タスクで広く使われている古典的GANの量子対向として研究されている。 qgansの現在の作業は、重要なダウンスケールのイメージに基づいて、小規模な概念実証例に限られている。 ここでは、古典的および量子的手法を統合し、新しいハイブリッド量子古典的GANフレームワークを提案する。 標準MNISTデータセットとFashion MNISTデータセットの複数のクラスにおいて、次元の削減や古典的前処理を伴わない28ドル28セントのグレースケール画像を生成することで、従来の3桁のトレーニング可能なジェネレータパラメータを持つフレームワークに匹敵する結果を得られる、優れた学習能力を実証した。 ハイブリッド手法の動作についてより深い知見を得るため,量子ビット数,イメージパッチサイズ,ジェネレータ内のレイヤ数,パッチ形状,事前分布の選択などによって,パラメータ空間の影響を体系的に検討した。 その結果,量子発生器の規模が大きくなるとネットワークの学習能力が向上することがわかった。 このフレームワークは,複雑な画像生成タスクに適した最適パラメータセットを備えたQGANの設計基盤を提供する。

Quantum machine learning (QML) has received increasing attention due to its potential to outperform classical machine learning methods in various problems. A subclass of QML methods is quantum generative adversarial networks (QGANs) which have been studied as a quantum counterpart of classical GANs widely used in image manipulation and generation tasks. The existing work on QGANs is still limited to small-scale proof-of-concept examples based on images with significant down-scaling. Here we integrate classical and quantum techniques to propose a new hybrid quantum-classical GAN framework. We demonstrate its superior learning capabilities by generating $28 \times 28$ pixels grey-scale images without dimensionality reduction or classical pre/post-processing on multiple classes of the standard MNIST and Fashion MNIST datasets, which achieves comparable results to classical frameworks with 3 orders of magnitude less trainable generator parameters. To gain further insight into the working of our hybrid approach, we systematically explore the impact of its parameter space by varying the number of qubits, the size of image patches, the number of layers in the generator, the shape of the patches and the choice of prior distribution. Our results show that increasing the quantum generator size generally improves the learning capability of the network. The developed framework provides a foundation for future design of QGANs with optimal parameter set tailored for complex image generation tasks.
翻訳日:2022-12-23 14:28:42 公開日:2022-12-22
# ブロック反復アルゴリズムを用いた end-to-end deep image prior-based pet image reconstruction の完全3次元実装

Fully 3D Implementation of the End-to-end Deep Image Prior-based PET Image Reconstruction Using Block Iterative Algorithm ( http://arxiv.org/abs/2212.11844v1 )

ライセンス: Link先を確認
Fumio Hashimoto, Yuya Onishi, Kibo Ote, Hideaki Tashima, Taiga Yamaya(参考訳) 深部画像先行(DIP)は、これまでトレーニングデータセットを必要としなかったPET画像再構成により、最近注目を集めている。 本稿では、前方投影モデルを損失関数に組み込んだ、エンドツーエンドのDIPベースの完全3次元PET画像再構成手法を初めて実装する。 グラフィック処理単位のメモリ制限のため実行できない実用的な3次元PET画像再構成を実現するために,ブロックイテレーションにDIP最適化を改良し,ブロックシングラムの順序列を逐次学習する。 さらに,損失関数に相対差ペナルティ(RDP)という用語を加え,定量PET画像の精度を高めた。 提案手法は,ヒト脳の[$^{18}$f]fdg petデータを用いたモンテカルロシミュレーションとサル脳[$^{18}$f]fdg petデータに関する前臨床研究を用いて評価した。 提案手法は, 最大線量予測最大化(EM), RDPを用いた最大線量EM, ハイブリッドDIPを用いたPET再構成法と比較した。 シミュレーションの結果, 統計的ノイズを低減し, 脳構造と挿入腫瘍のコントラストを他のアルゴリズムと比較して保存し, pet画像の画質を改善した。 前臨床実験では,提案手法によりより微細な構造とより良いコントラスト回復が得られた。 提案手法は,事前トレーニングデータセットを使わずに高品質な画像を生成することができることを示す。 提案手法は, エンドツーエンドDIPベースの完全3次元PET画像再構成の簡易かつ実用的な実装を実現するための鍵となる技術である。

Deep image prior (DIP) has recently attracted attention owing to its unsupervised positron emission tomography (PET) image reconstruction, which does not require any prior training dataset. In this paper, we present the first attempt to implement an end-to-end DIP-based fully 3D PET image reconstruction method that incorporates a forward-projection model into a loss function. To implement a practical fully 3D PET image reconstruction, which could not be performed due to a graphics processing unit memory limitation, we modify the DIP optimization to block-iteration and sequentially learn an ordered sequence of block sinograms. Furthermore, the relative difference penalty (RDP) term was added to the loss function to enhance the quantitative PET image accuracy. We evaluated our proposed method using Monte Carlo simulation with [$^{18}$F]FDG PET data of a human brain and a preclinical study on monkey brain [$^{18}$F]FDG PET data. The proposed method was compared with the maximum-likelihood expectation maximization (EM), maximum-a-posterior EM with RDP, and hybrid DIP-based PET reconstruction methods. The simulation results showed that the proposed method improved the PET image quality by reducing statistical noise and preserved a contrast of brain structures and inserted tumor compared with other algorithms. In the preclinical experiment, finer structures and better contrast recovery were obtained by the proposed method. This indicated that the proposed method can produce high-quality images without a prior training dataset. Thus, the proposed method is a key enabling technology for the straightforward and practical implementation of end-to-end DIP-based fully 3D PET image reconstruction.
翻訳日:2022-12-23 14:28:18 公開日:2022-12-22
# 深層学習によるnextg信号分類のためのadversarial machine learning and defense game

Adversarial Machine Learning and Defense Game for NextG Signal Classification with Deep Learning ( http://arxiv.org/abs/2212.11778v1 )

ライセンス: Link先を確認
Yalin E. Sagduyu(参考訳) 本稿では,深層学習に基づくNextG信号分類のための攻撃と防御の相互作用を研究するゲーム理論フレームワークを提案する。 膨大な数のIoTデバイスを想定しているNextGシステムでは、ユーザ機器の識別、物理層認証、既存のユーザの検出(Citizens Broadband Radio Service (CBRS)バンドなど)など、さまざまなタスクにディープニューラルネットワーク(DNN)を使用することができる。 別のDNNを代理モデルとして訓練することにより、相手は推論(探索)攻撃を起動し、被害者モデルの振る舞いを学習し、正常な操作モード(チャンネルアクセスなど)を予測し、それらを妨害することができる。 防御機構は、被害者モデルの判断(すなわち、敵のトレーニングデータを害する)に制御エラーを導入することにより、敵の不確実性を高めることができる。 この防御は攻撃に対して効果的であるが、攻撃がなければ性能を低下させる。 ディフェンダーと相手との相互作用を非協調ゲームとして定式化し、ディフェンダーがディフェンディングの確率又はディフェンダーレベル自体(すなわち、偽判定の比率)を選択し、相手がアタックの確率を選択する。 ディフェンダーの目的は報酬(スループットや送信成功率など)を最大化することであり、相手の目的はこの報酬と攻撃コストを最小化することである。 ナッシュ均衡戦略は、相手の戦略が固定されているため、一方的にその効性を改善できないような操作モードとして決定される。 相手のアクションの経験的頻度に応じて、各プレイヤーが繰り返しゲームを行うように架空のプレイを定式化する。 ナッシュ平衡の性能は, 固定攻撃および防御事例と比較し, 攻撃に対するNextG信号分類のレジリエンスを定量化する。

This paper presents a game-theoretic framework to study the interactions of attack and defense for deep learning-based NextG signal classification. NextG systems such as the one envisioned for a massive number of IoT devices can employ deep neural networks (DNNs) for various tasks such as user equipment identification, physical layer authentication, and detection of incumbent users (such as in the Citizens Broadband Radio Service (CBRS) band). By training another DNN as the surrogate model, an adversary can launch an inference (exploratory) attack to learn the behavior of the victim model, predict successful operation modes (e.g., channel access), and jam them. A defense mechanism can increase the adversary's uncertainty by introducing controlled errors in the victim model's decisions (i.e., poisoning the adversary's training data). This defense is effective against an attack but reduces the performance when there is no attack. The interactions between the defender and the adversary are formulated as a non-cooperative game, where the defender selects the probability of defending or the defense level itself (i.e., the ratio of falsified decisions) and the adversary selects the probability of attacking. The defender's objective is to maximize its reward (e.g., throughput or transmission success ratio), whereas the adversary's objective is to minimize this reward and its attack cost. The Nash equilibrium strategies are determined as operation modes such that no player can unilaterally improve its utility given the other's strategy is fixed. A fictitious play is formulated for each player to play the game repeatedly in response to the empirical frequency of the opponent's actions. The performance in Nash equilibrium is compared to the fixed attack and defense cases, and the resilience of NextG signal classification against attacks is quantified.
翻訳日:2022-12-23 14:27:47 公開日:2022-12-22
# 2つのデジタルプラットフォームによる産後親の経験の理解

Understanding Postpartum Parents' Experiences via Two Digital Platforms ( http://arxiv.org/abs/2212.11455v1 )

ライセンス: Link先を確認
Xuewen Yao, Miriam Mikhelson, Megan Micheletti, Eunsol Choi, S Craig Watkins, Edison Thomaz, Kaya De Barbaro(参考訳) オンラインフォーラムやヘルプラインを含むデジタルプラットフォームは、産後のメンタルヘルスに苦しむ介護者の支援の道筋として登場した。 これらのプラットフォーム上で共有された支援希望者の経験を理解することは、この脆弱な期間における介護者のニーズに対する重要な洞察を与えることができる。 本研究は,デジタル・ヘルプラインとオンライン・フォーラムの2つのデジタル・プラットフォームにおいて,健康的および苦痛的支援者によって共有される不安,心理的状態,モチベーションに関する記述的分析を提供する。 人間のアノテーション,辞書モデル,教師なしのテクニックを組み合わせることで,苦しい母親と健康な母親の体験の相違を見出した。 苦悩した母親は対人問題とサポートの欠如を報告し、8.60%から14.56%が自殺イデオロギーを含む重篤な症状を報告した。 対照的に、健康な母親の大多数は、授乳や睡眠に関する質問のような育児の問題を記述し、深刻な精神的な健康上の懸念は報告しなかった。 2つのデジタルプラットフォームにまたがって、苦しむ母親が同様のコンテンツを共有していることがわかりました。 しかし、苦しむ母親が共有する話し方や影響のパターンは、ヘルプラインとオンラインフォーラムで異なるため、これらのプラットフォームの設計は、彼らのサポート・シーキング体験の意義ある尺度を形作っている可能性がある。 本研究は, 産後のメンタルヘルス障害に苦しむ介護者の経験について, 新たな知見を与える。 我々は,支援希望者が共有するコンテンツを理解するための方法論的考察と,次世代の産後支援ツールの設計的考察から結論付けた。

Digital platforms, including online forums and helplines, have emerged as avenues of support for caregivers suffering from postpartum mental health distress. Understanding support seekers' experiences as shared on these platforms could provide crucial insight into caregivers' needs during this vulnerable time. In the current work, we provide a descriptive analysis of the concerns, psychological states, and motivations shared by healthy and distressed postpartum support seekers on two digital platforms, a one-on-one digital helpline and a publicly available online forum. Using a combination of human annotations, dictionary models and unsupervised techniques, we find stark differences between the experiences of distressed and healthy mothers. Distressed mothers described interpersonal problems and a lack of support, with 8.60% - 14.56% reporting severe symptoms including suicidal ideation. In contrast, the majority of healthy mothers described childcare issues, such as questions about breastfeeding or sleeping, and reported no severe mental health concerns. Across the two digital platforms, we found that distressed mothers shared similar content. However, the patterns of speech and affect shared by distressed mothers differed between the helpline vs. the online forum, suggesting the design of these platforms may shape meaningful measures of their support-seeking experiences. Our results provide new insight into the experiences of caregivers suffering from postpartum mental health distress. We conclude by discussing methodological considerations for understanding content shared by support seekers and design considerations for the next generation of support tools for postpartum parents.
翻訳日:2022-12-23 14:26:53 公開日:2022-12-22
# CAMeMBERT: Cascading Assistant-Mediated Multilingual BERT

CAMeMBERT: Cascading Assistant-Mediated Multilingual BERT ( http://arxiv.org/abs/2212.11456v1 )

ライセンス: Link先を確認
Dan DeGenaro and Jugal Kalita(参考訳) 数十億、何十億というパラメータを持つ大規模言語モデルは、さまざまな自然言語処理(nlp)タスクで非常にうまく機能しています。 しかし、それらの普及と普及は、十分に大きな計算資源の可用性とポータビリティの欠如によって妨げられている。 本稿では,多言語BERT(mBERT)の学生モデルであるLightMBERTの作業に基づく知識蒸留(KD)手法を提案する。 CAMeMBERTは,mBERTの時間と空間の複雑さを改善しつつ,精度の低下を許容しきい値以下に維持することを目的としている。 現在、CAMeMBERTの平均精度は約60.1%であり、微調整に使用されるハイパーパラメータの今後の改善により変更される。

Large language models having hundreds of millions, and even billions, of parameters have performed extremely well on a variety of natural language processing (NLP) tasks. Their widespread use and adoption, however, is hindered by the lack of availability and portability of sufficiently large computational resources. This paper proposes a knowledge distillation (KD) technique building on the work of LightMBERT, a student model of multilingual BERT (mBERT). By repeatedly distilling mBERT through increasingly compressed toplayer distilled teacher assistant networks, CAMeMBERT aims to improve upon the time and space complexities of mBERT while keeping loss of accuracy beneath an acceptable threshold. At present, CAMeMBERT has an average accuracy of around 60.1%, which is subject to change after future improvements to the hyperparameters used in fine-tuning.
翻訳日:2022-12-23 14:26:25 公開日:2022-12-22
# 単一ゲノムを用いたソフトロボットの共進化形態と制御

Co-evolving morphology and control of soft robots using a single genome ( http://arxiv.org/abs/2212.11517v1 )

ライセンス: Link先を確認
Fabio Tanaka, Claus Aranha(参考訳) ソフトロボットをシミュレートする場合、その形態とコントローラーはタスクパフォーマンスにおいて重要な役割を果たす。 本稿では,これら2成分を同一プロセスで共振する新しい手法を提案する。 我々はHyperNEATアルゴリズムを用いて、2つの異なるニューラルネットワークを1つのパスで生成し、一方はロボット体構造の設計に、もう一方はロボットの制御に責任を負う。 我々の手法と既存の手法の主な違いは、形態学とコントローラの開発を別々のプロセスとして扱わないことである。 自然と同様、本手法は1つのゲノムからエージェントの「脳」と「体」の両方を誘導し、それらを共に発達させる。 我々のアプローチはより現実的であり、進化の過程でプロセスの任意の分離を必要としないが、この単一のゲノムの探索空間が大きくなり、ゲノムの突然変異が「脳」と「体」に同時に影響するため、問題をさらに複雑にしている。 さらに、NEATの標準である遺伝子型距離とロボット体間の類似性を考慮し、新しい種分化関数を提案する。 この機能を利用することで、非常に異なる体を持つエージェントは異なる種に属する可能性が高いため、異なる形態を持つロボットは、他のロボットとあまり異なるものと交差しないため、より特殊なコントローラーを持つことができる。 提案手法を4つのタスクで評価し, 探索空間が大きくても, 単一のゲノムを持つと, 分離ゲノムを持つ場合に比べて, 進化過程の収束が早くなることを示した。 我々の人口のエージェントはまた、高い規則性を持つ形態や、必要な動きを生み出すためにボクセルを調整できる制御器も示しています。

When simulating soft robots, both their morphology and their controllers play important roles in task performance. This paper introduces a new method to co-evolve these two components in the same process. We do that by using the hyperNEAT algorithm to generate two separate neural networks in one pass, one responsible for the design of the robot body structure and the other for the control of the robot. The key difference between our method and most existing approaches is that it does not treat the development of the morphology and the controller as separate processes. Similar to nature, our method derives both the "brain" and the "body" of an agent from a single genome and develops them together. While our approach is more realistic and doesn't require an arbitrary separation of processes during evolution, it also makes the problem more complex because the search space for this single genome becomes larger and any mutation to the genome affects "brain" and the "body" at the same time. Additionally, we present a new speciation function that takes into consideration both the genotypic distance, as is the standard for NEAT, and the similarity between robot bodies. By using this function, agents with very different bodies are more likely to be in different species, this allows robots with different morphologies to have more specialized controllers since they won't crossover with other robots that are too different from them. We evaluate the presented methods on four tasks and observe that even if the search space was larger, having a single genome makes the evolution process converge faster when compared to having separated genomes for body and control. The agents in our population also show morphologies with a high degree of regularity and controllers capable of coordinating the voxels to produce the necessary movements.
翻訳日:2022-12-23 14:25:53 公開日:2022-12-22
# GANベースのドメイン推論攻撃

GAN-based Domain Inference Attack ( http://arxiv.org/abs/2212.11810v1 )

ライセンス: Link先を確認
Yuechun Gu and Keke Chen(参考訳) モデルベースの攻撃は、ディープニューラルネットワークモデルからトレーニングデータ情報を推測することができる。 これらの攻撃は、例えば、モデル反転攻撃の補助データを決定するために、攻撃者のアプリケーションドメインに関する知識に大きく依存する。 しかし、攻撃者はモデルが実際に何に使われるのかを知らないかもしれない。 本稿では,ターゲットモデルの確率的あるいは類似する領域であるモデルドメイン推論(mdi)攻撃を探索する,gan(generative adversarial network)ベースの手法を提案する。 所定のターゲット(分類)モデルに対して、攻撃者は入力と出力の形式以外何も知らないと仮定し、そのモデルを用いて所望の形式の入力の予測を導出できる。 我々の基本的な考え方は、取得が容易な候補ドメインのデータセットのganトレーニングプロセスに影響を与えるためにターゲットモデルを使用することです。 ドメインがターゲットドメインとより類似している場合、ターゲットモデルがトレーニング手順を邪魔しなくなる可能性がある。 次に、ターゲットモデルの候補領域のランク付けに使用可能な、GAN生成データセット間の距離で、散逸レベルを測定する。 実験の結果,MDIトップランクドメインからの補助データセットは,モデル反転攻撃の結果を効果的に向上させることができることがわかった。

Model-based attacks can infer training data information from deep neural network models. These attacks heavily depend on the attacker's knowledge of the application domain, e.g., using it to determine the auxiliary data for model-inversion attacks. However, attackers may not know what the model is used for in practice. We propose a generative adversarial network (GAN) based method to explore likely or similar domains of a target model -- the model domain inference (MDI) attack. For a given target (classification) model, we assume that the attacker knows nothing but the input and output formats and can use the model to derive the prediction for any input in the desired form. Our basic idea is to use the target model to affect a GAN training process for a candidate domain's dataset that is easy to obtain. We find that the target model may distract the training procedure less if the domain is more similar to the target domain. We then measure the distraction level with the distance between GAN-generated datasets, which can be used to rank candidate domains for the target model. Our experiments show that the auxiliary dataset from an MDI top-ranked domain can effectively boost the result of model-inversion attacks.
翻訳日:2022-12-23 14:19:03 公開日:2022-12-22
# 混合数値と二項データのモデルに基づくクラスタリング

Model Based Co-clustering of Mixed Numerical and Binary Data ( http://arxiv.org/abs/2212.11725v1 )

ライセンス: Link先を確認
Aichetou Bouchareb (SAMM), Marc Boull\'e, Fabrice Cl\'erot, Fabrice Rossi (CEREMADE)(参考訳) コクラスタリング(co-clustering)は、データマトリックスの行と列の間の基盤となるブロック構造を抽出するデータマイニング手法である。 多くのアプローチが研究され、それらの構造を連続、二進性、または偶発性テーブルから抽出する能力が示されている。 しかし、混合型データで協調クラスタリングを行うための作業はほとんど行われていない。 本稿では,混合データ(連続変数とバイナリ変数)の場合に,並列クラスタ化に基づく潜在ブロックモデルを拡張する。 次にシミュレーションデータに対する提案手法の有効性を評価し,その利点と限界について考察する。

Co-clustering is a data mining technique used to extract the underlying block structure between the rows and columns of a data matrix. Many approaches have been studied and have shown their capacity to extract such structures in continuous, binary or contingency tables. However, very little work has been done to perform co-clustering on mixed type data. In this article, we extend the latent block models based co-clustering to the case of mixed data (continuous and binary variables). We then evaluate the effectiveness of the proposed approach on simulated data and we discuss its advantages and potential limits.
翻訳日:2022-12-23 14:18:24 公開日:2022-12-22
# 混合型データテーブルの共クラスタリングに基づく探索解析

Co-clustering based exploratory analysis of mixed-type data tables ( http://arxiv.org/abs/2212.11728v1 )

ライセンス: Link先を確認
Aichetou Bouchareb (SAMM), Marc Boull\'e, Fabrice Cl\'erot, Fabrice Rossi (CEREMADE)(参考訳) 共クラスタリング(co-clustering)は、データテーブルのインスタンスと変数間の既存の依存性構造を均質なブロックとして抽出する、教師なしのデータ分析手法のクラスである。 これらのテクニックのほとんどは、同じタイプの変数に限られています。 本稿では,二段階法に基づく混合データ共クラスタリング手法を提案する。 最初のステップでは、すべての変数は、アナリストが選択した多くのビンに従って二項化され、数値ケースで等しい周波数の離散化、カテゴリーケースで最も頻繁な値を保持する。 第2のステップは、インスタンスとバイナリ変数に共クラスタを適用することで、インスタンスのグループと可変部分のグループに繋がる。 この手法を複数のデータセットに適用し,同一データに適用した複数対応分析の結果と比較する。

Co-clustering is a class of unsupervised data analysis techniques that extract the existing underlying dependency structure between the instances and variables of a data table as homogeneous blocks. Most of those techniques are limited to variables of the same type. In this paper, we propose a mixed data co-clustering method based on a two-step methodology. In the first step, all the variables are binarized according to a number of bins chosen by the analyst, by equal frequency discretization in the numerical case, or keeping the most frequent values in the categorical case. The second step applies a co-clustering to the instances and the binary variables, leading to groups of instances and groups of variable parts. We apply this methodology on several data sets and compare with the results of a Multiple Correspondence Analysis applied to the same data.
翻訳日:2022-12-23 14:18:15 公開日:2022-12-22
# 可視化を用いた機械学習モデルにおける信頼を高める技術の現状

The State of the Art in Enhancing Trust in Machine Learning Models with the Use of Visualizations ( http://arxiv.org/abs/2212.11737v1 )

ライセンス: Link先を確認
A. Chatzimparmpas, R. Martins, I. Jusufi, K. Kucher, Fabrice Rossi (CEREMADE), A. Kerren(参考訳) 機械学習(ML)モデルは、医学、バイオインフォマティクス、その他の科学など、様々な分野の複雑な応用で使われている。 しかし、ブラックボックスの性質のため、それらが提供する結果を理解し信頼することは難しいこともある。 これにより、MLモデルの信頼性向上に関連する信頼性の高い視覚化ツールの需要が増大し、この数十年、可視化コミュニティにおける研究の目玉となった。 このトピックに関する現在の研究のフロンティアを概観するとともに,インタラクティブな可視化によるMLモデルの信頼性向上に関するState-of-the-Art Report(STAR)を提示する。 トピックの背景を定義し,その目的を達成するための可視化手法の分類を導入し,今後の研究方向性に対する洞察と機会について議論する。 私たちの貢献は、インタラクティブMLのさまざまな側面に対する信頼の分類であり、以前の研究から拡張および改善されています。 分析の結果は 異なる視点から調べられました (a)統計的概要を提供する b)重要な発見を要約すること (c)話題分析を行う、及び (d) 対話型Webベースのサーベイブラウザのサポートにより,個々の論文で使用されるデータセットを探索する。 この調査は、MLモデルをより信頼できるものにすることに関心のある視覚化研究者や、他の分野の研究者や実践者が、タスクを信頼性を持って解決し、データに意味を伝えるのに適した効果的な視覚化手法を探索する上で有益である。

Machine learning (ML) models are nowadays used in complex applications in various domains, such as medicine, bioinformatics, and other sciences. Due to their black box nature, however, it may sometimes be hard to understand and trust the results they provide. This has increased the demand for reliable visualization tools related to enhancing trust in ML models, which has become a prominent topic of research in the visualization community over the past decades. To provide an overview and present the frontiers of current research on the topic, we present a State-of-the-Art Report (STAR) on enhancing trust in ML models with the use of interactive visualization. We define and describe the background of the topic, introduce a categorization for visualization techniques that aim to accomplish this goal, and discuss insights and opportunities for future research directions. Among our contributions is a categorization of trust against different facets of interactive ML, expanded and improved from previous research. Our results are investigated from different analytical perspectives: (a) providing a statistical overview, (b) summarizing key findings, (c) performing topic analyses, and (d) exploring the data sets used in the individual papers, all with the support of an interactive web-based survey browser. We intend this survey to be beneficial for visualization researchers whose interests involve making ML models more trustworthy, as well as researchers and practitioners from other disciplines in their search for effective visualization techniques suitable for solving their tasks with confidence and conveying meaning to their data.
翻訳日:2022-12-23 14:18:02 公開日:2022-12-22
# ニューラルネットワーク量子場理論対応における再正規化

Renormalization in the neural network-quantum field theory correspondence ( http://arxiv.org/abs/2212.11811v1 )

ライセンス: Link先を確認
Harold Erbin, Vincent Lahoche, Dine Ousmane Samary(参考訳) ニューラルネットワークの統計的アンサンブルは、量子場理論(NN-QFT対応)によって記述することができる。 無限幅の極限は自由場理論にマッピングされ、有限 N の補正は相互作用にマッピングされる。 対応を見直した後、この文脈で再正規化をどのように実装するかを説明し、翻訳不変核の予備数値計算結果について考察する。 主な結果は、ニューラルネットワークの重み分布の標準偏差の変化が、ネットワーク空間における正規化フローに対応することである。

A statistical ensemble of neural networks can be described in terms of a quantum field theory (NN-QFT correspondence). The infinite-width limit is mapped to a free field theory, while finite N corrections are mapped to interactions. After reviewing the correspondence, we will describe how to implement renormalization in this context and discuss preliminary numerical results for translation-invariant kernels. A major outcome is that changing the standard deviation of the neural network weight distribution corresponds to a renormalization flow in the space of networks.
翻訳日:2022-12-23 14:17:36 公開日:2022-12-22
# 自己指導型学習における投影頭部の役割理解と改善

Understanding and Improving the Role of Projection Head in Self-Supervised Learning ( http://arxiv.org/abs/2212.11491v1 )

ライセンス: Link先を確認
Kartik Gupta, Thalaiyasingam Ajanthan, Anton van den Hengel, Stephen Gould(参考訳) 自己教師付き学習(SSL)は、人間のラベル付きデータアノテーションにアクセスせずに有用な特徴表現を作成することを目的としている。 最近のSimCLRのような対照的な学習に基づくSSLメソッドの成功により、この問題は人気を博している。 現在のコントラスト学習アプローチでは、あるバックボーンネットワークの端にパラメータ化されたプロジェクションヘッドを付加してInfoNCEの目的を最適化し、トレーニング後に学習したプロジェクションヘッドを破棄する。 学習可能なプロジェクションヘッドが、トレーニング後にそれを破棄する場合、なぜ必要となるのか? 本研究ではまず,プロジェクションヘッド層の役割に着目したSSLトレーニングの動作に関する系統的研究を行う。 プロジェクションヘッドをネットワークの一部ではなくInfoNCE目的のパラメトリックコンポーネントとして定式化することにより、コントラスト学習に基づくSSLフレームワークをトレーニングするための代替最適化手法を提案する。 複数の画像分類データセットに関する実験的研究は、SSL文献における代替案に対する提案手法の有効性を示す。

Self-supervised learning (SSL) aims to produce useful feature representations without access to any human-labeled data annotations. Due to the success of recent SSL methods based on contrastive learning, such as SimCLR, this problem has gained popularity. Most current contrastive learning approaches append a parametrized projection head to the end of some backbone network to optimize the InfoNCE objective and then discard the learned projection head after training. This raises a fundamental question: Why is a learnable projection head required if we are to discard it after training? In this work, we first perform a systematic study on the behavior of SSL training focusing on the role of the projection head layers. By formulating the projection head as a parametric component for the InfoNCE objective rather than a part of the network, we present an alternative optimization scheme for training contrastive learning based SSL frameworks. Our experimental study on multiple image classification datasets demonstrates the effectiveness of the proposed approach over alternatives in the SSL literature.
翻訳日:2022-12-23 14:11:38 公開日:2022-12-22
# オープン世界における物体検出のための幾何学的手がかりを探る

GOOD: Exploring Geometric Cues for Detecting Objects in an Open World ( http://arxiv.org/abs/2212.11720v1 )

ライセンス: Link先を確認
Haiwen Huang, Andreas Geiger, Dan Zhang(参考訳) オープンワールドのクラスに依存しないオブジェクト検出,すなわち,少数のベースオブジェクトクラスから学習することで,画像中のすべてのオブジェクトを検出するタスクに対処する。 最先端のRGBベースのモデルは、トレーニングクラスの過度な適合に悩まされ、新しいオブジェクトの検出に失敗することが多い。 これは、rgbベースのモデルは、主に新しい物体を検出するために外観の類似性に依存しており、テクスチャや判別部品のような短いキューを過度に当てはまる傾向があるためである。 rgbベースの物体検出器の欠点に対処するために,汎用単眼推定器によって予測される深さや正規値などの幾何学的手がかりを組み込んだ手法を提案する。 具体的には、幾何学的手がかりを用いて、トレーニングセット内の未注釈の新規オブジェクトを擬似ラベル付けするオブジェクト提案ネットワークをトレーニングする。 我々のGeometry-Guided Open World Object Detector (GOOD)は、新しいオブジェクトカテゴリの検出リコールを大幅に改善し、いくつかのトレーニングクラスですでにうまく機能している。 COCOデータセットのトレーニングに1つの"人"クラスを使用して、GOODはSOTAメソッドを5.0%のAR@100で上回り、相対的な改善は24%である。

We address the task of open-world class-agnostic object detection, i.e., detecting every object in an image by learning from a limited number of base object classes. State-of-the-art RGB-based models suffer from overfitting the training classes and often fail at detecting novel-looking objects. This is because RGB-based models primarily rely on appearance similarity to detect novel objects and are also prone to overfitting short-cut cues such as textures and discriminative parts. To address these shortcomings of RGB-based object detectors, we propose incorporating geometric cues such as depth and normals, predicted by general-purpose monocular estimators. Specifically, we use the geometric cues to train an object proposal network for pseudo-labeling unannotated novel objects in the training set. Our resulting Geometry-guided Open-world Object Detector (GOOD) significantly improves detection recall for novel object categories and already performs well with only a few training classes. Using a single "person" class for training on the COCO dataset, GOOD surpasses SOTA methods by 5.0% AR@100, a relative improvement of 24%.
翻訳日:2022-12-23 14:11:20 公開日:2022-12-22
# チャンス制約型Makespanスケジューリング問題に対する進化的アルゴリズムの実行性能

Runtime Performance of Evolutionary Algorithms for the Chance-constrained Makespan Scheduling Problem ( http://arxiv.org/abs/2212.11478v1 )

ライセンス: Link先を確認
Feng Shi, Xiankun Yan, and Frank Neumann(参考訳) Makespan Scheduling問題(英語版)は広く研究されているNP-hard問題であり、最も単純なバージョンは、決定論的処理時間を持つジョブを2つの同一マシンに割り当てるアプローチを探究する。 しかし、実際のシナリオでは、各ジョブの実際の処理時間は、外部要因の影響下、ばらつきを伴う期待値の周りに確率的であり、これらのジョブの実際の処理時間は共分散と相関する可能性がある。 そこで本稿では,Makespan スケジューリング問題の確率制約版を提案し,古典的ランダム化局所探索と (1+1) EA の理論的性能について検討する。 より具体的には、まず確率制約されたmakepanスケジューリング問題とその計算複雑性の2つの変種を調査し、次に2つのアルゴリズムの期待実行時間を分析して、その2つの変種について最適な解またはほぼ最適解を得る。 さらに,2つの変種に対する2つのアルゴリズムの実験性能について検討した。

The Makespan Scheduling problem is an extensively studied NP-hard problem, and its simplest version looks for an allocation approach for a set of jobs with deterministic processing times to two identical machines such that the makespan is minimized. However, in real life scenarios, the actual processing time of each job may be stochastic around the expected value with a variance, under the influence of external factors, and the actual processing times of these jobs may be correlated with covariances. Thus within this paper, we propose a chance-constrained version of the Makespan Scheduling problem and investigate the theoretical performance of the classical Randomized Local Search and (1+1) EA for it. More specifically, we first study two variants of the Chance-constrained Makespan Scheduling problem and their computational complexities, then separately analyze the expected runtime of the two algorithms to obtain an optimal solution or almost optimal solution to the instances of the two variants. In addition, we investigate the experimental performance of the two algorithms for the two variants.
翻訳日:2022-12-23 14:09:45 公開日:2022-12-22
# メタヒューリスティック探索における隣接生成のための機械学習フレームワーク

A machine learning framework for neighbor generation in metaheuristic search ( http://arxiv.org/abs/2212.11451v1 )

ライセンス: Link先を確認
Defeng Liu, Vincent Perreault, Alain Hertz, Andrea Lodi(参考訳) 本稿では,機械学習手法をメタヒューリスティックスに統合し,組合せ最適化問題の解法を提案する。 具体的には,メタヒューリスティック探索における隣接生成のための汎用機械学習フレームワークを提案する。 まず、現在の解から選択された変数のサブセットに変換を適用することで、効率的な近傍構造を定義する。 次に、提案手法の鍵は、解空間における目的の降下を含む変数の固有部分集合を選択することで、有望な隣人を生成することである。 優れた変数選択戦略を学ぶために,問題の特徴や高品質な解から構造情報を利用する分類タスクとして問題を定式化する。 提案手法は,無線ネットワーク最適化問題を解決するためのタブ探索法と,混合整数プログラムを解くための大規模近傍探索ヒューリスティック法という2つのメタヒューリスティックな応用について検証する。 実験結果から,本手法は,より大きな解空間の探索と高品質な解領域の両アプリケーションへの活用との良好なトレードオフを達成できることが示唆された。

This paper presents a methodology for integrating machine learning techniques into metaheuristics for solving combinatorial optimization problems. Namely, we propose a general machine learning framework for neighbor generation in metaheuristic search. We first define an efficient neighborhood structure constructed by applying a transformation to a selected subset of variables from the current solution. Then, the key of the proposed methodology is to generate promising neighbors by selecting a proper subset of variables that contains a descent of the objective in the solution space. To learn a good variable selection strategy, we formulate the problem as a classification task that exploits structural information from the characteristics of the problem and from high-quality solutions. We validate our methodology on two metaheuristic applications: a Tabu Search scheme for solving a Wireless Network Optimization problem and a Large Neighborhood Search heuristic for solving Mixed-Integer Programs. The experimental results show that our approach is able to achieve a satisfactory trade-off between the exploration of a larger solution space and the exploitation of high-quality solution regions on both applications.
翻訳日:2022-12-23 14:08:19 公開日:2022-12-22
# ロボットと人間の同僚による倉庫ロジスティクスのためのスケーラブルなマルチエージェント強化学習

Scalable Multi-Agent Reinforcement Learning for Warehouse Logistics with Robotic and Human Co-Workers ( http://arxiv.org/abs/2212.11498v1 )

ライセンス: Link先を確認
Aleksandar Krnjaic, Jonathan D. Thomas, Georgios Papoudakis, Lukas Sch\"afer, Peter B\"orsting, Stefano V. Albrecht(参考訳) このプロジェクトはMARL(Multi-agent reinforcement learning)の進歩を活用し,商業倉庫における発注システムの効率性と柔軟性を向上させる。 我々は、数十台の移動ロボットと人間のピッカーが協力して倉庫内でアイテムを収集、配達する未来の倉庫を構想する。 私たちが取り組んだ基本的な問題は、オーダーピッキング問題と呼ばれ、これらの作業員は、与えられたリソース制約の下でパフォーマンス(例えば、注文スループット)を最大化するために、倉庫内での動きと動作を調整する必要がある。 ヒューリスティックなアプローチを用いた産業手法の確立には、自然に変化する倉庫構成を最適化するために大規模なエンジニアリング作業が必要である。 対照的に、marlフレームワークは任意の倉庫構成(サイズ、レイアウト、ワーカの数/タイプ、アイテムの補充頻度など)に柔軟に適用でき、エージェントは試行錯誤のプロセスを通じて互いに最適な協調方法を学ぶことができる。 本稿では,現実的な倉庫における発注問題に対する汎用的でスケーラブルなMARLソリューションに向けた,DematicとEdinburgh大学による研究開発の取り組みの現状について述べる。

This project leverages advances in multi-agent reinforcement learning (MARL) to improve the efficiency and flexibility of order-picking systems for commercial warehouses. We envision a warehouse of the future in which dozens of mobile robots and human pickers work together to collect and deliver items within the warehouse. The fundamental problem we tackle, called the order-picking problem, is how these worker agents must coordinate their movement and actions in the warehouse to maximise performance (e.g. order throughput) under given resource constraints. Established industry methods using heuristic approaches require large engineering efforts to optimise for innately variable warehouse configurations. In contrast, the MARL framework can be flexibly applied to any warehouse configuration (e.g. size, layout, number/types of workers, item replenishment frequency) and the agents learn via a process of trial-and-error how to optimally cooperate with one another. This paper details the current status of the R&D effort initiated by Dematic and the University of Edinburgh towards a general-purpose and scalable MARL solution for the order-picking problem in realistic warehouses.
翻訳日:2022-12-23 14:08:00 公開日:2022-12-22
# マルチコアCPU上での効率的な並列化によるBarnes-Hut t-SNEアルゴリズムの高速化

Accelerating Barnes-Hut t-SNE Algorithm by Efficient Parallelization on Multi-Core CPUs ( http://arxiv.org/abs/2212.11506v1 )

ライセンス: Link先を確認
Narendra Chaudhary, Alexander Pivovar, Pavel Yakovlev, Andrey Gorshkov, Sanchit Misra(参考訳) t-SNEは高次元データを視覚化するための最も一般的な埋め込み技術の一つである。 Scikit-learnのようなt-SNEの標準パッケージのほとんどは、大規模なデータセットにBarnes-Hut t-SNE (BH t-SNE)アルゴリズムを使用している。 しかし、このアルゴリズムの既存のCPU実装は非効率である。 本研究では,キャッシュ最適化,SIMD,シーケンシャルステップの並列化,マルチスレッドステップの並列化などにより,CPU上のBH t-SNEを高速化する。 我々の実装(Acc-t-SNE)は、32コアのIntel(R) Icelakeクラウドインスタンス上のdaal4pyから、Scikit-learnよりも最大261倍、4倍高速である。

t-SNE remains one of the most popular embedding techniques for visualizing high-dimensional data. Most standard packages of t-SNE, such as scikit-learn, use the Barnes-Hut t-SNE (BH t-SNE) algorithm for large datasets. However, existing CPU implementations of this algorithm are inefficient. In this work, we accelerate the BH t-SNE on CPUs via cache optimizations, SIMD, parallelizing sequential steps, and improving parallelization of multithreaded steps. Our implementation (Acc-t-SNE) is up to 261x and 4x faster than scikit-learn and the state-of-the-art BH t-SNE implementation from daal4py, respectively, on a 32-core Intel(R) Icelake cloud instance.
翻訳日:2022-12-23 14:07:40 公開日:2022-12-22
# 因果信用付与に向けて

Towards Causal Credit Assignment ( http://arxiv.org/abs/2212.11636v1 )

ライセンス: Link先を確認
M\'aty\'as Schubert(参考訳) コントリビューションに基づいた今後の成果に対するアクションへのクレジットの割り当ては、強化学習における長年にわたるオープンな課題である。 最も一般的に使われるクレジット割当法の仮定は、決定の影響がすぐには明らかでないタスクにおいて不利である。 さらに、この方法は、エージェントによって選択されたアクションのみを評価することができ、非常に非効率である。 しかし、この分野では他の方法が広く採用されていない。 Hindsight Credit Assignmentは有望だが、まだ未検討の候補であり、長期的および対実的なクレジット割り当ての問題を解決することを目的としている。 本論文では,その主な利益と改善すべき要点を特定するため,後見クレジットの割り当てを実証的に検討する。 次に, 因子化された状態表現, 特に環境の因果構造に基づく状態表現に適用する。 この設定では、与えられた因果構造を効果的に活用するHindsight Credit Assignmentの変種を提案する。 今回の変更により,後見クレジット割り当ての作業負荷が大幅に減少し,作業効率が向上し,さまざまなタスクにおけるベースラインクレジット割り当てメソッドを上回ることが可能になった。 これは、与えられたまたは学習された因果構造に基づく他の方法への道を開く。

Adequately assigning credit to actions for future outcomes based on their contributions is a long-standing open challenge in Reinforcement Learning. The assumptions of the most commonly used credit assignment method are disadvantageous in tasks where the effects of decisions are not immediately evident. Furthermore, this method can only evaluate actions that have been selected by the agent, making it highly inefficient. Still, no alternative methods have been widely adopted in the field. Hindsight Credit Assignment is a promising, but still unexplored candidate, which aims to solve the problems of both long-term and counterfactual credit assignment. In this thesis, we empirically investigate Hindsight Credit Assignment to identify its main benefits, and key points to improve. Then, we apply it to factored state representations, and in particular to state representations based on the causal structure of the environment. In this setting, we propose a variant of Hindsight Credit Assignment that effectively exploits a given causal structure. We show that our modification greatly decreases the workload of Hindsight Credit Assignment, making it more efficient and enabling it to outperform the baseline credit assignment method on various tasks. This opens the way to other methods based on given or learned causal structures.
翻訳日:2022-12-23 14:01:50 公開日:2022-12-22
# TransPath:トランスフォーマーによるグリッドベースのパスフィニングのためのヒューリスティック学習

TransPath: Learning Heuristics For Grid-Based Pathfinding via Transformers ( http://arxiv.org/abs/2212.11730v1 )

ライセンス: Link先を確認
Daniil Kirilenko, Anton Andreychuk, Aleksandr Panov, Konstantin Yakovlev(参考訳) ヒューリスティック検索アルゴリズム(例えば、a*)は、グリッド上のパス検索、すなわちロボット工学やビデオゲームなどの環境を表現するために広く使われる正規構造のグラフとして一般的に使用されるツールである。 グリッドグラフのインスタンスに依存しないヒューリスティック(例えばマンハッタン距離)は障害を考慮せず、そのようなヒューリスティックによる探索は障害物の多い環境では不十分である。 この目的のために,探索効率を顕著に向上させると考えられる,インスタンス依存のヒューリスティックプロキシの学習を提案する。 私たちが学ぶべき最初のヒューリスティックなプロキシは、修正係数、すなわち、インスタンスに依存しないコスト対ゴーの見積もりと完璧なもの(トレーニングフェーズでオフラインで計算される)の比率です。 以前知られていたコスト・ツー・ゴーヒューリスティック関数の絶対値とは異なり、補正係数を学習する際には、インスタンス非依存ヒューリスティックの知識が利用される。 第2のヒューリスティックプロキシはパス確率であり、グリッドセルが最短経路に横たわっている可能性を示している。 このヒューリスティックはFocal Searchフレームワークで二次ヒューリスティックとして利用することができ、解の有界部分最適性に関する保証を維持することができる。 我々は,アテンションブロック(トランスフォーマー)を含む最先端ニューラルネットワークを用いて,提案するヒューリスティックスを教師付きで学習する。 我々は,計画課題の包括的データセットを徹底的に評価し,提案手法が有効であることを示す。 一 最適解のコストを平均で0.3%未満のコストで超えるような解を生産している間に、a*の計算労力を四十倍まで削減すること。 ii) ヒューリスティック検索の従来の手法,すなわち重み付きA*, および最先端の学習可能なプランナーを含む競技者を上回る。

Heuristic search algorithms, e.g. A*, are the commonly used tools for pathfinding on grids, i.e. graphs of regular structure that are widely employed to represent environments in robotics, video games etc. Instance-independent heuristics for grid graphs, e.g. Manhattan distance, do not take the obstacles into account and, thus, the search led by such heuristics performs poorly in the obstacle-rich environments. To this end, we suggest learning the instance-dependent heuristic proxies that are supposed to notably increase the efficiency of the search. The first heuristic proxy we suggest to learn is the correction factor, i.e. the ratio between the instance independent cost-to-go estimate and the perfect one (computed offline at the training phase). Unlike learning the absolute values of the cost-to-go heuristic function, which was known before, when learning the correction factor the knowledge of the instance-independent heuristic is utilized. The second heuristic proxy is the path probability, which indicates how likely the grid cell is lying on the shortest path. This heuristic can be utilized in the Focal Search framework as the secondary heuristic, allowing us to preserve the guarantees on the bounded sub-optimality of the solution. We learn both suggested heuristics in a supervised fashion with the state-of-the-art neural networks containing attention blocks (transformers). We conduct a thorough empirical evaluation on a comprehensive dataset of planning tasks, showing that the suggested techniques i) reduce the computational effort of the A* up to a factor of $4$x while producing the solutions, which costs exceed the costs of the optimal solutions by less than $0.3$% on average; ii) outperform the competitors, which include the conventional techniques from the heuristic search, i.e. weighted A*, as well as the state-of-the-art learnable planners.
翻訳日:2022-12-23 14:01:31 公開日:2022-12-22
# 特徴帰属に対する不可能定理

Impossibility Theorems for Feature Attribution ( http://arxiv.org/abs/2212.11870v1 )

ライセンス: Link先を確認
Blair Bilodeau, Natasha Jaques, Pang Wei Koh, Been Kim(参考訳) 妥当な説明を生成できる解釈可能性手法の海にもかかわらず、この分野はそのような手法の多くの失敗事例を経験的に見てきた。 これらの結果を踏まえて、実践者がこれらの手法をどのように利用し、それらを原則的に選択するかは定かではない。 本稿では,ニューラルネットワークによって容易に満たされる)中程度にリッチなモデルクラスに対して,完全かつ線形な特徴帰属法として,例えば,統合グラディエントとSHAP-は,モデル振る舞いを推測するランダムな推測において確実に改善できないことを示す。 本研究は,局所モデル動作の同定,スプリアス特徴の同定,アルゴリズムによる帰属といった一般的なエンドタスクに適用する。 私たちの仕事の要点は、エンドタスクを明確に定義することの重要性です。 特に、そのようなエンドタスクが定義されれば、繰り返しモデル評価の単純かつ直接的なアプローチが、他の多くの複雑な機能帰属メソッドを上回ることができることを示す。

Despite a sea of interpretability methods that can produce plausible explanations, the field has also empirically seen many failure cases of such methods. In light of these results, it remains unclear for practitioners how to use these methods and choose between them in a principled way. In this paper, we show that for even moderately rich model classes (easily satisfied by neural networks), any feature attribution method that is complete and linear--for example, Integrated Gradients and SHAP--can provably fail to improve on random guessing for inferring model behaviour. Our results apply to common end-tasks such as identifying local model behaviour, spurious feature identification, and algorithmic recourse. One takeaway from our work is the importance of concretely defining end-tasks. In particular, we show that once such an end-task is defined, a simple and direct approach of repeated model evaluations can outperform many other complex feature attribution methods.
翻訳日:2022-12-23 14:00:56 公開日:2022-12-22
# 変形性膝関節症研究のための言葉埋め込みニューラルネットワーク

Word Embedding Neural Networks to Advance Knee Osteoarthritis Research ( http://arxiv.org/abs/2212.11933v1 )

ライセンス: Link先を確認
Soheyla Amirian, Husam Ghazaleh, Mehdi Assefi, Hilal Maradit Kremers, Hamid R. Arabnia, Johannes F. Plate, and Ahmad P. Tafti(参考訳) 変形性関節症(OA)は世界中で最も多い慢性関節疾患であり、膝OAは一般的に影響を受ける関節の80%以上を占める。 Knee OAはまだ治療可能な病気ではなく、多くの患者に影響を及ぼし、患者や医療システムに費用がかかる。 膝OAの成因, 診断, 治療は, 臨床および身体所見の多様性によって議論される可能性がある。 膝OAには、慢性関節疾患の診断、予後、治療、臨床結果の命名の標準化を目的とした、よく知られた用語の一覧があるが、実際には、医学文献、臨床ノート、医療リテラシー、健康関連ソーシャルメディアなど、さまざまなデータソースで膝OAに関連する幅広い用語が存在する。 これらのデータソースのうち、生物医学文献に掲載されている科学論文は通常、病気を研究するために原理化されたパイプラインを作る。 大規模な科学文献の正確なテキストマイニングは、膝OAの理解を深め、膝OAの診断、予防、治療の質を向上させるために、新しい知識や用語を発見する可能性がある。 本研究の目的は,人工ニューラルネットワークを用いて膝OA疾患に関連する語彙を自動的に抽出することである。 自動キーワード抽出と膝OAの抽象化のための単語埋め込みニューラルネットワークの実現可能性を示す。

Osteoarthritis (OA) is the most prevalent chronic joint disease worldwide, where knee OA takes more than 80% of commonly affected joints. Knee OA is not a curable disease yet, and it affects large columns of patients, making it costly to patients and healthcare systems. Etiology, diagnosis, and treatment of knee OA might be argued by variability in its clinical and physical manifestations. Although knee OA carries a list of well-known terminology aiming to standardize the nomenclature of the diagnosis, prognosis, treatment, and clinical outcomes of the chronic joint disease, in practice there is a wide range of terminology associated with knee OA across different data sources, including but not limited to biomedical literature, clinical notes, healthcare literacy, and health-related social media. Among these data sources, the scientific articles published in the biomedical literature usually make a principled pipeline to study disease. Rapid yet, accurate text mining on large-scale scientific literature may discover novel knowledge and terminology to better understand knee OA and to improve the quality of knee OA diagnosis, prevention, and treatment. The present works aim to utilize artificial neural network strategies to automatically extract vocabularies associated with knee OA diseases. Our finding indicates the feasibility of developing word embedding neural networks for autonomous keyword extraction and abstraction of knee OA.
翻訳日:2022-12-23 14:00:38 公開日:2022-12-22
# 確率分布学習のための数学的枠組み

A Mathematical Framework for Learning Probability Distributions ( http://arxiv.org/abs/2212.11481v1 )

ライセンス: Link先を確認
Hongkang Yang(参考訳) 確率分布のモデル化、特に生成的モデリングと密度推定は、画像やテキストなどの洗練されたデータに優れた性能を生かして近年、非常にポピュラーな主題となっている。 しかし、その成功に関する理論的理解はまだ不十分である。 理論的には、モデルは有限標本の経験的分布と全く同じように訓練されるが、実際には、訓練されたモデルは新しいサンプルを生成したり、目に見えないサンプルの可能性を推定することができる。 同様に、分散学習モデルの圧倒的多様性は、この主題に対する統一的な視点を要求する。 本論文は、すべての有名なモデルを単純な原理に基づいて導出できる数学的枠組みを提供する。 提案手法の有効性を示すため,これらのモデルの近似誤差,トレーニング誤差,一般化誤差について,この枠組みに基づいて検討した。 特に、上記のパラドックスは、これらのモデルがトレーニング中に暗黙の正則化を楽しみ、早期停止時の一般化誤差が次元の呪いを避けることを証明することによって解決される。 さらに,ランドスケープ解析とモード崩壊現象について新たな結果を得た。

The modeling of probability distributions, specifically generative modeling and density estimation, has become an immensely popular subject in recent years by virtue of its outstanding performance on sophisticated data such as images and texts. Nevertheless, a theoretical understanding of its success is still incomplete. One mystery is the paradox between memorization and generalization: In theory, the model is trained to be exactly the same as the empirical distribution of the finite samples, whereas in practice, the trained model can generate new samples or estimate the likelihood of unseen samples. Likewise, the overwhelming diversity of distribution learning models calls for a unified perspective on this subject. This paper provides a mathematical framework such that all the well-known models can be derived based on simple principles. To demonstrate its efficacy, we present a survey of our results on the approximation error, training error and generalization error of these models, which can all be established based on this framework. In particular, the aforementioned paradox is resolved by proving that these models enjoy implicit regularization during training, so that the generalization error at early-stopping avoids the curse of dimensionality. Furthermore, we provide some new results on landscape analysis and the mode collapse phenomenon.
翻訳日:2022-12-23 13:59:58 公開日:2022-12-22
# グローバルラベル推論と分類によるロバストなメタ表現学習

Robust Meta-Representation Learning via Global Label Inference and Classification ( http://arxiv.org/abs/2212.11702v1 )

ライセンス: Link先を確認
Ruohan Wang, Isak Falk, Massimiliano Pontil, Carlo Ciliberto(参考訳) FSL(Few-shot Learning)はメタラーニングにおいて中心的な問題であり、学習者はラベル付き例から効率的に学習しなければならない。 FSL内では、最近、機能事前学習が、一般化性能を大幅に改善するために人気が高まっている。 しかし、事前学習の貢献はしばしば見落とされ、メタラーニングのパフォーマンスに対するその影響についての理論的理解が限られている。 さらに、事前トレーニングには、トレーニングタスク間で共有される一貫したグローバルラベルセットが必要である。 本稿では,まず,事前学習とメタ学習の関連性を示すことで,上記の課題に対処する。 事前学習がより強固なメタ表現をもたらす理由を議論し、理論解析を既存の作品や経験的結果に結びつける。 第二にメタラベル学習(Meta Label Learning, MeLa)は,タスク間でグローバルラベルを推定することによってタスク関係を学習するメタ学習アルゴリズムである。 これにより、グローバルラベルが利用できない、あるいは未定義の場合でも、FSLの事前トレーニングを活用できます。 最後に、学習したメタ表現をさらに改善する強化事前学習手順を導入する。 経験上、melaはさまざまなベンチマーク、特にトレーニングタスクの数を制限し、ラベルがタスクに固有の、より困難な設定において、既存のメソッドよりも優れています。 また,その重要な特性を強調するために,広範なアブレーション研究も行なっている。

Few-shot learning (FSL) is a central problem in meta-learning, where learners must efficiently learn from few labeled examples. Within FSL, feature pre-training has recently become an increasingly popular strategy to significantly improve generalization performance. However, the contribution of pre-training is often overlooked and understudied, with limited theoretical understanding of its impact on meta-learning performance. Further, pre-training requires a consistent set of global labels shared across training tasks, which may be unavailable in practice. In this work, we address the above issues by first showing the connection between pre-training and meta-learning. We discuss why pre-training yields more robust meta-representation and connect the theoretical analysis to existing works and empirical results. Secondly, we introduce Meta Label Learning (MeLa), a novel meta-learning algorithm that learns task relations by inferring global labels across tasks. This allows us to exploit pre-training for FSL even when global labels are unavailable or ill-defined. Lastly, we introduce an augmented pre-training procedure that further improves the learned meta-representation. Empirically, MeLa outperforms existing methods across a diverse range of benchmarks, in particular under a more challenging setting where the number of training tasks is limited and labels are task-specific. We also provide extensive ablation study to highlight its key properties.
翻訳日:2022-12-23 13:59:38 公開日:2022-12-22
# 連合学習 -- 方法、応用、そしてその先

Federated Learning -- Methods, Applications and beyond ( http://arxiv.org/abs/2212.11729v1 )

ライセンス: Link先を確認
Moritz Heusinger, Christoph Raab, Fabrice Rossi (CEREMADE), Frank-Michael Schleif(参考訳) 近年、大量のデータと技術進歩により機械学習モデルの応用が急速に増加しており、Web分析のような領域では、わずかな制限で恩恵を受けることができるが、患者データを持つ医学などの分野はより厳しく規制されている。 特に‘emph{data privacy’は、EUの信頼できるAIイニシアチブや法律における一般的なプライバシー規制によって強調されたように、重要な役割を果たす。 もうひとつの大きな課題は、要求されるトレーニングである \emph{data is} が、機能やサンプルの観点からはしばしば \emph{distributed} であり、古典的なバッチ学習アプローチでは利用できないことである。 2016年、googleはこれらの問題を解決するためのフレームワーク \emph{federated learning} を考案した。 本稿では, 垂直および水平の伝授学習の分野における既存手法と応用について, および, \emph{fderated transfer learning} について概説する。

In recent years the applications of machine learning models have increased rapidly, due to the large amount of available data and technological progress.While some domains like web analysis can benefit from this with only minor restrictions, other fields like in medicine with patient data are strongerregulated. In particular \emph{data privacy} plays an important role as recently highlighted by the trustworthy AI initiative of the EU or general privacy regulations in legislation. Another major challenge is, that the required training \emph{data is} often \emph{distributed} in terms of features or samples and unavailable for classicalbatch learning approaches. In 2016 Google came up with a framework, called \emph{Federated Learning} to solve both of these problems. We provide a brief overview on existing Methods and Applications in the field of vertical and horizontal \emph{Federated Learning}, as well as \emph{Fderated Transfer Learning}.
翻訳日:2022-12-23 13:59:16 公開日:2022-12-22
# オフラインクラスタリングによるクラス不均衡画像データの自己教師あり学習

Offline Clustering Approach to Self-supervised Learning for Class-imbalanced Image Data ( http://arxiv.org/abs/2212.11444v1 )

ライセンス: Link先を確認
Hye-min Chang and Sungkyun Chang(参考訳) クラス不均衡データセットは、モデルが多数派クラスに偏っている問題を引き起こすことが知られている。 このプロジェクトでは、2つの研究課題を設定しました 1) 自己指導型事前学習において授業不均衡問題はいつより多いのか? そして 2) 機能表現のオフラインクラスタリングは、クラス不均衡なデータの事前トレーニングに役立つか? 実験では,CIFAR-10データベース上でベースラインモデル(SimCLRとSimSiam)をトレーニングする場合に,事前質問の度合いを調整して検討した。 後者の質問に答えるために、私たちは各エキスパートモデルを機能クラスタの各サブセットでトレーニングします。 次に、専門家モデルの知識を1つのモデルに絞り込み、このモデルのパフォーマンスをベースラインと比較できるようにします。

Class-imbalanced datasets are known to cause the problem of model being biased towards the majority classes. In this project, we set up two research questions: 1) when is the class-imbalance problem more prevalent in self-supervised pre-training? and 2) can offline clustering of feature representations help pre-training on class-imbalanced data? Our experiments investigate the former question by adjusting the degree of {\it class-imbalance} when training the baseline models, namely SimCLR and SimSiam on CIFAR-10 database. To answer the latter question, we train each expert model on each subset of the feature clusters. We then distill the knowledge of expert models into a single model, so that we will be able to compare the performance of this model to our baselines.
翻訳日:2022-12-23 13:58:30 公開日:2022-12-22
# GENIE:拡散モデルによるテキスト生成のための大規模事前学習

GENIE: Large Scale Pre-training for Text Generation with Diffusion Model ( http://arxiv.org/abs/2212.11685v1 )

ライセンス: Link先を確認
Zhenghao Lin, Yeyun Gong, Yelong Shen, Tong Wu, Zhihao Fan, Chen Lin, Weizhu Chen, Nan Duan(参考訳) 本稿では,拡散モデルを用いたテキスト生成のための大規模言語としてgenieを提案する。 GENIEは、Transformerと拡散を組み合わせた、トレーニング済みのシーケンスからシーケンスまでのテキスト生成モデルである。 拡散モデルはエンコーダからの潜在情報を受け取り、現在の時間ステップの切り下げを導くために使用される。 このような繰り返しを複数繰り返すと、拡散モデルはガウスノイズを入力テキストによって制御される多様な出力テキストに復元することができる。 さらに、このようなアーキテクチャ設計により、GENIE上での大規模事前学習も可能となる。 拡散モデルの特徴に基づいて, 連続段落音化という新しい事前学習法を提案する。 XSum, CNN/DailyMail, Gigawordベンチマークの大規模な実験により、GENIEは様々な強力なベースラインで同等のパフォーマンスを達成できることが示されている。 我々はまた、GENIEの生成多様性とパラメータの影響について多くの実験を行った。 GENIEのコードは一般公開される予定だ。

In this paper, we propose a large-scale language pre-training for text GENeration using dIffusion modEl, which is named GENIE. GENIE is a pre-training sequence-to-sequence text generation model which combines Transformer and diffusion. The diffusion model accepts the latent information from the encoder, which is used to guide the denoising of the current time step. After multiple such denoise iterations, the diffusion model can restore the Gaussian noise to the diverse output text which is controlled by the input text. Moreover, such architecture design also allows us to adopt large scale pre-training on the GENIE. We propose a novel pre-training method named continuous paragraph denoise based on the characteristics of the diffusion model. Extensive experiments on the XSum, CNN/DailyMail, and Gigaword benchmarks shows that GENIE can achieves comparable performance with various strong baselines, especially after pre-training, the generation quality of GENIE is greatly improved. We have also conduct a lot of experiments on the generation diversity and parameter impact of GENIE. The code for GENIE will be made publicly available.
翻訳日:2022-12-23 13:51:52 公開日:2022-12-22
# 整数のみのディープリカレントニューラルネットワークのトレーニング

Training Integer-Only Deep Recurrent Neural Networks ( http://arxiv.org/abs/2212.11791v1 )

ライセンス: Link先を確認
Vahid Partovi Nia, Eyy\"ub Sari, Vanessa Courville, Masoud Asgharian(参考訳) recurrent neural networks (rnn)は、多くのテキストや音声アプリケーションのバックボーンである。 これらのアーキテクチャは典型的には、非線形アクティベーション関数、正規化、双方向依存、注意といった、計算学的に複雑なコンポーネントで構成されている。 正確な精度を維持するために、これらのコンポーネントはフル精度の浮動小数点演算を用いて頻繁に実行されるため、エッジデバイスへのデプロイが遅く、非効率で困難である。 さらに、これらの操作の複雑な性質は、パフォーマンスの大幅な低下を伴わずに標準量子化法を用いて量子化することを困難にしている。 精度の高い整数専用リカレントニューラルネットワーク(iRNN)を得るための量子化学習法を提案する。 本手法は, 階層正規化, 注意, アクティベーション関数の適応的片方向線形近似(PWL)をサポートし, 幅広い最先端のRNNを実現する。 提案手法により,RNNベースの言語モデルをエッジデバイス上で実行可能とし,実行時の改善が2ドル,モデルサイズが4ドル,完全精度が4ドルであった。

Recurrent neural networks (RNN) are the backbone of many text and speech applications. These architectures are typically made up of several computationally complex components such as; non-linear activation functions, normalization, bi-directional dependence and attention. In order to maintain good accuracy, these components are frequently run using full-precision floating-point computation, making them slow, inefficient and difficult to deploy on edge devices. In addition, the complex nature of these operations makes them challenging to quantize using standard quantization methods without a significant performance drop. We present a quantization-aware training method for obtaining a highly accurate integer-only recurrent neural network (iRNN). Our approach supports layer normalization, attention, and an adaptive piecewise linear (PWL) approximation of activation functions, to serve a wide range of state-of-the-art RNNs. The proposed method enables RNN-based language models to run on edge devices with $2\times$ improvement in runtime, and $4\times$ reduction in model size while maintaining similar accuracy as its full-precision counterpart.
翻訳日:2022-12-23 13:51:36 公開日:2022-12-22
# DaDe: ストリーミング知覚のための遅延適応検出器

DaDe: Delay-adoptive Detector for Streaming Perception ( http://arxiv.org/abs/2212.11558v1 )

ライセンス: Link先を確認
Wonwoo Jo, Kyungshin Lee, Jaewon Baik, Sangsun Lee, Dongho Choi, Hyunkyoo Park(参考訳) 低レイテンシでの環境認識は、自動運転において重要である。 リアルタイム環境では、処理が終了すると周囲環境が変化する。 現在の検出モデルは、処理後に発生する環境の変化を扱うことができない。 リアルタイム映像認識のレイテンシと精度を評価するために,ストリーム認識を提案する。 しかし、ハードウェアリソースの制限、高温、その他の要因により、現実世界のアプリケーションで追加の問題が発生する。 本研究では,処理遅延をリアルタイムに反映し,最も合理的な結果が得られるモデルを開発した。 提案する機能キューと機能選択モジュールを組み込むことで,計算コストを伴わずに特定の時間ステップを予測することができる。 本手法はArgoverse-HDデータセットで検証する。 遅延時には、様々な環境で現在の最先端メソッド(2022.10)よりも高いパフォーマンスを達成する。 コードはhttps://github.com/danjos95/DADEで入手できる。

Recognizing the surrounding environment at low latency is critical in autonomous driving. In real-time environment, surrounding environment changes when processing is over. Current detection models are incapable of dealing with changes in the environment that occur after processing. Streaming perception is proposed to assess the latency and accuracy of real-time video perception. However, additional problems arise in real-world applications due to limited hardware resources, high temperatures, and other factors. In this study, we develop a model that can reflect processing delays in real time and produce the most reasonable results. By incorporating the proposed feature queue and feature select module, the system gains the ability to forecast specific time steps without any additional computational costs. Our method is tested on the Argoverse-HD dataset. It achieves higher performance than the current state-of-the-art methods(2022.10) in various environments when delayed . The code is available at https://github.com/danjos95/DADE
翻訳日:2022-12-23 13:51:07 公開日:2022-12-22
# ビデオ予測のためのエンコーダデコーダLSTMを用いた予測符号化に基づくマルチスケールネットワーク

Predictive Coding Based Multiscale Network with Encoder-Decoder LSTM for Video Prediction ( http://arxiv.org/abs/2212.11642v1 )

ライセンス: Link先を確認
Chaofan Ling, Junpei Zhong and Weihua Li(参考訳) 我々は,ビデオ予測のためのマルチスケール予測モデルを提案する。その設計は"予測符号化"理論と"微妙な"アプローチに触発されたものである。 予測符号化モデルとして、ボトムアップとトップダウンの情報フローの組み合わせによって更新され、従来のボトムアップトレーニングスタイルとは異なる。 その利点は、入力情報への依存を減らし、画像の予測と生成能力を改善することである。 重要なのは、高レベルのニューロンが粗い予測(低解像度)を生成し、低レベルのニューロンがより微細な予測(高解像度)を生成することだ。 これは、上位レベルが下位レベルのニューロンの活動を予測している従来の予測コーディングフレームワークとは異なる。 予測能力を向上させるため、LSTMアーキテクチャにエンコーダ・デコーダネットワークを統合し、各レベル間で最終的なエンコーダ・ハイレベルセマンティック情報を共有する。 さらに、各ネットワークレベルの出力はRGB画像であるため、LSTM隠れ状態を小さくして、必要な隠れ情報のみを保持し、更新することができ、過度に離散的で複雑な空間にマッピングされるのを避けることができる。 このようにして、予測の困難さと計算オーバーヘッドを低減することができる。 最後に, 長期予測における敵対的トレーニングの不安定性と, トレーニングとテストのミスマッチに対処するために, トレーニング戦略をさらに探究する。 コードはhttps://github.com/Ling-CF/MSPNで入手できる。

We are introducing a multi-scale predictive model for video prediction here, whose design is inspired by the "Predictive Coding" theories and "Coarse to Fine" approach. As a predictive coding model, it is updated by a combination of bottom-up and top-down information flows, which is different from traditional bottom-up training style. Its advantage is to reduce the dependence on input information and improve its ability to predict and generate images. Importantly, we achieve with a multi-scale approach -- higher level neurons generate coarser predictions (lower resolution), while the lower level generate finer predictions (higher resolution). This is different from the traditional predictive coding framework in which higher level predict the activity of neurons in lower level. To improve the predictive ability, we integrate an encoder-decoder network in the LSTM architecture and share the final encoded high-level semantic information between different levels. Additionally, since the output of each network level is an RGB image, a smaller LSTM hidden state can be used to retain and update the only necessary hidden information, avoiding being mapped to an overly discrete and complex space. In this way, we can reduce the difficulty of prediction and the computational overhead. Finally, we further explore the training strategies, to address the instability in adversarial training and mismatch between training and testing in long-term prediction. Code is available at https://github.com/Ling-CF/MSPN.
翻訳日:2022-12-23 13:50:54 公開日:2022-12-22
# Aliasingは敵攻撃の先駆者だ

Aliasing is a Driver of Adversarial Attacks ( http://arxiv.org/abs/2212.11760v1 )

ライセンス: Link先を確認
Adri\'an Rodr\'iguez-Mu\~noz, Antonio Torralba(参考訳) エイリアシングは信号処理において非常に重要な概念であり、オーディオ、画像、ビデオの伝送と処理の品質を確保するには解像度の変更を慎重に考慮することが不可欠である。 それにもかかわらず、最近まで、AliasingはDeep Learningにおいてほとんど考慮されておらず、すべての共通アーキテクチャはエイリアス効果を考慮せずに不注意にサブサンプリングしている。 本研究では, ニューラルネットワークのエイリアス化に起因して, 対向摂動の存在が原因であるという仮説を考察する。 我々の最終的な目標は、第一原理のエイリアスから派生した説明可能な非訓練的構造変化のみを用いて、敵攻撃に対する堅牢性を高めることである。 私たちの貢献は以下のとおりです。 まず、一般画像変換のエイリアスを行わないための十分な条件を確立する。 次に,一般的なニューラルネットワーク層におけるエイリアスの発生源を調査し,その除去や削減のための第一原理からの簡単な修正を導出する。 最後に,本研究は抗エイリアス攻撃と逆境攻撃との強い関連を示した。 単にエイリアスを減らすだけで、より堅牢な分類器が実現し、ロバストなトレーニングとアンチエイリアスを組み合わせることで、$L2$攻撃における単独のロバストトレーニングと、$L_{\infty}$攻撃におけるパフォーマンスの損失が最小限である。

Aliasing is a highly important concept in signal processing, as careful consideration of resolution changes is essential in ensuring transmission and processing quality of audio, image, and video. Despite this, up until recently aliasing has received very little consideration in Deep Learning, with all common architectures carelessly sub-sampling without considering aliasing effects. In this work, we investigate the hypothesis that the existence of adversarial perturbations is due in part to aliasing in neural networks. Our ultimate goal is to increase robustness against adversarial attacks using explainable, non-trained, structural changes only, derived from aliasing first principles. Our contributions are the following. First, we establish a sufficient condition for no aliasing for general image transformations. Next, we study sources of aliasing in common neural network layers, and derive simple modifications from first principles to eliminate or reduce it. Lastly, our experimental results show a solid link between anti-aliasing and adversarial attacks. Simply reducing aliasing already results in more robust classifiers, and combining anti-aliasing with robust training out-performs solo robust training on $L_2$ attacks with none or minimal losses in performance on $L_{\infty}$ attacks.
翻訳日:2022-12-23 13:50:30 公開日:2022-12-22
# 注意とスライシング支援ハイパー推論を用いた多段階アプローチによる単眼3次元物体検出

Monocular 3D Object Detection using Multi-Stage Approaches with Attention and Slicing aided hyper inference ( http://arxiv.org/abs/2212.11804v1 )

ライセンス: Link先を確認
Abonia Sojasingarayar, Ashish Patel(参考訳) 3dオブジェクト検出は、オブジェクトのサイズ、方向、および世界の位置をキャプチャできるため、不可欠です。 結果として、拡張現実(Augmented Reality, AR)や自動運転車、そして人間と同じように世界を知覚するロボット工学といった現実世界の応用で、この3D検出を利用できるようになるでしょう。 モノクロ3Dオブジェクト検出は、単一の2D RGBイメージでオブジェクトの周りに3Dバウンディングボックスを描画するタスクである。 ローカライズ作業だが、奥行きなどのセンサーや複数の画像などの追加情報がない。 モノクロ3Dオブジェクト検出は重要な課題である。 画像に基づく2dオブジェクト検出の大幅な進歩以外にも、現実世界のオブジェクトの3d理解は、これまで広く研究されていないオープンチャレンジである。 また、最も密接な研究も行った。

3D object detection is vital as it would enable us to capture objects' sizes, orientation, and position in the world. As a result, we would be able to use this 3D detection in real-world applications such as Augmented Reality (AR), self-driving cars, and robotics which perceive the world the same way we do as humans. Monocular 3D Object Detection is the task to draw 3D bounding box around objects in a single 2D RGB image. It is localization task but without any extra information like depth or other sensors or multiple images. Monocular 3D object detection is an important yet challenging task. Beyond the significant progress in image-based 2D object detection, 3D understanding of real-world objects is an open challenge that has not been explored extensively thus far. In addition to the most closely related studies.
翻訳日:2022-12-23 13:50:04 公開日:2022-12-22
# 弱フィードバックを用いた逐次決定問題

Sequential Decision Problems with Weak Feedback ( http://arxiv.org/abs/2212.11603v1 )

ライセンス: Link先を確認
Arun Verma(参考訳) この論文は、観察されたフィードバックから行動を選択することによって生じる損失/逆の損失を推測できない、シーケンシャルな決定問題を考察する。 この論文の主要な部分は教師なしのシーケンシャル選択問題であり、観察されたフィードバックからアクションを選択する際に発生する損失を推測することはできない。 また,特定の条件下で行動を選択する際に発生する損失を観測できるCensored Semi Banditsという新しい設定も導入する。 最後に,通信ネットワークにおけるチャネル選択問題について検討し,他のプレーヤがラウンドでプレーするアクションを選択しない場合にのみ,アクションに対する報酬が観測される。 これらの問題は、医療、クラウドソーシング、セキュリティ、アダプティブリソース割り当てなど、多くの分野で応用されている。 本論文は,これらの課題の具体的構造を生かして,上記の逐次的決定問題に対処することを目的としている。 我々は,これらの設定に対して,弱いフィードバックで最適なアルゴリズムを開発し,合成および実データから導出する異なる問題インスタンスにおいて,その経験的性能を検証する。

This thesis considers sequential decision problems, where the loss/reward incurred by selecting an action may not be inferred from observed feedback. A major part of this thesis focuses on the unsupervised sequential selection problem, where one can not infer the loss incurred for selecting an action from observed feedback. We also introduce a new setup named Censored Semi Bandits, where the loss incurred for selecting an action can be observed under certain conditions. Finally, we study the channel selection problem in the communication networks, where the reward for an action is only observed when no other player selects that action to play in the round. These problems find applications in many fields like healthcare, crowd-sourcing, security, adaptive resource allocation, among many others. This thesis aims to address the above-described sequential decision problems by exploiting specific structures these problems exhibit. We develop provably optimal algorithms for each of these setups with weak feedback and validate their empirical performance on different problem instances derived from synthetic and real datasets.
翻訳日:2022-12-23 13:49:49 公開日:2022-12-22
# 反復生成のためのスケーラブル適応計算

Scalable Adaptive Computation for Iterative Generation ( http://arxiv.org/abs/2212.11972v1 )

ライセンス: Link先を確認
Allan Jabri, David Fleet, Ting Chen(参考訳) 本稿では,情報分布に応じて入力に適応的に計算を割り当てるニューラルネットワークアーキテクチャであるRecurrent Interface Network (RIN)を提案する。 rinの隠れたユニットは、入力にローカルに接続されたインターフェースと、入力から切り離され、情報をグローバルに交換できるラテントに分割される。 RINブロックは、高容量処理のためにインターフェイスからラテントに選択的に読み込み、インクリメンタルな更新をインターフェースに書き戻す。 複数のブロックを積み重ねることで、ローカルレベルとグローバルレベルの効果的なルーティングが可能になる。 ルーティングがオーバーヘッドを増加させる一方で、インプットが徐々に変化し、さらにグローバルコンテキストが持続するリカレントな計算環境では、拡散モデルを用いた反復生成など、コストを償却することができる。 そこで本研究では, 生成過程の各イテレーションにおいて, 潜伏者を「ウォームスタート」させる潜伏型セルフコンディショニング手法を提案する。 ピクセル上で直接動作する拡散モデルに適用すると、RINはカスケードやガイダンスを使わずに最先端の画像とビデオを生成するが、ドメインに依存しず、特殊な2Dや3D U-Netに比べて最大10$\times$の効率がよい。

We present the Recurrent Interface Network (RIN), a neural net architecture that allocates computation adaptively to the input according to the distribution of information, allowing it to scale to iterative generation of high-dimensional data. Hidden units of RINs are partitioned into the interface, which is locally connected to inputs, and latents, which are decoupled from inputs and can exchange information globally. The RIN block selectively reads from the interface into latents for high-capacity processing, with incremental updates written back to the interface. Stacking multiple blocks enables effective routing across local and global levels. While routing adds overhead, the cost can be amortized in recurrent computation settings where inputs change gradually while more global context persists, such as iterative generation using diffusion models. To this end, we propose a latent self-conditioning technique that "warm-starts" the latents at each iteration of the generation process. When applied to diffusion models operating directly on pixels, RINs yield state-of-the-art image and video generation without cascades or guidance, while being domain-agnostic and up to 10$\times$ more efficient compared to specialized 2D and 3D U-Nets.
翻訳日:2022-12-23 13:43:21 公開日:2022-12-22
# 深層強化学習と確率的ポリシー再利用による表面符号の復号化

Decoding surface codes with deep reinforcement learning and probabilistic policy reuse ( http://arxiv.org/abs/2212.11890v1 )

ライセンス: Link先を確認
Elisha Siddiqui Matekole, Esther Ye, Ramya Iyer, and Samuel Yen-Chi Chen(参考訳) 量子コンピューティング(QC)は、古典的コンピュータよりも特定の計算タスクにおいて大きな利点を約束する。 しかし、現在の量子ハードウェアは、ノイズの多い中間スケール量子コンピュータ(nisq)としても知られ、主に量子エラー訂正(qec)能力の欠如により、忠実に計算を行うことができない。 顕著なトポロジ的符号の1つは表面符号であり、その特徴として、最寄りの2量子ビット制御ゲートと大きなエラー閾値が要求されるなど、スケーラブルな量子計算の候補となる。 近年の機械学習(ML)技術,特に強化学習(RL)手法がデコード問題に応用され,すでに一定の進歩を遂げている。 それでもデバイスノイズパターンは時間とともに変化し、訓練されたデコーダモデルを非効率にする。 本稿では,これらの復号化課題に対処する継続的強化学習手法を提案する。 具体的には,確率的ポリシ再利用(ddqn-ppr)モデルを用いたダブルディープq-learningを実装し,ノイズパターンの異なる量子環境における表面コード復号戦略を学習する。 数値シミュレーションにより,提案するddqn-pprモデルが計算複雑性を大幅に低減できることを示す。 さらに、訓練されたポリシーの数を増やすことで、エージェントのパフォーマンスをさらに改善することができる。 得られた知識を生かしてQEC課題に取り組み,より有能なRLエージェントを構築する方法が提案されている。

Quantum computing (QC) promises significant advantages on certain hard computational tasks over classical computers. However, current quantum hardware, also known as noisy intermediate-scale quantum computers (NISQ), are still unable to carry out computations faithfully mainly because of the lack of quantum error correction (QEC) capability. A significant amount of theoretical studies have provided various types of QEC codes; one of the notable topological codes is the surface code, and its features, such as the requirement of only nearest-neighboring two-qubit control gates and a large error threshold, make it a leading candidate for scalable quantum computation. Recent developments of machine learning (ML)-based techniques especially the reinforcement learning (RL) methods have been applied to the decoding problem and have already made certain progress. Nevertheless, the device noise pattern may change over time, making trained decoder models ineffective. In this paper, we propose a continual reinforcement learning method to address these decoding challenges. Specifically, we implement double deep Q-learning with probabilistic policy reuse (DDQN-PPR) model to learn surface code decoding strategies for quantum environments with varying noise patterns. Through numerical simulations, we show that the proposed DDQN-PPR model can significantly reduce the computational complexity. Moreover, increasing the number of trained policies can further improve the agent's performance. Our results open a way to build more capable RL agents which can leverage previously gained knowledge to tackle QEC challenges.
翻訳日:2022-12-23 13:42:58 公開日:2022-12-22
# 確率的概念形成による言語モデルの効率的な誘導

Efficient Induction of Language Models Via Probabilistic Concept Formation ( http://arxiv.org/abs/2212.11937v1 )

ライセンス: Link先を確認
Christopher J. MacLellan, Peter Matsakis, Pat Langley(参考訳) 本稿では,コーパスから言語モデルを取得するための新しいアプローチを提案する。 cobwebは、確率的概念の分類学的階層を構築するための初期のシステムで、トレーニングケースや概念の表式、属性値のエンコーディングを使用しており、言語のようなシーケンシャル入力には適していない。 これに対し、我々は、Word、Leaf、Pathの3つの新しい拡張機能、Cobwebを探索する。 これらのシステムは、各トレーニングケースをアンカーワードおよび周囲のコンテキストワードとしてエンコードし、アンカーおよびコンテキスト情報上の分布として概念の確率論的記述を格納する。 オリジナルのCobwebのように、パフォーマンス要素は階層構造を通して新しいインスタンスを下位にソートし、最後のノードを使って機能不足を予測する。 学習は性能とインターリーブされ、概念確率と階層構造が分類されるにつれて更新される。 このように、新しいアプローチは、統計的言語学習のほとんどの方法と大きく異なる、漸進的でオンラインな方法でトレーニングケースを処理する。 3つの変種が同義語をいかにうまく配置し、同義語を分離するか、同義語を訓練セットのサイズと訓練効率の関数として呼び起こす能力について検討する。 最後に、さらなる研究のための漸進的な学習と方向性に関する関連する研究について論じる。

This paper presents a novel approach to the acquisition of language models from corpora. The framework builds on Cobweb, an early system for constructing taxonomic hierarchies of probabilistic concepts that used a tabular, attribute-value encoding of training cases and concepts, making it unsuitable for sequential input like language. In response, we explore three new extensions to Cobweb -- the Word, Leaf, and Path variants. These systems encode each training case as an anchor word and surrounding context words, and they store probabilistic descriptions of concepts as distributions over anchor and context information. As in the original Cobweb, a performance element sorts a new instance downward through the hierarchy and uses the final node to predict missing features. Learning is interleaved with performance, updating concept probabilities and hierarchy structure as classification occurs. Thus, the new approaches process training cases in an incremental, online manner that it very different from most methods for statistical language learning. We examine how well the three variants place synonyms together and keep homonyms apart, their ability to recall synonyms as a function of training set size, and their training efficiency. Finally, we discuss related work on incremental learning and directions for further research.
翻訳日:2022-12-23 13:41:25 公開日:2022-12-22
# 半教師付きコントラスト学習と知識ベースを用いたエンティティベースシャムネットワークを用いた多言語ニュース位置検出

Multilingual News Location Detection using an Entity-Based Siamese Network with Semi-Supervised Contrastive Learning and Knowledge Base ( http://arxiv.org/abs/2212.11856v1 )

ライセンス: Link先を確認
V\'ictor Su\'arez-Paniagua and Steven Derby and Tri Kurniawan Wijaya(参考訳) ニュース中の関連箇所の早期発見は、特に環境災害、戦争紛争、疫病の発生、政治的混乱などの極端な出来事において重要である。 さらに、この検出は、ユーザ位置に基づいて関連するニュースをプロモートするレコメンデータシステムにも役立ちます。 注意すべき点は、関連する場所がテキストに明示的に言及されていない場合、これらのメソッドは構文認識に依存しているため、最先端の手法では認識できないことである。 対照的に、知識ベースを組み込んでエンティティをそれらの位置と結びつけることで、テキストに明示的に言及されていない場合でも、関係する位置を推測することに成功した。 提案手法の有効性を評価するため,本分野ではデータセットが不足しているため,ゴールドスタンダードの多言語ニュースロケーションデータセットであるNewsLOCを用いて研究コミュニティに貢献する。 英語、フランス語、ドイツ語、イタリア語、スペイン語の5つの言語で600以上のWikinews記事の関連する場所(およびWikiData ID)のアノテーションを含んでいる。 実験結果から,提案手法は,半教師付きデータを用いてモデルのベースラインと微調整バージョンを上回り,分類率を増加させることを示した。 ソースコードとnewslocデータセットは、研究コミュニティがhttps://github.com/vsuarezpaniagua/newslocationで利用できる。

Early detection of relevant locations in a piece of news is especially important in extreme events such as environmental disasters, war conflicts, disease outbreaks, or political turmoils. Additionally, this detection also helps recommender systems to promote relevant news based on user locations. Note that, when the relevant locations are not mentioned explicitly in the text, state-of-the-art methods typically fail to recognize them because these methods rely on syntactic recognition. In contrast, by incorporating a knowledge base and connecting entities with their locations, our system successfully infers the relevant locations even when they are not mentioned explicitly in the text. To evaluate the effectiveness of our approach, and due to the lack of datasets in this area, we also contribute to the research community with a gold-standard multilingual news-location dataset, NewsLOC. It contains the annotation of the relevant locations (and their WikiData IDs) of 600+ Wikinews articles in five different languages: English, French, German, Italian, and Spanish. Through experimental evaluations, we show that our proposed system outperforms the baselines and the fine-tuned version of the model using semi-supervised data that increases the classification rate. The source code and the NewsLOC dataset are publicly available for being used by the research community at https://github.com/vsuarezpaniagua/NewsLocation.
翻訳日:2022-12-23 13:41:03 公開日:2022-12-22
# 生成型逆ネットワークを用いた水素燃料電池スタックの市場投入時間短縮

Time to Market Reduction for Hydrogen Fuel Cell Stacks using Generative Adversarial Networks ( http://arxiv.org/abs/2212.11733v1 )

ライセンス: Link先を確認
Nicolas Morizet, Perceval Desforges, Christophe Geissler, Elodie Pahon, Samir Jeme\"i, Daniel Hissel(参考訳) 化石燃料への依存と二酸化炭素排出量の制限に直面するため、燃料電池は非常に有望な技術であり、エネルギー需要の増加とエネルギー移動を促進するための鍵となる候補であると考えられる。 将来の輸送用途と定常用途の両方のニーズを満たすためには、燃料電池スタックの市場投入時間を大幅に削減する必要がある。 本稿では,人工知能に基づく破壊的で高効率なデータ拡張手法を導入することで,開発時間を短縮する新たな概念を提案する。 この結果により、市場で製品を導入する前のテスト時間を数千から数時間に短縮できます。 ここで提案される革新的な概念は、燃料電池開発プロセスにおける工学と研究のタスクをサポートし、市場投入時間の短縮とともに開発コストの削減を実現する。

To face the dependency on fossil fuels and limit carbon emissions, fuel cells are a very promising technology and appear to be a key candidate to tackle the increase of the energy demand and promote the energy transition. To meet future needs for both transport and stationary applications, the time to market of fuel cell stacks must be drastically reduced. Here, a new concept to shorten their development time by introducing a disruptive and highefficiency data augmentation approach based on artificial intelligence is presented. Our results allow reducing the testing time before introducing a product on the market from a thousand to a few hours. The innovative concept proposed here can support engineering and research tasks during the fuel cell development process to achieve decreased development costs alongside a reduced time to market.
翻訳日:2022-12-23 13:40:39 公開日:2022-12-22
# トランスフォーマーに基づくバイオメディカル言語モデルのドメイン内適応

Localising In-Domain Adaptation of Transformer-Based Biomedical Language Models ( http://arxiv.org/abs/2212.10422v2 )

ライセンス: Link先を確認
Tommaso Mario Buonocore, Claudio Crema, Alberto Redolfi, Riccardo Bellazzi, Enea Parimbelli(参考訳) デジタル医療の時代には、病院で毎日生成される膨大なテキスト情報は、タスク固有の、微調整されたバイオメディカル言語表現モデル、患者のケアと管理の改善で活用できる、必須だが未使用の資産である。 このような特殊なドメインに対しては、広範囲のチェックポイントから派生した微調整モデルが、大規模なドメイン内リソースに対する追加のトレーニングラウンドに大きく貢献することを示した。 しかし、これらのリソースはイタリア語のような低リソース言語には到達できないことが多く、地元の医療機関がドメイン内適応を採用するのを妨げている。 このギャップを減らすために,我々の研究は,英語以外の言語で生物医学的言語モデルを導出するための2つのアプローチについて検討した。1つは,英語リソースのニューラルネットワーク翻訳に基づく,品質よりも量を重視する,もう1つは,イタリア語でネイティブに書かれたハイグレードで狭スコープのコーパスに基づく,量よりも品質を優先する,という,具体的なユースケースである。 本研究は, 生物医学的適応のためのデータ品質よりもデータ量に厳しい制約があることを示すが, 高品質なデータの結合は, 比較的サイズが制限されたコーパスを扱う場合でも, モデル性能を向上させることができる。 我々の調査から得られたモデルは、イタリアの病院やアカデミアにとって重要な研究機会を開放する可能性がある。 最後に、この研究から学んだ一連の教訓は、他の低リソース言語や異なるドメイン設定に一般化可能なバイオメディカル言語モデルを構築するためのソリューションに対する貴重な洞察を構成する。

In the era of digital healthcare, the huge volumes of textual information generated every day in hospitals constitute an essential but underused asset that could be exploited with task-specific, fine-tuned biomedical language representation models, improving patient care and management. For such specialized domains, previous research has shown that fine-tuning models stemming from broad-coverage checkpoints can largely benefit additional training rounds over large-scale in-domain resources. However, these resources are often unreachable for less-resourced languages like Italian, preventing local medical institutions to employ in-domain adaptation. In order to reduce this gap, our work investigates two accessible approaches to derive biomedical language models in languages other than English, taking Italian as a concrete use-case: one based on neural machine translation of English resources, favoring quantity over quality; the other based on a high-grade, narrow-scoped corpus natively written in Italian, thus preferring quality over quantity. Our study shows that data quantity is a harder constraint than data quality for biomedical adaptation, but the concatenation of high-quality data can improve model performance even when dealing with relatively size-limited corpora. The models published from our investigations have the potential to unlock important research opportunities for Italian hospitals and academia. Finally, the set of lessons learned from the study constitutes valuable insights towards a solution to build biomedical language models that are generalizable to other less-resourced languages and different domain settings.
翻訳日:2022-12-23 11:29:17 公開日:2022-12-22
# 社会工学的生産スケジューリングのための強化学習を用いたメメティックアルゴリズム

A Memetic Algorithm with Reinforcement Learning for Sociotechnical Production Scheduling ( http://arxiv.org/abs/2212.10936v2 )

ライセンス: Link先を確認
Felix Grumbach, Nour Eldin Alaa Badr, Pascal Reusch and Sebastian Trojahn(参考訳) 本稿では,drc-fjssp (drc-fjssp) を用いた二元資源制約型フレキシブルジョブショップスケジューリング問題を解くための深層強化学習(drl)手法を提案する。 近年、DRL技術の研究が盛んに行われているが、現実的で柔軟で人間中心のショップフロアは検討されていない。 サービス水準の高い中規模企業でよく見られるように、製造・発注指向の不連続製造の文脈で研究ギャップが特定できる。 この領域の実践的な産業プロジェクトから、フレキシブルマシン、ヒューマンワーカーと能力、セットアップと処理、材料到着時間、材料請求書製造(BOM)の並列タスク、シーケンス依存のセットアップ時間および(一部)自動化タスクの複雑なジョブパスを記述するための要件を認識します。 一方、DRC-FJSSPの文脈におけるメタヒューリスティックスの研究は集中的に行われている。 しかし、社会工学的な生産プロセスや組み立てプロセスに適用可能な、適度で汎用的なスケジューリング方法が欠如している。 本稿では,先述の実用要件によって誘導される拡張DRC-FJSSPを最初に定式化する。 次に,並列計算によるマルチクリータ最適化のためのハイブリッドフレームワークを提案する。 実世界のデータを用いた数値実験により,本フレームワークが効率的にかつ確実なスケジュールを生成することを確認した。 ランダムな操作の代わりにDRLを使用すると、より良い結果が得られ、従来のアプローチより優れている。

The following article presents a memetic algorithm with applying deep reinforcement learning (DRL) for solving practically oriented dual resource constrained flexible job shop scheduling problems (DRC-FJSSP). In recent years, there has been extensive research on DRL techniques, but without considering realistic, flexible and human-centered shopfloors. A research gap can be identified in the context of make-to-order oriented discontinuous manufacturing as it is often represented in medium-size companies with high service levels. From practical industry projects in this domain, we recognize requirements to depict flexible machines, human workers and capabilities, setup and processing operations, material arrival times, complex job paths with parallel tasks for bill of material (BOM) manufacturing, sequence-depended setup times and (partially) automated tasks. On the other hand, intensive research has been done on metaheuristics in the context of DRC-FJSSP. However, there is a lack of suitable and generic scheduling methods that can be holistically applied in sociotechnical production and assembly processes. In this paper, we first formulate an extended DRC-FJSSP induced by the practical requirements mentioned. Then we present our proposed hybrid framework with parallel computing for multicriteria optimization. Through numerical experiments with real-world data, we confirm that the framework generates feasible schedules efficiently and reliably. Utilizing DRL instead of random operations leads to better results and outperforms traditional approaches.
翻訳日:2022-12-23 11:28:49 公開日:2022-12-22
# ボットネットの世界におけるチャットボット

Chatbots in a Botnet World ( http://arxiv.org/abs/2212.11126v2 )

ライセンス: Link先を確認
Forrest McKee, David Noever(参考訳) 質問と回答の形式は、サイバーセキュリティの問題を調査するための新しい実験プラットフォームを提供する。 従来のチャットボットとは異なり、OpenAIの最新ChatGPTモデルは複雑なコーディング質問の高度な理解をサポートする。 この研究は、クレデンシャルアクセスから防衛回避まで、一般的にMITRE ATT&CKフレームワークの段階として適する13のコーディングタスクを実証している。 様々な成功により、実験的なプロンプトは、キーロガー、論理爆弾、難読化ワーム、支払いフルフィルドランサムウェアの例を生成する。 実験結果は,複雑なサイバーセキュリティ目標に対する自己複製や自己修正,回避,戦略的理解など,広範な機能獲得をサポートする事例を示している。 chatgptの言語のみのモデルとしての驚くべき特徴の1つは、実行可能なプログラミングステップやリンクを邪魔したり埋め込んだりする画像を生成するコーディングアプローチを生成する能力に集中している。

Question-and-answer formats provide a novel experimental platform for investigating cybersecurity questions. Unlike previous chatbots, the latest ChatGPT model from OpenAI supports an advanced understanding of complex coding questions. The research demonstrates thirteen coding tasks that generally qualify as stages in the MITRE ATT&CK framework, ranging from credential access to defense evasion. With varying success, the experimental prompts generate examples of keyloggers, logic bombs, obfuscated worms, and payment-fulfilled ransomware. The empirical results illustrate cases that support the broad gain of functionality, including self-replication and self-modification, evasion, and strategic understanding of complex cybersecurity goals. One surprising feature of ChatGPT as a language-only model centers on its ability to spawn coding approaches that yield images that obfuscate or embed executable programming steps or links.
翻訳日:2022-12-23 11:28:25 公開日:2022-12-22
# 対人攻撃がスパース回帰に及ぼす影響に関する理論的研究

A Theoretical Study of The Effects of Adversarial Attacks on Sparse Regression ( http://arxiv.org/abs/2212.11209v2 )

ライセンス: Link先を確認
Deepak Maurya, Jean Honorio(参考訳) 本稿では,逆向きに破損したデータのみをトレーニングに使用するという難しいシナリオの下で,$\ell_1$正規化線形回帰を解析する。 推定回帰パラメータベクトルが実際のパラメータに一致することを保証するため,本手法では本手法を用いて性能保証を行う。 本理論解析により,逆境が非関係な特徴,すなわち回帰パラメータベクトルの零係数に対応するもの,すなわち従属変数に影響を与えない特徴を破ることで,サンプル複雑性に影響を及ぼすことの逆直観的な結果を示す。 任意の可逆ロバストなアルゴリズムには限界があるため、理論解析により学習アルゴリズムと可逆アルゴリズムが互いに支配できるレジームを特定する。 このことは、これらの基本的な限界を分析し、パラメータ(相互不整合、共分散行列の最大値と最小値、逆摂動の予算など)がLASSOアルゴリズムの成功確率が高いか低いかという重要な科学的問題に対処するのに役立ちます。 また, 得られたサンプルの複雑性は回帰パラメータベクトルのサイズに対して対数的であり, この理論的主張は, 合成および実世界のデータセットに関する経験的分析によって検証される。

This paper analyzes $\ell_1$ regularized linear regression under the challenging scenario of having only adversarially corrupted data for training. We use the primal-dual witness paradigm to provide provable performance guarantees for the support of the estimated regression parameter vector to match the actual parameter. Our theoretical analysis shows the counter-intuitive result that an adversary can influence sample complexity by corrupting the irrelevant features, i.e., those corresponding to zero coefficients of the regression parameter vector, which, consequently, do not affect the dependent variable. As any adversarially robust algorithm has its limitations, our theoretical analysis identifies the regimes under which the learning algorithm and adversary can dominate over each other. It helps us to analyze these fundamental limits and address critical scientific questions of which parameters (like mutual incoherence, the maximum and minimum eigenvalue of the covariance matrix, and the budget of adversarial perturbation) play a role in the high or low probability of success of the LASSO algorithm. Also, the derived sample complexity is logarithmic with respect to the size of the regression parameter vector, and our theoretical claims are validated by empirical analysis on synthetic and real-world datasets.
翻訳日:2022-12-23 11:28:11 公開日:2022-12-22
# 分子知能製造のための効率的な薬物・薬物相互作用予測技術

An Efficient Drug-Drug Interactions Prediction Technology for Molecularly Intelligent Manufacturing ( http://arxiv.org/abs/2212.09400v2 )

ライセンス: Link先を確認
Peng Gao, Feng Gao, Jian-Cheng Ni(参考訳) 薬物-薬物相互作用(ddis)の予測は分子分野において不可欠な問題である。 医学実験における従来のDDIの観察方法は、多くの資源と労力を必要とする。 本稿では,複数の医療用文書をマルチホップ機械読解という形で読み取った後,自動的にddisを予測するグラフニューラルネットワークに基づくmedkgqaと呼ばれる計算モデルを提案する。 我々は,薬物とタンパク質の完全な性質を得るための知識融合システムを導入し,その文書に含まれる薬物とタンパク質を推算するグラフ推論システムを開発した。 本モデルでは,DDIの予測精度を4.5%向上したQANGAROO MedHopデータセットと比較して,性能を著しく向上する。

Drug-Drug Interactions (DDIs) prediction is an essential issue in the molecular field. Traditional methods of observing DDIs in medical experiments require plenty of resources and labor. In this paper, we present a computational model dubbed MedKGQA based on Graph Neural Networks to automatically predict the DDIs after reading multiple medical documents in the form of multi-hop machine reading comprehension. We introduced a knowledge fusion system to obtain the complete nature of drugs and proteins and exploited a graph reasoning system to infer the drugs and proteins contained in the documents. Our model significantly improves the performance compared to previous state-of-the-art models on the QANGAROO MedHop dataset, which obtained a 4.5% improvement in terms of DDIs prediction accuracy.
翻訳日:2022-12-23 11:27:47 公開日:2022-12-22
# ビジュアルリッチドキュメントのための拡張戦略

An Augmentation Strategy for Visually Rich Documents ( http://arxiv.org/abs/2212.10047v2 )

ライセンス: Link先を確認
Jing Xie, James B. Wendt, Yichao Zhou, Seth Ebner, Sandeep Tata(参考訳) 多くのビジネスワークフローでは、フォームライクなドキュメントから重要なフィールドを抽出する必要がある(例えば、銀行のステートメント、ラディングの請求書、購入注文など)。 このタスクを自動化する最近のテクニックは、大規模なデータセットでトレーニングされた場合のみうまく機能する。 本研究では、10-250文書など,トレーニングデータ不足時の性能向上のための新しいデータ拡張手法を提案する。 fieldwapと呼ばれるこの手法は、ソースフィールドのキーフレーズをターゲットフィールドのキーフレーズに置き換えて、トレーニングに使用するターゲットフィールドの新しい合成例を生成します。 提案手法は抽出性能を1-7F1ポイント改善できることを示す。

Many business workflows require extracting important fields from form-like documents (e.g. bank statements, bills of lading, purchase orders, etc.). Recent techniques for automating this task work well only when trained with large datasets. In this work we propose a novel data augmentation technique to improve performance when training data is scarce, e.g. 10-250 documents. Our technique, which we call FieldSwap, works by swapping out the key phrases of a source field with the key phrases of a target field to generate new synthetic examples of the target field for use in training. We demonstrate that this approach can yield 1-7 F1 point improvements in extraction performance.
翻訳日:2022-12-23 11:27:35 公開日:2022-12-22
# SimpleStyle: 適応可能なスタイル転送アプローチ

SimpleStyle: An Adaptable Style Transfer Approach ( http://arxiv.org/abs/2212.10498v2 )

ライセンス: Link先を確認
Elron Bandel, Yoav Katz, Noam Slonim, Liat Ein-Dor(参考訳) 属性制御されたテキスト書き換え(テキストスタイル転送)は、テキストトレーニングデータと機械生成テキストの属性とバイアスを調節する重要な役割を持つ。 本研究で提案するSimpleStyleは,2つの単純な成分からなるスタイルトランスファーの最小限かつ効果的なアプローチである。 数行のコードで簡潔に記述できるアプローチの単純さにもかかわらず、従来の最先端の手法とは、自動評価と人的評価の両方で競合する。 学術データを超えたシステムの適応性と実践的価値を示すために,実世界のテキストデータに現れる幅広いテキスト属性をソーシャルネットワークから転送するためにSimpleStyleを適用した。 さらに,システムの性能をさらに向上させる新手法「ソフトノーミング」を提案する。 また、学生モデルにSimpleStyleの出力を生成することで、1つのgreedy-decodedサンプルで等価品質のスタイル転送を行うシステムを実現することも示している。 最後に,本手法を,この分野の進歩を支える基礎的非互換なベースライン問題の修正として提案する。 我々は、属性制御されたテキストの書き直しの分野で漸進的な進歩を望む作業のための、シンプルながら強力なベースラインとして、我々のプロトコルを提供する。

Attribute-controlled text rewriting, also known as text style-transfer, has a crucial role in regulating attributes and biases of textual training data and a machine generated text. In this work we present SimpleStyle, a minimalist yet effective approach for style-transfer composed of two simple ingredients: controlled denoising and output filtering. Despite the simplicity of our approach, which can be succinctly described with a few lines of code, it is competitive with previous state-of-the-art methods both in automatic and in human evaluation. To demonstrate the adaptability and practical value of our system beyond academic data, we apply SimpleStyle to transfer a wide range of text attributes appearing in real-world textual data from social networks. Additionally, we introduce a novel "soft noising" technique that further improves the performance of our system. We also show that teaching a student model to generate the output of SimpleStyle can result in a system that performs style transfer of equivalent quality with only a single greedy-decoded sample. Finally, we suggest our method as a remedy for the fundamental incompatible baseline issue that holds progress in the field. We offer our protocol as a simple yet strong baseline for works that wish to make incremental advancements in the field of attribute controlled text rewriting.
翻訳日:2022-12-23 11:27:23 公開日:2022-12-22
# K-way Disjoint Maskingを用いた一貫性正規化による単眼深度推定の半教師付き学習

Semi-Supervised Learning of Monocular Depth Estimation via Consistency Regularization with K-way Disjoint Masking ( http://arxiv.org/abs/2212.10806v2 )

ライセンス: Link先を確認
Jongbeom Baek, Gyeongnyeon Kim, Seonghoon Park, Honggyu An, Matteo Poggi, Seungryong Kim(参考訳) Semi-Supervised Learning (SSL)は、画像分類、オブジェクト検出、セマンティックセグメンテーションなど様々な分野で成功している。 特に、奥行き推定タスクでは、トレーニングデータのアノテートは非常に費用がかかり、時間を要するため、最近のsslレジームは魅力的なソリューションに思える。 本稿では,本論文で初めて,単眼深度推定ネットワークの半教師付き学習のための新しい枠組みを提案する。 そこで我々は,K-way disjoint masking と呼ばれる新しいデータ拡張手法を提案する。この手法により,モデルは摂動に頑健になるだけでなく,一貫した出力深度マップを生成することができる。 KITTIとNYU-Depth-v2データセットの実験は、パイプライン内の各コンポーネントの有効性、注釈付き画像の使用に対する堅牢性、そして、他の最先端の半教師付き単眼深度推定法よりも優れた結果を示している。 私たちのコードはhttps://github.com/KU-CVLAB/MaskingDepth.comで入手可能です。

Semi-Supervised Learning (SSL) has recently accomplished successful achievements in various fields such as image classification, object detection, and semantic segmentation, which typically require a lot of labour to construct ground-truth. Especially in the depth estimation task, annotating training data is very costly and time-consuming, and thus recent SSL regime seems an attractive solution. In this paper, for the first time, we introduce a novel framework for semi-supervised learning of monocular depth estimation networks, using consistency regularization to mitigate the reliance on large ground-truth depth data. We propose a novel data augmentation approach, called K-way disjoint masking, which allows the network for learning how to reconstruct invisible regions so that the model not only becomes robust to perturbations but also generates globally consistent output depth maps. Experiments on the KITTI and NYU-Depth-v2 datasets demonstrate the effectiveness of each component in our pipeline, robustness to the use of fewer and fewer annotated images, and superior results compared to other state-of-the-art, semi-supervised methods for monocular depth estimation. Our code is available at https://github.com/KU-CVLAB/MaskingDepth.
翻訳日:2022-12-23 11:27:03 公開日:2022-12-22
# システムセキュリティを学ぶ

Learned Systems Security ( http://arxiv.org/abs/2212.10318v2 )

ライセンス: Link先を確認
Roei Schuster, Jin Peng Zhou, Thorsten Eisenhofer, Paul Grubbs, Nicolas Papernot(参考訳) 学習システムは内部で機械学習(ML)を使用してパフォーマンスを向上させる。 このようなシステムは、いくつかの敵対的ML攻撃に対して脆弱であることが期待できる。 多くの場合、学習されたコンポーネントは、キャッシュのようなマイクロアーキテクチャリソースのように、相互に信頼できないユーザやプロセス間で共有される。 しかし、他のMLベースのシステムに対する攻撃と比較して、攻撃者は学習モデルと直接対話できないため、間接的なレベルに直面している。 さらに、学習されたバージョンの攻撃面と、同じシステムの非学習バージョンの違いは、しばしば微妙である。 これらの要因は、MLが持つデファクトリスクを曖昧にする。 学習システムにおける潜在的攻撃面の根本原因を分析し,mlの利用に起因する脆弱性を識別するためのフレームワークを開発した。 当社のフレームワークを,アクティブな開発中の幅広い学習システムに適用する。 当社のフレームワークが抱える多くの脆弱性を実証的に検証するために,その中の3つを選択し,著名な学習システムインスタンスに対するエクスプロイトを実装し,評価する。 mlを使用することで過去のクエリがデータベースに漏洩し、インデックス構造に指数的メモリブローアップを引き起こして数秒でクラッシュする毒殺攻撃が可能となり、インデックスユーザが自身のキーに対するタイミングクエリによってお互いのキー分布をスヌープできることを示した。 敵MLは学習システムに対する普遍的な脅威であり、学習システムのセキュリティに対する理解において研究ギャップを開くことを示し、データ漏洩が学習コンポーネントが複数の当事者間で共有されているシステムに固有のものであることを指摘しながら、緩和について議論することで結論付ける。

A learned system uses machine learning (ML) internally to improve performance. We can expect such systems to be vulnerable to some adversarial-ML attacks. Often, the learned component is shared between mutually-distrusting users or processes, much like microarchitectural resources such as caches, potentially giving rise to highly-realistic attacker models. However, compared to attacks on other ML-based systems, attackers face a level of indirection as they cannot interact directly with the learned model. Additionally, the difference between the attack surface of learned and non-learned versions of the same system is often subtle. These factors obfuscate the de-facto risks that the incorporation of ML carries. We analyze the root causes of potentially-increased attack surface in learned systems and develop a framework for identifying vulnerabilities that stem from the use of ML. We apply our framework to a broad set of learned systems under active development. To empirically validate the many vulnerabilities surfaced by our framework, we choose 3 of them and implement and evaluate exploits against prominent learned-system instances. We show that the use of ML caused leakage of past queries in a database, enabled a poisoning attack that causes exponential memory blowup in an index structure and crashes it in seconds, and enabled index users to snoop on each others' key distributions by timing queries over their own keys. We find that adversarial ML is a universal threat against learned systems, point to open research gaps in our understanding of learned-systems security, and conclude by discussing mitigations, while noting that data leakage is inherent in systems whose learned component is shared between multiple parties.
翻訳日:2022-12-23 11:26:40 公開日:2022-12-22
# 深層強化学習を用いたソフトウェア定義wanのロバスト経路選択

Robust Path Selection in Software-defined WANs using Deep Reinforcement Learning ( http://arxiv.org/abs/2212.11155v2 )

ライセンス: Link先を確認
Shahrooz Pouryousef, Lixin Gao and Don Towsley(参考訳) ネットワークが新しいトラフィックマトリックスを継続的に測定し、ネットワーク内のパスの集合を更新する効率的なネットワークトラフィックエンジニアリングプロセスの文脈では、いつ、どのパスを使用するべきかを迅速かつ効率的に特定する自動化プロセスが必要である。 残念なことに、線形プログラミングを用いた最適化手法の計算複雑性は、ネットワークのサイズが大きくなるにつれて著しく増加するため、各時間間隔でネットワーク更新プロセスの最適解を求める負担が高い。 本稿では,経路計算と経路更新のオーバーヘッドを考慮したネットワーク内の経路選択を行うデータ駆動アルゴリズムを,深層強化学習を用いて導出する。 提案手法では,過去のネットワーク動作に関する情報を活用して,複数時間間隔で使用する頑健な経路の集合を同定し,ルータのフォワード動作を頻繁に更新するオーバーヘッドを回避する。 実ネットワークトポロジにまたがる広範なシミュレーションにより,提案手法を他の交通工学ソリューションと比較した。 提案手法は,ECMPなどの従来のTE方式に比べてリンク利用率を40%削減できることを示した。 提案方式は,リンク利用を最小化し,経路更新のオーバーヘッドを考慮しない方式に比べ,リンク利用率(約25%)をやや高めている。

In the context of an efficient network traffic engineering process where the network continuously measures a new traffic matrix and updates the set of paths in the network, an automated process is required to quickly and efficiently identify when and what set of paths should be used. Unfortunately, the burden of finding the optimal solution for the network updating process in each given time interval is high since the computation complexity of optimization approaches using linear programming increases significantly as the size of the network increases. In this paper, we use deep reinforcement learning to derive a data-driven algorithm that does the path selection in the network considering the overhead of route computation and path updates. Our proposed scheme leverages information about past network behavior to identify a set of robust paths to be used for multiple future time intervals to avoid the overhead of updating the forwarding behavior of routers frequently. We compare the results of our approach to other traffic engineering solutions through extensive simulations across real network topologies. Our results demonstrate that our scheme fares well by a factor of 40% with respect to reducing link utilization compared to traditional TE schemes such as ECMP. Our scheme provides a slightly higher link utilization (around 25%) compared to schemes that only minimize link utilization and do not care about path updating overhead.
翻訳日:2022-12-23 11:26:15 公開日:2022-12-22