このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。
公開日が20221229となっている論文です。
Title | Authors | Abstract | 論文公表日・翻訳日 |
---|---|---|---|
# 2光子エンタングルメントの1光子測定 One-photon measurement of two-photon entanglement ( http://arxiv.org/abs/2009.02851v2 ) ライセンス: Link先を確認 | Gabriela Barreto Lemos, Radek Lapkiewicz, Armin Hochrainer, Mayukh Lahiri, Anton Zeilinger | (参考訳) 絡み合いは量子力学の基本的な特徴であり、量子情報処理の重要な資源と考えられている。
絡み合いの測定は、幅広い応用および基礎的な量子実験において必須のステップである。
2粒子の量子状態が純粋でない場合、絡み合いを測定する標準的な方法は両方の粒子を検出する必要がある。
本研究では,2粒子混合状態の絡み合いを特徴付けるために,粒子の1つだけを検出する方法を提案する。
我々の方法は量子干渉の原理に基づいている。
2光子混合状態の同一の源を2つ使い、一光子干渉パターンを発生させる。
2光子量子状態の絡み合いは、干渉パターンの可視性によって特徴づけられる。
この実験は、絡み合いの検証と測定のための異なる方法を開き、ペア内の1つの粒子が検出できない場合でも、混合状態絡み合いのキャラクタリゼーションを可能にする。 Entanglement is a fundamental feature of quantum mechanics, considered a key resource in quantum information processing. Measuring entanglement is an essential step in a wide range of applied and foundational quantum experiments. When a two-particle quantum state is not pure, standard methods to measure the entanglement require detection of both particles. We introduce a method in which detection of only one of the particles is required to characterize the entanglement of a two-particle mixed state. Our method is based on the principle of quantum interference. We use two identical sources of a two-photon mixed state and generate a set of single-photon interference patterns. The entanglement of the two-photon quantum state is characterized by the visibility of the interference patterns. Our experiment thus opens up a distinct avenue for verifying and measuring entanglement, and can allow for mixed state entanglement characterization even when one particle in the pair cannot be detected. | 翻訳日:2023-05-03 07:30:47 公開日:2022-12-29 |
# 量子デバイス上の非古典的ロングランジ次数によるクーパーペア凝縮 Cooper-Pair Condensates with Non-Classical Long-Range Order on Quantum Devices ( http://arxiv.org/abs/2102.08960v3 ) ライセンス: Link先を確認 | LeeAnn M. Sager and David A. Mazziotti | (参考訳) 量子情報における重要な問題は、量子コンピュータ上の非古典的長距離秩序の実演である。
非古典的長距離秩序を持つ量子系の最も有名な例の1つは超伝導体である。
ここでは量子コンピュータ上で量子ビットのクーパーペアリングを行い、超伝導状態や超流動状態を表現する。
2電子還元密度行列の大きなO(N)$固有値を測定することにより、量子長値の厳密な検証を行う。
最大量子長距離秩序の実証は、量子コンピュータ上で重要な量子長距離秩序を持つ他の現象と同様に、超伝導と超流動性のより複雑なモデリングへの重要なステップである。 An important problem in quantum information is the practical demonstration of non-classical long-range order on quantum computers. One of the best known examples of a quantum system with non-classical long-range order is a superconductor. Here we achieve Cooper pairing of qubits on a quantum computer to represent superconducting or superfluid states. We rigorously confirm the quantum long-range order by measuring the large $O(N)$ eigenvalue of the two-electron reduced density matrix. The demonstration of maximal quantum long-range order is an important step towards more complex modeling of superconductivity and superfluidity as well as other phenomena with significant quantum long-range order on quantum computers. | 翻訳日:2023-04-10 23:44:30 公開日:2022-12-29 |
# 対称性と高次例外点 Symmetry and Higher-Order Exceptional Points ( http://arxiv.org/abs/2103.15729v5 ) ライセンス: Link先を確認 | Ipsita Mandal and Emil J. Bergholtz | (参考訳) 固有値と固有ベクトルが合わさった例外点(EP)は、非エルミート系のユビキタスかつユニークな特徴である。
2階のEPは、その多さのために最も研究され、通常のエルミート固有値退化を一般化するのに必要な3つのパラメータよりも少ない2つの実パラメータのチューニングしか必要としない。
高次EPは一般により微細な調整を必要とするため、あまり顕著な役割を果たさないと仮定される。
しかし, 物理的に関係する対称性によって高次EPが劇的に豊富になり, 概念的にも豊かになることを示す。
より健全に、3階のEPは、パリティ時間(PT)対称性または一般化されたカイラル対称性が存在する場合、一般に2つの実際のチューニングパラメータしか必要としない。
注目すべきことに、これらの異なる対称性は、位相的に異なるタイプのEPをもたらす。
一般の$\sim k^{1/3}=分散を持つ三階EPがPT対称性によって保護されるのに対し、$\sim k^{1/2}$分散を持つ三階EPは非エルミートリーブ格子モデルに現れるキラル対称性によって保護されることを示す。
より一般的には、対称性が保護する高次epの安定、弱、脆弱な側面を同定し、それらの共役現象論を解き明かす。 Exceptional points (EPs), at which both eigenvalues and eigenvectors coalesce, are ubiquitous and unique features of non-Hermitian systems. Second-order EPs are by far the most studied due to their abundance, requiring only the tuning of two real parameters, which is less than the three parameters needed to generically find ordinary Hermitian eigenvalue degeneracies. Higher-order EPs generically require more fine-tuning, and are thus assumed to play a much less prominent role. Here, however, we illuminate how physically relevant symmetries make higher-order EPs dramatically more abundant and conceptually richer. More saliently, third-order EPs generically require only two real tuning parameters in the presence of either a parity-time (PT) symmetry or a generalized chiral symmetry. Remarkably, we find that these different symmetries yield topologically distinct types of EPs. We illustrate our findings in simple models, and show how third-order EPs with a generic $\sim k^{1/3}$ dispersion are protected by PT symmetry, while third-order EPs with a $\sim k^{1/2}$ dispersion are protected by the chiral symmetry emerging in non-Hermitian Lieb lattice models. More generally, we identify stable, weak, and fragile aspects of symmetry-protected higher-order EPs, and tease out their concomitant phenomenology. | 翻訳日:2023-04-06 05:59:35 公開日:2022-12-29 |
# 量子ゲートの資源発生容量の相関 Correlation between resource-generating capacities of quantum gates ( http://arxiv.org/abs/2110.13839v2 ) ライセンス: Link先を確認 | Aparajita Bhattacharyya, Ahana Ghoshal, Ujjwal Sen | (参考訳) 2量子ビット系上の任意のゲートによって量子コヒーレンスの最大相対エントロピーを生成するための最適基底を解析した。
最適基底は一意ではなく、高量子コヒーレンス生成ゲートは典型的には高エンタングルメント生成ゲートであり、逆もまたである。
しかし、Haarランダムユニタリの相対周波数のプロファイルは、固定量の量子コヒーレンスに対して異なる量のエンタングルメントを生成するが、どちらもベータ分布に従っているにもかかわらず、エンタングルメントと量子コヒーレンスの役割が逆転しているものとは異なる。 We analyze the optimal basis for generating the maximum relative entropy of quantum coherence by an arbitrary gate on a two-qubit system. The optimal basis is not unique, and the high quantum coherence generating gates are also typically high entanglement generating ones and vice versa. However, the profile of the relative frequencies of Haar random unitaries generating different amounts of entanglement for a fixed amount of quantum coherence is different from the one in which the roles of entanglement and quantum coherence are reversed, although both follow the beta distribution. | 翻訳日:2023-03-10 05:34:18 公開日:2022-12-29 |
# スピン制限ans\"atzeと自動調整制約を用いた変分量子固有解法を用いた励起状態計算 Excited state calculations using variational quantum eigensolver with spin-restricted ans\"atze and automatically-adjusted constraints ( http://arxiv.org/abs/2110.14448v3 ) ライセンス: Link先を確認 | Shigeki Gocho, Hajime Nakamura, Shu Kanno, Qi Gao, Takao Kobayashi, Taichi Inagaki, and Miho Hatanaka | (参考訳) フランク・コンドン (fc) や円錐交叉 (ci) といった主要な幾何学における基底および励起状態の計算は、光物理特性を理解する上で必須である。
ノイズの多い中間スケールの量子デバイス上でこれらのジオメトリを計算するために,化学に着想を得たスピン制限型アンサッツと,自動調整制約(VQE/AC)の下での変分量子固有解器と呼ばれる新しい励起状態計算法を組み合わせた戦略を提案した。
変分量子デフレックスと呼ばれる従来の励起状態計算法とは異なり、VQE/ACは制約重みの事前決定を必要とせず、滑らかなポテンシャルエネルギー表面を記述することができる。
この戦略を検証するため, 完全活性空間自己整合場(CASSCF)レベルでエチレンおよびフェノールブルーのFCおよびCI領域における励起状態計算を行い, ibm_川崎装置上でもエネルギー誤差が少なくとも2 kcal mol$^{-1}$であったことを確認した。 The ground and excited state calculations at key geometries, such as the Frank-Condon (FC) and the conical intersection (CI) geometries, are essential for understanding photophysical properties. To compute these geometries on noisy intermediate-scale quantum devices, we proposed a strategy that combined a chemistry-inspired spin-restricted ansatz and a new excited state calculation method called the variational quantum eigensolver under automatically-adjusted constraints (VQE/AC). Unlike the conventional excited state calculation method, called the variational quantum deflation, the VQE/AC does not require the pre-determination of constraint weights and has the potential to describe smooth potential energy surfaces. To validate this strategy, we performed the excited state calculations at the FC and CI geometries of ethylene and phenol blue at the complete active space self-consistent field (CASSCF) level of theory, and found that the energy errors were at most 2 kcal mol$^{-1}$ even on the ibm_kawasaki device. | 翻訳日:2023-03-10 03:26:32 公開日:2022-12-29 |
# Enrico's Chart for Phase Noise and Two-Sample Variances の対比 The Companion of Enrico's Chart for Phase Noise and Two-Sample Variances ( http://arxiv.org/abs/2201.07109v6 ) ライセンス: Link先を確認 | Enrico Rubiola and Francois Vernotte | (参考訳) 位相雑音と周波数(in)安定性は、安定周期信号のゆらぎを幾分異なる観点から記述する。
周波数は、機械式時計の10^{-4}$から原子時計の10^{-18}$まで、関心の変動が少なくとも14桁に及んでいるという点で、他のメトロロジーの領域と比較してユニークである。
興味のある周波数範囲は、位相ノイズに対する$\mu$HzからGHz Fourier 周波数までの12~15桁であり、変動が起こる時間帯は、サブ・ユニバーム s} から分散のための何年もの統合時間までである。
このドメインは科学や技術においてユビキタスであるため、前述のさまざまな分野に適した共通言語やツールが課題である。
本論は,(1)チュートリアル,(2)フェーズノイズ,周波数ノイズ,および2サンプルのばらつきに関する最も重要な事実をまとめたレビュー,(3)"Enrico's Chart of Phase noise and Two-Sample Variances"のユーザガイドである。
グラフは、最も有用な概念、公式、プロットを単一のA4/Aサイズのシートに集めるリファレンスカードであり、これらのトピックを扱う人のデスクの主役となることを意図している。
このチャートは、Zenodo, DOI 10.5281/zenodo.4399218からCreative Commons 4.0 CC-BY-NC-NDライセンスで入手できる。
Enricoのホームページ http://rubiola.org で、たくさんの補助資料が無料で入手できる。 Phase noise and frequency (in)stability both describe the fluctuation of stable periodic signals, from somewhat different standpoints. Frequency is unique compared to other domains of metrology, in that its fluctuations of interest span at least 14 orders of magnitude, from $10^{-4}$ in a mechanical watch to $10^{-18}$ in atomic clocks. The frequency span of interest is some 12--15 orders of magnitude, from $\mu$Hz to GHz Fourier frequency for phase noise, while the time span over which the fluctuations occur ranges from sub-\unit{\mu s} to years integration time for variances. Because this domain is ubiquitous in science and technology, a common language and tools suitable to the variety mentioned are a challenge. This article is at once (1) a tutorial, (2) a review covering the most important facts about phase noise, frequency noise and two-sample (Allan and Allan-like) variances, and (3) a user guide to "Enrico's Chart of Phase Noise and Two-Sample Variances." In turn, the Chart is a reference card collecting the most useful concepts, formulas and plots in a single A4/A-size sheet, intended to be a staple on the desk of whoever works with these topics. The Chart is available under Creative Commons 4.0 CC-BY-NC-ND license from Zenodo, DOI 10.5281/zenodo.4399218. A wealth of auxiliary material is available for free on the Enrico's home page http://rubiola.org. | 翻訳日:2023-02-28 20:38:49 公開日:2022-12-29 |
# ハイパーキューブ上の量子ウォークの強い分散特性 Strong dispersion property for the quantum walk on the hypercube ( http://arxiv.org/abs/2201.11735v2 ) ライセンス: Link先を確認 | Martins Kokainis, Kri\v{s}j\=anis Pr\=usis, Jevg\=enijs Vihrovs, Vyacheslavs Kashcheyevs, Andris Ambainis | (参考訳) 次元 $n$ のブール超キューブ上の離散時間量子ウォークが強い分散特性を持つことを示す: もしウォークが一つの頂点で開始された場合、ウォークが任意の特定の頂点にある確率は、$o(n)$ の後のステップは、順序 $o(1.4818^{-n})$ である。
これは、この量子ウォークの既知の混合結果よりも改善され、$O(n)$ステップ後の確率分布は均一に近いが、全ての頂点に対して確率が小さいことを示すものではない。
この結果の厳密な証明は、ベッセル函数の解析的性質に関する複雑な議論を含む。 We show that the discrete time quantum walk on the Boolean hypercube of dimension $n$ has a strong dispersion property: if the walk is started in one vertex, then the probability of the walker being at any particular vertex after $O(n)$ steps is of an order $O(1.4818^{-n})$. This improves over the known mixing results for this quantum walk which show that the probability distribution after $O(n)$ steps is close to uniform but do not show that the probability is small for every vertex. A rigorous proof of this result involves an intricate argument about analytic properties of Bessel functions. | 翻訳日:2023-02-27 18:11:36 公開日:2022-12-29 |
# 電力グリッドに対する暗号マイニングの影響の高分解能モデリングと解析:カーボンフットプリント、信頼性、電力価格 High Resolution Modeling and Analysis of Cryptocurrency Mining's Impact on Power Grids: Carbon Footprint, Reliability, and Electricity Price ( http://arxiv.org/abs/2212.14189v1 ) ライセンス: Link先を確認 | Ali Menati, Xiangtian Zheng, Kiyeob Lee, Ranyu Shi, Pengwei Du, Chanan Singh, Le Xie | (参考訳) ブロックチェーン技術は過去10年で最も破壊的なイノベーションの1つと考えられており、セキュアな分散型信頼構築を可能にしている。
しかし近年,暗号通貨マイニングにおけるブロックチェーンベースの計算のエネルギー消費が急速に増加し,電力網の持続的運用に対する懸念が高まっている。
本稿では, テキサスグリッドの炭素フットプリント, グリッド信頼性, 電力市場価格に対する負荷の3要素的影響について検討する。
我々は,位置情報や柔軟性といった影響要因の高分解能モデリングを可能にするために,オープンソースの高分解能データをリリースする。
我々は、暗号通貨採掘負荷の1メガワットあたりの炭素フットプリントが、原油システムの平均推定値の50%まで変化可能であることを明らかにした。
鉱業負荷の柔軟性は,鉱業負荷の展開によって生じる電力不足や市場の混乱を著しく軽減できることを示した。
これらの結果から,政策立案者は大規模鉱業施設の総合市場への参入を促進するとともに,需要対応を義務付ける必要があることが示唆された。 Blockchain technologies are considered one of the most disruptive innovations of the last decade, enabling secure decentralized trust-building. However, in recent years, with the rapid increase in the energy consumption of blockchain-based computations for cryptocurrency mining, there have been growing concerns about their sustainable operation in electric grids. This paper investigates the tri-factor impact of such large loads on carbon footprint, grid reliability, and electricity market price in the Texas grid. We release open-source high-resolution data to enable high-resolution modeling of influencing factors such as location and flexibility. We reveal that the per-megawatt-hour carbon footprint of cryptocurrency mining loads across locations can vary by as much as 50% of the crude system average estimate. We show that the flexibility of mining loads can significantly mitigate power shortages and market disruptions that can result from the deployment of mining loads. These findings suggest policymakers to facilitate the participation of large mining facilities in wholesale markets and require them to provide mandatory demand response. | 翻訳日:2023-02-19 13:22:39 公開日:2022-12-29 |
# うるさいガウスボソンサンプリングの術後選択:一部は全体より優れている Post-selection in noisy Gaussian boson sampling: part is better than whole ( http://arxiv.org/abs/2205.02586v3 ) ライセンス: Link先を確認 | Tian-Yu Yang, Yi-Xin Shen, Zhou-Kai Cao, Xiang-Bin Wang | (参考訳) ガウス・ボーソンサンプリングはもともと量子線形光学素子の量子優位を示すために提案された。
近年,量子コンピューティングの優位性を示すガウスボソンサンプリングに基づくいくつかの実験的ブレークスルーが提示されている。
しかし, 技術的限界により, ガウス粒子サンプリング装置の結果は光子損失の影響を強く受けている。
本稿では,光子損失による悪影響を低減するための効率的かつ実用的な手法を提案する。
ハードウェアの変更を伴わずに、我々の基準に従って低品質データを破棄するデータ選択プロセスを採用し、最終的な計算結果の性能を改善する。
例えば、ポストセレクション法は、" ``非古典的テスト'で失敗するGBS実験を、そのテストに合格できる実験に変換することができることを示す。
現在のGBSデバイスの計算結果の堅牢性の向上に加えて、この光子損失軽減手法は、GBSベースの量子アルゴリズムのさらなる発展にも有効である。 Gaussian boson sampling is originally proposed to show quantum advantage with quantum linear optical elements. Recently, several experimental breakthroughs based on Gaussian boson sampling pointing to quantum computing supremacy have been presented. However, due to technical limitations, the outcomes of Gaussian boson sampling devices are influenced severely by photon loss. Here, we present an efficient and practical method to reduce the negative effect caused by photon loss. With no hardware modifications, our method takes the data post-selection process that discards low-quality data according to our criterion to improve the performance of the final computational results, say part is better than whole. As an example, we show that the post-selection method can turn a GBS experiment that would otherwise fail in a ``non-classical test" into one that can pass that test. Besides improving the robustness of computation results of current GBS devices, this photon loss mitigation method may also benefit the further development of GBS-based quantum algorithms. | 翻訳日:2023-02-14 06:19:05 公開日:2022-12-29 |
# 量子機械学習を用いたブラックホールからの情報検索 Retrieving information from a black hole using quantum machine learning ( http://arxiv.org/abs/2206.06385v3 ) ライセンス: Link先を確認 | Lorenzo Leone, Salvatore F.E. Oliviero, Stefano Piemontese, Sarah True and Alioscia Hamma | (参考訳) 論文[jhep09(2007)120]において、ヘイデンとプレススキルは、レトリバーが放出されたホーキング放射の完全な制御とブラックホールの内部ダイナミクスの完全な知識を持っていると仮定して、十分にスクランブルなブラックホールから情報を取得することができることを示した。
本稿では,非クリフォード資源量$t$のランダムなクリフォード回路でモデル化されたブラックホールを$t-$ドープしたクリフォードブラックホールに対して,時間外相関関数のみにアクセスしながら,量子機械学習を用いて情報検索デコーダを$\exp(-\alpha t)$とすることで学習可能であることを示す。
学習可能性と非学習可能性の交差は、ブラックホールに存在する非安定化性の量によって引き起こされ、量子複雑性に対する異なるアプローチをスケッチする。 In a seminal paper[JHEP09(2007)120], Hayden and Preskill showed that information can be retrieved from a black hole that is sufficiently scrambling, assuming that the retriever has perfect control of the emitted Hawking radiation and perfect knowledge of the internal dynamics of the black hole. In this paper, we show that for $t-$doped Clifford black holes - that is, black holes modeled by random Clifford circuits doped with an amount $t$ of non-Clifford resources - an information retrieval decoder can be learned with fidelity scaling as $\exp(-\alpha t)$ using quantum machine learning while having access only to out-of-time-order correlation functions. We show that the crossover between learnability and non-learnability is driven by the amount of non-stabilizerness present in the black hole and sketch a different approach to quantum complexity. | 翻訳日:2023-02-09 12:29:21 公開日:2022-12-29 |
# 一般化不確実性原理の起源としての修正エントロピー Modified entropies as the origin of generalized uncertainty principles ( http://arxiv.org/abs/2206.14166v2 ) ライセンス: Link先を確認 | Nana Cabo Bizet, Octavio Obreg\'on and Wilfredo Yupanqui | (参考訳) ハイゼンベルクの不確実性原理はエントロピーの不確実性原理と結びついていることが知られている。
この対応はシャノンエントロピーに関連する波動関数に対するガウス確率分布を用いて得られる。
独立に、量子重力効果により、ハイゼンベルクの不確実性原理は一般化不確実性原理(GUP)へと拡張された。
本研究は, GUPが非集中的エントロピーから派生したものであることを示す。
その結果,$S_{+}$および$S_-$エントロピーの変形パラメータはそれぞれ負と正であることがわかった。
これにより、物理的な意味を探索する様々な可能性を探ることができる。
非拡張統計は量子重力のシグネチャを構成すると結論づける。 The Heisenberg uncertainty principle is known to be connected to the entropic uncertainty principle. This correspondence is obtained employing a Gaussian probability distribution for wave functions associated to the Shannon entropy. Independently, due to quantum gravity effects the Heisenberg uncertainty principle has been extended to a Generalized Uncertainty Principle (GUP). In this work, we show that GUP has been derived from considering non-extensive entropies, proposed by one of us. We found that the deformation parameters associated with $S_{+}$ and $S_-$ entropies are negative and positive respectively. This allows us to explore various possibilities in the search of physical implications. We conclude that non-extensive statistics constitutes a signature of quantum gravity. | 翻訳日:2023-02-07 10:04:40 公開日:2022-12-29 |
# 美術の意味理解の自動化に向けて:モンドリアンの美術作品の計算解析への応用 Inching Towards Automated Understanding of the Meaning of Art: An Application to Computational Analysis of Mondrian's Artwork ( http://arxiv.org/abs/2302.00594v1 ) ライセンス: Link先を確認 | Alex Doboli, Mahan Agha Zahedi, Niloofar Gholamrezaei | (参考訳) ディープニューラルネットワーク(DNN)はデジタルイメージの分類に成功しているが、アートワークの画像のような視覚化された特徴の線形結合ではない意味を持つイメージの分類に成功していない。
さらに、DNNにどんな機能を追加する必要があるかは不明で、色、サイズ、フォームなどの視覚的に表示された機能以外の機能を使用することができる。
非表示機能は抽象表現、推論、曖昧な表現の理解において重要である。
本稿では,DNNの現在の制限であるセマンティック処理に関連する機能を特定することを試みる。
提案手法は,モンドリアン絵画の理解過程と電子回路設計の理解過程を比較することで,その欠点を識別する。
比較対象は認知活動を緩やかに模倣しようとする認知アーキテクチャである。
本稿では,目標,概念,アイデア,ルール,手順,信念,期待,成果といった,アーキテクチャコンポーネントの特徴を詳細に紹介する。
本手法の有用性を説明するために,モンドリアンの絵画を他の美術品と区別する新しい3段階の計算手法について論じる。
この方法は、利用可能なデータの特徴のみで機能する認知アーキテクチャのコンポーネントを後方に含む。 Deep Neural Networks (DNNs) have been successfully used in classifying digital images but have been less successful in classifying images with meanings that are not linear combinations of their visualized features, like images of artwork. Moreover, it is unknown what additional features must be included into DNNs, so that they can possibly classify using features beyond visually displayed features, like color, size, and form. Non-displayed features are important in abstract representations, reasoning, and understanding ambiguous expressions, which are arguably topics less studied by current AI methods. This paper attempts to identify capabilities that are related to semantic processing, a current limitation of DNNs. The proposed methodology identifies the missing capabilities by comparing the process of understanding Mondrian's paintings with the process of understanding electronic circuit designs, another creative problem solving instance. The compared entities are cognitive architectures that attempt to loosely mimic cognitive activities. The paper offers a detailed presentation of the characteristics of the architectural components, like goals, concepts, ideas, rules, procedures, beliefs, expectations, and outcomes. To explain the usefulness of the methodology, the paper discusses a new, three-step computational method to distinguish Mondrian's paintings from other artwork. The method includes in a backward order the cognitive architecture's components that operate only with the characteristics of the available data. | 翻訳日:2023-02-05 04:19:20 公開日:2022-12-29 |
# 非相対論的かつ非定常有効質量束縛スペクトル解析 : 点正準形式による二乗級三角ポテンシャル Nonrelativistic and Nonstationary Effective Mass Bound-Spectra Analysis of Squared Class Trigonometric Potentials Through the Point Canonical Formalism ( http://arxiv.org/abs/2208.07875v3 ) ライセンス: Link先を確認 | Metin Akta\c{s} | (参考訳) 本稿では,様々な正方形形状の三角ポテンシャルに対する位置依存効用質量 (PDEM) Schr\"odinger 方程式の正確な解析的固有解を得るための特別な試みを行う。
点正準変換(PCT)と呼ばれる代数的プロセスは、研究の過程で実装される。
空間的に異なる有効質量配置が標的系の構築に利用されている。
次に、系統的な計算手順を行うことで、離散エネルギースペクトルとそれに対応する波動関数の両方の明示的な形式だけでなく、pdemベースの量子システムの枠組みにかかわる元のポテンシャルの正準対応する形式を決定できる。 The present paper engages in a particular attempt to acquire exact analytical eigensolutions of the position-dependent effective mass (PDEM) Schr\"odinger equation for a variety of squared style trigonometric potentials. The algebraic process entitled as the point canonical transformation (PCT) approach is implemented in the course of study. Certain spatially varying effective mass configurations have been utilized in establishing of the target system. Then, performing the systematic computational procedures enables us to determine not only the possible explicit forms of both discrete energy spectra and their corresponding wavefunctions but also canonical counterparts of original potentials, involved in the framework of PDEM based quantum systems. | 翻訳日:2023-01-30 22:44:57 公開日:2022-12-29 |
# 多パラメータ乱数状態の絡み合いダイナミクス:単一パラメトリック定式化 Entanglement dynamics of multi-parametric random states: a single parametric formulation ( http://arxiv.org/abs/2208.12087v3 ) ライセンス: Link先を確認 | Devanshu Shekhar and Pragya Shukla | (参考訳) 多くの体系の非エルゴード量子状態は一般にランダムであり、前者は複雑さによる正確な情報の欠如と、後者はヒルベルト空間の異なる部分における様々な振る舞いを反映しているため、多パラメトリックである。
そのような状態の還元密度行列の適切な表現は、単位トレースを持つ一般化されたマルチパラメトリックウィッシュアートアンサンブルである。
これらのアンサンブルの理論的分析は、一般的な状態の平均情報エントロピーの成長率に関する論争を解決するだけでなく、その絡み合いのダイナミクスにおける新たな洞察をもたらす。
状態そのものは多パラメータであるが、平均測度の成長は、複雑性パラメータと呼ばれる情報理論関数によって説明できる。
後者は、幅広い状態に対する測度の一般的な数学的定式化につながり、異なるシステムの絡み合った状態の階層的配置の可能なツールとしても機能する。 A non-ergodic quantum state of a many body system is in general random as well as multi-parametric, former due to a lack of exact information due to complexity and latter reflecting its varied behavior in different parts of the Hilbert space. An appropriate representation for the reduced density matrix of such a state is a generalized, multi-parametric Wishart ensemble with unit trace. Our theoretical analysis of these ensembles not only resolves the controversy about the growth rates of the average information entropies of the generic states but also leads to new insights in their entanglement dynamics. While the state itself is multi-parametric, we find that the growth of the average measures can be described in terms of an information-theoretic function, referred as the complexity parameter. The latter in turn leads to a common mathematical formulation of the measures for a wide range of states; it could also act as a possible tool for hierarchical arrangement of the entangled states of different systems. | 翻訳日:2023-01-29 21:13:58 公開日:2022-12-29 |
# スパイクポリシーネットワークにおける遺伝的アルゴリズムによる重みではなくシナプス接続のチューニング Tuning Synaptic Connections instead of Weights by Genetic Algorithm in Spiking Policy Network ( http://arxiv.org/abs/2301.10292v1 ) ライセンス: Link先を確認 | Duzhen Zhang, Tielin Zhang, Shuncheng Jia, Qingyu Wang, Bo Xu | (参考訳) 相互作用から学ぶことは、生物学的エージェントが環境とそれ自身について知る主要な方法である。
現代の深層強化学習(DRL)は相互作用から学習する計算手法を探求し、様々な課題の解決に大きく進歩した。
しかし、強力なDRLはエネルギー効率の生物学的作用には程遠い。
メカニズムは十分には分かっていないが、神経細胞間のスパイキングコミュニケーションと生物学的に可塑性が組み合わさっていることが重要な役割を担っていると信じている。
この生物学的直観に続いて、DRLのエネルギー効率の代替として遺伝的アルゴリズムによるスパイキングポリシーネットワーク(SPN)を最適化する。
spnは昆虫の感覚運動ニューロン経路を模倣し、イベントベースのスパイクを介して伝達する。
生物学的研究により、脳は新たなシナプス接続を形成して記憶を形成し、これらの接続を新しい経験に基づいて再接続することで、与えられたタスクを解決するためにSPNの重みの代わりにシナプス接続を調整する。
いくつかのロボット制御タスクの実験結果から,本手法はDRL法の性能レベルを達成でき,エネルギー効率が著しく向上することが示された。 Learning from the interaction is the primary way biological agents know about the environment and themselves. Modern deep reinforcement learning (DRL) explores a computational approach to learning from interaction and has significantly progressed in solving various tasks. However, the powerful DRL is still far from biological agents in energy efficiency. Although the underlying mechanisms are not fully understood, we believe that the integration of spiking communication between neurons and biologically-plausible synaptic plasticity plays a prominent role. Following this biological intuition, we optimize a spiking policy network (SPN) by a genetic algorithm as an energy-efficient alternative to DRL. Our SPN mimics the sensorimotor neuron pathway of insects and communicates through event-based spikes. Inspired by biological research that the brain forms memories by forming new synaptic connections and rewires these connections based on new experiences, we tune the synaptic connections instead of weights in SPN to solve given tasks. Experimental results on several robotic control tasks show that our method can achieve the performance level of mainstream DRL methods and exhibit significantly higher energy efficiency. | 翻訳日:2023-01-29 13:21:23 公開日:2022-12-29 |
# 変分量子固有解法における電子ハミルトニアンの量子測定最適化のための流体フェルミオンフラグメント Fluid fermionic fragments for optimizing quantum measurements of electronic Hamiltonians in the variational quantum eigensolver ( http://arxiv.org/abs/2208.14490v3 ) ライセンス: Link先を確認 | Seonghoon Choi, Ignacio Loaiza, and Artur F. Izmaylov | (参考訳) 分子電子ハミルトニアンの期待値を測定することは、変分量子固有解法の難しい部分の1つである。
広く用いられる戦略は、ハミルトニアンをフェルミオン作用素代数を用いて測定可能な断片の和として表現することである。
このような断片は、エラー軽減に使用できる分子対称性を保存する利点がある。
ハミルトンの期待値を得るのに必要な測定値は、フラグメント分散の和に比例する。
本稿では,フラグメントの形状の柔軟性を利用してフラグメントの分散を小さくする新しい手法を提案する。
占有数演算子の等長性のため、2電子フラグメントの一部が1電子フラグメントに変換され、純粋な1電子フラグメントに部分的に収集される。
この再分割はハミルトニアンの期待値には影響しないが、各断片の分散に対する非破壊的な寄与がある。
量子波動関数に対する古典的効率のよいプロキシを用いて推定した分散を用いて最適再分割を求める。
いくつかの分子の数値実験により、1電子項の分割は1桁以上の測定数を減少させることが示された。 Measuring the expectation value of the molecular electronic Hamiltonian is one of the challenging parts of the variational quantum eigensolver. A widely used strategy is to express the Hamiltonian as a sum of measurable fragments using fermionic operator algebra. Such fragments have an advantage of conserving molecular symmetries that can be used for error mitigation. The number of measurements required to obtain the Hamiltonian expectation value is proportional to a sum of fragment variances. Here, we introduce a new method for lowering the fragments' variances by exploiting flexibility in the fragments' form. Due to idempotency of the occupation number operators, some parts of two-electron fragments can be turned into one-electron fragments, which then can be partially collected in a purely one-electron fragment. This repartitioning does not affect the expectation value of the Hamiltonian but has non-vanishing contributions to the variance of each fragment. The proposed method finds the optimal repartitioning by employing variances estimated using a classically efficient proxy for the quantum wavefunction. Numerical tests on several molecules show that repartitioning of one-electron terms lowers the number of measurements by more than an order of magnitude. | 翻訳日:2023-01-28 11:33:12 公開日:2022-12-29 |
# セルネットワークにおけるハンドオーバパラメータ設定のための隣接自己グループグラフニューラルネットワーク Neighbor Auto-Grouping Graph Neural Networks for Handover Parameter Configuration in Cellular Network ( http://arxiv.org/abs/2301.03412v1 ) ライセンス: Link先を確認 | Mehrtash Mehrabi, Walid Masoudimansour, Yingxue Zhang, Jie Chuai, Zhitang Chen, Mark Coates, Jianye Hao and Yanhui Geng | (参考訳) セルラーネットワークによって実現される移動通信は、現代社会の主要な基盤の1つである。
セルラーネットワークの性能を最適化し、カバー範囲とユーザエクスペリエンスを改善した大規模な接続を提供することは、私たちの日常生活に大きな社会的・経済的影響を与える。
この性能はネットワークパラメータの設定に大きく依存する。
しかし,セルラーネットワークの規模と複雑さの増大に伴い,ネットワーク管理,特にパラメータ構成が複雑化している。
現在のプラクティスは、主に専門家の事前知識に依存しているが、不十分であり、多くのドメインエキスパートと高いメンテナンスコストを必要とする。
本研究では,ハンドオーバパラメータ設定のための学習ベースのフレームワークを提案する。
この場合の重要な課題は、隣接するセル間の複雑な依存関係に取り組み、ネットワーク全体を共同で最適化することだ。
私たちのフレームワークは、この課題を2つの方法で解決します。
まず、ネットワークが異なるネットワーク状態とパラメータ値にどのように反応するかを模倣する新しいアプローチを、自動グループグラフ畳み込みネットワーク(AG-GCN)と呼ぶ。
パラメータ設定段階では、グローバル最適化問題を解決する代わりに、各セルが自身のパフォーマンスと隣り合わせのバランスをとるために、複数のローカルパフォーマンスメトリクスを考慮するローカルマルチ目的最適化戦略を設計する。
実ネットワークデータを用いて構築したシミュレータを用いて提案アルゴリズムの評価を行った。
我々のモデルが発見できるハンドオーバパラメータは、専門家が推奨するものよりも平均的なネットワークスループットを向上し、ネットワーク品質と安定性を向上できる代替のベースラインであることを示す。
それは、人間の専門家の介入とメンテナンスから生じるコストを大幅に削減する可能性がある。 The mobile communication enabled by cellular networks is the one of the main foundations of our modern society. Optimizing the performance of cellular networks and providing massive connectivity with improved coverage and user experience has a considerable social and economic impact on our daily life. This performance relies heavily on the configuration of the network parameters. However, with the massive increase in both the size and complexity of cellular networks, network management, especially parameter configuration, is becoming complicated. The current practice, which relies largely on experts' prior knowledge, is not adequate and will require lots of domain experts and high maintenance costs. In this work, we propose a learning-based framework for handover parameter configuration. The key challenge, in this case, is to tackle the complicated dependencies between neighboring cells and jointly optimize the whole network. Our framework addresses this challenge in two ways. First, we introduce a novel approach to imitate how the network responds to different network states and parameter values, called auto-grouping graph convolutional network (AG-GCN). During the parameter configuration stage, instead of solving the global optimization problem, we design a local multi-objective optimization strategy where each cell considers several local performance metrics to balance its own performance and its neighbors. We evaluate our proposed algorithm via a simulator constructed using real network data. We demonstrate that the handover parameters our model can find, achieve better average network throughput compared to those recommended by experts as well as alternative baselines, which can bring better network quality and stability. It has the potential to massively reduce costs arising from human expert intervention and maintenance. | 翻訳日:2023-01-15 23:06:40 公開日:2022-12-29 |
# 量子力学における表現自由形式性について On the representation-free formalism in quantum mechanics ( http://arxiv.org/abs/2212.10597v4 ) ライセンス: Link先を確認 | V. D. Efros | (参考訳) 量子力学において表現自由な考慮を行うために、ブラケット形式は通常適用される。
このような配慮を促進するツールは、この形式によって提供される。
同時に、この形式主義には曖昧さや不便さがない。
これに対し、この形式主義の実質的な欠点は双対空間的アプローチに基づいていることであるが、ほとんどの場合、より単純で自然な一空間的記述を用いるのが好ましい。
この目的のために、一空間記述の枠組みにおける表現自由スキームを本研究で構築する。
さらに、このスキームは双対空間の図にも適合するように再解釈されるが、これは双対空間の記述がいくつかの重要な目的のためにいまだに必要であるためである。
ブラケット形式(bra-ket formalism)の利点と欠点を事前に論じる。
このスキームはブラケットスキームの欠点がなく、同時にブラケットスキームによって提供される量子力学的表現フリーな考慮を実行するためのすべてのツールを提供する。 To conduct representation-free considerations in quantum mechanics,the bra-ket formalism is normally applied. Tools that facilitate such considerations are provided by this formalism. At the same time, this formalism is not free of ambiguities and inconveniences. Irrespective to this, a substantial disadvantage of this formalism is that it is based on the dual-space approach whereas in most of the cases it would be preferable to employ the more straightforward and natural one-space description. To this aim, a representation-free scheme in the framework of the one-space description is constructed in the present work. Furthermore, this scheme is reinterpreted in a way that it fits the dual-space picture as well.This is done since the dual-space description is still needed for some important purposes. Preliminarily the advantages and drawbacks of the bra-ket formalism are discussed. The present scheme is free of the drawbacks of the bra-ket scheme and, at the same time, it offers all the tools to perform quantum mechanical representation-free considerations which are provided by the bra-ket scheme. | 翻訳日:2023-01-09 08:08:52 公開日:2022-12-29 |
# 高熱力学的安定性を持つコバルト系磁性ワイル金属 Cobalt-Based Magnetic Weyl Semimetals with High-Thermodynamic Stabilities ( http://arxiv.org/abs/2212.14335v1 ) ライセンス: Link先を確認 | Wei Luo, Yuma Nakamura, Jinseon Park and Mina Yoon | (参考訳) 実験では、Co3Sn2S2を最初の磁性ワイル半金属(MWSM)と同定した。
大域的最適化手法による第一原理計算を用いて、コバルト(Co基スハンディトおよび合金、Co3MM-X2(M/M-=Ge, Sn, Pb, X=S, Se, Te)の構造安定性とトポロジカル電子特性を調べ、新しいワイル相を持つ新しい安定構造を同定する。
タイト結合モデルを用いて初めて,co基シャンダイト構造のノダル線の起源は,異なるカゴメ層中のco原子間の層間カップリングであり,ワイル点の数とその種類は,主にco原子,sn,ge,pbの相互作用によって制御されていることを明らかにした。
Co3SnPbS2 合金は、Sn と Pb 原子の相対的な位置に依存する2つの特徴的な位相相を示す:3次元量子異常ホール金属と、Co2Sn2S2 よりも大きい異常ホール伝導率 (~1290) のMWSM相である。
本研究は,Co系shandite構造におけるWeylフェルミオン発生の物理的メカニズムを明らかにし,熱安定性の高い新しいトポロジカル量子状態を提案する。 Experiments identified Co3Sn2S2 as the first magnetic Weyl semimetal (MWSM). Using first-principles calculation with a global optimization approach, we explore the structural stabilities and topological electronic properties of cobalt (Co-based shandite and alloys, Co3MM-X2 (M/M-=Ge, Sn, Pb, X=S, Se, Te), and identify new stable structures with new Weyl phases. Using a tight-binding model, for the first time, we reveal that the physical origin of the nodal lines of a Co-based shandite structure is the interlayer coupling between Co atoms in different Kagome layers, while the number of Weyl points and their types are mainly governed by the interaction between Co and the metal atoms, Sn, Ge, and Pb. The Co3SnPbS2 alloy exhibits two distinguished topological phases, depending on the relative positions of the Sn and Pb atoms: a three-dimensional quantum anomalous Hall metal, and a MWSM phase with anomalous Hall conductivity (~1290) that is larger than that of Co2Sn2S2. Our work reveals the physical mechanism of the origination of Weyl fermions in Co-based shandite structures and proposes new topological quantum states with high thermal stability. | 翻訳日:2023-01-09 04:15:58 公開日:2022-12-29 |
# モデルハミルトニアンからのフェルミオンとエキシトンの同時凝縮 Simultaneous fermion and exciton condensations from a model Hamiltonian ( http://arxiv.org/abs/2301.00670v1 ) ライセンス: Link先を確認 | LeeAnn M. Sager and David A. Mazziotti | (参考訳) フェルミオンペア(すなわち超伝導)とエキシトン凝縮が1つのコヒーレント量子状態において同時に起こるフェルミオン凝縮は、最近は存在すると推測されている。
ここでは、この高相関の強い凝縮現象の新しいクラスの物理を再現できるモデルハミルトンによるフェルミオン・エキシトン凝縮を捉える。
粒子数が増加する一連の状態に対して、ハミルトニアンがフェルミオン対とエキシトン凝縮の大きな固有値符号を生成することを示した。
その結果,熱力学的限界で予測されたフェルミオン対とエキシトン波関数の絡み合いから,二重凝縮波関数が生じることを確認した。
このモデルハミルトニアン(超伝導または励起子凝縮のモデルハミルトニアン)は、様々な凝縮挙動を探索することができる。
これはフェルミオン・エキシトン凝縮物を生成するために必要な力に関する重要な洞察を与えており、これは超伝導体からエキシトン材料への応用で現実的な材料でそのような凝縮を実現するのに有用であろう。 Fermion-exciton condensation in which both fermion-pair (i.e., superconductivity) and exciton condensations occur simultaneously in a single coherent quantum state has recently been conjectured to exist. Here, we capture the fermion-exciton condensation through a model Hamiltonian that can recreate the physics of this new class of highly correlated condensation phenomena. We demonstrate that the Hamiltonian generates the large-eigenvalue signatures of fermion-pair and exciton condensations for a series of states with increasing particle numbers. The results confirm that the dual-condensate wave function arises from the entanglement of fermion-pair and exciton wave functions, which we previously predicted in the thermodynamic limit. This model Hamiltonian -- generalizing well-known model Hamiltonians for either superconductivity or exciton condensation -- can explore a wide variety of condensation behavior. It provides significant insights into the required forces for generating a fermion-exciton condensate, which will likely be invaluable for realizing such condensations in realistic materials with applications from superconductors to excitonic materials. | 翻訳日:2023-01-09 04:05:45 公開日:2022-12-29 |
# 機械学習による量子多電子問題を2電子に還元する Reducing the Quantum Many-electron Problem to Two Electrons with Machine Learning ( http://arxiv.org/abs/2301.00672v1 ) ライセンス: Link先を確認 | LeeAnn M. Sager-Smith and David A. Mazziotti | (参考訳) 化学計算における顕著な課題は多電子問題であり、計算方法論はシステムサイズに制限的にスケールする。
任意の分子のエネルギーは、2電子計算のみから計算可能な2電子波動関数のエネルギーの重み付け和として表現することができる。
この拡張された「aufbau」原理の物理的優雅さにもかかわらず、一般分子系に対する重みの分布(ジェミナル職業)の決定はいまだに解明されていない。
本稿では、畳み込みニューラルネットワークによる近似ゲミナル占有分布を'learned'とする電子構造の新しいパラダイムを提案する。
ニューラルネットワークは$N$-representability条件を学習し,その分布に制約を加えて$N$-電子系を表現する。
2-7炭素原子しか持たない炭化水素異性体を訓練することにより、オクタンの異性体と8-15炭素の炭化水素のエネルギーを予測することができる。
本研究は、機械学習が多電子問題を効果的に2電子問題に還元し、電子構造を正確に予測する新たな機会を開くことを実証する。 An outstanding challenge in chemical computation is the many-electron problem where computational methodologies scale prohibitively with system size. The energy of any molecule can be expressed as a weighted sum of the energies of two-electron wave functions that are computable from only a two-electron calculation. Despite the physical elegance of this extended ``aufbau'' principle, the determination of the distribution of weights -- geminal occupations -- for general molecular systems has remained elusive. Here we introduce a new paradigm for electronic structure where approximate geminal-occupation distributions are ``learned'' via a convolutional neural network. We show that the neural network learns the $N$-representability conditions, constraints on the distribution for it to represent an $N$-electron system. By training on hydrocarbon isomers with only 2-7 carbon atoms, we are able to predict the energies for isomers of octane as well as hydrocarbons with 8-15 carbons. The present work demonstrates that machine learning can be used to reduce the many-electron problem to an effective two-electron problem, opening new opportunities for accurately predicting electronic structure. | 翻訳日:2023-01-09 04:05:22 公開日:2022-12-29 |
# 同時フェルミオンとエキシトン凝縮の絡み合った位相が実現した Entangled phase of simultaneous fermion and exciton condensations realized ( http://arxiv.org/abs/2301.01626v1 ) ライセンス: Link先を確認 | LeeAnn M. Sager and David A. Mazziotti | (参考訳) フェルミオン・エクシトン凝縮(fermion-exciton condensates、fecs)は、超伝導状態と励起子凝縮の特性を同時に表わす計算的および理論的に予測された状態であり、超伝導のハイブリッド化と散逸のないエネルギーの流れを伴う。
ここでは、超伝導状態の先行調査と量子デバイスへの励起子凝縮を利用して、個々の凝縮状態の波動関数を絡む調整可能な量子状態の準備を同定する。
この状態準備を利用すると、量子コンピュータ上の様々なFEC状態 -- 電流、雑音、中間スケールの量子デバイス上で強く相関したFEC状態を実現する -- を準備し、測定後解析により二重凝縮体の存在を検証する。
この予測された量子デバイス上の凝縮状態の確認と波動関数の形式は、FECの特性、応用、安定性のさらなる理論的および実験的探索を動機付けている。 Fermion-exciton condensates (FECs) -- computationally and theoretically predicted states that simultaneously exhibit the character of superconducting states and exciton condensates -- are novel quantum states whose properties may involve a hybridization of superconductivity and the dissipationless flow of energy. Here, we exploit prior investigations of superconducting states and exciton condensates on quantum devices to identify a tuneable quantum state preparation entangling the wave functions of the individual condensate states. Utilizing this state preparation, we prepare a variety of FEC states on quantum computers -- realizing strongly correlated FEC states on current, noisy intermediate-scale quantum devices -- and verify the presence of the dual condensate via postmeasurement analysis. This confirmation of the previously predicted condensate state on quantum devices as well as the form of its wave function motivates further theoretical and experimental exploration of the properties, applications, and stability of FECs. | 翻訳日:2023-01-09 04:05:03 公開日:2022-12-29 |
# MnBi2Te4薄膜の磁気及びトポロジー特性の非揮発性電気制御 Non-volatile Electric Control of Magnetic and Topological Properties of MnBi2Te4 Thin Films ( http://arxiv.org/abs/2212.14331v1 ) ライセンス: Link先を確認 | Wei Luo, Mao-Hua Du, Fernando A. Reboredo and Mina Yoon | (参考訳) 本稿では,TQMの磁気特性を磁気的結合を用いて制御する機構を提案する。この機構は,2次元(2次元)強誘電体をもつTQMのヘテロ構造を用いて,強誘電体の偏極を変化させて動的に磁気秩序を制御し,トポロジカル相転移を誘導する。
この概念は、強誘電体in2se3またはin2te3上の二層mnbi2te4の例を用いて示され、2d強誘電体の偏光方向が界面バンドアライメントと電荷移動の方向を決定する。
この電荷移動はmnbi2te4の強磁性状態の安定性を高め、量子異常ホール(qah)効果とゼロプラトーqahの間の位相相転移を引き起こす。
我々の研究は、TQMの磁場秩序を動的に変化させる経路を提供し、新しい多機能トポロジカルなヘテロ構造の発見につながる可能性がある。 In this letter, we propose a mechanism to control the magnetic properties of topological quantum material (TQM) by using magnetoelectric coupling: this mechanism uses a heterostructure of TQM with two-dimensional (2D) ferroelectric material, which can dynamically control the magnetic order by changing the polarization of the ferroelectric material and induce possible topological phase transitions. This concept is demonstrated using the example of the bilayer MnBi2Te4 on ferroelectric In2Se3 or In2Te3, where the polarization direction of the 2D ferroelectrics determines the interfacial band alignment and consequently the direction of the charge transfer. This charge transfer, in turn, enhances the stability of the ferromagnetic state of MnBi2Te4 and leads to a possible topological phase transition between the quantum anomalous Hall (QAH) effect and the zero plateau QAH. Our work provides a route to dynamically alter the magnetic ordering of TQMs and could lead to the discovery of new multifunctional topological heterostructures. | 翻訳日:2023-01-09 04:04:01 公開日:2022-12-29 |
# 乱れた量子スピン鎖のフォック空間上の確率輸送 Probability transport on the Fock space of a disordered quantum spin chain ( http://arxiv.org/abs/2212.14333v1 ) ライセンス: Link先を確認 | Isabel Creed, David E. Logan, and Sthitadhi Roy | (参考訳) 乱れた量子多体系の力学を理解するという広いテーマの中で、最も単純な疑問の1つは、初期状態が与えられたら、その確率の分布の観点から、関連するフォック空間グラフ上でどのように時間的に進化するのか?
ここでは、平衡外乱量子状態とフォック空間上の確率輸送の時間的進化の詳細な定量的記述が中心的目的である。
障害駆動多体局在遷移をホストする乱れ量子スピンチェーンの文脈でこれを検討する。
リアルタイム力学/確率輸送は、エルゴード相と多体局在相とで顕著に異なる、豊富な現象論を示す。
このダイナミクスは、例えば、両方の相の中間時間において強い不均一性を持つが、エルゴード相の長い時間における同次性に道を譲る一方で、局所化相の任意の長い時間において自然界において不均一かつ多重フラクタルである。
同様に、フォック空間グラフ上の適切に定義された動的長さスケールは、局所スピン自己相関に直接関係しており、エルゴード相における自己相関の(異常な)崩壊と局所化相におけるそれの欠如に光を当てている。 Within the broad theme of understanding the dynamics of disordered quantum many-body systems, one of the simplest questions one can ask is: given an initial state, how does it evolve in time on the associated Fock-space graph, in terms of the distribution of probabilities thereon? A detailed quantitative description of the temporal evolution of out-of-equilibrium disordered quantum states and probability transport on the Fock space, is our central aim here. We investigate it in the context of a disordered quantum spin chain which hosts a disorder-driven many-body localisation transition. Real-time dynamics/probability transport is shown to exhibit a rich phenomenology, which is markedly different between the ergodic and many-body localised phases. The dynamics is for example found to be strongly inhomogeneous at intermediate times in both phases, but while it gives way to homogeneity at long times in the ergodic phase, the dynamics remain inhomogeneous and multifractal in nature for arbitrarily long times in the localised phase. Similarly, we show that an appropriately defined dynamical lengthscale on the Fock-space graph is directly related to the local spin-autocorrelation, and as such sheds light on the (anomalous) decay of the autocorrelation in the ergodic phase, and lack of it in the localised phase. | 翻訳日:2023-01-09 03:57:44 公開日:2022-12-29 |
# 密度行列補正と密度汎関数理論の比較 Comparison of Density-Matrix Corrections to Density Functional Theory ( http://arxiv.org/abs/2212.14369v1 ) ライセンス: Link先を確認 | Daniel Gibney, Jan-Niklas Boyn and David A. Mazziotti | (参考訳) 密度汎関数理論(DFT)は、計算化学において最も広く用いられる手法の一つで、静的に相関した電子を持つ系を記述することができない。
この欠点に対処するため、DFT を2次1電子還元密度行列 (1-RDMFT) 補正を含む一電子還元密度行列理論 (1-RDMFT) に変換する。
ここでは、1-RDMFTアプローチを異なるDFT関数とHartree-Fockと組み合わせ、基礎となる機能選択へのメソッドの依存を解明する。
さらに,情報密度行列汎関数理論 (iDMFT) をHartree-Fock法に代えて,密度汎関数をHartree-Fock関数の代わりに組み込むことにより一般化した。
我々は、iDMFTを数学的に我々のアプローチに関連付け、その2つを共通の機能セットとシステムでベンチマークする。 Density functional theory (DFT), one of the most widely utilized methods available to computational chemistry, fails to describe systems with statically correlated electrons. To address this shortcoming, in previous work we transformed DFT into a one-electron reduced density matrix theory (1-RDMFT) via the inclusion of a quadratic one-electron reduced density matrix (1-RDM) correction. Here, we combine our 1-RDMFT approach with different DFT functionals as well as Hartree-Fock to elucidate the method's dependence on the underlying functional selection. Furthermore, we generalize the information density matrix functional theory (iDMFT), recently developed as a correction to the Hartree-Fock method, by incorporating density functionals in place of the Hartree-Fock functional. We relate iDMFT mathematically to our approach and benchmark the two with a common set of functionals and systems. | 翻訳日:2023-01-09 03:57:21 公開日:2022-12-29 |
# 絡み合ったフェルミオンペアと励起子凝縮を示すモデルハミルトンの量子相転移 Quantum Phase Transitions in a Model Hamiltonian Exhibiting Entangled Simultaneous Fermion-Pair and Exciton Condensations ( http://arxiv.org/abs/2212.14378v1 ) ライセンス: Link先を確認 | Samuel Warren, LeeAnn M. Sager-Smith and David A. Mazziotti | (参考訳) フェルミオンペアと励起子凝縮が同時に存在する新しいボース・アインシュタイン凝縮系の量子状態は、近年、モデルハミルトン系で理論的に実現されている。
ここでは、基底状態2粒子還元密度行列(2-rdms)の凸集合の幾何学的解析に基づいて、フェルミオンペアと励起子凝縮の間の量子相転移を同定する。
2-RDM集合は、ハミルトニアンの無限パラメータ空間の有限表現を提供し、フェルミオン対凝縮相と2つの異なる励起子凝縮相を容易に明らかにし、また系の粒子数が増加するにつれて一階および二階相転移が出現する。
さらに、フェルミオン・エクシトン凝縮(FEC)がエキシトンとフェルミオン・ペア凝縮相の間の2階相転移に沿っていることを示す。
エキシトン相とフェルミオンペア相、これらの相の背後にある力、およびそれらの関連する遷移に関する詳細な情報は、我々が予想するfec凝縮物の形成に関するさらなる洞察を与える。 Quantum states of a novel Bose-Einstein condensate, in which both fermion-pair and exciton condensations are simultaneously present, have recently been realized theoretically in a model Hamiltonian system. Here we identify quantum phase transitions in that model between fermion-pair and exciton condensations based on a geometric analysis of the convex set of ground-state 2-particle reduced density matrices (2-RDMs). The 2-RDM set provides a finite representation of the infinite parameter space of Hamiltonians that readily reveals a fermion-pair condensate phase and two distinct exciton condensate phases, as well as the emergence of first- and second-order phase transitions as the particle number of the system is increased. The set, furthermore, shows that the fermion-exciton condensate (FEC) lies along the second-order phase transition between the exciton and fermion-pair condensate phases. The detailed information about the exciton and fermion-pair phases, the forces behind these phase, as well as their associated transitions provides additional insight into the formation of the FEC condensate, which we anticipate will prove useful in its experimental realization. | 翻訳日:2023-01-09 03:57:03 公開日:2022-12-29 |
# エキシトン凝縮のサインとしての大きい累積固有値 Large Cumulant Eigenvalue as a Signature of Exciton Condensation ( http://arxiv.org/abs/2212.14390v1 ) ライセンス: Link先を確認 | Anna O. Schouten, LeeAnn M. Sager-Smith and David A. Mazziotti | (参考訳) 励起子の1つの量子状態へのボース=アインシュタイン凝縮は、励起子凝縮として知られている。
エネルギーの摩擦のない流れを支える可能性があるエキシトン凝縮は、最近グラフェン二層およびファンデルワールスヘテロ構造において実現されている。
ここでは,還元密度行列理論と累積理論の組み合わせから励起子凝縮を予測できることを示す。
その結果, エキシトン凝縮は, 粒子-ホール還元密度行列の累積部に大きな固有値が存在する場合にのみ起こることがわかった。
熱力学的極限では、大きな固有値が励起子数によって上から有界であることが示される。
粒子-ホール行列の固有値とは対照的に、累積行列の大きい固有値は、凝縮の程度の大きさの大きい測度を提供するという利点がある。
ここでは、このシグネチャを用いて、リプキンモデルとベンゼンの分子スタックの両方における励起子凝縮を予測する。
計算符号は、分子と材料の両方における励起子凝縮の予測に応用される。 The Bose-Einstein condensation of excitons into a single quantum state is known as exciton condensation. Exciton condensation, which potentially supports the frictionless flow of energy, has recently been realized in graphene bilayers and van der Waals heterostructures. Here we show that exciton condensates can be predicted from a combination of reduced density matrix theory and cumulant theory. We show that exciton condensation occurs if and only if there exists a large eigenvalue in the cumulant part of the particle-hole reduced density matrix. In the thermodynamic limit we show that the large eigenvalue is bounded from above by the number of excitons. In contrast to the eigenvalues of the particle-hole matrix, the large eigenvalue of the cumulant matrix has the advantage of providing a size-extensive measure of the extent of condensation. Here we apply this signature to predict exciton condensation in both the Lipkin model and molecular stacks of benzene. The computational signature has applications to the prediction of exciton condensation in both molecules and materials. | 翻訳日:2023-01-09 03:56:43 公開日:2022-12-29 |
# 量子質量生成理論 Quantum Mass Production Theorems ( http://arxiv.org/abs/2212.14399v1 ) ライセンス: Link先を確認 | William Kretschmer | (参考訳) n$ のユニタリ変換 $u$ と任意の $r = 2^{o(n / \log n)} に対して、最大 $o(4^n)$ のゲートを持つ $u^{\otimes r}$ を実装する量子回路が存在することが証明される。
これは、最悪の$U$のコピーだけを実装するのに必要なゲートの数と漸近的に等しい。
また、量子状態と対角ユニタリ変換の類似の結果も確立する。
我々の手法は、ブール函数に対する同様の質量生成定理を証明したuhlig [math. notes 1974] の研究に基づいている。 We prove that for any $n$-qubit unitary transformation $U$ and for any $r = 2^{o(n / \log n)}$, there exists a quantum circuit to implement $U^{\otimes r}$ with at most $O(4^n)$ gates. This asymptotically equals the number of gates needed to implement just a single copy of a worst-case $U$. We also establish analogous results for quantum states and diagonal unitary transformations. Our techniques are based on the work of Uhlig [Math. Notes 1974], who proved a similar mass production theorem for Boolean functions. | 翻訳日:2023-01-09 03:56:15 公開日:2022-12-29 |
# ツイスト量子ウォーク、一般化ディラック方程式、フェルミオン二重化 Twisted quantum walks, generalised Dirac equation and Fermion doubling ( http://arxiv.org/abs/2212.13859v2 ) ライセンス: Link先を確認 | Nicolas Jolly and Giuseppe Di Molfetta | (参考訳) 量子離散時間ウォーカーは、導入以来、アルゴリズムおよび幅広い輸送現象のモデリングおよびシミュレーションにおける応用を実証してきた。
これらは長い間、ディラック方程式の離散時間および離散空間の類似と見なされ、内部対称性のいくつかのため、量子場理論を正確にシミュレートするためにプリミティブとして用いられてきた。
本稿では、分散項を備えた一般化されたディラック作用素を連続極限として認める、ツイストドという新しい量子ウォークの族を紹介する。
さらに、エネルギースペクトルにおけるこの二次項は有効質量として作用し、よく知られたフェルミオン二重問題の正規化につながる。 Quantum discrete-time walkers have, since their introduction, demonstrated applications in algorithmic and in modeling and simulating a wide range of transport phenomena. They have long been considered the discrete-time and discrete space analogue of the Dirac equation and have been used as a primitive to simulate quantum field theories precisely because of some of their internal symmetries. In this paper we introduce a new family of quantum walks, said twisted, which admits, as continuous limit, a generalized Dirac operator equipped with a dispersion term. Moreover, this quadratic term in the energy spectrum acts as an effective mass, leading to a regularization of the well known Fermion doubling problem. | 翻訳日:2023-01-09 03:48:49 公開日:2022-12-29 |
# スピンバルブ同期超格子における全層双極子励起子 Every-other-layer Dipolar Excitons in a Spin-Valley locked Superlattice ( http://arxiv.org/abs/2212.14140v1 ) ライセンス: Link先を確認 | Yinong Zhang, Chengxin Xiao, Dmitry Ovchinnikov, Jiayi Zhu, Xi Wang, Takashi Taniguchi, Kenji Watanabe, Jiaqiang Yan, Wang Yao, Xiaodong Xu | (参考訳) 単層半導電性遷移金属ジカルコゲナイドは破れた反転対称性と強いスピン軌道結合を持ち、ユニークなスピンバルブロック効果をもたらす。
2h積層プリスチン多層膜において、スピンバルブロックは電子超格子構造を生じさせ、そこでは交代層がそれぞれ障壁と量子井戸に対応し、スピンバルブ指数を条件とする。
ここで、スピンバルブを閉じ込めた超格子は、電子とホールを構成する新しい種類の双極子励起子を、全ての異層構造、すなわち偶数層または2つの奇数層で分離していることを示す。
このような励起子は層内励起子とのハイブリダイゼーションによって光学的に明るくなり、双極子励起子は電場による層内共鳴によって調整されるため、光反射スペクトルにおいて複数の反交差パターンを示す。
反射スペクトルはまた、全ての他の層励起子の励起状態軌道を明らかにし、層内励起子と同じ大きさで大きな結合エネルギーを示す。
層厚が増加すると、双極子励起子は反射スペクトルの層数依存性微細構造を示す1次元ボース・ハバード鎖を形成することができる。
我々の研究は、光-物質相互作用を探索するための高度に調整可能な双極子励起子を持つ谷トロニクス超格子を明らかにする。 Monolayer semiconducting transition metal dichalcogenides possess broken inversion symmetry and strong spin-orbit coupling, which leads to unique spin-valley locking effect. In 2H stacked pristine multilayers, the spin-valley locking yields an electronic superlattice structure, where alternating layers correspond to barrier and quantum well respectively, conditioned on the spin-valley indices. Here, we show that the spin-valley locked superlattice hosts a new kind of dipolar excitons with the electron and hole constituents separated in an every-other-layer configuration, i.e., either in two even or two odd layers. Such excitons become optically bright via hybridization with intralayer excitons, displaying multiple anti-crossing patterns in optical reflection spectrum as the dipolar exciton is tuned through the intralayer resonance by electric field. The reflectance spectra also reveal an excited state orbital of the every-other-layer exciton, pointing to a sizable binding energy in the same order of magnitude as the intralayer exciton. As layer thickness increases, the dipolar exciton can form one-dimensional Bose-Hubbard chain displaying a layer number dependent fine-structures in the reflectance spectra. Our work reveals a distinct valleytronic superlattice with highly tunable dipolar excitons for exploring light-matter interactions. | 翻訳日:2023-01-09 03:45:49 公開日:2022-12-29 |
# 動的ゲージポテンシャルを有する凝縮物中の密度・位相領域壁 Density-and-phase domain walls in a condensate with dynamical gauge potentials ( http://arxiv.org/abs/2212.14195v1 ) ライセンス: Link先を確認 | Sayak Bhattacharjee, Roderich Moessner and Shovan Dutta | (参考訳) 密度依存ゲージポテンシャルを用いて,高密度領域と低密度領域を対向モータで分離する領域壁を,調和に閉じ込められたボース=アインシュタイン凝縮体の基底状態に生成する方法を示す。
gross-pitaevskiiフレームワークでは、ベクトルポテンシャルとスカラーポテンシャルの異なる役割と、それがドメインウォールに局在する合成電磁場にどのようにつながるかを解明する。
特に、急な密度勾配の運動エネルギーコストは、粒子を特別な密度値から遠ざける静電場によって補償される。
一次元において、そのような領域壁は反発的な接触相互作用において顕著であり、磁場が小さくなるにつれて臨界点で終わる1次相転移によって強電場において準安定となることを示す。
以上の知見は,最近の実験的発展を基盤とし,揺動光学格子内の寒冷原子によって実現され,動的ゲージ場から発生する集合現象に対する洞察を与える。 We show how one can generate domain walls that separate high- and low-density regions with opposite momenta in the ground state of a harmonically trapped Bose-Einstein condensate using a density-dependent gauge potential. Within a Gross-Pitaevskii framework, we elucidate the distinct roles of vector and scalar potentials and how they lead to synthetic electromagnetic fields that are localized at the domain wall. In particular, the kinetic energy cost of a steep density gradient is compensated by an electrostatic field that pushes particles away from a special value of density. We show numerically in one dimension that such a domain wall is more prominent for repulsive contact interactions, and becomes metastable at strong electric fields through a first-order phase transition that ends at a critical point as the field is reduced. Our findings build on recent experimental developments and may be realized with cold atoms in a shaken optical lattice, providing insights into collective phenomena arising from dynamical gauge fields. | 翻訳日:2023-01-09 03:45:26 公開日:2022-12-29 |
# 臨界状態と局所状態の間の排他的新しいモビリティエッジ Exact new mobility edges between critical and localized states ( http://arxiv.org/abs/2212.14285v1 ) ライセンス: Link先を確認 | Xin-Chi Zhou, Yongjian Wang, Ting-Fung Jeffrey Poon, Qi Zhou and Xiong-Jun Liu | (参考訳) 障害系は、拡張状態、局所状態、臨界状態として知られる3種類の基本的な量子状態を持ち、臨界状態の探索は少ないままである。
ここでは、局所状態とロバスト臨界状態とを分離する新しいタイプの正確な可溶性モビリティエッジ(ME)を発見し、実験的実現を提案する。
ここでのロバスト性は、単一粒子の摂動と相互作用に対する安定性を指す。
新しいmesは、ホッピング係数とオンサイトポテンシャルの両方が準周期的モザイク様式である1次元モデルから正確に解かれる。
解析結果から,注意深い有限サイズのスケーリングを含む厳密な数値検証が必要となる臨界状態を得ることができた。
摂動と相互作用の存在下での提案モデルをさらに検討し,新しいmesのロバスト性を示す。
臨界ゾーンのロバスト性は熱力学限界におけるホッピング係数のゼロによって保護される。
最後に,Rydberg配列における解答可能なモデルと新しいMEを実現するための新しい実験手法を提案する。
この研究は、臨界状態と実験可能な新しいME物理を正確に探求する道を開くかもしれない。 The disorder systems host three types of fundamental quantum states, known as the extended, localized, and critical states, of which the critical states remain being much less explored. Here we uncover a novel type of exactly solvable mobility edges (MEs) separating localized states from robust critical states, and propose experimental realization. Here the robustness refers to the stability against both single-particle perturbation and interactions. The new MEs are exactly solved from a one-dimensional model, where both hopping coefficients and on-site potential are in a quasiperiodic mosaic manner. The analytic results enable us to unambiguously obtain the critical states which otherwise require arduous numerical verification including the careful finite size scalings. We further investigate the proposed model in the presence of perturbation and interactions, and show the robustness of the new MEs. The robustness of critical zones is protected by zeros of hopping coefficients in the thermodynamics limit. Finally, we propose a novel experimental scheme to realize the exactly solvable model and the new MEs in Rydberg array. This work may pave a way to precisely explore the critical states and new ME physics with experimental feasibility. | 翻訳日:2023-01-09 03:45:11 公開日:2022-12-29 |
# 分数量子力学におけるカントールポテンシャル族からの量子トンネル Quantum tunneling from family of Cantor potentials in fractional quantum mechanics ( http://arxiv.org/abs/2301.00674v1 ) ライセンス: Link先を確認 | Vibhav Narayan Singh, Mohammad Umar, Mohammad Hasan, Bhabani Prasad Mandal | (参考訳) 空間分数量子力学における非相対論的量子トンネルの特徴をカントールポテンシャルの族を通して探求する。
一般カントールポテンシャルと一般スミス・ボルテラ・カンターポテンシャルの2種類のポテンシャルを考える。
カントールポテンシャルはフラクタルポテンシャルの例であるが、Smith-Volterra-Cantorポテンシャルはフラクタル系のカテゴリには属さない。
本研究は、分数量子力学におけるフラクタルポテンシャルによる量子トンネルの研究を初めてもたらした。
空間分数量子力学の領域における散乱の新たな特徴として、これらの系からエネルギーバンドのような特徴が出現し、非常に鋭い伝達特性が現れる。
さらに、散乱振幅と波動ベクトル$k$のスケーリング関係を、どちらの種類のポテンシャルに対しても解析的に示す。 We explore the features of non-relativistic quantum tunneling in space fractional quantum mechanics through a family of Cantor potentials. We consider two types of potentials: general Cantor and general Smith-Volterra-Cantor potential. The Cantor potential is an example of fractal potential while the Smith-Volterra-Cantor potential doesn't belong to the category of a fractal system. The present study brings for the first time, the study of quantum tunneling through fractal potential in fractional quantum mechanics. We report several new features of scattering in the domain of space fractional quantum mechanics including the emergence of energy-band like features from these systems and extremely sharp transmission features. Further the scaling relation of the scattering amplitude with wave vector $k$ is presented analytically for both types of potentials. | 翻訳日:2023-01-09 03:18:58 公開日:2022-12-29 |
# 深いRプログラミング Deep R Programming ( http://arxiv.org/abs/2301.01188v1 ) ライセンス: Link先を確認 | Marek Gagolewski | (参考訳) Deep R Programmingは、データサイエンス(統計計算、グラフィックス、機械学習、データラングリング、分析)で最も人気のある言語の1つである。
基本言語を深く紹介し、この強力な環境の独立ユーザになりたい野心的な学生、実践者、研究者をターゲットにしている。
この教科書は非営利プロジェクトです。
オンライン版とPDF版は <https://deepr.gagolewski.com/> で無料で入手できる。
この初期ドラフトは役に立つことを期待して配布されている。 Deep R Programming is a comprehensive course on one of the most popular languages in data science (statistical computing, graphics, machine learning, data wrangling and analytics). It introduces the base language in-depth and is aimed at ambitious students, practitioners, and researchers who would like to become independent users of this powerful environment. This textbook is a non-profit project. Its online and PDF versions are freely available at <https://deepr.gagolewski.com/>. This early draft is distributed in the hope that it will be useful. | 翻訳日:2023-01-09 03:18:08 公開日:2022-12-29 |
# QPanda: 複数のアプリケーションシナリオのための高性能量子コンピューティングフレームワーク QPanda: high-performance quantum computing framework for multiple application scenarios ( http://arxiv.org/abs/2212.14201v1 ) ライセンス: Link先を確認 | Menghan Dou, Tianrui Zou, Yuan Fang, Jing Wang, Dongyi Zhao, Lei Yu, Boying Chen, Wenbo Guo, Ye Li, Zhaoyun Chen, Guoping Guo | (参考訳) ノイズの多い中間スケール量子(nisq)デバイスや、乱数サンプリングやボーソンサンプリングにおける「量子超越性(quantum supremacy)」の検証によって、多くの分野が量子コンピュータを使って空力設計、経路割り当て、金融オプション予測、新しい材料を見つけるための量子化学シミュレーション、自動車産業のセキュリティへの量子暗号の挑戦といった特定の問題を解決することを望んでいる。
しかしながら、これらのフィールドは、現在のNISQマシンに適応する量子アルゴリズムを常に探索する必要があるため、マルチシナリオとアプリケーションのニーズに直面することができる量子プログラミングフレームワークが必要である。
そこで本稿では,高性能シミュレーションを用いた応用シナリオ指向量子プログラミングフレームワークqpandaを提案する。
量子化学シミュレーションアルゴリズムを設計して新しい材料を探したり、ファイナンスに役立てるための量子機械学習フレームワークを構築するなどです。
このフレームワークは、量子回路の高速シミュレーション、量子コンピュータとスーパーコンピュータの融合処理バックエンドの構成、NISQマシンの量子プログラムのコンパイルと最適化方法を実装している。
最後に、量子回路コンパイルと最適化インタフェースを用いて量子プロセッサ上で量子ジョブを高い忠実度で実行でき、シミュレーション性能が向上することを示した。 With the birth of Noisy Intermediate Scale Quantum (NISQ) devices and the verification of "quantum supremacy" in random number sampling and boson sampling, more and more fields hope to use quantum computers to solve specific problems, such as aerodynamic design, route allocation, financial option prediction, quantum chemical simulation to find new materials, and the challenge of quantum cryptography to automotive industry security. However, these fields still need to constantly explore quantum algorithms that adapt to the current NISQ machine, so a quantum programming framework that can face multi-scenarios and application needs is required. Therefore, this paper proposes QPanda, an application scenario-oriented quantum programming framework with high-performance simulation. Such as designing quantum chemical simulation algorithms based on it to explore new materials, building a quantum machine learning framework to serve finance, etc. This framework implements high-performance simulation of quantum circuits, a configuration of the fusion processing backend of quantum computers and supercomputers, and compilation and optimization methods of quantum programs for NISQ machines. Finally, the experiment shows that quantum jobs can be executed with high fidelity on the quantum processor using quantum circuit compile and optimized interface and have better simulation performance. | 翻訳日:2023-01-09 03:09:37 公開日:2022-12-29 |
# 量子アルゴリズムに関する講義ノート Lecture Notes on Quantum Algorithms ( http://arxiv.org/abs/2212.14205v1 ) ライセンス: Link先を確認 | Kamil Khadiev | (参考訳) 講義ノートには3つの部分がある。
第1部は、修正、一般化、応用を含むグローバーの探索アルゴリズムである。
第2部は量子フィンガープリント技術に関する議論である。
第3部は、アプリケーションによる量子ウォーク(離散時間)アルゴリズムである。 The lecture notes contain three parts. The first part is Grover's Search Algorithm with modifications, generalizations, and applications. The second part is a discussion on the quantum fingerprinting technique. The third part is Quantum Walks (discrete time) algorithm with applications. | 翻訳日:2023-01-09 03:09:14 公開日:2022-12-29 |
# 光フロッケブロッホ振動の可視化観察 Visual observation of optical Floquet-Bloch oscillations ( http://arxiv.org/abs/2212.14213v1 ) ライセンス: Link先を確認 | Zhen Zhang, Yuan Li, Xiankai Sun and Xuewen Shu | (参考訳) 重要な輸送現象であるブロッホ振動は、静力学系では広く研究されているが、フロケ系では研究されていない。
ここでは, 変調周期とブロッホ周期の最小倍の周期で, 再スケールしたブロッホ振動を指す「フロッケ・ブロッホ振動」という新しいタイプのブロッホ振動を提案する。
フェムト秒レーザーによる導波路アレイのフロック・ブロッホ振動を導波路蛍光顕微鏡を用いて初めて可視化した。
これらのフロッケブロッホ振動はフラクタルスペクトルや分数フロッケトンネルなどのエキゾチックな性質を示す。
この新しい輸送機構は、コヒーレント量子輸送に重要な応用をもたらす波動操作の興味深い方法を提供する。 Bloch oscillations, an important transport phenomenon, have extensively been studied in static systems but remain largely unexplored in Floquet systems. Here, we propose a new type of Bloch oscillations, namely the "Floquet-Bloch oscillations," which refer to rescaled Bloch oscillations with a period of extended least common multiple of the modulation and Bloch periods. We report the first visual observation of such Floquet-Bloch oscillations in femtosecond-laser-written waveguide arrays by using waveguide fluorescence microscopy. These Floquet-Bloch oscillations exhibit exotic properties, such as fractal spectrum and fractional Floquet tunneling. This new transport mechanism offers an intriguing method of wave manipulation, which has significant applications in coherent quantum transport. | 翻訳日:2023-01-09 03:09:10 公開日:2022-12-29 |
# 2つの量子ドットのオンチップ量子回路へのスケーラブルな決定論的統合 Scalable deterministic integration of two quantum dots into an on-chip quantum circuit ( http://arxiv.org/abs/2212.14257v1 ) ライセンス: Link先を確認 | Shulun Li, Yuhui Yang, Johannes Schall, Martin von Helversen, Chirag Palekar, Hanqing Liu, L\'eo Roche, Sven Rodt, Haiqiao Ni, Yu Zhang, Zhichuan Niu, Stephan Reitzenstein | (参考訳) 集積量子フォトニック回路(iqpc)と決定論的に集積された量子エミッタはスケーラブルな量子情報応用にとって重要な要素であり、近年注目されている。
しかし、光入力状態を生成するために複数の決定論的に統合された量子エミッタを持つ完全機能フォトニック回路にスケールアップすることは大きな課題である。
本研究では,2x2マルチモード干渉ビームスプリッタの入力ポートにおけるナノビームキャビティに,予め選択した2つの量子ドットからなるモノリシックプロトタイプIQPCについて報告する。
オンチップビームスプリッタは50/50の分割比を示し、集積量子エミッタは1光子純度が高く、オンチップhbt実験が可能であり、決定論的スケーラビリティを示す。
全体として、これはスケーラブルでフル機能のIQPCの基盤となる。 Integrated quantum photonic circuits (IQPCs) with deterministically integrated quantum emitters are critical elements for scalable quantum information applications and have attracted significant attention in recent years. However, scaling up them towards fully functional photonic circuits with multiple deterministically integrated quantum emitters to generate photonic input states remains a great challenge. In this work, we report on a monolithic prototype IQPC consisting of two pre-selected quantum dots deterministically integrated into nanobeam cavities at the input ports of a 2x2 multimode interference beam-splitter. The on-chip beam splitter exhibits a splitting ratio of nearly 50/50 and the integrated quantum emitters have high single-photon purity, enabling on-chip HBT experiments, depicting deterministic scalability. Overall, this marks a cornerstone toward scalable and fully-functional IQPCs. | 翻訳日:2023-01-09 03:08:58 公開日:2022-12-29 |
# 量子場理論におけるクリロフ複雑性 Krylov complexity in quantum field theory, and beyond ( http://arxiv.org/abs/2212.14429v1 ) ライセンス: Link先を確認 | Alexander Avdoshkin, Anatoly Dymarsky, Michael Smolkin | (参考訳) 量子場理論の様々なモデルにおけるクリロフ複雑性について研究する: 平面空間および球面上の自由質量ボソンとフェルミオン、ホログラフィックモデル、UVカットオフを持つ格子モデル。
ある場合には、これまで観測された普遍性を超えたランツォス係数の漸近挙動が見つかる。
すべての場合において、クリロフ複雑性の指数的成長は、カオスに縛られたマルダセナ=シェンカー=スタンフォードを一般化する対物的不等式を満たす。
本稿では,Lanczos係数の温度依存性について論じるとともに,Lanczos係数の成長とカオスの関係は,UVカットオフにおける物理によって支配される十分に遅く,真に漸近的な状態に留まる可能性があることに留意する。
従来の提案とは対照的に、量子場理論におけるクリロフ複雑性がホログラフィック複雑性とは質的に異なる振る舞いをするシナリオを示す。 We study Krylov complexity in various models of quantum field theory: free massive bosons and fermions on flat space and on spheres, holographic models, and lattice models with the UV-cutoff. In certain cases we find asymptotic behavior of Lanczos coefficients, which goes beyond previously observed universality. We confirm that in all cases the exponential growth of Krylov complexity satisfies the conjectural inequality, which generalizes the Maldacena-Shenker-Stanford bound on chaos. We discuss temperature dependence of Lanczos coefficients and note that the relation between the growth of Lanczos coefficients and chaos may only hold for the sufficiently late, truly asymptotic regime governed by the physics at the UV cutoff. Contrary to previous suggestions, we show scenarios when Krylov complexity in quantum field theory behaves qualitatively differently from the holographic complexity. | 翻訳日:2023-01-09 03:08:43 公開日:2022-12-29 |
# DAGのための動的プログラミングのための量子アルゴリズムとその応用 Quantum Algorithm for Dynamic Programming Approach for DAGs and Applications ( http://arxiv.org/abs/2212.14433v1 ) ライセンス: Link先を確認 | Kamil Khadiev and Liliya Safina | (参考訳) 本稿では,有向非巡回グラフ(dags)上の問題に対する動的プログラミング手法のための量子アルゴリズムを提案する。
アルゴリズムの実行時間は$O(\sqrt{\hat{n}m}\log \hat{n})$であり、最もよく知られている決定論的アルゴリズムの実行時間は$O(n+m)$である。
OR, AND, NAND, MAX, MIN 関数を主な遷移ステップとする問題を解くことができることを示す。
このアプローチはいくつかの問題に役立ちます。
そのうちの1つは、共有入力と非定数深さ評価を持つブール回路であるzhegalkin多項式によって表されるブール公式を計算することである。
他の2つは、重み付きDAGを探索する単一ソース長経路と、重みなしDAGの直径探索問題である。 In this paper, we present a quantum algorithm for the dynamic programming approach for problems on directed acyclic graphs (DAGs). The running time of the algorithm is $O(\sqrt{\hat{n}m}\log \hat{n})$, and the running time of the best known deterministic algorithm is $O(n+m)$, where $n$ is the number of vertices, $\hat{n}$ is the number of vertices with at least one outgoing edge; $m$ is the number of edges. We show that we can solve problems that use OR, AND, NAND, MAX, and MIN functions as the main transition steps. The approach is useful for a couple of problems. One of them is computing a Boolean formula that is represented by Zhegalkin polynomial, a Boolean circuit with shared input and non-constant depth evaluation. Another two are the single source longest paths search for weighted DAGs and the diameter search problem for unweighted DAGs. | 翻訳日:2023-01-09 02:35:09 公開日:2022-12-29 |
# 量子フィンガープリント法によるQFAの決定論的構築 Deterministic Construction of QFAs based on the Quantum Fingerprinting Technique ( http://arxiv.org/abs/2212.14442v1 ) ライセンス: Link先を確認 | Aliya Khadieva and Mansur Ziatdinov | (参考訳) 一部の言語では、量子有限オートマトンは古典的オートマトンよりも効率的であることが知られている。
特に、言語を$MOD_p$と認識するQFAは、古典的な有限オートマトンに対して指数関数的な優位性を持つ。
しかし、そのようなQFAの構築は確率的である。
本研究では,言語である$MOD_p$に対するQFAの決定論的構成を提案する。
我々は、約束問題$Palindrome_s$に対してQFAを構築し、qiskitライブラリツールを使用してIBMQシミュレータ上でこのQFAを実装した。 It is known that for some languages quantum finite automata are more efficient than classical counterparts. Particularly, a QFA recognizing the language $MOD_p$ has an exponential advantage over the classical finite automata. However, the construction of such QFA is probabilistic. In the current work, we propose a deterministic construction of the QFA for the language $MOD_p$. We construct a QFA for a promise problem $Palindrome_s$ and implement this QFA on the IBMQ simulator using qiskit library tools. | 翻訳日:2023-01-09 02:34:51 公開日:2022-12-29 |
# ジャイロのトレーニング方法:シェーク光格子を用いた回転センシングのための強化学習 How to Train Your Gyro: Reinforcement Learning for Rotation Sensing with a Shaken Optical Lattice ( http://arxiv.org/abs/2212.14473v1 ) ライセンス: Link先を確認 | Liang-Ying Chih, Dana Z. Anderson, Murray Holland | (参考訳) 次世代の量子センサの複雑さが増大するにつれて、機械学習アプローチによってメソジカルデバイスの設計と制御が支持される新しいパラダイムを考えることがますます興味をそそるようになる。
このような設計哲学の実証では,人間の直観を最小にすることを含む揺動・格子物質波ジャイロスコープの設計に強化学習を適用する。
実際、この機械は従来の干渉法に固有のコンポーネントを分割、反射、再結合する方法に関する指示を与えられていない。
代わりに、ジャイロスコープの感度を回転信号に最適化するタスクをマシンに割り当て、エンドツーエンドで格子シェイキングプロトコルを作成するように要求する。
結果として、典型的なマッハツェンダー型マターウェーブ干渉計の見慣れたシーケンスとは全く異なる設計タスクに対する機械主導のソリューションとなり、感度が大幅に向上した。 As the complexity of the next generation of quantum sensors increases, it becomes more and more intriguing to consider a new paradigm in which the design and control of metrological devices is supported by machine learning approaches. In a demonstration of such a design philosophy, we apply reinforcement learning to engineer a shaken-lattice matter-wave gyroscope involving minimal human intuition. In fact, the machine is given no instructions as to how to construct the splitting, reflecting, and recombining components intrinsic to conventional interferometry. Instead, we assign the machine the task of optimizing the sensitivity of a gyroscope to rotational signals and ask it to create the lattice-shaking protocol in an end-to-end fashion. What results is a machine-learned solution to the design task that is completely distinct from the familiar sequence of a typical Mach-Zehnder-type matter-wave interferometer, and with significant improvements in sensitivity. | 翻訳日:2023-01-09 02:34:41 公開日:2022-12-29 |
# 一様移動境界条件をもつ非定常量子電磁場 Non-stationary quantum electromagnetic fields with uniformly moving boundary conditions ( http://arxiv.org/abs/2212.14287v1 ) ライセンス: Link先を確認 | I. Ramos-Prieto, R. Rom\'an-Ancheyta, F. Soto-Eguibar, J. R\'ecamier, H.M. Moya-Cessa | (参考訳) 非定常な1次元電磁空洞の特徴は、その明示的な時間依存性、瞬時周波数、モード間相互作用、および境界条件の非断熱変化下での真空ゆらぎからの実光子の生成である。
注目すべきは、キャビティミラーの1つが一様運動を記述することを考えると、対応するキャビティハミルトニアンの時間依存を分解し、ユニタリ変換の集合を通じて対角化することができることである。
さらに、線形不変量を構築し、初期時間依存ハミルトニアンの解に対して不変であることを確認する。 Some of the distinctive features of a non-stationary one-dimensional electromagnetic cavity are its explicit time dependence, instantaneous frequency, intermode interactions, and the generation of real photons out of vacuum fluctuations under nonadiabatic changes of boundary conditions. Remarkably, considering that one of the cavity mirrors describes a uniform motion, it is possible to factorize the time dependence of the corresponding cavity Hamiltonian and diagonalize it through a set of unitary transformations. Furthermore, we construct a linear invariant and confirm it is invariant for the solutions we obtain for the initial time-dependent Hamiltonian. | 翻訳日:2023-01-09 02:25:44 公開日:2022-12-29 |
# 回路qedにおけるコヒーレント状態からの絡み合い状態の生成 Generating entangled states from coherent states in circuit-QED ( http://arxiv.org/abs/2212.14295v1 ) ライセンス: Link先を確認 | Shi-fan Qi and Jun Jing | (参考訳) 量子通信や量子情報処理における幅広い応用において、絡み合った状態の生成は自己決定的に重要である。
本稿では,2つのマイクロ波共振器のベル状態と正午状態を生成するための効率良く便利な2段階プロトコルを提案する。
特に、分散系における超伝導Lambda型クォートとの結合において、共振器に有効なハミルトニアンを導出する。
量子遷移周波数のシフトは共振器の励振数に依存することが判明した。
ハミルトニアンは、慎重に調整されたマイクロ波駆動信号を使用して、関連する共振器の特定のフォック状態に関連する2つのクォート遷移の振幅を個別に制御することができる。
これにより、製品コヒーレント状態から典型的な進化・測定手順によって任意の所望の絡み合い状態を生成することができる。
また,マイクロ波駆動強度,全成分の量子散逸,2つの共振器のクロストークによる系統的誤差に対するプロトコルの堅牢性も分析した。
さらに,我々のプロトコルをxi型クトリットを用いて同様のシナリオに拡張できることを実証する。 Generating entangled states is self-evidently important to a wide range of applications in quantum communication and quantum information processing. Here we propose an efficient and convenient two-step protocol for generating Bell states and NOON states of two microwave resonators, merely from their coherent states. In particular, we derive an effective Hamiltonian for resonators when coupling to a superconducting Lambda-type qutrit in the dispersive regime. The shift of the qutrit transition frequency is found to be dependent on the excitation number of resonators. The Hamiltonian then enables one to use carefully tailored microwave drive signals to individually control the amplitudes of two qutrit transitions associated with particular Fock states of the relevant resonators. Thereby an arbitrary desired entangled state can be generated by a typical evolution-and-measurement procedure from product coherent states. We also analysis the robustness of our protocol against the systematic error from the microwave driving intensity, the quantum dissipation of all components, and the crosstalk of two resonators. In addition, we demonstrate that our protocol can be extended to a similar scenario with a Xi-type qutrit. | 翻訳日:2023-01-09 02:25:31 公開日:2022-12-29 |
# 非有界シーケンシャルオブザーバによる量子ネットワーク内の非局所性共有 Sharing nonlocality in quantum network by unbounded sequential observers ( http://arxiv.org/abs/2212.14325v1 ) ライセンス: Link先を確認 | Shyam Sundar Mahato and A. K. Pan | (参考訳) 最近では、量子相関、ビズ、非局所性、準備状況、コヒーレンス、絡み合いの様々な形態の連続的な共有の研究への関心が高まっている。
本研究では,量子ネットワークにおける非局所性の逐次共有について検討する。
まず、2つの独立したソースと3つのパーティ、その中には2つのエッジパーティと1つの中央パーティが含まれる。
両エッジパーティの共有が考慮される対称の場合、非局所性は各エッジパーティの少なくとも2つのシーケンシャルオブザーバで共有できることを示す。
しかし、非対称の場合、一方のエッジパーティ間での共有を考えると、少なくとも6つのシーケンシャルオブザーバがネットワーク内の非局所性を共有できることが示される。
我々は、任意に$n$のエッジパーティと1つの中央パーティを特徴とするスターネットワーク構成における2インプット$n$ローカルシナリオへの調査を拡大する。
非対称の場合、ネットワークの非局所性は、1つのエッジパーティにまたがる無限個のシーケンシャルオブザーバによって共有され、適度に大きな値が$n$であることを示す。
さらに、スターネットワーク構成における任意の$m$ input $n$-local シナリオについて研究を一般化する。
任意の$m$の入力シナリオであっても、非局所性は非有界なシーケンシャルな観測者によって共有できることを示す。
しかし、入力$m$を増やせば、2つの入力ケースよりも多くのエッジパーティ$n$を使用でき、非有界なシーケンシャルな観測者の共有を実証できる。 Of late, there has been an upsurge of interest in studying the sequential sharing of various forms of quantum correlations, viz., nonlocality, preparation contextuality, coherence, and entanglement. In this work, we explore the sequential sharing of nonlocality in a quantum network. We first consider the simplest case of the two-input bilocality scenario that features two independent sources and three parties, including two edge parties and a central party. We demonstrate that in the symmetric case when the sharing is considered for both the edge parties, the nonlocality can be shared by at most two sequential observers per edge party. However, in the asymmetric case, when the sharing across one edge party is considered, we show that at most, six sequential observers can share the nonlocality in the network. We extend our investigation to the two-input $n$-local scenario in the star-network configuration that features an arbitrary $n$ number of edge parties and one central party. In the asymmetric case, we demonstrate that the network nonlocality can be shared by an unbounded number of sequential observers across one edge party for a suitably large value of $n$. Further, we generalize our study for an arbitrary $m$ input $n$-local scenario in the star-network configuration. We show that even for an arbitrary $m$ input scenario, the nonlocality can be shared by an unbounded number of sequential observers. However, increasing the input $m$, one has to employ more number of edge parties $n$ than that of the two-input case to demonstrate the sharing of an unbounded number of sequential observers. | 翻訳日:2023-01-09 02:25:11 公開日:2022-12-29 |
# 任意の入力シナリオに対する線形鎖ネットワークにおける一般化$n$局所性不等式とその量子違反 Generalized $n$-locality inequalities in linear-chain network for arbitrary inputs scenario and their quantum violations ( http://arxiv.org/abs/2212.14326v1 ) ライセンス: Link先を確認 | Rahul Kumar and A. K. Pan | (参考訳) ネットワーク内の多部非局所性は、概念的には標準多部ベル非局所性とは異なる。
近年、ネットワーク非局所性は様々なトポロジで研究されている。
ネットワークの線形鎖位相を考え、量子非局所性(非$n$-局所性)を実証する。
このようなネットワークシナリオには、多数の独立したソースとn+1$パーティ、2つのエッジパーティ(aliceとcharlie)、n-1$セントラルパーティ(bobs)が含まれる。
一般に、各党は2つの入力しか受け取らない。
この研究では、エッジ側が任意の$n$の入力(複数の独立したソースに等しい)を受け取り、各中央側が2つの入力を受け取るという一般化シナリオを考察する。
我々は、任意の$n$ に対する線形連鎖ネットワークに対する一般化された $n$-局所性不等式の族を導出し、不等式に対する最適な量子違反を示す。
本稿では,システムの次元を仮定した不等式 \emph{without} の最適量子違反の導出を可能にするエレガントな二乗和法を提案する。
最適量子違反は、相互に反ミュータブルなエッジの観測可能性を必要とすることを示す。
n=2$と3$の場合、各エッジパーティが中心パーティと2ビットの絡み合った状態を共有すると、最適な量子違反が得られる。
さらに、$n\geq 2$の場合、2ビットの絡み合った状態の1つのコピーは、$n$の局所性不等式違反を示すには十分ではないかもしれないが、その複数のコピーは量子違反を活性化することができる。 Multipartite nonlocality in a network is conceptually different from standard multipartite Bell nonlocality. In recent times, network nonlocality has been studied for various topologies. We consider a linear-chain topology of the network and demonstrate the quantum nonlocality (the non-$n$-locality). Such a network scenario involves $n$ number of independent sources and $n+1$ parties, two edge parties (Alice and Charlie), and $n-1$ central parties (Bobs). It is commonly assumed that each party receives only two inputs. In this work, we consider a generalized scenario where the edge parties receive an arbitrary $n$ number of inputs (equals to a number of independent sources), and each of the central parties receives two inputs. We derive a family of generalized $n$-locality inequalities for a linear-chain network for arbitrary $n$ and demonstrate the optimal quantum violation of the inequalities. We introduce an elegant sum-of-squares approach enabling the derivation of the optimal quantum violation of aforesaid inequalities \emph{without} assuming the dimension of the system. We show that the optimal quantum violation requires the observables of edge parties to mutually anticommuting. For $n=2$ and $3$, the optimal quantum violation can be obtained when each edge party shares a two-qubit entangled state with central parties. We further argue that for $n\geq 2$, a single copy of a two-qubit-entangled state may not be enough to exhibit the violation of $n$-locality inequality, but multiple copies of it can activate the quantum violation. | 翻訳日:2023-01-09 02:24:43 公開日:2022-12-29 |
# 運用量子メレオロジーと最小スクランブル Operational Quantum Mereology and Minimal Scrambling ( http://arxiv.org/abs/2212.14340v1 ) ライセンス: Link先を確認 | Paolo Zanardi and Seth Lloyd | (参考訳) 本稿では,系の力学則を生じる自然量子サブシステムとは何か,という問いに答える。
この質問に答えるために、まず可観測性の観点から一般化テンソル積構造(gTPS)を作用素部分代数 $\cal A$ とその可換体の双対として定義する。
次に,gtpを動的に選択するために,短時間でスクランブルする最小情報の運用基準を提案する。
このように、創発的なサブシステムは、最も長い情報的アイデンティティを保持するサブシステムである。
この戦略は、out of time order correlation(otoc)関数の代数的バージョン(すなわち$\cal a$-otoc)の短時間展開の観点からガウスのスクランブルレートを定義することによって定量的になる。
ガウススクランブルレートは、物理的に重要なサブシステム分割の場合に解析的に計算され、サブシステム間の相互作用強度を最小化し、誤り訂正符号の有効性を最大化するという点で、直感的で説得力のある物理的解釈を持つことが示されている。 In this paper we will attempt to answer the following question: what are the natural quantum subsystems which emerge out a system's dynamical laws? To answer this question we first define generalized tensor product structures (gTPS) in terms of observables, as dual pairs of an operator subalgebra $\cal A$ and its commutant. Second, we propose an operational criterion of minimal information scrambling at short time scales to dynamically select gTPS. In this way the emergent subsystems are those which maintain the longest informational identity. This strategy is made quantitative by defining a Gaussian scrambling rate in terms of the short-time expansion of an algebraic version of the Out of Time Order Correlation (OTOC) function i.e., the $\cal A$-OTOC. The Gaussian scrambling rate is computed analytically for physically important cases of general division into subsystems, and is shown to have an intuitive and compelling physical interpretation in terms of minimizing the interaction strength between subsystems, and maximizing the effectiveness of error-correcting codes. | 翻訳日:2023-01-09 02:24:13 公開日:2022-12-29 |
# 絡み合った状態の複数コピーを用いたデバイス非依存ランダム性認証 Device-independent randomness certification using multiple copies of entangled states ( http://arxiv.org/abs/2212.14341v1 ) ライセンス: Link先を確認 | Shyam Sundar Mahato and A. K. Pan | (参考訳) 我々は、最大に絡み合った2量子ビット状態のコピーが、単一コピーから認証できるよりも多くの認証ランダム性を生成することができることを実証する。
システムの次元が大きくなると乱数が多くなるが、非自明性は、多くの絡み合った状態のコピーから生成された無作為性のデバイス非依存的な同時認証に関係している。
これは、2ビットのエンタングル状態の単一コピーに最適化されたベルの不等式 (viz., Clauser-Horne-Shimony-Holt, Elegant, Chain Bell inequality) がほとんどであるからである。
したがって、そのようなベルの不等式は絡み合った状態のコピーの数や乱数の増加を証明できない。
この研究において、n$-settings bellの不等式(英語版)($\lfloor n/2 \rfloor$ 2-qubit 状態の最大エンタングル状態のコピーに最適化された)の族を適切に呼び出すことにより、2-qubit のエンタングル状態の多くのコピーからよりランダム性を証明することができる。 We demonstrate to what extent many copies of maximally entangled two-qubit states enable for generating a greater amount of certified randomness than that can be certified from a single copy. Although it appears that greater the dimension of the system implies a higher amount of randomness, the non-triviality lies in the device-independent simultaneous certification of generated randomness from many copies of entangled states. This is because, most of the two-outcome Bell inequalities (viz., Clauser-Horne-Shimony-Holt, Elegant, or Chain Bell inequality) are optimized for a single copy of two-qubit entangled state. Thus, such Bell inequalities can certify neither many copies of entangled states nor a higher amount of randomness. In this work, we suitably invoke a family of $n$-settings Bell inequalities which is optimized for $\lfloor n/2 \rfloor$ copies of maximally entangled two-qubit states, thereby, possess the ability to certify more randomness from many copies of two-qubit entangled state. | 翻訳日:2023-01-09 02:23:53 公開日:2022-12-29 |
# 粗粒度測定による連続可変非古典性検出 Continuous-Variable Nonclassicality Detection under Coarse-Grained Measurement ( http://arxiv.org/abs/2212.14343v1 ) ライセンス: Link先を確認 | Chan Roh, Young-Do Yoon, Jiyong Park, and Young-Sik Ra | (参考訳) 粗粒化は現実的な量子測定の一般的な欠陥であり、量子的特徴の直接観測を妨げる。
高粗粒度測定では,ガウス状態および非ガウス状態の連続変量非古典性が実験的に検出される。
この粗粒度測定は従来の非古典性検出法よりも優れており、分散基準の範囲を超えて非古典性を検出することができ、さらに高次モーメント法よりも強い統計的意義を示す。
本研究は,量子技術に対して信頼性が高く効率的な非古典性検出手法を提供することにより,粗粒度測定の有用性を示す。 Coarse graining is a common imperfection of realistic quantum measurement, obstructing the direct observation of quantum features. Under highly coarse-grained measurement, we experimentally detect the continuous-variable nonclassicality of both Gaussian and non-Gaussian states. Remarkably, we find that this coarse-grained measurement outperforms the conventional fine-grained measurement for nonclassicality detection: it detects nonclassicality beyond the reach of the variance criterion, and furthermore, it exhibits stronger statistical significance than the high-order moments method. Our work shows the usefulness of coarse-grained measurement by providing a reliable and efficient way of nonclassicality detection for quantum technologies. | 翻訳日:2023-01-09 02:23:28 公開日:2022-12-29 |
# 刺激ラマン断熱路によるロバストな2状態スワップ Robust two-state swap by stimulated Raman adiabatic passage ( http://arxiv.org/abs/2212.14371v1 ) ライセンス: Link先を確認 | Genko T. Genov, Simon Rochester, Marcis Auzinsh, Fedor Jelezko, and Dmitry Budker | (参考訳) 量子状態の効率的な初期化と操作は、多くのアプリケーションにとって重要であり、通常、量子状態の集団の高忠実性と堅牢な交換を行う能力を必要とする。
Stimulated Raman adiabatic passage (STIRAP) は、3レベルシステムの基底状態の効率的で堅牢な逆転を行うことが知られている。
しかし、その性能はシステムの初期状態に敏感である。
このコントリビューションでは、ゼロでない単光子デチューニングを導入することで、初期状態に対する効率的でロバストな人口交換が可能になることを実証する。
本研究は, 2光子相互作用による基底状態量子ビット中の量子ゲートの効率的かつロバストな状態形成, 動的デカップリング, 設計に有用である。 Efficient initialization and manipulation of quantum states is important for numerous applications and it usually requires the ability to perform high fidelity and robust swapping of the populations of quantum states. Stimulated Raman adiabatic passage (STIRAP) has been known to perform efficient and robust inversion of the ground states populations of a three-level system. However, its performance is sensitive to the initial state of the system. In this contribution we demonstrate that a slight modification of STIRAP, where we introduce a non-zero single-photon detuning, allows for efficient and robust population swapping for any initial state. The results of our work could be useful for efficient and robust state preparation, dynamical decoupling and design of quantum gates in ground state qubits via two-photon interactions. | 翻訳日:2023-01-09 02:23:17 公開日:2022-12-29 |
# コヒーレンス生成、対称性代数およびヒルベルト空間のフラグメンテーション Coherence generation, symmetry algebras and Hilbert space fragmentation ( http://arxiv.org/abs/2212.14408v1 ) ライセンス: Link先を確認 | Faidon Andreadakis and Paolo Zanardi | (参考訳) ヒルベルト空間の断片化は閉量子系における新しいタイプのエルゴディディディティ破れである。
近年、代数的アプローチを用いて、ハミルトニアン系の(一般化された)対称性に基づいたemph{families}を特徴づけるヒルベルト空間の断片化の定義が得られた。
本稿では,上記の物理系の分類とコヒーレンス生成力(cgp)によって定量化されたコヒーレンス生成特性との簡単な関係を明らかにする。
最大 CGP は(ハミルトニアンの各族の代数に付随する基礎において)独立クリロフ部分空間の個数$K$と密接に関連している。
より深い洞察を得るため、通常の対称性とヒルベルト空間の断片化の両方でパラダイムモデルを数値的にシミュレートし、各ケースにおけるCGPの挙動とシステム次元を比較する。
より一般的には、時間発展が指定された代数の任意のユニタリチャネルとなることを許容し、解析的に、CGPのハール平均値のスケーリングは$K$にのみ依存することを示した。
これらの結果はコヒーレンス生成と対称性代数の直感的な関係を示している。 Hilbert space fragmentation is a novel type of ergodicity breaking in closed quantum systems. Recently, an algebraic approach was utilized to provide a definition of Hilbert space fragmentation characterizing \emph{families} of Hamiltonian systems based on their (generalized) symmetries. In this paper, we reveal a simple connection between the aforementioned classification of physical systems and their coherence generation properties, quantified by the coherence generating power (CGP). The maximum CGP (in the basis associated to the algebra of each family of Hamiltonians) is exactly related to the number of independent Krylov subspaces $K$, which is precisely the characteristic used in the classification of the system. In order to gain further insight, we numerically simulate paradigmatic models with both ordinary symmetries and Hilbert space fragmentation, comparing the behavior of the CGP in each case with the system dimension. More generally, allowing the time evolution to be any unitary channel in a specified algebra, we show analytically that the scaling of the Haar averaged value of the CGP depends only on $K$. These results illustrate the intuitive relationship between coherence generation and symmetry algebras. | 翻訳日:2023-01-09 02:23:03 公開日:2022-12-29 |
# 一般マルチモードガウス状態へのマイクロ波フィールドの冷却 Cooling microwave fields into general multimode Gaussian states ( http://arxiv.org/abs/2212.14413v1 ) ライセンス: Link先を確認 | Nahid Yazdi, Juan Jos\'e Garc\'ia-Ripoll, Diego Porras, and Carlos Navarrete-Benlloch | (参考訳) 損失の少ない多色変調量子ビットの集合は、ボソニックモードの任意のガウス状態の散逸的に設計することができることを示す。
我々のアイデアは超伝導回路アーキテクチャに特に適しており、必要な全ての材料が実験的に利用可能である。
このようなマルチモードガウス状態の生成は多くの応用、特に測定に基づく量子計算に必要である。
これまでの提案では,冷却と洗浄によって単一モードと2モードの圧縮状態を生成する方法を示していました。
これらのアイデアを多くのボソニックモードに拡張する際には、特に注意が必要である。
我々は、GHZ状態からなる完全な実例で私たちのアイデアを説明するが、クラスタ状態のような他のいくつかの例も試した。
これらの例によって、N の損失量子ビットの集合を用いて N モードのボゾン鎖を任意のガウス状態に冷却することができることを示すことができる。 We show that a collection of lossy multi-chromatically modulated qubits can be used to dissipatively engineer arbitrary Gaussian states of a set of bosonic modes. Our ideas are especially suited to superconducting-circuit architectures, where all the required ingredients are experimentally available. The generation of such multimode Gaussian states is necessary for many applications, most notably measurement-based quantum computation. We build upon some of our previous proposals, where we showed how to generate single-mode and two-mode squeezed states through cooling and lasing. Special care must be taken when extending these ideas to many bosonic modes, and we discuss here how to overcome all the limitations and hurdles that naturally appear. We illustrate our ideas with a fully worked out example consisting of GHZ states, but have also tested several other examples such as cluster states. All these examples allow us to show that it is possible to use a set of N lossy qubits to cool down a bosonic chain of N modes to any desired Gaussian state. | 翻訳日:2023-01-09 02:22:44 公開日:2022-12-29 |
# 超伝導体上のニュートリノ振動のシミュレーション Simulating neutrino oscillations on a superconducting qutrit ( http://arxiv.org/abs/2212.14170v1 ) ライセンス: Link先を確認 | Ha C. Nguyen, Bao G. Bach, Tien D. Nguyen, Duc M. Tran, Duy V. Nguyen, Hung Q. Nguyen | (参考訳) フォールトトレラント量子コンピュータは、古典的に難解なシナリオでニュートリノ振動を直接シミュレーションすることを約束する。
今日のノイズの多い量子ハードウェアでは、ニュートリノをマルチビットシステムで符号化するには冗長な基底とトリッキーなエンタングゲートが必要である。
pmnsマトリクスを用いた3相ニュートリノのクトリット符号化と,単一クトリットゲートを用いた時間発展について検討した。
クエットはIBM超伝導トランスモンのマルチレベル構造から調整される。
マイクロ波パルスをプログラムしてqiskitパルスを用いて高精度ゲート制御と読み出しを行う。
シミュレーション結果は, 真空, CP違反, 物質との相互作用の3事例における解析計算とよく一致した。 Fault-tolerant quantum computers promise to provide direct simulations for neutrino oscillations in classically intractable scenarios. In today noisy quantum hardware, encoding neutrino in a multi-qubit system requires redundant basis and tricky entangling gates. We study a qutrit encoding for a three-flavor neutrino with the PMNS matrix and time evolution expressed in terms of single qutrit gates. The qutrit is tuned up from the multi-level structure of a IBM superconducting transmon. High-fidelity gate control and readout are engineered using Qiskit Pulse by programming microwave pulses. Our simulation results align well with analytical calculations in three oscillation cases: in vacuum, with CP-violation, and in interaction with matter. | 翻訳日:2023-01-09 02:15:02 公開日:2022-12-29 |
# グローバル位相追跡のない量子通信実験によるレートロス限界の克服 Experimental Quantum Communication Overcomes the Rate-loss Limit without Global Phase Tracking ( http://arxiv.org/abs/2212.14190v1 ) ライセンス: Link先を確認 | Lai Zhou, Jinping Lin, Yuan-Mei Xie, Yu-Shuo Lu, Yumang Jing, Hua-Lei Yin, and Zhiliang Yuan | (参考訳) 点点量子鍵分布(QKD)のセキュア鍵レート(SKR)は、基本的に速度損失制限によって拘束される。
ツインフィールド(TF) QKDの最近のブレークスルーは、この限界を克服し、長距離量子通信を可能にするが、その実装は複雑な大域的な位相追跡を必要とし、ノイズを付加するだけでなく、量子伝送の義務サイクルを減少させる強力な位相参照を必要とする。
本稿では,これらの欠点を解消し,非同期一致ペアリングによるリピータライクな通信を実現する,革新的かつ簡易な測定デバイス非依存qkdの実装により,tf-qkdよりもさらに高いskrを実現する。
413 km および 508 km 以上の光ファイバーにおいて、それぞれの絶対レート限界の 1.80 倍および 4.08 倍の 590.61 および 42.64 ビット/秒の有限サイズskr を達成する。
重要なことに、306kmのSKRは5kbit/sを超え、音声通信の1時間パッドのライブ暗号化に必要なビットレートを満たす。
我々の研究は、経済的かつ効率的な都市間量子セキュリティネットワークを前進させます。 Secure key rate (SKR) of point-point quantum key distribution (QKD) is fundamentally bounded by the rate-loss limit. Recent breakthrough of twin-field (TF) QKD can overcome this limit and enables long distance quantum communication, but its implementation necessitates complex global phase tracking and requires strong phase references which not only add to noise but also reduce the duty cycle for quantum transmission. Here, we resolve these shortcomings, and importantly achieve even higher SKRs than TF-QKD, via implementing an innovative but simpler measurement-device-independent QKD which realizes repeater-like communication through asynchronous coincidence pairing. Over 413 and 508 km optical fibers, we achieve finite-size SKRs of 590.61 and 42.64 bit/s, which are respectively 1.80 and 4.08 times of their corresponding absolute rate limits. Significantly, the SKR at 306 km exceeds 5 kbit/s and meets the bitrate requirement for live one-time-pad encryption of voice communication. Our work will bring forward economical and efficient intercity quantum-secure networks. | 翻訳日:2023-01-09 02:14:49 公開日:2022-12-29 |
# 準備測度通信ゲームにおける逐次量子アドバンテージによるアンシャープ楽器のロバスト認証 Robust certification of unsharp instruments through sequential quantum advantages in a prepare-measure communication game ( http://arxiv.org/abs/2212.14207v1 ) ライセンス: Link先を確認 | Abhyoudai. S. S., Sumit Mukherjee, and A. K. Pan | (参考訳) コミュニケーションゲームは、古典的資源よりも量子超越性を示すために設計された広く使われているツールの1つである。
これにより、2つ以上のパーティが協力して情報処理タスクを行い、ゲームに勝つ最も高い成功率を達成する。
本稿では,特定の情報の符号化・復号化タスクに依存する準備シナリオにおいて,特定の双方向通信ゲームを提案する。
量子理論は古典的準備的非文脈理論よりも優れており、そのような通信ゲームの最適量子成功確率は、量子ビット状態と測定の半デバイス非依存的な認証を可能にする。
さらに,量子合成コンテキストのシーケンシャルな共有を考察し,最大で2人のシーケンシャルオブザーバが量子アドバンテージを共有できることを示す。
2つのシーケンシャルオブザーバに対する準最適量子長所は、第一オブザーバの非シャープ性パラメータのユニークな値を証明する最適なペアを形成する。
実用的な実装がノイズを必然的に導入するので,各状態のロバストな認証と,両観測者の非シャープな測定手段を実証する手法を考案した。 Communication games are one of the widely used tools that are designed to demonstrate quantum supremacy over classical resources. In that, two or more parties collaborate to perform an information processing task to achieve the highest success probability of winning the game. We propose a specific two-party communication game in the prepare-measure scenario that relies on an encoding-decoding task of specific information. We first demonstrate that quantum theory outperforms the classical preparation non-contextual theory, and the optimal quantum success probability of such a communication game enables the semi-device-independent certification of qubit states and measurements. Further, we consider the sequential sharing of quantum preparation contextuality and show that, at most, two sequential observers can share the quantum advantage. The sub-optimal quantum advantages for two sequential observers form an optimal pair that certifies a unique value of the unsharpness parameter of the first observer. Since the practical implementation inevitably introduces noise, we devised a scheme to demonstrate the robust certification of the states and unsharp measurement instruments of both the sequential observers. | 翻訳日:2023-01-09 02:14:28 公開日:2022-12-29 |
# カップリング三モード圧縮真空--ガウスステアリングとワイガー負性率の遠隔生成 Coupled three-mode squeezed vacuum: Gaussian steering and Remote generation of Wigner negativity ( http://arxiv.org/abs/2212.14261v1 ) ライセンス: Link先を確認 | Zi-wei Zhan, Bo Lan, Jian Wang and Xue-xiang Xu | (参考訳) 結合された3モード圧縮真空(c3msv)は、典型的な(かつ純粋な)3モードガウス状態として、将来の量子プロトコルにおいて有用で絡み合ったリソースとなる。
本稿では,c3msvの異なるモードに存在する2成分ガウスステアリング(ステアリング,ワンウェイステアリング,ツーウェイステアリングを含む)について解析する。
c3msvで共有されるステアリングを通じて,局所位置において適切な光子減算を行うことで,ウィグナーネガティビティを遠隔生成する方式を提案する。 Coupled three-mode squeezed vacuum (C3MSV), as a typical (and pure) three-mode Gaussian state, will become an useful entangled resource in future quantum protocols because of its potential attributes. In this paper, we analyze all bipartite Gaussian steerings (including no steering, one-way steering and two-way steering) present in different modes of the C3MSV. Through the steerings shared in the C3MSV, we propose schemes of remotely generating Wigner negativity by performing appropriate photon subtraction(s) in the local position. | 翻訳日:2023-01-09 02:14:07 公開日:2022-12-29 |
# 量子コヒーレンス推定のためのユニバーサル手法 Universal Method to Estimate Quantum Coherence ( http://arxiv.org/abs/2212.14286v1 ) ライセンス: Link先を確認 | Sun Liang Liang, Yu Sixia | (参考訳) コヒーレンス(coherence)は、多くの量子情報タスクにおける量子優位を考慮に入れた量子理論の定義的性質である。
多くのコヒーレンス量子化器が様々な文脈で導入されたが、それらを推定するための効率的な方法の欠如は、それらの応用を制限する。
本稿では,現在のコヒーレンス量子化器のほとんどに可測境界を与えるための普遍的な方法を提案する。
本手法は,コヒーレンス定量化の中心に位置する基準基底における関心状態と対角部分との間の距離を,外乱効果や基準測定の不確かさから容易に推定できることを動機とする。
このように、コヒーレンスを境界とする手法は、コヒーレンスを検出するための実現可能かつ広く適用可能な経路を提供し、そのさらなる実用的応用を容易にする。 Coherence is a defining property of quantum theory that accounts for quantum advantage in many quantum information tasks. Although many coherence quantifiers have been introduced in various contexts, the lack of efficient methods to estimate them restricts their applications. In this paper, we tackle this problem by proposing one universal method to provide measurable bounds for most current coherence quantifiers. Our method is motivated by the observation that the distance between the state of interest and its diagonal parts in reference basis, which lies at the heart of the coherence quantifications, can be readily estimated by disturbance effect and uncertainty of the reference measurement. Thus, our method of bounding coherence provides a feasible and broadly applicable avenue for detecting coherence, facilitating its further practical applications. | 翻訳日:2023-01-09 02:13:56 公開日:2022-12-29 |
# マルチクラス分類に基づく量子ニューラルネットワークのデミスティファイト問題依存力 Demystify Problem-Dependent Power of Quantum Neural Networks on Multi-Class Classification ( http://arxiv.org/abs/2301.01597v1 ) ライセンス: Link先を確認 | Yuxuan Du, Yibo Yang, Dacheng Tao, Min-Hsiu Hsieh | (参考訳) 量子ニューラルネットワーク(QNN)は物理世界を理解する上で重要なツールとなっているが、その利点と限界は完全には理解されていない。
特定の符号化方法を持つQNNの中には、古典的なサロゲートによって効率的にシミュレートできるものもあるが、量子メモリを持つものは古典的な分類器よりも優れている。
本稿では,マルチクラス分類タスクにおける量子ニューラルネットワーク分類器(qcs)の問題依存パワーを体系的に検討する。
予測リスクの分析により, 分類器の訓練損失と一般化誤差を共同で評価する指標として, 訓練損失が一般化能力よりもパワーを支配すること, 第二に, 深層神経分類器の二重発光リスク曲線とは対照的に, qcsはu字型のリスク曲線をとること, の2つの重要な知見を明らかにした。
また、最適QCとヘルストローム境界と等角的タイトフレームとの固有接続を明らかにする。
そこで本研究では,学習課題における古典的分類器よりもQCの方が有効かどうかを探索するために,損失ダイナミクスを用いた手法を提案する。
画像データセットにおける多層パーセプトロン上のqcsの優位性と畳み込みニューラルネットワークの限界を説明するための手法の有効性を数値実験により証明した。
我々の研究はQNNの課題依存力に光を当て、その潜在的なメリットを評価するための実践的なツールを提供する。 Quantum neural networks (QNNs) have become an important tool for understanding the physical world, but their advantages and limitations are not fully understood. Some QNNs with specific encoding methods can be efficiently simulated by classical surrogates, while others with quantum memory may perform better than classical classifiers. Here we systematically investigate the problem-dependent power of quantum neural classifiers (QCs) on multi-class classification tasks. Through the analysis of expected risk, a measure that weighs the training loss and the generalization error of a classifier jointly, we identify two key findings: first, the training loss dominates the power rather than the generalization ability; second, QCs undergo a U-shaped risk curve, in contrast to the double-descent risk curve of deep neural classifiers. We also reveal the intrinsic connection between optimal QCs and the Helstrom bound and the equiangular tight frame. Using these findings, we propose a method that uses loss dynamics to probe whether a QC may be more effective than a classical classifier on a particular learning task. Numerical results demonstrate the effectiveness of our approach to explain the superiority of QCs over multilayer Perceptron on parity datasets and their limitations over convolutional neural networks on image datasets. Our work sheds light on the problem-dependent power of QNNs and offers a practical tool for evaluating their potential merit. | 翻訳日:2023-01-09 01:49:49 公開日:2022-12-29 |
# 簡単な学習者を増やす Boosting Simple Learners ( http://arxiv.org/abs/2001.11704v7 ) ライセンス: Link先を確認 | Noga Alon and Alon Gonen and Elad Hazan and Shay Moran | (参考訳) boostingは、弱い仮説と中程度の不正確な仮説を強力で正確な仮説に組み合わせるという、有名な機械学習アプローチである。
弱仮説が有界キャパシティのクラスに属するという仮定の下での強化について検討する。
この仮定は、弱い仮説は「容易に理解できるクラス」からの「反則」であるという一般的な慣例に触発されている。
(Schapire and Freund~'12, Shalev-Shwartz and Ben-David '14)
形式的には、弱仮説のクラスはVC次元が有界であると仮定する。
主に2つの質問に焦点を合わせます
(i)Oracle Complexity: 正確な仮説を生成するには、弱い仮説がいくつ必要か?
我々は,新しいブースティングアルゴリズムを設計し,freund と schapire ('95, '12) による古典下限を回避できることを実証する。
下界は、$\Omega({1}/{\gamma^2})=弱仮説と$\gamma$-marginが時々必要であることを示しているが、新しい手法では、それらが有界VC次元のクラスに属することを条件として、$\tilde{O}({1}/{\gamma})$弱仮説のみを必要とする。
多数決で弱い仮説を集約する以前のブースティングアルゴリズムとは異なり、新しいブースティングアルゴリズムはより複雑な(より深い)集約ルールを使用する。
我々は、上記の下限を回避するために、複雑な集約ルールが実際に必要であることを示すことによって、この結果を補完する。
(ii)表現性: 限定されたvcクラスから弱い仮説を取り入れることで、どのタスクを学習できるのか?
クラスから"遠い"複雑な概念を学ぶことができるだろうか?
最初の質問に答えるには, ブースティングの表現率を捉えたコンビネータ・ジオメトリパラメーターを導入する。
半空間と決定の切り株を含む、よく研究されたクラスに対する2つ目の質問に対する肯定的な答えを提供する。
その過程で、離散性理論とのつながりを確立し、活用する。 Boosting is a celebrated machine learning approach which is based on the idea of combining weak and moderately inaccurate hypotheses to a strong and accurate one. We study boosting under the assumption that the weak hypotheses belong to a class of bounded capacity. This assumption is inspired by the common convention that weak hypotheses are "rules-of-thumbs" from an "easy-to-learn class". (Schapire and Freund~'12, Shalev-Shwartz and Ben-David '14.) Formally, we assume the class of weak hypotheses has a bounded VC dimension. We focus on two main questions: (i) Oracle Complexity: How many weak hypotheses are needed to produce an accurate hypothesis? We design a novel boosting algorithm and demonstrate that it circumvents a classical lower bound by Freund and Schapire ('95, '12). Whereas the lower bound shows that $\Omega({1}/{\gamma^2})$ weak hypotheses with $\gamma$-margin are sometimes necessary, our new method requires only $\tilde{O}({1}/{\gamma})$ weak hypothesis, provided that they belong to a class of bounded VC dimension. Unlike previous boosting algorithms which aggregate the weak hypotheses by majority votes, the new boosting algorithm uses more complex ("deeper") aggregation rules. We complement this result by showing that complex aggregation rules are in fact necessary to circumvent the aforementioned lower bound. (ii) Expressivity: Which tasks can be learned by boosting weak hypotheses from a bounded VC class? Can complex concepts that are "far away" from the class be learned? Towards answering the first question we {introduce combinatorial-geometric parameters which capture expressivity in boosting.} As a corollary we provide an affirmative answer to the second question for well-studied classes, including half-spaces and decision stumps. Along the way, we establish and exploit connections with Discrepancy Theory. | 翻訳日:2023-01-05 05:54:02 公開日:2022-12-29 |
# 物理インフォームド報酬を用いたマルチエージェント深層強化学習のマルチマイクログリッドエネルギー管理への応用 Federated Multi-Agent Deep Reinforcement Learning Approach via Physics-Informed Reward for Multi-Microgrid Energy Management ( http://arxiv.org/abs/2301.00641v1 ) ライセンス: Link先を確認 | Yuanzheng Li, Shangyang He, Yang Li, Yang Shi, Zhigang Zeng | (参考訳) 大規模分散再生可能エネルギーの利用は、経済コストを最小化し、自己のエネルギー効率を維持するための効率的なエネルギー管理手法を開発する必要性を高めるマルチマイクログリッド(MMG)の開発を促進する。
マルチエージェント深部強化学習(MADRL)はそのリアルタイムスケジューリング能力のためにエネルギー管理問題に広く用いられている。
しかし、そのトレーニングにはマイクログリッド(MG)の大規模なエネルギー運用データが必要だが、異なるMGからこれらのデータを収集すると、プライバシーとデータセキュリティが脅かされる。
そこで本稿では,F-MADRLアルゴリズムを物理インフォームド報酬を用いて提案することで,この問題に対処する。
このアルゴリズムでは、F-MADRLアルゴリズムをトレーニングするためにFL機構を導入し、データのプライバシとセキュリティを確保する。
さらに、分散MMGモデルを構築し、各参加者のMGのエネルギーは、経済的コストを最小限に抑え、物理インフォームド報酬に応じて自己エネルギー効率を維持することを目的としたエージェントによって管理される。
まず、MGはローカルエネルギー操作データに基づいて個別に自己学習を行い、ローカルエージェントモデルを訓練する。
次に、これらのローカルモデルを定期的にサーバにアップロードし、それらのパラメータを集約してグローバルエージェントを構築し、mgsにブロードキャストし、ローカルエージェントを置き換える。
これにより、各MGエージェントの経験を共有でき、エネルギ操作データが明示的に送信されないことにより、プライバシの保護とデータセキュリティの確保が可能になる。
最後に,oak ridge national laboratory distributed energy control communication lab microgrid (ornl-mg) 試験システムを用いて実験を行い,fl機構の導入の有効性と提案するf-madrlのアウトパフォーマンスを検証するために比較を行った。 The utilization of large-scale distributed renewable energy promotes the development of the multi-microgrid (MMG), which raises the need of developing an effective energy management method to minimize economic costs and keep self energy-sufficiency. The multi-agent deep reinforcement learning (MADRL) has been widely used for the energy management problem because of its real-time scheduling ability. However, its training requires massive energy operation data of microgrids (MGs), while gathering these data from different MGs would threaten their privacy and data security. Therefore, this paper tackles this practical yet challenging issue by proposing a federated multi-agent deep reinforcement learning (F-MADRL) algorithm via the physics-informed reward. In this algorithm, the federated learning (FL) mechanism is introduced to train the F-MADRL algorithm thus ensures the privacy and the security of data. In addition, a decentralized MMG model is built, and the energy of each participated MG is managed by an agent, which aims to minimize economic costs and keep self energy-sufficiency according to the physics-informed reward. At first, MGs individually execute the self-training based on local energy operation data to train their local agent models. Then, these local models are periodically uploaded to a server and their parameters are aggregated to build a global agent, which will be broadcasted to MGs and replace their local agents. In this way, the experience of each MG agent can be shared and the energy operation data is not explicitly transmitted, thus protecting the privacy and ensuring data security. Finally, experiments are conducted on Oak Ridge national laboratory distributed energy control communication lab microgrid (ORNL-MG) test system, and the comparisons are carried out to verify the effectiveness of introducing the FL mechanism and the outperformance of our proposed F-MADRL. | 翻訳日:2023-01-03 16:28:38 公開日:2022-12-29 |
# FlatENN: 量子化ディープニューラルネットワークの耐故障性向上のためのトレインフラット FlatENN: Train Flat for Enhanced Fault Tolerance of Quantized Deep Neural Networks ( http://arxiv.org/abs/2301.00675v1 ) ライセンス: Link先を確認 | Akul Malhotra and Sumeet Kumar Gupta | (参考訳) 量子化とスパーシティエンハンスメントによるモデル圧縮は、リソース制約のあるエッジ環境におけるディープニューラルネットワーク(dnn)の展開を可能にするために非常に関心を集めている。
これらの技術は、DNNのエネルギ、レイテンシ、メモリ要求を減少させる有望な結果を示しているが、非理想的現実環境(ハードウェア欠陥の存在など)における性能は、まだ完全には理解されていない。
本稿では,ビットフリップおよびスタントアット断層が活性化スパース量子化DNN(QDNN)に与える影響について検討する。
高いレベルのアクティベーション間隔は、障害に対するより大きな脆弱性のコストによって生じることを示す。
例えば、活性化スパースQDNNは標準QDNNよりも17.32%低い精度である。
また, 劣化した精度の大きな原因の1つは, アクティベーションスパースQDNNの損失景観の最小化であり, 断層による重み値の摂動に敏感であることも確認した。
そこで本研究では,saq (sharpness-aware quantization) のトレーニング手法を用いて,断層の影響軽減手法を提案する。
SAQで訓練されたアクティベーションスパースQDNNと標準QDNNは、従来の訓練された等価値と比較して、それぞれ36.71%と24.76%高い推論精度を持つ。
さらに,SAQ訓練したアクティベーションスパースQDNNは,従来トレーニングされていた標準QDNNよりも精度がよいことを示す。
提案手法は, 耐故障性を損なうことなく, スパーシティ関連エネルギー・遅延特性の達成に有効である。 Model compression via quantization and sparsity enhancement has gained an immense interest to enable the deployment of deep neural networks (DNNs) in resource-constrained edge environments. Although these techniques have shown promising results in reducing the energy, latency and memory requirements of the DNNs, their performance in non-ideal real-world settings (such as in the presence of hardware faults) is yet to be completely understood. In this paper, we investigate the impact of bit-flip and stuck-at faults on activation-sparse quantized DNNs (QDNNs). We show that a high level of activation sparsity comes at the cost of larger vulnerability to faults. For instance, activation-sparse QDNNs exhibit up to 17.32% lower accuracy than the standard QDNNs. We also establish that one of the major cause of the degraded accuracy is sharper minima in the loss landscape for activation-sparse QDNNs, which makes them more sensitive to perturbations in the weight values due to faults. Based on this observation, we propose the mitigation of the impact of faults by employing a sharpness-aware quantization (SAQ) training scheme. The activation-sparse and standard QDNNs trained with SAQ have up to 36.71% and 24.76% higher inference accuracy, respectively compared to their conventionally trained equivalents. Moreover, we show that SAQ-trained activation-sparse QDNNs show better accuracy in faulty settings than standard QDNNs trained conventionally. Thus the proposed technique can be instrumental in achieving sparsity-related energy/latency benefits without compromising on fault tolerance. | 翻訳日:2023-01-03 16:14:14 公開日:2022-12-29 |
# オントロジーに基づくコンテキストアウェア・レコメンダシステムの観光への応用 Ontology-based Context Aware Recommender System Application for Tourism ( http://arxiv.org/abs/2301.00768v1 ) ライセンス: Link先を確認 | Vitor T. Camacho, Jos\'e Cruz | (参考訳) 本研究では,観光のための新しいレコメンデーションシステム(RS)を紹介する。
RSは、現在、レコメンデーターシステムのための最先端のルールであり、提供されているさまざまなアイテムをまとめるために使用される観光オントロジーの上に機能している。
提示されたrsは、rsの成熟度に基づいて変化するアンサンブルを作成する様々なタイプのレコメンダを混合する。
シンプルなコンテンツベースのレコメンデーションから始めて、評価密度とユーザ濃度が増大するにつれて、人気度、人口統計学的、協調的なフィルタリング手法を反復的に追加する。
その結果, 観光オントロジーと自然言語処理(NLP)を用いて, オントロジーの特定の項目カテゴリやメタカテゴリに, アイテムを正しく結合するRSが得られた。
この項目分類は、ユーザの好みとアイテムの関連付けを容易にし、提供されるアイテムの分類とグループ化を可能にし、コンテキスト対応のフィルタリングに特に有用である。 In this work a novel recommender system (RS) for Tourism is presented. The RS is context aware as is now the rule in the state-of-the-art for recommender systems and works on top of a tourism ontology which is used to group the different items being offered. The presented RS mixes different types of recommenders creating an ensemble which changes on the basis of the RS's maturity. Starting from simple content-based recommendations and iteratively adding popularity, demographic and collaborative filtering methods as rating density and user cardinality increases. The result is a RS that mutates during its lifetime and uses a tourism ontology and natural language processing (NLP) to correctly bin the items to specific item categories and meta categories in the ontology. This item classification facilitates the association between user preferences and items, as well as allowing to better classify and group the items being offered, which in turn is particularly useful for context-aware filtering. | 翻訳日:2023-01-03 16:13:08 公開日:2022-12-29 |
# SESNet:データ効率の良いタンパク質工学のためのシーケンス構造特徴統合ディープラーニング手法 SESNet: sequence-structure feature-integrated deep learning method for data-efficient protein engineering ( http://arxiv.org/abs/2301.00004v1 ) ライセンス: Link先を確認 | Mingchen Li, Liqi Kang, Yi Xiong, Yu Guang Wang, Guisheng Fan, Pan Tan, Liang Hong | (参考訳) 深層学習はタンパク質工学に広く用いられている。
しかし、高次変異体の機能的適合性を予測するための正確なモデルを訓練するための十分な実験データがないことで制限される。
本稿では,シーケンス情報と構造情報を利用してタンパク質変異体の適合性を予測するための教師付きディープラーニングモデルであるsesnetを開発した。
本モデルでは, 相同配列からの局所的進化的コンテキスト, 普遍的なタンパク質配列空間からリッチな意味をコードするグローバルな進化的コンテキスト, タンパク質の各残基の周囲の微小環境を考慮した構造情報を統合する。
SESNetは26の深部突然変異スキャンデータセットにおけるシーケンス-関数関係を予測するための最先端モデルより優れていることを示す。
さらに,教師なしモデルからのデータを利用して事前学習することにより,データ拡張戦略を提案する。
その後, タンパク質変異体の適合性の予測において, 特に高次変異点(→4変異点)において, 少数の実験突然変異データのみを用いて微調整した場合に, 極めて高い精度で精度が得られた(50)。
提案する戦略は、要求される実験的な努力、すなわち、与えられたタンパク質上で数万の実験突然変異データを生成すること、一般の生化学グループによって一般的に手頃な価格で、ほぼあらゆるタンパク質に適用できるため、非常に実用的価値がある。 Deep learning has been widely used for protein engineering. However, it is limited by the lack of sufficient experimental data to train an accurate model for predicting the functional fitness of high-order mutants. Here, we develop SESNet, a supervised deep-learning model to predict the fitness for protein mutants by leveraging both sequence and structure information, and exploiting attention mechanism. Our model integrates local evolutionary context from homologous sequences, the global evolutionary context encoding rich semantic from the universal protein sequence space and the structure information accounting for the microenvironment around each residue in a protein. We show that SESNet outperforms state-of-the-art models for predicting the sequence-function relationship on 26 deep mutational scanning datasets. More importantly, we propose a data augmentation strategy by leveraging the data from unsupervised models to pre-train our model. After that, our model can achieve strikingly high accuracy in prediction of the fitness of protein mutants, especially for the higher order variants (> 4 mutation sites), when finetuned by using only a small number of experimental mutation data (<50). The strategy proposed is of great practical value as the required experimental effort, i.e., producing a few tens of experimental mutation data on a given protein, is generally affordable by an ordinary biochemical group and can be applied on almost any protein. | 翻訳日:2023-01-03 16:06:39 公開日:2022-12-29 |
# ニューラルネットワークを用いた常微分方程式を解くための新しい設計損失関数 New Designed Loss Functions to Solve Ordinary Differential Equations with Artificial Neural Network ( http://arxiv.org/abs/2301.00636v1 ) ライセンス: Link先を確認 | Xiao Xiong | (参考訳) 本稿では、微分方程式(DE)の解法として人工知能ニューラルネットワーク(ANN)を用いることと、あるDEの微分方程式とその初期/境界条件の両方を満たす損失関数の構成について検討する。
第2節では、損失関数は$n^\text{th}$order ordinary differential equation (ode) に一般化される。
その他の工法は第3節で検討され、その効果を評価するために3つの異なるモデルに適用される。 This paper investigates the use of artificial neural networks (ANNs) to solve differential equations (DEs) and the construction of the loss function which meets both differential equation and its initial/boundary condition of a certain DE. In section 2, the loss function is generalized to $n^\text{th}$ order ordinary differential equation(ODE). Other methods of construction are examined in Section 3 and applied to three different models to assess their effectiveness. | 翻訳日:2023-01-03 15:37:12 公開日:2022-12-29 |
# 複雑・超複雑・ファジィニューラルネットワークの選択的側面 Selected aspects of complex, hypercomplex and fuzzy neural networks ( http://arxiv.org/abs/2301.00007v1 ) ライセンス: Link先を確認 | Agnieszka Niemczynowicz, Rados{\l}aw A. Kycia, Maciej Jaworski, Artur Siemaszko, Jose M. Calabuig, Lluis M. Garc\'ia-Raffi, Baruch Schneider, Diana Berseghyan, Irina Perfiljeva, Vilem Novak, Piotr Artiemjew | (参考訳) 本稿では,ANN(Artificial Neural Networks)の理論的および実践的側面に関する研究および方法論の現状について概説する。
複雑な超複雑でファジィなニューラルネットワークを構築するために必要な最先端の知識を集める準備が整った。
この報告書は著者の個人的関心を反映しており、現在ではann分野の包括的なレビューとして扱うことはできない。
この分野の急速な発展を考えると、現在、かなりの数のページを詳細にレビューすることは不可能である。
この報告書は、2022年9月にポーランドのオルシュティンにあるワルミア大学とマズリー校で行われた複雑な、超複雑、ファジィニューラルネットワークの数学的側面に関するプロジェクト「戦略研究パートナーシップ」の成果である。 This short report reviews the current state of the research and methodology on theoretical and practical aspects of Artificial Neural Networks (ANN). It was prepared to gather state-of-the-art knowledge needed to construct complex, hypercomplex and fuzzy neural networks. The report reflects the individual interests of the authors and, by now means, cannot be treated as a comprehensive review of the ANN discipline. Considering the fast development of this field, it is currently impossible to do a detailed review of a considerable number of pages. The report is an outcome of the Project 'The Strategic Research Partnership for the mathematical aspects of complex, hypercomplex and fuzzy neural networks' meeting at the University of Warmia and Mazury in Olsztyn, Poland, organized in September 2022. | 翻訳日:2023-01-03 15:30:15 公開日:2022-12-29 |
# マルチコースクラウドソーシングにおけるトップ2回答とコンフュージョン確率の回復 Recovering Top-Two Answers and Confusion Probability in Multi-Choice Crowdsourcing ( http://arxiv.org/abs/2301.00006v1 ) ライセンス: Link先を確認 | Hyeonsu Jeong and Hye Won Chung | (参考訳) クラウドソーシングは、大量のデータをコストと時間効率でラベル付けする効果的なプラットフォームとして登場した。
これまでのほとんどの作品は、データの接地ラベルのみを復元する効率的なアルゴリズムの設計に重点を置いてきた。
本稿では,本論文では,根拠の真理だけでなく,最も紛らわしい答えと混乱の確率を回復する目的で,マルチチョース・クラウドソーシングによるラベリングを考える。
もっとも紛らわしい答えは、基礎的な真実とそれがいかに妥当であるか以外の最も妥当な答えを明らかにすることで、タスクに関する有用な情報を提供する。
このようなシナリオを理論的に解析するために,各タスクに最上位2つの答えが存在するモデルを提案する。
作業難易度は上位2つの混乱確率によって定量化され、上位2つの回答の確率によって作業者の信頼性が定量化される。
本モデルでは,上位2つの解と混同確率を推定する2段階の推論アルゴリズムを提案する。
このアルゴリズムが最小最適収束率を達成することを示す。
我々は、合成データと実データの両方の実験を行い、我々のアルゴリズムが他の最近のアルゴリズムより優れていることを示す。
また、タスクの難易度を推測し、最上位2クラスからなるソフトラベルを用いてニューラルネットワークを訓練するアルゴリズムの適用性を示す。 Crowdsourcing has emerged as an effective platform to label a large volume of data in a cost- and time-efficient manner. Most previous works have focused on designing an efficient algorithm to recover only the ground-truth labels of the data. In this paper, we consider multi-choice crowdsourced labeling with the goal of recovering not only the ground truth but also the most confusing answer and the confusion probability. The most confusing answer provides useful information about the task by revealing the most plausible answer other than the ground truth and how plausible it is. To theoretically analyze such scenarios, we propose a model where there are top-two plausible answers for each task, distinguished from the rest of choices. Task difficulty is quantified by the confusion probability between the top two, and worker reliability is quantified by the probability of giving an answer among the top two. Under this model, we propose a two-stage inference algorithm to infer the top-two answers as well as the confusion probability. We show that our algorithm achieves the minimax optimal convergence rate. We conduct both synthetic and real-data experiments and demonstrate that our algorithm outperforms other recent algorithms. We also show the applicability of our algorithms in inferring the difficulty of tasks and training neural networks with the soft labels composed of the top-two most plausible classes. | 翻訳日:2023-01-03 14:44:42 公開日:2022-12-29 |
# 動的制御系における固有モチベーション Intrinsic Motivation in Dynamical Control Systems ( http://arxiv.org/abs/2301.00005v1 ) ライセンス: Link先を確認 | Stas Tiomkin, Ilya Nemenman, Daniel Polani, Naftali Tishby | (参考訳) 生物学的システムは、しばしば明示的な報酬信号(本質的動機として知られる現象)なしで行動を選択する。
この行動の根底にある計算原理はいまだに理解されていない。
本研究では,エージェントのエンパワーメント(過去の行動と将来の状態の相互情報)の最大化に基づく,本質的な動機づけに対する情報理論的アプローチを検討する。
我々は,本手法が本質的動機づけを形式化する以前の試みを一般化することを示し,必要な量を計算する計算効率の高いアルゴリズムを提供する。
本手法をいくつかのベンチマーク制御問題で検証し,情報理論制御関数をエージェント環境システムを表す力学系の基本特性に関連付けることで本質的動機づけ行動の誘導に成功することを説明する。
これは、実用的な人工的、本質的な動機付けのコントローラーを設計し、動物の行動と動特性を結びつけるための扉を開く。 Biological systems often choose actions without an explicit reward signal, a phenomenon known as intrinsic motivation. The computational principles underlying this behavior remain poorly understood. In this study, we investigate an information-theoretic approach to intrinsic motivation, based on maximizing an agent's empowerment (the mutual information between its past actions and future states). We show that this approach generalizes previous attempts to formalize intrinsic motivation, and we provide a computationally efficient algorithm for computing the necessary quantities. We test our approach on several benchmark control problems, and we explain its success in guiding intrinsically motivated behaviors by relating our information-theoretic control function to fundamental properties of the dynamical system representing the combined agent-environment system. This opens the door for designing practical artificial, intrinsically motivated controllers and for linking animal behaviors to their dynamical properties. | 翻訳日:2023-01-03 14:27:11 公開日:2022-12-29 |
# 連続状態と行動空間における強化学習の幾何学について On the Geometry of Reinforcement Learning in Continuous State and Action Spaces ( http://arxiv.org/abs/2301.00009v1 ) ライセンス: Link先を確認 | Saket Tiwari, Omer Gottesman and George Konidaris | (参考訳) 強化学習の進歩は、連続状態とアクション空間を持つ複雑なタスクでの成功につながった。
これらの進歩にもかかわらず、ほとんどの理論的な仕事は有限状態と作用空間に関するものである。
幾何レンズを用いて連続状態と行動空間の理論的理解を構築することを提案する。
我々の研究の中心は、遷移力学が高次元名目状態空間に埋め込まれた到達可能な状態の低次元多様体を誘導するという考えである。
我々は、ある条件下では、この多様体の次元性は、作用空間の次元性プラス 1 であることを示す。
これは、状態空間の幾何学と作用空間の次元を結びつけた、この種の最初の結果である。
我々は4つのムジョコ環境に対してこの上界を経験的にコラボレートする。
さらに,この低次元表現で方針を学習することで,結果の適用可能性を示す。
そこで我々は,DDPGを用いたポリシーに則って,低次元表現へのマッピングを,ディープニューラルネットワークの狭い隠蔽層として学習するアルゴリズムを導入する。
実験の結果,4つの MuJoCo コントロールスイートタスクに対して,この方法で学習したポリシが同等以上のパフォーマンスを示すことがわかった。 Advances in reinforcement learning have led to its successful application in complex tasks with continuous state and action spaces. Despite these advances in practice, most theoretical work pertains to finite state and action spaces. We propose building a theoretical understanding of continuous state and action spaces by employing a geometric lens. Central to our work is the idea that the transition dynamics induce a low dimensional manifold of reachable states embedded in the high-dimensional nominal state space. We prove that, under certain conditions, the dimensionality of this manifold is at most the dimensionality of the action space plus one. This is the first result of its kind, linking the geometry of the state space to the dimensionality of the action space. We empirically corroborate this upper bound for four MuJoCo environments. We further demonstrate the applicability of our result by learning a policy in this low dimensional representation. To do so we introduce an algorithm that learns a mapping to a low dimensional representation, as a narrow hidden layer of a deep neural network, in tandem with the policy using DDPG. Our experiments show that a policy learnt this way perform on par or better for four MuJoCo control suite tasks. | 翻訳日:2023-01-03 14:09:30 公開日:2022-12-29 |
# 下流処理の課題としてのDBpediaとWikidataの政治的表現バイアス Political representation bias in DBpedia and Wikidata as a challenge for downstream processing ( http://arxiv.org/abs/2301.00671v1 ) ライセンス: Link先を確認 | Ozgur Karadeniz, Bettina Berendt, Sercan Kiyak, Stefan Mertens, Leen d'Haenens | (参考訳) Diversity Searcherは、もともとニュースメディアのテキストの多様性を分析するために開発されたツールだ。
自動コンテンツ分析の形式に依存しており、従って事前の仮定に依存し、多様性と公平性に関連する特定の設計選択に依存する。
そのような設計選択の1つは、使用される外部知識源である。
本稿では,これらの情報源がコンテンツ分析の結果に与える影響について考察する。
私たちは、多様性検索がdbpediaとwikidataの2つのデータソースを比較し、その存在論的カバレッジと多様性について述べ、テキストコーパスの分析結果の意義について説明した。
本稿は,1990年から2020年にかけてのベルギー政党の相対的過大ないし過小表現について,英語dbpedia,オランダ語dbpedia,wikidataで事例研究を行い,このデータ解析の設計やその背後にある仮定,結果からの示唆について,必要な多くの決定について述べる。
特に、英語のDBpediaで、政治的権利の圧倒的な過剰表現に遭遇しました。 Diversity Searcher is a tool originally developed to help analyse diversity in news media texts. It relies on a form of automated content analysis and thus rests on prior assumptions and depends on certain design choices related to diversity and fairness. One such design choice is the external knowledge source(s) used. In this article, we discuss implications that these sources can have on the results of content analysis. We compare two data sources that Diversity Searcher has worked with - DBpedia and Wikidata - with respect to their ontological coverage and diversity, and describe implications for the resulting analyses of text corpora. We describe a case study of the relative over- or under-representation of Belgian political parties between 1990 and 2020 in the English-language DBpedia, the Dutch-language DBpedia, and Wikidata, and highlight the many decisions needed with regard to the design of this data analysis and the assumptions behind it, as well as implications from the results. In particular, we came across a staggering over-representation of the political right in the English-language DBpedia. | 翻訳日:2023-01-03 13:58:20 公開日:2022-12-29 |
# 早期深層学習におけるデータ幾何学の影響 Effects of Data Geometry in Early Deep Learning ( http://arxiv.org/abs/2301.00008v1 ) ライセンス: Link先を確認 | Saket Tiwari and George Konidaris | (参考訳) ディープニューラルネットワークは、画像からグラフまで、基盤構造が異なるさまざまな種類のデータで関数を近似することができる。
この基礎構造はデータ多様体の幾何学と見なすことができる。
ニューラルネットワークの理論的理解の最近の進歩を延長することにより、断片的線形活性化を伴うランダムに初期化されたニューラルネットワークが、データ多様体を線形関数として振る舞う領域に分割する方法について検討する。
線形領域の境界の密度とデータ多様体上のこれらの境界への距離の境界を導出する。
これは、非ユークリッドデータセット上のランダムに初期化されたディープニューラルネットワークの表現性に関する洞察をもたらす。
我々は,おもちゃによる教師付き学習問題を用いて理論的結果を実証的に裏付ける。
実験により, 線形領域の数は多様体によって異なっており, ニューラルネットワークのアーキテクチャの変化に伴う結果が得られた。
さらに,metfacesデータセットを用いて,画像の低次元多様体上の線形領域の複雑さがユークリッド空間と比較してどのように異なるかを示す。 Deep neural networks can approximate functions on different types of data, from images to graphs, with varied underlying structure. This underlying structure can be viewed as the geometry of the data manifold. By extending recent advances in the theoretical understanding of neural networks, we study how a randomly initialized neural network with piece-wise linear activation splits the data manifold into regions where the neural network behaves as a linear function. We derive bounds on the density of boundary of linear regions and the distance to these boundaries on the data manifold. This leads to insights into the expressivity of randomly initialized deep neural networks on non-Euclidean data sets. We empirically corroborate our theoretical results using a toy supervised learning problem. Our experiments demonstrate that number of linear regions varies across manifolds and the results hold with changing neural network architectures. We further demonstrate how the complexity of linear regions is different on the low dimensional manifold of images as compared to the Euclidean space, using the MetFaces dataset. | 翻訳日:2023-01-03 13:58:00 公開日:2022-12-29 |
# 半教師付き言語指導のためのマルチモーダルシーケンス生成モデル Multimodal Sequential Generative Models for Semi-Supervised Language Instruction Following ( http://arxiv.org/abs/2301.00676v1 ) ライセンス: Link先を確認 | Kei Akuzawa, Yusuke Iwasawa, Yutaka Matsuo | (参考訳) 言語指示に従うことができるエージェントは、ナビゲーションのような様々な状況で役に立つことが期待されている。
しかしながら、ニューラルネットワークベースのエージェントのトレーニングには、多数のペアトラックと言語が必要です。
本稿では,マルチモーダル生成モデルを用いた半教師付き学習手法を提案する。
モデルでは、ペアデータの共有表現を学習し、その表現を通して非ペアデータを再構成することにより、半教師あり学習を可能にする。
命令を含むシーケンス・ツー・シーケンスタスクにモデルを適用する上での課題は、可変長マルチモーダルデータの共有表現を学習し、注意機構を取り入れることである。
この問題に対処するために,マルチモーダルデータのシーケンス長の差を吸収する新しいネットワークアーキテクチャを提案する。
さらに, 提案手法は, 話者フォロワーモデルと呼ばれる既存の半教師付き手法に, 生成モデルに基づくアプローチを組み込む方法を示し, 未ペア軌道を用いた推論を改善する正規化項を提案する。
バビライおよびルームツールーム(r2r)環境における実験により,提案手法が非ペアデータを利用して命令追従性能を改善し,r2rにおける話者追従モデルの性能を2\%から4\%向上させることを示した。 Agents that can follow language instructions are expected to be useful in a variety of situations such as navigation. However, training neural network-based agents requires numerous paired trajectories and languages. This paper proposes using multimodal generative models for semi-supervised learning in the instruction following tasks. The models learn a shared representation of the paired data, and enable semi-supervised learning by reconstructing unpaired data through the representation. Key challenges in applying the models to sequence-to-sequence tasks including instruction following are learning a shared representation of variable-length mulitimodal data and incorporating attention mechanisms. To address the problems, this paper proposes a novel network architecture to absorb the difference in the sequence lengths of the multimodal data. In addition, to further improve the performance, this paper shows how to incorporate the generative model-based approach with an existing semi-supervised method called a speaker-follower model, and proposes a regularization term that improves inference using unpaired trajectories. Experiments on BabyAI and Room-to-Room (R2R) environments show that the proposed method improves the performance of instruction following by leveraging unpaired data, and improves the performance of the speaker-follower model by 2\% to 4\% in R2R. | 翻訳日:2023-01-03 13:32:47 公開日:2022-12-29 |
# 正規化モジュラリティの定数近似とアソシエーションクラスタリング Constant Approximation for Normalized Modularity and Associations Clustering ( http://arxiv.org/abs/2212.14334v1 ) ライセンス: Link先を確認 | Jakub {\L}\k{a}cki, Vahab Mirrokni and Christian Sohler | (参考訳) 本研究では,クラスタのエッジ数とクラスタ内の頂点の総重みの比率に基づいてクラスタの品質を定義する,幅広い目的の分類の下でのグラフクラスタリングの問題について検討する。
本定義は,正規化カット対象の双対である正規化結合と正規化モジュラリティという,一般的なクラスタリング尺度と密接に関連していることを示す。
正規化モジュラリティと正規化アソシエーションのための第1の定数要素近似アルゴリズムを示す線形時間定数近似アルゴリズムを提案する。 We study the problem of graph clustering under a broad class of objectives in which the quality of a cluster is defined based on the ratio between the number of edges in the cluster, and the total weight of vertices in the cluster. We show that our definition is closely related to popular clustering measures, namely normalized associations, which is a dual of the normalized cut objective, and normalized modularity. We give a linear time constant-approximate algorithm for our objective, which implies the first constant-factor approximation algorithms for normalized modularity and normalized associations. | 翻訳日:2023-01-02 17:51:55 公開日:2022-12-29 |
# グラフにおけるクラスタの構造学習について On Learning the Structure of Clusters in Graphs ( http://arxiv.org/abs/2212.14345v1 ) ライセンス: Link先を確認 | Peter Macgregor | (参考訳) グラフクラスタリングは教師なし学習において根本的な問題であり、コンピュータ科学や現実世界のデータ分析に多くの応用がある。
多くの実世界のアプリケーションでは、クラスタは大きなハイレベルな構造を持つ。
これはグラフクラスタリングアルゴリズムの設計と解析においてしばしば見過ごされ、グラフの構造に関する仮定を強く単純化する。
本論文は,クラスタ構造を効率的に学習できるかどうかという自然な問題に対処し,グラフやハイパーグラフでその構造を学ぶための4つの新しいアルゴリズム的結果を記述する。
提案した理論結果は,画像分類とセグメンテーション,マイグレーションネットワーク,共著者ネットワーク,自然言語処理など,さまざまな領域の合成データセットと実単語データセットで広く評価されている。
これらの実験結果から,新たに開発したアルゴリズムは実用的かつ効果的であり,実世界データ中のクラスタ構造を即座に学習できることがわかった。 Graph clustering is a fundamental problem in unsupervised learning, with numerous applications in computer science and in analysing real-world data. In many real-world applications, we find that the clusters have a significant high-level structure. This is often overlooked in the design and analysis of graph clustering algorithms which make strong simplifying assumptions about the structure of the graph. This thesis addresses the natural question of whether the structure of clusters can be learned efficiently and describes four new algorithmic results for learning such structure in graphs and hypergraphs. All of the presented theoretical results are extensively evaluated on both synthetic and real-word datasets of different domains, including image classification and segmentation, migration networks, co-authorship networks, and natural language processing. These experimental results demonstrate that the newly developed algorithms are practical, effective, and immediately applicable for learning the structure of clusters in real-world data. | 翻訳日:2023-01-02 17:51:44 公開日:2022-12-29 |
# ランク付けのためのグループフェアネス指標の特性 Properties of Group Fairness Metrics for Rankings ( http://arxiv.org/abs/2212.14351v1 ) ライセンス: Link先を確認 | Tobias Schumacher, Marlene Lutz, Sandipan Sikdar, Markus Strohmaier | (参考訳) 近年,ランク付けのグループフェアネスを評価する指標が開発されている。
これらのメトリクスが異なるアプリケーションコンテキストとランキングアルゴリズムを念頭に開発されていることを考慮すれば、どのメトリクスが特定のシナリオを選択するかは簡単ではない。
本稿では,公正ランキングの文脈で開発された既存グループフェアネス指標の総合的比較分析を行う。
多様なアプリケーションコンテキストにより、このような比較分析は簡単ではないと我々は主張する。
そこで我々は,異なるランキング設定を考慮したグループフェアネス指標の13のプロパティセットを設計する,公理的なアプローチを採っている。
計量はそれらの性質のすべての部分集合を満たすかどうかによって選択できる。
我々は、これらの性質を既存の11つの群フェアネス指標に適用し、経験的および理論的結果の両方を通して、これらの指標のほとんどが提案された性質の小さな部分集合のみを満たすことを示す。
これらの発見は、既存のメトリクスの制限を強調し、実践的なデプロイメントにおいて、異なる公正度メトリクスを評価し、解釈する方法に関する洞察を提供する。
提案する特性は、特定のアプリケーションでフェアネスを評価するための適切な指標を選択する際にも役立つ。 In recent years, several metrics have been developed for evaluating group fairness of rankings. Given that these metrics were developed with different application contexts and ranking algorithms in mind, it is not straightforward which metric to choose for a given scenario. In this paper, we perform a comprehensive comparative analysis of existing group fairness metrics developed in the context of fair ranking. By virtue of their diverse application contexts, we argue that such a comparative analysis is not straightforward. Hence, we take an axiomatic approach whereby we design a set of thirteen properties for group fairness metrics that consider different ranking settings. A metric can then be selected depending on whether it satisfies all or a subset of these properties. We apply these properties on eleven existing group fairness metrics, and through both empirical and theoretical results we demonstrate that most of these metrics only satisfy a small subset of the proposed properties. These findings highlight limitations of existing metrics, and provide insights into how to evaluate and interpret different fairness metrics in practical deployment. The proposed properties can also assist practitioners in selecting appropriate metrics for evaluating fairness in a specific application. | 翻訳日:2023-01-02 17:51:30 公開日:2022-12-29 |
# 5^{\rm th}$ generation local training methods はクライアントサンプリングをサポートできるか?
はい! Can $5^{\rm th}$ Generation Local Training Methods Support Client Sampling? Yes! ( http://arxiv.org/abs/2212.14370v1 ) ライセンス: Link先を確認 | Micha{\l} Grudzie\'n, Grigory Malinovsky, Peter Richt\'arik | (参考訳) McMahanら(2017)の有名なFedAvgアルゴリズムは、クライアントサンプリング(CS)、データサンプリング(DS)、ローカルトレーニング(LT)の3つのコンポーネントに基づいている。
最初の2つは合理的によく理解されているが、モデルの訓練に必要な通信ラウンドの数を削減しようとする第3の構成要素は、十分な理論的説明のために全ての試みに抵抗した。
Malinovskyら (2022) は、提供された理論通信複雑性保証の品質に基づいて、LT法の4つの異なる世代を同定した。
この領域で多くの進歩があったにもかかわらず、既存の研究は、重要な異種データ構造においてのみ単一の局所勾配型ステップに頼るよりも、複数の局所勾配型ステップ(例えば、LTに携わる)を採用する方が理論的に優れていることを示すことはできなかった。
そのproxskip法とその理論的解析で具体化された最近のブレークスルーにおいて、mishchenkoら (2022) は、ltが実際に任意に異種データに対して通信の加速を証明できることを示し、5^{\rm th}$生成のlt法をジャンプスタートさせた。
しかし、これらの最新のLTメソッドはDSと互換性があるが、いずれもCSをサポートしていない。
我々はこのオープンな問題を肯定的に解決する。
そのためには,新たなアルゴリズムと理論的基盤を基盤としたアルゴリズム開発が必要だった。 The celebrated FedAvg algorithm of McMahan et al. (2017) is based on three components: client sampling (CS), data sampling (DS) and local training (LT). While the first two are reasonably well understood, the third component, whose role is to reduce the number of communication rounds needed to train the model, resisted all attempts at a satisfactory theoretical explanation. Malinovsky et al. (2022) identified four distinct generations of LT methods based on the quality of the provided theoretical communication complexity guarantees. Despite a lot of progress in this area, none of the existing works were able to show that it is theoretically better to employ multiple local gradient-type steps (i.e., to engage in LT) than to rely on a single local gradient-type step only in the important heterogeneous data regime. In a recent breakthrough embodied in their ProxSkip method and its theoretical analysis, Mishchenko et al. (2022) showed that LT indeed leads to provable communication acceleration for arbitrarily heterogeneous data, thus jump-starting the $5^{\rm th}$ generation of LT methods. However, while these latest generation LT methods are compatible with DS, none of them support CS. We resolve this open problem in the affirmative. In order to do so, we had to base our algorithmic development on new algorithmic and theoretical foundations. | 翻訳日:2023-01-02 17:51:13 公開日:2022-12-29 |
# ポートフォリオ管理のための深層強化学習を用いた新たなエキスパートアドバイザ集約フレームワーク A Novel Experts Advice Aggregation Framework Using Deep Reinforcement Learning for Portfolio Management ( http://arxiv.org/abs/2212.14477v1 ) ライセンス: Link先を確認 | MohammadAmin Fazli, Mahdi Lashkari, Hamed Taherkhani, Jafar Habibi | (参考訳) 深層強化学習によるポートフォリオ管理問題の解決は、ここ数年、金融業界で注目されている。
我々は,強化学習の枠組みとして,専門家の信号と過去の価格データを用いた新しい手法を提案する。
金融分野では,これまで専門家の信号が用いられてきたが,金融ポートフォリオ管理の課題を解決するために,この手法が深部RLと連動して使用されるのは今回が初めてである。
提案するフレームワークは,信号集約のための畳み込みネットワーク,歴史的価格データのための畳み込みネットワーク,バニラネットワークから構成される。
我々は、報酬処理と環境への対処を行うエージェントとして、ポリシー最適化アルゴリズムを使用した。
その結果、我々のフレームワークは、最高の専門家が獲得した利益の90%を得ることができた。 Solving portfolio management problems using deep reinforcement learning has been getting much attention in finance for a few years. We have proposed a new method using experts signals and historical price data to feed into our reinforcement learning framework. Although experts signals have been used in previous works in the field of finance, as far as we know, it is the first time this method, in tandem with deep RL, is used to solve the financial portfolio management problem. Our proposed framework consists of a convolutional network for aggregating signals, another convolutional network for historical price data, and a vanilla network. We used the Proximal Policy Optimization algorithm as the agent to process the reward and take action in the environment. The results suggested that, on average, our framework could gain 90 percent of the profit earned by the best expert. | 翻訳日:2023-01-02 17:50:47 公開日:2022-12-29 |
# 強い凸ミンミン最適化のための最適アルゴリズム An Optimal Algorithm for Strongly Convex Min-min Optimization ( http://arxiv.org/abs/2212.14439v1 ) ライセンス: Link先を確認 | Dmitry Kovalev, Alexander Gasnikov, Grigory Malinovsky | (参考訳) 本稿では,滑らかな凸最小化問題 $\min_{x}\min_y f(x,y)$ について検討する。
既存の最適一階法では、$\mathcal{o}(\sqrt{\max\{\kappa_x,\kappa_y\}} \log 1/\epsilon)$が$\nabla_x f(x,y)$と$\nabla_y f(x,y)$であり、ここで$\kappa_x$と$\kappa_y$は変数ブロックに対して条件数である$x$と$y$である。
我々は$\mathcal{O}(\sqrt{\kappa_x} \log 1/\epsilon)$の計算量$\nabla_x f(x,y)$と$\mathcal{O}(\sqrt{\kappa_y} \log 1/\epsilon)$の計算量$\nabla_y f(x,y)$の新しいアルゴリズムを提案する。
一部のアプリケーションでは、$\kappa_x \gg \kappa_y$と$\nabla_y f(x,y)$の計算は$\nabla_x f(x,y)$の計算よりもはるかに安価である。
この場合,本アルゴリズムは既存の最先端手法を実質的に上回っている。 In this paper we study the smooth strongly convex minimization problem $\min_{x}\min_y f(x,y)$. The existing optimal first-order methods require $\mathcal{O}(\sqrt{\max\{\kappa_x,\kappa_y\}} \log 1/\epsilon)$ of computations of both $\nabla_x f(x,y)$ and $\nabla_y f(x,y)$, where $\kappa_x$ and $\kappa_y$ are condition numbers with respect to variable blocks $x$ and $y$. We propose a new algorithm that only requires $\mathcal{O}(\sqrt{\kappa_x} \log 1/\epsilon)$ of computations of $\nabla_x f(x,y)$ and $\mathcal{O}(\sqrt{\kappa_y} \log 1/\epsilon)$ computations of $\nabla_y f(x,y)$. In some applications $\kappa_x \gg \kappa_y$, and computation of $\nabla_y f(x,y)$ is significantly cheaper than computation of $\nabla_x f(x,y)$. In this case, our algorithm substantially outperforms the existing state-of-the-art methods. | 翻訳日:2023-01-02 17:44:24 公開日:2022-12-29 |
# k$-meansクラスタリングにおけるクラスタレベルの表現性公平性 Cluster-level Group Representativity Fairness in $k$-means Clustering ( http://arxiv.org/abs/2212.14467v1 ) ライセンス: Link先を確認 | Stanley Simoes, Deepak P, Muiris MacCarthaigh | (参考訳) 最近は、人種や性別などのセンシティブな属性に沿って定義されたグループの表現を公正にしようとする、公正なクラスタリングアルゴリズムの開発に多くの関心が寄せられている。
クラスタリングアルゴリズムは、異なるグループが異なるクラスタ内で不利になるようなクラスタを生成することができる。
クラスタ化アルゴリズムを開発し,k$-means などの古典的アルゴリズムが開拓したセンタロイドクラスタリングパラダイムに基づいて,クラスタ内の不公平なグループによって経験される不公平さの軽減に重点を置く。
提案手法では,初期クラスタ割り当てをオブジェクトをクラスタに再割り当てすることで,各クラスタ内の最悪のセンシティブなグループに恩恵を与える,反復最適化パラダイムを用いる。
本手法の有効性を実世界のデータセット上での新たな評価指標を用いて実証評価を行った。
具体的には,クラスタコヒーレンスに対する影響の少ないクラスタレベルグループ表現性フェアネスの強化に有効であることを示す。 There has been much interest recently in developing fair clustering algorithms that seek to do justice to the representation of groups defined along sensitive attributes such as race and gender. We observe that clustering algorithms could generate clusters such that different groups are disadvantaged within different clusters. We develop a clustering algorithm, building upon the centroid clustering paradigm pioneered by classical algorithms such as $k$-means, where we focus on mitigating the unfairness experienced by the most-disadvantaged group within each cluster. Our method uses an iterative optimisation paradigm whereby an initial cluster assignment is modified by reassigning objects to clusters such that the worst-off sensitive group within each cluster is benefitted. We demonstrate the effectiveness of our method through extensive empirical evaluations over a novel evaluation metric on real-world datasets. Specifically, we show that our method is effective in enhancing cluster-level group representativity fairness significantly at low impact on cluster coherence. | 翻訳日:2023-01-02 17:43:50 公開日:2022-12-29 |
# Pensieve 5G:商用5G SA/NR-DCネットワーク上でのUHD 4K/8Kコンテンツ配信のためのRLベースのABRアルゴリズムの実装 Pensieve 5G: Implementation of RL-based ABR Algorithm for UHD 4K/8K Content Delivery on Commercial 5G SA/NR-DC Network ( http://arxiv.org/abs/2212.14479v1 ) ライセンス: Link先を確認 | Kasidis Arunruangsirilert, Bo Wei, Hang Song, Jiro Katto | (参考訳) 第5世代のモバイルネットワーク(5g)は4k/8k uhdビデオ、拡張現実(ar)、仮想現実(vr)コンテンツの大量提供を意図して世界中で展開されているが、そのカバーとスループットは、特に低周波帯域の5gしか展開されていない農村部において、依然として最も重要な問題の1つだ。
これは、5gネットワーク特性とuhdコンテンツのデータレートを与えられたユーザ体験の質を最大化できる高性能適応ビットレート(abr)アルゴリズムである。
近年,新たに提案するabr技術の多くは機械学習に基づくものである。
中でもPensieveは、強化学習を利用して過去の意思決定性能の観察に基づくABRアルゴリズムを生成する最先端技術の一つである。
5GネットワークとUHDコンテンツのコンテキストを取り入れることで、PensieveはPensieve 5Gに最適化された。
異なる種類のデバイス上でのUHDビデオストリーミングのQoEをより正確に表現する新しいQoE指標を提案し,Pensieve 5GをオリジナルのPensieveを含む他のABR技術と比較した。
実際の5Gスタンダローン(SA)ネットワークスループットに基づくシミュレーションの結果、Pensieve 5Gは従来のアルゴリズムとPensieveの両方でそれぞれ8.8%と14.2%のQoE改善を達成している。
さらに、Pensieve 5Gは、5G Standalone (SA)ネットワークのデータのみを使用してトレーニングが行われたにもかかわらず、商用の5G NR-NR Dual Connectivity (NR-DC)ネットワークでもよく機能した。 While the rollout of the fifth-generation mobile network (5G) is underway across the globe with the intention to deliver 4K/8K UHD videos, Augmented Reality (AR), and Virtual Reality (VR) content to the mass amounts of users, the coverage and throughput are still one of the most significant issues, especially in the rural areas, where only 5G in the low-frequency band are being deployed. This called for a high-performance adaptive bitrate (ABR) algorithm that can maximize the user quality of experience given 5G network characteristics and data rate of UHD contents. Recently, many of the newly proposed ABR techniques were machine-learning based. Among that, Pensieve is one of the state-of-the-art techniques, which utilized reinforcement-learning to generate an ABR algorithm based on observation of past decision performance. By incorporating the context of the 5G network and UHD content, Pensieve has been optimized into Pensieve 5G. New QoE metrics that more accurately represent the QoE of UHD video streaming on the different types of devices were proposed and used to evaluate Pensieve 5G against other ABR techniques including the original Pensieve. The results from the simulation based on the real 5G Standalone (SA) network throughput shows that Pensieve 5G outperforms both conventional algorithms and Pensieve with the average QoE improvement of 8.8% and 14.2%, respectively. Additionally, Pensieve 5G also performed well on the commercial 5G NR-NR Dual Connectivity (NR-DC) Network, despite the training being done solely using the data from the 5G Standalone (SA) network. | 翻訳日:2023-01-02 17:43:33 公開日:2022-12-29 |
# 小さなデータセットに対するロバストベイズ部分空間同定 Robust Bayesian Subspace Identification for Small Data Sets ( http://arxiv.org/abs/2212.14132v1 ) ライセンス: Link先を確認 | Alexandre Rodrigues Mesquita | (参考訳) 従来の部分空間同定法から得られたモデル推定は、大きなばらつきを受ける可能性がある。
この高次分散は、大きなモデルの場合や限られたサンプルサイズでは悪化する。
分散の効果を減らすための一般的な解は正規化推定器、縮小推定器、ベイズ推定である。
現在の研究では、部分空間同定にはまだ適用されていない後者の2つの解について検討する。
実験の結果,提案した推定器は従来の部分空間法よりも最大40 %のコストで推定リスクを低減できることがわかった。 Model estimates obtained from traditional subspace identification methods may be subject to significant variance. This elevated variance is aggravated in the cases of large models or of a limited sample size. Common solutions to reduce the effect of variance are regularized estimators, shrinkage estimators and Bayesian estimation. In the current work we investigate the latter two solutions, which have not yet been applied to subspace identification. Our experimental results show that our proposed estimators may reduce the estimation risk up to $40\%$ of that of traditional subspace methods. | 翻訳日:2023-01-02 17:35:23 公開日:2022-12-29 |
# 高次元多プラットフォームゲノミクスデータの関数積分ベイズ解析 Functional Integrative Bayesian Analysis of High-dimensional Multiplatform Genomic Data ( http://arxiv.org/abs/2212.14165v1 ) ライセンス: Link先を確認 | Rupam Bhattacharyya and Nicholas Henderson and Veerabhadran Baladandayuthapani | (参考訳) 多プラットフォーム分子およびゲノムデータの収集と拡散の急速な進歩は、人間の病気を理解し、予防し、治療するためにそのようなデータを集約する大きな機会をもたらした。
予後と治療の基礎となる生物学的マーカーやメカニズムを発見するためのマルチオミックなデータ統合法では大きな改善がなされているが、これらの複雑なメカニズムを管理する正確な細胞機能は、詳細でデータ駆動のデノボ評価が必要である。
本稿では,高次元多プラットフォームゲノミクスデータの関数的ベイズ解析(FIBAG)というフレームワークを提案する。これは,プロテオゲノミクスバイオマーカーの上流関数的証拠の同時同定と,ベイズ変数選択モデルにおけるそのような知識の導入による信号検出の改善を可能にする。
fiBAGは、ベイズ因子を介してガウス過程モデルを用いて(おそらく非線形ではない)機能的エビデンスを定量化し、その後、新しいキャリブレーションされたスパイク・アンド・スラブにマッピングし、選択を導き、患者の結果に関連する機能的関連性を提供する。
シミュレーションを用いて, 機能キャリブレーションを用いた積分法は, 非積分的手法よりも疾患マーカーの検出能力が高いことを示す。
ファイバッグの収益性は,14種類のがんタイプをパンキャンサーで解析し,がんの茎と患者の生存に関連するプロテオゲノミクスマーカーの細胞機構を同定し,評価する。 Rapid advancements in collection and dissemination of multi-platform molecular and genomics data has resulted in enormous opportunities to aggregate such data in order to understand, prevent, and treat human diseases. While significant improvements have been made in multi-omic data integration methods to discover biological markers and mechanisms underlying both prognosis and treatment, the precise cellular functions governing these complex mechanisms still need detailed and data-driven de-novo evaluations. We propose a framework called Functional Integrative Bayesian Analysis of High-dimensional Multiplatform Genomic Data (fiBAG), that allows simultaneous identification of upstream functional evidence of proteogenomic biomarkers and the incorporation of such knowledge in Bayesian variable selection models to improve signal detection. fiBAG employs a conflation of Gaussian process models to quantify (possibly non-linear) functional evidence via Bayes factors, which are then mapped to a novel calibrated spike-and-slab prior, thus guiding selection and providing functional relevance to the associations with patient outcomes. Using simulations, we illustrate how integrative methods with functional calibration have higher power to detect disease related markers than non-integrative approaches. We demonstrate the profitability of fiBAG via a pan-cancer analysis of 14 cancer types to identify and assess the cellular mechanisms of proteogenomic markers associated with cancer stemness and patient survival. | 翻訳日:2023-01-02 17:34:19 公開日:2022-12-29 |
# 弾性ネットに基づくスパース主成分分析の理論的保証 Theoretical Guarantees for Sparse Principal Component Analysis based on the Elastic Net ( http://arxiv.org/abs/2212.14194v1 ) ライセンス: Link先を確認 | Teng Zhang, Haoyi Yang and Lingzhou Xue | (参考訳) スパース主成分分析(SPCA)は高次元データ解析における次元減少と特徴抽出に広く用いられている。
過去20年間に多くの方法論的・理論的発展があったが、Zau, Hastie & Tibshirani (2006)によって提案された人気のあるSPCAアルゴリズムの理論的保証は未だに不明である。
本稿では,この重要な理論上のギャップを解消する。
まず,Zau et al. (2006)のSPCAアルゴリズムを再検討し,実装について述べる。
また、Zou et al. (2006) において、SPCAアルゴリズムの計算上より効率的な変種について検討し、SPCAの極限ケースとみなすことができる。
両アルゴリズムの定常点への収束の保証を提供する。
スパーススパイク共分散モデルの下では、両アルゴリズムが穏やかな規則性条件下で主部分空間を安定に復元できることを示す。
これらの推定誤差境界は, 既存の作業の最適範囲や, 対数係数までのミニマックス率と一致することを示す。
さらに,シミュレーション研究において,両アルゴリズムの数値性能を示す。 Sparse principal component analysis (SPCA) has been widely used for dimensionality reduction and feature extraction in high-dimensional data analysis. Despite there are many methodological and theoretical developments in the past two decades, the theoretical guarantees of the popular SPCA algorithm proposed by Zou, Hastie & Tibshirani (2006) based on the elastic net are still unknown. We aim to close this important theoretical gap in this paper. We first revisit the SPCA algorithm of Zou et al. (2006) and present our implementation. Also, we study a computationally more efficient variant of the SPCA algorithm in Zou et al. (2006) that can be considered as the limiting case of SPCA. We provide the guarantees of convergence to a stationary point for both algorithms. We prove that, under a sparse spiked covariance model, both algorithms can recover the principal subspace consistently under mild regularity conditions. We show that their estimation error bounds match the best available bounds of existing works or the minimax rates up to some logarithmic factors. Moreover, we demonstrate the numerical performance of both algorithms in simulation studies. | 翻訳日:2023-01-02 17:33:52 公開日:2022-12-29 |
# ほぼ最適非パラメトリックシーケンステストと依存性のある観測による信頼度シーケンス Near-Optimal Non-Parametric Sequential Tests and Confidence Sequences with Possibly Dependent Observations ( http://arxiv.org/abs/2212.14411v1 ) ライセンス: Link先を確認 | Aurelien Bibaut, Nathan Kallus, Michael Lindon | (参考訳) シーケンシャルテスト、常に有効な$p$-values、信頼性シーケンスは柔軟な統計推論とオンザフライ意思決定を約束する。
しかし、漸近的正規性に基づく固定$n$の推論とは異なり、既存のシーケンシャルテストはパラメトリックな仮定をし、これらが失敗したとき、または非パラメトリックだが保守的な濃度の不等式を使用し、過剰にカバー/アンダー・リジェクションされる。
これらの問題を回避するために、我々は、正確な at-least-$\alpha$カバレッジをサイドステップし、漸近的に正確なカバレッジと漸近的最適性に焦点を当てる。
すなわち、真仮説を漸近的に否定する確率が$\alpha$に近づき、偽仮説を否定する期待時間が少なくとも$\alpha$の漸近的カバレッジを持つ全てのテストの低い境界に近づき、どちらも適切な漸近的体制の下でである。
我々は、観測が非パラメトリックかつ依存的であることを許し、観測がマーチンゲール差分列を形成するかどうかをテストすることに集中する。
そこで本研究では,正規混合逐次確率比テストの微修正であるUSPRT(Universal sequence probability ratio test)を提案し,バーンイン周期を加算し,それに応じて閾値を調整する。
この非常に一般的な設定でさえ、uSPRTは温和な一般的な条件下で漸近的に最適であることを示す。
実験方法, 治療効果等について, 安定推定方程式に適用した。
また,本研究では,暗黙の信頼系列に対する保証も提供する。
数値シミュレーションは、代替案に対する uSPRT の保証と利点を検証する。 Sequential testing, always-valid $p$-values, and confidence sequences promise flexible statistical inference and on-the-fly decision making. However, unlike fixed-$n$ inference based on asymptotic normality, existing sequential tests either make parametric assumptions and end up under-covering/over-rejecting when these fail or use non-parametric but conservative concentration inequalities and end up over-covering/under-rejecting. To circumvent these issues, we sidestep exact at-least-$\alpha$ coverage and focus on asymptotically exact coverage and asymptotic optimality. That is, we seek sequential tests whose probability of ever rejecting a true hypothesis asymptotically approaches $\alpha$ and whose expected time to reject a false hypothesis approaches a lower bound on all tests with asymptotic coverage at least $\alpha$, both under an appropriate asymptotic regime. We permit observations to be both non-parametric and dependent and focus on testing whether the observations form a martingale difference sequence. We propose the universal sequential probability ratio test (uSPRT), a slight modification to the normal-mixture sequential probability ratio test, where we add a burn-in period and adjust thresholds accordingly. We show that even in this very general setting, the uSPRT is asymptotically optimal under mild generic conditions. We apply the results to stabilized estimating equations to test means, treatment effects, etc. Our results also provide corresponding guarantees for the implied confidence sequences. Numerical simulations verify our guarantees and the benefits of the uSPRT over alternatives. | 翻訳日:2023-01-02 17:33:30 公開日:2022-12-29 |
# 時系列信号における因果発見ツールとしてのsindyの検討 Investigating Sindy As a Tool For Causal Discovery In Time Series Signals ( http://arxiv.org/abs/2212.14133v1 ) ライセンス: Link先を確認 | Andrew O'Brien, Rosina Weber, Edward Kim | (参考訳) SINDyアルゴリズムは時系列データから力学系の制御方程式の同定に成功している。
本稿では,sindyが因果発見に有用である可能性と,sindyをロバストなスパースモデリングとシステム同定のためのツールとして劇的に改善する上で,既存の因果発見ツールが有効であることを論じる。
そして、因果発見のツールでsindyアルゴリズムを拡張することで、エンジニアが因果的にロバストな支配方程式を学ぶためのツールを提供できることを実証的に示します。 The SINDy algorithm has been successfully used to identify the governing equations of dynamical systems from time series data. In this paper, we argue that this makes SINDy a potentially useful tool for causal discovery and that existing tools for causal discovery can be used to dramatically improve the performance of SINDy as tool for robust sparse modeling and system identification. We then demonstrate empirically that augmenting the SINDy algorithm with tools from causal discovery can provides engineers with a tool for learning causally robust governing equations. | 翻訳日:2023-01-02 17:32:40 公開日:2022-12-29 |
# リアルアタッカーはグラディエントを計算しない」:敵対的ML研究と実践のギャップを埋める "Real Attackers Don't Compute Gradients": Bridging the Gap Between Adversarial ML Research and Practice ( http://arxiv.org/abs/2212.14315v1 ) ライセンス: Link先を確認 | Giovanni Apruzzese, Hyrum S. Anderson, Savino Dambra, David Freeman, Fabio Pierazzi, Kevin A. Roundy | (参考訳) 近年、敵対的機械学習の研究が急増している。
多くの論文が、さまざまな機械学習(ml)モデルに対する強力なアルゴリズム攻撃を示し、他の多くの論文は、ほとんどの攻撃に耐えうる防御を提案する。
しかし、現実の証拠が豊富にあることから、実際の攻撃者はML駆動システムを回避するために単純な戦術を用いており、その結果、セキュリティ実践者は敵のML防御を優先していない。
研究者と実践者の間に明らかなギャップがあることから,本稿は2つの領域を橋渡しすることを目的としている。
まず実世界のケーススタディを3つのケーススタディで提示し、そのケーススタディから、未知の、あるいは無視された実用的な洞察を導き出すことができる。
次に、最近top security conferencesで発表されたadversarial mlのすべての論文を分析し、ポジティブな傾向と盲点を強調した。
最後に,正確かつコスト駆動の脅威モデリング,産学連携,再現可能な研究の立場を述べる。
我々は、我々の立場が採用されれば、敵MLにおける将来の取り組みの現実的な影響を増大させ、研究者と実践者がMLシステムのセキュリティを改善するという共通の目標に近づくだろうと考えている。 Recent years have seen a proliferation of research on adversarial machine learning. Numerous papers demonstrate powerful algorithmic attacks against a wide variety of machine learning (ML) models, and numerous other papers propose defenses that can withstand most attacks. However, abundant real-world evidence suggests that actual attackers use simple tactics to subvert ML-driven systems, and as a result security practitioners have not prioritized adversarial ML defenses. Motivated by the apparent gap between researchers and practitioners, this position paper aims to bridge the two domains. We first present three real-world case studies from which we can glean practical insights unknown or neglected in research. Next we analyze all adversarial ML papers recently published in top security conferences, highlighting positive trends and blind spots. Finally, we state positions on precise and cost-driven threat modeling, collaboration between industry and academia, and reproducible research. We believe that our positions, if adopted, will increase the real-world impact of future endeavours in adversarial ML, bringing both researchers and practitioners closer to their shared goal of improving the security of ML systems. | 翻訳日:2023-01-02 17:32:29 公開日:2022-12-29 |
# 航空連携学習におけるグローバルバイアス問題の特徴 Characterization of the Global Bias Problem in Aerial Federated Learning ( http://arxiv.org/abs/2212.14360v1 ) ライセンス: Link先を確認 | Ruslan Zhagypar, Nour Kouzayha, Hesham ElSawy, Hayssam Dahrouj, and Tareq Y. Al-Naffouri | (参考訳) 無人航空機(UAV)の移動性は、ネットワークエッジで柔軟でカスタマイズされた連邦学習(FL)を可能にする。
しかし、地上無線チャネルの基本的な不確実性はバイアス付きflモデルにつながる可能性がある。
特に、UAVにおけるグローバルモデルの分布とFL学習ラウンドにおける局所的な更新の集約は、無線チャネルの信頼性によって制御される。
これにより、より良いチャネル条件を持つ地上機器のトレーニングデータに対して、望ましくないバイアスが生じる。
本稿では,大規模UAVネットワークにおける航空FLのグローバルバイアス問題を特徴づける。
そこで本稿では,グローバルバイアス問題を解決する手段として,flトレーニングにおける全デバイスから均等な貢献を強制するチャネルアウェア分布・集約方式を提案する。
MNISTデータセットを実験することで提案手法の収束性を実証し,既存の手法と比較してその優位性を示す。
その結果, システムパラメータチューニングにより, fl収束率に対する空中チャネル不足の影響を緩和できることがわかった。 Unmanned aerial vehicles (UAVs) mobility enables flexible and customized federated learning (FL) at the network edge. However, the underlying uncertainties in the aerial-terrestrial wireless channel may lead to a biased FL model. In particular, the distribution of the global model and the aggregation of the local updates within the FL learning rounds at the UAVs are governed by the reliability of the wireless channel. This creates an undesirable bias towards the training data of ground devices with better channel conditions, and vice versa. This paper characterizes the global bias problem of aerial FL in large-scale UAV networks. To this end, the paper proposes a channel-aware distribution and aggregation scheme to enforce equal contribution from all devices in the FL training as a means to resolve the global bias problem. We demonstrate the convergence of the proposed method by experimenting with the MNIST dataset and show its superiority compared to existing methods. The obtained results enable system parameter tuning to relieve the impact of the aerial channel deficiency on the FL convergence rate. | 翻訳日:2023-01-02 17:32:08 公開日:2022-12-29 |
# 医用画像におけるコミュニティ駆動型放射線AIの展開の現状 Current State of Community-Driven Radiological AI Deployment in Medical Imaging ( http://arxiv.org/abs/2212.14177v1 ) ライセンス: Link先を確認 | Vikash Gupta, Barbaros Selnur Erdal, Carolina Ramirez, Ralf Floca, Laurence Jackson, Brad Genereaux, Sidney Bryson, Christopher P Bridge, Jens Kleesiek, Felix Nensa, Rickmer Braren, Khaled Younis, Tobias Penzkofer, Andreas Michael Bucher, Ming Melvin Qin, Gigon Bae, M. Jorge Cardoso, Sebastien Ourselin, Eric Kerfoot, Rahul Choudhury, Richard D. White, Tessa Cook, David Bericat, Matthew Lungren, Risto Haukioja, Haris Shuaib | (参考訳) 人工知能(AI)は日常的な日常的な課題を解決するのに一般的になっている。
医療画像データ量と複雑さの指数関数的な増加により、放射線医の作業量は着実に増加している。
この増加に対応するために必要となる画像検査数と専門家放射線科医の読者数との間にはギャップが拡大し続け、放射線科医がこれらの試験を快適に解釈できる効率を向上させるaiベースのツールの需要が高まると予測する。
aiは画像生成、処理、解釈の効率を向上させることが示されており、世界中の研究所で様々なaiモデルが開発されている。
しかし、AI研究と成功したAI翻訳の相違を反映した相違点である、定期的な臨床利用への道を見出すものはほとんどない。
医療機関におけるaiデプロイメントの標準を構築し、その実施を容易にするためのツールやインフラストラクチャを開発するオープンソースのコミュニティであるmonai consortiumを設立しました。
本報告は,MonAIコンソーシアムの業界専門家と臨床医のグループによる,週ごとの議論と問題解決経験について述べる。
実験室におけるAIモデル開発とその後の臨床展開の障壁を特定し,その解決策を提案する。
本報告は,医療機関における画像aiモデルの開発から臨床実施までのプロセスに関するガイダンスを提供する。
臨床放射線学ワークフローにおける様々なAI統合ポイントについて論じる。
また、Radiology AIのユースケースの分類も提示する。
本報告では,医療とaiの利害関係者(ai研究者,放射線技師,画像情報学者,規制当局)に対して,学際的な課題と可能な解決策について教育することを目的とする。 Artificial Intelligence (AI) has become commonplace to solve routine everyday tasks. Because of the exponential growth in medical imaging data volume and complexity, the workload on radiologists is steadily increasing. We project that the gap between the number of imaging exams and the number of expert radiologist readers required to cover this increase will continue to expand, consequently introducing a demand for AI-based tools that improve the efficiency with which radiologists can comfortably interpret these exams. AI has been shown to improve efficiency in medical-image generation, processing, and interpretation, and a variety of such AI models have been developed across research labs worldwide. However, very few of these, if any, find their way into routine clinical use, a discrepancy that reflects the divide between AI research and successful AI translation. To address the barrier to clinical deployment, we have formed MONAI Consortium, an open-source community which is building standards for AI deployment in healthcare institutions, and developing tools and infrastructure to facilitate their implementation. This report represents several years of weekly discussions and hands-on problem solving experience by groups of industry experts and clinicians in the MONAI Consortium. We identify barriers between AI-model development in research labs and subsequent clinical deployment and propose solutions. Our report provides guidance on processes which take an imaging AI model from development to clinical implementation in a healthcare institution. We discuss various AI integration points in a clinical Radiology workflow. We also present a taxonomy of Radiology AI use-cases. Through this report, we intend to educate the stakeholders in healthcare and AI (AI researchers, radiologists, imaging informaticists, and regulators) about cross-disciplinary challenges and possible solutions. | 翻訳日:2023-01-02 17:24:48 公開日:2022-12-29 |
# 広範な形態相関平衡に対する安全なサブゲーム解法 Safe Subgame Resolving for Extensive Form Correlated Equilibrium ( http://arxiv.org/abs/2212.14317v1 ) ライセンス: Link先を確認 | Chun Kai Ling, Fei Fang | (参考訳) 相関平衡(Correlated Equilibrium)は、ナッシュ平衡(NE)よりも一般的な解概念であり、社会福祉の改善につながる。
しかし、シーケンシャルな設定への自然な拡張である「textit{Extensive Form Correlated Equilibrium} (EFCE)」は、自然にランダム性のない制限された設定であっても、解くのに2次空間を必要とする。
これらの問題を緩和するために、ゼロサムゲームにおけるNEの発見に極めて成功したテクニックである \textit{subgame resolving} を適用し、一般サム EFCE を解く。
サブゲーム解決は、ゲーム全体を前もって解決するのではなく、実際のプレイで到達したサブゲームにおける戦略のためにのみ解決し、計算上の大きな利益をもたらす。
本稿では,
(i)相関計画の \textit{social welfare} と \textit{exploitability} という観点から、洗練された戦略の品質を定量化する基礎を整備する。
(二)EFCEが効率よく解決を行うためのサブゲーム間で十分な量の独立性を持っていること、及び
(iii)線形プログラミングによる解法と後悔の最小化に基づく解法という2つのアルゴリズムを提供する。
どちらのメソッドも \textit{safety} を保証する。
本手法は,オンライン手法が相関した汎用設定に適用された初めての方法である。 Correlated Equilibrium is a solution concept that is more general than Nash Equilibrium (NE) and can lead to outcomes with better social welfare. However, its natural extension to the sequential setting, the \textit{Extensive Form Correlated Equilibrium} (EFCE), requires a quadratic amount of space to solve, even in restricted settings without randomness in nature. To alleviate these concerns, we apply \textit{subgame resolving}, a technique extremely successful in finding NE in zero-sum games to solving general-sum EFCEs. Subgame resolving refines a correlation plan in an \textit{online} manner: instead of solving for the full game upfront, it only solves for strategies in subgames that are reached in actual play, resulting in significant computational gains. In this paper, we (i) lay out the foundations to quantify the quality of a refined strategy, in terms of the \textit{social welfare} and \textit{exploitability} of correlation plans, (ii) show that EFCEs possess a sufficient amount of independence between subgames to perform resolving efficiently, and (iii) provide two algorithms for resolving, one using linear programming and the other based on regret minimization. Both methods guarantee \textit{safety}, i.e., they will never be counterproductive. Our methods are the first time an online method has been applied to the correlated, general-sum setting. | 翻訳日:2023-01-02 17:24:06 公開日:2022-12-29 |
# BagFormer: バッグ操作によるクロスモーダル検索の改善 BagFormer: Better Cross-Modal Retrieval via bag-wise interaction ( http://arxiv.org/abs/2212.14322v1 ) ライセンス: Link先を確認 | Haowen Hou, Xiaopeng Yan, Yigeng Zhang, Fengzong Lian and Zhanhui Kang | (参考訳) クロスモーダル検索の分野では、シングルエンコーダモデルはデュアルエンコーダモデルよりも性能が良い傾向にあるが、高いレイテンシと低スループットに悩まされている。
本稿では,待ち時間とスループットを犠牲にすることなくリコール性能を向上させるためのクロスモーダルインタラクション機構を用いた,bagformerと呼ばれるデュアルエンコーダモデルを提案する。
BagFormerはバッグワイズインタラクションを使用してこれを実現し、より適切な粒度へのテキスト変換とモデルへのエンティティ知識の導入を可能にします。
我々の実験では、BagFormerは、クロスモーダル検索タスクにおける最先端のシングルエンコーダモデルに匹敵する結果が得られると同時に、20.72倍のレイテンシと25.74倍のスループットで効率的なトレーニングと推論を提供する。 In the field of cross-modal retrieval, single encoder models tend to perform better than dual encoder models, but they suffer from high latency and low throughput. In this paper, we present a dual encoder model called BagFormer that utilizes a cross modal interaction mechanism to improve recall performance without sacrificing latency and throughput. BagFormer achieves this through the use of bag-wise interactions, which allow for the transformation of text to a more appropriate granularity and the incorporation of entity knowledge into the model. Our experiments demonstrate that BagFormer is able to achieve results comparable to state-of-the-art single encoder models in cross-modal retrieval tasks, while also offering efficient training and inference with 20.72 times lower latency and 25.74 times higher throughput. | 翻訳日:2023-01-02 17:23:38 公開日:2022-12-29 |
# 大規模完全情報ゲームにおけるstackelberg平衡解の関数近似 Function Approximation for Solving Stackelberg Equilibrium in Large Perfect Information Games ( http://arxiv.org/abs/2212.14431v1 ) ライセンス: Link先を確認 | Chun Kai Ling, J. Zico Kolter, Fei Fang | (参考訳) 関数近似 (fa) は大きなゼロサムゲームを解く上で重要な要素である。
しかし、完全に競争的で協力的なゲームよりも計算が難しいと広く見なされているにもかかわらず、広義のゲームを解くfaに対してはほとんど関心が払われていない。
鍵となる課題は、一般サムゲームにおける多くの平衡に対して、マルコフ決定過程やゼロサムゲームで使われる状態値関数に単純な類似は存在しないことである。
本稿では,一般ゲームにおける状態値関数の一般化である「textit{Enforceable Payoff Frontier} (EPF)」の学習を提案する。
我々は,epfをニューラルネットワークで表現し,適切なバックアップ操作と損失関数を用いてトレーニングすることにより,最適の \textit{stackelberg extensive-form correlationd equilibrium} を近似する。
これはStackelbergの設定にFAを適用する最初の方法であり、FAエラーに基づいたパフォーマンス保証を引き続き享受しながら、ずっと大きなゲームにスケールすることができる。
さらに,提案手法はインセンティブの適合性を保証し,自己再生や最適応答オラクルに頼らずに評価が容易である。 Function approximation (FA) has been a critical component in solving large zero-sum games. Yet, little attention has been given towards FA in solving \textit{general-sum} extensive-form games, despite them being widely regarded as being computationally more challenging than their fully competitive or cooperative counterparts. A key challenge is that for many equilibria in general-sum games, no simple analogue to the state value function used in Markov Decision Processes and zero-sum games exists. In this paper, we propose learning the \textit{Enforceable Payoff Frontier} (EPF) -- a generalization of the state value function for general-sum games. We approximate the optimal \textit{Stackelberg extensive-form correlated equilibrium} by representing EPFs with neural networks and training them by using appropriate backup operations and loss functions. This is the first method that applies FA to the Stackelberg setting, allowing us to scale to much larger games while still enjoying performance guarantees based on FA error. Additionally, our proposed method guarantees incentive compatibility and is easy to evaluate without having to depend on self-play or approximate best-response oracles. | 翻訳日:2023-01-02 17:23:21 公開日:2022-12-29 |
# HUSP-SP: シーケンスデータによる高速なユーティリティマイニング HUSP-SP: Faster Utility Mining on Sequence Data ( http://arxiv.org/abs/2212.14255v1 ) ライセンス: Link先を確認 | Chunkai Zhang, Yuting Yang, Zilin Du, Wensheng Gan, and Philip S. Yu | (参考訳) 高度なシーケンシャルパターンマイニング(huspm)は、広く応用され、かなりの人気があるため、重要なトピックとなっている。
しかし,HUSPM問題と低効用閾値や大規模データに遭遇した場合の検索空間の組合せ爆発により,HUSPM問題に対処するには時間とメモリコストがかかる可能性がある。
この問題に対処するためにいくつかのアルゴリズムが提案されているが、実行時間とメモリ使用量に関してはまだ多くのコストがかかる。
本稿では,この問題をより効率的に解くために,シークエンスプロジェクション(seqPro)と呼ばれるコンパクトな構造を設計し,シークエンスプロ構造(HUSP-SP)で高効率なシークエンスパターンを発見するアルゴリズムを提案する。
HUSP-SPは、コンパクトなSeq-arrayを使用して、必要な情報をシーケンスデータベースに格納する。
seqPro構造は、候補パターンのユーティリティと上限値の効率よく計算するように設計されている。
さらに, HUSP-SPのマイニング性能を向上させるため, 検索空間におけるTRSU(T tighter reduced sequence utility)と2つのプルーニング戦略を新たに導入した。
合成データと実生活データの両方における実験結果は、husp-spが実行時間、メモリ使用量、検索空間の刈り取り効率、スケーラビリティの点で最先端アルゴリズムを大幅に上回ることを示している。 High-utility sequential pattern mining (HUSPM) has emerged as an important topic due to its wide application and considerable popularity. However, due to the combinatorial explosion of the search space when the HUSPM problem encounters a low utility threshold or large-scale data, it may be time-consuming and memory-costly to address the HUSPM problem. Several algorithms have been proposed for addressing this problem, but they still cost a lot in terms of running time and memory usage. In this paper, to further solve this problem efficiently, we design a compact structure called sequence projection (seqPro) and propose an efficient algorithm, namely discovering high-utility sequential patterns with the seqPro structure (HUSP-SP). HUSP-SP utilizes the compact seq-array to store the necessary information in a sequence database. The seqPro structure is designed to efficiently calculate candidate patterns' utilities and upper bound values. Furthermore, a new upper bound on utility, namely tighter reduced sequence utility (TRSU) and two pruning strategies in search space, are utilized to improve the mining performance of HUSP-SP. Experimental results on both synthetic and real-life datasets show that HUSP-SP can significantly outperform the state-of-the-art algorithms in terms of running time, memory usage, search space pruning efficiency, and scalability. | 翻訳日:2023-01-02 17:16:20 公開日:2022-12-29 |
# クラス依存埋め込みを用いたクロスバージョン欠陥予測 Cross Version Defect Prediction with Class Dependency Embeddings ( http://arxiv.org/abs/2212.14404v1 ) ライセンス: Link先を確認 | Moti Cohen, Lior Rokach, Rami Puzis | (参考訳) ソフトウェア欠陥予測は、欠陥を含む最も可能性の高いソフトウェアモジュールを予測することを目的としている。
このアプローチの背景にある考え方は、バグの早期発見を支援することによって、開発プロセス中の時間を節約することだ。
欠陥予測モデルは過去のデータに基づく。
具体的には、分析中の同じターゲットアプリケーションの過去のソフトウェアディストリビューションやバージョンから収集したデータを利用することができる。
過去のバージョンに基づく欠陥予測はCross Version Defect Prediction (CVDP)と呼ばれる。
伝統的に、静的コードメトリクスは欠陥を予測するために使用される。
この作業では、静的コードメトリクスと組み合わせて、欠陥の別の予測手段としてClass Dependency Network(CDN)を使用します。
CDNデータは、分析対象のアプリケーションに関する構造情報を含む。
通常、cdnデータは、ソーシャルネットワークのメトリクスなど、さまざまな手作りのネットワーク計測によって分析される。
本手法では,手動でメトリクスを構築することなくCDN情報を活用するために,ネットワーク埋め込み技術を用いる。
バージョン間の埋め込みを利用するため、異なる埋め込みアライメント技術が組み込まれている。
提案手法を評価するため,24種類のソフトウェアリリースペアの実験を行い,いくつかのベンチマーク手法と比較した。
本研究では,2種類のグラフ埋め込み手法,3つのアンカー選択手法,および2つのアライメント手法の性能解析を行った。
また, 2種類の埋め込みをベースとしたメタモデルを構築し, ベースライン法よりも4.7% (p < 0.002) の統計的改善を実現した。 Software Defect Prediction aims at predicting which software modules are the most probable to contain defects. The idea behind this approach is to save time during the development process by helping find bugs early. Defect Prediction models are based on historical data. Specifically, one can use data collected from past software distributions, or Versions, of the same target application under analysis. Defect Prediction based on past versions is called Cross Version Defect Prediction (CVDP). Traditionally, Static Code Metrics are used to predict defects. In this work, we use the Class Dependency Network (CDN) as another predictor for defects, combined with static code metrics. CDN data contains structural information about the target application being analyzed. Usually, CDN data is analyzed using different handcrafted network measures, like Social Network metrics. Our approach uses network embedding techniques to leverage CDN information without having to build the metrics manually. In order to use the embeddings between versions, we incorporate different embedding alignment techniques. To evaluate our approach, we performed experiments on 24 software release pairs and compared it against several benchmark methods. In these experiments, we analyzed the performance of two different graph embedding techniques, three anchor selection approaches, and two alignment techniques. We also built a meta-model based on two different embeddings and achieved a statistically significant improvement in AUC of 4.7% (p < 0.002) over the baseline method. | 翻訳日:2023-01-02 17:15:53 公開日:2022-12-29 |
# 深い低ランク行列分解における入射正則化のダイナミクス理論 A Dynamics Theory of Implicit Regularization in Deep Low-Rank Matrix Factorization ( http://arxiv.org/abs/2212.14150v1 ) ライセンス: Link先を確認 | Jian Cao, Chen Qian, Yihui Huang, Dicheng Chen, Yuncheng Gao, Jiyang Dong, Di Guo, Xiaobo Qu | (参考訳) 入射正則化はニューラルネットワークを解釈する重要な方法である。
最近の理論は、深い行列分解(DMF)モデルで暗黙の正則化を説明し始め、最適化過程における離散勾配ダイナミクスの軌跡を分析する。
これらの離散勾配力学は比較的小さいが無限小ではないため、ニューラルネットワークの実践的な実装に相応しい。
現在、離散勾配解析は浅層ネットワークに適用されているが、深層ネットワークでは複雑な計算が困難である。
本研究では,暗黙の正規化,すなわちランドスケープ解析を説明するために,別の離散勾配ダイナミクス手法を導入する。
主にサドルポイントやローカルミニマといった勾配領域に焦点を当てている。
DMFにおけるサドル点エスケープ(SPE)ステージと行列ランクの関係を理論的に確立する。
階数-R行列再構成において、DMF は SPE の R 段階の後に 2 階臨界点に収束することを示す。
この結論は低ランク行列再構成問題に対してさらに実験的に検証される。
この研究は、ディープラーニングにおける暗黙の正規化を分析する新しい理論を提供する。 Implicit regularization is an important way to interpret neural networks. Recent theory starts to explain implicit regularization with the model of deep matrix factorization (DMF) and analyze the trajectory of discrete gradient dynamics in the optimization process. These discrete gradient dynamics are relatively small but not infinitesimal, thus fitting well with the practical implementation of neural networks. Currently, discrete gradient dynamics analysis has been successfully applied to shallow networks but encounters the difficulty of complex computation for deep networks. In this work, we introduce another discrete gradient dynamics approach to explain implicit regularization, i.e. landscape analysis. It mainly focuses on gradient regions, such as saddle points and local minima. We theoretically establish the connection between saddle point escaping (SPE) stages and the matrix rank in DMF. We prove that, for a rank-R matrix reconstruction, DMF will converge to a second-order critical point after R stages of SPE. This conclusion is further experimentally verified on a low-rank matrix reconstruction problem. This work provides a new theory to analyze implicit regularization in deep learning. | 翻訳日:2023-01-02 17:08:15 公開日:2022-12-29 |
# 機械学習データの凝縮表現 Condensed Representation of Machine Learning Data ( http://arxiv.org/abs/2212.14229v1 ) ライセンス: Link先を確認 | Rahman Salim Zengin (1), Volkan Sezer (1) ((1) Istanbul Technical University) | (参考訳) 機械学習モデルのトレーニングには十分なデータが必要です。
データの十分さは必ずしも量ではなく、関連性や冗長性の低下に関するものである。
データ生成プロセスは大量のデータを生成する。
生で使用すると、そのようなビッグデータが大量の計算リソース利用を引き起こします。
生のデータを使用する代わりに、適切なCondensed Representationを使用することができる。
一般的なクラスタリング手法であるk-meansと,いくつかの補正・改良機能を組み合わせた機械学習アプリケーションのための新しい凝縮表現法を提案する。
本発明の新規な方法として、有意義かつ視覚的に合成されたデータを用いる。
生データの代わりに縮合表現を用いることで、精度の高いモデルトレーニングが可能になることが示されている。 Training of a Machine Learning model requires sufficient data. The sufficiency of the data is not always about the quantity, but about the relevancy and reduced redundancy. Data-generating processes create massive amounts of data. When used raw, such big data is causing much computational resource utilization. Instead of using the raw data, a proper Condensed Representation can be used instead. Combining K-means, a well-known clustering method, with some correction and refinement facilities a novel Condensed Representation method for Machine Learning applications is introduced. To present the novel method meaningfully and visually, synthetically generated data is employed. It has been shown that by using the condensed representation, instead of the raw data, acceptably accurate model training is possible. | 翻訳日:2023-01-02 17:07:57 公開日:2022-12-29 |
# 変圧器による油井表象の教師なし構築 Unsupervised construction of representations for oil wells via Transformers ( http://arxiv.org/abs/2212.14246v1 ) ライセンス: Link先を確認 | Alina Rogulina, Nikita Baramiia, Valerii Kornilov, Sergey Petrakov, Alexey Zaytsev | (参考訳) 新しく掘削した坑井の貯留層形成特性の決定と予測は重要な課題である。
これらの性質評価のバリエーションの1つは、相互間の相似性である。
規則に基づくアプローチからディープニューラルネットワークまで、多くの類似性学習の方法論が存在する。
近年、シーケンシャルデータを扱う際に類似性モデルを構築するために、リカレントニューラルネットワークなどの記事が採用されている。
このようなアプローチは、シーケンスの最後により多くの注意を払うため、短期記憶に悩まされる。
Transformerアーキテクチャを備えたニューラルネットワークは、決定のためにすべてのシーケンスに注意を向けた。
計算時間をより効率的にするために,情報提供者と演奏者アーキテクチャに類似した限定的な注意機構を導入する。
オープンデータセットで20以上の井戸を用いて実験を行い,産業利用に適した信頼性の高い実験を行った。
その結果, ROC AUC 0.982 を用いた Transformer の Informer 版が得られた。
ROC AUC 0.824、ROC AUC 0.934によるリカレントニューラルネットワーク、ROC AUC 0.961によるトランスフォーマーの簡単な使用など、従来のアプローチよりも優れている。 Determining and predicting reservoir formation properties for newly drilled wells represents a significant challenge. One of the variations of these properties evaluation is well-interval similarity. Many methodologies for similarity learning exist: from rule-based approaches to deep neural networks. Recently, articles adopted, e.g. recurrent neural networks to build a similarity model as we deal with sequential data. Such an approach suffers from short-term memory, as it pays more attention to the end of a sequence. Neural network with Transformer architecture instead cast their attention over all sequences to make a decision. To make them more efficient in terms of computational time, we introduce a limited attention mechanism similar to Informer and Performer architectures. We conduct experiments on open datasets with more than 20 wells making our experiments reliable and suitable for industrial usage. The best results were obtained with our adaptation of the Informer variant of Transformer with ROC AUC 0.982. It outperforms classical approaches with ROC AUC 0.824, Recurrent neural networks with ROC AUC 0.934 and straightforward usage of Transformers with ROC AUC 0.961. | 翻訳日:2023-01-02 17:07:48 公開日:2022-12-29 |
# 二元性ニューロン活性化パターンを用いた分布外サンプルの検出 Detection of out-of-distribution samples using binary neuron activation patterns ( http://arxiv.org/abs/2212.14268v1 ) ライセンス: Link先を確認 | Bartlomiej Olber, Krystian Radlak, Adam Popowicz, Michal Szczepankiewicz, Krystian Chachula | (参考訳) ディープニューラルネットワーク(DNN)は、様々なアプリケーションで優れた性能を発揮する。
研究コミュニティの多くの努力にもかかわらず、アウト・オブ・ディストリビューション(OOD)サンプルはDNN分類器の重大な制限を保っている。
未発見の入力を新規に識別する能力は、自動運転車、無人航空機、ロボットといった安全上重要な応用において不可欠である。
OODサンプルを検出するための既存のアプローチでは、DNNをブラックボックスとして扱い、出力予測の信頼性スコアを評価する。
残念ながら、DNNはOOD入力に対する信頼を減らすために訓練されていないため、この方法は頻繁に失敗する。
本研究では,OOD検出のための新しい手法を提案する。
この手法は、ReLUアーキテクチャにおけるニューロン活性化パターン(NAP)の理論解析によって動機付けられる。
提案手法は,畳み込み層から抽出した活性化パターンのバイナリ表現のため,高い計算負荷を伴わない。
広範な実証評価により、様々なDNNアーキテクチャと7つの画像データセットの性能が証明された。
イオン Deep neural networks (DNN) have outstanding performance in various applications. Despite numerous efforts of the research community, out-of-distribution (OOD) samples remain significant limitation of DNN classifiers. The ability to identify previously unseen inputs as novel is crucial in safety-critical applications such as self-driving cars, unmanned aerial vehicles and robots. Existing approaches to detect OOD samples treat a DNN as a black box and assess the confidence score of the output predictions. Unfortunately, this method frequently fails, because DNN are not trained to reduce their confidence for OOD inputs. In this work, we introduce a novel method for OOD detection. Our method is motivated by theoretical analysis of neuron activation patterns (NAP) in ReLU based architectures. The proposed method does not introduce high computational workload due to the binary representation of the activation patterns extracted from convolutional layers. The extensive empirical evaluation proves its high performance on various DNN architectures and seven image datasets. ion. | 翻訳日:2023-01-02 17:07:30 公開日:2022-12-29 |
# 深部時間的コントラストクラスタリング Deep Temporal Contrastive Clustering ( http://arxiv.org/abs/2212.14366v1 ) ライセンス: Link先を確認 | Ying Zhong, Dong Huang, Chang-Dong Wang | (参考訳) 近年、ディープラーニングは時系列データの表現学習とクラスタリングにおいてそのアドバンテージを示している。
大規模な進歩にもかかわらず、既存のディープ時系列クラスタリングアプローチは、主に、いくつかのインスタンス再構成ベースまたはクラスタ分布ベースの目的によって、ディープニューラルネットワークをトレーニングしようとするが、それは、サンプルワイド(または拡張ワイド)のコントラスト情報や、差別的およびクラスタリングフレンドリーな表現を学ぶための高レベル(例えば、クラスタレベル)のコントラストネスを活用できない。
そこで本研究では,時間差クラスタリング(DTCC, Deep temporal contrastive clustering)手法を提案する。
具体的には、元の時系列とその拡張から生成された2つの並列ビューを用いて、2つの同一のオートエンコーダを使用して対応する表現を学習し、その間にk-means目標を組み込んでクラスタ分布学習を行う。
さらに、インスタンスレベルとクラスタレベルのコントラスト情報を取得するために、コントラスト学習の2つのレベルを同時に実施する。
自動エンコーダの再構成損失、クラスタ分布損失、コントラスト損失の2レベルを共同で最適化することにより、ネットワークアーキテクチャを自己教師ありで訓練し、クラスタリング結果を得ることができる。
時系列データセットのさまざまな実験は、最先端のdtccアプローチが優れていることを示している。 Recently the deep learning has shown its advantage in representation learning and clustering for time series data. Despite the considerable progress, the existing deep time series clustering approaches mostly seek to train the deep neural network by some instance reconstruction based or cluster distribution based objective, which, however, lack the ability to exploit the sample-wise (or augmentation-wise) contrastive information or even the higher-level (e.g., cluster-level) contrastiveness for learning discriminative and clustering-friendly representations. In light of this, this paper presents a deep temporal contrastive clustering (DTCC) approach, which for the first time, to our knowledge, incorporates the contrastive learning paradigm into the deep time series clustering research. Specifically, with two parallel views generated from the original time series and their augmentations, we utilize two identical auto-encoders to learn the corresponding representations, and in the meantime perform the cluster distribution learning by incorporating a k-means objective. Further, two levels of contrastive learning are simultaneously enforced to capture the instance-level and cluster-level contrastive information, respectively. With the reconstruction loss of the auto-encoder, the cluster distribution loss, and the two levels of contrastive losses jointly optimized, the network architecture is trained in a self-supervised manner and the clustering result can thereby be obtained. Experiments on a variety of time series datasets demonstrate the superiority of our DTCC approach over the state-of-the-art. | 翻訳日:2023-01-02 17:07:16 公開日:2022-12-29 |
# スマートホームアプリケーションにおけるCIoTデバイスのためのグラフフェデレーション学習 Graph Federated Learning for CIoT Devices in Smart Home Applications ( http://arxiv.org/abs/2212.14395v1 ) ライセンス: Link先を確認 | Arash Rasti-Meymandi, Seyed Mohammad Sheikholeslami, Jamshid Abouei, Konstantinos N. Plataniotis | (参考訳) 本稿では、スマートビルディングに限られた数の消費者モノのインターネット(ciot)デバイスが存在するクロスサイロフェデレーション学習(fl)フレームワークにおける、統計的およびシステムの不均一性の問題を扱う。
本稿では, ``g-fedfilt''' と呼ばれるグラフフィルタリングに基づく新しいグラフ信号処理(gsp)に基づく集約ルールを提案する。
提案するアグリゲータは,グラフのトポロジに基づく情報の流れを構造化することができる。
この動作は、ciotデバイスの相互接続をキャプチャし、ドメイン固有モデルのトレーニングを可能にする。
埋め込みグラフフィルタは、ドメインに依存しないFLとドメイン固有のFLとの連続的なトレードオフを可能にする調整可能なパラメータを備える。
ドメインに依存しない場合、G-Fedfiltは従来のFederated Averaging (FedAvg)アグリゲーションルールと同様の動作を強制する。
提案したG-Fedfiltでは,グラフ接続性に基づいたスムーズなクラスタリングが可能であり,フレームワーク内のモデルのパーソナライズをさらに促進する。
さらに,提案手法は,通信効率のよい時間スケジューリングにより,システムの不均一性を緩和する。
これは、トレーニングデータサンプルの量とモデルの勾配のスパーシティを適応的に調整することで、通信の同期化とレイテンシを減少させる。
シミュレーションの結果,統計的に異種な局所データセットにおけるモデルパーソナライズに関する場合,g-fedfiltは従来のfedavgよりも最大3.99\%高い分類精度が得られるが,モデルの一般化をテストする場合にはfedavgよりも最大2.41\%高い精度が得られることがわかった。 This paper deals with the problem of statistical and system heterogeneity in a cross-silo Federated Learning (FL) framework where there exist a limited number of Consumer Internet of Things (CIoT) devices in a smart building. We propose a novel Graph Signal Processing (GSP)-inspired aggregation rule based on graph filtering dubbed ``G-Fedfilt''. The proposed aggregator enables a structured flow of information based on the graph's topology. This behavior allows capturing the interconnection of CIoT devices and training domain-specific models. The embedded graph filter is equipped with a tunable parameter which enables a continuous trade-off between domain-agnostic and domain-specific FL. In the case of domain-agnostic, it forces G-Fedfilt to act similar to the conventional Federated Averaging (FedAvg) aggregation rule. The proposed G-Fedfilt also enables an intrinsic smooth clustering based on the graph connectivity without explicitly specified which further boosts the personalization of the models in the framework. In addition, the proposed scheme enjoys a communication-efficient time-scheduling to alleviate the system heterogeneity. This is accomplished by adaptively adjusting the amount of training data samples and sparsity of the models' gradients to reduce communication desynchronization and latency. Simulation results show that the proposed G-Fedfilt achieves up to $3.99\% $ better classification accuracy than the conventional FedAvg when concerning model personalization on the statistically heterogeneous local datasets, while it is capable of yielding up to $2.41\%$ higher accuracy than FedAvg in the case of testing the generalization of the models. | 翻訳日:2023-01-02 17:06:50 公開日:2022-12-29 |
# 可変レギュラーリザトンを用いたRLのオフライン政策最適化 Offline Policy Optimization in RL with Variance Regularizaton ( http://arxiv.org/abs/2212.14405v1 ) ライセンス: Link先を確認 | Riashat Islam, Samarth Sinha, Homanga Bharadhwaj, Samin Yeasar Arnob, Zhuoran Yang, Animesh Garg, Zhaoran Wang, Lihong Li, Doina Precup | (参考訳) 固定オフラインデータセットからの学習ポリシーは、強化学習(RL)アルゴリズムを実用的なアプリケーションにスケールアップする上で重要な課題である。
これは多くの場合、オフポリシーrlアルゴリズムが、データセットとターゲットポリシーのミスマッチによる分散シフトに苦しむためであり、値関数の分散と過大評価に繋がる。
本研究では、定常分布補正を用いたオフラインRLアルゴリズムの分散正則化を提案する。
Fenchel双対性を用いることで、分散正規化器の勾配を計算するための二重サンプリング問題を回避することができることを示す。
オフライン分散正規化アルゴリズム(OVAR)は,既存のオフラインポリシー最適化アルゴリズムを拡張できる。
我々は,正則化手法が,過度な推定誤差を回避するために,オフラインポリシ最適化の目標に低拘束性をもたらすことを示すとともに,既存の最先端アルゴリズムと比較して,一連の連続制御領域にまたがるアプローチの利点を説明する。 Learning policies from fixed offline datasets is a key challenge to scale up reinforcement learning (RL) algorithms towards practical applications. This is often because off-policy RL algorithms suffer from distributional shift, due to mismatch between dataset and the target policy, leading to high variance and over-estimation of value functions. In this work, we propose variance regularization for offline RL algorithms, using stationary distribution corrections. We show that by using Fenchel duality, we can avoid double sampling issues for computing the gradient of the variance regularizer. The proposed algorithm for offline variance regularization (OVAR) can be used to augment any existing offline policy optimization algorithms. We show that the regularizer leads to a lower bound to the offline policy optimization objective, which can help avoid over-estimation errors, and explains the benefits of our approach across a range of continuous control domains when compared to existing state-of-the-art algorithms. | 翻訳日:2023-01-02 17:06:19 公開日:2022-12-29 |
# PCCC: Pairwise-Confidence-Constraints-Clusteringアルゴリズム PCCC: The Pairwise-Confidence-Constraints-Clustering Algorithm ( http://arxiv.org/abs/2212.14437v1 ) ライセンス: Link先を確認 | Philipp Baumann and Dorit S. Hochbaum | (参考訳) 我々は、オブジェクトのペアが同じか異なるクラスタにあるかという情報が得られる半教師付き$k$-clustering問題を考える。
この情報は確実性を持つか、あるいはある程度の信頼を持って利用できる。
提案手法は,オブジェクト対に提供された情報を考慮しつつ,反復的にオブジェクトをクラスタに割り当てるpcccアルゴリズムを導入する。
我々のアルゴリズムは、満足することが保証される厳格な制約や、ペナルティに違反する可能性のあるソフトな制約として関係を組み込むことができる。
この柔軟性は、すべてのペアワイズ制約がハードと見なされるか、あるいはすべてソフトと見なされる状態とアルゴリズムを区別します。
既存のアルゴリズムとは異なり、アルゴリズムは最大6万のオブジェクト、100のクラスタ、数百万のnot-link制約(組み込むのが最も難しい制約)を持つ大規模インスタンスにスケールする。
我々は,PCCCアルゴリズムと最先端の手法との比較を行った。
PCCCアルゴリズムはその適用性における最先端のアプローチよりも一般的なものであるが、実行時間とソリューション品質の様々な指標の両方において、すべての厳しい制約または全てのソフトな制約を持つインスタンスに対して最先端のアプローチより優れている。
PCCCアルゴリズムのソースコードはGitHubで公開されている。 We consider a semi-supervised $k$-clustering problem where information is available on whether pairs of objects are in the same or in different clusters. This information is either available with certainty or with a limited level of confidence. We introduce the PCCC algorithm, which iteratively assigns objects to clusters while accounting for the information provided on the pairs of objects. Our algorithm can include relationships as hard constraints that are guaranteed to be satisfied or as soft constraints that can be violated subject to a penalty. This flexibility distinguishes our algorithm from the state-of-the-art in which all pairwise constraints are either considered hard, or all are considered soft. Unlike existing algorithms, our algorithm scales to large-scale instances with up to 60,000 objects, 100 clusters, and millions of cannot-link constraints (which are the most challenging constraints to incorporate). We compare the PCCC algorithm with state-of-the-art approaches in an extensive computational study. Even though the PCCC algorithm is more general than the state-of-the-art approaches in its applicability, it outperforms the state-of-the-art approaches on instances with all hard constraints or all soft constraints both in terms of running time and various metrics of solution quality. The source code of the PCCC algorithm is publicly available on GitHub. | 翻訳日:2023-01-02 17:06:02 公開日:2022-12-29 |
# 3D Masked Modellingによる近位T2w前立腺MRIの病変分類 3D Masked Modelling Advances Lesion Classification in Axial T2w Prostate MRI ( http://arxiv.org/abs/2212.14267v1 ) ライセンス: Link先を確認 | Alvaro Fernandez-Quilez and Christoffer Gabrielsen Andersen and Trygve Eftest{\o}l and Svein Reidar Kjosavik and Ketil Oppedal | (参考訳) Masked Image Modelling (MIM) は、トランスフォーマーアーキテクチャと組み合わせたり、大量の自然画像が存在する場合に、効率的な自己教師付き学習(SSL)事前学習パラダイムであることが示されている。
大量のラベル付きデータへのアクセスと取得の難しさと、医療画像領域におけるラベルなしデータの可用性の組み合わせは、mimを3次元医用画像データに基づくディープラーニング(dl)アプリケーションを進めるための興味深いアプローチである。
それでもSSLや、特に医療画像データを用いたMIMアプリケーションは、かなり少なく、まだ不確実性がある。
医療分野におけるこのような学習パラダイムの可能性についてです
t2 weighted (t2w) axial magnetic resonance imaging (mri) データを用いた前立腺癌(pca)病変分類におけるmimの検討を行った。
特に,異なるマスキング戦略などの異なる条件下で畳み込みニューラルネットワーク(cnns)と組み合わせてmimを使用することが,imagenetの重み初期化のような他の事前学習戦略よりもaucの観点でより良い結果を得る効果について検討する。 Masked Image Modelling (MIM) has been shown to be an efficient self-supervised learning (SSL) pre-training paradigm when paired with transformer architectures and in the presence of a large amount of unlabelled natural images. The combination of the difficulties in accessing and obtaining large amounts of labeled data and the availability of unlabelled data in the medical imaging domain makes MIM an interesting approach to advance deep learning (DL) applications based on 3D medical imaging data. Nevertheless, SSL and, in particular, MIM applications with medical imaging data are rather scarce and there is still uncertainty. around the potential of such a learning paradigm in the medical domain. We study MIM in the context of Prostate Cancer (PCa) lesion classification with T2 weighted (T2w) axial magnetic resonance imaging (MRI) data. In particular, we explore the effect of using MIM when coupled with convolutional neural networks (CNNs) under different conditions such as different masking strategies, obtaining better results in terms of AUC than other pre-training strategies like ImageNet weight initialization. | 翻訳日:2023-01-02 16:50:52 公開日:2022-12-29 |
# ジェネリックオブジェクトの高密度3次元形状対応のための学習命令関数 Learning Implicit Functions for Dense 3D Shape Correspondence of Generic Objects ( http://arxiv.org/abs/2212.14276v1 ) ライセンス: Link先を確認 | Feng Liu and Xiaoming Liu | (参考訳) 本研究の目的は、トポロジに変化した一般的な物体の3次元形状対応を教師なしで学習することである。
従来の暗黙関数は、3Dポイントの占有度を潜在符号として推定する。
代わりに、我々の新しい暗黙関数は、部分埋め込み空間内の各3次元点を表す確率的埋め込みを生成する。
対応する点が埋め込み空間で似ていると仮定すると、部分埋め込みベクトルから対応する3次元点への逆関数写像を通して密対応を実装する。
いずれの関数も,複数の有効かつ不確実性を考慮した損失関数と,形状潜在コードを生成するエンコーダとを併用して学習する。
推測中、ユーザがソース形状の任意の点を選択すると、アルゴリズムは、目標形状に対応しているかどうかを示す信頼度スコアと、それに対応する意味点を自動的に生成することができる。
このようなメカニズムは、本質的に異なる構成の人工物に利益をもたらす。
提案手法の有効性は,教師なし3次元意味対応と形状セグメンテーションによって実証される。 The objective of this paper is to learn dense 3D shape correspondence for topology-varying generic objects in an unsupervised manner. Conventional implicit functions estimate the occupancy of a 3D point given a shape latent code. Instead, our novel implicit function produces a probabilistic embedding to represent each 3D point in a part embedding space. Assuming the corresponding points are similar in the embedding space, we implement dense correspondence through an inverse function mapping from the part embedding vector to a corresponded 3D point. Both functions are jointly learned with several effective and uncertainty-aware loss functions to realize our assumption, together with the encoder generating the shape latent code. During inference, if a user selects an arbitrary point on the source shape, our algorithm can automatically generate a confidence score indicating whether there is a correspondence on the target shape, as well as the corresponding semantic point if there is one. Such a mechanism inherently benefits man-made objects with different part constitutions. The effectiveness of our approach is demonstrated through unsupervised 3D semantic correspondence and shape segmentation. | 翻訳日:2023-01-02 16:50:31 公開日:2022-12-29 |
# 高時間分解能イベントベース車両検出と追跡 High-temporal-resolution event-based vehicle detection and tracking ( http://arxiv.org/abs/2212.14289v1 ) ライセンス: Link先を確認 | Zaid El-Shair and Samir Rawashdeh | (参考訳) イベントベースのビジョンは近年、その高い時間分解能(~1us)、高いダイナミックレンジ(>120db)、わずか数マイクロ秒の出力レイテンシといったユニークな特徴によって、急速に成長しています。
この研究は、手作りのイベントベース手法で補完される最先端のフレームベースの検出器を活用して、計算オーバーヘッドを最小限に抑えて全体的なトラッキング性能を改善する、ハイブリッドでマルチモーダルなオブジェクト検出とトラッキングのアプローチをさらに探求する。
得られたbbsの精度を向上させるイベントベースバウンディングボックス(bb)の改良と、失敗した検出を回収し、高時間分解能トラッキングアウトプットを可能にするフレーム間検出を生成する連続イベントベースオブジェクト検出方法を含む。
これらの手法の利点は高次追跡精度(HOTA)を用いたアブレーション法により定量的に検証される。
その結果、HOTAはフレームのみを使用して56.6%から64.1%、64.9%に改善され、イベントとエッジベースのマスク構成が24Hzのベースラインフレームレートで提案された2つの手法と組み合わせられた。
同様に、これらの手法を同じ構成に組み込むことで、HOTAは52.5%から63.1%に改善され、51.3%から60.2%に改善された。
最後に,高速LiDARを用いた実世界の単一物体追跡性能の検証実験を行った。
提案手法は,24Hzの基線フレームレートと最大500Hzの追従速度でフレームベース物体検出器を使用する場合と比較して大きな利点があることを示す。 Event-based vision has been rapidly growing in recent years justified by the unique characteristics it presents such as its high temporal resolutions (~1us), high dynamic range (>120dB), and output latency of only a few microseconds. This work further explores a hybrid, multi-modal, approach for object detection and tracking that leverages state-of-the-art frame-based detectors complemented by hand-crafted event-based methods to improve the overall tracking performance with minimal computational overhead. The methods presented include event-based bounding box (BB) refinement that improves the precision of the resulting BBs, as well as a continuous event-based object detection method, to recover missed detections and generate inter-frame detections that enable a high-temporal-resolution tracking output. The advantages of these methods are quantitatively verified by an ablation study using the higher order tracking accuracy (HOTA) metric. Results show significant performance gains resembled by an improvement in the HOTA from 56.6%, using only frames, to 64.1% and 64.9%, for the event and edge-based mask configurations combined with the two methods proposed, at the baseline framerate of 24Hz. Likewise, incorporating these methods with the same configurations has improved HOTA from 52.5% to 63.1%, and from 51.3% to 60.2% at the high-temporal-resolution tracking rate of 384Hz. Finally, a validation experiment is conducted to analyze the real-world single-object tracking performance using high-speed LiDAR. Empirical evidence shows that our approaches provide significant advantages compared to using frame-based object detectors at the baseline framerate of 24Hz and higher tracking rates of up to 500Hz. | 翻訳日:2023-01-02 16:50:14 公開日:2022-12-29 |
# 画像生成モデルからの概念蒸留によるゼロショットオブジェクト分割 Zero-Shot Object Segmentation through Concept Distillation from Generative Image Foundation Models ( http://arxiv.org/abs/2212.14306v1 ) ライセンス: Link先を確認 | Mischa Dombrowski, Hadrien Reynaud, Matthew Baugh and Bernhard Kainz | (参考訳) オブジェクトセグメンテーションのためのデータセットのキュレーションは難しい作業です。
大規模事前学習型生成モデルの出現により、条件付き画像生成は結果の品質と使いやすさを著しく向上させた。
本稿では,単純なテキスト記述から,セグメンテーションラベルを必要とせずに,一般的なフォアグラウンド・バックグラウンド・セグメンテーションモデルを生成する手法を提案する。
事前学習した潜在拡散モデルを利用して、概念や対象に対する弱いセグメンテーションマスクを自動生成する。
マスクは塗布作業で拡散モデルを微調整するために使用され、それによってオブジェクトのきめ細かい除去が可能となり、同時に合成フォアグラウンドと背景データセットが提供される。
我々は,この手法が従来の手法を判別的・生成的性能の両方で破り,画素単位のオブジェクトラベルを必要とせず,完全に教師付きトレーニングでギャップを埋めることを示した。
4つの異なる物体(人間、犬、車、鳥)を分割する作業の結果を示す。 Curating datasets for object segmentation is a difficult task. With the advent of large-scale pre-trained generative models, conditional image generation has been given a significant boost in result quality and ease of use. In this paper, we present a novel method that enables the generation of general foreground-background segmentation models from simple textual descriptions, without requiring segmentation labels. We leverage and explore pre-trained latent diffusion models, to automatically generate weak segmentation masks for concepts and objects. The masks are then used to fine-tune the diffusion model on an inpainting task, which enables fine-grained removal of the object, while at the same time providing a synthetic foreground and background dataset. We demonstrate that using this method beats previous methods in both discriminative and generative performance and closes the gap with fully supervised training while requiring no pixel-wise object labels. We show results on the task of segmenting four different objects (humans, dogs, cars, birds). | 翻訳日:2023-01-02 16:49:41 公開日:2022-12-29 |
# マスクの学習:汎用顔偽造検出を目指して Learning to mask: Towards generalized face forgery detection ( http://arxiv.org/abs/2212.14309v1 ) ライセンス: Link先を確認 | Jianwei Fei, Yunshu Dai, Huaming Wang, Zhihua Xia | (参考訳) フェースフォージェリ検出器にとって、偽造の見当たらない型に対する一般化性は不可欠である。
最近の研究は、合成偽造データ拡張による一般化において大きな進歩を遂げている。
本研究では、一般化を改善するための別の道を探る。
私たちの目標は、トレーニングフェーズで簡単に学習できる機能を減らすことで、特定のフォージェリータイプに過度に適合するリスクを減らすことです。
具体的には,教師ネットワークが顔画像の入力として受け取り,多様なマルチヘッドアテンション ViT を用いて,深い特徴のアテンションマップを生成する。
アテンションマップは、高アテンションの深い特徴を減らすことで、低アテンション機能にフォーカスするように学生ネットワークを誘導するために使用される。
機能ドメインの偽造を合成するための深い機能ミックスアップ戦略も提案されている。
実験により,データ拡張を行なわずに,未発見の偽造や高度に圧縮されたデータに対して有望な性能が得られることを示した。 Generalizability to unseen forgery types is crucial for face forgery detectors. Recent works have made significant progress in terms of generalization by synthetic forgery data augmentation. In this work, we explore another path for improving the generalization. Our goal is to reduce the features that are easy to learn in the training phase, so as to reduce the risk of overfitting on specific forgery types. Specifically, in our method, a teacher network takes as input the face images and generates an attention map of the deep features by a diverse multihead attention ViT. The attention map is used to guide a student network to focus on the low-attended features by reducing the highly-attended deep features. A deep feature mixup strategy is also proposed to synthesize forgeries in the feature domain. Experiments demonstrate that, without data augmentation, our method is able to achieve promising performances on unseen forgeries and highly compressed data. | 翻訳日:2023-01-02 16:49:22 公開日:2022-12-29 |
# MagicNet: Magic-Cube分割とリカバリによる半スーパービジョンマルチオーガンセグメンテーション MagicNet: Semi-Supervised Multi-Organ Segmentation via Magic-Cube Partition and Recovery ( http://arxiv.org/abs/2212.14310v1 ) ライセンス: Link先を確認 | Duowen Chen, Yunhao Bai, Wei Shen, Qingli Li, Lequan Yu, Yan Wang | (参考訳) 半教師付き多臓器セグメンテーションのための新しい教師学生モデルを提案する。
教師-学生モデルでは、教師と生徒の一貫性のあるトレーニングを規則化するために、通常、ラベルのないデータにデータ拡張が採用される。
まず,各臓器の相対的位置と可変サイズが,多臓器CTスキャンを描画する分布情報を提供できるというキーパースペクティブから始める。
そこで,先行解剖学をデータ拡張を導く強力なツールとして扱い,半教師付き学習のためのラベル付き画像とラベル付き画像のミスマッチを減らす。
具体的には,分割回収型N$^3$立方体をラベル付きおよびラベルなし画像内を交差するデータ拡張戦略を提案する。
我々の戦略は、ラベル付き画像(クロスブランチ)から相対的な位置の臓器意味学を学ぶことを奨励し、小器官(ブランチ付き)の学習能力を高める。
さらに,小キューブからの学習表現をブレンドし,局所属性を組み込むことにより,擬似ラベルの品質を向上させることを提案する。
我々の手法はMagicNetと呼ばれ、CTボリュームをマジックキューブとして扱い、$N^3$-cubeパーティション&リカバリプロセスはマジックキューブを再生する規則と一致する。
2つのパブリックCTマルチ組織データセットに対する大規模な実験は、MagicNetの有効性を示し、最先端の半教師付き医療画像セグメンテーションアプローチを著しく上回り、10%のラベル付き画像でMACTデータセットを+7%改善した。 We propose a novel teacher-student model for semi-supervised multi-organ segmentation. In teacher-student model, data augmentation is usually adopted on unlabeled data to regularize the consistent training between teacher and student. We start from a key perspective that fixed relative locations and variable sizes of different organs can provide distribution information where a multi-organ CT scan is drawn. Thus, we treat the prior anatomy as a strong tool to guide the data augmentation and reduce the mismatch between labeled and unlabeled images for semi-supervised learning. More specifically, we propose a data augmentation strategy based on partition-and-recovery N$^3$ cubes cross- and within- labeled and unlabeled images. Our strategy encourages unlabeled images to learn organ semantics in relative locations from the labeled images (cross-branch) and enhances the learning ability for small organs (within-branch). For within-branch, we further propose to refine the quality of pseudo labels by blending the learned representations from small cubes to incorporate local attributes. Our method is termed as MagicNet, since it treats the CT volume as a magic-cube and $N^3$-cube partition-and-recovery process matches with the rule of playing a magic-cube. Extensive experiments on two public CT multi-organ datasets demonstrate the effectiveness of MagicNet, and noticeably outperforms state-of-the-art semi-supervised medical image segmentation approaches, with +7% DSC improvement on MACT dataset with 10% labeled images. | 翻訳日:2023-01-02 16:49:06 公開日:2022-12-29 |
# StyleRes:StyleGANによるリアルイメージ編集のための残像変換 StyleRes: Transforming the Residuals for Real Image Editing with StyleGAN ( http://arxiv.org/abs/2212.14359v1 ) ライセンス: Link先を確認 | Hamza Pehlivan, Yusuf Dalva, Aysegul Dundar | (参考訳) 高品質な属性編集による高忠実度画像インバージョンを実現するための新しい画像インバージョンフレームワークとトレーニングパイプラインを提案する。
リアルイメージをスタイルガンの潜在空間に反転させることは広く研究されている問題であるが、画像再構成の忠実さと画像編集品質のトレードオフはいまだに未解決の課題である。
低速度潜伏空間は高忠実度再構成のための表現力に制限がある。
一方、高いレートの遅延空間は編集品質の低下をもたらす。
本研究では,高忠実度逆変換を実現するために,低潜性コードではエンコードできない高潜性符号の残差特徴を学習する。
これにより、再構築時の画像の詳細を保存できる。
高品質な編集を実現するために、潜時符号の操作に適応するための残像の変換法を学ぶ。
フレームワークをトレーニングして、残余の機能を抽出し、新しいアーキテクチャパイプラインとサイクル一貫性の損失を通じて変換します。
広範な実験を行い,その手法を最先端のインバージョン法と比較した。
質的指標と視覚的比較は大幅な改善を示している。
コード:https://github.com/hamzapehlivan/StyleRes We present a novel image inversion framework and a training pipeline to achieve high-fidelity image inversion with high-quality attribute editing. Inverting real images into StyleGAN's latent space is an extensively studied problem, yet the trade-off between the image reconstruction fidelity and image editing quality remains an open challenge. The low-rate latent spaces are limited in their expressiveness power for high-fidelity reconstruction. On the other hand, high-rate latent spaces result in degradation in editing quality. In this work, to achieve high-fidelity inversion, we learn residual features in higher latent codes that lower latent codes were not able to encode. This enables preserving image details in reconstruction. To achieve high-quality editing, we learn how to transform the residual features for adapting to manipulations in latent codes. We train the framework to extract residual features and transform them via a novel architecture pipeline and cycle consistency losses. We run extensive experiments and compare our method with state-of-the-art inversion methods. Qualitative metrics and visual comparisons show significant improvements. Code: https://github.com/hamzapehlivan/StyleRes | 翻訳日:2023-01-02 16:48:38 公開日:2022-12-29 |
# AttEntropy:セマンティックセグメンテーション変換器の空間的注意エントロピーを用いた複雑なシーンにおける未知物体のセグメンテーション AttEntropy: Segmenting Unknown Objects in Complex Scenes using the Spatial Attention Entropy of Semantic Segmentation Transformers ( http://arxiv.org/abs/2212.14397v1 ) ライセンス: Link先を確認 | Krzysztof Lis, Matthias Rottmann, Sina Honari, Pascal Fua, Mathieu Salzmann | (参考訳) ビジョントランスフォーマーは多くのコンピュータビジョンタスクの強力なツールとして登場した。
これらの特徴とクラストークンは、厳密なオブジェクトセグメンテーションに使用できることが示されている。
しかし、セグメンテーション変圧器の特性はほとんど研究されていない。
本研究では,セマンティクスセグメンテーショントランスフォーマの異なるバックボーン層の空間的注目度を詳細に検討し,興味深い特性を明らかにする。
対象物と交差するパッチの空間的注意は対象物に集中する傾向にあるが、より大きな、より均一な画像領域の注意は拡散的行動に従う。
言い換えれば、視覚変換器は、固定されたオブジェクトクラスの集合をこの集合を超えるオブジェクトに一般化するように訓練される。
トラフィックシーンの障害物など、未知のオブジェクトをさまざまな背景に分割するために使用できるヒートマップを抽出することで、これを活用します。
本手法はトレーニングフリーであり,計算オーバーヘッドを無視できる。
ストリートシーンセグメンテーションのために訓練されたオフザシェルフトランスフォーマーを用いて、他のシーンタイプを処理する。 Vision transformers have emerged as powerful tools for many computer vision tasks. It has been shown that their features and class tokens can be used for salient object segmentation. However, the properties of segmentation transformers remain largely unstudied. In this work we conduct an in-depth study of the spatial attentions of different backbone layers of semantic segmentation transformers and uncover interesting properties. The spatial attentions of a patch intersecting with an object tend to concentrate within the object, whereas the attentions of larger, more uniform image areas rather follow a diffusive behavior. In other words, vision transformers trained to segment a fixed set of object classes generalize to objects well beyond this set. We exploit this by extracting heatmaps that can be used to segment unknown objects within diverse backgrounds, such as obstacles in traffic scenes. Our method is training-free and its computational overhead negligible. We use off-the-shelf transformers trained for street-scene segmentation to process other scene types. | 翻訳日:2023-01-02 16:48:19 公開日:2022-12-29 |
# 状態空間変換器を用いた効率的な映画シーン検出 Efficient Movie Scene Detection using State-Space Transformers ( http://arxiv.org/abs/2212.14427v1 ) ライセンス: Link先を確認 | Md Mohaiminul Islam, Mahmudul Hasan, Kishan Shamsundar Athrey, Tony Braskich, Gedas Bertasius | (参考訳) 異なる映画シーンを区別する能力は、映画のストーリーラインを理解する上で重要である。
しかし、映画シーンを正確に検出することは、非常に長いセグメントを推論する能力を必要とするため、しばしば困難である。
これは、通常短距離ビデオ分析用に設計された、既存のほとんどのビデオ認識モデルとは対照的である。
本研究は,長期映像の依存関係を効率的にキャプチャし,正確なシーン検出を行う状態空間変換器モデルを提案する。
我々のモデルはTranS4merと呼ばれ、構造化状態空間列(S4)と自己注意層(A)の強みを組み合わせた新しいS4Aビルディングブロックを用いて構築されている。
フレームのシーケンスがフィルムショット(カメラ位置が変化しない中断期間)に分割されると、S4Aブロックはまず、短距離のショット内依存関係をキャプチャするために自己アテンションを適用する。
その後、S4Aブロック内の状態空間操作を使用して、長距離ショット間キューを集約する。
最終TranS4merモデルは、エンドツーエンドで訓練が可能で、S4Aブロックを次々と積み重ねることで得られる。
提案したTranS4merは、MovieNet、BBC、OVSDを含む3つの映画シーン検出データセットにおいて、以前の方法よりも優れています。
コードとモデルをリリースします。 The ability to distinguish between different movie scenes is critical for understanding the storyline of a movie. However, accurately detecting movie scenes is often challenging as it requires the ability to reason over very long movie segments. This is in contrast to most existing video recognition models, which are typically designed for short-range video analysis. This work proposes a State-Space Transformer model that can efficiently capture dependencies in long movie videos for accurate movie scene detection. Our model, dubbed TranS4mer, is built using a novel S4A building block, which combines the strengths of structured state-space sequence (S4) and self-attention (A) layers. Given a sequence of frames divided into movie shots (uninterrupted periods where the camera position does not change), the S4A block first applies self-attention to capture short-range intra-shot dependencies. Afterward, the state-space operation in the S4A block is used to aggregate long-range inter-shot cues. The final TranS4mer model, which can be trained end-to-end, is obtained by stacking the S4A blocks one after the other multiple times. Our proposed TranS4mer outperforms all prior methods in three movie scene detection datasets, including MovieNet, BBC, and OVSD, while also being $2\times$ faster and requiring $3\times$ less GPU memory than standard Transformer models. We will release our code and models. | 翻訳日:2023-01-02 16:48:02 公開日:2022-12-29 |
# 幾何学的オートエンコーダを用いたデータセットから骨格間橋渡しによる3次元人物位置推定 Learning 3D Human Pose Estimation from Dozens of Datasets using a Geometry-Aware Autoencoder to Bridge Between Skeleton Formats ( http://arxiv.org/abs/2212.14474v1 ) ライセンス: Link先を確認 | Istv\'an S\'ar\'andi, Alexander Hermans, Bastian Leibe | (参考訳) ディープラーニングに基づく人間の3Dポーズ推定は、大量のラベル付きデータに基づいてトレーニングされた場合、最もよく機能する。
この取り組みの障害のひとつは、異なるデータセットによって提供される異なるスケルトンフォーマット、すなわち、同じ解剖学的ランドマークのセットをラベル付けしないことだ。
このような不明瞭なラベルで1つのモデルを最善に監督する方法に関する先行研究はほとんどない。
異なる骨格に別個の出力ヘッドを用いるだけで、不整合深さ推定と骨格間での情報共有が不十分になることを示す。
本稿では,アフィン結合型オートエンコーダ(ACAE)法を提案する。
発見された潜在3Dポイントは、スケルトン間の冗長性を捉え、一貫性の正則化に使用すると情報共有が強化される。
私たちのアプローチは、極端なマルチデータセットのレジームにスケールし、28の3d人間のポーズデータセットを使用して1つのモデルを監督します。
私たちのコードとモデルは研究目的で利用可能です。 Deep learning-based 3D human pose estimation performs best when trained on large amounts of labeled data, making combined learning from many datasets an important research direction. One obstacle to this endeavor are the different skeleton formats provided by different datasets, i.e., they do not label the same set of anatomical landmarks. There is little prior research on how to best supervise one model with such discrepant labels. We show that simply using separate output heads for different skeletons results in inconsistent depth estimates and insufficient information sharing across skeletons. As a remedy, we propose a novel affine-combining autoencoder (ACAE) method to perform dimensionality reduction on the number of landmarks. The discovered latent 3D points capture the redundancy among skeletons, enabling enhanced information sharing when used for consistency regularization. Our approach scales to an extreme multi-dataset regime, where we use 28 3D human pose datasets to supervise one model, which outperforms prior work on a range of benchmarks, including the challenging 3D Poses in the Wild (3DPW) dataset. Our code and models are available for research purposes. | 翻訳日:2023-01-02 16:47:37 公開日:2022-12-29 |
# OrthoGAN: 歯列の可視化のための高精度画像生成 OrthoGAN:High-Precision Image Generation for Teeth Orthodontic Visualization ( http://arxiv.org/abs/2212.14162v1 ) ライセンス: Link先を確認 | Feihong Shen, JIngjing Liu, Haizhen Li, Bing Fang, Chenglong Ma, Jin Hao, Yang Feng, Youyi Zheng | (参考訳) 患者は矯正治療後にどのような歯になるかをケアする。
矯正医は通常、元の笑顔のイメージに基づいて期待運動を記述する。
ディープラーニング生成モデルの成長はこの状況を変える。
矯正治療の結果を可視化し、患者が将来の歯と顔の外観を予知するのに役立つ。
以前の研究では、プロファイルレベルでの2Dまたは3D仮想治療結果(VTO)に焦点を当てていたが、前頭顔面画像における治療結果のシミュレーションは不十分であった。
本稿では,正面顔画像における仮想歯列効果をシミュレートする効率的かつ高精度なシステムを構築する。
本システムでは, 目に見える不定位歯と患者の3dスキャン歯モデルを用いて, 患者の正面像を入力として, 医師から特定の矯正治療計画ステップ(すなわち, 個々の歯の翻訳と回転の仕様)を与えられた患者歯の視覚的な結果を生成する。
複数モードのエンコーダ・デコーダをベースとした生成モデルを設計し, 歯の整列による顔画像の合成を行う。
さらに、原画像の色情報を用いて矯正結果の最適化を行い、その結果をより自然なものにする。
我々は,広範囲な定性的および臨床実験を行い,また本手法の検証試験を行った。 Patients take care of what their teeth will be like after the orthodontics. Orthodontists usually describe the expectation movement based on the original smile images, which is unconvincing. The growth of deep-learning generative models change this situation. It can visualize the outcome of orthodontic treatment and help patients foresee their future teeth and facial appearance. While previous studies mainly focus on 2D or 3D virtual treatment outcome (VTO) at a profile level, the problem of simulating treatment outcome at a frontal facial image is poorly explored. In this paper, we build an efficient and accurate system for simulating virtual teeth alignment effects in a frontal facial image. Our system takes a frontal face image of a patient with visible malpositioned teeth and the patient's 3D scanned teeth model as input, and progressively generates the visual results of the patient's teeth given the specific orthodontics planning steps from the doctor (i.e., the specification of translations and rotations of individual tooth). We design a multi-modal encoder-decoder based generative model to synthesize identity-preserving frontal facial images with aligned teeth. In addition, the original image color information is used to optimize the orthodontic outcomes, making the results more natural. We conduct extensive qualitative and clinical experiments and also a pilot study to validate our method. | 翻訳日:2023-01-02 16:42:22 公開日:2022-12-29 |
# GAN圧縮のための識別器協調型特徴マップ蒸留 Discriminator-Cooperated Feature Map Distillation for GAN Compression ( http://arxiv.org/abs/2212.14169v1 ) ライセンス: Link先を確認 | Tie Hu, Mingbao Lin, Lizhou You, Fei Chao, Rongrong Ji | (参考訳) 画像生成の性能は優れているが、GAN(Generative Adversarial Networks)は膨大なストレージと集約的な計算を必要とすることで有名である。
素晴らしい「パフォーマンスメーカー」として、低価格のGANの探索には知識蒸留が特に有効であることが示されている。
本稿では,教師の識別器の非置換性について検討し,DCDと略される発明的識別器協調蒸留を発電機からより優れた特徴マップの精製に向けて提案する。
特徴写像蒸留における従来の画素対画素マッチング法とは対照的に,DCDでは,教師識別器を変換として利用し,教師生成装置の中間結果を教師生成装置の出力に知覚的に近接させる。
さらに,gan圧縮のモード崩壊を緩和するために,教師識別器をスクラッチから構築し,生徒生成装置と協調して学習する協調学習パラダイムを構築した。
我々のDCDは既存のGAN圧縮法と比較して優れた結果を示した。
例えば、CycleGAN の 40x MAC と 80x パラメータを減らした後、現在の SoTA 法は 51.92 であるのに対して、FID の計量は 61.53 から 48.24 に減少する。
この作業のソースコードはhttps://github.com/poopit/DCD-officialで公開されている。 Despite excellent performance in image generation, Generative Adversarial Networks (GANs) are notorious for its requirements of enormous storage and intensive computation. As an awesome ''performance maker'', knowledge distillation is demonstrated to be particularly efficacious in exploring low-priced GANs. In this paper, we investigate the irreplaceability of teacher discriminator and present an inventive discriminator-cooperated distillation, abbreviated as DCD, towards refining better feature maps from the generator. In contrast to conventional pixel-to-pixel match methods in feature map distillation, our DCD utilizes teacher discriminator as a transformation to drive intermediate results of the student generator to be perceptually close to corresponding outputs of the teacher generator. Furthermore, in order to mitigate mode collapse in GAN compression, we construct a collaborative adversarial training paradigm where the teacher discriminator is from scratch established to co-train with student generator in company with our DCD. Our DCD shows superior results compared with existing GAN compression methods. For instance, after reducing over 40x MACs and 80x parameters of CycleGAN, we well decrease FID metric from 61.53 to 48.24 while the current SoTA method merely has 51.92. This work's source code has been made accessible at https://github.com/poopit/DCD-official. | 翻訳日:2023-01-02 16:42:00 公開日:2022-12-29 |
# PanDepth:ジョイント・パノプティクス・セグメンテーションとディップス・コンプリーション PanDepth: Joint Panoptic Segmentation and Depth Completion ( http://arxiv.org/abs/2212.14180v1 ) ライセンス: Link先を確認 | Juan Lagos, Esa Rahtu | (参考訳) 3d環境をセマンティックに理解することは、複数のコンピュータビジョンタスクが関与する自動運転アプリケーションにおいて重要である。
マルチタスクモデルは与えられたシーンに対して異なるタイプの出力を提供し、計算コストを低く保ちながらより包括的な表現をもたらす。
本稿では,RGB画像とスパース深度マップを用いたマルチタスクモデルを提案する。
本モデルでは,完全な深度マップの予測に成功し,各入力フレームに対してセマンティックセグメンテーション,インスタンスセグメンテーション,パノプティックセグメンテーションを行う。
仮想kitti 2データセット上で広範な実験を行い,高い精度を維持しつつ計算コストを大幅に増加させることなく,複数のタスクを解くことを実証した。
コードはhttps://github.com/juanb09111/PanDepth.gitで入手できる。 Understanding 3D environments semantically is pivotal in autonomous driving applications where multiple computer vision tasks are involved. Multi-task models provide different types of outputs for a given scene, yielding a more holistic representation while keeping the computational cost low. We propose a multi-task model for panoptic segmentation and depth completion using RGB images and sparse depth maps. Our model successfully predicts fully dense depth maps and performs semantic segmentation, instance segmentation, and panoptic segmentation for every input frame. Extensive experiments were done on the Virtual KITTI 2 dataset and we demonstrate that our model solves multiple tasks, without a significant increase in computational cost, while keeping high accuracy performance. Code is available at https://github.com/juanb09111/PanDepth.git | 翻訳日:2023-01-02 16:41:35 公開日:2022-12-29 |
# 特徴量重み付きハイブリッドネットワークを用いた高能率画像超解像 Efficient Image Super-Resolution with Feature Interaction Weighted Hybrid Network ( http://arxiv.org/abs/2212.14181v1 ) ライセンス: Link先を確認 | Wenjie Li, Juncheng Li, Guangwei Gao, Weihong Deng, Jian Yang, Guo-Jun Qi and Chia-Wen Lin | (参考訳) 近年,深層学習技術に基づく単一画像超解像(SISR)が大幅に進歩している。
しかし、既存の手法は通常、大きな計算コストを必要とする。
一方、アクティベーション機能によって中間層のいくつかの特徴が失われる。
したがって,中間的特徴損失が復元品質に与える影響を低減しつつ,モデルを軽量化することが課題である。
本稿では、上記の問題を緩和する特徴相互作用重み付きハイブリッドネットワーク(FIWHN)を提案する。
具体的には、FIWHNは、WDIB(Wide-Residual Distillation Interaction Blocks)をバックボーンとして、各第3のWDIBが相互情報混合と融合によって特徴シャッフル重み群(Feature shuffle Weighted Group、FSWG)を形成する。
また, 中間的特徴損失が復元結果に与える影響を緩和するために, wdibにおいて, 十分に設計された広層畳み込み残留重み付け (wcrw) と広層同一の残留重み付け (wirw) ユニットを導入し, 広層蒸留接続 (wrdc) フレームワークと自己共役核融合 (scf) ユニットを介して, 異なる細さの特徴を効果的にクロスヒューズした。
最後に、CNNモデルに欠けているグローバル機能を補完するため、我々のモデルにTransformerを導入し、CNNとTransformerを組み合わせた新しい方法を模索した。
低レベルタスクと高レベルタスクの定量および定性的実験により、提案したFIWHNは、性能と効率のバランスが良く、低ピクセルシナリオにおける問題を解決するために下流タスクよりも導出性が高いことを示した。 Recently, great progress has been made in single-image super-resolution (SISR) based on deep learning technology. However, the existing methods usually require a large computational cost. Meanwhile, the activation function will cause some features of the intermediate layer to be lost. Therefore, it is a challenge to make the model lightweight while reducing the impact of intermediate feature loss on the reconstruction quality. In this paper, we propose a Feature Interaction Weighted Hybrid Network (FIWHN) to alleviate the above problem. Specifically, FIWHN consists of a series of novel Wide-residual Distillation Interaction Blocks (WDIB) as the backbone, where every third WDIBs form a Feature shuffle Weighted Group (FSWG) by mutual information mixing and fusion. In addition, to mitigate the adverse effects of intermediate feature loss on the reconstruction results, we introduced a well-designed Wide Convolutional Residual Weighting (WCRW) and Wide Identical Residual Weighting (WIRW) units in WDIB, and effectively cross-fused features of different finenesses through a Wide-residual Distillation Connection (WRDC) framework and a Self-Calibrating Fusion (SCF) unit. Finally, to complement the global features lacking in the CNN model, we introduced the Transformer into our model and explored a new way of combining the CNN and Transformer. Extensive quantitative and qualitative experiments on low-level and high-level tasks show that our proposed FIWHN can achieve a good balance between performance and efficiency, and is more conducive to downstream tasks to solve problems in low-pixel scenarios. | 翻訳日:2023-01-02 16:41:21 公開日:2022-12-29 |
# 作業前を対象とする統一オブジェクトカウントネットワーク A Unified Object Counting Network with Object Occupation Prior ( http://arxiv.org/abs/2212.14193v1 ) ライセンス: Link先を確認 | Shengqin Jiang, Qing Wang, Fengna Cheng, Yuankai Qi, Qingshan Liu | (参考訳) 数え上げタスクは、多数のアプリケーション(例えば、群衆の数え上げ、トラフィック統計)において基本的なルールであり、様々な密度を持つオブジェクトの数を予測することを目的としている。
既存のオブジェクトカウントタスクは単一のオブジェクトクラスのために設計されます。
しかし、私たちの現実世界で新しいクラスで新しいデータに遭遇するのは避けられない。
このシナリオを \textit{evolving object counting} と命名します。
本稿では,最初の進化するオブジェクト計数データセットを構築し,この課題に対する最初の試みとして統一オブジェクト計数ネットワークを提案する。
提案モデルは,クラスに依存しないマスクモジュールとクラスインクリメントモジュールの2つの重要なコンポーネントから構成される。
クラス非依存マスクモジュールは、クラス非依存なバイナリマスクを予測して、汎用オブジェクトの占有を事前に学習する(例えば、1は、画像中の考慮位置にあるオブジェクトが存在し、それ以外は0であることを示す)。
クラスインクリメントモジュールは、新しい来るべきクラスを扱うために使われ、密度マップ予測のための判別クラスガイダンスを提供する。
クラス非依存マスクモジュールと画像特徴抽出器の組合せ出力を用いて最終密度マップを予測する。
新しいクラスが来たら、まずこのモジュールの最後の回帰層と分類層に新しいニューラルネットワークを追加します。
そして、モデルをスクラッチから再トレーニングするのではなく、モデルが以前のオブジェクトクラスについて既に学んだことを思い出すのに役立つ知識蒸留を利用する。
また、各クラスの典型的なトレーニングサンプルを少数のサポートサンプルバンクに格納することで、モデルが古いデータのキー情報を忘れないようにしています。
この設計により,大規模再トレーニングを行わずに,既存のデータのパフォーマンスを維持しつつ,新しいクラスに効率的に適応することができる。
収集したデータセットに関する広範な実験は、優れたパフォーマンスを示している。 The counting task, which plays a fundamental rule in numerous applications (e.g., crowd counting, traffic statistics), aims to predict the number of objects with various densities. Existing object counting tasks are designed for a single object class. However, it is inevitable to encounter newly coming data with new classes in our real world. We name this scenario as \textit{evolving object counting}. In this paper, we build the first evolving object counting dataset and propose a unified object counting network as the first attempt to address this task. The proposed model consists of two key components: a class-agnostic mask module and a class-increment module. The class-agnostic mask module learns generic object occupation prior via predicting a class-agnostic binary mask (e.g., 1 denotes there exists an object at the considering position in an image and 0 otherwise). The class-increment module is used to handle new coming classes and provides discriminative class guidance for density map prediction. The combined outputs of class-agnostic mask module and image feature extractor are used to predict the final density map. When new classes come, we first add new neural nodes into the last regression and classification layers of this module. Then, instead of retraining the model from scratch, we utilize knowledge distilling to help the model remember what have already learned about previous object classes. We also employ a support sample bank to store a small number of typical training samples of each class, which are used to prevent the model from forgetting key information of old data. With this design, our model can efficiently and effectively adapt to new coming classes while keeping good performance on already seen data without large-scale retraining. Extensive experiments on the collected dataset demonstrate the favorable performance. | 翻訳日:2023-01-02 16:40:49 公開日:2022-12-29 |
# ビュー・スペクティブ・ポイント・ツー・イメージ変換による3次元点雲の自己教師付き事前学習 Self-Supervised Pre-training for 3D Point Clouds via View-Specific Point-to-Image Translation ( http://arxiv.org/abs/2212.14197v1 ) ライセンス: Link先を確認 | Qijian Zhang, Junhui Hou | (参考訳) 過去数年間、言語と2Dビジョンコミュニティにおける自己指導型表現学習の流行を目撃してきた。
しかし、このような進歩は3Dポイントのクラウド学習コミュニティに完全に移行していない。
本稿では,3次元オブジェクトポイントクラウドから多種多様な2次元描画画像(シルエット,深度,輪郭など)へのクロスモーダル変換という,新たな自己教師付きプレテキストタスクによって駆動される,翻訳事前学習のパラダイムであるPointVSTについて検討する。
具体的には、視点インジケータを挿入して視点条件付きポイントワイズ埋め込みを導出し、その後に適応的にビュー固有のグローバルコードワードを集約し、さらに画像生成のための2次元畳み込み変換ヘッドに供給する。
我々は,3次元形状解析の共通タスクシナリオを広範囲に実験し,pointvstは現状の手法よりも一貫性があり,優れた性能を示す。
私たちのコードは公開されます。 The past few years have witnessed the prevalence of self-supervised representation learning within the language and 2D vision communities. However, such advancements have not been fully migrated to the community of 3D point cloud learning. Different from previous pre-training pipelines for 3D point clouds that generally fall into the scope of either generative modeling or contrastive learning, in this paper, we investigate a translative pre-training paradigm, namely PointVST, driven by a novel self-supervised pretext task of cross-modal translation from an input 3D object point cloud to its diverse forms of 2D rendered images (e.g., silhouette, depth, contour). Specifically, we begin with deducing view-conditioned point-wise embeddings via the insertion of the viewpoint indicator, and then adaptively aggregate a view-specific global codeword, which is further fed into the subsequent 2D convolutional translation heads for image generation. We conduct extensive experiments on common task scenarios of 3D shape analysis, where our PointVST shows consistent and prominent performance superiority over current state-of-the-art methods under diverse evaluation protocols. Our code will be made publicly available. | 翻訳日:2023-01-02 16:40:20 公開日:2022-12-29 |
# 特徴再構成による変圧器の局所学習 Local Learning on Transformers via Feature Reconstruction ( http://arxiv.org/abs/2212.14215v1 ) ライセンス: Link先を確認 | Priyank Pathak, Jingwei Zhang, Dimitris Samaras | (参考訳) 従来の畳み込みニューラルネットワーク(CNN)よりも優れた性能のため、トランスフォーマーの人気が高まっている。
しかし、トランスフォーマーは通常、cnnよりも多くのメモリを必要とするため、多くの低リソース設定でのアプリケーション実行が妨げられる。
ネットワークを複数のモジュールに分割して個別にトレーニングするローカルラーニングは、トレーニング用メモリの削減と並列性の向上を目的として、エンドツーエンド(E2E)トレーニングアプローチに代わる有望な手段である。
本論文は、トランスフォーマーに局所学習を適用した最初の事例である。
標準CNNベースのローカル学習手法であるInfoPro[32]は、CNNの各モジュールの入力画像を再構成する。
しかし、全体像の復元は一般的ではない。
本稿では,各ローカルモジュールに対して,画像全体を再構成する代わりに,以前のモジュールから生成された入力機能を再構成する機構を提案する。
我々は,Swin-Tiny上の4つの一般的なデータセットと3つの一般的なデコーダ構造に対するアプローチを評価した。
CIFAR-10, CIFAR-100, STL-10, SVHNデータセットで最大0.58%, 最大12%のメモリ使用量で, InfoPro-TransformerとTransfomerのバックボーンを備えたInfoProを比較検討した。
E2Eアプローチと比較して、ネットワークを2つのモジュールに分割する場合36%、ネットワークを4つのモジュールに分割する場合45%のGPUメモリを必要とする。 Transformers are becoming increasingly popular due to their superior performance over conventional convolutional neural networks(CNNs). However, transformers usually require a much larger amount of memory to train than CNNs, which prevents their application in many low resource settings. Local learning, which divides the network into several distinct modules and trains them individually, is a promising alternative to the end-to-end (E2E) training approach to reduce the amount of memory for training and to increase parallelism. This paper is the first to apply Local Learning on transformers for this purpose. The standard CNN-based local learning method, InfoPro [32], reconstructs the input images for each module in a CNN. However, reconstructing the entire image does not generalize well. In this paper, we propose a new mechanism for each local module, where instead of reconstructing the entire image, we reconstruct its input features, generated from previous modules. We evaluate our approach on 4 commonly used datasets and 3 commonly used decoder structures on Swin-Tiny. The experiments show that our approach outperforms InfoPro-Transformer, the InfoPro with Transfomer backbone we introduced, by at up to 0.58% on CIFAR-10, CIFAR-100, STL-10 and SVHN datasets, while using up to 12% less memory. Compared to the E2E approach, we require 36% less GPU memory when the network is divided into 2 modules and 45% less GPU memory when the network is divided into 4 modules. | 翻訳日:2023-01-02 16:39:58 公開日:2022-12-29 |
# 顔操作検出のための深度情報探索 Exploring Depth Information for Face Manipulation Detection ( http://arxiv.org/abs/2212.14230v1 ) ライセンス: Link先を確認 | Haoyue Wang, Meiling Li, Sheng Li, Zhenxing Qian, Xinpeng Zhang | (参考訳) 顔操作検出は、顔画像の信頼性と安全性に多くの注目を集めている。
近年,補助情報や事前知識を活用してロバストな操作トレースを捉える研究が進められている。
重要な顔の特徴の1つとして、顔認識や顔検出などの他の分野で有効であることが示されている顔深度マップは、残念ながら、操作された顔画像を検出する文献にはほとんど注目されていない。
本稿では,顔深度マップを補助情報として組み込むことにより,実世界における顔操作検出の課題に対処する可能性を検討する。
そこで本研究では,まず,操作によって生成された局所的深度異常をキャプチャできるrgb顔画像から,顔深度マップパッチをパッチにより推定する顔深度マップトランスフォーマ(fdmt)を提案する。
次に、推定顔深度マップを、新たに設計されたMDA(Multi-head Depth Attention)機構を用いて、バックボーンの特徴と統合するための補助情報とみなす。
様々な実験により,提案手法による顔操作検出の利点が実証された。 Face manipulation detection has been receiving a lot of attention for the reliability and security of the face images. Recent studies focus on using auxiliary information or prior knowledge to capture robust manipulation traces, which are shown to be promising. As one of the important face features, the face depth map, which has shown to be effective in other areas such as the face recognition or face detection, is unfortunately paid little attention to in literature for detecting the manipulated face images. In this paper, we explore the possibility of incorporating the face depth map as auxiliary information to tackle the problem of face manipulation detection in real world applications. To this end, we first propose a Face Depth Map Transformer (FDMT) to estimate the face depth map patch by patch from a RGB face image, which is able to capture the local depth anomaly created due to manipulation. The estimated face depth map is then considered as auxiliary information to be integrated with the backbone features using a Multi-head Depth Attention (MDA) mechanism that is newly designed. Various experiments demonstrate the advantage of our proposed method for face manipulation detection. | 翻訳日:2023-01-02 16:39:31 公開日:2022-12-29 |
# GPTR:図形オブジェクト検出のためのゲシュタルト知覚変換器 GPTR: Gestalt-Perception Transformer for Diagram Object Detection ( http://arxiv.org/abs/2212.14232v1 ) ライセンス: Link先を確認 | Xin Hu, Lingling Zhang, Jun Liu, Jinfu Fan, Yang You, Yaqiang Wu | (参考訳) ダイアグラムオブジェクト検出は、教科書質問応答などの実践的応用の鍵となる基礎である。
図は主に単純な線と色ブロックで構成されているため、その視覚的特徴は自然画像よりも広い。
加えて、ダイアグラムは通常、ダイアグラムに多くの低周波オブジェクトカテゴリがある多様な知識を表現する。
これらのことは、従来のデータ駆動検出モデルは図に適さないという事実につながります。
本稿では,エンコーダ・デコーダアーキテクチャに基づく図形物体検出のためのgestalt-perception transformerモデルを提案する。
ゲシュタルト知覚(gestalt perception)は、人間の知覚を説明する一連の法則を含み、人間の視覚系は、物体全体の知覚として突然の方向の変化を伴わずに、類似、近接、接続した画像のパッチを知覚する傾向がある。
これらの考え方に触発されて,ノードとしてのダイアグラムパッチとエッジとしてのパッチの関係からなるトランスフォーマエンコーダにgestalt-perception graphを構築する。
このグラフは、これらのエッジに暗示される類似性、近接性、滑らか性の法則により、これらのパッチをオブジェクトに分類することを目的としており、意味のあるオブジェクトを効果的に検出することができる。
実験の結果,提案したGPTRはダイアグラムオブジェクト検出タスクにおいて最良の結果が得られることが示された。
我々のモデルは、自然画像オブジェクト検出の競合製品と同等の結果を得る。 Diagram object detection is the key basis of practical applications such as textbook question answering. Because the diagram mainly consists of simple lines and color blocks, its visual features are sparser than those of natural images. In addition, diagrams usually express diverse knowledge, in which there are many low-frequency object categories in diagrams. These lead to the fact that traditional data-driven detection model is not suitable for diagrams. In this work, we propose a gestalt-perception transformer model for diagram object detection, which is based on an encoder-decoder architecture. Gestalt perception contains a series of laws to explain human perception, that the human visual system tends to perceive patches in an image that are similar, close or connected without abrupt directional changes as a perceptual whole object. Inspired by these thoughts, we build a gestalt-perception graph in transformer encoder, which is composed of diagram patches as nodes and the relationships between patches as edges. This graph aims to group these patches into objects via laws of similarity, proximity, and smoothness implied in these edges, so that the meaningful objects can be effectively detected. The experimental results demonstrate that the proposed GPTR achieves the best results in the diagram object detection task. Our model also obtains comparable results over the competitors in natural image object detection. | 翻訳日:2023-01-02 16:39:12 公開日:2022-12-29 |
# 実践的な露光補正: 偉大な真実は常に単純です Practical Exposure Correction: Great Truths Are Always Simple ( http://arxiv.org/abs/2212.14245v1 ) ライセンス: Link先を確認 | Long Ma, Tianjiao Ma, Xinwei Xue, Xin Fan, Zhongxuan Luo, Risheng Liu | (参考訳) 被曝レベルの補正による劣化観察の視覚的品質向上は,コンピュータビジョンコミュニティにおける基本的な課題である。
既存の作業は、データ駆動型パターン(ディープネットワーク)と限定正規化(従来の最適化)のため、通常、未知のシーンへの適応性が欠けている。
これら2つの点は、実用性を大幅に制限している。
本稿では,効率と性能の特徴を組み立てる実用的露光補正器(pec)について述べる。
具体的には、露光補正を再考し、露光に敏感な補償を伴う線形解を提供する。
補償を発生させるにあたって, 主エンジンとして露光対向機能を導入し, 観測から貴重な情報を完全に抽出する。
定義関数を適用することにより、所望の補償を生成するための分割縮小反復スキームを構築する。
その収縮特性はアルゴリズムの安定性と堅牢性に対する強力な支援を提供する。
大規模実験により,提案したPECの優位性が明らかとなった。
コードはhttps://rsliu.tech/PEC.comで公開されている。 Improving the visual quality of the given degraded observation by correcting exposure level is a fundamental task in the computer vision community. Existing works commonly lack adaptability towards unknown scenes because of the data-driven patterns (deep networks) and limited regularization (traditional optimization), and they usually need time-consuming inference. These two points heavily limit their practicability. In this paper, we establish a Practical Exposure Corrector (PEC) that assembles the characteristics of efficiency and performance. To be concrete, we rethink the exposure correction to provide a linear solution with exposure-sensitive compensation. Around generating the compensation, we introduce an exposure adversarial function as the key engine to fully extract valuable information from the observation. By applying the defined function, we construct a segmented shrinkage iterative scheme to generate the desired compensation. Its shrinkage nature supplies powerful support for algorithmic stability and robustness. Extensive experimental evaluations fully reveal the superiority of our proposed PEC. The code is available at https://rsliu.tech/PEC. | 翻訳日:2023-01-02 16:38:46 公開日:2022-12-29 |
# PDDLにおける複雑なデータ型による計画 Planning with Complex Data Types in PDDL ( http://arxiv.org/abs/2212.14462v1 ) ライセンス: Link先を確認 | Mojtaba Elahi and Jussi Rintanen | (参考訳) 実際、計画研究の全てはブール状態変数と数値状態変数で表される状態に限られている。
複雑なソフトウェアシステム内の計画など、多くの実用的な問題は、はるかに複雑なデータ型を必要とし、多くの場合、実世界の計画でさえ、オブジェクトのセットのような概念を必要とします。
本研究では,集合,配列,レコード,結合といった複雑なデータ型をサポートする複雑なソフトウェアシステムのモデリング言語について検討する。
複雑なデータ型とその操作をBooleanロジックに還元し、この表現をさらにPDDLにマッピングし、ドメインに依存しないPDDLプランナで使用します。
我々は,本手法の実用性を評価し,pddl翻訳で発生するいくつかの問題に対する解決策を提供する。 Practically all of the planning research is limited to states represented in terms of Boolean and numeric state variables. Many practical problems, for example, planning inside complex software systems, require far more complex data types, and even real-world planning in many cases requires concepts such as sets of objects, which are not convenient to express in modeling languages with scalar types only. In this work, we investigate a modeling language for complex software systems, which supports complex data types such as sets, arrays, records, and unions. We give a reduction of a broad range of complex data types and their operations to Boolean logic, and then map this representation further to PDDL to be used with domain-independent PDDL planners. We evaluate the practicality of this approach, and provide solutions to some of the issues that arise in the PDDL translation. | 翻訳日:2023-01-02 16:32:37 公開日:2022-12-29 |
# マルチモーダル・ワイルドランド火災煙検出 Multimodal Wildland Fire Smoke Detection ( http://arxiv.org/abs/2212.14143v1 ) ライセンス: Link先を確認 | Siddhant Baldota, Shreyas Anantha Ramaprasad, Jaspreet Kaur Bhamra, Shane Luna, Ravi Ramachandra, Eugene Zen, Harrison Kim, Daniel Crawl, Ismael Perez, Ilkay Altintas, Garrison W. Cottrell, Mai H.Nguyen | (参考訳) 研究によると、気候変動によって温暖な温度と乾燥状態が生まれ、長い山火事の季節と米国の山火事のリスクが増大する。
これらの要因は、近年の山火事の頻度、程度、深刻度の増加につながっている。
人、財産、野生生物、環境に山火事がもたらす危険を考えると、効果的な山火事管理のためのツールを提供することは急務である。
火災の早期発見は、破滅的な破壊を最小化するために不可欠である。
本稿では,山火事の煙を検出するために,時空間情報を用いた深層学習モデルであるsmokeynetに,複数のデータソースを統合する作業について述べる。
カメラ画像データは気象センサと統合され、SmokeyNetによって処理され、マルチモーダルな森林火災煙検知システムを作成する。
本稿では,マルチモーダルデータと単一データソースの精度と検出時間の両面での性能を比較した。
わずか数分で検出できるので、smokenetは自動早期通知システムとして機能し、破壊的な野火との戦いに有用なツールを提供する。 Research has shown that climate change creates warmer temperatures and drier conditions, leading to longer wildfire seasons and increased wildfire risks in the United States. These factors have in turn led to increases in the frequency, extent, and severity of wildfires in recent years. Given the danger posed by wildland fires to people, property, wildlife, and the environment, there is an urgency to provide tools for effective wildfire management. Early detection of wildfires is essential to minimizing potentially catastrophic destruction. In this paper, we present our work on integrating multiple data sources in SmokeyNet, a deep learning model using spatio-temporal information to detect smoke from wildland fires. Camera image data is integrated with weather sensor measurements and processed by SmokeyNet to create a multimodal wildland fire smoke detection system. We present our results comparing performance in terms of both accuracy and time-to-detection for multimodal data vs. a single data source. With a time-to-detection of only a few minutes, SmokeyNet can serve as an automated early notification system, providing a useful tool in the fight against destructive wildfires. | 翻訳日:2023-01-02 16:30:39 公開日:2022-12-29 |
# ビデオ意味セグメンテーションのためのクラス別非salient領域一般化フレームワーク A Class-wise Non-salient Region Generalized Framework for Video Semantic Segmentation ( http://arxiv.org/abs/2212.14154v1 ) ライセンス: Link先を確認 | Yuhang Zhang, Shishun Tian, Muxin Liao, Zhengyu Zhang, Wenbin Zou, Chen Xu | (参考訳) ビデオセマンティックセグメンテーション(VSS)は、実環境の連続的な性質のために動的なシーンを扱うのに有用である。
一方,連続フレーム間の予測の不整合問題を緩和する手法もある。
一方、他の手法では、前のフレームを先行情報として使用し、現在のフレームのセグメンテーションを支援する。
従来の手法は、独立かつ同一に分散された(すなわちd)データ上で優れた性能を達成するが、他の未知の領域ではうまく一般化できない。
そこで本研究では,連続フレームとドメイン一般化の両方を考慮した新しいタスクであるvgss(video generalizable semantic segmentation)について検討する。
本稿では,VGSSタスクのためのクラスワイド非塩分領域一般化(CNSG)フレームワークを提案する。
具体的には、より一般化可能な情報を運ぶクラスワイズ非サリエント領域の特徴を記述するクラスワイズ非サリエント特徴を最初に定義する。
そこで我々は,最も一般化されたチャネルを適応的に選択し,拡張する,クラスワイドな特徴推論戦略を提案する。
最後に,VGSSタスクにおける予測不整合問題を緩和するために,フレーム間非正則なセントロイドアライメント損失を提案する。
また、ビデオベースのフレームワークを画像ベース汎用セマンティックセマンティックセグメンテーション(IGSS)タスクに拡張する。
CNSG フレームワークが VGSS および IGSS タスクを大幅に改善することを示す実験を行った。 Video semantic segmentation (VSS) is beneficial for dealing with dynamic scenes due to the continuous property of the real-world environment. On the one hand, some methods alleviate the predicted inconsistent problem between continuous frames. On the other hand, other methods employ the previous frame as the prior information to assist in segmenting the current frame. Although the previous methods achieve superior performances on the independent and identically distributed (i.i.d) data, they can not generalize well on other unseen domains. Thus, we explore a new task, the video generalizable semantic segmentation (VGSS) task that considers both continuous frames and domain generalization. In this paper, we propose a class-wise non-salient region generalized (CNSG) framework for the VGSS task. Concretely, we first define the class-wise non-salient feature, which describes features of the class-wise non-salient region that carry more generalizable information. Then, we propose a class-wise non-salient feature reasoning strategy to select and enhance the most generalized channels adaptively. Finally, we propose an inter-frame non-salient centroid alignment loss to alleviate the predicted inconsistent problem in the VGSS task. We also extend our video-based framework to the image-based generalizable semantic segmentation (IGSS) task. Experiments demonstrate that our CNSG framework yields significant improvement in the VGSS and IGSS tasks. | 翻訳日:2023-01-02 16:30:21 公開日:2022-12-29 |
# bimlp:視覚多層パーセプトロンのためのコンパクトバイナリアーキテクチャ BiMLP: Compact Binary Architectures for Vision Multi-Layer Perceptrons ( http://arxiv.org/abs/2212.14158v1 ) ライセンス: Link先を確認 | Yixing Xu, Xinghao Chen, Yunhe Wang | (参考訳) 本稿では,視覚多層パーセプトロン(MLP)のためのコンパクトバイナリアーキテクチャの設計問題について検討する。
視覚MLPをバイナライズすることの難しさを広範囲に分析した結果,従来のバイナライズ手法ではバイナリMPPの容量が限られていたため,性能が低かった。
カーネルサイズが大きい畳み込み演算を利用する従来のCNNとは対照的に、MLP内の完全連結(FC)層は、カーネルサイズが1\times1$の畳み込み層として扱うことができる。
したがって、二項化されるとFC層の表現能力が制限され、中間特性に空間混合やチャネル混合の能力に制限が課される。
そこで本研究では,バイナリFC層の表現能力を高めることにより,バイナリMLP(BiMLP)モデルの性能を向上させることを提案する。
我々は、複数の分岐を含む新しいバイナリブロックを設計し、同じステージからの一連の出力をマージし、また、前ステージからの情報フローを促進する普遍的なショートカット接続を設計する。
ダウンサンプリング層は、分類性能を維持しながら計算の複雑さを低減するように設計されている。
ベンチマークデータセットであるimagenet-1kの実験結果は、従来のバイナリcnnと比較して最先端精度を実現するbimlpモデルの有効性を示している。
MindSporeのコードは \url{https://gitee.com/mindspore/models/tree/master/research/cv/BiMLP} で公開されている。 This paper studies the problem of designing compact binary architectures for vision multi-layer perceptrons (MLPs). We provide extensive analysis on the difficulty of binarizing vision MLPs and find that previous binarization methods perform poorly due to limited capacity of binary MLPs. In contrast with the traditional CNNs that utilizing convolutional operations with large kernel size, fully-connected (FC) layers in MLPs can be treated as convolutional layers with kernel size $1\times1$. Thus, the representation ability of the FC layers will be limited when being binarized, and places restrictions on the capability of spatial mixing and channel mixing on the intermediate features. To this end, we propose to improve the performance of binary MLP (BiMLP) model by enriching the representation ability of binary FC layers. We design a novel binary block that contains multiple branches to merge a series of outputs from the same stage, and also a universal shortcut connection that encourages the information flow from the previous stage. The downsampling layers are also carefully designed to reduce the computational complexity while maintaining the classification performance. Experimental results on benchmark dataset ImageNet-1k demonstrate the effectiveness of the proposed BiMLP models, which achieve state-of-the-art accuracy compared to prior binary CNNs. The MindSpore code is available at \url{https://gitee.com/mindspore/models/tree/master/research/cv/BiMLP}. | 翻訳日:2023-01-02 16:30:00 公開日:2022-12-29 |
# ラベル拡張を用いた関係抽出のためのシーケンス生成 Sequence Generation with Label Augmentation for Relation Extraction ( http://arxiv.org/abs/2212.14266v1 ) ライセンス: Link先を確認 | Bo Li, Dingyao Yu, Wei Ye, Jinglei Zhang, Shikun Zhang | (参考訳) シークエンス生成は、大規模事前学習されたSeq2Seqモデルを組み込むことにより、最近の情報抽出において有望な性能を示す。
本稿では,関係抽出における系列生成の利点について検討し,関係名や同義語を生成対象とし,それらのテキスト意味論と(単語列パターンの観点で)相関関係がモデル性能に与える影響について検討する。
次に,reに対するラベル拡張を自動的に行うseq2seqモデルであるrelaを用いた関係抽出を提案する。
ラベル拡張という言葉は、各関係名に対する意味論的同義語を生成対象として意味する。
さらに、reを扱う際のseq2seqモデルの挙動を詳細に分析する。
実験結果から,RELAは従来の4つのREデータセットの手法と比較して,競合的な結果が得られることがわかった。 Sequence generation demonstrates promising performance in recent information extraction efforts, by incorporating large-scale pre-trained Seq2Seq models. This paper investigates the merits of employing sequence generation in relation extraction, finding that with relation names or synonyms as generation targets, their textual semantics and the correlation (in terms of word sequence pattern) among them affect model performance. We then propose Relation Extraction with Label Augmentation (RELA), a Seq2Seq model with automatic label augmentation for RE. By saying label augmentation, we mean prod semantically synonyms for each relation name as the generation target. Besides, we present an in-depth analysis of the Seq2Seq model's behavior when dealing with RE. Experimental results show that RELA achieves competitive results compared with previous methods on four RE datasets. | 翻訳日:2023-01-02 16:22:26 公開日:2022-12-29 |
# ラベルのレビュー:関係抽出のためのトップk予測セット付きラベルグラフネットワーク Reviewing Labels: Label Graph Network with Top-k Prediction Set for Relation Extraction ( http://arxiv.org/abs/2212.14270v1 ) ライセンス: Link先を確認 | Bo Li, Wei Ye, Jinglei Zhang, Shikun Zhang | (参考訳) 関係抽出の典型的な方法は、タスク固有のデータセット上で大きな事前学習された言語モデルを微調整し、最終予測として出力分布の最も高い確率のラベルを選択することである。
しかし、与えられたサンプルに対するトップk予測セットの使用は一般的に見過ごされる。
本稿では,与えられたサンプルのTop-k予測セットが,正しいラベルを予測するための有用な情報を含んでいることを最初に明らかにする。
このtop-k予測セットを有効に活用するために,klgと呼ばれるtop-k予測セットを用いたラベルグラフネットワークを提案する。
具体的には、あるサンプルに対して、トップk予測セットの候補ラベルをレビューし、それらの関係を学ぶラベルグラフを構築します。
また、より強力で差別的な関係表現を学習するための動的$k$-selection機構を設計する。
実験の結果,klgは3つの関係抽出データセットにおいて最高の性能を達成できた。
さらに、klgは長い尾を持つクラスを扱うのにより効果的である。 The typical way for relation extraction is fine-tuning large pre-trained language models on task-specific datasets, then selecting the label with the highest probability of the output distribution as the final prediction. However, the usage of the Top-k prediction set for a given sample is commonly overlooked. In this paper, we first reveal that the Top-k prediction set of a given sample contains useful information for predicting the correct label. To effectively utilizes the Top-k prediction set, we propose Label Graph Network with Top-k Prediction Set, termed as KLG. Specifically, for a given sample, we build a label graph to review candidate labels in the Top-k prediction set and learn the connections between them. We also design a dynamic $k$-selection mechanism to learn more powerful and discriminative relation representation. Our experiments show that KLG achieves the best performances on three relation extraction datasets. Moreover, we observe that KLG is more effective in dealing with long-tailed classes. | 翻訳日:2023-01-02 16:22:12 公開日:2022-12-29 |
# フィードバックコメント生成データセットのエラー構文認識による拡張 Error syntax aware augmentation of feedback comment generation dataset ( http://arxiv.org/abs/2212.14293v1 ) ライセンス: Link先を確認 | Nikolay Babakov, Maria Lysyuk, Alexander Shvets, Lilya Kazakova, Alexander Panchenko | (参考訳) 本稿では,文章作成のためのフィードバックコメント生成に特化したgenchal 2022共有タスクの解法を提案する。
エラーのあるテキストとエラーのスパンを与えられたこのタスクの観点で、システムは、書き手(言語学習者)が書くスキルを向上させるのに役立つ説明メモを生成する。
提案手法は,提案したエラースパン内に位置する単語の構文的依存関係に基づいて,初期データセットのT5モデルを微調整する。
のソリューションは、主催者の手作業による評価で第2位を獲得しました。 This paper presents a solution to the GenChal 2022 shared task dedicated to feedback comment generation for writing learning. In terms of this task given a text with an error and a span of the error, a system generates an explanatory note that helps the writer (language learner) to improve their writing skills. Our solution is based on fine-tuning the T5 model on the initial dataset augmented according to syntactical dependencies of the words located within indicated error span. The solution of our team "nigula" obtained second place according to manual evaluation by the organizers. | 翻訳日:2023-01-02 16:21:57 公開日:2022-12-29 |
# エピステミックスタンス検出による政治レトリックの検討 Examining Political Rhetoric with Epistemic Stance Detection ( http://arxiv.org/abs/2212.14486v1 ) ライセンス: Link先を確認 | Ankita Gupta, Su Lin Blodgett, Justin H Gross, Brendan O'Connor | (参考訳) 政治談話の参加者は、ヘッジ、帰属、否定といった修辞的戦略を採用して、自分や他人が提案した主張に対する様々な信念のコミットメントを示す。
伝統的に、政治学者は労働集約的な手動コンテンツ分析を通じてこれらの認識現象を研究してきた。
筆者らは,計算意味論における研究から引き出された認識的スタンス予測を通じて,著者や他の主張する実体(保持者)が主張し,否定し,あるいはあいまいに提案する部分のみを識別するために,そのような作業を自動化することを提案する。
まず,マルチソース姿勢予測のためのシンプルなRoBERTaモデルを開発した。
そこで我々は,米国の政治イデオロギーにまたがって,引用された信念保有者(同盟国や反対するボギーメン)の傾向を特徴づける,米国の政治意見書の大衆市場マニフェスト集を大規模に分析することによって,その新しい政治科学への応用を実証する。 Participants in political discourse employ rhetorical strategies -- such as hedging, attributions, or denials -- to display varying degrees of belief commitments to claims proposed by themselves or others. Traditionally, political scientists have studied these epistemic phenomena through labor-intensive manual content analysis. We propose to help automate such work through epistemic stance prediction, drawn from research in computational semantics, to distinguish at the clausal level what is asserted, denied, or only ambivalently suggested by the author or other mentioned entities (belief holders). We first develop a simple RoBERTa-based model for multi-source stance predictions that outperforms more complex state-of-the-art modeling. Then we demonstrate its novel application to political science by conducting a large-scale analysis of the Mass Market Manifestos corpus of U.S. political opinion books, where we characterize trends in cited belief holders -- respected allies and opposed bogeymen -- across U.S. political ideologies. | 翻訳日:2023-01-02 16:21:48 公開日:2022-12-29 |
# ニューロモルフィックハードウェアアーキテクチャの生物学的プラウザブル学習 Biologically Plausible Learning on Neuromorphic Hardware Architectures ( http://arxiv.org/abs/2212.14337v1 ) ライセンス: Link先を確認 | Christopher Wolters, Brady Taylor, Edward Hanson, Xiaoxuan Yang, Ulf Schlichtmann and Yiran Chen | (参考訳) ますます複雑なネットワークを定義するパラメータが増加し、Deep Learningは人間のパフォーマンスを超えたいくつかのブレークスルーをもたらしている。
その結果、これらの数百万のモデルパラメータのデータ移動は、メモリウォールとして知られる不均衡を引き起こします。
ニューロモルフィックコンピューティング(neuromorphic computing)は、アナログメモリで直接計算を行うことで、この不均衡に直面する新しいパラダイムである。
ソフトウェア側では、シーケンシャルバックプロパゲーションアルゴリズムは効率的な並列化と高速収束を防ぐ。
新たな手法であるdirect feedback alignmentは、出力から各レイヤにエラーを直接渡すことで、固有のレイヤ依存性を解決する。
ハードウェア/ソフトウェア共同設計の交差点では、ハードウェアの非理想性に耐性のあるアルゴリズムの開発が要求されている。
そこで本研究では,ニューロモルフィックなハードウェア上でバイオプラウズブルな学習を実現するための相互関係を探究し,エネルギー,面積,レイテンシの制約を強調する。
ベンチマークフレームワークdnn+neurosimを用いて,ハードウェアの非理想性と量子化がアルゴリズム性能に与える影響と,ネットワークトポロジとアルゴリズムレベルの設計選択がチップのレイテンシ,エネルギー,領域消費をスケールする方法について検討する。
私たちの知る限りでは、この研究は、異なる学習アルゴリズムがコンピュート・イン・メモリのハードウェアに与える影響を初めて比較したものです。
精度で達成された最良の結果はバックプロパゲーションベースであり、特にハードウェアの不完全さに直面した場合である。
一方、直接フィードバックアライメントは並列化による大幅な高速化を可能にし、N層ネットワークのNに近づく要因によるトレーニング時間を短縮する。 With an ever-growing number of parameters defining increasingly complex networks, Deep Learning has led to several breakthroughs surpassing human performance. As a result, data movement for these millions of model parameters causes a growing imbalance known as the memory wall. Neuromorphic computing is an emerging paradigm that confronts this imbalance by performing computations directly in analog memories. On the software side, the sequential Backpropagation algorithm prevents efficient parallelization and thus fast convergence. A novel method, Direct Feedback Alignment, resolves inherent layer dependencies by directly passing the error from the output to each layer. At the intersection of hardware/software co-design, there is a demand for developing algorithms that are tolerable to hardware nonidealities. Therefore, this work explores the interrelationship of implementing bio-plausible learning in-situ on neuromorphic hardware, emphasizing energy, area, and latency constraints. Using the benchmarking framework DNN+NeuroSim, we investigate the impact of hardware nonidealities and quantization on algorithm performance, as well as how network topologies and algorithm-level design choices can scale latency, energy and area consumption of a chip. To the best of our knowledge, this work is the first to compare the impact of different learning algorithms on Compute-In-Memory-based hardware and vice versa. The best results achieved for accuracy remain Backpropagation-based, notably when facing hardware imperfections. Direct Feedback Alignment, on the other hand, allows for significant speedup due to parallelization, reducing training time by a factor approaching N for N-layered networks. | 翻訳日:2023-01-02 16:21:04 公開日:2022-12-29 |
# visual cpg-rl: 視覚誘導四足ナビゲーションのための学習中心パターン生成器 Visual CPG-RL: Learning Central Pattern Generators for Visually-Guided Quadruped Navigation ( http://arxiv.org/abs/2212.14400v1 ) ライセンス: Link先を確認 | Guillaume Bellegarda, Auke Ijspeert | (参考訳) 本稿では,集中型パターン生成器(CPG),すなわち結合振動子の系を深層強化学習(DRL)フレームワークに統合することにより,四重化ナビゲーションを学習するためのフレームワークを提案する。
内在性発振器セットポイント(振幅と周波数)を調節し、異なる発振器間のリズム挙動を調整し、環境との衝突を避けながら速度指令を追跡する。
我々は、暗黙の相互振動子結合を学習する異なるニューラルネットワークアーキテクチャ(メモリフリーとメモリ対応)を比較し、振動子力学方程式における明示的な結合重みの強さを変化させる。
私たちは、シミュレーションでポリシーをトレーニングし、unitree go1 quadrupedにsim-to-real転送を行い、さまざまなシナリオで堅牢なナビゲーションを観察します。
その結果、メモリ対応のポリシー表現と明示的なoscillator結合は、ナビゲーションタスクのsim-to-real転送の成功に有用であることが示された。
ビデオの結果はhttps://youtu.be/o_lx1olzoe0で見ることができる。 In this paper, we present a framework for learning quadruped navigation by integrating central pattern generators (CPGs), i.e. systems of coupled oscillators, into the deep reinforcement learning (DRL) framework. Through both exteroceptive and proprioceptive sensing, the agent learns to modulate the intrinsic oscillator setpoints (amplitude and frequency) and coordinate rhythmic behavior among different oscillators to track velocity commands while avoiding collisions with the environment. We compare different neural network architectures (i.e. memory-free and memory-enabled) which learn implicit interoscillator couplings, as well as varying the strength of the explicit coupling weights in the oscillator dynamics equations. We train our policies in simulation and perform a sim-to-real transfer to the Unitree Go1 quadruped, where we observe robust navigation in a variety of scenarios. Our results show that both memory-enabled policy representations and explicit interoscillator couplings are beneficial for a successful sim-to-real transfer for navigation tasks. Video results can be found at https://youtu.be/O_LX1oLZOe0. | 翻訳日:2023-01-02 16:13:49 公開日:2022-12-29 |
# 定数係数を持つ線形偏微分方程式系のガウス過程優先 Gaussian Process Priors for Systems of Linear Partial Differential Equations with Constant Coefficients ( http://arxiv.org/abs/2212.14319v1 ) ライセンス: Link先を確認 | Marc H\"ark\"onen, Markus Lange-Hegermann, Bogdan Rai\c{t}\u{a} | (参考訳) 偏微分方程式(PDE)は物理システムをモデル化するための重要なツールであり、それらを機械学習モデルに含めることは物理知識を組み込む重要な方法である。
定数係数の線形PDE系の任意の系が与えられたとき、我々はガウス過程(GP)先行系の族を提案し、これをEPGPと呼び、すべての実現がこの系の正確な解である。
Ehrenpreis-Palamodov の基本原理を適用し、非線型フーリエ変換のように機能し、GP の標準スペクトル法をミラーリングする GP カーネルを構築する。
我々の手法は、ノイズ測定や初期および境界条件などのデータから線形PDEシステムの確率解を推測することができる。
EPGPプライヤの構築はアルゴリズム的であり、一般に適用可能であり、関連するスペクトル周波数を学習し、ビッグデータに対してよりうまく機能するスパースバージョン(S-EPGP)が付属している。
我々はPDEの3種類の系、熱方程式、波動方程式、マクスウェル方程式について、いくつかの実験において計算時間と精度における技術の状態を改善する方法を示す。 Partial differential equations (PDEs) are important tools to model physical systems, and including them into machine learning models is an important way of incorporating physical knowledge. Given any system of linear PDEs with constant coefficients, we propose a family of Gaussian process (GP) priors, which we call EPGP, such that all realizations are exact solutions of this system. We apply the Ehrenpreis-Palamodov fundamental principle, which works like a non-linear Fourier transform, to construct GP kernels mirroring standard spectral methods for GPs. Our approach can infer probable solutions of linear PDE systems from any data such as noisy measurements, or initial and boundary conditions. Constructing EPGP-priors is algorithmic, generally applicable, and comes with a sparse version (S-EPGP) that learns the relevant spectral frequencies and works better for big data sets. We demonstrate our approach on three families of systems of PDE, the heat equation, wave equation, and Maxwell's equations, where we improve upon the state of the art in computation time and precision, in some experiments by several orders of magnitude. | 翻訳日:2023-01-02 16:13:29 公開日:2022-12-29 |
# チップアーキテクチャの制限は、パラメータ化が2ドル設計の場合、量子ニューラルネットワークの精度を維持する Restricting to the chip architecture maintains the quantum neural network accuracy, if the parameterization is a $2$-design ( http://arxiv.org/abs/2212.14426v1 ) ライセンス: Link先を確認 | Lucas Friedrich, Jonas Maziero | (参考訳) ノイズの多い中間スケール量子デバイスの時代において、変分量子回路(vqcs)は量子機械学習モデルを構築するための主要な戦略の1つである。
これらのモデルは量子部分と古典部分で構成されている。
量子部分はパラメトリゼーション $u$ によって与えられるが、これは一般に異なる量子ゲートの積から得られる。
その順番に、古典的な部分は、コスト関数 $c$ を最小限にするために$u$ のパラメータを更新するオプティマイザに対応する。
しかしながら、vqcsの多くの応用にもかかわらず、例えば: ゲートの最適なシーケンスは何か?
パラメータの最適化方法?
どのコスト関数を使うか?
量子チップのアーキテクチャは最終結果にどのように影響するか?
この記事では、最後の質問に答えることに集中します。
一般的に、コスト関数は、パラメータ化が2ドルの設計でより近くなるほど、典型的な平均値になる傾向があります。
したがって、このパラメータ化が2ドルの設計に近づくほど、量子ニューラルネットワークモデルの結果はそのパラメータ化に依存することになる。
結果として、量子チップの独自のアーキテクチャを用いてVQCパラメトリゼーションを定義し、スワップゲートの追加の使用を回避し、VQC深さと関連するエラーを減らすことができる。 In the era of noisy intermediate scale quantum devices, variational quantum circuits (VQCs) are currently one of the main strategies for building quantum machine learning models. These models are made up of a quantum part and a classical part. The quantum part is given by a parametrization $U$, which, in general, is obtained from the product of different quantum gates. By its turn, the classical part corresponds to an optimizer that updates the parameters of $U$ in order to minimize a cost function $C$. However, despite the many applications of VQCs, there are still questions to be answered, such as for example: What is the best sequence of gates to be used? How to optimize their parameters? Which cost function to use? How the architecture of the quantum chips influences the final results? In this article, we focus on answering the last question. We will show that, in general, the cost function will tend to a typical average value the closer the parameterization used is from a $2$-design. Therefore, the closer this parameterization is to a $2$-design, the less the result of the quantum neural network model will depend on its parametrization. As a consequence, we can use the own architecture of the quantum chips to defined the VQC parametrization, avoiding the use of additional swap gates and thus diminishing the VQC depth and the associated errors. | 翻訳日:2023-01-02 16:05:53 公開日:2022-12-29 |
# 演算子におけるカーネルのベイズ学習のためのデータ適応前処理 A Data-Adaptive Prior for Bayesian Learning of Kernels in Operators ( http://arxiv.org/abs/2212.14163v1 ) ライセンス: Link先を確認 | Neil K. Chada, Quanjun Lang, Fei Lu, Xiong Wang | (参考訳) カーネルは非局所依存を表現するのに効率的であり、関数空間間の演算子を設計するために広く使われている。
したがって、データから演算子のカーネルを学習することは一般的な関心の逆問題である。
非局所的依存のため、逆問題はデータ依存特異逆演算子に深刻な悪影響を及ぼすことができる。
ベイズ的アプローチは、非退化前の不備を克服する。
しかし、固定された非退化前は、データが反転作用素のゼロ固有値の固有空間の摂動を誘導した場合、観測ノイズが小さくなると、分岐後平均となる。
平均値が常に小さな雑音限界を持つ安定な後流を達成するために,データ適応性を導入する。
データ適応型事前共分散は、L曲線法によりデータに適応的に選択されたハイパーパラメータを持つ逆演算子である。
さらに,データ適応型プリミティブの計算実践に関する詳細な解析を行い,toeplitz行列と積分演算子を用いてそれを実演する。
数値実験により、固定された事前値が、離散化誤差、モデル誤差、部分的観測、誤ったノイズ仮定の4つのタイプのいずれかの存在下で、異なる後方平均をもたらすことが示されている。
対照的に、データ適応プリエントは常に後部手段を小さなノイズ制限で達成する。 Kernels are efficient in representing nonlocal dependence and they are widely used to design operators between function spaces. Thus, learning kernels in operators from data is an inverse problem of general interest. Due to the nonlocal dependence, the inverse problem can be severely ill-posed with a data-dependent singular inversion operator. The Bayesian approach overcomes the ill-posedness through a non-degenerate prior. However, a fixed non-degenerate prior leads to a divergent posterior mean when the observation noise becomes small, if the data induces a perturbation in the eigenspace of zero eigenvalues of the inversion operator. We introduce a data-adaptive prior to achieve a stable posterior whose mean always has a small noise limit. The data-adaptive prior's covariance is the inversion operator with a hyper-parameter selected adaptive to data by the L-curve method. Furthermore, we provide a detailed analysis on the computational practice of the data-adaptive prior, and demonstrate it on Toeplitz matrices and integral operators. Numerical tests show that a fixed prior can lead to a divergent posterior mean in the presence of any of the four types of errors: discretization error, model error, partial observation and wrong noise assumption. In contrast, the data-adaptive prior always attains posterior means with small noise limits. | 翻訳日:2023-01-02 16:05:14 公開日:2022-12-29 |
# 平均フィールドゲームにおける効率的・独立学習のためのポリシーミラーアセンシング Policy Mirror Ascent for Efficient and Independent Learning in Mean Field Games ( http://arxiv.org/abs/2212.14449v1 ) ライセンス: Link先を確認 | Batuhan Yardim, Semih Cayci, Matthieu Geist, Niao He | (参考訳) 平均場ゲームは、文学における対称で匿名の$n$-playerゲームに対するナッシュ均衡を得るための理論的ツールとして用いられてきた。
しかし、適用性を制限するため、既存の理論結果は「集団生成モデル」のバリエーションを仮定し、学習アルゴリズムによる集団分布の任意の修正を可能にする。
代わりに、n$エージェントがポリシーミラーを実行すると、平均場に起因する標準の$\mathcal{o}(\frac{1}{\sqrt{n}})$エラーまで、集団生成モデルのない単一のサンプル軌跡から、$\tilde{\mathcal{o}}(\varepsilon^{-2})$のサンプルで正規化されたゲームのnash平衡に収束する。
文献から異なるアプローチをとることで、最善の応答写像を扱うのではなく、まずポリシーミラー上昇写像を用いてnash平衡を不動点とする収縮作用素を構築することができることを示した。
次に、$N$-agentゲームにおける条件付きTD学習が$\tilde{\mathcal{O}}(\varepsilon^{-2})$タイムステップで値関数を学習できることを証明する。
これらの結果は、$N$エージェントシミュレータのサンプルパスのみを頼りにすることで、オラクルフリー設定におけるサンプル複雑性を保証する。
さらに,本手法はサンプル保証が有限である$N$エージェントによる独立学習を可能にすることを示す。 Mean-field games have been used as a theoretical tool to obtain an approximate Nash equilibrium for symmetric and anonymous $N$-player games in literature. However, limiting applicability, existing theoretical results assume variations of a "population generative model", which allows arbitrary modifications of the population distribution by the learning algorithm. Instead, we show that $N$ agents running policy mirror ascent converge to the Nash equilibrium of the regularized game within $\tilde{\mathcal{O}}(\varepsilon^{-2})$ samples from a single sample trajectory without a population generative model, up to a standard $\mathcal{O}(\frac{1}{\sqrt{N}})$ error due to the mean field. Taking a divergent approach from literature, instead of working with the best-response map we first show that a policy mirror ascent map can be used to construct a contractive operator having the Nash equilibrium as its fixed point. Next, we prove that conditional TD-learning in $N$-agent games can learn value functions within $\tilde{\mathcal{O}}(\varepsilon^{-2})$ time steps. These results allow proving sample complexity guarantees in the oracle-free setting by only relying on a sample path from the $N$ agent simulator. Furthermore, we demonstrate that our methodology allows for independent learning by $N$ agents with finite sample guarantees. | 翻訳日:2023-01-02 16:04:54 公開日:2022-12-29 |
# 深い線形ネットワークによるベイズ補間 Bayesian Interpolation with Deep Linear Networks ( http://arxiv.org/abs/2212.14457v1 ) ライセンス: Link先を確認 | Boris Hanin, Alexander Zlokapa | (参考訳) 本稿では,出力次元1の深い線形ネットワークを用いたベイズ推定について述べる。
補間(ゼロノイズ)理論において、ガウスの重み前置法とmse負の対数類似性損失により、予測後置法とベイズ模型の証明は、meijer-g関数と呼ばれる有理特殊関数のクラスで閉じた形で書けることが示される。
これらの結果は非漸近的であり、トレーニングデータセット、ネットワーク深度、隠された層幅を保ち、各層にユークリッド共分散を持つ深いガウス過程を用いてベイズ補間を正確に解いた。
Meijer-G関数の新たな漸近展開を通じて、深度の役割の豊かな新しい絵が現れる。
特に、${\bf \text{the role of depth in extrapolation}}$: データ非依存のプリミティブを持つディープリニアネットワークの後方は、データ依存のプリミティブを最大化する証拠のある浅いネットワークと同じである。
この意味で、深い線形ネットワークは証明可能な最適予測を行う。
${\bf \text{the role of depth in model selection}}$: データ非依存の事前から、広域ネットワークにおけるベイズモデルの証拠は無限の深さでのみ最大化される。
これは(少なくとも線形の場合)より深いネットワークを好む原則的な理由を与える。
data-dependent priors を用いて、 \[\#\text{hidden layers}\times\frac{\#\text{training data}}{\text{network width}}\] によって与えられる効果的な深さという新しい概念は、広い線形ネットワークにおけるベイジアン後方を決定する。 This article concerns Bayesian inference using deep linear networks with output dimension one. In the interpolating (zero noise) regime we show that with Gaussian weight priors and MSE negative log-likelihood loss both the predictive posterior and the Bayesian model evidence can be written in closed form in terms of a class of meromorphic special functions called Meijer-G functions. These results are non-asymptotic and hold for any training dataset, network depth, and hidden layer widths, giving exact solutions to Bayesian interpolation using a deep Gaussian process with a Euclidean covariance at each layer. Through novel asymptotic expansions of Meijer-G functions, a rich new picture of the role of depth emerges. Specifically, we find: ${\bf \text{The role of depth in extrapolation}}$: The posteriors in deep linear networks with data-independent priors are the same as in shallow networks with evidence maximizing data-dependent priors. In this sense, deep linear networks make provably optimal predictions. ${\bf \text{The role of depth in model selection}}$: Starting from data-agnostic priors, Bayesian model evidence in wide networks is only maximized at infinite depth. This gives a principled reason to prefer deeper networks (at least in the linear case). ${\bf \text{Scaling laws relating depth, width, and number of datapoints}}$: With data-agnostic priors, a novel notion of effective depth given by \[\#\text{hidden layers}\times\frac{\#\text{training data}}{\text{network width}}\] determines the Bayesian posterior in wide linear networks, giving rigorous new scaling laws for generalization error. | 翻訳日:2023-01-02 16:04:23 公開日:2022-12-29 |
# オフ・ポリシー評価のためのインストゥルメンタル・変数アプローチ An Instrumental Variable Approach to Confounded Off-Policy Evaluation ( http://arxiv.org/abs/2212.14468v1 ) ライセンス: Link先を確認 | Yang Xu, Jin Zhu, Chengchun Shi, Shikai Luo, and Rui Song | (参考訳) オフ政治評価(Off-policy Evaluation、OPE)は、潜在的に異なる行動ポリシーによって生成された事前収集された観測データを用いて、目標政策の回帰を推定する手法である。
場合によっては、アクション・リワードやアクション・ネスト状態の関係を曖昧にし、既存のOPEアプローチを効果的にしない変数が存在する。
本稿では,マルコフ決定過程(MDPs)において,一貫したOPEのインストゥルメンタル変数(IV)に基づく手法を提案する。
単一段階の意思決定と同様に、IVにより、無限の地平線設定でもターゲットポリシーの価値を正しく識別できることを示す。
さらに,効率良くロバストな価値推定器を提案し,世界有数のショートビデオプラットフォームからの実データを広範囲にシミュレーションし,分析することによりその効果を示す。 Off-policy evaluation (OPE) is a method for estimating the return of a target policy using some pre-collected observational data generated by a potentially different behavior policy. In some cases, there may be unmeasured variables that can confound the action-reward or action-next-state relationships, rendering many existing OPE approaches ineffective. This paper develops an instrumental variable (IV)-based method for consistent OPE in confounded Markov decision processes (MDPs). Similar to single-stage decision making, we show that IV enables us to correctly identify the target policy's value in infinite horizon settings as well. Furthermore, we propose an efficient and robust value estimator and illustrate its effectiveness through extensive simulations and analysis of real data from a world-leading short-video platform. | 翻訳日:2023-01-02 16:03:48 公開日:2022-12-29 |
# 果実の熟度分類:調査 Fruit Ripeness Classification: a Survey ( http://arxiv.org/abs/2212.14441v1 ) ライセンス: Link先を確認 | Matteo Rizzo, Matteo Marcuzzo, Alessandro Zangari, Andrea Gasparetto, Andrea Albarelli | (参考訳) 果実は世界中の農業で何百万人もの人々が養う重要な作物である。
果物製品の標準的なサプライチェーンには、鮮度、味、そして何よりも安全を保証する品質チェックが含まれる。
果実の品質を決定する重要な要因は熟成の段階である。
これは通常、現場の専門家によって手動で分類されるため、労働集約的でエラーを起こしやすいプロセスとなる。
このように、果実熟度分類の過程で自動化の必要性が高まっている。
食品を格付けするための特徴記述子を多用する多くの自動的手法が提案されている。
機械学習とディープラーニング技術がトップパフォーマンスの方法を支配している。
さらに、ディープラーニングは生のデータで操作できるため、複雑なエンジニアリング機能(しばしば作物特有のもの)を計算する必要がなくなる。
本研究は,果実熟度分類を自動化するための文献に提案されている最新の手法を概観し,それらの操作する最も一般的な特徴記述子について述べる。 Fruit is a key crop in worldwide agriculture feeding millions of people. The standard supply chain of fruit products involves quality checks to guarantee freshness, taste, and, most of all, safety. An important factor that determines fruit quality is its stage of ripening. This is usually manually classified by experts in the field, which makes it a labor-intensive and error-prone process. Thus, there is an arising need for automation in the process of fruit ripeness classification. Many automatic methods have been proposed that employ a variety of feature descriptors for the food item to be graded. Machine learning and deep learning techniques dominate the top-performing methods. Furthermore, deep learning can operate on raw data and thus relieve the users from having to compute complex engineered features, which are often crop-specific. In this survey, we review the latest methods proposed in the literature to automatize fruit ripeness classification, highlighting the most common feature descriptors they operate on. | 翻訳日:2023-01-02 15:57:51 公開日:2022-12-29 |
# エンドツーエンド音声認識モデルの正規化改善のためのマクロブロックドロップアウト Macro-block dropout for improved regularization in training end-to-end speech recognition models ( http://arxiv.org/abs/2212.14149v1 ) ライセンス: Link先を確認 | Chanwoo Kim, Sathish Indurti, Jinhwan Park, Wonyong Sung | (参考訳) 本稿ではマクロブロックドロップアウトと呼ばれる新しい正規化アルゴリズムを提案する。
オーバーフィッティング問題は、大規模なニューラルネットワークモデルをトレーニングする上で難しい問題だった。
ドロップアウトテクニックは、トレーニング中の複雑な共適応を防止し、正規化に非常に効果的であることが証明されている。
本研究では,入力からリカレントニューラルネットワーク(RNN)への多数のユニットを含むマクロブロックを定義する。
各ユニットにドロップアウトを適用するのではなく、各マクロブロックにランダムドロップアウトを適用する。
このアルゴリズムは,一定平均落差率を維持した場合でも,各層に対して異なる落差率を適用する効果があり,正則化効果が良好である。
Recurrent Neural Network-Transducer (RNN-T) を用いた実験では,従来のLibriSpeechテストクリーンおよびテストクリーンのドロップアウトよりも比較的4.30 %と6.13 %のワード誤り率(WER)が改善されている。
Attention-based Encoder-Decoder (AED) モデルでは、このアルゴリズムは従来のテストセットのドロップアウトよりも比較的4.36 %と5.85 %のWERが改善されている。 This paper proposes a new regularization algorithm referred to as macro-block dropout. The overfitting issue has been a difficult problem in training large neural network models. The dropout technique has proven to be simple yet very effective for regularization by preventing complex co-adaptations during training. In our work, we define a macro-block that contains a large number of units from the input to a Recurrent Neural Network (RNN). Rather than applying dropout to each unit, we apply random dropout to each macro-block. This algorithm has the effect of applying different drop out rates for each layer even if we keep a constant average dropout rate, which has better regularization effects. In our experiments using Recurrent Neural Network-Transducer (RNN-T), this algorithm shows relatively 4.30 % and 6.13 % Word Error Rates (WERs) improvement over the conventional dropout on LibriSpeech test-clean and test-other. With an Attention-based Encoder-Decoder (AED) model, this algorithm shows relatively 4.36 % and 5.85 % WERs improvement over the conventional dropout on the same test sets. | 翻訳日:2023-01-02 15:56:47 公開日:2022-12-29 |
# 精密モデルチューニングによるユースケース特定性の最大化 Maximizing Use-Case Specificity through Precision Model Tuning ( http://arxiv.org/abs/2212.14206v1 ) ライセンス: Link先を確認 | Pranjali Awasthi, David Recio-Mitter, Yosuke Kyle Sugi | (参考訳) 近年,情報検索などのタスクで言語モデルが普及している。
ユースケースが特定のドメインに向けられるようになると、ファインチューニングは標準パフォーマンスのデフォルトになる。
これらのモデルを特定のタスクやデータセット向けに微調整するには、モデルのハイパーパラメータとトレーニングテクニックを慎重に調整する必要がある。
本稿では,バイオメディカル情報検索の課題に対して,トランスフォーマーを用いた4つの言語モデルの性能を詳細に解析する。
我々が検討しているモデルは、DeepMindのRETRO (7Bパラメータ)、GPT-J (6Bパラメータ)、GPT-3 (175Bパラメータ)、BLOOM (176Bパラメータ)である。
タンパク質構造・機能予測に関する480000論文からなる大規模コーパスをデータセットとして用い,妥当性,正確性,解釈性に基づいてそれらの性能を比較した。
その結果,<10Bパラメータとドメイン固有データセットを微調整した小さなモデルでは,精度,関連性,解釈可能性において,より大きな言語モデルよりも高い精度(平均50%以上)を達成できることがわかった。
しかし、より大きなモデルはより広いプロンプトに対して、概してより良い結果をもたらす。 Language models have become increasingly popular in recent years for tasks like information retrieval. As use-cases become oriented toward specific domains, fine-tuning becomes default for standard performance. To fine-tune these models for specific tasks and datasets, it is necessary to carefully tune the model's hyperparameters and training techniques. In this paper, we present an in-depth analysis of the performance of four transformer-based language models on the task of biomedical information retrieval. The models we consider are DeepMind's RETRO (7B parameters), GPT-J (6B parameters), GPT-3 (175B parameters), and BLOOM (176B parameters). We compare their performance on the basis of relevance, accuracy, and interpretability, using a large corpus of 480000 research papers on protein structure/function prediction as our dataset. Our findings suggest that smaller models, with <10B parameters and fine-tuned on domain-specific datasets, tend to outperform larger language models on highly specific questions in terms of accuracy, relevancy, and interpretability by a significant margin (+50% on average). However, larger models do provide generally better results on broader prompts. | 翻訳日:2023-01-02 15:56:25 公開日:2022-12-29 |
# 北太平洋西部における風況予報のリアルタイムバイアス補正のための深層学習法 A Deep Learning Method for Real-time Bias Correction of Wind Field Forecasts in the Western North Pacific ( http://arxiv.org/abs/2212.14160v1 ) ライセンス: Link先を確認 | Wei Zhang, Yueyue Jiang, Junyu Dong, Xiaojiang Song, Renbo Pang, Boyu Guoan and Hui Yu | (参考訳) 欧州中距離気象予報センター(ECMWF、略してEC)の予測は、海上災害警報システムの確立の基盤となるが、いくつかの体系的バイアスを含む。第5世代のEC大気再分析(ERA5)データは精度が高いが、約5日遅れている。
この問題を解決するために,EC と ERA5 データの非線形マッピングに時空間深度学習法を適用すれば,EC の風速予測データの品質をリアルタイムで向上させることができる。
本研究では,マルチタスク・ダブルエンコーダ・トラジェクトリ・Gated Recurrent Unit (MT-DETrajGRU) モデルを開発した。このモデルでは,改良されたダブルエンコーダ・予測器を用いて,風場のU成分とV成分の時空間列をモデル化し,風速と風向を同時に補正するマルチタスク学習損失関数を設計した。
調査エリアは西北太平洋(WNP)であり、2020年12月から2021年11月までにECが公表した10日間の風速予測のリアルタイムな転がりバイアス補正を行った。
従来のec予測と比較して,mt-detrajgruモデルによる補正により,4シーズンの風速と風向の偏差がそれぞれ8-11%,風向偏差が9-14%減少した。
また,提案手法は異なる気象条件下で均一にデータをモデル化した。
標準および台風条件下での補正性能は同等であり、ここで構築されたデータ駆動モードは堅牢で一般化可能であることを示す。 Forecasts by the European Centre for Medium-Range Weather Forecasts (ECMWF; EC for short) can provide a basis for the establishment of maritime-disaster warning systems, but they contain some systematic biases.The fifth-generation EC atmospheric reanalysis (ERA5) data have high accuracy, but are delayed by about 5 days. To overcome this issue, a spatiotemporal deep-learning method could be used for nonlinear mapping between EC and ERA5 data, which would improve the quality of EC wind forecast data in real time. In this study, we developed the Multi-Task-Double Encoder Trajectory Gated Recurrent Unit (MT-DETrajGRU) model, which uses an improved double-encoder forecaster architecture to model the spatiotemporal sequence of the U and V components of the wind field; we designed a multi-task learning loss function to correct wind speed and wind direction simultaneously using only one model. The study area was the western North Pacific (WNP), and real-time rolling bias corrections were made for 10-day wind-field forecasts released by the EC between December 2020 and November 2021, divided into four seasons. Compared with the original EC forecasts, after correction using the MT-DETrajGRU model the wind speed and wind direction biases in the four seasons were reduced by 8-11% and 9-14%, respectively. In addition, the proposed method modelled the data uniformly under different weather conditions. The correction performance under normal and typhoon conditions was comparable, indicating that the data-driven mode constructed here is robust and generalizable. | 翻訳日:2023-01-02 15:56:06 公開日:2022-12-29 |
# wl-align: 正規化表現学習によるネットワーク間のユーザ連携のためのweisfeiler-lehman relabeling WL-Align: Weisfeiler-Lehman Relabeling for Aligning Users across Networks via Regularized Representation Learning ( http://arxiv.org/abs/2212.14182v1 ) ライセンス: Link先を確認 | Li Liu, Penggang Chen, Xin Li, William K. Cheung, Youmin Zhang, Qun Liu, and Guoyin Wang | (参考訳) 低次元埋め込み空間におけるアライメントを実現するために,グラフ表現学習を用いたネットワーク間のユーザ調整が有効であることがわかった。
しかし、特にラベル付きアンカーに長距離接続するノードが遭遇した場合、高度に正確なアライメントを実現することは依然として困難である。
この制限を緩和するために,正規化表現学習フレームワークを採用し,固有ノード表現を学習するWL-Alignを設計した。
これはWeisfeiler-Lehman同型テストを拡張し、"across-networkWeisfeiler-Lehman relabeling"と"proximity-reserving representation learning"の交互相のアライメントを学ぶ。
ネットワーク横断のWeisfeiler-Lehman relabelingは、アンカーベースのラベル伝搬と類似性に基づくハッシュを反復することで、既知のアンカーの異なるノードへの接続を効率的かつ堅牢に利用することで実現される。
表現学習モジュールは、個々のネットワーク内の2階近接を保存し、ワイスフェイラー・リーマンハッシュラベルによって正規化される。
実世界および合成データセットに関する広範囲な実験により,提案するwl-alignは最先端の手法よりも優れており,"実世界マッチング"シナリオにおいて大幅な性能向上を達成している。
WL-Alignのデータとコードはhttps://github.com/ChenPengGang/WLAlignCodeで公開されている。 Aligning users across networks using graph representation learning has been found effective where the alignment is accomplished in a low-dimensional embedding space. Yet, achieving highly precise alignment is still challenging, especially when nodes with long-range connectivity to the labeled anchors are encountered. To alleviate this limitation, we purposefully designed WL-Align which adopts a regularized representation learning framework to learn distinctive node representations. It extends the Weisfeiler-Lehman Isormorphism Test and learns the alignment in alternating phases of "across-network Weisfeiler-Lehman relabeling" and "proximity-preserving representation learning". The across-network Weisfeiler-Lehman relabeling is achieved through iterating the anchor-based label propagation and a similarity-based hashing to exploit the known anchors' connectivity to different nodes in an efficient and robust manner. The representation learning module preserves the second-order proximity within individual networks and is regularized by the across-network Weisfeiler-Lehman hash labels. Extensive experiments on real-world and synthetic datasets have demonstrated that our proposed WL-Align outperforms the state-of-the-art methods, achieving significant performance improvements in the "exact matching" scenario. Data and code of WL-Align are available at https://github.com/ChenPengGang/WLAlignCode. | 翻訳日:2023-01-02 15:54:24 公開日:2022-12-29 |
# ベイズ変分オートエンコーダは知らないことを知っていますか? Do Bayesian Variational Autoencoders Know What They Don't Know? ( http://arxiv.org/abs/2212.14272v1 ) ライセンス: Link先を確認 | Misha Glazunov and Apostolis Zarras | (参考訳) OoD(Out-of-Distribution)入力を検出する問題は、ディープニューラルネットワークにとって最重要課題である。
以前にも、入力の密度を推定できる深い生成モデルでさえ信頼性が低く、しばしばoodの信頼性の高い予測を行い、分散データよりも高い密度を割り当てる傾向があることが示されている。
単一のモデルにおけるこの過信は、疫学的不確実性を考慮したモデルパラメータに対するベイズ推定によって緩和される可能性がある。
本稿では,確率勾配マルコフ連鎖モンテカルロ,バックプロパゲーションによるベイズ,および確率重み平均ガウスの3つのベイズ推定手法について検討する。
この推論は、変分オートエンコーダの可能性をパラメータ化するディープニューラルネットワークの重みの上に実装される。
我々は,OoD検出によく用いられるいくつかのベンチマークに対するアプローチとして,サンプルモデルアンサンブル,典型性テスト,不一致スコア,渡辺赤池情報基準を用いた限界確率の推定を行った。
最後に,最先端のパフォーマンスを示す単純なスコアを2つ紹介する。 The problem of detecting the Out-of-Distribution (OoD) inputs is of paramount importance for Deep Neural Networks. It has been previously shown that even Deep Generative Models that allow estimating the density of the inputs may not be reliable and often tend to make over-confident predictions for OoDs, assigning to them a higher density than to the in-distribution data. This over-confidence in a single model can be potentially mitigated with Bayesian inference over the model parameters that take into account epistemic uncertainty. This paper investigates three approaches to Bayesian inference: stochastic gradient Markov chain Monte Carlo, Bayes by Backpropagation, and Stochastic Weight Averaging-Gaussian. The inference is implemented over the weights of the deep neural networks that parameterize the likelihood of the Variational Autoencoder. We empirically evaluate the approaches against several benchmarks that are often used for OoD detection: estimation of the marginal likelihood utilizing sampled model ensemble, typicality test, disagreement score, and Watanabe-Akaike Information Criterion. Finally, we introduce two simple scores that demonstrate the state-of-the-art performance. | 翻訳日:2023-01-02 15:48:01 公開日:2022-12-29 |
# INO: 複雑な物理系をモメンタムで学習するための不変神経演算子 INO: Invariant Neural Operators for Learning Complex Physical Systems with Momentum Conservation ( http://arxiv.org/abs/2212.14365v1 ) ライセンス: Link先を確認 | Ning Liu, Yue Yu, Huaiqian You, Neeraj Tatikola | (参考訳) 隠れ支配方程式の暗黙の解演算子として現れるニューラル演算子は、最近、複雑な現実世界の物理系の応答を学習するための一般的なツールとなっている。
それでも、これまでのニューラルオペレータアプリケーションの大部分はデータ駆動であり、データの基本物理法則の保存を無視している。
本稿では,基本保存則を自動保証した物理モデルを学ぶための,新しい積分型ニューラルネットワークアーキテクチャを提案する。
特に、フレーム依存位置情報をカーネル空間の不変量に置き換えることにより、提案したニューラル演算子は、設計上の変換不変および回転不変により、線形および角運動量の保存則に従属する。
その結果,本モデルは,合成データと実験データの両方から複雑な物質的振る舞いを学習する上での表現性と有効性を示し,本研究の学習したニューラル演算子は,翻訳データと回転データを扱うのに汎用性を持つだけでなく,ベースラインニューラルオペレータモデルと比較して最先端の精度と効率性も達成できることを示した。 Neural operators, which emerge as implicit solution operators of hidden governing equations, have recently become popular tools for learning responses of complex real-world physical systems. Nevertheless, the majority of neural operator applications has thus far been data-driven, which neglects the intrinsic preservation of fundamental physical laws in data. In this paper, we introduce a novel integral neural operator architecture, to learn physical models with fundamental conservation laws automatically guaranteed. In particular, by replacing the frame-dependent position information with its invariant counterpart in the kernel space, the proposed neural operator is by design translation- and rotation-invariant, and consequently abides by the conservation laws of linear and angular momentums. As applications, we demonstrate the expressivity and efficacy of our model in learning complex material behaviors from both synthetic and experimental datasets, and show that, by automatically satisfying these essential physical laws, our learned neural operator is not only generalizable in handling translated and rotated datasets, but also achieves state-of-the-art accuracy and efficiency as compared to baseline neural operator models. | 翻訳日:2023-01-02 15:47:42 公開日:2022-12-29 |
# JKOスキームによる可逆正規化フローニューラルネットワーク Invertible normalizing flow neural networks by JKO scheme ( http://arxiv.org/abs/2212.14424v1 ) ライセンス: Link先を確認 | Chen Xu, Xiuyuan Cheng, Yao Xie | (参考訳) 正規化フローは、効率的なサンプリングと密度推定のための深層生成モデルのクラスである。
トレーニングを容易にするために、既存の作品には正規化されたフロー軌跡があり、特別なネットワークアーキテクチャが設計されている。
本論文は,Jordan-Kinderleherer-Otto (JKO) スキームにインスパイアされたニューラルODEフローネットワークを開発し,残余ブロックの効率的なブロックワイズトレーニングを可能にし,スコアマッチングや変分学習の内ループを回避する。
JKO スキームは勾配流の力学を展開させるため,提案モデルでは,残差ブロックを1対1で積み重ねることで,メモリ負荷を低減し,深層流網のエンドツーエンドトレーニングを行うのが困難である。
また,確率空間における軌道の漸進的改善によるフローネットワークの適応時間再パラメータ化も実現し,モデルの訓練効率と精度を向上させる。
合成および実データを用いた数値実験により, 提案したJKO-iFlowモデルでは, 既存のフローモデルや拡散モデルと比較して, 計算・メモリコストを大幅に削減した新しいサンプルの生成において, 類似あるいは良好な性能が得られることを示す。 Normalizing flow is a class of deep generative models for efficient sampling and density estimation. In practice, the flow often appears as a chain of invertible neural network blocks; to facilitate training, existing works have regularized flow trajectories and designed special network architectures. The current paper develops a neural ODE flow network inspired by the Jordan-Kinderleherer-Otto (JKO) scheme, which allows efficient block-wise training of the residual blocks and avoids inner loops of score matching or variational learning. As the JKO scheme unfolds the dynamic of gradient flow, the proposed model naturally stacks residual network blocks one-by-one, reducing the memory load and difficulty of performing end-to-end training of deep flow networks. We also develop adaptive time reparameterization of the flow network with a progressive refinement of the trajectory in probability space, which improves the model training efficiency and accuracy in practice. Using numerical experiments with synthetic and real data, we show that the proposed JKO-iFlow model achieves similar or better performance in generating new samples compared with existing flow and diffusion models at a significantly reduced computational and memory cost. | 翻訳日:2023-01-02 15:47:20 公開日:2022-12-29 |
# 深層条件生成学習による質的オフポリシー評価 Quantile Off-Policy Evaluation via Deep Conditional Generative Learning ( http://arxiv.org/abs/2212.14466v1 ) ライセンス: Link先を確認 | Yang Xu, Chengchun Shi, Shikai Luo, Lan Wang, and Rui Song | (参考訳) Off-Policy Evaluation (OPE) は、潜在的に異なる行動ポリシーによって生成されたオフラインデータを用いて、新しいターゲットポリシーを評価することに関心がある。
医療から技術産業まで、連続的な意思決定の問題において非常に重要である。
既存の文献における研究のほとんどは、与えられた方針の平均的な結果を評価することに集中しており、結果の変動性を無視している。
しかし、様々な応用において、平均以外の基準はより賢明であるかもしれない。
例えば、報酬分布が歪んで非対称な場合には、その堅牢性のために量子的基準が好まれる。
本稿では, 逐次決定における量子化OPEの2次ロバスト推論手法を提案し, その漸近特性について検討する。
特に,最先端の深部条件生成学習法を用いてパラメータ依存的ニュアサンス関数推定法を提案する。
本提案手法の利点は,シミュレーションと,ショートビデオプラットフォームによる実世界のデータセットの両方を用いて示す。
特に,提案した推定器は,重み付き報酬分布の設定において,従来のOPE推定器よりも優れていた。 Off-Policy evaluation (OPE) is concerned with evaluating a new target policy using offline data generated by a potentially different behavior policy. It is critical in a number of sequential decision making problems ranging from healthcare to technology industries. Most of the work in existing literature is focused on evaluating the mean outcome of a given policy, and ignores the variability of the outcome. However, in a variety of applications, criteria other than the mean may be more sensible. For example, when the reward distribution is skewed and asymmetric, quantile-based metrics are often preferred for their robustness. In this paper, we propose a doubly-robust inference procedure for quantile OPE in sequential decision making and study its asymptotic properties. In particular, we propose utilizing state-of-the-art deep conditional generative learning methods to handle parameter-dependent nuisance function estimation. We demonstrate the advantages of this proposed estimator through both simulations and a real-world dataset from a short-video platform. In particular, we find that our proposed estimator outperforms classical OPE estimators for the mean in settings with heavy-tailed reward distributions. | 翻訳日:2023-01-02 15:46:56 公開日:2022-12-29 |
# YUV 4:2:0コンテンツに対する適応的特徴変調を用いた階層的Bフレーム符号化 Learned Hierarchical B-frame Coding with Adaptive Feature Modulation for YUV 4:2:0 Content ( http://arxiv.org/abs/2212.14187v1 ) ライセンス: Link先を確認 | Mu-Jung Chen, Hong-Sheng Xie, Cheng Chien, Wen-Hsiao Peng, Hsueh-Ming Hang | (参考訳) 本稿では,ISCAS 2023におけるニューラルネットワークに基づくビデオ符号化のグランドチャレンジに対応する,階層的Bフレーム符号化方式を提案する。
具体的には,(1)Bフレーム符号化,(2)YUV 4:2:0符号化,(3)単一モデルのみによるコンテンツ適応型可変レート符号化の3つの問題に対処する。
ほとんどの学習ビデオコーデックは、Pフレーム符号化のためにRGBドメインで内部で動作する。
yuv 4:2:0コンテンツのbフレームコーディングは、ほとんど未検討である。
さらに、条件付き畳み込みを用いた可変レートコーディングに関する先行研究があったが、そのほとんどはコンテンツ情報について考慮しなかった。
我々は条件付き拡張正規化流れ(canf)に基づくスキームを構築する。
効率的なBフレーム符号化のための条件付きモーションとフレーム間コーデックを備えている。
YUV 4:2:0の内容に対処するため、2つの条件付きフレーム間コーデックを使用して、Y成分とUV成分を別々に処理し、Y成分に条件付きUV成分の符号化を行う。
さらに,コンボリューション層毎に適応的特徴変調を導入し,コンテンツ情報とbフレームの符号化レベルの両方を考慮して,コンテンツ適応型可変レート符号化を実現する。
実験の結果,モデルがx265を上回っており,psnr-yuvの一般的なデータセットに対する昨年のチャレンジの勝者であることが判明した。 This paper introduces a learned hierarchical B-frame coding scheme in response to the Grand Challenge on Neural Network-based Video Coding at ISCAS 2023. We address specifically three issues, including (1) B-frame coding, (2) YUV 4:2:0 coding, and (3) content-adaptive variable-rate coding with only one single model. Most learned video codecs operate internally in the RGB domain for P-frame coding. B-frame coding for YUV 4:2:0 content is largely under-explored. In addition, while there have been prior works on variable-rate coding with conditional convolution, most of them fail to consider the content information. We build our scheme on conditional augmented normalized flows (CANF). It features conditional motion and inter-frame codecs for efficient B-frame coding. To cope with YUV 4:2:0 content, two conditional inter-frame codecs are used to process the Y and UV components separately, with the coding of the UV components conditioned additionally on the Y component. Moreover, we introduce adaptive feature modulation in every convolutional layer, taking into account both the content information and the coding levels of B-frames to achieve content-adaptive variable-rate coding. Experimental results show that our model outperforms x265 and the winner of last year's challenge on commonly used datasets in terms of PSNR-YUV. | 翻訳日:2023-01-02 15:45:51 公開日:2022-12-29 |
# クラスインクリメンタル学習のための動的拡張アーキテクチャにおけるタスク混乱の解消 Resolving Task Confusion in Dynamic Expansion Architectures for Class Incremental Learning ( http://arxiv.org/abs/2212.14284v1 ) ライセンス: Link先を確認 | Bingchen Huang, Zhineng Chen, Peng Zhou, Jiayin Chen, Zuxuan Wu | (参考訳) 動的拡張アーキテクチャは、主に破滅的な忘れを緩和する利点のために、クラスインクリメンタルラーニングで人気を集めている。
しかし、タスクの混乱は、例えば、異なるタスクのクラス間の不一致(すなわち、タスク間混乱、itc)が十分に学習されておらず、最新のクラスバッチ(すなわち、古い新しい混乱、onc)には、一定の優先度が与えられている。
2種類の混乱の副作用を実証的に検証した。
一方,タスク間の識別的かつ公平な機能利用を促進するために,タスク相関型インクリメンタル学習(tcil)と呼ばれる新しいソリューションが提案されている。
TCILは、古いタスクから学んだ知識を新しいタスクに伝達するために、多段階の知識蒸留を行う。
機能レベルとロジットレベルの両方で情報フローパスを確立し、学習者が古いクラスを認識できるようにする。
また、より公平な分類スコアを生成するために注意機構と分類器の再スコーリングを適用する。
我々は,CIFAR100とImageNet100データセットについて広範な実験を行った。
結果は,TILが常に最先端の精度を実現していることを示す。
ITCとONCの両方を緩和する一方で、リハーサル記憶が保たれることさえなく、破滅的な記憶との戦いの優位性を示している。 The dynamic expansion architecture is becoming popular in class incremental learning, mainly due to its advantages in alleviating catastrophic forgetting. However, task confusion is not well assessed within this framework, e.g., the discrepancy between classes of different tasks is not well learned (i.e., inter-task confusion, ITC), and certain priority is still given to the latest class batch (i.e., old-new confusion, ONC). We empirically validate the side effects of the two types of confusion. Meanwhile, a novel solution called Task Correlated Incremental Learning (TCIL) is proposed to encourage discriminative and fair feature utilization across tasks. TCIL performs a multi-level knowledge distillation to propagate knowledge learned from old tasks to the new one. It establishes information flow paths at both feature and logit levels, enabling the learning to be aware of old classes. Besides, attention mechanism and classifier re-scoring are applied to generate more fair classification scores. We conduct extensive experiments on CIFAR100 and ImageNet100 datasets. The results demonstrate that TCIL consistently achieves state-of-the-art accuracy. It mitigates both ITC and ONC, while showing advantages in battle with catastrophic forgetting even no rehearsal memory is reserved. | 翻訳日:2023-01-02 15:45:29 公開日:2022-12-29 |
# 後進カリキュラム強化学習 Backward Curriculum Reinforcement Learning ( http://arxiv.org/abs/2212.14214v1 ) ライセンス: Link先を確認 | KyungMin Ko, Sajad Khodadadian, Siva Theja Maguluri | (参考訳) 現在の強化学習アルゴリズムは、エージェントを訓練するために前方生成トラジェクタを使用する。
前方生成軌道はエージェントにほとんど誘導を与えないので、エージェントは可能な限り探索することができる。
強化学習は十分な探索から得られるが、これはサンプル効率を失うというトレードオフをもたらす。
サンプリング効率はアルゴリズムの性能を決定する重要な要素である。
過去のタスクでは、報酬形成技術を使用し、サンプル効率を高めるためにネットワークの構造を変更するが、実装には多くのステップが必要である。
本研究では,新しい逆カリキュラム強化学習を提案する。
逆のカリキュラム学習は、元の前方軌跡ではなく、エピソードの後方軌跡を用いてエージェントを訓練する。
これにより、エージェントは強い報酬信号を与え、エージェントはよりサンプル効率のよい方法で学習することができる。
さらに,本手法では,エージェントの訓練前に軌道の順序を逆転させるアルゴリズムを若干変更するだけでよい。
したがって、どの最先端アルゴリズムにも簡単に適用できる。 The current reinforcement learning algorithm uses forward-generated trajectories to train the agent. The forward-generated trajectories give the agent little guidance, so the agent can explore as much as possible. While the appreciation of reinforcement learning comes from enough exploration, this gives the trade-off of losing sample efficiency. The sampling efficiency is an important factor that decides the performance of the algorithm. Past tasks use reward shaping techniques and changing the structure of the network to increase sample efficiency, however these methods require many steps to implement. In this work, we propose novel reverse curriculum reinforcement learning. Reverse curriculum learning starts training the agent using the backward trajectory of the episode rather than the original forward trajectory. This gives the agent a strong reward signal, so the agent can learn in a more sample-efficient manner. Moreover, our method only requires a minor change in algorithm, which is reversing the order of trajectory before training the agent. Therefore, it can be simply applied to any state-of-art algorithms. | 翻訳日:2023-01-02 15:39:35 公開日:2022-12-29 |
# 分散連続制御における量子選択の不変性 Invariance to Quantile Selection in Distributional Continuous Control ( http://arxiv.org/abs/2212.14262v1 ) ライセンス: Link先を確認 | Felix Gr\"un, Muhammad Saif-ur-Rehman, Tobias Glasmachers, Ioannis Iossifidis | (参考訳) 近年,分散強化学習が多くの成果を生み出している。
離散的行動領域に対するサンプル効率的な分布アルゴリズムは、値分布の近似のパラメータ化やそれらの分布の違いの定量化など、時間とともに開発されてきた。
本研究では,これらのアルゴリズムのうち3つ(QR-DQN,IQN,FQF)を,分散評論家による2つの強力なアクタ批判アルゴリズム(TD3,SAC)を拡張して連続アクション領域に転送する。
離散的行動空間に対する手法の相対的性能が連続ケースに変換されるかどうかを検討する。
そのために、一連の連続制御タスクのpybullet実装を実証的に比較する。
本研究は, 決定論的連続的動作設定における分布原子の数と配置に関する質的不変性を示す。 In recent years distributional reinforcement learning has produced many state of the art results. Increasingly sample efficient Distributional algorithms for the discrete action domain have been developed over time that vary primarily in the way they parameterize their approximations of value distributions, and how they quantify the differences between those distributions. In this work we transfer three of the most well-known and successful of those algorithms (QR-DQN, IQN and FQF) to the continuous action domain by extending two powerful actor-critic algorithms (TD3 and SAC) with distributional critics. We investigate whether the relative performance of the methods for the discrete action space translates to the continuous case. To that end we compare them empirically on the pybullet implementations of a set of continuous control tasks. Our results indicate qualitative invariance regarding the number and placement of distributional atoms in the deterministic, continuous action setting. | 翻訳日:2023-01-02 15:39:21 公開日:2022-12-29 |
# ニューラルネットワークとして符号化された自己発明実験を通して1つの抽象ビットをリアルタイムで学習する Learning One Abstract Bit at a Time Through Self-Invented Experiments Encoded as Neural Networks ( http://arxiv.org/abs/2212.14374v1 ) ライセンス: Link先を確認 | Vincent Herrmann, Louis Kirsch, J\"urgen Schmidhuber | (参考訳) 科学には2つの重要な点がある: (A) 与えられた質問に対する回答を見つけること、(B) 良い質問に直面すること。
我々の人工科学者は与えられた質問に答えることを学ぶだけでなく、数学者に似た思考実験を含む潜在的に複雑で時間を要する実験を通じて仮説を検証または偽装することを提案し、新しい質問を継続的に発明する。
人工科学者はその知識を拡大する一方で、退屈になるまで驚くべき結果をもたらす最も単純で費用のかかる実験に偏っている。
本稿では,興味深い実験の自動生成に関する経験的分析を行う。
まず,強化環境下での自己発明実験について検討し,効果的に探索できることを示す。
第2の設定では、純粋思考実験は、神経実験生成器によって生成された繰り返しニューラルネットワークの重みとして実装される。
当初、興味深い思考実験は時間とともに退屈になるかもしれない。 There are two important things in science: (A) Finding answers to given questions, and (B) Coming up with good questions. Our artificial scientists not only learn to answer given questions, but also continually invent new questions, by proposing hypotheses to be verified or falsified through potentially complex and time-consuming experiments, including thought experiments akin to those of mathematicians. While an artificial scientist expands its knowledge, it remains biased towards the simplest, least costly experiments that still have surprising outcomes, until they become boring. We present an empirical analysis of the automatic generation of interesting experiments. In the first setting, we investigate self-invented experiments in a reinforcement-providing environment and show that they lead to effective exploration. In the second setting, pure thought experiments are implemented as the weights of recurrent neural networks generated by a neural experiment generator. Initially interesting thought experiments may become boring over time. | 翻訳日:2023-01-02 15:39:06 公開日:2022-12-29 |
# 二層決定木構築における特徴選択の有用性について On the utility of feature selection in building two-tier decision trees ( http://arxiv.org/abs/2212.14448v1 ) ライセンス: Link先を確認 | Sergey A. Saltykov | (参考訳) 現在、機能選択は、オーバーフィットによるパフォーマンス低下のリスクがある場合や計算資源が限られている場合、機械学習で頻繁に使われている。
機能選択プロセスでは、最も関連性が高く、最も冗長な機能のサブセットが選択されます。
近年、関連性や冗長性に加えて、特徴の相補性を考慮する必要があることが明らかになっている。
形式的には、特徴がターゲット変数の弱い予測子であり、組み合わせた場合の強い予測子であるなら、それらは相補的である。
本稿では,2層決定木の構築における相補的特徴の相互増幅による相乗効果を他の特徴に干渉させることによって性能が低下することを示す。
合成データセットと実際のデータセットの相互評価、回帰と分類を用いて、干渉機能を削除または削除することで、パフォーマンスを最大24倍向上できることを実証する。
また、ドメインが学習される量が少ないほど、パフォーマンスが向上することが判明している。
より正式には、干渉特徴の除去前のデータセットの性能と干渉特徴の除去後の性能成長との間に統計的に有意な負のランク相関があることが示されている。
これはデータと計算資源が十分である場合に特徴選択法の範囲を広げるものであると結論づける。 Nowadays, feature selection is frequently used in machine learning when there is a risk of performance degradation due to overfitting or when computational resources are limited. During the feature selection process, the subset of features that are most relevant and least redundant is chosen. In recent years, it has become clear that, in addition to relevance and redundancy, features' complementarity must be considered. Informally, if the features are weak predictors of the target variable separately and strong predictors when combined, then they are complementary. It is demonstrated in this paper that the synergistic effect of complementary features mutually amplifying each other in the construction of two-tier decision trees can be interfered with by another feature, resulting in a decrease in performance. It is demonstrated using cross-validation on both synthetic and real datasets, regression and classification, that removing or eliminating the interfering feature can improve performance by up to 24 times. It has also been discovered that the lesser the domain is learned, the greater the increase in performance. More formally, it is demonstrated that there is a statistically significant negative rank correlation between performance on the dataset prior to the elimination of the interfering feature and performance growth after the elimination of the interfering feature. It is concluded that this broadens the scope of feature selection methods for cases where data and computational resources are sufficient. | 翻訳日:2023-01-02 15:38:50 公開日:2022-12-29 |
# 変圧器による変圧強化学習について:開発軌跡 On Transforming Reinforcement Learning by Transformer: The Development Trajectory ( http://arxiv.org/abs/2212.14164v1 ) ライセンス: Link先を確認 | Shengchao Hu, Li Shen, Ya Zhang, Yixin Chen, Dacheng Tao | (参考訳) もともと自然言語処理のために考案されたtransformerは、コンピュータビジョンにおける大きな成功を証明している。
その超表現力のおかげで、研究者たちはトランスフォーマーを強化学習(RL)に展開する方法を研究しており、トランスフォーマーベースのモデルは代表的RLベンチマークでその可能性を示している。
本稿では, 変圧器(変圧器をベースとしたRL, TRL)によるRL変換の最近の進歩を考察し, その開発軌道と今後の動向について考察する。
既存の開発をアーキテクチャ強化と軌道最適化の2つのカテゴリに分類し,ロボット操作,テキストベースのゲーム,ナビゲーション,自動運転におけるtrlの主な応用について検討した。
アーキテクチャ強化のために、これらの手法は、モデルエージェントと環境が深いRL法よりもはるかに正確であるが、ブートストラップや"deadly triad"のような従来のRLアルゴリズム固有の欠陥によって制限されている従来のRLフレームワークの下で、強力なトランスフォーマー構造をRL問題に適用する方法を検討する。
トラジェクトリ最適化のために、これらの手法は、RL問題をシーケンスモデリングとして扱い、静的データセットからポリシーを抽出し、変換器のロングシーケンスモデリング能力をフル活用できる行動クローニングフレームワークの下で、全トラジェクトリ上でのジョイントステートアクションモデルを訓練する。
これらの進歩を踏まえ、TRLの拡張と課題を概観し、今後の方向性について提案する。
この調査がTRLの詳細な紹介を提供し、この急速に発展する分野における今後の研究の動機となることを願っている。 Transformer, originally devised for natural language processing, has also attested significant success in computer vision. Thanks to its super expressive power, researchers are investigating ways to deploy transformers to reinforcement learning (RL) and the transformer-based models have manifested their potential in representative RL benchmarks. In this paper, we collect and dissect recent advances on transforming RL by transformer (transformer-based RL or TRL), in order to explore its development trajectory and future trend. We group existing developments in two categories: architecture enhancement and trajectory optimization, and examine the main applications of TRL in robotic manipulation, text-based games, navigation and autonomous driving. For architecture enhancement, these methods consider how to apply the powerful transformer structure to RL problems under the traditional RL framework, which model agents and environments much more precisely than deep RL methods, but they are still limited by the inherent defects of traditional RL algorithms, such as bootstrapping and "deadly triad". For trajectory optimization, these methods treat RL problems as sequence modeling and train a joint state-action model over entire trajectories under the behavior cloning framework, which are able to extract policies from static datasets and fully use the long-sequence modeling capability of the transformer. Given these advancements, extensions and challenges in TRL are reviewed and proposals about future direction are discussed. We hope that this survey can provide a detailed introduction to TRL and motivate future research in this rapidly developing field. | 翻訳日:2023-01-02 15:27:48 公開日:2022-12-29 |
# MEAformer: メタモダリティハイブリッドのためのマルチモーダルエンティティアライメントトランス MEAformer: Multi-modal Entity Alignment Transformer for Meta Modality Hybrid ( http://arxiv.org/abs/2212.14454v1 ) ライセンス: Link先を確認 | Zhuo Chen, Jiaoyan Chen, Wen Zhang, Lingbing Guo, Yin Fang, Yufeng Huang, Yuxia Geng, Jeff Z. Pan, Wenting Song, Huajun Chen | (参考訳) エンティティアライメント(EA)の重要な変種として、マルチモーダルエンティティアライメント(MMEA)は、画像のような複数のモダリティを持つ異なる知識グラフ(KG)にまたがる同一のエンティティを発見することを目的としている。
しかしながら、現在のMMEAアルゴリズムはいずれもKGレベルのモダリティ融合戦略を採用しているが、個々の実体間のモダリティ差を無視し、モダリティに関連する潜在的なノイズ(例えば、未知の画像や関係)に対するロバスト性を損なう。
本稿では,メタモダリティハイブリッドのためのマルチモーダルエンティティアライメントトランスフォーマーであるmeaformerを提案し,インスタンスレベルの特徴融合におけるモダリティ間の相互相関係数を動的に予測する。
曖昧なエンティティの詳細に対処するために、モーダルアウェアなハードエンティティ再生戦略も提案されている。
実験結果から, 教師付き, 教師なし, 反復的, 低リソースを含む複数の訓練シナリオにおいて, モデルがSOTA性能を達成するだけでなく, パラメータ, 楽観的速度, 良好な解釈性を有することがわかった。
私たちのコードはもうすぐ利用可能になるでしょう。 As an important variant of entity alignment (EA), multi-modal entity alignment (MMEA) aims to discover identical entities across different knowledge graphs (KGs) with multiple modalities like images. However, current MMEA algorithms all adopt KG-level modality fusion strategies but ignore modality differences among individual entities, hurting the robustness to potential noise involved in modalities (e.g., unidentifiable images and relations). In this paper we present MEAformer, a multi-modal entity alignment transformer approach for meta modality hybrid, to dynamically predict the mutual correlation coefficients among modalities for instance-level feature fusion. A modal-aware hard entity replay strategy is also proposed for addressing vague entity details. Extensive experimental results show that our model not only achieves SOTA performance on multiple training scenarios including supervised, unsupervised, iterative, and low resource, but also has limited parameters, optimistic speed, and good interpretability. Our code will be available soon. | 翻訳日:2023-01-02 15:20:53 公開日:2022-12-29 |
# TAToo: 視力に基づく解剖の関節追跡とスカルベース手術用ツール TAToo: Vision-based Joint Tracking of Anatomy and Tool for Skull-base Surgery ( http://arxiv.org/abs/2212.14131v1 ) ライセンス: Link先を確認 | Zhaoshuo Li, Hongchao Shu, Ruixing Liang, Anna Goodridge, Manish Sahu, Francis X. Creighton, Russell H. Taylor, Mathias Unberath | (参考訳) 目的: 手術器具の3次元運動と患者解剖の追跡は, コンピュータ支援頭蓋底手術の基本的な要件である。
推定動作は術中指導と下流スキル分析の両方に使用できる。
このような動きを外科的ビデオからのみ回収することが望ましい。
方法: Anatomy and Tool (TAToo) のトラッカーを提示する。
TATooは、患者の頭蓋骨の硬い3D動作と、立体ビデオからの外科的ドリルを共同で追跡する。
TATooは、エンドツーエンドの微分可能な形式で反復最適化プロセスを通じて動きを推定する。
堅牢なトラッキング性能のために、TATooは確率的定式化を採用し、オブジェクトレベルでの幾何学的制約を強制する。
結果: 地上の真理運動が利用可能であるシミュレーションデータと, 光学的追跡が強力なベースラインを提供する擬人化ファントムデータの両方で, TATooを検証した。
頭蓋骨とドリルのサブミリ波とミリ波間トラッキング精度をそれぞれ1{\deg}以下で報告した。
さらに,手術ナビゲーションにおけるTATooの使用方法について述べる。
結語: 当科では, 頭蓋底手術における手術器具と患者解剖の同時追跡を行った。
TATooは、マーカーを必要とせずに、手術ビデオから直接動きを予測する。
以上の結果から,TATooの性能は競合するアプローチと良好に比較できることがわかった。
将来の研究には、頭蓋底の外科的応用に必要な1mmの臨床精度目標を達成するために、深度ネットワークの微調整が含まれる。 Purpose: Tracking the 3D motion of the surgical tool and the patient anatomy is a fundamental requirement for computer-assisted skull-base surgery. The estimated motion can be used both for intra-operative guidance and for downstream skill analysis. Recovering such motion solely from surgical videos is desirable, as it is compliant with current clinical workflows and instrumentation. Methods: We present Tracker of Anatomy and Tool (TAToo). TAToo jointly tracks the rigid 3D motion of patient skull and surgical drill from stereo microscopic videos. TAToo estimates motion via an iterative optimization process in an end-to-end differentiable form. For robust tracking performance, TAToo adopts a probabilistic formulation and enforces geometric constraints on the object level. Results: We validate TAToo on both simulation data, where ground truth motion is available, as well as on anthropomorphic phantom data, where optical tracking provides a strong baseline. We report sub-millimeter and millimeter inter-frame tracking accuracy for skull and drill, respectively, with rotation errors below 1{\deg}. We further illustrate how TAToo may be used in a surgical navigation setting. Conclusion: We present TAToo, which simultaneously tracks the surgical tool and the patient anatomy in skull-base surgery. TAToo directly predicts the motion from surgical videos, without the need of any markers. Our results show that the performance of TAToo compares favorably to competing approaches. Future work will include fine-tuning of our depth network to reach a 1 mm clinical accuracy goal desired for surgical applications in the skull base. | 翻訳日:2023-01-02 15:19:20 公開日:2022-12-29 |
# HIER:階層的正規化によるクラスラベルを越えたメトリクス学習 HIER: Metric Learning Beyond Class Labels via Hierarchical Regularization ( http://arxiv.org/abs/2212.14258v1 ) ライセンス: Link先を確認 | Sungyeon Kim, Boseung Jung, Suha Kwak | (参考訳) メトリック学習の監督は、長い間、人間ラベルのクラス間の等価性という形で行われてきた。
この種の監督は、何十年にもわたってメートル法学習の基礎であったが、この分野のさらなる進歩を妨げると我々は主張する。
本研究では,トレーニングデータの潜在意味階層を探索し,共通メトリック学習損失によって生じるクラス間分離性よりもリッチで細部的な監督を提供するための階層を展開する,hierと呼ばれる新しい正規化手法を提案する。
HIERはこの目的を意味階層のアノテーションではなく、双曲空間における階層的プロキシを学習することで達成した。
階層的プロキシは学習可能なパラメータであり、それぞれがデータまたは他のプロキシのグループの祖先として機能するように訓練され、それらのセマンティック階層を近似する。
HIERは双曲空間のデータとともにプロキシを扱うが、これは空間の幾何学的性質がその階層構造を表現するのに適しているからである。
HIER の有効性は4つの標準ベンチマークで評価され,従来の手法と統合した場合の性能を継続的に改善し,その結果,既存の双曲的メートル法学習手法をほぼすべての設定で上回った。 Supervision for metric learning has long been given in the form of equivalence between human-labeled classes. Although this type of supervision has been a basis of metric learning for decades, we argue that it hinders further advances of the field. In this regard, we propose a new regularization method, dubbed HIER, to discover the latent semantic hierarchy of training data, and to deploy the hierarchy to provide richer and more fine-grained supervision than inter-class separability induced by common metric learning losses. HIER achieved this goal with no annotation for the semantic hierarchy but by learning hierarchical proxies in hyperbolic spaces. The hierarchical proxies are learnable parameters, and each of them is trained to serve as an ancestor of a group of data or other proxies to approximate the semantic hierarchy among them. HIER deals with the proxies along with data in hyperbolic space since geometric properties of the space are well-suited to represent their hierarchical structure. The efficacy of HIER was evaluated on four standard benchmarks, where it consistently improved performance of conventional methods when integrated with them, and consequently achieved the best records, surpassing even the existing hyperbolic metric learning technique, in almost all settings. | 翻訳日:2023-01-02 15:18:55 公開日:2022-12-29 |
# GPTがバーのエグザムを取る GPT Takes the Bar Exam ( http://arxiv.org/abs/2212.14402v1 ) ライセンス: Link先を確認 | Michael Bommarito II, Daniel Martin Katz | (参考訳) アメリカ合衆国のほぼ全ての司法管轄区域は、法律実務の前提条件として「司法試験」と呼ばれる専門的な免許試験を要求している。
試験を受けるためにも、ほとんどの司法管轄区域は、認定法学校での3年間を含む最低7年間の第二次教育を受験者に要求する。
さらに、ほとんどの試験受験者は、試験固有の準備を数週間から数ヶ月かけて行う。
この時間と資本のかなりの投資にもかかわらず、5人に1人の受験者が最初の試験で試験に合格するために必要な率でまだ得点している。
このような知識の深みを必要とする複雑なタスクに直面して、"ai"の芸術の現状を期待するべきだろうか?
本研究では,openai の ‘text-davinci-003` モデル(しばしば gpt-3.5 と表記される)を試験の多状態多重選択 (multistate multiple choice, mbe) セクションで評価した。
トレーニングデータの規模でGPT-3.5のゼロショット性能を微調整するメリットはないが、ハイパーパラメータ最適化とエンジニアリングがGPT-3.5のゼロショット性能に肯定的な影響を与えていることが分かる。
最良のプロンプトとパラメータのために、GPT-3.5は、NCBE MBEの練習試験において、25%のベースライン推定率をはるかに上回り、EvidenceとTortsの両方のパスレートで、見出し正解率50.3%を達成する。
GPT-3.5の応答のランクは、その上位2つと上位3つの選択はそれぞれ71%と88%であり、非常に強い非エンターメント性能を示している。
これらの結果を解釈する能力は, LLMの科学的理解とGPTの独自性によって制限されているが, これらの結果は, LLMが近い将来, Bar ExamのMBE成分を通過させることを強く示唆している。 Nearly all jurisdictions in the United States require a professional license exam, commonly referred to as "the Bar Exam," as a precondition for law practice. To even sit for the exam, most jurisdictions require that an applicant completes at least seven years of post-secondary education, including three years at an accredited law school. In addition, most test-takers also undergo weeks to months of further, exam-specific preparation. Despite this significant investment of time and capital, approximately one in five test-takers still score under the rate required to pass the exam on their first try. In the face of a complex task that requires such depth of knowledge, what, then, should we expect of the state of the art in "AI?" In this research, we document our experimental evaluation of the performance of OpenAI's `text-davinci-003` model, often-referred to as GPT-3.5, on the multistate multiple choice (MBE) section of the exam. While we find no benefit in fine-tuning over GPT-3.5's zero-shot performance at the scale of our training data, we do find that hyperparameter optimization and prompt engineering positively impacted GPT-3.5's zero-shot performance. For best prompt and parameters, GPT-3.5 achieves a headline correct rate of 50.3% on a complete NCBE MBE practice exam, significantly in excess of the 25% baseline guessing rate, and performs at a passing rate for both Evidence and Torts. GPT-3.5's ranking of responses is also highly-correlated with correctness; its top two and top three choices are correct 71% and 88% of the time, respectively, indicating very strong non-entailment performance. While our ability to interpret these results is limited by nascent scientific understanding of LLMs and the proprietary nature of GPT, we believe that these results strongly suggest that an LLM will pass the MBE component of the Bar Exam in the near future. | 翻訳日:2023-01-02 15:13:14 公開日:2022-12-29 |
# 特徴空間におけるマルチモーダルデータ拡張の学習 Learning Multimodal Data Augmentation in Feature Space ( http://arxiv.org/abs/2212.14453v1 ) ライセンス: Link先を確認 | Zichang Liu, Zhiqiang Tang, Xingjian Shi, Aston Zhang, Mu Li, Anshumali Shrivastava, Andrew Gordon Wilson | (参考訳) テキスト、オーディオ、視覚データなどの複数のモードから共同で学習する能力は、インテリジェントシステムの決定的な特徴である。
マルチモーダルデータを活用するニューラルネットワークの設計には有望な進歩があるが、データ拡張の膨大な成功は、画像分類のような単一モーダルタスクに限られている。
実際、データの全体的な意味構造を保ちながら、各モダリティを増大させることは特に困難である。例えば、キャプションは、翻訳のような標準的な拡張が適用された後、画像の適切な記述にならないかもしれない。
さらに、特定のモダリティに適合しない合理的な変換を指定することは困難である。
本稿では,特徴空間におけるマルチモーダルデータの共用性を学習し,モダリティの同一性やモダリティ間の関係に制約を加えることなく,マルチモーダルデータを自動的に拡張する手法であるLearning Multimodal Data Augmentationを紹介する。
我々は,(1)マルチモーダルなディープラーニングアーキテクチャの性能を著しく向上させることができること,(2)これまで検討されていないモダリティの組み合わせに適用可能であること,(3)画像,テキスト,表データからなる幅広いアプリケーションに対して,最先端の成果が得られること,を示す。 The ability to jointly learn from multiple modalities, such as text, audio, and visual data, is a defining feature of intelligent systems. While there have been promising advances in designing neural networks to harness multimodal data, the enormous success of data augmentation currently remains limited to single-modality tasks like image classification. Indeed, it is particularly difficult to augment each modality while preserving the overall semantic structure of the data; for example, a caption may no longer be a good description of an image after standard augmentations have been applied, such as translation. Moreover, it is challenging to specify reasonable transformations that are not tailored to a particular modality. In this paper, we introduce LeMDA, Learning Multimodal Data Augmentation, an easy-to-use method that automatically learns to jointly augment multimodal data in feature space, with no constraints on the identities of the modalities or the relationship between modalities. We show that LeMDA can (1) profoundly improve the performance of multimodal deep learning architectures, (2) apply to combinations of modalities that have not been previously considered, and (3) achieve state-of-the-art results on a wide range of applications comprised of image, text, and tabular data. | 翻訳日:2023-01-02 15:11:51 公開日:2022-12-29 |
# 深層畳み込みニューラルネットワークを用いた産業シーン変化検出 Industrial Scene Change Detection using Deep Convolutional Neural Networks ( http://arxiv.org/abs/2212.14278v1 ) ライセンス: Link先を確認 | Ali Atghaei, Ehsan Rahnama, Kiavash Azimi, Hassan Shahbazi | (参考訳) 2つのシーンにおける概念的変化の発見と局所化は、特別なケアの分野で異なるタイミングで同じシーンに属する2つの画像における物体の存在や除去に関して非常に重要である。
これは主に、一部の環境において重要なオブジェクトの追加や削除が有害である可能性があるためである。
結果として、これらの違いを見つけるプログラムをマシンビジョンを使って設計する必要がある。
この問題の最も重要な課題は、照明条件の変化とシーン内の影の存在である。
したがって,提案手法はこれらの課題に耐性を持たなければならない。
本稿では,移動学習を用いた深層畳み込みニューラルネットワークに基づく手法を紹介し,インテリジェントなデータ合成プロセスを用いて学習する。
この手法の結果を検証し、この目的のために提供されたデータセットに提示する。
その結果, 提案手法は他の手法よりも効率的であり, 様々な実工業環境で使用できることがわかった。 Finding and localizing the conceptual changes in two scenes in terms of the presence or removal of objects in two images belonging to the same scene at different times in special care applications is of great significance. This is mainly due to the fact that addition or removal of important objects for some environments can be harmful. As a result, there is a need to design a program that locates these differences using machine vision. The most important challenge of this problem is the change in lighting conditions and the presence of shadows in the scene. Therefore, the proposed methods must be resistant to these challenges. In this article, a method based on deep convolutional neural networks using transfer learning is introduced, which is trained with an intelligent data synthesis process. The results of this method are tested and presented on the dataset provided for this purpose. It is shown that the presented method is more efficient than other methods and can be used in a variety of real industrial environments. | 翻訳日:2023-01-02 15:11:28 公開日:2022-12-29 |
# 動的潜在階層を用いたロングホリゾン映像予測 Long-horizon video prediction using a dynamic latent hierarchy ( http://arxiv.org/abs/2212.14376v1 ) ライセンス: Link先を確認 | Alexey Zakharov, Qinghai Guo, Zafeirios Fountas | (参考訳) 映像予測と生成の課題は、この領域の研究は短期的な予測に限られており、非常に難しいことが知られている。
ノイズと確率性に悩まされているが、ビデオは時空間的階層で整理される特徴からなり、異なる時間的ダイナミクスを持つ。
本稿では,動的潜時階層 (DLH) について述べる。これはビデオの階層構造を動的潜時階層として表現する階層的潜時階層モデルである。
それぞれの潜伏状態は2つの成分の混合分布であり、即時過去と予測される未来を表し、モデルが十分に異なる状態の間でのみ遷移を学習し、同時に時間的に永続的な状態をクラスタリングする。
このユニークな性質を用いて、DLHはデータセットの時空間構造を自然に発見し、その階層にわたって非交叉表現を学ぶ。
ビデオの時間的ダイナミクスをモデル化するタスクを単純化し、長期依存の学習を改善し、エラーの蓄積を減らすことを仮定する。
証拠として,ビデオ予測においてDLHが最先端のベンチマークを上回り,確率性を表現し,階層構造や時間構造を動的に調整できることを示す。
本稿では,表現学習の進歩が予測タスクの進歩にどのように変換されるかを示す。 The task of video prediction and generation is known to be notoriously difficult, with the research in this area largely limited to short-term predictions. Though plagued with noise and stochasticity, videos consist of features that are organised in a spatiotemporal hierarchy, different features possessing different temporal dynamics. In this paper, we introduce Dynamic Latent Hierarchy (DLH) -- a deep hierarchical latent model that represents videos as a hierarchy of latent states that evolve over separate and fluid timescales. Each latent state is a mixture distribution with two components, representing the immediate past and the predicted future, causing the model to learn transitions only between sufficiently dissimilar states, while clustering temporally persistent states closer together. Using this unique property, DLH naturally discovers the spatiotemporal structure of a dataset and learns disentangled representations across its hierarchy. We hypothesise that this simplifies the task of modeling temporal dynamics of a video, improves the learning of long-term dependencies, and reduces error accumulation. As evidence, we demonstrate that DLH outperforms state-of-the-art benchmarks in video prediction, is able to better represent stochasticity, as well as to dynamically adjust its hierarchical and temporal structure. Our paper shows, among other things, how progress in representation learning can translate into progress in prediction tasks. | 翻訳日:2023-01-02 15:11:16 公開日:2022-12-29 |
# AIモデルの説明可能性に関する理論的フレームワーク A Theoretical Framework for AI Models Explainability ( http://arxiv.org/abs/2212.14447v1 ) ライセンス: Link先を確認 | Matteo Rizzo, Alberto Veneri, Andrea Albarelli, Claudio Lucchese, Cristina Conati | (参考訳) 説明可能性は、人工知能コミュニティにおいて活発な研究テーマであり、メソッドやドメイン間で関心が高まっている。
この話題については多くが書かれてきたが、説明可能性には依然として共通用語や、説明に構造的健全性を提供するフレームワークが欠けている。
本研究では,文献に見ることができるものの合成である説明の新しい定義を提案することで,これらの課題に対処した。
我々は、説明が原子性ではなく、モデルとその入力出力、およびこの証拠の人間の解釈に由来する証拠の積であると認識する。
さらに、説明を忠実性(すなわち、モデルの意思決定の真の説明である説明)と可能性(つまり、説明がユーザに対してどの程度説得力があるか)の性質に適合させる。
提案する理論的枠組みを用いることで,これらの性質がいかに合理化されているかを単純化し,ケーススタディとして分析する共通説明法に対する新たな洞察を与える。 Explainability is a vibrant research topic in the artificial intelligence community, with growing interest across methods and domains. Much has been written about the topic, yet explainability still lacks shared terminology and a framework capable of providing structural soundness to explanations. In our work, we address these issues by proposing a novel definition of explanation that is a synthesis of what can be found in the literature. We recognize that explanations are not atomic but the product of evidence stemming from the model and its input-output and the human interpretation of this evidence. Furthermore, we fit explanations into the properties of faithfulness (i.e., the explanation being a true description of the model's decision-making) and plausibility (i.e., how much the explanation looks convincing to the user). Using our proposed theoretical framework simplifies how these properties are ope rationalized and provide new insight into common explanation methods that we analyze as case studies. | 翻訳日:2023-01-02 15:10:50 公開日:2022-12-29 |
# 自己参照型メタ学習によるメタ最適化の排除 Eliminating Meta Optimization Through Self-Referential Meta Learning ( http://arxiv.org/abs/2212.14392v1 ) ライセンス: Link先を確認 | Louis Kirsch, J\"urgen Schmidhuber | (参考訳) メタ学習は学習アルゴリズムの検索を自動化する。
同時に、メタ学習アルゴリズムを設計する必要があるメタレベルでのヒューマンエンジニアリングへの依存も生み出します。
本稿では,明示的なメタ最適化を必要としない自己参照メタ学習システムについて検討する。
このようなシステムとコンテキスト内およびメモリベースのメタ学習との関係を議論し、自己参照型ニューラルネットワークがパラメータ共有の形で再利用する必要があることを示す。
最後に、明示的なメタ最適化を避けるための簡単なアプローチであるフィットネスモノトニック実行(FME)を提案する。
ニューラルネットワークは、バンディットや古典的な制御タスクを解決するために自己修正を行い、自己修正を改善し、学習する方法を学習する。 Meta Learning automates the search for learning algorithms. At the same time, it creates a dependency on human engineering on the meta-level, where meta learning algorithms need to be designed. In this paper, we investigate self-referential meta learning systems that modify themselves without the need for explicit meta optimization. We discuss the relationship of such systems to in-context and memory-based meta learning and show that self-referential neural networks require functionality to be reused in the form of parameter sharing. Finally, we propose fitness monotonic execution (FME), a simple approach to avoid explicit meta optimization. A neural network self-modifies to solve bandit and classic control tasks, improves its self-modifications, and learns how to learn, purely by assigning more computational resources to better performing solutions. | 翻訳日:2023-01-02 15:01:36 公開日:2022-12-29 |