このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20221224となっている論文です。

PDF登録状況(公開日: 20221224)

TitleAuthorsAbstract論文公表日・翻訳日
# メタサーフェスレンズ光トウェザにおける単一原子トラップ

Single atom trapping in a metasurface lens optical tweezer ( http://arxiv.org/abs/2110.11559v2 )

ライセンス: Link先を確認
Ting-Wei Hsu, Wenqi Zhu, Tobias Thiele, Mark O. Brown, Scott B. Papp, Amit Agrawal, Cindy A. Regal(参考訳) サブ波長の柱の光学的準曲面は、光の振幅、位相、偏光の多角的定義に新しい機能を提供する。 本研究では, 3mmのレンズから長い作業距離を持つ単一中性原子を捕捉し, 撮像するために, 効率的な誘電体メタサーフェスレンズを用いることを示した。 捕捉原子を用いて高収率光ツイーザーを特徴付け,メタサーフェスレンズ性能の数値計算と比較した。 将来, 原子トラップのための準曲面は, 準曲面設計における複数の発展を生かし, 中立原子配列を用いた複雑な量子情報実験における多機能制御を可能にすると予測した。

Optical metasurfaces of subwavelength pillars have provided new capabilities for the versatile definition of the amplitude, phase, and polarization of light. In this work, we demonstrate that an efficient dielectric metasurface lens can be used to trap and image single neutral atoms with a long working distance from the lens of 3 mm. We characterize the high-numerical-aperture optical tweezers using the trapped atoms and compare with numerical computations of the metasurface lens performance. We predict that future metasurfaces for atom trapping will be able to leverage multiple ongoing developments in metasurface design and enable multifunctional control in complex quantum information experiments with neutral-atoms arrays.
翻訳日:2023-03-10 19:37:38 公開日:2022-12-24
# 絡み合い濃度による不完全重み付きグラフ状態からの完全GHZ状態の抽出

Extracting perfect GHZ states from imperfect weighted graph states via entanglement concentration ( http://arxiv.org/abs/2203.07210v2 )

ライセンス: Link先を確認
Rafail Frantzeskakis, Chenxu Liu, Zahra Raissi, Edwin Barnes, and Sophia E. Economou(参考訳) フォトニックghz状態は、秘密共有、センシング、核融合ベースの量子コンピューティングなど、量子情報科学における多くの重要な応用の中心となる。 光子エミッタエンタングゲートの使用は、線形光学に基づく本質的な確率的手法に関連する多くの困難を横取りするこれらの状態を作成するための有望なアプローチである。 しかし、多くの光子の高忠実度GHZ状態の効率的な生成は、生成過程におけるコヒーレントな誤りと非コヒーレントな誤りの両方により、依然として顕著な課題である。 本稿では,局所ゲートのみを用いた完全GHZ状態の生成と不完全重み付きグラフ状態の測定が可能な絡み合い集中プロトコルを提案する。 我々は,このプロトコルが不整合ノイズエラーに対して効率的かつ堅牢であることを示す。

Photonic GHZ states serve as the central resource for a number of important applications in quantum information science, including secret sharing, sensing, and fusion-based quantum computing. The use of photon-emitter entangling gates is a promising approach to creating these states that sidesteps many of the difficulties associated with intrinsically probabilistic methods based on linear optics. However, the efficient creation of high-fidelity GHZ states of many photons remains an outstanding challenge due to both coherent and incoherent errors during the generation process. Here, we propose an entanglement concentration protocol that is capable of generating perfect GHZ states using only local gates and measurements on imperfect weighted graph states. We show that our protocol is both efficient and robust to incoherent noise errors.
翻訳日:2023-02-22 03:27:53 公開日:2022-12-24
# 磁気サブレベル集団からの量子絡み合いの探究:スピンスクイージング不等式を超えて

Probing quantum entanglement from magnetic-sublevels populations: beyond spin squeezing inequalities ( http://arxiv.org/abs/2203.13547v2 )

ライセンス: Link先を確認
Guillem M\"uller-Rigat, Maciej Lewenstein and Ir\'en\'ee Fr\'erot(参考訳) スピンスクイージング不等式(スピンスクイージング不等式、英: spin queezing inequalities、SSI)は、少数の原子の集合間の量子絡み合いを探索する主要なツールであり、スピンの集合的測定とそのゆらぎに基づく。 しかし、スピン=j$原子と超低温のスピノルガスの原子アンサンブルの場合、多くの実験はゼーマンの全ての準位 $s=-j, -j+1, \dots, j$ の集団を画像化することができ、SSIが捉えていない量子エンタングルメントのより微細な特徴を明らかにする可能性がある。 本稿では,新しい絡み合い基準を構築するためにゼーマン準準位分布測定を活用し,スピン-1およびスピン-2ボース・アインシュタイン凝縮の基底状態に対する我々のアプローチを説明する。 これらの具体的な例の他に、我々の手法は体系的な方法で、$d$レベルの量子系のアンサンブルにおける任意の集合の集合に対する最適な置換不変な絡み合いを推測することができる。

Spin squeezing inequalities (SSI) represent a major tool to probe quantum entanglement among a collection of few-level atoms, and are based on collective spin measurements and their fluctuations. Yet, for atomic ensembles of spin-$j$ atoms and ultracold spinor gases, many experiments can image the populations in all Zeeman sublevels $s=-j, -j+1, \dots, j$, potentially revealing finer features of quantum entanglement not captured by SSI. Here we present a systematic approach which exploits Zeeman-sublevel population measurements in order to construct novel entanglement criteria, and illustrate our approach on ground states of spin-1 and spin-2 Bose-Einstein condensates. Beyond these specific examples, our approach allows one to infer, in a systematic manner, the optimal permutationally-invariant entanglement witness for any given set of collective measurements in an ensemble of $d$-level quantum systems.
翻訳日:2023-02-20 20:55:43 公開日:2022-12-24
# aiによるinstagramプロフィールの探索は、採用決定の力になるソフトスキルとパーソナリティ特性を予測する

AI-enabled exploration of Instagram profiles predicts soft skills and personality traits to empower hiring decisions ( http://arxiv.org/abs/2212.07069v2 )

ライセンス: Link先を確認
Mercedeh Harirchian, Fereshteh Amin, Saeed Rouhani, Aref Aligholipour, Vahid Amiri Lord(参考訳) テクノロジー・ジャイアンツやウォール街の会社、あるいは小さなスタートアップとの求人インタビューであるかどうかはどうでもいい。 一方、採用担当者は候補者の正体を知り、専門家候補がどの企業にも適していることを示すソフトスキルを検出したい。 世界中のリクルーターは通常、これらのスキルの最高レベルを持つ従業員を見つけるのに苦労します。 デジタルフットプリントは、候補者のユニークなオンライン活動を提供することによって、このプロセスにおけるリクルーターを支援することができる。 本研究では,16種類のオンデマンドソフトスキルからなる幅広い行動能力が,次のリストや機械学習アルゴリズムを用いた定量的特徴に基づいて,Instagramのプロフィールから自動的に予測できることを初めて示した。 我々はまた、ビッグファイブの性格特性の予測も提供する。 モデルは、オンラインアンケートに回答し、公開プロフィールをクロールできるInstagramユーザー名を提供した400人のイランのボランティアユーザーのサンプルに基づいて構築された。 複数の機械学習アルゴリズムを統一データに適用した。 ディープラーニングモデルは、それぞれ2レベルと3レベルの分類で70%と69%の平均精度を示すことで、ほとんどを上回っている。 ソーシャルメディアのユーザ生成データにAIを適用することで、高いレベルのソフトスキルを持ち、より正確な求職者の評価を行うことが可能である。

It does not matter whether it is a job interview with Tech Giants, Wall Street firms, or a small startup; all candidates want to demonstrate their best selves or even present themselves better than they really are. Meanwhile, recruiters want to know the candidates' authentic selves and detect soft skills that prove an expert candidate would be a great fit in any company. Recruiters worldwide usually struggle to find employees with the highest level of these skills. Digital footprints can assist recruiters in this process by providing candidates' unique set of online activities, while social media delivers one of the largest digital footprints to track people. In this study, for the first time, we show that a wide range of behavioral competencies consisting of 16 in-demand soft skills can be automatically predicted from Instagram profiles based on the following lists and other quantitative features using machine learning algorithms. We also provide predictions on Big Five personality traits. Models were built based on a sample of 400 Iranian volunteer users who answered an online questionnaire and provided their Instagram usernames which allowed us to crawl the public profiles. We applied several machine learning algorithms to the uniformed data. Deep learning models mostly outperformed by demonstrating 70% and 69% average Accuracy in two-level and three-level classifications respectively. Creating a large pool of people with the highest level of soft skills, and making more accurate evaluations of job candidates is possible with the application of AI on social media user-generated data.
翻訳日:2023-02-19 13:01:02 公開日:2022-12-24
# 表面プラズモン分極によるワイル半金属中の長寿命量子ビットの絡み合い

Long-lived qubit entanglement by surface plasmon polaritons in a Weyl semimetal ( http://arxiv.org/abs/2206.00534v2 )

ライセンス: Link先を確認
M Shoufie Ukhtary, Eddwi H. Hasdeo, Andriyan B. Suksmono, Ahmad R. T. Nugraha(参考訳) ワイル半金属中の非相反性表面プラズモンポラリトン(spps)を媒介とする2量子ビットの自発的絡み合いについて検討した。 外部磁場が存在しない場合、ワイル半金属のトポロジーは、位相的に保護されフォトニックギャップ内に存在する非相反性sppを生じさせる。 我々はこの非相互SPPを2つの空間分離量子ビットの絡み合いのメディエータとして利用する。 この2つの主な発見は,(1)非相互SPPは相互SPPよりも量子絡み合いが良く,(2)得られた絡み合いは従来の金属のSPPを用いた絡み合いに比べて十分に長寿命である。

We investigate spontaneous entanglement of two qubits mediated by nonreciprocal surface plasmon polaritons (SPPs) in a Weyl semimetal. In the absence of external magnetic fields, the topology of the Weyl semimetal even gives rise to nonreciprocal SPPs that are topologically protected and reside inside the photonic gap. We utilize this nonreciprocal SPP as a mediator of entanglement of two spatially-separated qubits. Our two main findings are: (1) the nonreciprocal SPP gives better quantum entanglement than the reciprocal one, and (2) the achieved entanglement is sufficiently long-lived compared to the entanglement using SPPs in conventional metals.
翻訳日:2023-02-11 01:13:10 公開日:2022-12-24
# モーメントゲージ場と非可換時空

Momentum Gauge Fields and Non-Commutative Space-Time ( http://arxiv.org/abs/2206.02638v2 )

ライセンス: Link先を確認
E. Guendelman and D. Singleton(参考訳) 本研究では、運動量作用素の位置空間表現({\hat p}_i = -i \hbar \frac{\partial}{\partial x_i}$)ではなく、位置演算子({\hat x}_i = i \hbar \frac{\partial}{\partial p_i}$)の運動量空間表現から始まるゲージ原理を示す。 この新しいゲージ理論のいくつかの簡単な例について論じる。 i) この運動量ゲージ理論における通常のゲージ理論からのアナログ解 (II)運動量ゲージ場を用いたランドーレベル (iii)運動量ゲージ場からの非可換時空の発生 非可換時空パラメータは運動量依存性があり、低運動量では可換であるが高運動量では非可換となるようなモデルを構築することができる。

In this work we present a gauge principle that starts with the momentum space representation of the position operator (${\hat x}_i = i \hbar \frac{\partial}{\partial p_i}$) rather than starting with the position space representation of the momentum operator (${\hat p}_i = -i \hbar \frac{\partial}{\partial x_i}$). We discuss some simple examples with this new type of gauge theory: (i) analog solutions from ordinary gauge theory in this momentum gauge theory, (ii) Landau levels using momentum gauge fields, (iii) the emergence of non-commutative space-times from the momentum gauge fields. We find that the non-commutative space-time parameter can be momentum dependent, and one can construct a model where space-time is commutative at low momentum but becomes non-commutative at high momentum.
翻訳日:2023-02-10 09:32:05 公開日:2022-12-24
# 2量子量子熱機械への代数的アプローチ

Algebraic approach to a two-qubit quantum thermal machine ( http://arxiv.org/abs/2208.04917v3 )

ライセンス: Link先を確認
A. C. Duriez, D. Mart\'inez-Tibaduiza, A. Z. Khoury(参考訳) 時間依存ハミルトニアンを解く代数的手法は、量子熱機械の性能を調べるために用いられる。 2つのqビットを結合したエンジンの熱力学特性を調べ,オットーサイクルを行う。 熱相互作用は異なる温度で2つの浴槽で起こるが、仕事は強度と方向が変化する任意の時間依存磁場との相互作用と関連している。 結合に関して、1-次元等方的ハイゼンベルクモデルを考えると、三重部分空間内の$\mathfrak{su}(2)$リー代数の既約表現によってシステムを記述することができる。 サイクルの温度と周波数の異なる設定を検査し、対応するエンジンの運転状況について検討する。 最後に,ラビ周波数の時間変化によりエンジン効率を数値的に検討し,断熱限界と断熱限界を補間する。

Algebraic methods for solving time dependent Hamiltonians are used to investigate the performance of quantum thermal machines. We investigate the thermodynamic properties of an engine formed by two coupled q-bits, performing an Otto cycle. The thermal interaction occurs with two baths at different temperatures, while work is associated with the interaction with an arbitrary time-dependent magnetic field that varies in intensity and direction. For the coupling, we consider the 1-d isotropic Heisenberg model, which allows us to describe the system by means of the irreducible representation of the $\mathfrak{su}(2)$ Lie algebra within the triplet subspace. We inspect different settings of the temperatures and frequencies of the cycle and investigate the corresponding operation regimes of the engine. Finally, we numerically investigate the engine efficiency under a time varying Rabi frequency, interpolating the abrupt and adiabatic limits.
翻訳日:2023-02-01 19:02:56 公開日:2022-12-24
# 設計時間が異なる深部熱分解の可解モデル

Solvable model of deep thermalization with distinct design times ( http://arxiv.org/abs/2208.10542v2 )

ライセンス: Link先を確認
Matteo Ippoliti and Wen Wei Ho(参考訳) 有限サブシステム上で支持される普遍的一様量子状態の時間的分布の出現について,システムの残りを投影的に測定することによって考察する。 深い熱化と呼ばれるこの現象は、通常の熱化よりも強い量子多体系の平衡の形式であり、観測可能な平均値を制限するだけである。 この現象が正確に現れることができる1次元の力学の量子回路モデルが存在するが、これらは常温化と正確に同じタイミングで深い熱分解が起こる特別な例である。 ここでは, 2 つの過程が異なる時間スケールで発生することを示せるカオス力学の完全可解モデルを提案する。 このモデルは、無限ランダム行列バスに小さな制限を通して結合された有限部分系で構成され、そのような普遍波動関数分布の形成を制約する局所性と不完全な熱化の役割を強調している。 正確な数値シミュレーションに対して解析的な予測をテストし、良好な一致を見出した。

We study the emergence over time of a universal, uniform distribution of quantum states supported on a finite subsystem, induced by projectively measuring the rest of the system. Dubbed deep thermalization, this phenomenon represents a form of equilibration in quantum many-body systems stronger than regular thermalization, which only constrains the ensemble-averaged values of observables. While there exist quantum circuit models of dynamics in one dimension where this phenomenon can be shown to arise exactly, these are special in that deep thermalization occurs at precisely the same time as regular thermalization. Here, we present an exactly-solvable model of chaotic dynamics where the two processes can be shown to occur over different time scales. The model is composed of a finite subsystem coupled to an infinite random-matrix bath through a small constriction, and highlights the role of locality and imperfect thermalization in constraining the formation of such universal wavefunction distributions. We test our analytical predictions against exact numerical simulations, finding excellent agreement.
翻訳日:2023-01-30 04:41:40 公開日:2022-12-24
# 擬エルミート行列の退化と対称性の破れ

Degeneracies and symmetry breaking in pseudo-Hermitian matrices ( http://arxiv.org/abs/2209.06887v2 )

ライセンス: Link先を確認
Abhijeet Melkani(参考訳) 実行列や$\mathcal{pt-}$symmetric行列のような擬エルミート行列の実固有値は、しばしば複素共役対に分割される。 これは固有ベクトルのある種の対称性の破れや、典型的にはシステムの挙動の劇的な変化を伴う。 本研究では、擬エルミート行列の固有空間を分類し、その対称性の破れが実軸上で相反する種類のモードが衝突した場合に起こることを示す。 特に,関係する退化が必ずしも例外的な点であるとは限らないことを明らかにする。 これにより、全ての固有値が実数であるパラメータ空間における非連結領域の分類が可能となり、これは系の安定相に対応する。 我々はまた,我々の研究が保存量や外的対称性に起因する縮退とどのように関係しているかについても論じた。 我々は、フォトニクス、凝縮物質物理学、メカニクスの例を挙げる。

Real eigenvalues of pseudo-Hermitian matrices, such as real matrices and $\mathcal{PT-}$symmetric matrices, frequently split into complex conjugate pairs. This is accompanied by the breaking of certain symmetries of the eigenvectors and, typically, also a drastic change in the behaviour of the system. In this work, we classify the eigenspace of pseudo-Hermitian matrices and show that such symmetry breaking occurs if and only if modes of opposite kinds collide on the real axis. In particular we clarify that the degeneracy involved is not always an exceptional point. This enables a classification of the disconnected regions in parameter space where all eigenvalues are real -- which correspond, physically, to the stable phases of the system. We also discuss how our work relates to conserved quantities and to degeneracies caused by external symmetries. We illustrate our results with examples from photonics, condensed matter physics, and mechanics.
翻訳日:2023-01-26 16:40:48 公開日:2022-12-24
# 半導体レーザーにおける位相ランダム性:量子乱数生成の課題

Phase Randomness in a Semiconductor Laser: the Issue of Quantum Random Number Generation ( http://arxiv.org/abs/2209.09734v3 )

ライセンス: Link先を確認
Roman Shakhovoy, Marius Puplauskis, Violetta Sharoglazova, Alexander Duplinskiy, Denis Sych, Elizaveta Maksimova, Selbi Hydyrova, Alexander Tumachek, Yury Mironov, Vadim Kovalyuk, Alexey Prokhodtsov, Grigory Goltsman, and Yury Kurochkin(参考訳) 利得スイッチレーザーは、多くの量子応用、特に量子鍵分布系や様々な光学量子乱数発生器において要求されている。 この人気は利得スイッチングレーザーパルス間の自然な位相ランダム化である。 このようなランダム化のアイデアは、ほとんどの著者が使用しているレーザー動作モードの特徴によらず、よく知られている。 しかし、レーザーパルスの繰り返し率が高い場合や、しきい値に近いバイアス電流でパルスが発生する場合、位相ランダム化条件に違反する可能性がある。 本稿では,利得切替レーザにおける位相ランダム化の程度を理論的および実験的に推定する手法について述べる。 レーザーパルス干渉の異なる状況について詳細に検討し,レーザーの位相拡散が十分に効率的であることから,干渉信号は干渉計内の古典的位相ドリフトの存在下においても量子状態のままであることを示した。 さらに, 前回導入した量子還元係数と左上ハッシュ補題の関係を定式化する。 この関係を用いて,位相相関の存在下での干渉信号に対する量子ノイズ寄与を推定する手法を開発した。 最後に,レーザーパルス干渉の確率特性に関するより詳細な情報を提供するため,統計的干渉縞の解析に基づく簡易な実験手法を提案する。

Gain-switched lasers are in demand in numerous quantum applications, particularly, in systems of quantum key distribution and in various optical quantum random number generators. The reason for this popularity is natural phase randomization between gain-switched laser pulses. The idea of such randomization has become so familiar that most authors use it without regard to the features of the laser operation mode they use. However, at high repetition rates of laser pulses or when pulses are generated at a bias current close to the threshold, the phase randomization condition may be violated. This paper describes theoretical and experimental methods for estimating the degree of phase randomization in a gain-switched laser. We consider in detail different situations of laser pulse interference and show that the interference signal remains quantum in nature even in the presence of classical phase drift in the interferometer provided that the phase diffusion in a laser is efficient enough. Moreover, we formulate the relationship between the previously introduced quantum reduction factor and the leftover hash lemma. Using this relationship, we develop a method to estimate the quantum noise contribution to the interference signal in the presence of phase correlations. Finally, we introduce a simple experimental method based on the analysis of statistical interference fringes, providing more detailed information about the probabilistic properties of laser pulse interference.
翻訳日:2023-01-25 23:30:02 公開日:2022-12-24
# ディラックフェルミオンの固有量子干渉と絡み合いの解明

Revealing inherent quantum interference and entanglement of a Dirac Fermion ( http://arxiv.org/abs/2211.12779v2 )

ライセンス: Link先を確認
W. Ning, R.-H. Zheng, Y. Xia, Kai Xu, Hekang Li, Dongning Zheng, Heng Fan, F. Wu, Z.-B. Yang, and S. Zheng(参考訳) ディラック方程式は宇宙を理解する上で重要であり、技術の進歩において重要な役割を果たす。 定常解と比較して、ディラック・ハミルトニアンの下での力学進化は、ジッテルベウングング(Zitterbewegung)によって実証され、理解されていない。 もともと相対論的量子力学で予測されていたが、ジッターベヴェーグングはいくつかの古典系にも現れ、ディラックフェルミオンのジッターベヴェーグングが古典的アナログを伴わずにより基本的で普遍的な干渉行動によって引き起こされるかどうかという重要な問題に繋がる。 位相空間におけるそのような干渉パターンはzitterbewegungの下にあるが、その非古典性は位相空間準確率分布のネガティビティとそれに伴う擬スピン・モーメントの絡み合いによって現れる。 この発見をシミュレーションとオンチップ実験により確認し、超伝導量子ビットと量子化されたマイクロ波場がそれぞれディラック粒子の内部自由度と外部自由度をエミュレートする。 測定した準確率ネガティビティは数値シミュレーションとよく一致する。 基本的な重要性に加えて、実証された非古典的効果は量子技術において有用である。

The Dirac equation is critical to understanding the universe, and plays an important role in technological advancements. Compared to the stationary solution, the dynamical evolution under the Dirac Hamiltonian is less understood, exemplified by Zitterbewegung. Although originally predicted in relativistic quantum mechanics, Zitterbewegung can also appear in some classical systems, which leads to the important question of whether Zitterbewegung of Dirac Fermions is underlain by a more fundamental and universal interference behavior without classical analogs. We here reveal such an interference pattern in phase space, which underlies but goes beyond Zitterbewegung, and whose nonclassicality is manifested by the negativity of the phase-space quasiprobability distribution, and the associated pseudospin-momentum entanglement. We confirm this discovery by numerical simulation and an on-chip experiment, where a superconducting qubit and a quantized microwave field respectively emulate the internal and external degrees of freedom of a Dirac particle. The measured quasiprobability negativities well agree with the numerical simulation. Besides being of fundamental importance, the demonstrated nonclassical effects are useful in quantum technology.
翻訳日:2023-01-19 01:40:52 公開日:2022-12-24
# 共鳴励起量子ドットからの絡み合った光子対に対する光スターク効果の署名

Signatures of the Optical Stark Effect on Entangled Photon Pairs from Resonantly-Pumped Quantum Dots ( http://arxiv.org/abs/2212.07087v2 )

ライセンス: Link先を確認
Francesco Basso Basset, Michele B. Rota, Mattia Beccaceci, Tobias M. Krieger, Quirin Buchinger, Julia Neuwirth, H\^elio Huet, Sandra Stroj, Saimon F. Covre da Silva, Christian Schimpf, Sven H\"ofling, Tobias Huber-Loyola, Armando Rastelli, Rinaldo Trotta(参考訳) 量子ドットにおけるバイエクシトン-エクシトンカスケードの2光子共鳴励起は、ほぼ決定論的方法で高偏光-絡み合った光子対を生成する。 しかし、到達可能な絡み合いの最終的なレベルについては、まだオープンな疑問がある。 ここでは、レーザー誘起AC-Stark効果がスペクトル放出特性および絡み合いに与える影響を観察する。 発光時間が短く、レーザーパルス持続時間が長く、ポンプ出力も高くなり、コンカレンスの値が低くなる。 それでも、観測された以下の一致を十分に考慮するために追加の貢献が必要である。

Two-photon resonant excitation of the biexciton-exciton cascade in a quantum dot generates highly polarization-entangled photon pairs in a near-deterministic way. However, there are still open questions on the ultimate level of achievable entanglement. Here, we observe the impact of the laser-induced AC-Stark effect on the spectral emission features and on entanglement. A shorter emission time, longer laser pulse duration, and higher pump power all result in lower values of concurrence. Nonetheless, additional contributions are still required to fully account for the observed below-unity concurrence.
翻訳日:2023-01-09 15:15:29 公開日:2022-12-24
# 絡み合いの部分ノルム:一夫一婦制でない絡み合いモノトン

Partial-Norm of Entanglement: Entanglement Monotones That are not Monogamous ( http://arxiv.org/abs/2212.06521v5 )

ライセンス: Link先を確認
Yu Guo(参考訳) 量子エンタングルメントは単ガマスであることが知られており、多部系間でのエンタングルメントの分散に関する強い制約に従う。 これまでのすべての絡み合いモノトンはモノガモンであることが示されている。 ここでは、減少する関数が凹凸であるような絡み合いモノトンの族を探索し、厳密に凹凸ではないことを示す。 これらは、縮小状態の `partial-norm' の 4 つの種類で定義され、それらを \textit{partial-norm of entanglement} 、 最小部分ノルム、強化最小部分ノルム of tanglement 、および \textit{partial negativity} と呼ぶ。 このことは、エンタングルメント単調の以前の公理的定義は、そのような厳密な凹凸が対応する凸-ローフ拡張エンタングルメント単調であることを保証するため、還元関数が厳密に凹むべきであるという補足的合意を必要とすることを示している。 ここでは、絡み合いモノトンの還元関数は、二分位純状態の還元状態における対応する関数を指す。

Quantum entanglement is known to be monogamous, i.e., it obeys strong constraints on how the entanglement can be distributed among multipartite systems. Almost all the entanglement monotones so far are shown to be monogamous. We explore here a family of entanglement monotones with the reduced functions are concave but not strictly concave and show that they are not monogamous. They are defined by four kinds of the ``partial-norm'' of the reduced state, which we call them \textit{partial-norm of entanglement}, minimal partial-norm of entanglement, reinforced minimal partial-norm of entanglement, and \textit{partial negativity}, respectively. This indicates that, the previous axiomatic definition of the entanglement monotone needs supplemental agreement that the reduced function should be strictly concave since such a strict concavity can make sure that the corresponding convex-roof extended entanglement monotone is monogamous. Here, the reduced function of an entanglement monotone refers to the corresponding function on the reduced state for the measure on bipartite pure states.
翻訳日:2023-01-09 14:13:51 公開日:2022-12-24
# 量子チャネルのユニタリ性推定

Unitarity estimation for quantum channels ( http://arxiv.org/abs/2212.09319v2 )

ライセンス: Link先を確認
Kean Chen, Qisheng Wang, Peixun Long, Mingsheng Ying(参考訳) ユニタリシティ(unitarity)とは、量子チャネルがユニタリであるかどうかの情報を与える尺度である。 未知の量子チャネル$\mathcal{E}$のユニタリ性を学ぶことは、量子デバイス認証とベンチマークにおける基本的な重要なタスクである。 一般に、このタスクはコヒーレントまたは非コヒーレントアクセスで実行することができる。 コヒーレントアクセスには、学習アルゴリズムに制限はない; 不整合アクセスでは、入力状態を作成して$\mathcal{E}$を適用した後、その出力を測定して、コヒーレント量子情報が存続したり、$\mathcal{E}$で再び実行されることはない。 一貫性のないアクセスしか持たない量子アルゴリズムは、永続的な量子メモリを使用せずに実用的な実装を可能にする。 本稿では,両設定のユニタリティ推定について検討する。 コヒーレントアクセスには、$O(\epsilon^{-2})$call to $\mathcal{E}$ where $\epsilon$ is the required precision; このアルゴリズムがクエリ最適であることを示し、一致した下位境界の$\Omega(\epsilon^{-2})$を与える。 非コヒーレントアクセスでは、$O(\sqrt{d}\cdot \epsilon^{-2})$call to $\mathcal{E}$, where $d$ is the dimension of the system that $\mathcal{E}$ act on; このアルゴリズムは、適応戦略やアンシラシステムが許容されたとしても、$\Omega(\sqrt{d}+\epsilon^{-2})$ lower boundを付与して、大幅に改善できないことを示す。 この結果の一部として、Aharonov, Cotler, Qi (Nat. Commun. 2022) と Chen, Cotler, Huang, Li (FOCS 2021) により、非正則なアクセスを持つ分極チャネルとユニタリチャネルを区別し、事前の最大下界 $\Omega(\sqrt[3]{d})$ を改善するための、一致する下界 $\Omega(\sqrt{d})$ を得る。

The unitarity is a measure giving information on how much a quantum channel is unitary. Learning the unitarity of an unknown quantum channel $\mathcal{E}$ is a basic and important task in quantum device certification and benchmarking. Generally, this task can be performed with either coherent or incoherent access. For coherent access, there are no restrictions on learning algorithms; while for incoherent access, at each time, after preparing the input state and applying $\mathcal{E}$, the output is measured such that no coherent quantum information can survive or be acted upon by $\mathcal{E}$ again. Quantum algorithms with only incoherent access allow practical implementations without the use of persistent quantum memory, and thus is more suitable for near-term devices. In this paper, we study unitarity estimation in both settings. For coherent access, we provide an ancilla-efficient algorithm that uses $O(\epsilon^{-2})$ calls to $\mathcal{E}$ where $\epsilon$ is the required precision; we show that this algorithm is query-optimal, giving a matching lower bound $\Omega(\epsilon^{-2})$. For incoherent access, we provide a non-adaptive, non-ancilla-assisted algorithm that uses $O(\sqrt{d}\cdot \epsilon^{-2})$ calls to $\mathcal{E}$, where $d$ is the dimension of the system that $\mathcal{E}$ acts on; we show that this algorithm cannot be substantially improved, giving an $\Omega(\sqrt{d}+\epsilon^{-2})$ lower bound, even if adaptive strategies and ancilla systems are allowed. As part of our results, we obtain a matching lower bound $\Omega(\sqrt{d})$ for distinguishing between depolarizing and unitary channels with incoherent access, improving the prior best lower bound $\Omega(\sqrt[3]{d})$ by Aharonov, Cotler, and Qi (Nat. Commun. 2022) and Chen, Cotler, Huang, and Li (FOCS 2021).
翻訳日:2023-01-09 07:54:07 公開日:2022-12-24
# 電子構造計算のための単一参照結合クラスター法の解析:フル結合クラスター方程式

Analysis of the Single Reference Coupled Cluster Method for Electronic Structure Calculations: The Full Coupled Cluster Equations ( http://arxiv.org/abs/2212.12788v1 )

ライセンス: Link先を確認
Muhammad Hassan, Yvon Maday and Yipeng Wang(参考訳) 電子構造理論における中心的な問題は、反対称函数のヒルベルト空間上で作用する非有界自己随伴作用素である電子ハミルトニアンの固有値の計算である。 探索次固有関数の非線形パラメータ化と方程式の非線形系に基づく結合クラスタ法(CC法)は、高精度な量子化学シミュレーションのための選択法であるが、その数値解析は未開発である。 既存の数値解析は、摂動的にのみ有効であるcc関数の局所的かつ強い単調性(すなわち、後続基底状態のcc解が十分にゼロに近い場合)に依存する。 本稿では,ccデリバティブの可逆性に基づく単一参照結合クラスタ法について,新しい適合性解析を提案する。 後続の固有関数が中間正規化可能で、関連する固有値が孤立かつ非退化であるという最小仮定の下で、連続(無限次元) cc 方程式は常に局所的配置であることが証明される。 同じ最小限の仮定の下で、離散化が十分完璧であると仮定し、離散フルCC方程式が局所的に十分に成り立つことを証明し、保証された正の定数を持つ残差ベースの誤差推定を導出する。 予備的な数値実験は, 局所単調性アプローチで得られた値よりも, 推定値に現れる定数が有意に改善することを示す。

The central problem in electronic structure theory is the computation of the eigenvalues of the electronic Hamiltonian -- an unbounded, self-adjoint operator acting on a Hilbert space of antisymmetric functions. Coupled cluster (CC) methods, which are based on a non-linear parameterisation of the sought-after eigenfunction and result in non-linear systems of equations, are the method of choice for high accuracy quantum chemical simulations but their numerical analysis is underdeveloped. The existing numerical analysis relies on a local, strong monotonicity property of the CC function that is valid only in a perturbative regime, i.e., when the sought-after ground state CC solution is sufficiently close to zero. In this article, we introduce a new well-posedness analysis for the single reference coupled cluster method based on the invertibility of the CC derivative. Under the minimal assumption that the sought-after eigenfunction is intermediately normalisable and the associated eigenvalue is isolated and non-degenerate, we prove that the continuous (infinite-dimensional) CC equations are always locally well-posed. Under the same minimal assumptions and provided that the discretisation is fine enough, we prove that the discrete Full-CC equations are locally well-posed, and we derive residual-based error estimates with guaranteed positive constants. Preliminary numerical experiments indicate that the constants that appear in our estimates are a significant improvement over those obtained from the local monotonicity approach.
翻訳日:2023-01-09 07:16:17 公開日:2022-12-24
# hBNにおけるスピン欠陥のコヒーレンス時間の拡張は、高度な量子ビット制御と量子センシングを可能にする

Extending the coherence time of spin defects in hBN enables advanced qubit control and quantum sensing ( http://arxiv.org/abs/2212.12826v1 )

ライセンス: Link先を確認
Roberto Rizzato, Martin Schalk, Stephan Mohr, Joachim P. Leibold, Jens C. Hermann, Fleming Bruckmaier, Peirui Ji, Georgy V. Astakhov, Ulrich Kentsch, Manfred Helm, Andreas V. Stier, Jonathan J. Finley and Dominik B. Bucher(参考訳) 六方晶窒化ホウ素(hBN)のスピン欠陥は、ファンデルワールス物質中の光学的適応可能な量子ビットを表すため、量子技術への関心が高まっている。 特にhBNにおける負電荷のホウ素空孔中心({V_B}^-$)は、温度、圧力、静磁場のセンサーとして期待されている。 しかし、この欠陥の短いスピンコヒーレンス時間は現在、量子技術の範囲を制限している。 本稿では,磁気ノイズを抑制し,スピンコヒーレンス時間を約2桁拡張するために動的デカップリング法を適用し,基本的なT_1$緩和限界に迫る。 この改良に基づき、サブHz解像度でMHz帯の電磁信号を検出するための高度なスピン制御と量子センシングプロトコルのセットを実証した。 この研究は、剥離可能な材料のスピン欠陥を用いたナノスケールセンシングの基礎を築き、超薄膜構造に統合された量子センサーや量子ネットワークへの有望な道を開く。

Spin defects in hexagonal Boron Nitride (hBN) attract increasing interest for quantum technology since they represent optically-addressable qubits in a van der Waals material. In particular, negatively-charged boron vacancy centers (${V_B}^-$) in hBN have shown promise as sensors of temperature, pressure, and static magnetic fields. However, the short spin coherence time of this defect currently limits its scope for quantum technology. Here, we apply dynamical decoupling techniques to suppress magnetic noise and extend the spin coherence time by nearly two orders of magnitude, approaching the fundamental $T_1$ relaxation limit. Based on this improvement, we demonstrate advanced spin control and a set of quantum sensing protocols to detect electromagnetic signals in the MHz range with sub-Hz resolution. This work lays the foundation for nanoscale sensing using spin defects in an exfoliable material and opens a promising path to quantum sensors and quantum networks integrated into ultra-thin structures.
翻訳日:2023-01-09 07:15:53 公開日:2022-12-24
# 絡み合った粒子検出器を用いた量子場からの絡み合いの抽出

Extraction of entanglement from quantum fields with entangled particle detectors ( http://arxiv.org/abs/2212.12803v1 )

ライセンス: Link先を確認
Dyuman Bhattacharya, Kensuke Gallock-Yoshimura, Laura J. Henderson, Robert B. Mann(参考訳) 2つの初期絡み合ったUnruh-DeWitt粒子検出器について検討し、量子スカラー場との相互作用によって初期絡み合いがどのように変化するかを検討する。 当初、非絡み合い検出器は磁場から絡み合いを抽出するため、絡み合い検出器は最初は弱い相関関係にある限り、より絡み合いを得ることができる。 当初十分に絡み合った検出器では、劣化のみが起こる。 次に, 重力衝撃波の時空解析を行い, 弱絡み検出器の初期絡み合いを衝撃波で高めることを示した。 さらに、ミンコフスキー時空よりも大きな検出器分離のためにこの拡張が生じることが判明した。

We consider two initially entangled Unruh-DeWitt particle detectors and examine how the initial entanglement changes after interacting with a quantum scalar field. As initially nonentangled detectors extract entanglement from the field, entangled detectors also can gain more entanglement so long as they are weakly correlated at the beginning. For initially sufficiently entangled detectors, only degradation takes place. We then apply our analysis to a gravitational shockwave spacetime and show that a shockwave could enhance the initial entanglement of weakly entangled detectors. Moreover, we find that this enhancement can occur for greater detector separations than in Minkowski spacetime.
翻訳日:2023-01-09 07:07:24 公開日:2022-12-24
# 量子スクランブルによるmetrologyの改善

Improving Metrology with Quantum Scrambling ( http://arxiv.org/abs/2212.13880v1 )

ライセンス: Link先を確認
Zeyang Li, Simone Colombo, Chi Shu, Gustavo Velez, Sa\'ul Pilatowsky-Cameo, Roman Schmied, Soonwon Choi, Mikhail Lukin, Edwin Pedrozo-Pe\~nafiel, Vladan Vuleti\'c(参考訳) 量子スクランブル(quantum scrambling)は、量子情報の多体量子系の自由度への高速拡散を記述する。 この概念は、閉量子系の熱化、絡み合いの成長、ブラックホール情報パラドックスなど、明らかに無関係な多くの現象を取り入れている。 最速のスクランブラーは、情報を指数関数的にシステムの自由度に分散する。 out-of-time-order correlator (otocs) は量子スクランブルを特徴付ける手段として発明された。 OTOCを実験的に探究するには、多体ハミルトニアンの符号を逆転させ、時間とともにシステムを後方に効果的に進化させる必要がある。 しかし、実験の進展にもかかわらず、量子情報の指数関数的に高速にスクランブルする実験は行われていない。 ここでは、リプキン・メシュコフ・グリック(lmg)多体ハミルトンの指数的スクランブルの性質を調べる。 我々は、指数的に増加するOTOCを測定し、量子情報スクランブルと量子エンハンスドメトロジーの密接な概念的関係を解明し、実験的に検証する。 我々の実験は、制御テーブルトップ実験における量子カオスとスクランブルの研究への道を開いた。 さらに、エンタングルメントエンハンスド量子メトロロジーは、指数関数的にエンタングルメントを生成できる一般の高速スクランブルハミルトニアンで実行可能であることを実証する。

Quantum scrambling describes the fast spreading of quantum information into many degrees of freedom of a many-body quantum system. This concept embraces many apparently unconnected phenomena such as the thermalization of closed quantum systems, the growth of entanglement, and the black-hole information paradox. The fastest scramblers disperse the information exponentially quickly into the system's degrees of freedom. Out-of-time-order correlators (OTOCs) have been invented as a mean to characterize quantum scrambling. To experimentally probe OTOCs, it is necessary to reverse the sign of the many-body Hamiltonian, effectively evolving the system backwards in time, a technique that has also been shown as powerful for entanglement-enhanced metrology. However, despite experimental progress, to date no exponentially fast scrambling of quantum information has been experimentally demonstrated. Here we probe the exponential scrambling nature of the Lipkin-Meshkov-Glick (LMG) many-body Hamiltonian. We measure an exponentially growing OTOC; moreover, we elucidate and experimentally validate the close conceptual relation between quantum information scrambling and quantum-enhanced metrology. Our experiment paves the way to the investigation of quantum chaos and scrambling in controlled tabletop experiments. Moreover, we demonstrate that entanglement-enhanced quantum metrology can be performed with general fast-scrambling Hamiltonians capable of generating entanglement exponentially quickly.
翻訳日:2023-01-09 06:30:35 公開日:2022-12-24
# リカレントファジィニューラルネットワークと変動モード分解を用いた多段階株価予測

Multi-step-ahead Stock Price Prediction Using Recurrent Fuzzy Neural Network and Variational Mode Decomposition ( http://arxiv.org/abs/2212.14687v1 )

ライセンス: Link先を確認
Hamid Nasiri, Mohammad Mehdi Ebadzadeh(参考訳) 研究テーマである金融時系列予測は学者からかなりの関心を集めており、いくつかのアプローチが開発されている。 その中でも,分解に基づく手法は有望な結果を得た。 ほとんどの分解に基づく方法は、正確な結果を得るために不十分な1つの関数を近似する。 さらに、既存のほとんどの研究は、株式市場投資家が将来最良の決定に到達することを阻止する一段階の予測に集中している。 本研究は, 課題を概説した多段階株価予測手法を2つ提案する。 離散コサイン変換(DCT)と多機能リカレントファジィニューラルネットワーク(MFRFNN)に基づくDCT-MFRFNNは、DCTを用いて時系列の変動を低減し、その構造とMFRFNNを単純化し、株価を予測する。 変分モード分解(VMD)とMFRFNNに基づくアプローチであるVMD-MFRFNNは、それらの利点をまとめる。 VMD-MFRFNNは2つのフェーズから構成される。 入力信号は、分解相のVMDを用いて複数のIMFに分解される。 予測・再構築フェーズでは、IMFのそれぞれが別個のMFRFNNに入力され、予測信号をまとめて出力を再構築する。 提案手法の評価には、ハンセン指数(HSI)、上海証券取引所(SSE)、スタンダード&プアーズ500指数(SPX)の3つの金融時系列シリーズが使用されている。 実験結果から,VMD-MFRFNNが他の最先端手法を上回ることが示唆された。 vmd-mfrfnnは平均して35.93%, 24.88%, 34.59%のrmseがhsi, sse, spxの2位から減少した。 また、DCT-MFRFNNは全ての実験でMFRFNNを上回っている。

Financial time series prediction, a growing research topic, has attracted considerable interest from scholars, and several approaches have been developed. Among them, decomposition-based methods have achieved promising results. Most decomposition-based methods approximate a single function, which is insufficient for obtaining accurate results. Moreover, most existing researches have concentrated on one-step-ahead forecasting that prevents stock market investors from arriving at the best decisions for the future. This study proposes two novel methods for multi-step-ahead stock price prediction based on the issues outlined. DCT-MFRFNN, a method based on discrete cosine transform (DCT) and multi-functional recurrent fuzzy neural network (MFRFNN), uses DCT to reduce fluctuations in the time series and simplify its structure and MFRFNN to predict the stock price. VMD-MFRFNN, an approach based on variational mode decomposition (VMD) and MFRFNN, brings together their advantages. VMD-MFRFNN consists of two phases. The input signal is decomposed to several IMFs using VMD in the decomposition phase. In the prediction and reconstruction phase, each of the IMFs is given to a separate MFRFNN for prediction, and predicted signals are summed to reconstruct the output. Three financial time series, including Hang Seng Index (HSI), Shanghai Stock Exchange (SSE), and Standard & Poor's 500 Index (SPX), are used for the evaluation of the proposed methods. Experimental results indicate that VMD-MFRFNN surpasses other state-of-the-art methods. VMD-MFRFNN, on average, shows 35.93%, 24.88%, and 34.59% decreases in RMSE from the second-best model for HSI, SSE, and SPX, respectively. Also, DCT-MFRFNN outperforms MFRFNN in all experiments.
翻訳日:2023-01-09 06:30:14 公開日:2022-12-24
# Anyonsの予測:その歴史とより広い意味

The Prediction of Anyons: Its History and Wider Implications ( http://arxiv.org/abs/2212.12632v1 )

ライセンス: Link先を確認
Gerald A. Goldin(参考訳) ウィルツェクにのみ帰属する'anyons''の予測は、1977年にleinaas & myrheimから始まり、1980-81年にgoldin, menikoff, & sharpから独立して行われた。 2020年、実験家はエノニック励起を成功させた。 本稿では、中間交換統計値を持つ2次元空間における量子粒子の可能性が、ボソンやフェルミオンが理解されてからしばらくの間、物理学者を除いた理由について論じる。 この歴史は将来の研究者の準備のアイデアを示唆している。 科学的な成果を正しく特徴づけるために失敗に対処することで締めくくります。 このような行為は物理学における女性やマイノリティを著しく傷つけ、科学にとって有害である。

Prediction of ``anyons'', often attributed exclusively to Wilczek, came first from Leinaas & Myrheim in 1977, and independently from Goldin, Menikoff, & Sharp in 1980-81. In 2020, experimentalists successfully created anyonic excitations. This paper discusses why the possibility of quantum particles in two-dimensional space with intermediate exchange statistics eluded physicists for so long after bosons and fermions were understood. The history suggests ideas for the preparation of future researchers. I conclude by addressing failures to attribute scientific achievements accurately. Such practices disproportionately hurt women and minorities in physics, and are harmful to science.
翻訳日:2023-01-09 06:21:48 公開日:2022-12-24
# 大きな」ブラックホールを7つの非等価な家族に分割する

Partition "large" black holes into seven inequivalent families ( http://arxiv.org/abs/2212.12644v1 )

ライセンス: Link先を確認
Dafa Li, Maggie Cheng, Xiongrong Li, Shuwang Li(参考訳) ボルステンらは[phys. rev. lett. 105, 100507 (2010)]において、ブラックホール対量子ビット対応を用いて4つの量子ビットの31のエンタングルメント族を導出した。 本稿では,3つの量子ビットの局所ユニタリ演算子(LU)エンタングルメント分類を用いて,「大きな」ブラックホールの分類について検討する。 3つの量子ビットからなるGHZ SLOCCクラスのLUエンタングルメントクラスを「大きな」ブラックホールの異なるクラスに関連付ける。 したがって、「大きな」ブラックホールを7つの非等価族に分割する。 4つの非バニッシュ電荷を持つ2つのブラックホールの間には、q_{0}$, $p^{1}$, $p^{2}$, $p^{3}$があり、唯一の違いが電荷のサインである場合、lu等価である。 したがって、ブラックホールの分割は電荷の符号とは独立であり、絶対電荷の比率にのみ関係している。

In [Phys. Rev. Lett. 105, 100507 (2010)], Borsten et al. derived 31 entanglement families of four qubits by using the black-hole vs. qubit correspondence, which can be reduced to nine up to permutation of the four qubits under stochastic local operations and classical communication (SLOCC). In this paper, we investigate the classification of "large" black holes by using the local unitary operator (LU) entanglement classification of three qubits. We relate the LU entanglement classes of the GHZ SLOCC class of three qubits to different classes of "large" black holes. Thus, we partition "large" black holes into seven inequivalent families. We show that between two black holes with four non-vanishing charges $q_{0}$, $p^{1}$, $p^{2}$, and $p^{3}$, if the only difference is the signs of the charges, then they are LU equivalent. Thus, the partition of black holes is independent of the signs of the charges and is only related to the ratio of the absolute charges.
翻訳日:2023-01-09 06:21:38 公開日:2022-12-24
# 動作における綱渡りの合理性:量子力学の基礎に対するフェイヤーベンディアン的考察

Tightrope-walking rationality in action: Feyerabendian insights for the foundations of quantum mechanics ( http://arxiv.org/abs/2212.12782v1 )

ライセンス: Link先を確認
Daniele Oriti(参考訳) Paul K. Feyerabendの物理学と科学の哲学における研究を、量子力学の基礎に関する現代の議論に役立つ洞察のために、より一般的にスキャンする。 feyerabend氏が実際に量子力学について書いたのは出発点だが、実物論、客観性、多元論、物理学と哲学の関係に関する彼の一般的な見解に分析を拡張して、これらのより一般的な見解は、量子基礎を研究する物理学者や哲学者に、実際に多くの興味深い洞察を与えることができることを見出している。

We scan Paul K. Feyerabend's work in philosophy of physics and of science more generally for insights that could be useful for the contemporary debate on the foundations of quantum mechanics. We take as our starting point what Feyerabend has actually written about quantum mechanics, but we extend our analysis to his general views on realism, objectivity, pluralism, and the relation between physics and philosophy, finding that these more general views could in fact offer many interesting insights for physicists and philosophers working on quantum foundations.
翻訳日:2023-01-09 06:21:06 公開日:2022-12-24
# 数値レンジによる実テンソル最適化のバウンディング

Bounding Real Tensor Optimizations via the Numerical Range ( http://arxiv.org/abs/2212.12811v1 )

ライセンス: Link先を確認
Nathaniel Johnston, Logan Pipes(参考訳) 行列の数値範囲は、実テンソル積ベクトル上での最適化問題の最適値の有界化にどのように利用できるかを示す。 我々の境界は固有値に基づく自明な境界よりも強く、半定義のプログラミング緩和によって与えられる境界よりもかなり高速に計算できる。 行列の実部分空間が階数 1 の行列を持たないことを示すことや、行列に作用する線型写像が正であることを示すことなど、他の強線型代数問題に対する多くの応用について論じる。

We show how the numerical range of a matrix can be used to bound the optimal value of certain optimization problems over real tensor product vectors. Our bound is stronger than the trivial bounds based on eigenvalues, and can be computed significantly faster than bounds provided by semidefinite programming relaxations. We discuss numerous applications to other hard linear algebra problems, such as showing that a real subspace of matrices contains no rank-one matrix, and showing that a linear map acting on matrices is positive.
翻訳日:2023-01-09 06:20:53 公開日:2022-12-24
# SarDub19: エラー推定と再調整プロトコル

SarDub19: An Error Estimation and Reconciliation Protocol ( http://arxiv.org/abs/2212.12816v1 )

ライセンス: Link先を確認
Miralem Mehic and Harun Siljak(参考訳) 光学および量子部品の開発における大幅な進歩とは別に、実用的な量子鍵分配システムの性能は、エラー鍵調整手順のタイプと設定によって決定される。 公開チャネルを通じて実現され、量子鍵分布プロセスの通信複雑性を支配している。 実用化は、衛星指向量子通信において非常に重要である計算能力に大きく依存する。 本稿では,実用的な量子システムの性能を向上させる誤り鍵推定と照合プロトコルsardub19を提案する。

Aside from significant advancements in the development of optical and quantum components, the performance of practical quantum key distribution systems is largely determined by the type and settings of the error key reconciliation procedure. It is realized through public channel and it dominates the communication complexity of the quantum key distribution process. The practical utilization significantly depends on the computational capacities that are of great importance in satellite-oriented quantum communications. Here we present SarDub19 error key estimation and reconciliation protocol that improves performances of practical quantum systems.
翻訳日:2023-01-09 06:20:44 公開日:2022-12-24
# 絡み込み支援パッキングプロセスを用いたエンタングルメント効率二部分散量子コンピューティング

Entanglement-efficient bipartite-distributed quantum computing with entanglement-assisted packing processes ( http://arxiv.org/abs/2212.12688v1 )

ライセンス: Link先を確認
Jun-Yi Wu, Kosuke Matsui, Tim Forrer, Akihito Soeda, Pablo Andr\'es-Mart\'inez, Daniel Mills, Luciana Henaut, Mio Murao(参考訳) ノイズの多い中間規模量子コンピューティングでは、量子プロセッサユニット(QPU)のスケーラビリティが制限される。 単一のQPUのスケーラビリティは分散量子コンピューティング(DQC)によって拡張することができ、2つのQPU上でのグローバルな操作を、絡み合い支援ローカル操作と古典的通信(LOCC)によって実装することができる。 このタイプのDQCを実験で容易にするためには、絡み合い効率の高いプロトコルが必要である。 そこで,本研究では,単一制御ユニタリゲートを最大エンタングルペアで実装する標準プロトコル (eisert et. al., pra, 62:052317(2000)] を,最大エンタングルペアを用いて複数の制御ユニタリゲートを実装可能なエンタングルメント支援パッキングプロセスに基づく新しいプロトコルに拡張する。 特に, エンタングルメント効率の高いDQCの構築ブロックとして, 分散プロセスと埋め込みプロセスの2種類のパッキングプロセスが導入された。 エンタングルメントの効率は、2つの非シーケンス分散プロセスをマージしてエンタングルメントコストを節約する埋め込みプロセスによって向上する。 量子回路の分散性と埋め込み性の構造は、グラフと競合グラフのパッキングによって完全に表現できることを示す。 これらのグラフに基づいて、与えられた量子回路の分配過程の絡み合い効率のよいパッキングを見つけるためのヒューリスティックアルゴリズムを導出する。 これらのアルゴリズムは、DQC内の局所補助量子ビットの必要個数を決定できる。 局所補助量子ビットの上限を設定することもできる。 これらのアルゴリズムをユニタリ結合クラスタ回路の2分割DQCに適用し、埋め込みによる大きな絡み合いの低減を求める。 この方法では、その下限に近づく量子回路の絡み合いコストにおける構成的上限を決定することができる。

In noisy intermediate-scale quantum computing, the scalability of a quantum processor unit (QPU) is limited. The scalability of a single QPU can be extended through distributed quantum computing (DQC), in which one can implement global operations over two QPUs by entanglement-assisted local operations and classical communication (LOCC). To facilitate this type of DQC in experiments, we need an entanglement-efficient protocol. To this end, we extend the standard protocol implementing each single controlled-unitary gate with one maximally entangled pair [Eisert et. al., PRA, 62:052317(2000)] to a new protocol based on entanglement-assisted packing processes, which can implement multiple controlled-unitary gates using one maximally entangled pair. In particular, two types of packing processes are introduced as the building blocks of entanglement-efficient DQC, namely the distributing processes and embedding processes. The efficiency of entanglement is enhanced by embedding processes, which merge two non-sequential distributing processes and hence save the entanglement cost. We show that the structure of distributability and embeddability of a quantum circuit can be fully represented by packing graphs and conflict graphs. Based on these graphs, we derive heuristic algorithms for finding an entanglement-efficient packing of distributing processes for a given quantum circuit to be implemented by two parties. These algorithms can determine the required number of local auxiliary qubits in the DQC. One can also set an upper limit on the local auxiliary qubits. We apply these algorithms for bipartite DQC of unitary coupled-cluster circuits and find a significant entanglement reduction through embeddings. This method can be employed to determine a constructive upper bound on entanglement cost for a quantum circuit approaching its lower bound.
翻訳日:2023-01-09 05:27:41 公開日:2022-12-24
# 有限量子系に対する最小ジニの不確かさを持つコヒーレント状態

Coherent states with minimum Gini uncertainty for finite quantum systems ( http://arxiv.org/abs/2212.12755v1 )

ライセンス: Link先を確認
C. Lei and A. Vourdas(参考訳) ジニ指数の観点から不確実性関係 $\delta(\rho)\ge \eta_d$ を調べる。 Gini 不確実定数'$\eta_d$を数値的に推定し、上界$\tilde \eta_d\ge \eta_d$と比較する。 大きな$d$に対して$\tilde \eta_d\approx \eta_d$を得る。 最小のGini不確実性と変位変換を持つ状態 $\ket{g}$ は、コヒーレント状態 $\ket{\alpha, \beta}_g$ (ここでは$\alpha, \beta \in {\mathbb Z}_d$) と最小のGini不確実性を持つ状態 $\Delta[\ket{\alpha, \beta}_g\;_g\bra{\alpha, \beta}]\approx \eta_d$ を定義するために用いられる。 ここで、$\ket{\alpha, \beta}_g$ はidを解決し、したがって任意の状態はそれらの項で拡張することができる。 この拡張はノイズの存在下で堅牢である。

Uncertainty relations $\Delta(\rho)\ge \eta_d$ in terms of the Gini index are studied. The `Gini uncertainty constant' $\eta_d$ is estimated numerically and compared to an upper bound $\tilde \eta_d\ge \eta_d$. It is shown that for large $d$ we get $\tilde \eta_d\approx \eta_d$. States $\ket{g}$ with minimum Gini uncertainty and displacement transformations are used to define coherent states $\ket{\alpha, \beta}_g$ (where $\alpha, \beta \in {\mathbb Z}_d$) with minimum Gini uncertainty ($\Delta[\ket{\alpha, \beta}_g\;_g\bra{\alpha, \beta}]\approx \eta_d$). The $\ket{\alpha, \beta}_g$ resolve the identity, and therefore an arbitrary state can be expanded in terms of them. This expansion is robust in the presence of noise.
翻訳日:2023-01-09 05:27:05 公開日:2022-12-24
# 駆動散逸共振器間の指向性

Directionality between driven-dissipative resonators ( http://arxiv.org/abs/2212.12777v1 )

ライセンス: Link先を確認
C. A. Downing and T. J. Sturges(参考訳) 非相反性の概念は、本質的には後進と異なるが、宇宙論から電磁気学まで物理学の全ての分野において現れる。 興味深いことに、相互性の分解は典型的には異常な現象と関連付けられており、ローレンツの相互性が破られたときに(例えば)非自明な電磁デバイスの設計に容易に乗じることができる。 しかし、次世代量子技術における非相反的効果の活用を可能にするためには、基本的な量子光学理論が必要である。 ここでは、コヒーレントカップリングと非コヒーレントカップリングの相対位相差が非対称性を誘導する一対の駆動散逸量子共振器を記述する汎用モデルを提案する。 多様な散逸性景観(本質的な損失と散逸性結合の両方を含む)とコヒーレント相互作用の間の相互作用は、高方向(あるいは一方方向)エネルギー輸送を含むいくつかの顕著な結果をもたらす。 我々の研究は、光子学やキャビティ・マグノニクス(スピン波)のような領域における散逸誘起量子方向性(英語版)(dissipation-induced quantum directionality)を観測する遠近法を提唱している。

The notion of nonreciprocity, in essence when going forwards is different from going backwards, emerges in all branches of physics from cosmology to electromagnetism. Intriguingly, the breakdown of reciprocity is typically associated with extraordinary phenomena, which may be readily capitalized on in the design of (for example) nontrivial electromagnetic devices when Lorentz reciprocity is broken. However, in order to enable the exploitation of nonreciprocal-like effects in the next generation of quantum technologies, basic quantum optical theories are required. Here we present a versatile model describing a pair of driven-dissipative quantum resonators, where the relative phase difference between the coherent and incoherent couplings induces an asymmetry. The interplay between the diverse dissipative landscape - which encompasses both intrinsic losses and dissipative couplings - and the coherent interactions leads to some remarkable consequences including highly directional (or even one-way) energy transport. Our work proffers the tantalizing prospect of observing dissipation-induced quantum directionality in areas like photonics or cavity magnonics (spin waves), which may aid the design of unconventional nanoscopic devices.
翻訳日:2023-01-09 05:26:36 公開日:2022-12-24
# Kannudi -- Kannadaのリファレンスエディタ

Kannudi -- A Reference Editor for Kannada ( http://arxiv.org/abs/2301.00836v1 )

ライセンス: Link先を確認
Vishweshwar V. Dixit(参考訳) Kannudiは、OKOK!とOKOK!の原則とドメイン知識に基づいた、Kannadaのリファレンスエディタである。 これは、Ottu Haku Ottu Kodu!というカンナダの入力方法を紹介している。 (圧力をかけ、オットーを与える)。 これは特に圧力に敏感な入力デバイスに適しているが、現在のオンライン実装では通常の機械式キーボードを使用している。 は、sva-ottu(自己接続)、kandante(ご覧のように)、andante(おっしゃるとおり)の3つのモードがある。 カンダンテモードは音順に従わないことに注意する必要がある。 しかし、このモードは、音を鳴らすのではなく、タイプするときに可視化する傾向にある人には効果がある。 kannudi氏はまた、ドメイン知識を効果的に利用して、スピード、正確性、ユーザーフレンドリ性を高める方法も示している。 例えば、デフォルトの母音の選択、自動シャニー化、アーク化などです。 また、kannadaのようなフォノ音節言語に必要な4種類の削除も実装されている。

Kannudi is a reference editor for Kannada based on OPOK! and OHOK! principles, and domain knowledge. It introduces a method of input for Kannada, called OHOK!, that is, Ottu Haku Ottu Kodu! (apply pressure and give ottu). This is especially suited for pressure sensitive input devices, though the current online implementation uses the regular mechanical keyboard. OHOK! has three possible modes, namely, sva-ottu (self-conjunct), kandante (as you see), and andante (as you say). It may be noted that kandante mode does not follow the phonetic order. However, this mode may work well for those who are inclined to visualize as they type rather than vocalizing the sounds. Kannudi also demonstrates how domain knowledge can be effectively used to potentially increase speed, accuracy, and user friendliness. For example, selection of a default vowel, automatic shunyification, and arkification. Also implemented are four types Deletes that are necessary for phono-syllabic languages like Kannada.
翻訳日:2023-01-09 04:13:18 公開日:2022-12-24
# DiP: 個人再識別のための識別不能部分の学習

DiP: Learning Discriminative Implicit Parts for Person Re-Identification ( http://arxiv.org/abs/2212.13906v1 )

ライセンス: Link先を確認
Dengjie Li, Siyu Chen, Yujie Zhong, Fan Liang, Lin Ma(参考訳) 個人再識別(ReID)タスクでは、グローバルな画像機能よりもパフォーマンスを向上させるために、部分的特徴の学習を探索する作業が数多く行われている。 既存の方法は、手動設計の画像分割または外部視覚システムで得られたキーポイントを用いて、部品特徴を明示的な方法で抽出する。 本研究では,明示的な身体部分から分離された識別的暗黙的部分(DiP)を学習することを提案する。 したがって、ディップは、予め定義された身体部分(アクセサリーなど)を超えて、アイデンティティの識別に役立つ任意の識別特徴を抽出できる。 さらに,各DIPに対して幾何学的解釈を与える新しい暗黙的位置を提案する。 暗黙的な位置は、画像内のアイデンティティとより同じ位置にあるようにDiPを奨励する学習信号としても機能する。 最後に、DiPの学習をさらに改善するために、属性セットと補助的損失を導入する。 広範な実験により,提案手法が複数人のreidベンチマークにおいて最先端の性能を実現することが示された。

In person re-identification (ReID) tasks, many works explore the learning of part features to improve the performance over global image features. Existing methods extract part features in an explicit manner, by either using a hand-designed image division or keypoints obtained with external visual systems. In this work, we propose to learn Discriminative implicit Parts (DiPs) which are decoupled from explicit body parts. Therefore, DiPs can learn to extract any discriminative features that can benefit in distinguishing identities, which is beyond predefined body parts (such as accessories). Moreover, we propose a novel implicit position to give a geometric interpretation for each DiP. The implicit position can also serve as a learning signal to encourage DiPs to be more position-equivariant with the identity in the image. Lastly, a set of attributes and auxiliary losses are introduced to further improve the learning of DiPs. Extensive experiments show that the proposed method achieves state-of-the-art performance on multiple person ReID benchmarks.
翻訳日:2022-12-29 15:36:17 公開日:2022-12-24
# コンクリート橋クラックの知的特徴抽出・データ融合・検出の現状と課題

Intelligent Feature Extraction, Data Fusion and Detection of Concrete Bridge Cracks: Current Development and Challenges ( http://arxiv.org/abs/2212.13258v1 )

ライセンス: Link先を確認
Di Wang, Simon X. Yang(参考訳) コンクリート橋の外観欠陥として, ひび割れは橋梁構造物の健全性評価にとって重要な指標である。 ひび割れの同定については多くの研究がなされているが、橋梁ひび割れの進化機構の研究はまだ実用的ではない。 本稿では,インテリジェントな特徴抽出,データ融合,ひび割れ検出のためのインテリジェントな理論と方法論に関する最新研究を総合的に検討する。 本研究は, 橋梁き裂のマルチモーダルパラメータの特徴抽出レベル, 記述レベル, 橋梁き裂損傷状態の診断レベルという3つの側面から考察した。 本稿では, 橋梁ひび割れのマルチモーダルパラメータの定量的評価問題とそのひび割れ識別における実装に関する過去の研究に焦点をあてるとともに, 主な欠点をいくつか強調する。 また,現在の課題と今後の研究の方向性についても論じる。

As a common appearance defect of concrete bridges, cracks are important indices for bridge structure health assessment. Although there has been much research on crack identification, research on the evolution mechanism of bridge cracks is still far from practical applications. In this paper, the state-of-the-art research on intelligent theories and methodologies for intelligent feature extraction, data fusion and crack detection based on data-driven approaches is comprehensively reviewed. The research is discussed from three aspects: the feature extraction level of the multimodal parameters of bridge cracks, the description level and the diagnosis level of the bridge crack damage states. We focus on previous research concerning the quantitative characterization problems of multimodal parameters of bridge cracks and their implementation in crack identification, while highlighting some of their major drawbacks. In addition, the current challenges and potential future research directions are discussed.
翻訳日:2022-12-29 14:52:49 公開日:2022-12-24
# 一般核行列のデータ駆動線形複雑性低ランク近似:幾何学的アプローチ

Data-Driven Linear Complexity Low-Rank Approximation of General Kernel Matrices: A Geometric Approach ( http://arxiv.org/abs/2212.12674v1 )

ライセンス: Link先を確認
Difeng Cai, Edmond Chow, Yuanzhe Xi(参考訳) 一般に、カーネル行列は $k_{ij} = \kappa(x_i,y_j)$ ここで $\kappa(x,y)$ はカーネル関数であり、$x=\{x_i\}_{i=1}^m$ と $y=\{y_i\}_{i=1}^n$ は2つの点の集合である。 本稿では、X$ と $Y$ の集合が大きめで、十分に分離されていないカーネル行列に対する低ランク近似を求める(例えば、$X$ と $Y$ の点が 'intermingled'' である)。 このような長方形のカーネル行列は、例えばガウスのプロセス回帰において、$X$はトレーニングデータに対応し、$Y$はテストデータに対応する。 この場合、点はしばしば高次元である。 点集合は大きいので、行列が核関数から生じるという事実を活用し、行列の形成を避け、したがってほとんどの代数的手法を除外しなければならない。 特に、計算複雑性$Oで線形にスケールできる方法を模索する。 (m)$または$O (n) 一定の精度またはランクに対して。 この論文の主なアイデアは、低位近似を構成する点の適切な部分集合を幾何学的に選択することである。 本稿では,この選択をいかに行うべきかを考察する。

A general, {\em rectangular} kernel matrix may be defined as $K_{ij} = \kappa(x_i,y_j)$ where $\kappa(x,y)$ is a kernel function and where $X=\{x_i\}_{i=1}^m$ and $Y=\{y_i\}_{i=1}^n$ are two sets of points. In this paper, we seek a low-rank approximation to a kernel matrix where the sets of points $X$ and $Y$ are large and are not well-separated (e.g., the points in $X$ and $Y$ may be ``intermingled''). Such rectangular kernel matrices may arise, for example, in Gaussian process regression where $X$ corresponds to the training data and $Y$ corresponds to the test data. In this case, the points are often high-dimensional. Since the point sets are large, we must exploit the fact that the matrix arises from a kernel function, and avoid forming the matrix, and thus ruling out most algebraic techniques. In particular, we seek methods that can scale linearly, i.e., with computational complexity $O(m)$ or $O(n)$ for a fixed accuracy or rank. The main idea in this paper is to {\em geometrically} select appropriate subsets of points to construct a low rank approximation. An analysis in this paper guides how this selection should be performed.
翻訳日:2022-12-27 15:44:50 公開日:2022-12-24
# ニューラルネットワークと階層行列を用いた有限要素シミュレーションの自動安定化

Automatic stabilization of finite-element simulations using neural networks and hierarchical matrices ( http://arxiv.org/abs/2212.12695v1 )

ライセンス: Link先を確認
Tomasz Sluzalec, Mateusz Dobija, Anna Paszynska, Ignacio Muga, Maciej Paszynski(参考訳) 最適テスト関数を持つペトロフ・ガレルキン定式化は有限要素シミュレーションの安定化を可能にする。 特に、離散的な試行空間が与えられた場合、最適試験空間は問題依存エネルギーノルムの観点で最高の近似を与える数値スキームを誘導する。 第一に、我々は最適なテスト関数の集合を明示的に知る必要があり、第二に、最適なテスト関数は高価な高密度線形系を誘導する大きなサポートを持っているかもしれない。 それにもかかわらず、pdesのパラメトリック族は、オンラインステージで与えられたパラメータのセットに対して効率的に解くことができる安定化線形システムを得るために(オフラインで)計算努力を投資する価値がある例である。 したがって、最初の欠点に対する対策として、任意のPDEパラメータを、そのPDEパラメータに関連する最適テスト関数(基底展開)の係数の行列にマッピングする関数を明示的に(オフライン)計算する。 次に、第2の欠点の修正として、最適テスト関数の係数の(二乗でない)行列を階層的に圧縮するために低ランク近似を用いる。 このプロセスを加速するために、ニューラルネットワークをトレーニングし、圧縮アルゴリズム(与えられたPDEパラメータ集合)の重要なボトルネックを学習する。 計算結果(圧縮)petrov-galerkin定式化をオンラインで解く際,圧縮行列の低ランク特徴により,安価な行列ベクトル乗算を伴うgmres反復解法を用いる。 我々は、元の(不安定な)galerkinアプローチと同じくらい早く、完全なオンライン手順を示す実験を行う。 言い換えれば、階層行列とニューラルネットワークによる安定化は、事実上無料で得られる。 2d eriksson-johnson および hemholtz モデル問題を用いてこの知見を明らかにした。

Petrov-Galerkin formulations with optimal test functions allow for the stabilization of finite element simulations. In particular, given a discrete trial space, the optimal test space induces a numerical scheme delivering the best approximation in terms of a problem-dependent energy norm. This ideal approach has two shortcomings: first, we need to explicitly know the set of optimal test functions; and second, the optimal test functions may have large supports inducing expensive dense linear systems. Nevertheless, parametric families of PDEs are an example where it is worth investing some (offline) computational effort to obtain stabilized linear systems that can be solved efficiently, for a given set of parameters, in an online stage. Therefore, as a remedy for the first shortcoming, we explicitly compute (offline) a function mapping any PDE-parameter, to the matrix of coefficients of optimal test functions (in a basis expansion) associated with that PDE-parameter. Next, as a remedy for the second shortcoming, we use the low-rank approximation to hierarchically compress the (non-square) matrix of coefficients of optimal test functions. In order to accelerate this process, we train a neural network to learn a critical bottleneck of the compression algorithm (for a given set of PDE-parameters). When solving online the resulting (compressed) Petrov-Galerkin formulation, we employ a GMRES iterative solver with inexpensive matrix-vector multiplications thanks to the low-rank features of the compressed matrix. We perform experiments showing that the full online procedure as fast as the original (unstable) Galerkin approach. In other words, we get the stabilization with hierarchical matrices and neural networks practically for free. We illustrate our findings by means of 2D Eriksson-Johnson and Hemholtz model problems.
翻訳日:2022-12-27 15:44:23 公開日:2022-12-24
# ネットワークデータの教師なしインスタンスとサブネットワーク選択

Unsupervised Instance and Subnetwork Selection for Network Data ( http://arxiv.org/abs/2212.12771v1 )

ライセンス: Link先を確認
Lin Zhang, Nicholas Moskwa, Melinda Larsen, Petko Bogdanov(参考訳) 表データとは異なり、ネットワークデータの機能はドメイン固有のグラフ内で相互接続される。 この設定の例としては、タンパク質相互作用ネットワーク(PPI)上の遺伝子発現オーバーレイドと、ソーシャルネットワークにおけるユーザ意見がある。 ネットワークデータは通常、高次元(ノード数が多い)で、異常なスナップショットインスタンスやノイズを含むことが多い。 さらに、グローバルラベル(病気や正常など)をアノテートしたインスタンスには、非自明で時間を要することが多い。 ネットワークデータの識別的サブネットワークと代表インスタンスを、監督なしで共同選択できるのか? 我々は,この課題を,凸自己表現の目的を通じて,UISSと呼ばれるネットワークデータにおける統合サブネットワークとインスタンス選択のための教師なしフレームワーク内で解決する。 ラベルのないネットワークデータセットが与えられた場合、UISSは、外れ値を無視しながら代表インスタンスを識別する。 差別的なサブネットワーク選択と代表インスタンス選択の両方で最先端のベースラインを上回り、評価に使用する実世界のデータセットの最大10%の精度向上を実現します。 複数の研究から得られたRNA-seqネットワークサンプルの探索解析に使用されると、解釈可能で情報的要約が生成される。

Unlike tabular data, features in network data are interconnected within a domain-specific graph. Examples of this setting include gene expression overlaid on a protein interaction network (PPI) and user opinions in a social network. Network data is typically high-dimensional (large number of nodes) and often contains outlier snapshot instances and noise. In addition, it is often non-trivial and time-consuming to annotate instances with global labels (e.g., disease or normal). How can we jointly select discriminative subnetworks and representative instances for network data without supervision? We address these challenges within an unsupervised framework for joint subnetwork and instance selection in network data, called UISS, via a convex self-representation objective. Given an unlabeled network dataset, UISS identifies representative instances while ignoring outliers. It outperforms state-of-the-art baselines on both discriminative subnetwork selection and representative instance selection, achieving up to 10% accuracy improvement on all real-world data sets we use for evaluation. When employed for exploratory analysis in RNA-seq network samples from multiple studies it produces interpretable and informative summaries.
翻訳日:2022-12-27 15:43:56 公開日:2022-12-24
# IRSを用いた無細胞MIMOシステムにおけるエネルギー効率の最大化

Energy Efficiency Maximization in IRS-Aided Cell-Free Massive MIMO System ( http://arxiv.org/abs/2212.12744v1 )

ライセンス: Link先を確認
Si-Nian Jin, Dian-Wu Yue, Yi-Ling Chen, Qing Hu(参考訳) 本稿では、入射点におけるビームフォーミングとIRSにおける位相シフトを共同最適化してエネルギー効率(EE)を最大化する、インテリジェント反射面(IRS)を用いたセルレス大規模マルチインプット多重出力システムについて考察する。 EE最大化問題を解決するために,2次変換とラグランジアン双対変換を用いて最適ビームフォーミングと位相シフトを求める反復最適化アルゴリズムを提案する。 しかし,提案アルゴリズムは計算複雑性に悩まされており,いくつかの現実的なシナリオにおいてその応用を妨げている。 これに対応するために,我々はさらに,接合ビームフォーミングと位相シフト設計のための深層学習に基づくアプローチを提案する。 具体的には、2段階のディープニューラルネットワークを教師なしの学習方法でオフラインでトレーニングし、ビームフォーミングと位相シフトの予測のためにオンラインにデプロイする。 シミュレーションの結果、反復最適化アルゴリズムと遺伝的アルゴリズムと比較して、教師なし学習に基づくアプローチは、より高いEE性能と低い実行時間を持つことが示された。

In this paper, we consider an intelligent reflecting surface (IRS)-aided cell-free massive multiple-input multiple-output system, where the beamforming at access points and the phase shifts at IRSs are jointly optimized to maximize energy efficiency (EE). To solve EE maximization problem, we propose an iterative optimization algorithm by using quadratic transform and Lagrangian dual transform to find the optimum beamforming and phase shifts. However, the proposed algorithm suffers from high computational complexity, which hinders its application in some practical scenarios. Responding to this, we further propose a deep learning based approach for joint beamforming and phase shifts design. Specifically, a two-stage deep neural network is trained offline using the unsupervised learning manner, which is then deployed online for the predictions of beamforming and phase shifts. Simulation results show that compared with the iterative optimization algorithm and the genetic algorithm, the unsupervised learning based approach has higher EE performance and lower running time.
翻訳日:2022-12-27 15:38:05 公開日:2022-12-24
# shiro: ソフト階層強化学習

SHIRO: Soft Hierarchical Reinforcement Learning ( http://arxiv.org/abs/2212.12786v1 )

ライセンス: Link先を確認
Kandai Watanabe, Mathew Strong, Omer Eldar(参考訳) 階層的強化学習(hrl)アルゴリズムは、高次元意思決定とロボット制御タスクでうまく機能することが示されている。 しかし、報酬のみを最適化するため、エージェントは同じ空間を冗長に検索する傾向がある。 この問題は学習のスピードを減らし、報酬を得る。 本研究では,効率的な探索のためにエントロピーを最大化するオフポリシィHRLアルゴリズムを提案する。 アルゴリズムは、時間的に抽象化された低レベルポリシーを学習し、高レベルへのエントロピーの追加を通じて広く探索することができる。 この研究の新規性は、HRL設定においてRL目標にエントロピーを加える理論的動機である。 低水準政策の連続的な更新が十分に小さい場合、kl(kullback-leibler)が分岐する場合、エントロピーを両レベルに追加できることを実証的に示す。 エントロピーが階層構造に及ぼす影響を分析するために,高レベルエントロピーを最も望ましい構成として加えるためのアブレーションを行った。 さらに、低レベルの温度が高いと、Q値の過大評価が起こり、高レベルの動作する環境の確率性を高め、学習をより困難にする。 本手法は,シミュレーションロボット制御ベンチマークタスクにおいて最先端性能を上回り,最小限のチューニングを必要とする。

Hierarchical Reinforcement Learning (HRL) algorithms have been demonstrated to perform well on high-dimensional decision making and robotic control tasks. However, because they solely optimize for rewards, the agent tends to search the same space redundantly. This problem reduces the speed of learning and achieved reward. In this work, we present an Off-Policy HRL algorithm that maximizes entropy for efficient exploration. The algorithm learns a temporally abstracted low-level policy and is able to explore broadly through the addition of entropy to the high-level. The novelty of this work is the theoretical motivation of adding entropy to the RL objective in the HRL setting. We empirically show that the entropy can be added to both levels if the Kullback-Leibler (KL) divergence between consecutive updates of the low-level policy is sufficiently small. We performed an ablative study to analyze the effects of entropy on hierarchy, in which adding entropy to high-level emerged as the most desirable configuration. Furthermore, a higher temperature in the low-level leads to Q-value overestimation and increases the stochasticity of the environment that the high-level operates on, making learning more challenging. Our method, SHIRO, surpasses state-of-the-art performance on a range of simulated robotic control benchmark tasks and requires minimal tuning.
翻訳日:2022-12-27 15:37:48 公開日:2022-12-24
# GraphCast: 熟練した中距離のグローバル天気予報を学習する

GraphCast: Learning skillful medium-range global weather forecasting ( http://arxiv.org/abs/2212.12794v1 )

ライセンス: Link先を確認
Remi Lam, Alvaro Sanchez-Gonzalez, Matthew Willson, Peter Wirnsberger, Meire Fortunato, Alexander Pritzel, Suman Ravuri, Timo Ewalds, Ferran Alet, Zach Eaton-Rosen, Weihua Hu, Alexander Merose, Stephan Hoyer, George Holland, Jacklynn Stott, Oriol Vinyals, Shakir Mohamed, Peter Battaglia(参考訳) 本稿では,機械学習(ML)に基づく天気予報シミュレータ「GraphCast」について紹介する。 GraphCastは,グラフニューラルネットワークに基づく自己回帰モデルであり,欧州中レージ気象予報センター(ECMWF)のERA5リアナリシスアーカイブからの過去の気象データをトレーニングした,新しい高解像度マルチスケールメッシュ表現である。 5つの表面変数と6つの大気変数からなる10日間の予測を、それぞれ37の垂直圧レベルで行うことができ、赤道で約25 x 25 kmの分解能に対応する0.25度緯度長経グリッドで行うことができる。 以上の結果から,評価した2760変数とリード時間の組み合わせの90.0%に対して,ECMWFの定性的操作予測システムであるHRESよりもグラフCastの方が精度が高いことがわかった。 GraphCastはまた、報告された252ターゲットの99.2%で、MLベースの天気予報モデルよりも正確である。 GraphCastは、Cloud TPU v4ハードウェア上で10日間の予測(35ギガバイトのデータ)を60秒以内に生成できる。 従来の予測方法とは異なり、MLベースの予測は、より大きく、より高品質で、より最近のデータのトレーニングによって、予測のスキルが向上する。 これらの結果は、MLによる気象モデリングを補完し改善するための重要な一歩であり、高速で正確な予測を行う新たな機会を開き、物理科学におけるMLベースのシミュレーションの実現に寄与する。

We introduce a machine-learning (ML)-based weather simulator--called "GraphCast"--which outperforms the most accurate deterministic operational medium-range weather forecasting system in the world, as well as all previous ML baselines. GraphCast is an autoregressive model, based on graph neural networks and a novel high-resolution multi-scale mesh representation, which we trained on historical weather data from the European Centre for Medium-Range Weather Forecasts (ECMWF)'s ERA5 reanalysis archive. It can make 10-day forecasts, at 6-hour time intervals, of five surface variables and six atmospheric variables, each at 37 vertical pressure levels, on a 0.25-degree latitude-longitude grid, which corresponds to roughly 25 x 25 kilometer resolution at the equator. Our results show GraphCast is more accurate than ECMWF's deterministic operational forecasting system, HRES, on 90.0% of the 2760 variable and lead time combinations we evaluated. GraphCast also outperforms the most accurate previous ML-based weather forecasting model on 99.2% of the 252 targets it reported. GraphCast can generate a 10-day forecast (35 gigabytes of data) in under 60 seconds on Cloud TPU v4 hardware. Unlike traditional forecasting methods, ML-based forecasting scales well with data: by training on bigger, higher quality, and more recent data, the skill of the forecasts can improve. Together these results represent a key step forward in complementing and improving weather modeling with ML, open new opportunities for fast, accurate forecasting, and help realize the promise of ML-based simulation in the physical sciences.
翻訳日:2022-12-27 15:37:26 公開日:2022-12-24
# 自然運転データを用いた電動スクーター事故のリスク評価と軽減

Risk assessment and mitigation of e-scooter crashes with naturalistic driving data ( http://arxiv.org/abs/2212.12660v1 )

ライセンス: Link先を確認
Avinash Prabu, Renran Tian, Stanley Chien, Lingxi Li, Yaobin Chen, Rini Sherony(参考訳) 近年,e-scooterが関与する事故が著しく増加しているが,e-scooterライダーの挙動についてはほとんど情報がない。 既存のe-scooterのクラッシュ研究のほとんどは、振り返り的なメディアレポート、緊急治療室の患者記録、クラッシュレポートに基づいている。 本稿では,e-scooterと自動車の遭遇に着目した自然主義運転研究を提案する。 目的は、衝突シナリオのモデリング、ベースラインの行動モデリング、車内緩和アルゴリズムの将来の発展を促進するために、異なる遭遇におけるeスクーターライダーの挙動を定量的に計測することである。 データは、計器式車両と電動スクーターライダーのウェアラブルシステムを用いて収集された。 3段階のデータ解析プロセスを開発する。 まず,e-scooter-rider分類器を訓練するために,e-scooterライダーイメージと非ライダヒューマンイメージを類似環境で抽出する。 そして、多段シーン復元パイプラインは、すべての遭遇において車両及び電子スクーター軌跡を生成する。 最後のステップは、eスクーターライダーの挙動とeスクーターの衝突シナリオをモデル化することである。 合計500台の車両と電動スクーターの相互作用を分析した。 本論文では,それに関連する変数についても述べる。

Recently, e-scooter-involved crashes have increased significantly but little information is available about the behaviors of on-road e-scooter riders. Most existing e-scooter crash research was based on retrospectively descriptive media reports, emergency room patient records, and crash reports. This paper presents a naturalistic driving study with a focus on e-scooter and vehicle encounters. The goal is to quantitatively measure the behaviors of e-scooter riders in different encounters to help facilitate crash scenario modeling, baseline behavior modeling, and the potential future development of in-vehicle mitigation algorithms. The data was collected using an instrumented vehicle and an e-scooter rider wearable system, respectively. A three-step data analysis process is developed. First, semi-automatic data labeling extracts e-scooter rider images and non-rider human images in similar environments to train an e-scooter-rider classifier. Then, a multi-step scene reconstruction pipeline generates vehicle and e-scooter trajectories in all encounters. The final step is to model e-scooter rider behaviors and e-scooter-vehicle encounter scenarios. A total of 500 vehicle to e-scooter interactions are analyzed. The variables pertaining to the same are also discussed in this paper.
翻訳日:2022-12-27 15:35:37 公開日:2022-12-24
# 近接操作におけるポーズ推定のための微分可能レンダリング

Differentiable Rendering for Pose Estimation in Proximity Operations ( http://arxiv.org/abs/2212.12668v1 )

ライセンス: Link先を確認
Ramchander Rao Bhaskara and Roshan Thomas Eapen and Manoranjan Majji(参考訳) 微分可能レンダリングは、レンダリングパラメータに関するレンダリング関数の導出を計算することを目的としている。 本稿では、微分可能なレンダリングパイプラインを用いた勾配最適化による6-DoFポーズ推定の新しいアルゴリズムを提案する。 1)従来の2D-3D対応問題と再投影誤差を解く代わりに、(3Dモデルを用いてレンダリングした)画像はスパース2D特徴対応によって2D特徴空間でのみ比較される。 2) 解析的画像形成モデルの代わりに, オンライン学習によるレンダリングプロセスの局所的勾配を近似的に計算する。 学習データは、ポーズ近傍の小さな摂動で多視点レンダリングから抽出された画像特徴からなる。 勾配は6-DoFポーズ推定のためのレンダリングパイプラインを介して非線形最小二乗を用いて伝搬される。 この勾配に基づく最適化は、基準画像形状を再現するために3Dモデルを調整することで、ポーズパラメータに直接回帰する。 代表実験を用いて,近接動作におけるポーズ推定へのアプローチの適用を実証する。

Differentiable rendering aims to compute the derivative of the image rendering function with respect to the rendering parameters. This paper presents a novel algorithm for 6-DoF pose estimation through gradient-based optimization using a differentiable rendering pipeline. We emphasize two key contributions: (1) instead of solving the conventional 2D to 3D correspondence problem and computing reprojection errors, images (rendered using the 3D model) are compared only in the 2D feature space via sparse 2D feature correspondences. (2) Instead of an analytical image formation model, we compute an approximate local gradient of the rendering process through online learning. The learning data consists of image features extracted from multi-viewpoint renders at small perturbations in the pose neighborhood. The gradients are propagated through the rendering pipeline for the 6-DoF pose estimation using nonlinear least squares. This gradient-based optimization regresses directly upon the pose parameters by aligning the 3D model to reproduce a reference image shape. Using representative experiments, we demonstrate the application of our approach to pose estimation in proximity operations.
翻訳日:2022-12-27 15:35:19 公開日:2022-12-24
# 意味のあるフェイクニュース検出とハイパーグラフニューラルネットワーク

Nothing Stands Alone: Relational Fake News Detection with Hypergraph Neural Networks ( http://arxiv.org/abs/2212.12621v1 )

ライセンス: Link先を確認
Ujun Jeong, Kaize Ding, Lu Cheng, Ruocheng Guo, Kai Shu, Huan Liu(参考訳) 今日では、偽ニュースは簡単にオンラインソーシャルネットワークを通じて伝播し、個人や社会にとって大きな脅威となる。 ニュースの真正性を評価することは、その精巧な内容のため困難であり、偽ニュースデータに対する大規模な注釈を得るのは難しい。 このようなデータ不足のため、偽ニュースの検出は失敗し、監督された設定では過度に適合する傾向にある。 近年,グラフニューラルネットワーク(GNN)が採用され,ラベル付きインスタンスとラベルなしインスタンスのリッチリレーショナル情報が活用されている。 有望な結果にもかかわらず、本質的にはニュース間の対関係に焦点を当てており、グループレベルで拡散する偽ニュースをキャプチャする表現力を制限することができる。 例えば、偽ニュースの検出は、脆弱なユーザー間で共有されるニュース間の関係をよりよく理解するときにより効果的である。 これらの問題に対処するために,ニュース間のグループ間相互作用を表現するためにハイパーグラフを活用することを提案する。 2つのベンチマークデータセットに基づく実験は、我々のアプローチが驚くべきパフォーマンスをもたらし、ラベル付きニュースデータのごく一部でも高いパフォーマンスを維持することを示している。

Nowadays, fake news easily propagates through online social networks and becomes a grand threat to individuals and society. Assessing the authenticity of news is challenging due to its elaborately fabricated contents, making it difficult to obtain large-scale annotations for fake news data. Due to such data scarcity issues, detecting fake news tends to fail and overfit in the supervised setting. Recently, graph neural networks (GNNs) have been adopted to leverage the richer relational information among both labeled and unlabeled instances. Despite their promising results, they are inherently focused on pairwise relations between news, which can limit the expressive power for capturing fake news that spreads in a group-level. For example, detecting fake news can be more effective when we better understand relations between news pieces shared among susceptible users. To address those issues, we propose to leverage a hypergraph to represent group-wise interaction among news, while focusing on important news relations with its dual-level attention mechanism. Experiments based on two benchmark datasets show that our approach yields remarkable performance and maintains the high performance even with a small subset of labeled news data.
翻訳日:2022-12-27 15:27:01 公開日:2022-12-24
# 構造的・意味的視点による異種ネットワーク埋め込みによる著者名曖昧化

Author Name Disambiguation via Heterogeneous Network Embedding from Structural and Semantic Perspectives ( http://arxiv.org/abs/2212.12715v1 )

ライセンス: Link先を確認
Wenjin Xie, Siyuan Liu, Xiaomeng Wang, Tao Jia(参考訳) 名前の曖昧さは、同じ名前の複数の著者など、学術的なデジタル図書館でよく見られる。 これにより、学術データ管理と分析の課題が生じ、名前の曖昧さが要求される。 名前の曖昧さの手順は、同じ名前の出版物を異なるグループに分け、それぞれ独自の著者に属している。 出版物における多くの属性情報により、伝統的手法は特徴選択の四分の一に該当する。 これらの方法は、常に人為的かつ等しく属性を選択し、通常は精度に悪影響を及ぼす。 提案手法は主に異種ネットワークとクラスタリングの表現学習に基づいており,自己認識技術を利用して問題を解決する。 出版物の提示は構造表現と意味表現の合成である。 メタパスに基づくサンプリングとスキップグラムに基づく埋め込み法により構造表現を求め、メタパスレベルの注意を導入し、各特徴の重みを自動的に学習する。 意味表現はNLPツールを使用して生成される。 提案手法は,ベースラインと比較して名前の曖昧さの精度が向上し,特徴選択による改善とメタパスレベルの注意力を示す。 実験の結果,出版物から属性を抽出し,冗長な情報の影響を低減できる新しい手法の優位性を示した。

Name ambiguity is common in academic digital libraries, such as multiple authors having the same name. This creates challenges for academic data management and analysis, thus name disambiguation becomes necessary. The procedure of name disambiguation is to divide publications with the same name into different groups, each group belonging to a unique author. A large amount of attribute information in publications makes traditional methods fall into the quagmire of feature selection. These methods always select attributes artificially and equally, which usually causes a negative impact on accuracy. The proposed method is mainly based on representation learning for heterogeneous networks and clustering and exploits the self-attention technology to solve the problem. The presentation of publications is a synthesis of structural and semantic representations. The structural representation is obtained by meta-path-based sampling and a skip-gram-based embedding method, and meta-path level attention is introduced to automatically learn the weight of each feature. The semantic representation is generated using NLP tools. Our proposal performs better in terms of name disambiguation accuracy compared with baselines and the ablation experiments demonstrate the improvement by feature selection and the meta-path level attention in our method. The experimental results show the superiority of our new method for capturing the most attributes from publications and reducing the impact of redundant information.
翻訳日:2022-12-27 15:26:42 公開日:2022-12-24
# Rank-LIME: ランク学習における局所モデルに依存しない特徴属性

Rank-LIME: Local Model-Agnostic Feature Attribution for Learning to Rank ( http://arxiv.org/abs/2212.12722v1 )

ライセンス: Link先を確認
Tanya Chowdhury, Razieh Rahimi, James Allan(参考訳) モデルがなぜ特定の予測を行うのかを理解することは、現実の意思決定に適応する上で重要である。 limeは分類と回帰のタスクで一般的なモデルに依存しない特徴帰属手法である。 しかし,情報検索におけるランク付けの課題は,分類や回帰に比べて複雑である。 本研究では,分類表の説明を生成するランク付けタスクを学習するためのモデル非依存,局所的,ポストホックな線形特徴帰属法であるrank-limeを提案する。 我々は,新しい相関に基づく摂動,微分可能なランキング損失関数を導入し,ランキングに基づく付加的特徴帰属モデルを評価するための新しい指標を導入する。 我々は、Ranc-LIMEと様々な競合システムを比較し、MS MARCOデータセットで訓練されたモデルを用いて、Ranc-LIMEがモデル忠実度や説明-NDCGの点で既存の説明アルゴリズムより優れていることを観察する。 これにより、ランキングを説明するために付加的な特徴属性を生成する最初のアルゴリズムの1つを提案する。

Understanding why a model makes certain predictions is crucial when adapting it for real world decision making. LIME is a popular model-agnostic feature attribution method for the tasks of classification and regression. However, the task of learning to rank in information retrieval is more complex in comparison with either classification or regression. In this work, we extend LIME to propose Rank-LIME, a model-agnostic, local, post-hoc linear feature attribution method for the task of learning to rank that generates explanations for ranked lists. We employ novel correlation-based perturbations, differentiable ranking loss functions and introduce new metrics to evaluate ranking based additive feature attribution models. We compare Rank-LIME with a variety of competing systems, with models trained on the MS MARCO datasets and observe that Rank-LIME outperforms existing explanation algorithms in terms of Model Fidelity and Explain-NDCG. With this we propose one of the first algorithms to generate additive feature attributions for explaining ranked lists.
翻訳日:2022-12-27 15:26:21 公開日:2022-12-24
# 多相同心ジェットの深層学習とモード分解による予測

Forecasting through deep learning and modal decomposition in multi-phase concentric jets ( http://arxiv.org/abs/2212.12731v1 )

ライセンス: Link先を確認
Le\'on Mata, Rodrigo Abad\'ia-Heredia, Manuel Lopez-Martin, Jos\'e M. P\'erez, Soledad Le Clainche(参考訳) 本研究は, 高精度かつ効率的な流体力学予測のためのニューラルネットワーク(nn)モデルを提案する。 本稿では,高次動的モード分解(hodmd)と呼ばれるモーダル分解手法を用いて,フローダイナミクス内の主構造を特定し,これら主構造のみを用いて元のフローを再構築することで,ニューラルネットワークのトレーニングを改善する方法を示す。 この再構成は元のフローと同じ数のサンプルと空間次元を持つが、より複雑なダイナミクスを持ち、主な特徴を保っている。 また,提案したNNモデルでは,トレーニングフェーズと推論フェーズの両方において,計算コストの低さを示す。 この研究の核となるアイデアは、複雑な流体力学問題におけるデータ予測へのディープラーニングモデルの適用可能性の限界をテストすることである。 モデルの一般化能力は、同じニューラルネットワークアーキテクチャを用いて、4つの異なる多相流の将来ダイナミクスを予測することで実証される。 ディープラーニングモデルのトレーニングとテストに使用されるデータセットは、これらのフローの直接数値シミュレーション(dns)によるものだ。

This work presents a set of neural network (NN) models specifically designed for accurate and efficient fluid dynamics forecasting. In this work, we show how neural networks training can be improved by reducing data complexity through a modal decomposition technique called higher order dynamic mode decomposition (HODMD), which identifies the main structures inside flow dynamics and reconstructs the original flow using only these main structures. This reconstruction has the same number of samples and spatial dimension as the original flow, but with a less complex dynamics and preserving its main features. We also show the low computational cost required by the proposed NN models, both in their training and inference phases. The core idea of this work is to test the limits of applicability of deep learning models to data forecasting in complex fluid dynamics problems. Generalization capabilities of the models are demonstrated by using the same neural network architectures to forecast the future dynamics of four different multi-phase flows. Data sets used to train and test these deep learning models come from Direct Numerical Simulations (DNS) of these flows.
翻訳日:2022-12-27 15:26:03 公開日:2022-12-24
# ブラインド透かしに向けて : 可逆と非可逆のメカニズムを組み合わせる

Towards Blind Watermarking: Combining Invertible and Non-invertible Mechanisms ( http://arxiv.org/abs/2212.12678v1 )

ライセンス: Link先を確認
Rui Ma, Mengxi Guo, Yi Hou, Fan Yang, Yuan Li, Huizhu Jia, Xiaodong Xie(参考訳) ブラインド透かしは、著作権保護、画像認証、改ざん識別の強力な証拠を提供する。 しかし,高感度で強騒音に対するロバスト性を有する透かしモデルの設計は依然として課題である。 この問題を解決するために,Invertible and Non-invertible (CIN) 機構を組み合わせたフレームワークを提案する。 CINは、高い非受容性を達成するための可逆部と、強いノイズアタックに対する堅牢性を強化する非可逆部とから構成される。 可逆部分に対しては,拡散・抽出モジュール (DEM) と融合・分割モジュール (FSM) を開発し,非可逆な方法で透かしを対称に埋め込み抽出する。 非可逆的な部分に対して,非可逆注意型モジュール (niam) と雑音固有選択モジュール (nsm) を導入し,強雑音攻撃下での非対称抽出を解消する。 広範な実験によって、我々のフレームワークは、現在のインセプティビリティとロバスト性という最先端の手法を大きく上回っていることが示されました。 我々のフレームワークは、ノイズフリー条件下で平均99.99%の精度と67.66dBのPSNRを達成でき、96.64%と39.28dBは強いノイズアタックを組み合わせている。 コードはhttps://github.com/rmpku/CINで入手できる。

Blind watermarking provides powerful evidence for copyright protection, image authentication, and tampering identification. However, it remains a challenge to design a watermarking model with high imperceptibility and robustness against strong noise attacks. To resolve this issue, we present a framework Combining the Invertible and Non-invertible (CIN) mechanisms. The CIN is composed of the invertible part to achieve high imperceptibility and the non-invertible part to strengthen the robustness against strong noise attacks. For the invertible part, we develop a diffusion and extraction module (DEM) and a fusion and split module (FSM) to embed and extract watermarks symmetrically in an invertible way. For the non-invertible part, we introduce a non-invertible attention-based module (NIAM) and the noise-specific selection module (NSM) to solve the asymmetric extraction under a strong noise attack. Extensive experiments demonstrate that our framework outperforms the current state-of-the-art methods of imperceptibility and robustness significantly. Our framework can achieve an average of 99.99% accuracy and 67.66 dB PSNR under noise-free conditions, while 96.64% and 39.28 dB combined strong noise attacks. The code will be available in https://github.com/rmpku/CIN.
翻訳日:2022-12-27 15:20:16 公開日:2022-12-24
# GraffMatch: 広域ベースラインLiDAR登録のための3次元ラインと平面のグローバルマッチング

GraffMatch: Global Matching of 3D Lines and Planes for Wide Baseline LiDAR Registration ( http://arxiv.org/abs/2212.12745v1 )

ライセンス: Link先を確認
Parker C. Lusk, Devarth Parikh, Jonathan P. How(参考訳) 線や平面のような幾何学的ランドマークを使用することで、一般的なlidarポイントクラウドマップと比較して、ナビゲーション精度を高め、マップストレージ要件を低減できる。 しかし、ループクロージャ検出のようなアプリケーションに対するランドマークベースの登録は、信頼できる初期推測ができないため困難である。 グローバルなランドマークマッチングは文献で研究されているが、これらの手法は典型的に3次元線と平面のランドマークのアドホック表現を用いており、これは大きな視点の変化に不変ではない。 この問題に対処するために,アフィン・グラスマン多様体を用いて3次元直線と平面を表現し,グラスマン計量を適用する前にシフト操作を行った場合,二つのランドマーク間の距離が回転と変換に不変であることを証明する。 この不変性により、グラフベースのデータアソシエーションフレームワークを使用して、最小二乗の意味で登録に使用できるランドマークマッチを特定できる。 lidarデータセットを用いた難易度の高いランドマークマッチングと登録タスクで評価することで,視点依存型セントラ表現と「最接近点」表現を用いた手法と比較して,成功度が1.7倍と3.5倍向上した。

Using geometric landmarks like lines and planes can increase navigation accuracy and decrease map storage requirements compared to commonly-used LiDAR point cloud maps. However, landmark-based registration for applications like loop closure detection is challenging because a reliable initial guess is not available. Global landmark matching has been investigated in the literature, but these methods typically use ad hoc representations of 3D line and plane landmarks that are not invariant to large viewpoint changes, resulting in incorrect matches and high registration error. To address this issue, we adopt the affine Grassmannian manifold to represent 3D lines and planes and prove that the distance between two landmarks is invariant to rotation and translation if a shift operation is performed before applying the Grassmannian metric. This invariance property enables the use of our graph-based data association framework for identifying landmark matches that can subsequently be used for registration in the least-squares sense. Evaluated on a challenging landmark matching and registration task using publicly-available LiDAR datasets, our approach yields a 1.7x and 3.5x improvement in successful registrations compared to methods that use viewpoint-dependent centroid and "closest point" representations, respectively.
翻訳日:2022-12-27 15:19:52 公開日:2022-12-24
# 構造MRIを用いた5年間にわたる晩期抑うつの認知診断のためのハイブリッド表現学習

Hybrid Representation Learning for Cognitive Diagnosis in Late-Life Depression Over 5 Years with Structural MRI ( http://arxiv.org/abs/2212.12810v1 )

ライセンス: Link先を確認
Lintao Zhang, Lihong Wang, Minhui Yu, Rong Wu, David C. Steffens, Guy G. Potter, Mingxia Liu(参考訳) 後期うつ病 (late-life depression, lld) は、高齢者に発症する高頻度の気分障害であり、認知障害 (ci) を伴うことが多い。 研究によると、LDDはアルツハイマー病(AD)のリスクを高める可能性がある。 しかし、老年期うつ病の呈示の多様性は、複数の生物学的メカニズムがそれを支える可能性があることを示唆している。 LLD進行に関する現在の生物学的研究は、神経画像データと臨床観察を組み合わせた機械学習を取り入れている。 構造的mri(smri)に基づくlldにおけるインシデント認知診断結果に関する研究は少ない。 本稿では,T1重み付きsMRIデータに基づいて,認知診断を5年以上にわたって予測するハイブリッド表現学習(HRL)フレームワークの開発について述べる。 具体的には,まず,深層ニューラルネットワークを用いて予測指向のmri特徴を抽出し,認知診断予測のためのトランスコーダを介して手作りのmri特徴と統合する。 本研究の課題は,(1)認知正常な被験者と,(2)認知正常な高齢者の識別,(2)CI(あるいはAD)を発症したLDDと,5年以上認知正常な被験者の識別,の2つである。 我々の知る限り、これはタスク指向および手作りMRIの特徴に基づくLDDの複雑な異種進行を研究する最初の試みの1つである。 臨床的に調和した2つの研究から,T1強調MRI294例についてHRLを検証した。 実験の結果,HRLはLDD識別および予測タスクにおいて,古典的な機械学習や最先端のディープラーニング手法よりも優れていたことが示唆された。

Late-life depression (LLD) is a highly prevalent mood disorder occurring in older adults and is frequently accompanied by cognitive impairment (CI). Studies have shown that LLD may increase the risk of Alzheimer's disease (AD). However, the heterogeneity of presentation of geriatric depression suggests that multiple biological mechanisms may underlie it. Current biological research on LLD progression incorporates machine learning that combines neuroimaging data with clinical observations. There are few studies on incident cognitive diagnostic outcomes in LLD based on structural MRI (sMRI). In this paper, we describe the development of a hybrid representation learning (HRL) framework for predicting cognitive diagnosis over 5 years based on T1-weighted sMRI data. Specifically, we first extract prediction-oriented MRI features via a deep neural network, and then integrate them with handcrafted MRI features via a Transformer encoder for cognitive diagnosis prediction. Two tasks are investigated in this work, including (1) identifying cognitively normal subjects with LLD and never-depressed older healthy subjects, and (2) identifying LLD subjects who developed CI (or even AD) and those who stayed cognitively normal over five years. To the best of our knowledge, this is among the first attempts to study the complex heterogeneous progression of LLD based on task-oriented and handcrafted MRI features. We validate the proposed HRL on 294 subjects with T1-weighted MRIs from two clinically harmonized studies. Experimental results suggest that the HRL outperforms several classical machine learning and state-of-the-art deep learning methods in LLD identification and prediction tasks.
翻訳日:2022-12-27 15:19:30 公開日:2022-12-24
# ディープラーニング技術による株式市場予測:調査

Stock Market Prediction via Deep Learning Techniques: A Survey ( http://arxiv.org/abs/2212.12717v1 )

ライセンス: Link先を確認
Jinan Zou, Qingying Zhao, Yang Jiao, Haiyao Cao, Yanxi Liu, Qingsen Yan, Ehsan Abbasnejad, Lingqiao Liu, Javen Qinfeng Shi(参考訳) 株式市場の予測は、非線形、高揮発性、複雑な性質のため、様々な研究分野やアプリケーションドメインで研究されている伝統的で複雑な問題である。 株式市場の予測に関する既存の調査は、ディープラーニングの手法ではなく、伝統的な機械学習手法に重点を置いていることが多い。 ディープラーニングは多くのドメインを支配し、近年株式市場の予測で大きな成功を収め、人気を得た。 これは、深層学習技術に焦点を当てた株式市場予測研究の構造化され包括的な概要を提供する動機となっている。 本稿では,2011年から2022年までの深層ニューラルネットワークに基づく最先端のモデルを要約する新しい分類法を提案する。 さらに、株式市場でよく使われるデータセットと評価指標に関する詳細な統計情報も提供します。 最後に,公開課題を浮き彫りにして,株式市場予測に関する新たな視点を提示することで,今後の方向性を指摘する。

The stock market prediction has been a traditional yet complex problem researched within diverse research areas and application domains due to its non-linear, highly volatile and complex nature. Existing surveys on stock market prediction often focus on traditional machine learning methods instead of deep learning methods. Deep learning has dominated many domains, gained much success and popularity in recent years in stock market prediction. This motivates us to provide a structured and comprehensive overview of the research on stock market prediction focusing on deep learning techniques. We present four elaborated subtasks of stock market prediction and propose a novel taxonomy to summarize the state-of-the-art models based on deep neural networks from 2011 to 2022. In addition, we also provide detailed statistics on the datasets and evaluation metrics commonly used in the stock market. Finally, we highlight some open issues and point out several future directions by sharing some new perspectives on stock market prediction.
翻訳日:2022-12-27 15:09:59 公開日:2022-12-24
# エージェントによる人体筋のモデリングとシミュレーションによる歩行分析ソフトウェアの開発

Agent-based Modeling and Simulation of Human Muscle For Development of Software to Analyze the Human Gait ( http://arxiv.org/abs/2212.12760v1 )

ライセンス: Link先を確認
Sina Saadati, Mohammadreza Razzazi(参考訳) 本研究では,人間の運動の分析に使用できる筋のエージェントモデルを提案する。 このモデルは筋の生理学的構造に基づいて設計されているため、シミュレーション計算は自然であり、また逆工学的手法を用いて人間の運動を分析することも可能である。 モデルは、ニューラルネットワークアルゴリズムのような他の機械学習モデルよりも少ないので、現代の義肢で使用するのに適した選択であり、アルゴリズムがバッテリフレンドリーになる。 また、リバースエンジニアリングソリューションを用いて歩行周期における人間の筋肉の強度を計算する方法も考案する。 Bootsと呼ばれるアルゴリズムはいくつかの最適化方法とは異なるため、関節内のアゴニスト筋とアゴニスト筋の両方の活動を計算することができる。 その結果、人間の筋肉とブースのアルゴリズムをエージェントベースでモデル化することで、筋電図のような痛みを伴う手法を使わずに歩行周期中の角変位に基づいて人間の下肢筋の神経刺激を計算するソフトウェアを開発することができる。 このアプリケーションをオープンソースソフトウェアとして開発することで、医学やバイオメカニクスの分野で研究している研究者や医師を支援したいと考えています。

In this research, we are about to present an agentbased model of human muscle which can be used in analysis of human movement. As the model is designed based on the physiological structure of the muscle, The simulation calculations would be natural, and also, It can be possible to analyze human movement using reverse engineering methods. The model is also a suitable choice to be used in modern prostheses, because the calculation of the model is less than other machine learning models such as artificial neural network algorithms and It makes our algorithm battery-friendly. We will also devise a method that can calculate the intensity of human muscle during gait cycle using a reverse engineering solution. The algorithm called Boots is different from some optimization methods, so It would be able to compute the activities of both agonist and antagonist muscles in a joint. As a consequence, By having an agent-based model of human muscle and Boots algorithm, We would be capable to develop software that can calculate the nervous stimulation of human's lower body muscle based on the angular displacement during gait cycle without using painful methods like electromyography. By developing the application as open-source software, We are hopeful to help researchers and physicians who are studying in medical and biomechanical fields.
翻訳日:2022-12-27 15:09:49 公開日:2022-12-24
# 長期的な自律化に向けて:ロボット学習の展望

Towards Long-term Autonomy: A Perspective from Robot Learning ( http://arxiv.org/abs/2212.12798v1 )

ライセンス: Link先を確認
Zhi Yan, Li Sun, Tomas Krajnik, Tom Duckett, Nicola Bellotto(参考訳) 将来的には、サービスロボットは人間の介入なしに長時間自律的に運用できるようになることが期待されている。 この目標を達成するための多くの努力が、ハードウェアとソフトウェアの両方のロボティクスの開発で浮かび上がっている。 今日では、長期的なロボットの自律性の重要な基盤は、ロボットが現場や現場で学べること、特に環境の変化や異なる環境を横切る必要があるときだと考えている。 本稿では,ロボット学習,特にオンライン学習の観点から長期的自律性の問題について考察し,その前提である「データ」とその後の「展開」について考察する。

In the future, service robots are expected to be able to operate autonomously for long periods of time without human intervention. Many work striving for this goal have been emerging with the development of robotics, both hardware and software. Today we believe that an important underpinning of long-term robot autonomy is the ability of robots to learn on site and on-the-fly, especially when they are deployed in changing environments or need to traverse different environments. In this paper, we examine the problem of long-term autonomy from the perspective of robot learning, especially in an online way, and discuss in tandem its premise "data" and the subsequent "deployment".
翻訳日:2022-12-27 15:09:28 公開日:2022-12-24
# 協調車両安全システムのためのハイブリッドガウスプロセス予測を用いたコンテキストアウェアターゲット分類

Context-Aware Target Classification with Hybrid Gaussian Process prediction for Cooperative Vehicle Safety systems ( http://arxiv.org/abs/2212.12819v1 )

ライセンス: Link先を確認
Rodolfo Valiente, Arash Raftari, Hossein Nourkhiz Mahjoub, Mahdi Razzaghpour, Syed K. Mahmud, Yaser P. Fallah(参考訳) 車両間通信(v2x)は、非視線センシングの障壁を解消し、協調性を改善し、自動運転車の堅牢性と安全性を改善する潜在的な解決策として提案されている。 協調車両安全 (cvs) の応用は下層データシステムの信頼性に強く依存しており、センサの故障や密集した通信チャネル負荷下でのv2x技術の性能低下など、それぞれのコンポーネントの固有の問題による情報の喪失に苦しむ可能性がある。 特に、情報損失はターゲット分類モジュールに影響を及ぼし、その後、安全アプリケーションの性能が向上する。 情報損失を緩和する信頼性が高く堅牢なCVSシステムを実現するために,CVSシステムのためのハイブリッド学習に基づく予測モデリング技術と組み合わせたコンテキスト認識ターゲット分類(CA-TC)モジュールを提案する。 CA-TCは、コンテキスト認識マップ(CAM)とハイブリッドガウスプロセス(HGP)予測システムという2つのモジュールで構成されている。 その結果、車両安全アプリケーションはCA-TCからの情報を利用でき、より堅牢で信頼性が高い。 CAMは、車両の経路履歴、道路形状、追跡、予測を利用し、HGPは正確な車両の軌道予測を提供することで、データ損失(通信渋滞による)やセンサー測定の不正確さを補う。 オフライン実世界のデータに基づいて,車両の協調ダイナミクスと運転者の行動を表す有限バンクのドライバモデルについて学習する。 オフライントレーニングとオンラインモデルの更新をオンザフライ予測と組み合わせて、新たなドライバー行動の可能性を考慮します。 最後に,シミュレーションと現実的な運転シナリオを用いて,cvsシステムのロバスト性と信頼性向上の可能性を確認する。

Vehicle-to-Everything (V2X) communication has been proposed as a potential solution to improve the robustness and safety of autonomous vehicles by improving coordination and removing the barrier of non-line-of-sight sensing. Cooperative Vehicle Safety (CVS) applications are tightly dependent on the reliability of the underneath data system, which can suffer from loss of information due to the inherent issues of their different components, such as sensors failures or the poor performance of V2X technologies under dense communication channel load. Particularly, information loss affects the target classification module and, subsequently, the safety application performance. To enable reliable and robust CVS systems that mitigate the effect of information loss, we proposed a Context-Aware Target Classification (CA-TC) module coupled with a hybrid learning-based predictive modeling technique for CVS systems. The CA-TC consists of two modules: A Context-Aware Map (CAM), and a Hybrid Gaussian Process (HGP) prediction system. Consequently, the vehicle safety applications use the information from the CA-TC, making them more robust and reliable. The CAM leverages vehicles path history, road geometry, tracking, and prediction; and the HGP is utilized to provide accurate vehicles' trajectory predictions to compensate for data loss (due to communication congestion) or sensor measurements' inaccuracies. Based on offline real-world data, we learn a finite bank of driver models that represent the joint dynamics of the vehicle and the drivers' behavior. We combine offline training and online model updates with on-the-fly forecasting to account for new possible driver behaviors. Finally, our framework is validated using simulation and realistic driving scenarios to confirm its potential in enhancing the robustness and reliability of CVS systems.
翻訳日:2022-12-27 15:09:16 公開日:2022-12-24
# 人間の認知と文化の熱力学の開発

Development of a Thermodynamics of Human Cognition and Human Culture ( http://arxiv.org/abs/2212.12795v1 )

ライセンス: Link先を確認
Diederik Aerts, Jonito Aerts Argu\"elles, Lester Beltran and Sandro Sozzo(参考訳) 古典・量子物理学における基礎研究や、量子情報理論における情報検索研究に着想を得て、最近では「エネルギー」や「エントロピー」の概念が、人間の言語やより一般に人間の文化に一貫して導入できることを実証した。 より明確に言えば、もしエネルギーがテキストの出現頻度に応じて単語に起因しているなら、それに続くエネルギーレベルは非古典的に分布し、すなわちマックスウェル=ボルツマン(Maxwell-Boltzmann)ではなくボース=アインシュタインに従う。 第二に、意味の持ち方による「量子絡み合い」は、古典的な(熱力学や情報)エントロピーでは説明できない振る舞いである文中に現れる単語の(ヴォン・ノイマンの)エントロピーを減少させる。 ここでは、この「量子型行動は一般に人間の認知において有効である」、すなわち、任意のテキストは、それを構成する単語よりも概念的に具体的であり、全体のテキストのエントロピーが減少する。 この結果は、その構成要素よりもエントロピーが低い人間の文化とその協力的な実体に長引くことができる。 これらの知見を応用して、概念と量子実体を橋渡しし、量子実体の概念的、物理的、性質に関する最近の知見に一致する新しい「人間の認知と人間の文化のための非古典的熱力学理論」の開発を提案する。

Inspired by foundational studies in classical and quantum physics, and by information retrieval studies in quantum information theory, we have recently proved that the notions of 'energy' and 'entropy' can be consistently introduced in human language and, more generally, in human culture. More explicitly, if energy is attributed to words according to their frequency of appearance in a text, then the ensuing energy levels are distributed non-classically, namely, they obey Bose-Einstein, rather than Maxwell-Boltzmann, statistics, as a consequence of the genuinely 'quantum indistinguishability' of the words that appear in the text. Secondly, the 'quantum entanglement' due to the way meaning is carried by a text reduces the (von Neumann) entropy of the words that appear in the text, a behaviour which cannot be explained within classical (thermodynamic or information) entropy. We claim here that this 'quantum-type behaviour is valid in general in human cognition', namely, any text is conceptually more concrete than the words composing it, which entails that the entropy of the overall text decreases. This result can be prolonged to human culture and its collaborative entities having lower entropy than their constituent elements. We use these findings to propose the development of a new 'non-classical thermodynamic theory for human cognition and human culture', which bridges concepts and quantum entities and agrees with some recent findings on the conceptual, not physical, nature of quantum entities.
翻訳日:2022-12-27 15:08:46 公開日:2022-12-24
# t2-gnn: 先生・スチューデント蒸留による不完全特徴と構造を有するグラフ用ニューラルネットワーク

T2-GNN: Graph Neural Networks for Graphs with Incomplete Features and Structure via Teacher-Student Distillation ( http://arxiv.org/abs/2212.12738v1 )

ライセンス: Link先を確認
Cuiying Huo, Di Jin, Yawen Li, Dongxiao He, Yu-Bin Yang and Lingfei Wu(参考訳) グラフニューラルネットワーク(GNN)は,様々な解析タスクをグラフデータ上で処理する手法として普及している。 GNNの顕著な性能のための重要な前提は、完全かつ信頼性の高い初期グラフ記述(すなわちノードの特徴とグラフ構造)に依存しており、現実のグラフは避けられない様々な要因のためにしばしば不完全であるため、しばしば満足されない。 特に、ノードの特徴とグラフ構造が同時に不完全である場合、GNNはより大きな課題に直面します。 既存のメソッドは機能補完か構造完成に重点を置いています。 それらは通常、特徴と構造の間のマッチング関係に依存するか、相互利益を達成するためにノード表現と特徴(または構造)の完成の合同学習を利用する。 しかし,近年の研究では,特徴と構造間の相互干渉がGNN性能の低下につながることが確認されている。 特徴と構造の両方が不完全である場合、ランダム性の欠如によって生じる特徴と構造の間のミスマッチは両者の干渉を悪化させ、ノード表現に悪影響を及ぼす誤った完了を引き起こす可能性がある。 そこで本研究では,教師による蒸留に基づく汎用的なGNNフレームワークを提案し,不完全グラフ,すなわちT2-GNNの性能を向上させる。 特徴と構造の間の干渉を避けるため,我々は,蒸留による学生モデル(GCNなどベースGNN)のターゲットガイダンスを提供するために,特徴レベルと構造レベルの教師モデルを別々に設計する。 そこで我々は,よく訓練された特徴と構造的教師を得るための2つのパーソナライズされた手法を設計する。 また,教師モデルの知識が学生モデルに包括的かつ効果的に蒸留されることを保証するため,学生ができるだけ多くの専門知識を習得できるように,二重蒸留方式を提案する。

Graph Neural Networks (GNNs) have been a prevailing technique for tackling various analysis tasks on graph data. A key premise for the remarkable performance of GNNs relies on complete and trustworthy initial graph descriptions (i.e., node features and graph structure), which is often not satisfied since real-world graphs are often incomplete due to various unavoidable factors. In particular, GNNs face greater challenges when both node features and graph structure are incomplete at the same time. The existing methods either focus on feature completion or structure completion. They usually rely on the matching relationship between features and structure, or employ joint learning of node representation and feature (or structure) completion in the hope of achieving mutual benefit. However, recent studies confirm that the mutual interference between features and structure leads to the degradation of GNN performance. When both features and structure are incomplete, the mismatch between features and structure caused by the missing randomness exacerbates the interference between the two, which may trigger incorrect completions that negatively affect node representation. To this end, in this paper we propose a general GNN framework based on teacher-student distillation to improve the performance of GNNs on incomplete graphs, namely T2-GNN. To avoid the interference between features and structure, we separately design feature-level and structure-level teacher models to provide targeted guidance for student model (base GNNs, such as GCN) through distillation. Then we design two personalized methods to obtain well-trained feature and structure teachers. To ensure that the knowledge of the teacher model is comprehensively and effectively distilled to the student model, we further propose a dual distillation mode to enable the student to acquire as much expert knowledge as possible.
翻訳日:2022-12-27 15:02:27 公開日:2022-12-24
# 崩壊データ再構成のためのベイジアンロバスト回帰法

A Bayesian Robust Regression Method for Corrupted Data Reconstruction ( http://arxiv.org/abs/2212.12787v1 )

ライセンス: Link先を確認
Fan Zheyi, Li Zhaohui, Wang Jingyan, Xiong Xiao, Hu Qingpei(参考訳) ノイズやデータ破損が広範囲に存在するため、劣化した応答変数の一定割合で真の回帰パラメータを回復することが重要な課題である。 この問題を克服する手法は、しばしばロバストな最小二乗回帰を伴うが、厳しい適応的敵攻撃に直面した場合、うまく機能する手法はほとんどない。 多くのアプリケーションでは、過去のデータや工学的経験から事前知識が利用でき、事前情報を堅牢な回帰法に組み込むことで、適応的敵攻撃に抵抗できる効果的な堅牢な回帰法を開発する。 まず,適応型逆攻撃に直面する際のブレークポイントを改善する新しいtripアルゴリズムを提案する。 そこで, よりロバストなBRHT (robust Bayesian Reweighting regression via Hard Thresholding) アルゴリズムを構築するためにベイズ再重み付け(Bayesian Reweighting)というアイデアを用いた。 我々は,提案アルゴリズムの理論的収束性を軽度条件下で証明し,様々な種類のデータセット攻撃において,我々のアルゴリズムが他のベンチマークよりも優れていることを示す。 最後に,我々の手法を,宇宙太陽アレイを含む実世界のアプリケーションにおけるデータリカバリ問題に適用し,その適用性を示す。

Because of the widespread existence of noise and data corruption, recovering the true regression parameters with a certain proportion of corrupted response variables is an essential task. Methods to overcome this problem often involve robust least-squares regression, but few methods perform well when confronted with severe adaptive adversarial attacks. In many applications, prior knowledge is often available from historical data or engineering experience, and by incorporating prior information into a robust regression method, we develop an effective robust regression method that can resist adaptive adversarial attacks. First, we propose the novel TRIP (hard Thresholding approach to Robust regression with sImple Prior) algorithm, which improves the breakdown point when facing adaptive adversarial attacks. Then, to improve the robustness and reduce the estimation error caused by the inclusion of priors, we use the idea of Bayesian reweighting to construct the more robust BRHT (robust Bayesian Reweighting regression via Hard Thresholding) algorithm. We prove the theoretical convergence of the proposed algorithms under mild conditions, and extensive experiments show that under different types of dataset attacks, our algorithms outperform other benchmark ones. Finally, we apply our methods to a data-recovery problem in a real-world application involving a space solar array, demonstrating their good applicability.
翻訳日:2022-12-27 15:01:57 公開日:2022-12-24
# カリキュラムによるシングルタスクrlの複雑性向上の理解

Understanding the Complexity Gains of Single-Task RL with a Curriculum ( http://arxiv.org/abs/2212.12809v1 )

ライセンス: Link先を確認
Qiyang Li, Yuexiang Zhai, Yi Ma, Sergey Levine(参考訳) 強化学習 (Reinforcement Learning, RL) の問題は, 十分な報奨がなければ難しい。 証明可能なRL法に関する先行研究は、一般的にこの問題に専用の探索戦略で対処することを提案している。 しかし、この課題に取り組む別の方法は、タスク空間が興味深いタスクだけでなく、暗黙的にカリキュラムとして機能する簡単なタスクを含むマルチタスクrl問題として再編成することである。 このような改革により、既存のマルチタスクRLメソッドをスクラッチから1つの課題を解決するためのより効率的な代替手段として実行することが可能となる。 本研究では,単タスクrl問題をカリキュラムで定義されたマルチタスクrl問題として再構成する理論的枠組みを提案する。 カリキュラムの厳密な規則性条件下では、マルチタスクRL問題における各タスクの逐次的解決は、明確な探索ボーナスや探索戦略を伴わずに、元の単一タスク問題の解決よりも計算的に効率的であることを示す。 また, シミュレーションロボットタスクにおけるカリキュラム学習を高速化する効果的な実践的学習アルゴリズムに, 理論的洞察を変換できることを示した。

Reinforcement learning (RL) problems can be challenging without well-shaped rewards. Prior work on provably efficient RL methods generally proposes to address this issue with dedicated exploration strategies. However, another way to tackle this challenge is to reformulate it as a multi-task RL problem, where the task space contains not only the challenging task of interest but also easier tasks that implicitly function as a curriculum. Such a reformulation opens up the possibility of running existing multi-task RL methods as a more efficient alternative to solving a single challenging task from scratch. In this work, we provide a theoretical framework that reformulates a single-task RL problem as a multi-task RL problem defined by a curriculum. Under mild regularity conditions on the curriculum, we show that sequentially solving each task in the multi-task RL problem is more computationally efficient than solving the original single-task problem, without any explicit exploration bonuses or other exploration strategies. We also show that our theoretical insights can be translated into an effective practical learning algorithm that can accelerate curriculum learning on simulated robotic tasks.
翻訳日:2022-12-27 15:01:31 公開日:2022-12-24
# vc次元における最大二次サイズラベル付きサンプル圧縮スキーム

A Labelled Sample Compression Scheme of Size at Most Quadratic in the VC Dimension ( http://arxiv.org/abs/2212.12631v1 )

ライセンス: Link先を確認
Farnam Mansouri and Sandra Zilles(参考訳) 本稿では,任意の有限概念クラスに対して,サイズ$O(\VCD^2)$の固有かつ安定なラベル付きサンプル圧縮スキームを構築し,その場合,$\VCD$はVapnik-Chervonenkis次元を表す。 この構成は、再帰的教育次元(recursive teaching dimension)と呼ばれる有名な機械教育モデルに基づいている。 これにより、サンプル圧縮スキーム(moran と yehudayoff による)のサイズで現在知られている範囲を大幅に改善し、これは$\vcd$ で指数関数的である。 サンプル圧縮スキームの最小サイズが$o(\vcd)$であるかどうかという長年の疑問はまだ解決されていないが、機械教育の研究は、このオープン問題の研究にとって有望な道筋であることを示している。 機械教育とサンプル圧縮の強い結びつきの証拠として,Kirkpatrickらによって導入された非クラッチ学習のモデルは,安定なサンプル圧縮スキームのサイズに基づく非自明な下限を定義するために利用できることを示す。

This paper presents a construction of a proper and stable labelled sample compression scheme of size $O(\VCD^2)$ for any finite concept class, where $\VCD$ denotes the Vapnik-Chervonenkis Dimension. The construction is based on a well-known model of machine teaching, referred to as recursive teaching dimension. This substantially improves on the currently best known bound on the size of sample compression schemes (due to Moran and Yehudayoff), which is exponential in $\VCD$. The long-standing open question whether the smallest size of a sample compression scheme is in $O(\VCD)$ remains unresolved, but our results show that research on machine teaching is a promising avenue for the study of this open problem. As further evidence of the strong connections between machine teaching and sample compression, we prove that the model of no-clash teaching, introduced by Kirkpatrick et al., can be used to define a non-trivial lower bound on the size of stable sample compression schemes.
翻訳日:2022-12-27 14:51:12 公開日:2022-12-24
# 変分推論による情報ボトルネックの可視化

Visualizing Information Bottleneck through Variational Inference ( http://arxiv.org/abs/2212.12667v1 )

ライセンス: Link先を確認
Cipta Herwana and Abhishek Kadian(参考訳) 情報ボトルネック理論は、ほぼ最小限の統計量を見つけるための理論的および計算的枠組みを提供する。 玩具問題におけるニューラルネットワークの確率的勾配降下訓練(SGD)の解析により, 適合性と圧縮の2つの相の存在が確認された。 本研究では,mnist分類における深層ニューラルネットワークのsgdトレーニングプロセスを分析し,sgdトレーニングの2つのフェーズの存在を確認した。 また,変動推論による深層ニューラルネットワークの相互情報を推定するためのセットアップを提案する。

The Information Bottleneck theory provides a theoretical and computational framework for finding approximate minimum sufficient statistics. Analysis of the Stochastic Gradient Descent (SGD) training of a neural network on a toy problem has shown the existence of two phases, fitting and compression. In this work, we analyze the SGD training process of a Deep Neural Network on MNIST classification and confirm the existence of two phases of SGD training. We also propose a setup for estimating the mutual information for a Deep Neural Network through Variational Inference.
翻訳日:2022-12-27 14:50:52 公開日:2022-12-24
# グラフニューラルネットワークにおける情報ゲイン比を用いたグラフ構造解析

Multi-duplicated Characterization of Graph Structures using Information Gain Ratio for Graph Neural Networks ( http://arxiv.org/abs/2212.12691v1 )

ライセンス: Link先を確認
Y. Oishi and K. kaneiwa(参考訳) グラフデータの機械学習におけるノード分類タスクを解決するために、様々なグラフニューラルネットワーク(gnns)が提案されている。 gnnは隣接ノードの特徴を集約することでグラフデータの構造情報を利用する。 しかし、それらは構造情報の直接的特徴付けと活用に失敗する。 本稿では,GNN(MSI-GNN)における情報ゲイン比(IGR)を用いて,グラフデータの構造情報としてiホップ隣接行列を用いてノード分類の性能を向上させるグラフ構造の多重結合特性を提案する。 MSI-GNNでは、iホップ隣接行列は2つの方法で適応的に調整される。 (i)igrに基づいてマトリックスの構造的特徴を選定し、 (ii)選択された特徴 (i)各ノードの複製と結合を柔軟に行う。 MSI-GNNがGCN, H2GCN, GCNIIをベンチマークグラフデータセットの平均精度で上回ることを示す。

Various graph neural networks (GNNs) have been proposed to solve node classification tasks in machine learning for graph data. GNNs use the structural information of graph data by aggregating the features of neighboring nodes. However, they fail to directly characterize and leverage the structural information. In this paper, we propose multi-duplicated characterization of graph structures using information gain ratio (IGR) for GNNs (MSI-GNN), which enhances the performance of node classification by using an i-hop adjacency matrix as the structural information of the graph data. In MSI-GNN, the i-hop adjacency matrix is adaptively adjusted by two methods: (i) structural features in the matrix are selected based on the IGR, and (ii) the selected features in (i) for each node are duplicated and combined flexibly. In an experiment, we show that our MSI-GNN outperforms GCN, H2GCN, and GCNII in terms of average accuracies in benchmark graph datasets.
翻訳日:2022-12-27 14:50:44 公開日:2022-12-24
# 経時的安定な非定常環境に対する適応的深部RL法

An Adaptive Deep RL Method for Non-Stationary Environments with Piecewise Stable Context ( http://arxiv.org/abs/2212.12735v1 )

ライセンス: Link先を確認
Xiaoyu Chen, Xiangming Zhu, Yufeng Zheng, Pushi Zhang, Li Zhao, Wenxue Cheng, Peng Cheng, Yongqiang Xiong, Tao Qin, Jianyu Chen, Tie-Yan Liu(参考訳) 実世界のアプリケーションにRLをデプロイする上で重要な課題の1つは、ロボットタスクにおける地形の変化や渋滞制御における帯域幅の変化など、未知の環境コンテキストに適応することである。 未知の環境コンテキストへの適応に関する既存の作業は、コンテキストが全エピソードで同じであると仮定するか、コンテキスト変数がマルコフ的であると仮定するかのいずれかである。 しかし、現実の多くのアプリケーションでは、環境コンテキストは確率的な期間安定し、エピソード内で突然かつ予測不可能な方法で変化し、結果としてセグメント構造となり、既存の作業には対処できない。 本稿では,実世界のアプリケーションにおいて分割安定なコンテキストのセグメント構造を利用するために, \textit{\textbf{se}gmented \textbf{c}ontext \textbf{b}elief \textbf{a}ugmented \textbf{d}eep~(secbad)} rl法を提案する。 提案手法は,潜在コンテキスト上の信念分布と後方セグメント長とを共同で推定し,現在のコンテキストセグメント内の観測データによるより正確な信念コンテキスト推論を行う。 推論された信念のコンテキストは、状態の強化に利用され、コンテキストの突然の変動に適応できるポリシに繋がる。 我々は, secbad が, トイグリッドの世界環境やmujuco タスクにおいて, コンテキストセグメント長を精度良く推定し, 既存の手法よりも優れることを示す。

One of the key challenges in deploying RL to real-world applications is to adapt to variations of unknown environment contexts, such as changing terrains in robotic tasks and fluctuated bandwidth in congestion control. Existing works on adaptation to unknown environment contexts either assume the contexts are the same for the whole episode or assume the context variables are Markovian. However, in many real-world applications, the environment context usually stays stable for a stochastic period and then changes in an abrupt and unpredictable manner within an episode, resulting in a segment structure, which existing works fail to address. To leverage the segment structure of piecewise stable context in real-world applications, in this paper, we propose a \textit{\textbf{Se}gmented \textbf{C}ontext \textbf{B}elief \textbf{A}ugmented \textbf{D}eep~(SeCBAD)} RL method. Our method can jointly infer the belief distribution over latent context with the posterior over segment length and perform more accurate belief context inference with observed data within the current context segment. The inferred belief context can be leveraged to augment the state, leading to a policy that can adapt to abrupt variations in context. We demonstrate empirically that SeCBAD can infer context segment length accurately and outperform existing methods on a toy grid world environment and Mujuco tasks with piecewise-stable context.
翻訳日:2022-12-27 14:50:30 公開日:2022-12-24
# 超球面量子化:より小さく正確なモデルを目指して

Hyperspherical Quantization: Toward Smaller and More Accurate Models ( http://arxiv.org/abs/2212.12653v1 )

ライセンス: Link先を確認
Dan Liu, Xi Chen, Chen Ma, Xue Liu(参考訳) モデル量子化は、リソース制約されたデバイス下でのディープニューラルネットワークの展開を可能にする。 ベクトル量子化は、モデルウェイトを完全精度の埋め込み、すなわちコードワードでインデックス化することで、モデルサイズを減らすことを目的としている。 バイナリや他の低精度量子化法は、モデルのサイズを32$\times$まで削減できるが、かなりの精度低下を犠牲にすることができる。 本稿では,より小さく,より正確な圧縮モデルを生成するための,三元量子化のための効率的な枠組みを提案する。 球面学習,プルーニング,再初期化を統合することで,超球面量子化(HQ)法は,3次量子化時の直線スルー勾配推定器の偏差を低減し,全精度と3次重みの間の余弦距離を低減させる。 同様の圧縮レベル($$$30$\times$、$$$$sim$40$\times$)での既存の作業と比較すると、本手法はテスト精度を大幅に改善し、モデルサイズを小さくする。

Model quantization enables the deployment of deep neural networks under resource-constrained devices. Vector quantization aims at reducing the model size by indexing model weights with full-precision embeddings, i.e., codewords, while the index needs to be restored to 32-bit during computation. Binary and other low-precision quantization methods can reduce the model size up to 32$\times$, however, at the cost of a considerable accuracy drop. In this paper, we propose an efficient framework for ternary quantization to produce smaller and more accurate compressed models. By integrating hyperspherical learning, pruning and reinitialization, our proposed Hyperspherical Quantization (HQ) method reduces the cosine distance between the full-precision and ternary weights, thus reducing the bias of the straight-through gradient estimator during ternary quantization. Compared with existing work at similar compression levels ($\sim$30$\times$, $\sim$40$\times$), our method significantly improves the test accuracy and reduces the model size.
翻訳日:2022-12-27 14:35:47 公開日:2022-12-24
# MURPHY : 外科的ワークフロー分析における課題

MURPHY: Relations Matter in Surgical Workflow Analysis ( http://arxiv.org/abs/2212.12719v1 )

ライセンス: Link先を確認
Shang Zhao, Yanzhe Liu, Qiyuan Wang, Dai Sun, Rong Liu, S.Kevin Zhou(参考訳) 自律型ロボット手術は、手術ワークフローにおける視覚的および時間的手がかりの分析に基づいて著しく進歩してきたが、ドメイン知識による関係的手がかりは依然として調査中である。 外科的アノテーションの複雑な関係は、外科的ワークフローを理解するために自律的なシステムに価値のある、内的および相互関係に分けられる。 Intra-relation と Inter-relation は、特定のアノテーションタイプ内の様々なカテゴリの関連と、異なるアノテーションタイプの関連を記述している。 本稿では,手術におけるリレーショナル・キューの重要性を体系的に検討することを目的とする。 まず,5人の外科医が手術を行う50名の患者の50名のビデオをキュレートし,11台の計器,8個のアクション,16個のオブジェクトのトリプレットとして表現される3つの相互関係、6つのステップ,15のタスク,38のアクティビティからなる階層的ワークフロー,合計2,113,510台のビデオフレームと12,681,060個のアノテーションエンティティをアノテートすることにより,rlls12mデータセットをコントリビュートした。 これに対応して,アノテーションに具現化されている関係内および相互関係を用いた関係特徴の浄化により特徴表現を強化するために,新しい関係モジュールを適切に組み込んだマルチリレーション浄化ハイブリッドネットワーク(MURPHY)を提案する。 イントラリレーションモジュールはR-GCNを利用して異なるグラフ関係の視覚的特徴を埋め込む。 相互関係モジュールは、ドメイン知識からアノテーションタイプの階層に基づいて関係的特徴の影響を規則化するアテンションメカニズムによって動機付けられる。 RLLSデータセットの総合的な実験結果から,外科的ワークフロー解析における関係性の重要性が確認された。

Autonomous robotic surgery has advanced significantly based on analysis of visual and temporal cues in surgical workflow, but relational cues from domain knowledge remain under investigation. Complex relations in surgical annotations can be divided into intra- and inter-relations, both valuable to autonomous systems to comprehend surgical workflows. Intra- and inter-relations describe the relevance of various categories within a particular annotation type and the relevance of different annotation types, respectively. This paper aims to systematically investigate the importance of relational cues in surgery. First, we contribute the RLLS12M dataset, a large-scale collection of robotic left lateral sectionectomy (RLLS), by curating 50 videos of 50 patients operated by 5 surgeons and annotating a hierarchical workflow, which consists of 3 inter- and 6 intra-relations, 6 steps, 15 tasks, and 38 activities represented as the triplet of 11 instruments, 8 actions, and 16 objects, totaling 2,113,510 video frames and 12,681,060 annotation entities. Correspondingly, we propose a multi-relation purification hybrid network (MURPHY), which aptly incorporates novel relation modules to augment the feature representation by purifying relational features using the intra- and inter-relations embodied in annotations. The intra-relation module leverages a R-GCN to implant visual features in different graph relations, which are aggregated using a targeted relation purification with affinity information measuring label consistency and feature similarity. The inter-relation module is motivated by attention mechanisms to regularize the influence of relational features based on the hierarchy of annotation types from the domain knowledge. Extensive experimental results on the curated RLLS dataset confirm the effectiveness of our approach, demonstrating that relations matter in surgical workflow analysis.
翻訳日:2022-12-27 14:35:26 公開日:2022-12-24
# ポラリメトリック多視点逆レンダリング

Polarimetric Multi-View Inverse Rendering ( http://arxiv.org/abs/2212.12721v1 )

ライセンス: Link先を確認
Jinyu Zhao, Yusuke Monno, Masatoshi Okutomi(参考訳) 偏光カメラは、偏光の角度(AoP)と反射光の偏光の度合い(DoP)が物体の表面の正常と関係しているため、3次元再構成に大きな可能性がある。 本稿では,多視点カラー偏光画像から抽出した幾何学的,測光的,偏光的キューを効果的に活用する,Polarimetric Multi-View Inverse Rendering (Polarimetric MVIR) と呼ばれる新しい3次元再構成手法を提案する。 カメラのポーズと初期3次元モデルとを,標準構造と多視点ステレオパイプラインを用いて幾何学的再構成により推定する。 次に,多視点rgb,aop,dop画像を用いて,測光誤差とポラリメトリック誤差を最適化することで初期モデルを洗練し,aop測定から明らかな4つの曖昧な方位角を考慮しつつ,各頂点の推定面正規値に対する効果的な制約を可能にする新しいポラリメトリックコスト関数を提案する。 ポーラリメトリック・コストの重みは、ポーラリメトリック・情報の信頼性であるDoP測定に基づいて効果的に決定される。 合成データと実データの両方を用いて実験した結果、偏光計MVIRは、特定の表面材料や照明条件を仮定することなく、詳細な3次元形状を再構築できることがわかった。

A polarization camera has great potential for 3D reconstruction since the angle of polarization (AoP) and the degree of polarization (DoP) of reflected light are related to an object's surface normal. In this paper, we propose a novel 3D reconstruction method called Polarimetric Multi-View Inverse Rendering (Polarimetric MVIR) that effectively exploits geometric, photometric, and polarimetric cues extracted from input multi-view color-polarization images. We first estimate camera poses and an initial 3D model by geometric reconstruction with a standard structure-from-motion and multi-view stereo pipeline. We then refine the initial model by optimizing photometric rendering errors and polarimetric errors using multi-view RGB, AoP, and DoP images, where we propose a novel polarimetric cost function that enables an effective constraint on the estimated surface normal of each vertex, while considering four possible ambiguous azimuth angles revealed from the AoP measurement. The weight for the polarimetric cost is effectively determined based on the DoP measurement, which is regarded as the reliability of polarimetric information. Experimental results using both synthetic and real data demonstrate that our Polarimetric MVIR can reconstruct a detailed 3D shape without assuming a specific surface material and lighting condition.
翻訳日:2022-12-27 14:34:50 公開日:2022-12-24
# 対向ロバスト性向上のための周波数規則化

Frequency Regularization for Improving Adversarial Robustness ( http://arxiv.org/abs/2212.12732v1 )

ライセンス: Link先を確認
Binxiao Huang, Chaofan Tao, Rui Lin, Ngai Wong(参考訳) ディープ・ニューラル・ネットワークは、人間の知覚できない逆境の摂動に対して驚くほど脆弱である。 対戦訓練(AT)は効果的な防御手法であることが証明されているが,AT訓練モデルでは基準精度の低い入力低周波コンテンツに強く依存していることが判明した。 ATにおける標準精度とロバスト精度の大きなギャップを埋めるため、クリーン入力と逆入力の周波数差を調査し、スペクトル領域の出力差を整合させる周波数正則化(FR)を提案する。 さらに,SWA(Stochastic Weight Averaging)は,カーネルをエポック上で滑らかにすることで,より堅牢性を向上させる。 CIFAR-10で訓練されたWideResNet上で,PGD-20,C\&W,オートアタックによる攻撃に対する強い堅牢性を実現する。

Deep neural networks are incredibly vulnerable to crafted, human-imperceptible adversarial perturbations. Although adversarial training (AT) has proven to be an effective defense approach, we find that the AT-trained models heavily rely on the input low-frequency content for judgment, accounting for the low standard accuracy. To close the large gap between the standard and robust accuracies during AT, we investigate the frequency difference between clean and adversarial inputs, and propose a frequency regularization (FR) to align the output difference in the spectral domain. Besides, we find Stochastic Weight Averaging (SWA), by smoothing the kernels over epochs, further improves the robustness. Among various defense schemes, our method achieves the strongest robustness against attacks by PGD-20, C\&W and Autoattack, on a WideResNet trained on CIFAR-10 without any extra data.
翻訳日:2022-12-27 14:34:24 公開日:2022-12-24
# iris意味セグメンテーションにおけるデータ拡張のための人工瞳孔拡張

Artificial Pupil Dilation for Data Augmentation in Iris Semantic Segmentation ( http://arxiv.org/abs/2212.12733v1 )

ライセンス: Link先を確認
Daniel P. Benalcazar, David A. Benalcazar, Andres Valenzuela(参考訳) バイオメトリックスは、指紋、顔、虹彩、歩行、声などの固有の解剖学的または行動的特徴に基づいて個人を識別する科学である。 虹彩認識は人間の虹彩の豊かなテクスチャを生かして最も成功した方法の1つであり、これは双子にとってもユニークであり、年齢とともに劣化しない。 現代の虹彩認識のアプローチでは、深層学習を用いて虹彩の有効な部分を眼の他の部分から切り離し、それを符号化、保存、比較することができる。 本稿では,新しいデータ拡張手法を導入することにより,iris意味セグメンテーションシステムの精度を向上させることを目的とする。 本手法は,特定の拡張レベルを持つ虹彩画像を任意の所望の拡張レベルに変換することで,小さなデータセットからの可変性とトレーニングサンプル数を増加させる。 提案手法は高速であり, 訓練は不要である。 以上の結果から,高次瞳孔拡張画像のセグメンテーション精度を最大15%向上させることで,極端拡張下においてもより信頼性の高い虹彩認識パイプラインが作成できることが示唆された。

Biometrics is the science of identifying an individual based on their intrinsic anatomical or behavioural characteristics, such as fingerprints, face, iris, gait, and voice. Iris recognition is one of the most successful methods because it exploits the rich texture of the human iris, which is unique even for twins and does not degrade with age. Modern approaches to iris recognition utilize deep learning to segment the valid portion of the iris from the rest of the eye, so it can then be encoded, stored and compared. This paper aims to improve the accuracy of iris semantic segmentation systems by introducing a novel data augmentation technique. Our method can transform an iris image with a certain dilation level into any desired dilation level, thus augmenting the variability and number of training examples from a small dataset. The proposed method is fast and does not require training. The results indicate that our data augmentation method can improve segmentation accuracy up to 15% for images with high pupil dilation, which creates a more reliable iris recognition pipeline, even under extreme dilation.
翻訳日:2022-12-27 14:34:08 公開日:2022-12-24
# DDH-QA: 動的デジタル人間質評価データベース

DDH-QA: A Dynamic Digital Humans Quality Assessment Database ( http://arxiv.org/abs/2212.12734v1 )

ライセンス: Link先を確認
Zicheng Zhang, Yingjie Zhou, Wei Sun, Wei Lu, Xiongkuo Min, Yu Wang, and Guangtao Zhai(参考訳) 近年,動的デジタルヒューマン(DDH)の現実的応用を推し進めるために,多大な努力が払われている。 しかしながら、現在のほとんどの品質評価研究は静的な3Dモデルの評価に重点を置いており、通常、動きの歪みを無視する。 そこで本稿では,DDHの知覚品質を包括的に研究するために,多様な動作内容と複数の歪みを有する大規模動的デジタルヒューマン品質評価(DDH-QA)データベースを構築した。 モデルに基づく歪み(ノイズ、圧縮)と運動に基づく歪み(結合誤差、運動不自然性)の両方を考慮する。 DDHを駆動するために10種類の共通運動が使用され、最後に合計800個のDDHが生成される。 その後、歪んだDDHのビデオシーケンスを評価メディアとして描画し、よく制御された主観的実験を行う。 次に,最新の映像品質評価法(VQA)を用いてベンチマーク実験を行い,既存のVQA法はDDHの知覚的損失を評価する場合に限られていることを示す。 データベースは、将来の研究を促進するために公開されます。

In recent years, large amounts of effort have been put into pushing forward the real-world application of dynamic digital human (DDH). However, most current quality assessment research focuses on evaluating static 3D models and usually ignores motion distortions. Therefore, in this paper, we construct a large-scale dynamic digital human quality assessment (DDH-QA) database with diverse motion content as well as multiple distortions to comprehensively study the perceptual quality of DDHs. Both model-based distortion (noise, compression) and motion-based distortion (binding error, motion unnaturalness) are taken into consideration. Ten types of common motion are employed to drive the DDHs and a total of 800 DDHs are generated in the end. Afterward, we render the video sequences of the distorted DDHs as the evaluation media and carry out a well-controlled subjective experiment. Then a benchmark experiment is conducted with the state-of-the-art video quality assessment (VQA) methods and the experimental results show that existing VQA methods are limited in assessing the perceptual loss of DDHs. The database will be made publicly available to facilitate future research.
翻訳日:2022-12-27 14:33:49 公開日:2022-12-24
# colt: 畳み込みニューラルネットワークの高速プルーニングのための繰り返し重複抽選券

COLT: Cyclic Overlapping Lottery Tickets for Faster Pruning of Convolutional Neural Networks ( http://arxiv.org/abs/2212.12770v1 )

ライセンス: Link先を確認
Md. Ismail Hossain, Mohammed Rakib, M. M. Lutfe Elahi, Nabeel Mohammed and Shafin Rahman(参考訳) プルーニング(Pruning)とは、ニューラルネットワークから自明な重みを取り除くことを指す。 プランニング後に生成された過パラメータモデル内のサブネットワークは、しばしば宝くじと呼ばれる。 本研究は、原型未使用のネットワークと同様の精度を実現できる宝くじのセットから当選宝くじを生成することを目的としている。 本稿では,スクラッチからプルーンドネットワークを分割し,周期的に再学習することで,COLT(Cyclic Overlapping Lottery Ticket)と呼ばれる新しい当選チケットを導入する。 我々は、異なるデータセグメントで訓練された異なるプルーニングモデルの重み付けのみを保持する巡回プルーニングアルゴリズムを適用した。 以上の結果から,COLTは高い空隙を保ちながら(未開きモデルにより達成される)類似の精度を達成できることが示唆された。 また,COLTの精度は,LTH(Lottery Ticket hypothesis)の当選チケットと同等であり,時には良好であることを示す。 さらに、COLTは、人気のあるIMP(Iterative Magnitude Pruning)メソッドによって生成されるチケットよりも少ないイテレーションで生成することができる。 さらに,大規模データセット上で生成されたCOLTは,性能を損なうことなく,その一般化能力を示すことができる。 我々は,Cifar-10,Cifar-100およびTinyImageNetデータセット上で実験を行い,最先端の手法よりも優れた性能を報告した。

Pruning refers to the elimination of trivial weights from neural networks. The sub-networks within an overparameterized model produced after pruning are often called Lottery tickets. This research aims to generate winning lottery tickets from a set of lottery tickets that can achieve similar accuracy to the original unpruned network. We introduce a novel winning ticket called Cyclic Overlapping Lottery Ticket (COLT) by data splitting and cyclic retraining of the pruned network from scratch. We apply a cyclic pruning algorithm that keeps only the overlapping weights of different pruned models trained on different data segments. Our results demonstrate that COLT can achieve similar accuracies (obtained by the unpruned model) while maintaining high sparsities. We show that the accuracy of COLT is on par with the winning tickets of Lottery Ticket Hypothesis (LTH) and, at times, is better. Moreover, COLTs can be generated using fewer iterations than tickets generated by the popular Iterative Magnitude Pruning (IMP) method. In addition, we also notice COLTs generated on large datasets can be transferred to small ones without compromising performance, demonstrating its generalizing capability. We conduct all our experiments on Cifar-10, Cifar-100 & TinyImageNet datasets and report superior performance than the state-of-the-art methods.
翻訳日:2022-12-27 14:33:29 公開日:2022-12-24
# カラー-赤外線クロスモーダル変換のためのメタラーニング

Meta-Learning for Color-to-Infrared Cross-Modal Style Transfer ( http://arxiv.org/abs/2212.12824v1 )

ライセンス: Link先を確認
Evelyn A. Stump, Francesco Luzi, Leslie M. Collins, Jordan M. Malof(参考訳) 赤外線(IR)画像に対する最近の物体検出モデルは、ディープニューラルネットワーク(DNN)に基づいており、大量のラベル付きトレーニング画像を必要とする。 しかし、そのようなトレーニングに使用できる公開データセットのサイズと多様性は限られている。 この問題に対処するため,我々は多彩なカラー画像データセットを活用し,DNNベースのIR画像ベースオブジェクト検出器のトレーニングに使用できるクロスモーダル・スタイル・トランスファー(CMST)を提案する。 我々は4つのirデータセットにおける6つの現代スタイライゼーション手法(この種の最初の比較)を評価し、cmstがdnnベースの検出器に非常に有効であることを見出した。 驚くべきことに、既存のデータ駆動型メソッドは、単純なグレースケールのスタイライゼーション(カラーチャネルの平均値)で勝っている。 我々の分析によると、既存のデータ駆動手法は単純すぎるか、画像に重要なアーティファクトを導入するかのどちらかである。 これらの制約を克服するため,我々は,解析関数の構成とチューニングによりスタイライゼーションを学ぶメタラーニングスタイルトランスファー(mlst)を提案する。 MLSTは、重要な画像アーティファクトを導入せずにより複雑なスタイリゼーションをもたらし、ベンチマークデータセット上で最高の全体的な検出性能を達成する。

Recent object detection models for infrared (IR) imagery are based upon deep neural networks (DNNs) and require large amounts of labeled training imagery. However, publicly-available datasets that can be used for such training are limited in their size and diversity. To address this problem, we explore cross-modal style transfer (CMST) to leverage large and diverse color imagery datasets so that they can be used to train DNN-based IR image based object detectors. We evaluate six contemporary stylization methods on four publicly-available IR datasets - the first comparison of its kind - and find that CMST is highly effective for DNN-based detectors. Surprisingly, we find that existing data-driven methods are outperformed by a simple grayscale stylization (an average of the color channels). Our analysis reveals that existing data-driven methods are either too simplistic or introduce significant artifacts into the imagery. To overcome these limitations, we propose meta-learning style transfer (MLST), which learns a stylization by composing and tuning well-behaved analytic functions. We find that MLST leads to more complex stylizations without introducing significant image artifacts and achieves the best overall detector performance on our benchmark datasets.
翻訳日:2022-12-27 14:33:03 公開日:2022-12-24
# ソーシャルメディアにおける顧客サービス談話の言語的要素

Linguistic Elements of Engaging Customer Service Discourse on Social Media ( http://arxiv.org/abs/2212.12801v1 )

ライセンス: Link先を確認
Sonam Singh and Anthony Rios(参考訳) 顧客は顧客サポートのために急速にソーシャルメディアに目を向けている。 これらのプラットフォーム上のブランドエージェントは、顧客を支援し、関与するためのモチベーションと意図に富んでいるが、顧客に対する最初の反応が、顧客が受け取る特定のトーン、スタイル、トピックと一致しない場合、その取り組みは無視されることが多い。 会話の長さは、たとえ会話の全体的な感情があまり肯定的でないとしても、消費者の協力と支援に向けてブランドが行った最初の反応の努力と質を反映します。 そこで本研究では,既存の文献におけるこの重要なギャップを,表現された共感,心理言語的特徴,対話タグ,発話の個人化を定量化するための指標など,言語の内容やスタイリスティックな側面を解析することによって橋渡しすることを目的とする。 本稿では、初期顧客とブランド投稿を用いてエンゲージメントを予測できることを実証する。

Customers are rapidly turning to social media for customer support. While brand agents on these platforms are motivated and well-intentioned to help and engage with customers, their efforts are often ignored if their initial response to the customer does not match a specific tone, style, or topic the customer is aiming to receive. The length of a conversation can reflect the effort and quality of the initial response made by a brand toward collaborating and helping consumers, even when the overall sentiment of the conversation might not be very positive. Thus, through this study, we aim to bridge this critical gap in the existing literature by analyzing language's content and stylistic aspects such as expressed empathy, psycho-linguistic features, dialogue tags, and metrics for quantifying personalization of the utterances that can influence the engagement of an interaction. This paper demonstrates that we can predict engagement using initial customer and brand posts.
翻訳日:2022-12-27 14:27:00 公開日:2022-12-24
# アクティブ保守のための最適化ファジィ論理モデル

An optimized fuzzy logic model for proactive maintenance ( http://arxiv.org/abs/2212.12757v1 )

ライセンス: Link先を確認
Abdelouadoud Kerarmi, Assia Kamal-idrissi, Amal El Fallah Seghrouchni(参考訳) ファジィ論理は、従来の診断手法の欠点を克服するために、機械診断の以前の研究で提案されている。 これらのアプローチの中で、FMECA(Fureure Mode and Effects critical Analysis)は、潜在的なモードを特定し、主観的専門家の判断に基づいて障害を治療しようとする。 ファジィ論理のいくつかのバージョンは、FMECAの改善や置き換えに使われているが、これらを個別に評価するため、フェールモードにおいて非常にコストがかかるアプローチであるため、これらの提案は組合せ複雑性に明示的に焦点を合わせておらず、ファジィ論理モデリングにおけるメンバシップ関数の選択を正当化していない。 そこで本研究では,統合真理表とファジィ論理モデル(ITTFLM)と呼ばれる最適化手法を開発し,真理表を用いたファジィ論理規則をスマートに生成する。 ITTFLMは、植物機械からリアルタイムで収集されたファンデータに基づいてテストされた。 実験では, 3種類の会員関数(三角形, トラペゾイダル, ガウス)を用いた。 ITTFLMは5msで出力を生成でき、その結果から、トラペゾイダルのメンバシップ関数に基づくこのモデルは、高い精度で障害状態を特定し、多数のルールを処理できるため、通常ユーザエクスペリエンスに影響を与えるリアルタイム制約を満たすことが示されている。

Fuzzy logic has been proposed in previous studies for machine diagnosis, to overcome different drawbacks of the traditional diagnostic approaches used. Among these approaches Failure Mode and Effect Critical Analysis method(FMECA) attempts to identify potential modes and treat failures before they occur based on subjective expert judgments. Although several versions of fuzzy logic are used to improve FMECA or to replace it, since it is an extremely cost-intensive approach in terms of failure modes because it evaluates each one of them separately, these propositions have not explicitly focused on the combinatorial complexity nor justified the choice of membership functions in Fuzzy logic modeling. Within this context, we develop an optimization-based approach referred to Integrated Truth Table and Fuzzy Logic Model (ITTFLM) that smartly generates fuzzy logic rules using Truth Tables. The ITTFLM was tested on fan data collected in real-time from a plant machine. In the experiment, three types of membership functions (Triangular, Trapezoidal, and Gaussian) were used. The ITTFLM can generate outputs in 5ms, the results demonstrate that this model based on the Trapezoidal membership functions identifies the failure states with high accuracy, and its capability of dealing with large numbers of rules and thus meets the real-time constraints that usually impact user experience.
翻訳日:2022-12-27 14:24:00 公開日:2022-12-24
# フライングオン・ザ・フライ:微調整を伴わない回収可能なプルーニング法

Pruning On-the-Fly: A Recoverable Pruning Method without Fine-tuning ( http://arxiv.org/abs/2212.12651v1 )

ライセンス: Link先を確認
Dan Liu, Xue Liu(参考訳) 既存のプルーニング作業の多くは資源集約的であり、プルーニングされたモデルの再訓練や微調整が必要である。 超球面学習と損失ペナルティ項に基づく再訓練フリーの刈り取り手法を提案する。 提案された損失ペナルティ項はモデル重量のいくつかをゼロから遠ざかるが、残りの重量値は0に近づき、再トレーニングや無視できる精度の低下なしに安全に刈り取ることができる。 また,提案手法では,プルーニングした値を平均値に置き換えることで,プルーニングモデルの精度を即座に回復することができる。 本研究では,ResNet-18/50とMobileNetV2をImageNetデータセットで評価した。 50 %プルーニングされた ResNet18 モデルは 0.47 % の精度低下で容易に取得できる。 微調整により,本手法は既存手法に比べてプルーンモデルの精度を著しく向上させることができることを示した。 例えば、70\%のpruned(第1の畳み込み層を除く)mobilenetv2モデルの精度は3.5\%しか低下せず、従来の方法による7\%$\sim$10\%の精度低下よりもはるかに低い。

Most existing pruning works are resource-intensive, requiring retraining or fine-tuning of the pruned models for accuracy. We propose a retraining-free pruning method based on hyperspherical learning and loss penalty terms. The proposed loss penalty term pushes some of the model weights far from zero, while the rest weight values are pushed near zero and can be safely pruned with no need for retraining and a negligible accuracy drop. In addition, our proposed method can instantly recover the accuracy of a pruned model by replacing the pruned values with their mean value. Our method obtains state-of-the-art results in retraining-free pruning and is evaluated on ResNet-18/50 and MobileNetV2 with ImageNet dataset. One can easily get a 50\% pruned ResNet18 model with a 0.47\% accuracy drop. With fine-tuning, the experiment results show that our method can significantly boost the accuracy of the pruned models compared with existing works. For example, the accuracy of a 70\% pruned (except the first convolutional layer) MobileNetV2 model only drops 3.5\%, much less than the 7\% $\sim$ 10\% accuracy drop with conventional methods.
翻訳日:2022-12-27 14:23:35 公開日:2022-12-24
# ランゲヴィンアルゴリズムの定常分布の濃度

Concentration of the Langevin Algorithm's Stationary Distribution ( http://arxiv.org/abs/2212.12629v1 )

ライセンス: Link先を確認
Jason M. Altschuler and Kunal Talwar(参考訳) log-concaveサンプリングの標準的なアルゴリズムはlangevinアルゴリズム(別名langevin diffusion run with some discretization stepsize $\eta > 0$)である。 この離散化によりランゲヴィンアルゴリズムは定常分布 $\pi_{\eta}$ を持ち、これはランゲヴィン拡散の定常分布 $\pi$ とは異なるものであり、$\pi$ のよく知られた性質が $\pi_{\eta}$ に拡張するかどうかを理解することは重要な課題である。 特に、イソペリメトリや急速に崩壊するテールのような濃度特性は古典的には$\pi$で知られているが、$\pi_{\eta}$の類似性は直接アルゴリズム的な意味を持つ開問題である。 この注記は、古典的結果を反映する$\pi_{\eta}$を$\pi$とすることで、この方向への第一歩を提供する。 具体的には、任意の非自明なステップサイズ $\eta > 0$, $\pi_{\eta}$ が、ポテンシャルが凸であるとき(つまり、強凸)に部分指数的であることを示す。 さらに、私たちが示す濃度境界は本質的にきつい。 我々の分析の鍵は、ランゲヴィンアルゴリズムの定常力学を研究するために回転不変モーメント生成関数(別名ベッセル関数)を使用することである。 この手法は離散時間定常分布 $\pi_{\eta}$ を直接分析できるので、媒介として連続時間定常分布 $\pi$ を通すことなく、独立した興味を持つことができる。

A canonical algorithm for log-concave sampling is the Langevin Algorithm, aka the Langevin Diffusion run with some discretization stepsize $\eta > 0$. This discretization leads the Langevin Algorithm to have a stationary distribution $\pi_{\eta}$ which differs from the stationary distribution $\pi$ of the Langevin Diffusion, and it is an important challenge to understand whether the well-known properties of $\pi$ extend to $\pi_{\eta}$. In particular, while concentration properties such as isoperimetry and rapidly decaying tails are classically known for $\pi$, the analogous properties for $\pi_{\eta}$ are open questions with direct algorithmic implications. This note provides a first step in this direction by establishing concentration results for $\pi_{\eta}$ that mirror classical results for $\pi$. Specifically, we show that for any nontrivial stepsize $\eta > 0$, $\pi_{\eta}$ is sub-exponential (respectively, sub-Gaussian) when the potential is convex (respectively, strongly convex). Moreover, the concentration bounds we show are essentially tight. Key to our analysis is the use of a rotation-invariant moment generating function (aka Bessel function) to study the stationary dynamics of the Langevin Algorithm. This technique may be of independent interest because it enables directly analyzing the discrete-time stationary distribution $\pi_{\eta}$ without going through the continuous-time stationary distribution $\pi$ as an intermediary.
翻訳日:2022-12-27 14:16:46 公開日:2022-12-24
# 最適送信スケジューリングのための構造強化DRL

Structure-Enhanced DRL for Optimal Transmission Scheduling ( http://arxiv.org/abs/2212.12704v1 )

ライセンス: Link先を確認
Jiazheng Chen, Wanchun Liu, Daniel E. Quevedo, Saeed R. Khosravirad, Yonghui Li, and Branka Vucetic(参考訳) 大規模分散動的プロセスのリモート状態推定は、業界 4.0 アプリケーションにおいて重要な役割を果たす。 本稿では,遠隔推定システムの送信スケジューリング問題に焦点をあてる。 まず、フェージングチャネル上での最適センサスケジューリングポリシーのいくつかの構造特性を導出する。 そして,これらの理論ガイドラインに基づいて,システム全体の推定平均二乗誤差(MSE)を最小化する最適スケジューリングのための構造強化深部強化学習(DRL)フレームワークを開発する。 特に,政策構造に従う行動を選択する傾向にある構造強化行動選択法を提案する。 これにより、アクション空間をより効率的に探索し、DRLエージェントの学習効率を高めることができる。 さらに、ポリシー構造に従わない行為に対して罰則を追加するための構造強化損失関数を導入する。 新しい損失関数はDRLを最適な政策構造に迅速に収束させる。 数値実験により,提案した構造強化DRLアルゴリズムは,ベンチマークDRLアルゴリズムと比較してトレーニング時間を50%削減し,遠隔推定MSEを10%から25%削減できることを示した。 さらに, 遠隔状態推定を超越した多様な動的スケジューリング問題に, 導出した構造特性が存在することを示す。

Remote state estimation of large-scale distributed dynamic processes plays an important role in Industry 4.0 applications. In this paper, we focus on the transmission scheduling problem of a remote estimation system. First, we derive some structural properties of the optimal sensor scheduling policy over fading channels. Then, building on these theoretical guidelines, we develop a structure-enhanced deep reinforcement learning (DRL) framework for optimal scheduling of the system to achieve the minimum overall estimation mean-square error (MSE). In particular, we propose a structure-enhanced action selection method, which tends to select actions that obey the policy structure. This explores the action space more effectively and enhances the learning efficiency of DRL agents. Furthermore, we introduce a structure-enhanced loss function to add penalties to actions that do not follow the policy structure. The new loss function guides the DRL to converge to the optimal policy structure quickly. Our numerical experiments illustrate that the proposed structure-enhanced DRL algorithms can save the training time by 50% and reduce the remote estimation MSE by 10% to 25% when compared to benchmark DRL algorithms. In addition, we show that the derived structural properties exist in a wide range of dynamic scheduling problems that go beyond remote state estimation.
翻訳日:2022-12-27 14:16:13 公開日:2022-12-24
# STRUDEL:対話理解のための構造化対話要約

STRUDEL: Structured Dialogue Summarization for Dialogue Comprehension ( http://arxiv.org/abs/2212.12652v1 )

ライセンス: Link先を確認
Borui Wang, Chengcheng Feng, Arjun Nair, Madelyn Mao, Jai Desai, Asli Celikyilmaz, Haoran Li, Yashar Mehdad, Dragomir Radev(参考訳) 抽象対話要約(abstractive dialogue summarization)は、自然言語処理において重要なスタンドアロンタスクと見なされてきたが、他の重要な対話理解タスクにおけるnlpシステムの性能を高める手段として、抽象対話要約(abstractive dialogue summarization)が使用できるかどうかについて、これまでの研究は行われていない。 本稿では,事前学習された言語モデルが対話をより理解し,重要な対話理解タスクの性能を向上させるための,新しいタイプの対話要約タスクである構造化対話要約を提案する。 さらに,400以上の対話におけるSTRUDEL要約の人間のアノテーションを収集し,SSTRUDELを変換言語モデル上のグラフニューラルネットワークベースの対話推論モジュールに統合し,対話理解能力を向上する新しいSTRUDEL対話理解モデリングフレームワークを導入する。 対話質問応答と対話応答予測という2つの重要な下流対話理解タスクに関する実証実験において,本モデルがトランスフォーマーエンコーダ言語モデルの対話理解性能を著しく向上できることを示す。

Abstractive dialogue summarization has long been viewed as an important standalone task in natural language processing, but no previous work has explored the possibility of whether abstractive dialogue summarization can also be used as a means to boost an NLP system's performance on other important dialogue comprehension tasks. In this paper, we propose a novel type of dialogue summarization task - STRUctured DiaLoguE Summarization - that can help pre-trained language models to better understand dialogues and improve their performance on important dialogue comprehension tasks. We further collect human annotations of STRUDEL summaries over 400 dialogues and introduce a new STRUDEL dialogue comprehension modeling framework that integrates STRUDEL into a graph-neural-network-based dialogue reasoning module over transformer encoder language models to improve their dialogue comprehension abilities. In our empirical experiments on two important downstream dialogue comprehension tasks - dialogue question answering and dialogue response prediction - we show that our STRUDEL dialogue comprehension model can significantly improve the dialogue comprehension performance of transformer encoder language models.
翻訳日:2022-12-27 14:15:35 公開日:2022-12-24
# 中国-タイ低リソース翻訳のためのディープトランスの最適化

Optimizing Deep Transformers for Chinese-Thai Low-Resource Translation ( http://arxiv.org/abs/2212.12662v1 )

ライセンス: Link先を確認
Wenjie Hao, Hongfei Xu, Lingling Mu and Hongying Zan(参考訳) 本稿では,中国-タイの低リソース機械翻訳タスクCCMT 2022におけるDeep Transformer変換モデルの利用について検討する。 まず,6層トランスフォーマを用いた低リソースシナリオを対象とした実験(BPEマージ操作数,ドロップアウト確率,埋め込みサイズなど)について検討する。 レイヤ数の増加は新たなモデルパラメータの正規化(より多くのレイヤを使用する場合、ドロップアウトモジュールも導入される)も増加させるので、最高のパフォーマンス設定を採用するが、トランスフォーマーの深さを24層に増やして翻訳品質を向上させる。 本研究は,中国語-タイ語翻訳におけるSOTA性能を制約付き評価で取得する。

In this paper, we study the use of deep Transformer translation model for the CCMT 2022 Chinese-Thai low-resource machine translation task. We first explore the experiment settings (including the number of BPE merge operations, dropout probability, embedding size, etc.) for the low-resource scenario with the 6-layer Transformer. Considering that increasing the number of layers also increases the regularization on new model parameters (dropout modules are also introduced when using more layers), we adopt the highest performance setting but increase the depth of the Transformer to 24 layers to obtain improved translation quality. Our work obtains the SOTA performance in the Chinese-to-Thai translation in the constrained evaluation.
翻訳日:2022-12-27 14:15:15 公開日:2022-12-24
# 化学名前付きエンティティ認識モデルにおけるジェンダーバイアスの総合的研究

A Comprehensive Study of Gender Bias in Chemical Named Entity Recognition Models ( http://arxiv.org/abs/2212.12799v1 )

ライセンス: Link先を確認
Xingmeng Zhao, Ali Niazi and Anthony Rios(参考訳) 目的。 ケミカルネームエンティティ認識(NER)モデルは、有害薬物反応の同定から一般的な薬剤疫学まで、幅広い下流タスクに影響を与える可能性がある。 しかし、これらのモデルが全員で同じように動作するかどうかは不明である。 パフォーマンスの格差は、意図された善よりも害を引き起こす可能性がある。 そこで本研究では, 化学NERシステムの性関連性能格差を計測する。 材料と方法。 我々は合成データを用いて化学NERモデルの性別バイアスを測定するためのフレームワークを開発し、Redditから92,405語以上の注釈付きデータセットを作成した。 バイオメディカルNERモデルの応用と評価を行った。 結果だ 以上の結果から, 化学NERモデルに偏りがあることが示唆された。 バイアステストの結果は、合成データセットと現実世界のデータ多重フェアネス問題に対して行われた。 例えば、合成データでは、女性関連の名称は一般的に化学薬品に分類され、特に標準的な名前ではなく、多くのブランド名を含むデータセットで用いられる。 両方のデータセットについて、一貫性のある公平性の問題に気付き、女性と男性に関するデータでかなりのパフォーマンスの差が生じます。 議論だ 本研究は化学NERモデルにおけるバイアスの問題に焦点を当てる。 例えば、多くのシステムは避妊薬(例えば、出生制御)を検出できない。 結論だ 化学NERモデルは偏りがあり、女性関連グループに有害である。 したがって、実践者はこれらのモデルの潜在的なバイアスを慎重に考慮し、それらを緩和するためのステップを講じるべきである。

Objective. Chemical named entity recognition (NER) models have the potential to impact a wide range of downstream tasks, from identifying adverse drug reactions to general pharmacoepidemiology. However, it is unknown whether these models work the same for everyone. Performance disparities can potentially cause harm rather than the intended good. Hence, in this paper, we measure gender-related performance disparities of chemical NER systems. Materials and Methods. We develop a framework to measure gender bias in chemical NER models using synthetic data and a newly annotated dataset of over 92,405 words with self-identified gender information from Reddit. We applied and evaluated state-of-the-art biomedical NER models. Results. Our findings indicate that chemical NER models are biased. The results of the bias tests on the synthetic dataset and the real-world data multiple fairness issues. For example, for synthetic data, we find that female-related names are generally classified as chemicals, particularly in datasets containing many brand names rather than standard ones. For both datasets, we find consistent fairness issues resulting in substantial performance disparities between female- and male-related data. Discussion. Our study highlights the issue of biases in chemical NER models. For example, we find that many systems cannot detect contraceptives (e.g., birth control). Conclusion. Chemical NER models are biased and can be harmful to female-related groups. Therefore, practitioners should carefully consider the potential biases of these models and take steps to mitigate them.
翻訳日:2022-12-27 14:15:02 公開日:2022-12-24
# 健康の社会的要因抽出のためのマーカー型ニューラルネットワークシステム

A Marker-based Neural Network System for Extracting Social Determinants of Health ( http://arxiv.org/abs/2212.12800v1 )

ライセンス: Link先を確認
Xingmeng Zhao and Anthony Rios(参考訳) 目的。 健康の社会的決定因子(SDoH)が患者の健康と格差に及ぼす影響はよく知られている。 多くのSDoHアイテムは、電子健康記録の構造化形式でコード化されていない。 これらの項目は、しばしばフリーテキスト臨床ノートに記録されるが、自動的に抽出する方法は限られている。 我々は,臨床ノートから自動的にSDoH情報を抽出する,名前付きエンティティ認識(NER),関係分類(RC),テキスト分類手法を含む多段階パイプラインを探索する。 材料と方法。 この研究は、MIMIC-IIIとワシントン大学ハーバービュー医療センターの2つの臨床資料から収集されたN2C2共有タスクデータを用いている。 4480の社会史セクションがあり、12のSDoHに対する完全な注釈がある。 重なり合うエンティティの問題に対処するため、我々は新しいマーカーベースのNERモデルを開発した。 臨床ノートからSDoH情報を抽出するために多段階パイプラインを用いた。 結果だ マーカーベースシステムは,全体的なマイクロf1スコア性能に基づいて重なり合うエンティティを扱う場合,最先端のスパンベースモデルよりも優れていた。 また、共有タスクメソッドと比較して最先端のパフォーマンスも達成した。 結論だ 本研究の主な発見は,臨床ノートからSDoH情報を効果的に抽出する多段階パイプラインである。 このアプローチは臨床環境でのSDoHの理解と追跡を改善する可能性がある。 しかし、エラーの伝播は問題であり、複雑な意味を持つエンティティと外部知識を用いた低リソースのエンティティの抽出を改善するためにさらなる研究が必要である。

Objective. The impact of social determinants of health (SDoH) on patients' healthcare quality and the disparity is well-known. Many SDoH items are not coded in structured forms in electronic health records. These items are often captured in free-text clinical notes, but there are limited methods for automatically extracting them. We explore a multi-stage pipeline involving named entity recognition (NER), relation classification (RC), and text classification methods to extract SDoH information from clinical notes automatically. Materials and Methods. The study uses the N2C2 Shared Task data, which was collected from two sources of clinical notes: MIMIC-III and University of Washington Harborview Medical Centers. It contains 4480 social history sections with full annotation for twelve SDoHs. In order to handle the issue of overlapping entities, we developed a novel marker-based NER model. We used it in a multi-stage pipeline to extract SDoH information from clinical notes. Results. Our marker-based system outperformed the state-of-the-art span-based models at handling overlapping entities based on the overall Micro-F1 score performance. It also achieved state-of-the-art performance compared to the shared task methods. Conclusion. The major finding of this study is that the multi-stage pipeline effectively extracts SDoH information from clinical notes. This approach can potentially improve the understanding and tracking of SDoHs in clinical settings. However, error propagation may be an issue, and further research is needed to improve the extraction of entities with complex semantic meanings and low-resource entities using external knowledge.
翻訳日:2022-12-27 14:14:42 公開日:2022-12-24
# 科学におけるガジェット発見の自動化

Automated Gadget Discovery in Science ( http://arxiv.org/abs/2212.12743v1 )

ライセンス: Link先を確認
Lea M. Trenkwalder, Andrea L\'opez Incera, Hendrik Poulsen Nautrup, Fulvio Flamini, Hans J. Briegel(参考訳) 近年、強化学習(RL)は科学への応用や科学発見のプロセス全般において成功してきている。 しかし、RLアルゴリズムはますます複雑な問題を解くことを学習する一方で、それらが提供するソリューションを解釈することがさらに困難になる。 本研究では,時系列マイニングとクラスタリングに基づくポストホック解析により,RLエージェントの学習行動に関する洞察を得る。 具体的には、与えられたタスクを解くためにエージェントが使用する頻繁でコンパクトなサブルーチンを、ガジェットとして蒸留し、様々なメトリクスでグループ化する。 まず、RLエージェントを用いてデータを生成し、次に、マイニングアルゴリズムを用いてガジェットを抽出し、最後に、得られたガジェットを密度に基づくクラスタリングアルゴリズムでグループ化する。 2つの量子インスパイアされたRL環境に適用することで、本手法を実証する。 まず,現代の干渉計に対応するガジェットをアルゴリズムが発見する高次元多部交絡状態の設計のためのシミュレーション量子光学実験について考察する。 第2に、量子テレポーテーションなどの量子情報処理のための様々なガジェットをアルゴリズムが発見する回路ベースの量子コンピューティング環境を考える。 学習エージェントのポリシーを分析するこのアプローチはエージェントと環境非依存であり、エージェントのポリシーに関する興味深い洞察を与えることができる。

In recent years, reinforcement learning (RL) has become increasingly successful in its application to science and the process of scientific discovery in general. However, while RL algorithms learn to solve increasingly complex problems, interpreting the solutions they provide becomes ever more challenging. In this work, we gain insights into an RL agent's learned behavior through a post-hoc analysis based on sequence mining and clustering. Specifically, frequent and compact subroutines, used by the agent to solve a given task, are distilled as gadgets and then grouped by various metrics. This process of gadget discovery develops in three stages: First, we use an RL agent to generate data, then, we employ a mining algorithm to extract gadgets and finally, the obtained gadgets are grouped by a density-based clustering algorithm. We demonstrate our method by applying it to two quantum-inspired RL environments. First, we consider simulated quantum optics experiments for the design of high-dimensional multipartite entangled states where the algorithm finds gadgets that correspond to modern interferometer setups. Second, we consider a circuit-based quantum computing environment where the algorithm discovers various gadgets for quantum information processing, such as quantum teleportation. This approach for analyzing the policy of a learned agent is agent and environment agnostic and can yield interesting insights into any agent's policy.
翻訳日:2022-12-27 14:07:33 公開日:2022-12-24
# ヒンジ損失対角線による分類における反復正則化

Iterative regularization in classification via hinge loss diagonal descent ( http://arxiv.org/abs/2212.12675v1 )

ライセンス: Link先を確認
Vassilis Apidopoulos, Tomaso Poggio, Lorenzo Rosasco, Silvia Villa(参考訳) 反復正則化は正則化理論の古典的なアイデアであり、最近機械学習で人気が高まっている。 一方、数値と統計的精度を同時に制御する効率的なアルゴリズムを設計することができる。 一方、ニューラルネットワークのトレーニング中に観測された学習曲線に光を当てることができる。 本稿では,分類の文脈における反復正規化に着目した。 この設定を回帰問題や逆問題と対比した後、ヒンジ損失関数を用いた反復正規化手法を開発する。 より正確には、収束率だけでなく収束率も証明するアルゴリズムの族に対する対角的アプローチを考える。 本手法は他の代替案と比較し,数値シミュレーションで確認した。

Iterative regularization is a classic idea in regularization theory, that has recently become popular in machine learning. On the one hand, it allows to design efficient algorithms controlling at the same time numerical and statistical accuracy. On the other hand it allows to shed light on the learning curves observed while training neural networks. In this paper, we focus on iterative regularization in the context of classification. After contrasting this setting with that of regression and inverse problems, we develop an iterative regularization approach based on the use of the hinge loss function. More precisely we consider a diagonal approach for a family of algorithms for which we prove convergence as well as rates of convergence. Our approach compares favorably with other alternatives, as confirmed also in numerical simulations.
翻訳日:2022-12-27 14:06:04 公開日:2022-12-24
# 超線形収束によるカーネルベース機械学習力場再構成

Reconstructing Kernel-based Machine Learning Force Fields with Super-linear Convergence ( http://arxiv.org/abs/2212.12737v1 )

ライセンス: Link先を確認
Stefan Bl\"ucher and Klaus-Robert M\"uller and Stefan Chmiela(参考訳) カーネルマシンは量子化学の分野で継続的に進歩している。 特に、それらは力場再構成の低データレコンストラクションで成功したことが証明されている。 これは、多くの物理的不変量や対称性をカーネル関数に組み込んで、より大きなデータセットを補うことができるためである。 しかしこれまでのところ、このアプローチのスケーラビリティは、トレーニングポイントの数の立方体ランタイムによって妨げられている。 反復的クリロフ部分空間解法がこれらの負担を克服できることは知られているが、実際は解明可能な実効的プレコンディショナーに依存している。 実用的なプリコンディショナーは、計算効率と数値的ロバストを同時に行う必要がある。 ここでは、元のカーネル行列のより洗練された低ランク近似に基づいてプレコンディショナを構築するためのNystr\"om-typeメソッドの幅広いクラスについて考察し、それぞれ異なる計算トレードオフを提供する。 検討されたすべてのメソッドは、異なる戦略を用いてカーネル行列列に分散された関連する部分空間を推定し、誘導点の代表集合を識別する。 私たちの包括的な研究は、無作為なサンプリングからスコアの見積もりと不完全なコレスキー因子分解、そして正確なsvd分解まで、あらゆるアプローチのスペクトルをカバーしています。

Kernel machines have sustained continuous progress in the field of quantum chemistry. In particular, they have proven to be successful in the low-data regime of force field reconstruction. This is because many physical invariances and symmetries can be incorporated into the kernel function to compensate for much larger datasets. So far, the scalability of this approach has however been hindered by its cubical runtime in the number of training points. While it is known, that iterative Krylov subspace solvers can overcome these burdens, they crucially rely on effective preconditioners, which are elusive in practice. Practical preconditioners need to be computationally efficient and numerically robust at the same time. Here, we consider the broad class of Nystr\"om-type methods to construct preconditioners based on successively more sophisticated low-rank approximations of the original kernel matrix, each of which provides a different set of computational trade-offs. All considered methods estimate the relevant subspace spanned by the kernel matrix columns using different strategies to identify a representative set of inducing points. Our comprehensive study covers the full spectrum of approaches, starting from naive random sampling to leverage score estimates and incomplete Cholesky factorizations, up to exact SVD decompositions.
翻訳日:2022-12-27 14:05:53 公開日:2022-12-24
# レコンストラクションエラーと典型的ペナルティを用いた分布外検出

Out-of-Distribution Detection with Reconstruction Error and Typicality-based Penalty ( http://arxiv.org/abs/2212.12641v1 )

ライセンス: Link先を確認
Genki Osada, Takahashi Tsubasa, Budrul Ahsan, Takashi Nishide(参考訳) 現実世界のアプリケーションに対して安全かつ信頼性の高い操作を実現するためには、OOD(out-of-distriion)検出の課題が不可欠である。 高次元における確率に基づく検出の失敗が示された後、 \emph{typeal set} に基づくアプローチが注目されているが、それでも満足できる性能は得られていない。 典型的手法の故障事例を提示することから始め,正規化フロー(nf)を用いた新しい再構成誤差に基づく手法を提案する。 さらに, 典型性に基づくペナルティを導入し, nfの再構成誤差に組み込むことにより, 新たなood検出法であるpenalized reconstruction error (pre)を提案する。 Preは分布内多様体の外側にあるテスト入力を検出するため、OODの例と同様に敵の例を効果的に検出する。 自然画像データセット, CIFAR-10, TinyImageNet, ILSVRC2012 を用いて,本手法の有効性を示す。

The task of out-of-distribution (OOD) detection is vital to realize safe and reliable operation for real-world applications. After the failure of likelihood-based detection in high dimensions had been shown, approaches based on the \emph{typical set} have been attracting attention; however, they still have not achieved satisfactory performance. Beginning by presenting the failure case of the typicality-based approach, we propose a new reconstruction error-based approach that employs normalizing flow (NF). We further introduce a typicality-based penalty, and by incorporating it into the reconstruction error in NF, we propose a new OOD detection method, penalized reconstruction error (PRE). Because the PRE detects test inputs that lie off the in-distribution manifold, it effectively detects adversarial examples as well as OOD examples. We show the effectiveness of our method through the evaluation using natural image datasets, CIFAR-10, TinyImageNet, and ILSVRC2012.
翻訳日:2022-12-27 13:58:51 公開日:2022-12-24
# HandsOff:追加の人間アノテーションのないラベル付きデータセット生成

HandsOff: Labeled Dataset Generation With No Additional Human Annotations ( http://arxiv.org/abs/2212.12645v1 )

ライセンス: Link先を確認
Austin Xu, Mariya I. Vasileva, Achal Dave, Arjun Seshadri(参考訳) 最近の研究では、ジェネレーティブ・アドバーサリアン・ネットワーク(gans)の表現力を利用してラベル付き合成データセットを生成する。 これらのデータセット生成方法は、しばしば合成画像の新しいアノテーションを必要とするため、実践者はアノテーションを探し出し、合成画像の集合をキュレートし、生成されたラベルの品質を保証する。 我々は,50枚未満のラベル付き画像でトレーニングした後,無制限に多数の合成画像と対応するラベルを生成する技術であるHandsOffフレームワークを紹介する。 本フレームワークは,GANインバージョンフィールドとデータセット生成を統一することにより,先行作業の現実的な欠点を回避する。 顔、車、フルボディの人間のポーズ、都市運転シーンなど、複数の挑戦的な領域において、リッチなピクセルワイズラベルを持つデータセットを生成します。 本手法は,従来のデータセット生成手法や伝達学習ベースラインと比較して,セマンティックセグメンテーション,キーポイント検出,深さ推定における最先端性能を実現する。 さらに、セマンティックセグメンテーションにおけるロングテール問題など、固定された手書きのデータセットに由来するモデル開発における幅広い課題に対処する能力についても紹介する。

Recent work leverages the expressive power of generative adversarial networks (GANs) to generate labeled synthetic datasets. These dataset generation methods often require new annotations of synthetic images, which forces practitioners to seek out annotators, curate a set of synthetic images, and ensure the quality of generated labels. We introduce the HandsOff framework, a technique capable of producing an unlimited number of synthetic images and corresponding labels after being trained on less than 50 pre-existing labeled images. Our framework avoids the practical drawbacks of prior work by unifying the field of GAN inversion with dataset generation. We generate datasets with rich pixel-wise labels in multiple challenging domains such as faces, cars, full-body human poses, and urban driving scenes. Our method achieves state-of-the-art performance in semantic segmentation, keypoint detection, and depth estimation compared to prior dataset generation approaches and transfer learning baselines. We additionally showcase its ability to address broad challenges in model development which stem from fixed, hand-annotated datasets, such as the long-tail problem in semantic segmentation.
翻訳日:2022-12-27 13:58:33 公開日:2022-12-24
# curriculaはいつ連合学習で働くのか?

When Do Curricula Work in Federated Learning? ( http://arxiv.org/abs/2212.12712v1 )

ライセンス: Link先を確認
Saeed Vahidian, Sreevatsank Kadaveru, Woonjoon Baek, Weijia Wang, Vyacheslav Kungurtsev, Chen Chen, Mubarak Shah, and Bill Lin(参考訳) フェデレーション学習のオープンな問題は、クライアントにおけるデータ不均一性の存在である。 連邦学習における大幅な精度低下を理解するための道の1つは、クライアントの深層モデルの振る舞いを異なるレベルの「難易度」を持つデータで精査することである。 本稿では,FLの異なる,まれに研究される次元である順序学習について検討する。 具体的には,順序付けられた学習原理がflの異質性効果の軽減にどのように寄与するかを検討することを目的とする。 本稿では,理論解析を行い,カリキュラム,反カリキュラム,ランダムカリキュラムの3種類の学習にまたがる順序の有効性に関する広範な実証研究を行う。 カリキュラム学習は非IID性を大幅に軽減する。 興味深いことに、クライアント間のデータ分散が多ければ多いほど、順序付き学習の恩恵を受ける。 本稿では,この現象を説明する分析を行い,カリキュラムの学習が対象のランドスケープを段階的に小さくすることを示すとともに,学習手順開始時の反復の高速化を示唆する。 局所バイアスの確率勾配を持つ局所SGDとしてフェデレーションデバイス上でのカリキュラムトレーニングをモデル化することにより,凸目標と非凸目標の収束の定量的結果を得る。 また,注文学習に触発されて,クライアントの現実世界の格差を生かした新しいクライアント選択手法を提案する。 クライアント選択に対する提案手法はFLにおける順序学習と併用した場合に相乗効果がある。

An oft-cited open problem of federated learning is the existence of data heterogeneity at the clients. One pathway to understanding the drastic accuracy drop in federated learning is by scrutinizing the behavior of the clients' deep models on data with different levels of "difficulty", which has been left unaddressed. In this paper, we investigate a different and rarely studied dimension of FL: ordered learning. Specifically, we aim to investigate how ordered learning principles can contribute to alleviating the heterogeneity effects in FL. We present theoretical analysis and conduct extensive empirical studies on the efficacy of orderings spanning three kinds of learning: curriculum, anti-curriculum, and random curriculum. We find that curriculum learning largely alleviates non-IIDness. Interestingly, the more disparate the data distributions across clients the more they benefit from ordered learning. We provide analysis explaining this phenomenon, specifically indicating how curriculum training appears to make the objective landscape progressively less convex, suggesting fast converging iterations at the beginning of the training procedure. We derive quantitative results of convergence for both convex and nonconvex objectives by modeling the curriculum training on federated devices as local SGD with locally biased stochastic gradients. Also, inspired by ordered learning, we propose a novel client selection technique that benefits from the real-world disparity in the clients. Our proposed approach to client selection has a synergic effect when applied together with ordered learning in FL.
翻訳日:2022-12-27 13:56:26 公開日:2022-12-24
# 包括的人工知能

Inclusive Artificial Intelligence ( http://arxiv.org/abs/2212.12633v1 )

ライセンス: Link先を確認
Dilip Arumugam, Shi Dong, Benjamin Van Roy(参考訳) 生成的AIを評価し比較する一般的な方法は、仮説的な代表者に役立つ応答を動機付ける。 これらの用語におけるモデルの評価は、人口全体にわたる均質な選好を前提としており、個人間の多様な関心を表わさない凝集性aiの選択をエンエンダーに求める。 そこで本研究では,AIを優先する代替評価手法を提案する。これは,集団の特定のセグメントに対するその後の応答のカスタマイズだけでなく,ユーティリティを最大化する決定にも必要不可欠な知識を確実に保持する。

Prevailing methods for assessing and comparing generative AIs incentivize responses that serve a hypothetical representative individual. Evaluating models in these terms presumes homogeneous preferences across the population and engenders selection of agglomerative AIs, which fail to represent the diverse range of interests across individuals. We propose an alternative evaluation method that instead prioritizes inclusive AIs, which provably retain the requisite knowledge not only for subsequent response customization to particular segments of the population but also for utility-maximizing decisions.
翻訳日:2022-12-27 13:50:33 公開日:2022-12-24
# 実世界における知的意思決定の実現について:基礎決定モデルの観点から

On Realization of Intelligent Decision-Making in the Real World: A Foundation Decision Model Perspective ( http://arxiv.org/abs/2212.12669v1 )

ライセンス: Link先を確認
Ying Wen, Ziyu Wan, Ming Zhou, Shufang Hou, Zhe Cao, Chenyang Le, Jingxiao Chen, Zheng Tian, Weinan Zhang, Jun Wang(参考訳) 我々の位置環境は不確実性に満ちており、非常にダイナミックであるため、実世界のシナリオにおいて、マシン主導のインテリジェント意思決定(IDM)の普及を妨げている。 つまり、IMMは新しいスキルを継続的に学び、より広いアプリケーションにわたって効率的に一般化する能力を持つべきである。 IDMは、タスクとアプリケーションの間の障壁を破る人工知能(AGI)を示す新しいアプローチと理論的ブレークスルーの恩恵を受ける。 最近の研究では、バックボーンの基礎モデルとしてのニューラルネットワーク、およびコンピュータビジョン、自然言語処理、強化学習を含む様々なタスクへの一般化が検討されている。 そこで我々は,トランスフォーマーアーキテクチャを用いたシーケンスデコーディングタスクとして,様々な意思決定タスクを定式化することにより,基礎決定モデル(FDM)を確立することができると主張している。 本稿では, 基礎決定モデルがIMMの効率性と一般化をどのように改善するかを詳述する。 また、マルチエージェントゲームAI、生産スケジューリング、ロボット工学タスクにおけるFDMの潜在的な応用についても論じる。 最後に,本研究では,テキスト生成,画像キャプション,ビデオゲームプレイ,ロボット制御,トラベルセールスマン問題などの453タスクにおける人間レベルのパフォーマンスを実現する,12億のパラメータを持つfdm,digitalbrain(db1)の実現を事例として実証する。 基礎決定モデルとして、DB1はより自律的で効率的な実世界のIMMアプリケーションに向けた第一歩となるでしょう。

Our situated environment is full of uncertainty and highly dynamic, thus hindering the widespread adoption of machine-led Intelligent Decision-Making (IDM) in real world scenarios. This means IDM should have the capability of continuously learning new skills and efficiently generalizing across wider applications. IDM benefits from any new approaches and theoretical breakthroughs that exhibit Artificial General Intelligence (AGI) breaking the barriers between tasks and applications. Recent research has well-examined neural architecture, Transformer, as a backbone foundation model and its generalization to various tasks, including computer vision, natural language processing, and reinforcement learning. We therefore argue that a foundation decision model (FDM) can be established by formulating various decision-making tasks as a sequence decoding task using the Transformer architecture; this would be a promising solution to advance the applications of IDM in more complex real world tasks. In this paper, we elaborate on how a foundation decision model improves the efficiency and generalization of IDM. We also discuss potential applications of a FDM in multi-agent game AI, production scheduling, and robotics tasks. Finally, through a case study, we demonstrate our realization of the FDM, DigitalBrain (DB1) with 1.2 billion parameters, which achieves human-level performance over 453 tasks, including text generation, images caption, video games playing, robotic control, and traveling salesman problems. As a foundation decision model, DB1 would be a baby step towards more autonomous and efficient real world IDM applications.
翻訳日:2022-12-27 13:50:24 公開日:2022-12-24
# ヒートポンプ制御のための深部強化学習

Deep Reinforcement Learning for Heat Pump Control ( http://arxiv.org/abs/2212.12716v1 )

ライセンス: Link先を確認
Tobias Rohrer, Lilli Frison, Lukas Kaupenjohann, Katrin Scharf, Elke Hergenrother(参考訳) 家庭での暖房は今日発生した排出に大きく貢献している。 ヒートポンプは熱発生の代替手段として有望であり、ドイツのエネルギー変換の目標を達成する上で重要な技術であり、化石燃料への依存を減らしている。 今日では、フィールド内のヒートポンプの大部分は、現在の屋外温度を制御行動に素直にマッピングした単純な加熱曲線によって制御されている。 より高度な制御アプローチはモデル予測制御(mpc)であり、複数の研究でヒートポンプ制御に適用された。 しかし、mpcはいくつかの欠点がある建築モデルに大きく依存している。 この分野における最近のブレークスルーにより、この研究はシミュレーション環境におけるヒートポンプ制御に深層強化学習(drl)を適用している。 MPCとの比較により、DRLをモデルフリーで適用してMPCライクな性能を実現することができることを示すことができる。 本研究は,drlを建築暖房に応用した他の作業を拡張し,学習した制御戦略の詳細な分析と,2つの最先端制御手法の詳細な比較を行った。

Heating in private households is a major contributor to the emissions generated today. Heat pumps are a promising alternative for heat generation and are a key technology in achieving our goals of the German energy transformation and to become less dependent on fossil fuels. Today, the majority of heat pumps in the field are controlled by a simple heating curve, which is a naive mapping of the current outdoor temperature to a control action. A more advanced control approach is model predictive control (MPC) which was applied in multiple research works to heat pump control. However, MPC is heavily dependent on the building model, which has several disadvantages. Motivated by this and by recent breakthroughs in the field, this work applies deep reinforcement learning (DRL) to heat pump control in a simulated environment. Through a comparison to MPC, it could be shown that it is possible to apply DRL in a model-free manner to achieve MPC-like performance. This work extends other works which have already applied DRL to building heating operation by performing an in-depth analysis of the learned control strategies and by giving a detailed comparison of the two state-of-the-art control methods.
翻訳日:2022-12-27 13:49:59 公開日:2022-12-24
# 木構造学習による変数ネットワークの不確かさの定量化

Improving Uncertainty Quantification of Variance Networks by Tree-Structured Learning ( http://arxiv.org/abs/2212.12658v1 )

ライセンス: Link先を確認
Wenxuan Ma and Xing Yan(参考訳) 分散ネットワークの不確かさを定量化するために,不確実性に基づく特徴空間を複数の領域に分割する新しい木構造局所ニューラルネットワークモデルを提案する。 葉ノードは、地域固有のニューラルネットワークをトレーニングして、不確実性を定量化するための平均と分散の両方を予測する、異なる領域を表す。 提案したUncertainty-Splitting Neural Regression Tree (USNRT)は、新しいスプリッティング基準を採用している。 各ノードにおいて、ニューラルネットワークをまず完全なデータに基づいてトレーニングし、最も顕著な不均一性を持つ2つのサブリージョンに対応する、最良の分割を見つけるために残差の統計的テストを行う。 USNRTは、葉ノードが十分であり、刈り取りは不要であるため、計算に親しみやすい。 uciデータセットのキャリブレーションとシャープネスの両面で、usnrtは、バニラ分散ネットワーク、ディープアンサンブル、ドロップアウトベースのメソッド、ツリーベースモデルなど、最近の一般的な分散予測方法と比べて優れたパフォーマンスを示している。 包括的な可視化と分析を通じて、usnrtの動作方法を明らかにし、そのメリットを示す。

To improve uncertainty quantification of variance networks, we propose a novel tree-structured local neural network model that partitions the feature space into multiple regions based on uncertainty heterogeneity. A tree is built upon giving the training data, whose leaf nodes represent different regions where region-specific neural networks are trained to predict both the mean and the variance for quantifying uncertainty. The proposed Uncertainty-Splitting Neural Regression Tree (USNRT) employs novel splitting criteria. At each node, a neural network is trained on the full data first, and a statistical test for the residuals is conducted to find the best split, corresponding to the two sub-regions with the most significant uncertainty heterogeneity. USNRT is computationally friendly because very few leaf nodes are sufficient and pruning is unnecessary. On extensive UCI datasets, in terms of both calibration and sharpness, USNRT shows superior performance compared to some recent popular methods for variance prediction, including vanilla variance network, deep ensemble, dropout-based methods, tree-based models, etc. Through comprehensive visualization and analysis, we uncover how USNRT works and show its merits.
翻訳日:2022-12-27 13:48:17 公開日:2022-12-24
# 連続強化学習に基づく流路交通流予測

Streaming Traffic Flow Prediction Based on Continuous Reinforcement Learning ( http://arxiv.org/abs/2212.12767v1 )

ライセンス: Link先を確認
Yanan Xiao, Minyu Liu, Zichen Zhang, Lu Jiang, Minghao Yin, Jianan Wang(参考訳) 交通流予測はスマート交通の重要な部分である。 目標は、センサと交通ネットワークが記録した履歴データに基づいて、将来の交通状況を予測することである。 市が建設を続けるにつれて、交通網の一部が追加または変更される。 長期ストリーミングネットワークの拡大と進化を正確に予測する方法は非常に重要です。 そこで本研究では,自律エージェントにセンサパターンの模倣を指導し,センサのプロファイル(交通,速度,占有率など)に基づいて次の訪問を計画する,シミュレーションに基づく新しい基準を提案する。 センサーが記録したデータは、エージェントがセンサーの動作パターンを完全にシミュレートできる場合に最も正確である。 本稿では,エージェントが次のフロー値予測器であり,アクションがセンサの次の時系列フロー値であり,環境状態がセンサと輸送ネットワークの動的に融合した表現である,連続強化学習タスクとして問題を定式化する。 エージェントが取ったアクションは環境を変え、エージェントのモードを更新させ、エージェントはさらにダイナミックなトラフィックネットワークの変化を調べ、エージェントがその次の訪問をより正確に予測するのに役立つ。 そこで我々は,センサとトラヒックネットワークが相互に更新し,時間とともに進化する状態表現を定量化する手法を開発した。

Traffic flow prediction is an important part of smart transportation. The goal is to predict future traffic conditions based on historical data recorded by sensors and the traffic network. As the city continues to build, parts of the transportation network will be added or modified. How to accurately predict expanding and evolving long-term streaming networks is of great significance. To this end, we propose a new simulation-based criterion that considers teaching autonomous agents to mimic sensor patterns, planning their next visit based on the sensor's profile (e.g., traffic, speed, occupancy). The data recorded by the sensor is most accurate when the agent can perfectly simulate the sensor's activity pattern. We propose to formulate the problem as a continuous reinforcement learning task, where the agent is the next flow value predictor, the action is the next time-series flow value in the sensor, and the environment state is a dynamically fused representation of the sensor and transportation network. Actions taken by the agent change the environment, which in turn forces the agent's mode to update, while the agent further explores changes in the dynamic traffic network, which helps the agent predict its next visit more accurately. Therefore, we develop a strategy in which sensors and traffic networks update each other and incorporate temporal context to quantify state representations evolving over time.
翻訳日:2022-12-27 13:47:58 公開日:2022-12-24
# 超球面ロスアウェア三元量子化

Hyperspherical Loss-Aware Ternary Quantization ( http://arxiv.org/abs/2212.12649v1 )

ライセンス: Link先を確認
Dan Liu, Xue Liu(参考訳) 既存の作品の多くは、離散空間における三元量子化に射影関数を用いる。 スケーリング係数としきい値がモデル精度を改善するために使用される場合もある。 しかし、最適化に使用される勾配は不正確であり、3次モデルと完全精度の差は顕著である。 より正確な勾配を得るために、温度に基づくシグモイド関数を用いて前方伝播パスの完全精度重みの離散部分を徐々に増加させる研究もある。 離散空間において三次量子化を直接実行する代わりに、三次量子化の前に正則化項を通じて三次量子化に近い完全精度の重みを押す。 さらに,温度に基づく手法に触発されて,シグモイド関数の導関数をシミュレートして,より正確な勾配を得るための再スケーリング係数を導入する。 本手法は,画像分類と物体検出の両方において,三元量子化の精度を著しく向上できることを示す。

Most of the existing works use projection functions for ternary quantization in discrete space. Scaling factors and thresholds are used in some cases to improve the model accuracy. However, the gradients used for optimization are inaccurate and result in a notable accuracy gap between the full precision and ternary models. To get more accurate gradients, some works gradually increase the discrete portion of the full precision weights in the forward propagation pass, e.g., using temperature-based Sigmoid function. Instead of directly performing ternary quantization in discrete space, we push full precision weights close to ternary ones through regularization term prior to ternary quantization. In addition, inspired by the temperature-based method, we introduce a re-scaling factor to obtain more accurate gradients by simulating the derivatives of Sigmoid function. The experimental results show that our method can significantly improve the accuracy of ternary quantization in both image classification and object detection tasks.
翻訳日:2022-12-27 13:40:55 公開日:2022-12-24
# LMFLOSS:不均衡な医療画像分類のためのハイブリッドロス

LMFLOSS: A Hybrid Loss For Imbalanced Medical Image Classification ( http://arxiv.org/abs/2212.12741v1 )

ライセンス: Link先を確認
Abu Adnan Sadi, Labib Chowdhury, Nursrat Jahan, Mohammad Newaz Sharif Rafi, Radeya Chowdhury, Faisal Ahamed Khan, Nabeel Mohammed(参考訳) 医療画像の自動分類は、AIの使用が真の社会的影響をもたらす可能性がある非常に重要な分野である。 しかし、効果的なソリューションを作る上で障害となる課題は依然としてたくさんある。 そのうちの1つは、ほとんどの医療画像データセットがクラス不均衡の問題を持っているという事実である。 このことは、既存のAI技術、特にニューラルネットワークベースのディープラーニング手法が、このようなシナリオではよく機能しないという事実につながります。 そのため、この領域は研究者にとって興味深く活発な研究対象となっている。 本研究では,この重要な分野における重要な問題を緩和するために,ニューラルネットワークモデルをトレーニングするための新しい損失関数を提案する。 3つの異なる医用画像領域の独立に収集した3つのデータセットを厳密に実験した結果,提案する損失関数は,ベースラインモデルと比較して2%~10%マクロf1の改善と一貫して機能することが示された。 我々は,医用画像分類へのより一般化されたアプローチに向けた新たな研究を期待する。

Automatic medical image classification is a very important field where the use of AI has the potential to have a real social impact. However, there are still many challenges that act as obstacles to making practically effective solutions. One of those is the fact that most of the medical imaging datasets have a class imbalance problem. This leads to the fact that existing AI techniques, particularly neural network-based deep-learning methodologies, often perform poorly in such scenarios. Thus this makes this area an interesting and active research focus for researchers. In this study, we propose a novel loss function to train neural network models to mitigate this critical issue in this important field. Through rigorous experiments on three independently collected datasets of three different medical imaging domains, we empirically show that our proposed loss function consistently performs well with an improvement between 2%-10% macro f1 when compared to the baseline models. We hope that our work will precipitate new research toward a more generalized approach to medical image classification.
翻訳日:2022-12-27 13:40:42 公開日:2022-12-24
# 本物か偽のテキストか? 人文テキストと機械生成テキストの境界を検知する能力の検討

Real or Fake Text?: Investigating Human Ability to Detect Boundaries Between Human-Written and Machine-Generated Text ( http://arxiv.org/abs/2212.12672v1 )

ライセンス: Link先を確認
Liam Dugan, Daphne Ippolito, Arun Kirubarajan, Sherry Shi, Chris Callison-Burch(参考訳) 大きな言語モデルが生成するテキストが増殖するにつれて、人間がそのようなテキストとどのように関わるか、また、読んでいるテキストが人間のライターに起源がないことを検知できるかどうかを理解することが不可欠になる。 生成したテキストの人間検出に関する以前の研究は、全文が人書きまたは機械生成された場合に焦点を当てていた。 本稿では、テキストが人間の書き起こしから始まり、最先端のニューラルネットワークモデルによって生成されるようになる、より現実的な状況について検討する。 この課題でアノテータはしばしば苦労するが、アノテータのスキルにはかなりのばらつきがあり、適切なインセンティブが与えられると、アノテータは時間とともに改善できることを示す。 さらに,様々な変数(モデルサイズ,デコード戦略,微調整,素早いジャンルなど)が人間の検出性能に与える影響について,詳細な比較研究を行い,分析を行った。 最後に、被験者からエラーアノテーションを収集し、特定のテキストジャンルがモデルに影響を与え、異なるタイプのエラーを発生させ、特定の文レベルの特徴がアノテーションの選択と高い相関があることを示す。 エラー分類と組み合わせた21,000以上の人文アノテーションの集合であるRoFTデータセットを公開し、人文の検出と生成テキストの評価を後押しする。

As text generated by large language models proliferates, it becomes vital to understand how humans engage with such text, and whether or not they are able to detect when the text they are reading did not originate with a human writer. Prior work on human detection of generated text focuses on the case where an entire passage is either human-written or machine-generated. In this paper, we study a more realistic setting where text begins as human-written and transitions to being generated by state-of-the-art neural language models. We show that, while annotators often struggle at this task, there is substantial variance in annotator skill and that given proper incentives, annotators can improve at this task over time. Furthermore, we conduct a detailed comparison study and analyze how a variety of variables (model size, decoding strategy, fine-tuning, prompt genre, etc.) affect human detection performance. Finally, we collect error annotations from our participants and use them to show that certain textual genres influence models to make different types of errors and that certain sentence-level features correlate highly with annotator selection. We release the RoFT dataset: a collection of over 21,000 human annotations paired with error classifications to encourage future work in human detection and evaluation of generated text.
翻訳日:2022-12-27 13:38:48 公開日:2022-12-24
# オープン世界における物体検出のための幾何学的手がかりを探る

GOOD: Exploring Geometric Cues for Detecting Objects in an Open World ( http://arxiv.org/abs/2212.11720v2 )

ライセンス: Link先を確認
Haiwen Huang, Andreas Geiger, Dan Zhang(参考訳) オープンワールドのクラスに依存しないオブジェクト検出,すなわち,少数のベースオブジェクトクラスから学習することで,画像中のすべてのオブジェクトを検出するタスクに対処する。 最先端のRGBベースのモデルは、トレーニングクラスの過度な適合に悩まされ、新しいオブジェクトの検出に失敗することが多い。 これは、rgbベースのモデルは、主に新しい物体を検出するために外観の類似性に依存しており、テクスチャや判別部品のような短いキューを過度に当てはまる傾向があるためである。 rgbベースの物体検出器の欠点に対処するために,汎用単眼推定器によって予測される深さや正規値などの幾何学的手がかりを組み込んだ手法を提案する。 具体的には、幾何学的手がかりを用いて、トレーニングセット内の未注釈の新規オブジェクトを擬似ラベル付けするオブジェクト提案ネットワークをトレーニングする。 我々のGeometry-Guided Open World Object Detector (GOOD)は、新しいオブジェクトカテゴリの検出リコールを大幅に改善し、いくつかのトレーニングクラスですでにうまく機能している。 COCOデータセットのトレーニングに1つの"人"クラスを使用して、GOODはSOTAメソッドを5.0%のAR@100で上回り、相対的な改善は24%である。

We address the task of open-world class-agnostic object detection, i.e., detecting every object in an image by learning from a limited number of base object classes. State-of-the-art RGB-based models suffer from overfitting the training classes and often fail at detecting novel-looking objects. This is because RGB-based models primarily rely on appearance similarity to detect novel objects and are also prone to overfitting short-cut cues such as textures and discriminative parts. To address these shortcomings of RGB-based object detectors, we propose incorporating geometric cues such as depth and normals, predicted by general-purpose monocular estimators. Specifically, we use the geometric cues to train an object proposal network for pseudo-labeling unannotated novel objects in the training set. Our resulting Geometry-guided Open-world Object Detector (GOOD) significantly improves detection recall for novel object categories and already performs well with only a few training classes. Using a single "person" class for training on the COCO dataset, GOOD surpasses SOTA methods by 5.0% AR@100, a relative improvement of 24%.
翻訳日:2022-12-27 13:32:30 公開日:2022-12-24
# mantis:スパイキングニューラルネットワークによるエネルギー効率の高い自律移動エージェントの実現

Mantis: Enabling Energy-Efficient Autonomous Mobile Agents with Spiking Neural Networks ( http://arxiv.org/abs/2212.12620v1 )

ライセンス: Link先を確認
Rachmad Vidya Wicaksana Putra, Muhammad Shafique(参考訳) 無人航空機(UAV)や移動ロボットのような自律移動エージェントは、人間の生産性を向上させる大きな可能性を示している。 これらの移動体は、通常電池で駆動されるため、低電力/エネルギー消費の長い寿命を必要とする。 これらのエージェントは、特に遠隔地や危険な場所でデプロイされた場合、変更/動的環境にも適応する必要があるため、効率的なオンライン学習能力が必要である。 SNNは、スパース計算による電力/エネルギー消費が低く、バイオインスパイアされた学習機構による効率的なオンライン学習を提供するため、これらの要件を満たすことができる。 しかし、自律移動エージェントに適切なsnモデルを適用するための方法論は依然として必要である。 本研究では,自律移動エージェントにsnsを体系的に採用し,動的環境におけるエネルギー効率の高い処理と適応能力を実現するマンティス手法を提案する。 マンティスの主なアイデアは、SNN操作の最適化、生物工学的なオンライン学習機構の活用、SNNモデル選択である。 実験結果から,本手法は,32ビット重み付きベースラインネットワークと比較して,メモリフットプリントとエネルギー消費(SNNモデルでは3.32倍のメモリ削減と2.9倍の省エネ)で高い精度を維持していることが示された。 このように、我々のマンティスは資源・エネルギー制約のある移動体エージェントにSNNを使用できる。

Autonomous mobile agents such as unmanned aerial vehicles (UAVs) and mobile robots have shown huge potential for improving human productivity. These mobile agents require low power/energy consumption to have a long lifespan since they are usually powered by batteries. These agents also need to adapt to changing/dynamic environments, especially when deployed in far or dangerous locations, thus requiring efficient online learning capabilities. These requirements can be fulfilled by employing Spiking Neural Networks (SNNs) since SNNs offer low power/energy consumption due to sparse computations and efficient online learning due to bio-inspired learning mechanisms. However, a methodology is still required to employ appropriate SNN models on autonomous mobile agents. Towards this, we propose a Mantis methodology to systematically employ SNNs on autonomous mobile agents to enable energy-efficient processing and adaptive capabilities in dynamic environments. The key ideas of our Mantis include the optimization of SNN operations, the employment of a bio-plausible online learning mechanism, and the SNN model selection. The experimental results demonstrate that our methodology maintains high accuracy with a significantly smaller memory footprint and energy consumption (i.e., 3.32x memory reduction and 2.9x energy saving for an SNN model with 8-bit weights) compared to the baseline network with 32-bit weights. In this manner, our Mantis enables the employment of SNNs for resource- and energy-constrained mobile agents.
翻訳日:2022-12-27 13:32:07 公開日:2022-12-24
# プライミングを用いた最適クラス順序同定による壊滅的忘れの軽減

Utilizing Priming to Identify Optimal Class Ordering to Alleviate Catastrophic Forgetting ( http://arxiv.org/abs/2212.12643v1 )

ライセンス: Link先を確認
Gabriel Mantione-Holmes, Justin Leo, Jugal Kalita(参考訳) ニューラルネットワークが生物学的なものを正しく模倣するためには、過去のトレーニングから学んだことを忘れることなく、新しいエクイジェンシーに適応できなければならない。 ニューラルネットワークに対する生涯学習のアプローチは、この目標に向けて努力するが、自然言語処理タスクに現実的にデプロイされるほど十分に進歩していない。 破滅的な忘れ物という実証的な障害は、適切な生涯学習モデルから研究者を救い出す。 破滅的な忘れを和らげるために努力がされている一方で、インクリメンタル学習のために新しいクラスをトレーニングするときにクラスオーダリングの重要性を検討する研究が欠如している。 これは、人間が学習する"クラス"の順序が重く監視され、非常に重要であるため、驚くべきことです。 理想的なクラスオーダーを開発するためのヒューリスティックスが研究されているが、本論文では、インクリメンタルなクラス学習のためのスキームとしてのプライミングに関連するクラス順序について検討する。 本研究は,ヒトにおける様々なプライミング法と,その再現方法の関連性を検討することによって,生物系と合成系との類似性をよりよく理解するとともに,破滅的忘れと戦うための現在の実践を改良する。 本稿では,nlpインクリメンタル学習タスクにおいて,クラス順序付けと心理的プライミングプラクティスの融合により,ランダムなクラス順序付けを一貫して上回ってクラス順序付けを一般化できる方法を見出した。

In order for artificial neural networks to begin accurately mimicking biological ones, they must be able to adapt to new exigencies without forgetting what they have learned from previous training. Lifelong learning approaches to artificial neural networks attempt to strive towards this goal, yet have not progressed far enough to be realistically deployed for natural language processing tasks. The proverbial roadblock of catastrophic forgetting still gate-keeps researchers from an adequate lifelong learning model. While efforts are being made to quell catastrophic forgetting, there is a lack of research that looks into the importance of class ordering when training on new classes for incremental learning. This is surprising as the ordering of "classes" that humans learn is heavily monitored and incredibly important. While heuristics to develop an ideal class order have been researched, this paper examines class ordering as it relates to priming as a scheme for incremental class learning. By examining the connections between various methods of priming found in humans and how those are mimicked yet remain unexplained in life-long machine learning, this paper provides a better understanding of the similarities between our biological systems and the synthetic systems while simultaneously improving current practices to combat catastrophic forgetting. Through the merging of psychological priming practices with class ordering, this paper is able to identify a generalizable method for class ordering in NLP incremental learning tasks that consistently outperforms random class ordering.
翻訳日:2022-12-27 13:31:27 公開日:2022-12-24
# 時間系列生成のための深部潜時空間モデル

Deep Latent State Space Models for Time-Series Generation ( http://arxiv.org/abs/2212.12749v1 )

ライセンス: Link先を確認
Linqi Zhou, Michael Poli, Winnie Xu, Stefano Massaroli, Stefano Ermon(参考訳) 通常の微分方程式(ODE)に基づく手法は、時系列の生成モデルを構築するために広く用いられている。 隠蔽状態の繰り返しを明示的に計算することによる高い計算オーバーヘッドに加えて、既存のODEベースのモデルは、多くの現実世界システムでよくある急激な遷移を伴う学習シーケンスデータに不足している。 本研究では、状態空間ODEに従って進化する潜伏変数を持つ列の生成モデルLS4を提案し、モデリング能力を向上させる。 近年の深層状態空間モデル(s4)に触発されて,隠れた状態の明示的な評価をバイパスする畳み込み表現を活用し,高速化を実現する。 LS4は,モナシュ予測リポジトリにおける実世界のデータセットの残差分布,分類,予測スコアの点で,従来の連続時間生成モデルよりも大幅に優れており,高度確率データを時間的遷移でモデル化することができることを示す。 LS4は、平均二乗誤差と不規則にサンプリングされたデータセットの厳密な変動下限を著しく改善し、また長いシーケンス上の他のベースラインよりもx100高速である。

Methods based on ordinary differential equations (ODEs) are widely used to build generative models of time-series. In addition to high computational overhead due to explicitly computing hidden states recurrence, existing ODE-based models fall short in learning sequence data with sharp transitions - common in many real-world systems - due to numerical challenges during optimization. In this work, we propose LS4, a generative model for sequences with latent variables evolving according to a state space ODE to increase modeling capacity. Inspired by recent deep state space models (S4), we achieve speedups by leveraging a convolutional representation of LS4 which bypasses the explicit evaluation of hidden states. We show that LS4 significantly outperforms previous continuous-time generative models in terms of marginal distribution, classification, and prediction scores on real-world datasets in the Monash Forecasting Repository, and is capable of modeling highly stochastic data with sharp temporal transitions. LS4 sets state-of-the-art for continuous-time latent generative models, with significant improvement of mean squared error and tighter variational lower bounds on irregularly-sampled datasets, while also being x100 faster than other baselines on long sequences.
翻訳日:2022-12-27 13:31:01 公開日:2022-12-24
# 複数の事前学習モデルによる分布検出の高速化

Boosting Out-of-Distribution Detection with Multiple Pre-trained Models ( http://arxiv.org/abs/2212.12720v1 )

ライセンス: Link先を確認
Feng Xue, Zi He, Chuanlong Xie, Falong Tan, Zhenguo Li(参考訳) アウト・オブ・ディストリビューション(OOD)検出、すなわち、トレーニング分布以外の新しい分布から入力がサンプリングされるかどうかを特定することは、オープンな世界で機械学習システムを安全にデプロイするための重要なタスクである。 近年,事前学習モデルを用いたポストホック検出は有望な性能を示し,大規模にスケールできる。 複数の事前訓練されたモデルの多様性を活用して、ポストホック検出手法の性能を向上させることができるか? 本研究では,事前学習モデルの動物園から得られた複数の検出判断をセンセンシングして検出強化手法を提案する。 提案手法では,一般に使用されるハードしきい値の代わりにp値を用い,複数の仮説テストの基本的な枠組みを活用し,分布内データ(id)の正の正の率を制御する。 モデル動物園の利用に焦点をあて,ood検出ベンチマークにおける現状手法との系統的実証的比較を行った。 提案手法は, 単一モデル検出器と比較して一貫した改善を示し, 現在の競合手法を著しく上回っている。 CIFAR10とImageNetのベンチマークでは,相対性能を65.40%,26.96%向上した。

Out-of-Distribution (OOD) detection, i.e., identifying whether an input is sampled from a novel distribution other than the training distribution, is a critical task for safely deploying machine learning systems in the open world. Recently, post hoc detection utilizing pre-trained models has shown promising performance and can be scaled to large-scale problems. This advance raises a natural question: Can we leverage the diversity of multiple pre-trained models to improve the performance of post hoc detection methods? In this work, we propose a detection enhancement method by ensembling multiple detection decisions derived from a zoo of pre-trained models. Our approach uses the p-value instead of the commonly used hard threshold and leverages a fundamental framework of multiple hypothesis testing to control the true positive rate of In-Distribution (ID) data. We focus on the usage of model zoos and provide systematic empirical comparisons with current state-of-the-art methods on various OOD detection benchmarks. The proposed ensemble scheme shows consistent improvement compared to single-model detectors and significantly outperforms the current competitive methods. Our method substantially improves the relative performance by 65.40% and 26.96% on the CIFAR10 and ImageNet benchmarks.
翻訳日:2022-12-27 13:30:26 公開日:2022-12-24