このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20220816となっている論文です。

PDF登録状況(公開日: 20220816)

TitleAuthorsAbstract論文公表日・翻訳日
# 開放空気中を伝搬するマイクロ波絡み合い信号のコプレーナアンテナ設計

Coplanar Antenna Design for Microwave Entangled Signals Propagating in Open Air ( http://arxiv.org/abs/2009.03021v3 )

ライセンス: Link先を確認
Tasio Gonzalez-Raya and Mikel Sanz(参考訳) オープンエアマイクロ波量子通信とメトロロジープロトコルは、それらが生成されるクライオスタットから熱雑音が支配する環境へ量子リソースを転送できる必要がある。 実際、そのような量子リソースを持つ状態は、温度 $t_\text{in} \simeq 50 $~mk と固有インピーダンス $z_\text{in} = 50 \, \omega$ によって特徴づけられる。 そして、アンテナ状の装置は、Z_\text{out} = 377 \, \Omega$および温度$T_\text{out} \simeq 300$~Kの固有のインピーダンスを特徴とする、最小の損失でそれらを屋外に転送する必要がある。 この装置は、クライオスタットと開放空気とのスムーズなインピーダンスマッチングを達成する。 本稿では,2モード圧縮熱状態の伝送について検討し,コプラナーアンテナの最適形状を設計して絡み合いを保存する手法を開発した。 数値最適化手法に基づき,インピーダンスの最適形状を求め,その形状を定性的に記述する関数型ansatzを提案する。 さらに,本研究は,アンテナの反射率をこの形状に非常に敏感なため,従来の商用アンテナを用いた実験では限界であった外向きの絡み合いに小さい変化が劇的に影響することを示した。 この研究は、マイクロ波量子センシングと量子気象学の分野において関係があり、特に量子レーダの開発や、任意の屋外マイクロ波量子通信プロトコルへの応用に寄与する。

Open-air microwave quantum communication and metrology protocols must be able to transfer quantum resources from a cryostat, where they are created, to an environment dominated by thermal noise. Indeed, the states carrying such quantum resources are generated in a cryostat characterized by a temperature $T_\text{in} \simeq 50 $~mK and an intrinsic impedance $Z_\text{in} = 50 \, \Omega$. Then, an antenna-like device is required to transfer them with minimal losses into open air, characterized by an intrinsic impedance of $Z_\text{out} = 377 \, \Omega$ and a temperature $T_\text{out} \simeq 300$~K. This device accomplishes a smooth impedance matching between the cryostat and the open air. Here, we study the transmission of two-mode squeezed thermal states, developing a technique to design the optimal shape of a coplanar antenna to preserve the entanglement. Based on a numerical optimization procedure, we find the optimal shape of the impedance, and we propose a functional ansatz to qualitatively describe this shape. Additionally, this study reveals that the reflectivity of the antenna is very sensitive to this shape, so that small changes dramatically affect the outcoming entanglement, which could have been a limitation in previous experiments employing commercial antennae. This work is relevant in the fields of microwave quantum sensing and quantum metrology with special application to the development of the quantum radar, as well as any open-air microwave quantum communication protocol.
翻訳日:2023-05-03 07:21:46 公開日:2022-08-16
# 固有の原子軌道を持つ分子系の量子シミュレーション

Quantum simulations of molecular systems with intrinsic atomic orbitals ( http://arxiv.org/abs/2011.08137v3 )

ライセンス: Link先を確認
Stefano Barison, Davide Emilio Galli, Mario Motta(参考訳) 量子コンピュータ上の分子系の量子シミュレーションは、しばしばガウス軌道の最小基底集合を用いる。 より現実的な基底セットと比較して、最小基底セットを用いた量子シミュレーションは量子ビットと量子ゲートを少なくするが、精度は低い。 より正確な結果を得るための自然な戦略は基底集合のサイズを増加させることであり、量子ビットと量子ゲートの数を増やす必要がある。 本稿では、分子の量子シミュレーションにおける内在性原子軌道(IAO)の利用について検討し、最小基底で必要とされる計算コストでエネルギーと特性の精度を向上させる。 本研究では,異なるans\"{a}tzeを用いて,変分量子固有解法の枠組みにおける基底状態エネルギーと1体および2体密度作用素について検討する。 また,IBM 量子コンピュータを用いた量子アルゴリズムの組み合わせによる小分子の基底状態および励起状態エネルギーの計算におけるこのアプローチの利用を実証した。

Quantum simulations of molecular systems on quantum computers often employ minimal basis sets of Gaussian orbitals. In comparison with more realistic basis sets, quantum simulations employing minimal basis sets require fewer qubits and quantum gates, but yield results of lower accuracy. A natural strategy to achieve more accurate results is to increase the basis set size, which in turn requires increasing the number of qubits and quantum gates. Here we explore the use of intrinsic atomic orbitals (IAOs) in quantum simulations of molecules, to improve the accuracy of energies and properties at the same computational cost required by a minimal basis. We investigate ground-state energies and one- and two-body density operators in the framework of the variational quantum eigensolver, employing and comparing different Ans\"{a}tze. We also demonstrate the use of this approach in the calculation of ground- and excited-states energies of small molecules by a combination of quantum algorithms, using IBM Quantum computers.
翻訳日:2023-04-23 23:32:18 公開日:2022-08-16
# ランダム化測定に基づく多粒子量子相関の統計的意義試験

Statistically significant tests of multiparticle quantum correlations based on randomized measurements ( http://arxiv.org/abs/2012.12176v3 )

ライセンス: Link先を確認
Andreas Ketterer, Satoya Imai, Nikolai Wyderka, Otfried G\"uhne(参考訳) 中間スケール量子システムにおける多粒子絡み合いの異なる程度を証明するために,局所ランダム化測定の有限サンプルに基づく統計的手法を検討する。 まず、異なる大きさの分割に対して分離可能な状態によって満足されるマルチキュービット基準の階層を導入し、基礎となる確率分布の第2モーメントのみを含む。 次に,実験における推定の統計的誤差を詳細に分析し,大きな偏差境界に基づいて統計的意義を推定する手法をいくつか提示する。 後者は,多粒子相関の認証に必要な測定資源を特徴付けるとともに,与えられた実験データを詳細に分析することを可能にする。

We consider statistical methods based on finite samples of locally randomized measurements in order to certify different degrees of multiparticle entanglement in intermediate-scale quantum systems. We first introduce hierarchies of multi-qubit criteria, satisfied by states which are separable with respect to partitions of different size, involving only second moments of the underlying probability distribution. Then, we analyze in detail the statistical error of the estimation in experiments and present several approaches for estimating the statistical significance based on large deviation bounds. The latter allows us to characterize the measurement resources required for the certification of multiparticle correlations, as well as to analyze given experimental data in detail.
翻訳日:2023-04-19 22:05:46 公開日:2022-08-16
# 非局所ハンベリー・ブラウン・ツイス相関による超伝導体の位相特性の探索

Probing the topological character of superconductors via non-local Hanbury-Brown and Twiss correlations ( http://arxiv.org/abs/2103.14920v2 )

ライセンス: Link先を確認
Tusaradri Mohapatra, Subhajit Pal, Colin Benjamin(参考訳) 超伝導体は、時間反転対称性(TRS)、カイラル対称性、粒子-ホール対称性が保存されているかどうかに基づいて位相的に分類できる。 さらに、位相超伝導体はキラルまたはヘリカルにも分類できる。 本稿では,hanbury-brown と twiss (hbt) のショットノイズ相関と非局所コンダクタンスを用いて,金属/2d非共役超伝導体/金属接合を探り,非位相的,ヘリカル、キラル、ノーダル、ギャップフルのペアリング位相をよく理解する。 HBT相関は非トポロジカル超伝導体に対するバイアス電圧の関数として非対称であるが、障壁強度に関係なくトポロジカル超伝導体に対しては対称である。 トポロジカル超伝導体は、トポロジカル量子計算において重要なマヨラナフェルミオンと関連している。 トポロジカル超伝導体と非トポロジカル超伝導体を区別することで、マヨラナフェルミオンの探索に役立ち、トポロジカル量子コンピュータの設計を支援する。

Superconductors can be classified as topological or not based on whether time-reversal symmetry (TRS), chiral symmetry, and particle-hole symmetry are preserved or not. Further, topological superconductors can also be classified as chiral or helical. In this paper, using Hanbury-Brown and Twiss (HBT) shot noise correlations and the non-local conductance, we probe metal/2D unconventional superconductor/metal junctions to understand better the pairing topological vs. non-topological or helical vs. chiral or nodal vs. gapful. We see that HBT correlations are asymmetric as a function of bias voltage for non-topological superconductors, whereas they are symmetric for topological superconductors irrespective of the barrier strength. Topological superconductors are associated with Majorana fermions which are important for topological quantum computation. By distinguishing topological superconductors from non-topological superconductors, our study will help search for Majorana fermions, which will aid in designing a topological quantum computer.
翻訳日:2023-04-06 17:01:31 公開日:2022-08-16
# 計算ベルテストによる古典的検証可能な量子アドバンテージ

Classically-Verifiable Quantum Advantage from a Computational Bell Test ( http://arxiv.org/abs/2104.00687v2 )

ライセンス: Link先を確認
Gregory D. Kahanamoku-Meyer, Soonwon Choi, Umesh V. Vazirani, Norman Y. Yao(参考訳) 古典的に検証可能な量子計算の利点を示すための新しい対話型プロトコルを提案し,解析する。 当社のプロトコルはtcfs(trapdoor claw-free function)の暗号的ハードネスに依存している。 ベルの不等式に対する驚くべき接続を通じて、我々のプロトコルは適応型ハードコアビットの必要性を回避し、本質的に量子回路の複雑さは増加せず、余分な暗号的仮定も不要である。 決定的ディフィー・ヘルマン問題(decisiveal diffie-hellman problem)とラビン関数(rabin function)($x^2 \bmod n$)の2つの新しい構成を提案する。 また,プロトコルの実装効率を向上させる2つの独立したイノベーションについても述べる。 (i)いわゆる「ガベージビット」を捨て、量子回路の可逆性の必要性をなくすためのスキーム、 (ii) 量子的な優位性を示すのに必要な忠実さを大幅に減らす事後選択を行う自然な方法。 これらの2つの構造は、証明可能な乱数生成のような他のTCFベースの量子暗号にも適用できるため、独立した関心を持つこともある。 最後に、x^2 \bmod N$に対して複数の効率的な回路を設計し、Rydberg-atom-based quantum computer上で実装するための青写真を記述する。

We propose and analyze a novel interactive protocol for demonstrating quantum computational advantage, which is efficiently classically verifiable. Our protocol relies upon the cryptographic hardness of trapdoor claw-free functions (TCFs). Through a surprising connection to Bell's inequality, our protocol avoids the need for an adaptive hardcore bit, with essentially no increase in the quantum circuit complexity and no extra cryptographic assumptions. Crucially, this expands the set of compatible TCFs, and we propose two new constructions: one based upon the decisional Diffie-Hellman problem and the other based upon Rabin's function, $x^2 \bmod N$. We also describe two independent innovations which improve the efficiency of our protocol's implementation: (i) a scheme to discard so-called "garbage bits", thereby removing the need for reversibility in the quantum circuits, and (ii) a natural way of performing post-selection which significantly reduces the fidelity needed to demonstrate quantum advantage. These two constructions may also be of independent interest, as they may be applicable to other TCF-based quantum cryptography such as certifiable random number generation. Finally, we design several efficient circuits for $x^2 \bmod N$ and describe a blueprint for their implementation on a Rydberg-atom-based quantum computer.
翻訳日:2023-04-05 22:13:22 公開日:2022-08-16
# スピン, Zitterbewegung, superposition, Produces Dirac's Wave Equationを放射する電子の相対論的力学理論

Relativistic Mechanics Theory for Electrons that Exhibits Spin, Zitterbewegung, Superposition and Produces Dirac's Wave Equation ( http://arxiv.org/abs/2108.07267v2 )

ライセンス: Link先を確認
James L. Beck (California Institute of Technology)(参考訳) 電子のスピンが点粒子としての時空経路の自然な部分であるような新古典相対論的力学理論が提示される。 運動の4階方程式は、追加のスピンエネルギー項を除いて特別な相対性理論の時と同じラグランジアン関数に対応する。 全体の運動は、スピン中心と呼ばれる点に関する局所的なスピン運動と、その点の大域的な運動の合計に分解することができる。 大域運動はサブルミナルであり、ニュートンの第2法則(スピン中心に固定された時計の時間)に従うが、全運動は光速cで発生し、ディラックの速度作用素の等級cの固有値と一致する。 局所的なスピン運動はSchr\"odinger's zitterbewegungに対応し、自由電子はスピン中心のフレームに円形の経路を持つ永久運動である。 電磁場において、このスピン運動は電子の点電荷のローレンツ力を介して磁気と電気の双極子エネルギーを生成する。 対応する電気双極子エネルギーは、補正されたパウリ非相対論的ハミルトニアンのスピン軌道結合項と一致するが、磁気双極子エネルギーはディラックの理論のそれの半分である。 スピンテンソルをスピン中心に関する電子の全運動の角運動量として定義することにより、運動の基本方程式はバルート・ザンギ電子理論と同一の形に書き換えることができる。 これらの運動方程式は、ディラック=シュルンガー・スピノル方程式を満たす適切な時間の状態関数に適用された作用素を用いて表現することができる。 作用素は、いかなる確率も含まない動的変数を生成する。 自由電子に対しては、状態関数はディラックの相対論的波動方程式を満たすが、ローレンツ変換を適用して観測者の時空座標で適切な時間を表現する。

A neo-classical relativistic mechanics theory is presented where the spin of an electron is a natural part of its space-time path as a point particle. The fourth-order equation of motion corresponds to the same Lagrangian function in proper time as in special relativity except for an additional spin energy term. The total motion can be decomposed into a sum of a local spin motion about a point and a global motion of this point, called the spin center. The global motion is sub-luminal and obeys Newton's second law in proper time, the time for a clock fixed at the spin center, while the total motion occurs at the speed of light c, consistent with the eigenvalues of Dirac's velocity operators having magnitude c. The local spin motion corresponds to Schr\"odinger's zitterbewegung and is a perpetual motion, which for a free electron has a circular path in the spin-center frame. In an electro-magnetic field, this spin motion generates magnetic and electric dipole energies through the Lorentz force on the electron's point charge. The corresponding electric dipole energy is consistent with the spin-orbit coupling term in the corrected Pauli non-relativistic Hamiltonian but the magnetic dipole energy is one half of that in Dirac's theory. By defining a spin tensor as the angular momentum of the electron's total motion about its spin center, the fundamental equations of motion can be re-written in an identical form to those of the Barut-Zanghi electron theory. These equations of motion can then be expressed using operators applied to a state function of proper time satisfying a Dirac-Schr\"odinger spinor equation. The operators produce dynamic variables without any probability implications. For the free electron, the state function satisfies Dirac's relativistic wave equation when the Lorentz transformation is applied to express proper time in terms of an observer's space-time coordinates.
翻訳日:2023-03-18 13:05:00 公開日:2022-08-16
# 完全正の完全正の写像(および量子振幅の非負性に関する資源理論)

Completely positive completely positive maps (and a resource theory for non-negativity of quantum amplitudes) ( http://arxiv.org/abs/2110.13568v2 )

ライセンス: Link先を確認
Nathaniel Johnston and Jamie Sikora(参考訳) 本研究では、非負の振幅(固定基底)を持つ量子状態と、それらを保存するチャネルについて検討する。 これらの状態は、確率的ハミルトニアンの基底状態を含み、符号問題を避け、効率的にシミュレーションできるので、興味がある。 最適化理論において、そのような状態によって生成される凸錐は完全正(cp)行列の集合と呼ばれる(完全正の超作用素と混同できない)。 これらの状態を保存する量子チャネルを導入し、完全に正の正と呼ぶ。 これらの状態とチャネルを研究するために、資源理論の枠組みを使用し、この資源を計測し定量化する方法について検討する。

In this work we examine quantum states which have non-negative amplitudes (in a fixed basis) and the channels which preserve them. These states include the ground states of stoquastic Hamiltonians and they are of interest since they avoid the Sign Problem and can thus be efficiently simulated. In optimization theory, the convex cone generated by such states is called the set of completely positive (CP) matrices (not be confused with completely positive superoperators). We introduce quantum channels which preserve these states and call them completely positive completely positive. To study these states and channels, we use the framework of resource theories and investigate how to measure and quantify this resource.
翻訳日:2023-03-10 05:41:53 公開日:2022-08-16
# 強い相互作用を持つフェルミガスの光学応答

Optomechanical Response of a Strongly Interacting Fermi Gas ( http://arxiv.org/abs/2111.02931v2 )

ライセンス: Link先を確認
Victor Helson, Timo Zwettler, Kevin Roux, Hideki Konishi, Shun Uchino, Jean-Philippe Brantut(参考訳) 高精細キャビティに分散結合した強い波長可変相互作用を持つフェルミ気体について検討した。 キャビティ軸に沿って系を探索すると、ガスの密度応答からキャビティ内磁場への強い光学的カー非線形性が観察され、相互作用強度の関数として測定される。 フェルミガスのゼロ周波数密度応答関数は,バーディーン=クーパー=シュリーファーからボース=アインシュタイン凝縮系へ2倍に増加する。 この結果は、相互作用の普遍関数、接触、気体の内部エネルギーの観点から密度応答を表現する作用素-積展開に基づく理論と定量的に一致している。 これは強い非線形応答を持つ駆動散逸・強相関系の例であり、弱い摂動の感知やフェルミ気体の長距離相互作用の誘導の視点を開く。

We study a Fermi gas with strong, tunable interactions dispersively coupled to a high-finesse cavity. Upon probing the system along the cavity axis, we observe a strong optomechanical Kerr nonlinearity originating from the density response of the gas to the intracavity field and measure it as a function of interaction strength. We find that the zero-frequency density response function of the Fermi gas increases by a factor of two from the Bardeen-Cooper-Schrieffer to the Bose-Einstein condensate regime. The results are in quantitative agreement with a theory based on operator-product expansion, expressing the density response in terms of universal functions of the interactions, the contact and the internal energy of the gas. This provides an example of a driven-dissipative, strongly correlated system with a strong nonlinear response, opening up perspectives for the sensing of weak perturbations or inducing long-range interactions in Fermi gases.
翻訳日:2023-03-09 04:33:17 公開日:2022-08-16
# 熱場力学による熱量子ビットのシミュレーション

Simulating thermal qubits through thermofield dynamics ( http://arxiv.org/abs/2111.09969v5 )

ライセンス: Link先を確認
G. X. A. Petronilo, M. R. Ara\'ujo, Clebson Cruz(参考訳) 量子コンピューティングは過去数十年間、科学界の注目を集めてきた。 量子コンピュータの開発は、より安全で高速な情報処理、抽出、転送方法への道のりを約束している。 しかし、量子コンピューティングの大きな利点にもかかわらず、室温で動作する量子デバイスの開発は熱デコヒーレンスプロセスによって損なわれている。 このシナリオでは、熱場ダイナミクス(TFD)による熱量子ビット系の研究を量子計算装置に適用することを提案する。 この結果から, 量子演算系における熱量子ビットの実用的構築を可能にするボゴリューボフ変換を用いて, 量子ビットに対するブロッホ球表現を記述できることが示唆された。 したがって、これらの結果はTFDアプローチを通じて量子プロトコルに対する熱効果を研究するための幅広い道を開いた。

Quantum computing has attracted the attention of the scientific community in the past few decades. The development of quantum computers promises one path toward safer and faster ways to treat, extract and transfer information. However, despite the significant advantages of quantum computing, the development of quantum devices operating at room temperature has been compromised by the thermal decoherence process. In this scenario, this work proposes a study of thermal qubit systems through Thermofield Dynamics (TFD), applied in a quantum computing setup. The results show that the Bloch sphere representation for a qubit can be written in terms of the Bogoliubov transformation, which allows a practical construction for the thermal qubits in a quantum computing setup. Therefore, these results open a broad avenue for researching the thermal effects on quantum protocols through the TFD approach.
翻訳日:2023-03-07 12:18:22 公開日:2022-08-16
# 量子符号のモーフィング

Morphing quantum codes ( http://arxiv.org/abs/2112.01446v2 )

ライセンス: Link先を確認
Michael Vasmer and Aleksander Kubica(参考訳) 我々は、既存の量子コードから新しい量子コードを生成するために使用できるモーフィング手順を導入する。 特に、15ビットのReed-Muller符号を変形して$[\! [10,1,2]\! このコードは、フォールトトレラントな論理的な$T$ゲートを持つ最小の安定化コードです。 さらに,色符号を変形させることにより,ハイブリッドな色調符号群を構築する。 我々のコードファミリーは、一定深度ローカルユニタリによって実装された、元のカラーコードのフォールトトレラントゲートを継承する。 この構成の特別な場合として、フォールトトレラントなマルチキュービット制御を持つトーリック符号をZ$ゲートで取得する。 また,2次元のハイブリッドカラートラック符号に対する効率的な復号アルゴリズムを提案し,位相フリップ雑音に対する性能を数値的に評価する。 モーフィングは三角コードなどの他のコードファミリを修正する上でも有用であると考えています。

We introduce a morphing procedure that can be used to generate new quantum codes from existing quantum codes. In particular, we morph the 15-qubit Reed-Muller code to obtain a $[\![10,1,2]\!]$ code that is the smallest known stabilizer code with a fault-tolerant logical $T$ gate. In addition, we construct a family of hybrid color-toric codes by morphing the color code. Our code family inherits the fault-tolerant gates of the original color code, implemented via constant-depth local unitaries. As a special case of this construction, we obtain toric codes with fault-tolerant multi-qubit control-$Z$ gates. We also provide an efficient decoding algorithm for hybrid color-toric codes in two dimensions, and numerically benchmark its performance for phase-flip noise. We expect that morphing may also be a useful technique for modifying other code families such as triorthogonal codes.
翻訳日:2023-03-06 02:10:56 公開日:2022-08-16
# 一般化直交カタストロフィーと量子速度限界による駆動多体系の量子断熱性の境界

Bounds on quantum adiabaticity in driven many-body systems from generalized orthogonality catastrophe and quantum speed limit ( http://arxiv.org/abs/2112.06900v4 )

ライセンス: Link先を確認
Jyong-Hao Chen, Vadim Cheianov(参考訳) 我々は、より巧みに計算された2つの量、すなわち一般化直交カタストロフィと量子速度制限の観点から断熱的忠実度を推定する2つの不等式を提供する。 その結果, 初期基底状態とその直交補空間にまたがる2次元部分空間を考えると, 前述したよりも断熱的忠実性が強くなることがわかった。 2つの不等式のうちの1つは、システムサイズが大きくなるとほぼ鋭くなり、異なる瞬時基底状態の重複が直交カタストロフィを示す広い種類の量子多体系を表すライス・ミールモデルを用いて説明されている。

We provide two inequalities for estimating adiabatic fidelity in terms of two other more handily calculated quantities, i.e., generalized orthogonality catastrophe and quantum speed limit. As a result of considering a two-dimensional subspace spanned by the initial ground state and its orthogonal complement, our method leads to stronger bounds on adiabatic fidelity than those previously obtained. One of the two inequalities is nearly sharp when the system size is large, as illustrated using a driven Rice-Mele model, which represents a broad class of quantum many-body systems whose overlap of different instantaneous ground states exhibits orthogonality catastrophe.
翻訳日:2023-03-04 16:22:14 公開日:2022-08-16
# 量子力学の事象は極端に非絶対的である

Events in quantum mechanics are maximally non-absolute ( http://arxiv.org/abs/2112.11223v2 )

ライセンス: Link先を確認
George Moreno, Ranieri Nery, Cristhiano Duarte, Rafael Chaves(参考訳) 悪名高い量子測定問題は、閉じた量子系のユニタリ進化と、測定後の波動関数の崩壊という2つの量子仮定の和解を困難にする。 この問題はウィグナーの友人による思考実験で特に強調され、ユニタリ進化と測定崩壊のミスマッチが、異なる観測者に対する量子記述の矛盾につながる。 最近のno-go定理では、拡張されたウィグナーの友人のシナリオから生じる(量子)統計は、非超決定性、パラメータ独立性、観測された事象の絶対性という3つの無意味な仮定をまとめようとすると、相容れない。 この拡張シナリオに基づいて,イベントの非絶対性に関する2つの新しい尺度を提案する。 1つは EPR2 分解に基づいており、もう1つは上記の no-go 定理に仮定される絶対性仮説の緩和を伴う。 量子相関が両量子化器によって最大非絶対であることを証明するために、連鎖ベルの不等式(および緩和)もまたウィグナーの実験に有効な制約であることを示す。

The notorious quantum measurement problem brings out the difficulty to reconcile two quantum postulates: the unitary evolution of closed quantum systems and the wave-function collapse after a measurement. This problematics is particularly highlighted in the Wigner's friend thought experiment, where the mismatch between unitary evolution and measurement collapse leads to conflicting quantum descriptions for different observers. A recent no-go theorem has established that the (quantum) statistics arising from an extended Wigner's friend scenario is incompatible when one try to hold together three innocuous assumptions, namely no-superdeterminism, parameter independence and absoluteness of observed events. Building on this extended scenario, we introduce two novel measures of non-absoluteness of events. The first is based on the EPR2 decomposition, and the second involves the relaxation of the absoluteness hypothesis assumed in the aforementioned no-go theorem. To prove that quantum correlations can be maximally non-absolute according to both quantifiers, we show that chained Bell inequalities (and relaxations thereof) are also valid constraints for Wigner's experiment.
翻訳日:2023-03-04 03:06:31 公開日:2022-08-16
# 単一光子のオンチップ生成と動的圧電オプトメカニカル回転

On-chip generation and dynamic piezo-optomechanical rotation of single photons ( http://arxiv.org/abs/2202.10173v2 )

ライセンス: Link先を確認
Dominik D. B\"uhler, Matthias Wei{\ss}, Antonio Crespo-Poveda, Emeline D. S. Nysten, Jonathan J. Finley, Kai M\"uller, Paulo V. Santos, Mauricio M. de Lima Jr., Hubert J. Krenner(参考訳) 集積フォトニック回路は、フォトニック量子技術とチップベースの量子デバイスの実装のための重要なコンポーネントである。 将来のアプリケーションは、チュータビリティの欠如や量子光源の内蔵など、現在の多くのデバイスで共通の制限を克服するために柔軟なアーキテクチャを要求する。 本稿では、集積量子ドット(QD)、マッハ・ツェンダー干渉計(MZI)、表面音響波変換器(SAW)からなる動的再構成可能な集積フォトニック回路について報告する。 QDによるオンチップ単光子生成とそのサブナノ秒ダイナミックオンチップ制御を実証する。 2つの独立に応用されたSAWs圧電オプトメカニカルはMZIの単一光子を回転させるか、QD発光波長をスペクトル的に変調する。 MZIでは、SAWは時間依存光学位相を印加し、キュービット回転を出力重畳状態に変調する。 これにより、1ギガヘルツを超える周波数を持つ動的単一光子ルーティングが可能となる。 最後に、QDの動的単一光子制御とスペクトルチューニングの組み合わせにより、入力光子の状態の波長多重化を実現し、出力時に分解する。 本手法は,多成分集積量子フォトニック回路にスケーラブルで,ハイブリッドフォトニックアーキテクチャやフォトニック共振器やオンチップ検出器などのキーコンポーネントと互換性がある。

Integrated photonic circuits are key components for photonic quantum technologies and for the implementation of chip-based quantum devices. Future applications demand flexible architectures to overcome common limitations of many current devices, for instance the lack of tuneabilty or built-in quantum light sources. Here, we report on a dynamically reconfigurable integrated photonic circuit comprising integrated quantum dots (QDs), a Mach-Zehnder interferometer (MZI) and surface acoustic wave (SAW) transducers directly fabricated on a monolithic semiconductor platform. We demonstrate on-chip single photon generation by the QD and its sub-nanosecond dynamic on-chip control. Two independently applied SAWs piezo-optomechanically rotate the single photon in the MZI or spectrally modulate the QD emission wavelength. In the MZI, SAWs imprint a time-dependent optical phase and modulate the qubit rotation to the output superposition state. This enables dynamic single photon routing with frequencies exceeding one gigahertz. Finally, the combination of the dynamic single photon control and spectral tuning of the QD realizes wavelength multiplexing of the input photon state and demultiplexing it at the output. Our approach is scalable to multi-component integrated quantum photonic circuits and is compatible with hybrid photonic architectures and other key components for instance photonic resonators or on-chip detectors.
翻訳日:2023-02-24 08:14:58 公開日:2022-08-16
# 直線加速度と円運動による変動する真空スカラー場に結合した2レベル原子の幾何位相

Geometric phases acquired for a two-level atom coupled to fluctuating vacuum scalar fields due to linear acceleration and circular motion ( http://arxiv.org/abs/2202.10888v2 )

ライセンス: Link先を確認
Zixu Zhao, Baoyuan Yang(参考訳) 開量子系において, 線形加速度と円運動により変動する真空質量のないスカラー場の浴に結合した2レベル原子の幾何位相について, 境界をもたずに検討した。 自由空間において、我々は加速度を増幅するので、まず線形加速度の場合によって得られる幾何学的位相は、初期原子状態 $\theta\in(0,\frac{\pi}{2})\cup(\frac{\pi}{2},\pi)$ の超相対論的極限において円加速度の場合より小さく、最終的に、ある加速度における円加速度の場合と等しい。 自発的な遷移速度は同様の特徴を示す。 この結果は、研究されている変動する真空電磁界の浴の場合とは異なる。 初期原子状態 $\theta \in(0,\pi)$ を考えると、線形加速度によって純粋に得られた幾何位相は、ある加速度に対する円加速度の場合と常に等しい。 この特徴は、ある条件下では、円運動における二段原子の性質を研究することによって、一様加速された二段原子の場合をシミュレートできることを示している。 反射境界を加えることで、境界の欠如よりも幾何位相の大きい値が得られることを観察する。 さらに、幾何学的位相は$z$に沿って変動し、幾何学的位相の最大値はより大きな加速のための境界に近い。 また、幾何学的位相は直線加速度の場合と円加速度の場合から、より小さいz$に対して$\theta \in(0,\pi)$で得ることができる。

In open quantum systems, we study the geometric phases acquired for a two-level atom coupled to a bath of fluctuating vacuum massless scalar fields due to linear acceleration and circular motion without and with a boundary. In free space, as we amplify acceleration, the geometric phase acquired purely due to linear acceleration case firstly is smaller than the circular acceleration case in the ultrarelativistic limit for the initial atomic state $\theta\in(0,\frac{\pi}{2})\cup(\frac{\pi}{2},\pi)$, then equals to the circular acceleration case in a certain acceleration, and finally, is larger than the circular acceleration case. The spontaneous transition rates show a similar feature. This result is different from the case of a bath of fluctuating vacuum electromagnetic fields that has been studied. Considering the initial atomic state $\theta \in(0,\pi)$, we find that the geometric phase acquired purely due to linear acceleration always equals to the circular acceleration case for the certain acceleration. The feature implies that, in a certain condition, one can simulate the case of the uniformly accelerated two-level atom by studying the properties of the two-level atom in circular motion. Adding a reflecting boundary, we observe that a larger value of a geometric phase can be obtained compared to the absence of a boundary. Besides, the geometric phase fluctuates along $z$, and the maximum of geometric phase is closer to the boundary for a larger acceleration. We also find that geometric phases can be acquired purely due to the linear acceleration case and circular acceleration case with $\theta \in(0,\pi)$ for a smaller $z$.
翻訳日:2023-02-24 05:59:48 公開日:2022-08-16
# 量子フィードバックをもつコヒーレントイジングマシン--総および条件付きマスター方程式法

The coherent Ising machine with quantum feedback: the total and conditional master equation methods ( http://arxiv.org/abs/2203.02447v2 )

ライセンス: Link先を確認
Simon Kiesewetter and Peter D Drummond (Centre for Quantum Science and Technology Theory, Swinburne University of Technology, Melbourne 3122, Australia)(参考訳) 我々は、コヒーレントイジングマシンに対する量子マスター方程式の詳細な理論的導出を与える。 これはフィードバックを持つ量子計算ネットワークであり、旅行セールスマン問題や様々な拡張やアナログを含むNPハードコンビネータの問題を解決する。 マスター方程式には、フィードバック電流の条件付きか無条件かの2つのタイプがある。 正のp相空間表現における確率方程式を用いて,両型をスケーラブルに再現できることを示す。 これは非線形性に依存しており、現在の実験で典型的なパラメータ値を用いる。 しかし、2つのアプローチはよく一致しているが、効率に関しては同等ではない。 非条件シミュレーションははるかに効率が良く、より大きなサイズにスケーラブルであることがわかった。 これは、あまりにも多くの知識が危険である場合です。 フィードバック電流のシミュレーション条件付けは成功確率を決定するのに必須ではないが、計算量を大幅に増加させる。 非条件のアプローチで得られた速度改善を説明するために、最大1000ノードの量子マスター方程式の完全な量子シミュレーションを実行する。

We give a detailed theoretical derivation of the quantum master equation for the coherent Ising machine. This is a quantum computational network with feedback, that solves NP hard combinatoric problems, including the traveling salesman problem and various extensions and analogs. There are two types of master equation that are obtained, either conditional on the feedback current or unconditional. We show that both types can be accurately simulated in a scalable way using stochastic equations in the positive-P phase-space representation. This depends on the nonlinearity present, and we use parameter values that are typical of current experiments. However, while the two approaches are in excellent agreement, they are not equivalent with regard to efficiency. We find that unconditional simulation has much greater efficiency, and is scalable to larger sizes. This is a case where too much knowledge is a dangerous thing. Conditioning the simulations on the feedback current is not essential to determining the success probability, but it greatly increases the computational complexity. To illustrate the speed improvements obtained with the unconditional approach, we carry out full quantum simulations of the quantum master equation with up to 1000 nodes.
翻訳日:2023-02-23 03:39:50 公開日:2022-08-16
# 衝突型単原子スピンプローブの感度

Sensitivity of a collisional single-atom spin probe ( http://arxiv.org/abs/2203.13656v3 )

ライセンス: Link先を確認
Jens Nettersheim, Quentin Bouton, Daniel Adam, and Artur Widera(参考訳) 超低温ガスに対する衝突単原子プローブの感度について検討した。 非弾性スピン交換衝突は、単原子プローブの量子スピンポピュレーションにガス温度tまたは外部磁場bに関する情報をマッピングし、以前の研究は短時間の非平衡スピンダイナミクスに対する感度の向上を示した[1]。 本稿では,このような単一原子プローブの種々の観測値に対する定常感度を数値的に検討する。 このプローブは (b, t) パラメータダイアグラムにおいて異なる感度の極大を示すが、基礎となるスピン交換速度は温度と磁場と単調に変化する。 パラメータ空間において、プローブは外部印加磁場における熱エネルギーとゼーマンエネルギーのエネルギー比を感知するときに最も感度が高いが、絶対エネルギーに対する感度、すなわち運動エネルギーとゼーマンエネルギーの和は低い。 与えられた絶対エネルギーに対する感度最大値を与えるパラメータを同定し、熱的マクスウェル・ボルツマン分布とゼーマン・エネルギー分割を直接比較することができる。 我々は、単一原子量子プローブによる非平衡実験結果と比較し、パラメータ空間における感度最大値が非平衡ダイナミクスにおいても定性的に有することを示したが、定量的な差は残る。 これにより、この単一原子量子プローブの特性と性能を顕微鏡で説明し、熱力学特性と微視的相互作用機構を結合する。 この結果から, (B, T) パラメータ空間における量子プローブ応用の最適化は, 非平衡動力学による前述したブーストを超えている。

We study the sensitivity of a collisional single-atom probe for ultracold gases. Inelastic spin-exchange collisions map information about the gas temperature T or external magnetic field B onto the quantum spin-population of single-atom probes, and previous work showed enhanced sensitivity for short-time nonequilibrium spin dynamics [1]. Here, we numerically investigate the steady-state sensitivity of such single-atom probes to various observables. We find that the probe shows distinct sensitivity maxima in the (B, T ) parameter diagram, although the underlying spin-exchange rates scale monotonically with temperature and magnetic field. In parameter space, the probe generally has the largest sensitivity when sensing the energy ratio between thermal energy and Zeeman energy in an externally applied magnetic field, while the sensitivity to the absolute energy, i.e., the sum of kinetic and Zeeman energy, is low. We identify the parameters yielding sensitivity maxima for a given absolute energy, which we can relate to a direct comparison of the thermal Maxwell-Boltzmann distribution with the Zeeman-energy splitting. We compare our equilibrium results to nonequilibrium experimental results from a single-atom quantum probe, showing that the sensitivity maxima in parameter space qualitatively prevail also in the nonequilibrium dynamics, while a quantitative difference remains. Our work thereby offers a microscopic explanation for the properties and performance of this single-atom quantum probe, connecting thermodynamic properties to microscopic interaction mechanisms. Our results pave the way for optimization of quantum-probe applications in (B, T ) parameter space beyond the previously shown boost by nonequilibrium dynamics.
翻訳日:2023-02-20 20:46:08 公開日:2022-08-16
# GreenDB -- 消費者商品のサステナビリティ情報抽出のためのデータセットとベンチマーク

GreenDB -- A Dataset and Benchmark for Extraction of Sustainability Information of Consumer Goods ( http://arxiv.org/abs/2207.10733v3 )

ライセンス: Link先を確認
Sebastian J\"ager, Alexander Flick, Jessica Adriana Sanchez Garcia, Kaspar von den Driesch, Karl Brendel, Felix Biessmann(参考訳) 消費財の生産、出荷、利用、廃棄は温室効果ガスの排出と資源の枯渇に大きな影響を与える。 機械学習(ML)は、製品検索における持続可能性面や現代の小売プラットフォームの推奨を考慮し、持続可能な消費パターンを育むのに役立つ。 しかし、信頼性の高いサステナビリティ情報を備えた高品質の製品データがないことは、我々のサステナビリティ目標を達成するのに役立つML技術の開発を妨げる。 ここでは、ヨーロッパのオンラインショップから製品を毎週収集するデータベースであるGreenDBを紹介する。 製品の持続可能性の代理人として、専門家によって評価される持続可能性ラベルに依存する。 GreenDBスキーマはよく知られたschema.org製品定義を拡張し、既存の製品カタログに簡単に統合できる。 まず,データを用いてトレーニングしたMLモデル(F1スコア96%)が製品のサステナビリティラベルを確実に予測できることを示す。 これらの貢献は、既存のeコマース体験を補完し、最終的に、より持続可能な消費パターンをユーザに促すのに役立つ。

The production, shipping, usage, and disposal of consumer goods have a substantial impact on greenhouse gas emissions and the depletion of resources. Machine Learning (ML) can help to foster sustainable consumption patterns by accounting for sustainability aspects in product search or recommendations of modern retail platforms. However, the lack of large high quality publicly available product data with trustworthy sustainability information impedes the development of ML technology that can help to reach our sustainability goals. Here we present GreenDB, a database that collects products from European online shops on a weekly basis. As proxy for the products' sustainability, it relies on sustainability labels, which are evaluated by experts. The GreenDB schema extends the well-known schema.org Product definition and can be readily integrated into existing product catalogs. We present initial results demonstrating that ML models trained with our data can reliably (F1 score 96%) predict the sustainability label of products. These contributions can help to complement existing e-commerce experiences and ultimately encourage users to more sustainable consumption patterns.
翻訳日:2023-02-19 10:01:12 公開日:2022-08-16
# 医療における公正な機械学習:レビュー

Fair Machine Learning in Healthcare: A Review ( http://arxiv.org/abs/2206.14397v2 )

ライセンス: Link先を確認
Qizhang Feng, Mengnan Du, Na Zou, Xia Hu(参考訳) 医療データのデジタル化とコンピューティングパワーの発達により、機械学習の手法は医療分野でますます使われるようになっている。 医療のための機械学習において公平性の問題が特定されており、特定のグループの限られた医療資源や過剰な健康リスクが不公平に割り当てられている。 そのため, 健康問題への対処は近年, 医療コミュニティから注目が集まっている。 しかし、医療のための機械学習と機械学習における公平性の交点はまだ未検討のままである。 本稿では,公平性問題を明らかにし,バイアスを要約し,緩和手法を整理し,今後の課題を指摘することで橋梁を構築する。

Benefiting from the digitization of healthcare data and the development of computing power, machine learning methods are increasingly used in the healthcare domain. Fairness problems have been identified in machine learning for healthcare, resulting in an unfair allocation of limited healthcare resources or excessive health risks for certain groups. Therefore, addressing the fairness problems has recently attracted increasing attention from the healthcare community. However, the intersection of machine learning for healthcare and fairness in machine learning remains understudied. In this review, we build the bridge by exposing fairness problems, summarizing possible biases, sorting out mitigation methods and pointing out challenges along with opportunities for the future.
翻訳日:2023-02-19 09:31:24 公開日:2022-08-16
# 量子静止光パルスとして自由プロパゲーション単一光子を原子アンサンブルにトラップする

Trapping a Free-propagating Single-photon into an Atomic Ensemble as a Quantum Stationary Light Pulse ( http://arxiv.org/abs/2204.03886v3 )

ライセンス: Link先を確認
U-Shin Kim, Yong Sup Ihn, Chung-Hyun Lee, Yoon-Ho Kim(参考訳) 効率的な光子-光子相互作用は、量子情報処理を実現する重要な要素の1つである。 しかし、相互作用は光子のボソニック性のため、しばしば原子媒質を介して媒介されなければならず、相互作用時間は効率に決定的に関連しており、原子-光子相互作用の性質に依存する。 電磁誘導透過効果は、フォトニック量子メモリの可能性をもたらすが、フォトニック状態を原子の状態に完全にマッピングするため、相互作用時間を増加させることはない。 一方、定常光パルス(SLP)効果は、原子媒質内のフォトニック状態をゼロ群速度でトラップし、高強度な相互作用時間の可能性を高める。 本研究では, 量子SLP(QSLP)プロセスを用いて, フリープロパゲーション単光子を低温原子アンサンブルにトラップする実験実験を行った。 単一光子の状態の量子的性質がQSLP過程中によく保存されていることを確定的に示す。 私たちの研究は、フォトニックシステムにおける効率的な光子-光子相互作用、エキゾチックなフォトニック状態、多体シミュレーションのための新しいアプローチへの道を開くものです。

Efficient photon-photon interaction is one of the key elements for realizing quantum information processing. The interaction, however, must often be mediated through an atomic medium due to the bosonic nature of photons, and the interaction time, which is critically linked to the efficiency, depends on the properties of the atom-photon interaction. While the electromagnetically induced transparency effect does offer the possibility of photonic quantum memory, it does not enhance the interaction time as it fully maps the photonic state to an atomic state. The stationary light pulse (SLP) effect, on the contrary, traps the photonic state inside an atomic medium with zero group velocity, opening up the possibility of the enhanced interaction time. In this work, we report the first experimental demonstration of trapping a free-propagating single-photon into a cold atomic ensemble via the quantum SLP (QSLP) process. We conclusively show that the quantum properties of the single-photon state are preserved well during the QSLP process. Our work paves the way to new approaches for efficient photon-photon interactions, exotic photonic states, and many-body simulations in photonic systems.
翻訳日:2023-02-17 21:25:52 公開日:2022-08-16
# ハイブリッド量子システムを用いた捕捉電子の基底状態冷却と単一フォノン再生に関する研究

Feasibility study on ground-state cooling and single-phonon readout of trapped electrons using hybrid quantum systems ( http://arxiv.org/abs/2204.07957v2 )

ライセンス: Link先を確認
Alto Osada, Kento Taniguchi, Masato Shigefuji and Atsushi Noguchi(参考訳) 長いコヒーレンス時間と高速な量子演算の量子ビットは、高忠実性量子演算の実現と量子技術への応用に向けた長い目標である。 ポールトラップによって真空に浮かぶ電子は、その軽い質量と、捕獲されたイオンよりも速いゲート操作を可能にする高周期周波数のために良い候補であると考えられている。 捕獲された電子の運動状態を制御することは重要な問題であり、電子スピン、電子に埋め込まれた固有量子ビット間の相互作用を媒介し、その脱コヒーレンスにより2量子ゲートの劣化が生じる。 また、それを用いたスピン状態検出の可能性について、運動状態の効率的な読み出しが重要である。 このような重要性にもかかわらず、運動基底状態の達成方法や効率的に検出する方法は今のところ報告されていない。 本稿では,電子-超伝導回路と電子-イオン結合系を含むハイブリッド量子システムを用いて,これらの問題に対処する手法を提案する。 両系とも、捕捉された電子の運動状態の基底状態の冷却と単一フォノンの読み出しが可能であることを示す。 我々の研究は、捕捉された電子の運動状態を正確に制御する方法に光を当てた。

Qubits of long coherence time and fast quantum operations are long-sought objectives towards the realization of high-fidelity quantum operations and their applications to the quantum technologies. An electron levitated in a vacuum by a Paul trap is expected to be a good candidate, for its light mass and hence the high secular frequency which allows for the faster gate operations than those in trapped ions. Controlling the motional state of the trapped electron is a crucial issue, for it mediates an interaction between electron spins, intrinsic qubits embedded in electrons, and its decoherence results in degraded fidelity of two-qubit gates. In addition, an efficient readout of the motional state is important, regarding the possibility of detecting spin state by using it. Despite of such an importance, how to achieve the motional ground state and how to efficiently detect it are not reported so far. Here we propose methods addressing these issues by utilizing hybrid quantum systems involving electron-superconducting circuit and electron-ion coupled systems and analyze the feasibility of our schemes. In both systems, we show that the ground-state cooling and the single-phonon readout of the motional state of the trapped electron are possible. Our work shed light on the way to precisely control the motional states of the trapped electrons, that provides an interesting playground for the development of quantum technologies.
翻訳日:2023-02-16 16:55:23 公開日:2022-08-16
# ブラックボックス最適化のための生成的進化戦略

Generative Evolutionary Strategy For Black-Box Optimizations ( http://arxiv.org/abs/2205.03056v3 )

ライセンス: Link先を確認
Changhwi Park, Seong Ryeol Kim, Young-Gu Kim, Dae Sin Kim(参考訳) 多くの科学的・技術的問題は最適化に関連している。 特に高次元空間におけるブラックボックス最適化は特に困難である。 最近のニューラルネットワークに基づくブラックボックス最適化研究は、注目すべき成果を示している。 しかし、高次元探索空間におけるそれらの能力はまだ限られている。 本研究では,進化戦略(ES)と生成ニューラルネットワーク(GNN)モデルに基づくブラックボックス最適化手法を提案する。 我々はESとGNNモデルが協調して動作するようにアルゴリズムを設計した。 このハイブリッドモデルは、サロゲートネットワークの信頼性の高いトレーニングを可能にし、多目的、高次元、確率的ブラックボックス関数を最適化する。 本手法は,esおよびベイズ最適化を含むベースライン最適化手法を上回っている。

Many scientific and technological problems are related to optimization. Among them, black-box optimization in high-dimensional space is particularly challenging. Recent neural network-based black-box optimization studies have shown noteworthy achievements. However, their capability in high-dimensional search space is still limited. This study proposes a black-box optimization method based on the evolution strategy (ES) and the generative neural network (GNN) model. We designed the algorithm so that the ES and the GNN model work cooperatively. This hybrid model enables reliable training of surrogate networks; it optimizes multi-objective, high-dimensional, and stochastic black-box functions. Our method outperforms baseline optimization methods in this experiment, including ES, and Bayesian optimization.
翻訳日:2023-02-14 03:45:48 公開日:2022-08-16
# 量子ウェーブパケットに対するビリヤード球パラドックス

Billiard-ball paradox for a quantum wave packet ( http://arxiv.org/abs/2205.05399v2 )

ライセンス: Link先を確認
Lachlan G. Bishop, Timothy C. Ralph, Fabio Costa(参考訳) ビリヤード・ボールパラドックス(ビリヤード・ボール・パラドックス、英: billiard-ball paradox)は、閉時間的曲線 (ctc) に沿って時間的に遡る物体に関する問題であり、量子力学に関連する軌道効果は現れない。 ここでは、(半古典的)波のパケットがワームホールタイムマシンを含む領域を通じて進化するパラドックスの量子バージョンを開発する。 これは、関連するすべてのパスを量子回路にマッピングすることで達成され、ビリヤード粒子をクロック状態で表現することで、様々なパスの区別が容易になる。 このモデルに対し、Deutschの処方(D-CTCs)は、回路を通して粒子の進化の可能な全ての構成を表す用語からなる混合状態の形で自己整合解を提供する。 等価回路画像(ECP)では、時間マシンのループ数における二項分布に還元される。 一方, postelected teleportation prescription (p-ctcs) はループ数が二項係数重みを持つ純粋状態解を予測している。 次に、連続体極限におけるモデルについて議論し、クロック進化の平均数の収束を保証するために用いられる様々な方法に特に焦点をあてる。 具体的には、D-CTCは理論のパラメータを正規化する必要があるが、P-CTCはより複雑な修正を必要とする。

Past studies of the billiard-ball paradox, a problem involving an object that travels back in time along a closed timelike curve (CTC), typically concern themselves with entirely classical histories, whereby any trajectorial effects associated with quantum mechanics cannot manifest. Here we develop a quantum version of the paradox, wherein a (semiclassical) wave packet evolves through a region containing a wormhole time machine. This is accomplished by mapping all relevant paths on to a quantum circuit, in which the distinction of the various paths is facilitated by representing the billiard particle with a clock state. For this model, we find that Deutsch's prescription (D-CTCs) provides self-consistent solutions in the form of a mixed state composed of terms which represent every possible configuration of the particle's evolution through the circuit. In the equivalent circuit picture (ECP), this reduces to a binomial distribution in the number of loops of time machine. The postselected teleportation prescription (P-CTCs) on the other hand predicts a pure-state solution in which the loop counts have binomial coefficient weights. We then discuss the model in the continuum limit, with a particular focus on the various methods one may employ in order to guarantee convergence in the average number of clock evolutions. Specifically, for D-CTCs, we find that it is necessary to regularise the theory's parameters, while P-CTCs alternatively require more contrived modification.
翻訳日:2023-02-13 12:39:52 公開日:2022-08-16
# ストロンチウム原子配列による光磁気と波面制御

Optical magnetism and wavefront control by arrays of strontium atoms ( http://arxiv.org/abs/2205.07738v2 )

ライセンス: Link先を確認
K. E. Ballantine, D. Wilkowski, and J. Ruostekoski(参考訳) 電子遷移のパラメータを解析することにより、平面光学格子中のボソニックsr原子が、入射光の波面制御に利用できる光磁気やその他の高次電磁多極を示すためにどのように設計されるかを示す。 3d_1\rightarrow {^3}p_0$遷移の共振である$\lambda\simeq 2.6\mu$m光は原子間の相互作用を仲介し、原子は深いサブ波長の光学格子に閉じ込められる。 これらの原子は、例えば光の磁気成分と負の結合を持つ個々の原子にもかかわらず、光周波数で強い協調磁気応答を持つ集合励起固有モードを示す。 送信光の位相制御が完全で、反射がほとんどなく、ほぼ任意の波面形成が可能な、電磁多極体の配列からなる協調モードの励起を利用するための詳細なスキームを提供する。 数値的な例では、Sr の原子レベルシフトをオフ共鳴 ${^3P}_J\rightarrow {^3D}_1$ 遷移で制御することにより、電気双極子と電気四極子または磁気双極子の配列を同時に励起する。 本研究では,透過光における入射ビームの操舵とベビー・スカイミオンテクスチャの生成を,ガウスビームのポアンカル・オマエビームへの位相的非自明な遷移を通じて実現し,Srアレイの波面工学を実証する。

By analyzing the parameters of electronic transitions, we show how bosonic Sr atoms in planar optical lattices can be engineered to exhibit optical magnetism and other higher-order electromagnetic multipoles that can be harnessed for wavefront control of incident light. Resonant $\lambda\simeq 2.6\mu$m light for the $^3D_1\rightarrow {^3}P_0$ transition mediates cooperative interactions between the atoms while the atoms are trapped in a deeply subwavelength optical lattice. The atoms then exhibit collective excitation eigenmodes, e.g., with a strong cooperative magnetic response at optical frequencies, despite individual atoms having negligible coupling to the magnetic component of light. We provide a detailed scheme to utilize excitations of such cooperative modes consisting of arrays of electromagnetic multipoles to form an atomic Huygens' surface, with complete $2\pi$ phase control of transmitted light and almost no reflection, allowing nearly arbitrary wavefront shaping. In the numerical examples, this is achieved by controlling the atomic level shifts of Sr with off-resonant ${^3P}_J\rightarrow {^3D}_1$ transitions, which results in a simultaneous excitation of arrays of electric dipoles and electric quadrupoles or magnetic dipoles. We demonstrate the wavefront engineering for a Sr array by realizing the steering of an incident beam and generation of a baby-Skyrmion texture in the transmitted light via a topologically nontrivial transition of a Gaussian beam to a Poincar\'{e} beam, which contains all possible polarizations in a single cross-section.
翻訳日:2023-02-12 23:40:48 公開日:2022-08-16
# フェルミ2原子問題:相対論的量子情報と代数量子場理論による非摂動的アプローチ

Fermi two-atom problem: non-perturbative approach via relativistic quantum information and algebraic quantum field theory ( http://arxiv.org/abs/2206.02316v4 )

ライセンス: Link先を確認
Erickson Tjoa(参考訳) 本研究では、相対論的量子情報(RQI)と代数量子場理論(AQFT)のツールを用いて、相対論的因果性が原子遷移確率にどのように影響するかを懸念する有名なフェルミ二原子問題を再考する。 この問題は、Buchholz と Yngvason (1994) による提案された解以来、様々な方向や角度から異なる分析を引き起こしている。 これらの分析のいくつかは、様々な近似、ヒューリスティックス、摂動的手法を採用しており、それ以外はいくつかの有用な洞察を曖昧にしている。 また、それらはすべて平坦な時空で研究されている。 量子論に対する代数的アプローチと組み合わされた相対論的量子情報における現在のツールは、任意の曲線時空に対するフェルミ二原子問題の完全かつクリーンな解析を完全非摂動的方法で行えるほど強力であることを示す。 その結果、ブッホホルツとヤングヴァソンの解は量子場と相互作用する量子ビットの観点で非常に操作的な再解釈が可能となり、量子場の検出器ベースの局所測定の様々な自然な一般化と包含が可能になる(phys. rev. d 105, 065003)。

In this work we revisit the famous Fermi two-atom problem, which concerns how relativistic causality impacts atomic transition probabilities, using the tools from relativistic quantum information (RQI) and algebraic quantum field theory (AQFT). The problem has sparked different analyses from many directions and angles since the proposed solution by Buchholz and Yngvason (1994). Some of these analyses employ various approximations, heuristics, perturbative methods, which tends to render some of the otherwise useful insights somewhat obscured. It is also noted that they are all studied in flat spacetime. We show that current tools in relativistic quantum information, combined with algebraic approach to quantum field theory, are now powerful enough to provide fuller and cleaner analysis of the Fermi two-atom problem for arbitrary curved spacetimes in a completely non-perturbative manner. Our result gives the original solution of Buchholz and Yngvason a very operational reinterpretation in terms of qubits interacting with a quantum field, and allows for various natural generalizations and inclusion of detector-based local measurement for the quantum field (Phys. Rev. D 105, 065003).
翻訳日:2023-02-10 09:48:37 公開日:2022-08-16
# 実験グレーボックス量子制御

Experimental graybox quantum control ( http://arxiv.org/abs/2206.12201v2 )

ライセンス: Link先を確認
Akram Youssry, Yang Yang, Robert J. Chapman, Ben Haylock, Francesco Lenzini, Mirko Lobino, Alberto Peruzzo(参考訳) エンジニアリングされた量子システムの理解と制御は、実用的な量子技術を開発するための鍵である。 しかし、製造の不完全さや環境騒音といった現在の技術的限界を考えると、これは必ずしも可能とは限らない。 これらの問題に対処するため、量子システム同定と制御のための理論的および数値的手法が数多く開発されている。 これらの手法は、システムを記述するモデルの精度によって制限される従来の曲線フィッティングから、効率的な制御ソリューションを提供するが、モデルの出力を超えた制御や、基礎となる物理プロセスへの洞察を提供する機械学習手法まで、幅広い。 本稿では,量子デバイスの特徴付けと制御のための"graybox"アプローチを実験的に実証する。 機械学習技術では利用できないユニタリやハミルトニアンを生成しながら,モデルフィッティングよりも優れた性能を報告した。 本手法は、物理原理と高精度機械学習を組み合わせることで、必要な制御量を直接トレーニングセットからアクセスできない問題に対して有効である。 この方法は自然に時間依存的かつオープンな量子システムに拡張され、量子ノイズ分光とキャンセルへの応用がある。

Understanding and controlling engineered quantum systems is key to developing practical quantum technology. However, given the current technological limitations, such as fabrication imperfections and environmental noise, this is not always possible. To address these issues, a great deal of theoretical and numerical methods for quantum system identification and control have been developed. These methods range from traditional curve fittings, which are limited by the accuracy of the model that describes the system, to machine learning methods, which provide efficient control solutions but no control beyond the output of the model, nor insights into the underlying physical process. Here we experimentally demonstrate a "graybox" approach for characterizing and controlling quantum devices. We report superior performance over model fitting, while generating unitaries and Hamiltonians which are inaccessible with machine learning techniques. Our approach combines physics principles with high accuracy machine learning and is effective with any problem where the required controlled quantities are not directly accessible from the training set. This method naturally extends to time-dependent and open quantum systems, with applications in quantum noise spectroscopy and cancellation.
翻訳日:2023-02-08 04:41:09 公開日:2022-08-16
# 相互作用のないポラリメトリー

Interaction-Free Polarimetry ( http://arxiv.org/abs/2207.13539v2 )

ライセンス: Link先を確認
Jonte R. Hance and John Rarity(参考訳) 相互作用のない測定と量子ゼノ効果の組み合わせは、撮像の信号対雑音比を増大させ、撮像対象の光強度フラックスを減少させることが示されている。 これまでのところ、これは物体の半透明領域と不透明領域の区別にのみ考慮されてきた。 本稿では,これを試料の偏光度まで拡張する。 これにより、現在のアプローチよりもはるかに少ない吸収エネルギーでこれらのサンプルの識別と特徴付けが可能になる。

The combination of interaction-free measurement and the quantum Zeno effect has been shown to both increase the signal-to-noise ratio of imaging, and decrease the light intensity flux through the imaged object. So far though, this has only been considered for discrimination between translucent and opaque areas of an object. In this paper, we extend this to the polarimetry of a given sample. This will allow the identification and characterisation of these samples with far less absorbed energy than current approaches -- a key concern for delicate samples being probed with high-frequency radiation.
翻訳日:2023-02-03 07:47:34 公開日:2022-08-16
# ブロックエンコーディングに基づく量子アルゴリズムのための量子平均センタリング

Quantum mean centering for block-encoding-based quantum algorithm ( http://arxiv.org/abs/2208.02143v2 )

ライセンス: Link先を確認
Hai-Ling Liu, Chao-Hua Yu, Lin-Chun Wan, Su-Juan Qin, Fei Gao, and Qiao-Yan Wen(参考訳) 平均センタリング(英語版)(mc)は重要なデータ前処理技術であり、データマイニング、機械学習、多変量統計解析に幅広く応用されている。 データセットが大きくなると、このプロセスは時間がかかるでしょう。 本稿では,ブロック符号化技術に基づく効率的な量子MCアルゴリズムを提案する。 具体的には、まず、mc が中心行列 $c$、すなわち、行平均、列平均、および元のデータ行列 $x$ の行列平均をそれぞれ $xc$、$cx$、$cxc$ で表すことができるという戦略を採用します。 これにより、主成分分析(PCA)のようなMCに関わる古典的な問題の多くは、$XC$、$CX$または$CXC$に関連する行列代数問題を直接解決することができる。 次に,ブロック符号化技術を用いてMCを実現する。 これを実現するために、まず中心となる行列$C$のブロックエンコーディングを構築し、さらに$XC$、$CX$、$CXC$のブロックエンコーディングを得る方法を示す。 最後に,mcアルゴリズムをpcaや他のアルゴリズムに適用する方法について述べる。

Mean Centering (MC) is an important data preprocessing technique, which has a wide range of applications in data mining, machine learning, and multivariate statistical analysis. When the data set is large, this process will be time-consuming. In this paper, we propose an efficient quantum MC algorithm based on the block-encoding technique, which enables the existing quantum algorithms can get rid of the assumption that the original data set has been classically mean-centered. Specifically, we first adopt the strategy that MC can be achieved by multiplying by the centering matrix $C$, i.e., removing the row means, column means and row-column means of the original data matrix $X$ can be expressed as $XC$, $CX$ and $CXC$, respectively. This allows many classical problems involving MC, such as Principal Component Analysis (PCA), to directly solve the matrix algebra problems related to $XC$, $CX$ or $CXC$. Next, we can employ the block-encoding technique to realize MC. To achieve it, we first show how to construct the block-encoding of the centering matrix $C$, and then further obtain the block-encodings of $XC$, $CX$ and $CXC$. Finally, we describe one by one how to apply our MC algorithm to PCA and other algorithms.
翻訳日:2023-02-02 10:06:53 公開日:2022-08-16
# 1次元モザイク障害モデルの正確な局所化遷移点への一般的アプローチ

A general approach to the exact localized transition points of 1D mosaic disorder models ( http://arxiv.org/abs/2208.02762v2 )

ライセンス: Link先を確認
Yanxia Liu(参考訳) 本稿では,モザイクモデルと非モザイクモデルとの一般的な対応について述べる。 この関係は準結晶モデルだけでなくアンダーソンモデルに対しても成り立つ。 特定のモデルの異なる局所性にもかかわらず、この関係は統一形式を共有する。 この手法をモザイク・アンダーソンモデルに適用すると、拡張状態の離散的な集合が存在することが分かる。 最後に、モザイクのゆっくりと変化するポテンシャルモデルとモザイクのガネシャン-ピクトリー-ダスサルマモデルに対する一般的な解析的モビリティエッジを与える。

In this paper, we present a general correspondence between the mosaic and non-mosaic models, which can be used to obtain the exact solution for the mosaic ones. This relation holds not only for the quasicrystal models, but also for the Anderson models. Despite the different localization properties of the specific models, this relationship shares a unified form. Applying our method to the mosaic Anderson models, we find that there is a discrete set of extended states. At last, we also give the general analytical mobility edge for the mosaic slowly varying potential models and the mosaic Ganeshan-Pixley-Das Sarma models.
翻訳日:2023-02-02 07:11:40 公開日:2022-08-16
# Bragg diffraction を用いた $\mu$rad-accuracy を用いた大運動量移動原子干渉計

Large-momentum-transfer atom interferometers with $\mu$rad-accuracy using Bragg diffraction ( http://arxiv.org/abs/2208.06647v2 )

ライセンス: Link先を確認
Jan-Niclas Siem\ss, Florian Fitzek, Christian Schubert, Ernst M. Rasel, Naceur Gaaloul, and Klemens Hammerer(参考訳) 光波の弾性ブラッグ散乱を用いた大質量移動~(lmt)原子干渉計は、これまでで最も正確な量子センサーである。 その精度を mad から $\mu$rad に向上させるためには、標準的な2モード干渉計とは大きく異なるブラッグ干渉計の豊富な現象学を理解する必要がある。 干渉計信号の解析モデルを開発し,包括的数値シミュレーションを用いてその精度を示す。 解析処理により、LMTブラッグ干渉計の原子射影雑音限界を決定でき、この限界を飽和させる手段を提供する。 これは、適切な光パルスパラメータを用いて、系統的な位相誤差の正確な知識と、2桁の階数で数$\mu\mathrm{rad}$まで抑制する。

Large-momentum-transfer~(LMT) atom interferometers using elastic Bragg scattering on light waves are among the most precise quantum sensors to date. To advance their accuracy from the mrad to the $\mu$rad regime, it is necessary to understand the rich phenomenology of the Bragg interferometer, which differs significantly from that of a standard two-mode interferometer. We develop an analytic model for the interferometer signal and demonstrate its accuracy using comprehensive numerical simulations. Our analytic treatment allows the determination of the atomic projection noise limit of an LMT Bragg interferometer, and provides the means to saturate this limit. It affords accurate knowledge of the systematic phase errors as well as their suppression by two orders of magnitude down to a few $\mu\mathrm{rad}$ using appropriate light pulse parameters.
翻訳日:2023-01-31 06:11:40 公開日:2022-08-16
# 光マイクロキャビティにおける非エルミートハミルトニアンの強仮想結合によって生じる二重例外点

Double exceptional points generated by the strong imaginary coupling of a non-Hermitian Hamiltonian in an optical microcavity ( http://arxiv.org/abs/2208.06860v2 )

ライセンス: Link先を確認
Kyu-Won Park, Jinuk Kim, and Kabgyun Jeong(参考訳) 例外点(EP)は近年,非エルミート系の研究やセンサやモードスイッチングなどの応用において注目されている。 特に、EPの非自明なトポロジカル構造は、EPを囲むことに関して集中的に研究されている。 したがって、EP生成はいくつかの分野で現在重要な問題である。 複数のEPを生成するために、複数のレベルまたは複合物理系がヘルミタン結合で採用されている。 本研究では,非エルミートハミルトニアンの非エルミート結合を想像的(支配的)結合の下で適用することにより,単一微小キャビティ内の2層系上の複数のEPを生成する。 非エルミートカップリングによって生成されるリーマン面の位相構造は、エルミートカップリングによって生成されるリーマン面と異なる特徴を示す。 これらのリーマン面の位相構造の特徴は、複数のepを囲み、リーマン球面を用いて検証された。

Exceptional points (EPs) have recently attracted considerable attention in the study of non-Hermitian systems and in applications such as sensors and mode switching. In particular, nontrivial topological structures of EPs have been studied intensively in relation to encircling EPs. Thus, EP generation is currently an important issue in several fields. To generate multiple EPs, multiple levels or composite physical systems have been employed with Hermitian couplings. In this study, we generate multiple EPs on two-level systems in a single microcavity by adopting the non-Hermitian coupling of a non-Hermitian Hamiltonian under the imaginary (dominant) coupling. The topological structures of Riemann surfaces generated by non-Hermitian coupling exhibit features that are different from those of Riemann surfaces generated by Hermitian coupling. The features of these topological structures of Riemann surfaces were verified by encircling multiple EPs and using a Riemann sphere.
翻訳日:2023-01-31 03:53:41 公開日:2022-08-16
# 分散量子コンピュータにおける時間進化のシミュレーション

Simulating time evolution on distributed quantum computers ( http://arxiv.org/abs/2208.07487v1 )

ライセンス: Link先を確認
Finn Lasse Buessen and Dvira Segal and Ilia Khait(参考訳) トロッター・スズキ分解の変種について検討し, トロッターステップサイズを少数の項で拡張するように, ハミルトン指数関数を2量子作用素指数の順序積で近似する。 このような分解は分散量子コンピュータのハードウェア制約を直接反映しており、モノリシック量子デバイス上の操作は、相互接続を用いて異なるノード間の絡み合い分布と比較して高速である。 横フィールドIsingとXYスピンチェーンモデルの非平衡ダイナミクスをシミュレートし、量子配線のスパース化に伴う局所的に増大するトロッターステップサイズの影響について検討する。 その結果、近似の全体的な品質は局所的スパーシティに依存し、局所的誤差の増殖は遅いことがわかった。 その結果,モノリシックデバイス上での高速なローカル操作により,相互接続のコストがかかる分散量子コンピュータにおいても,全体的な改善結果の忠実性が得られることがわかった。

We study a variation of the Trotter-Suzuki decomposition, in which a Hamiltonian exponential is approximated by an ordered product of two-qubit operator exponentials such that the Trotter step size is enhanced for a small number of terms. Such decomposition directly reflects hardware constraints of distributed quantum computers, where operations on monolithic quantum devices are fast compared to entanglement distribution across separate nodes using interconnects. We simulate non-equilibrium dynamics of transverse-field Ising and XY spin chain models and investigate the impact of locally increased Trotter step sizes that are associated with an increasingly sparse use of the quantum interconnect. We find that the overall quality of the approximation depends smoothly on the local sparsity and that the proliferation of local errors is slow. As a consequence, we show that fast local operations on monolithic devices can be leveraged to obtain an overall improved result fidelity even on distributed quantum computers where the use of interconnects is costly.
翻訳日:2023-01-30 23:08:54 公開日:2022-08-16
# 速度制約モデルにおける輸送とR'enyiエントロピー成長の区別

Distinction Between Transport and R\'enyi Entropy Growth in Kinetically Constrained Models ( http://arxiv.org/abs/2208.07480v1 )

ライセンス: Link先を確認
Zhi-Cheng Yang(参考訳) 保存法則と関連する流体力学モードは、孤立量子系におけるより高いR'enyiエントロピーの成長に重要な結果をもたらす。 U(1)対称性の存在下でのR'enyiエントロピーの力学が$S^{(n\geq 2)}(t) \propto t^{1/z}$に従うことが、様々なランダムなユニタリ回路やハミルトン系において示されている。 しかし, この単純な同定は, 速度論的制約のある特定の量子系では成立しないことを示した。 特に、XNORとFredkin制約を持つU(1)対称量子オートマトン回路の2種類について検討する。 両モデルのスピン輸送は亜拡散的であるが、第2のR'enyiエントロピーはXNORモデルでは拡散的に成長し、フレドキンモデルでは超拡散的に成長する。 XNOR 制約を持つ系では、スピン相関関数がタグ付き粒子の創発的トレーサダイナミクスに起因しうるのに対して、R'enyi エントロピーは粒子の集合輸送によって制約されるため、この区別が生じる。 以上より,保存則を持つ一般量子系における輸送と絡み合いエントロピーダイナミクスの関連は注意が必要であることが示唆された。

Conservation laws and the associated hydrodynamic modes have important consequences on the growth of higher R\'enyi entropies in isolated quantum systems. It has been shown in various random unitary circuits and Hamiltonian systems that the dynamics of the R\'enyi entropies in the presence of a U(1) symmetry obey $S^{(n\geq 2)}(t) \propto t^{1/z}$, where $z$ is identified as the dynamical exponent characterizing transport of the conserved charges. Here, however, we demonstrate that this simple identification may not hold in certain quantum systems with kinetic constraints. In particular, we study two types of U(1)-symmetric quantum automaton circuits with XNOR and Fredkin constraints, respectively. We find numerically that while spin transport in both models is subdiffusive, the second R\'enyi entropy grows diffusively in the XNOR model, and superdiffusively in the Fredkin model. For systems with XNOR constraint, this distinction arises since the spin correlation function can be attributed to an emergent tracer dynamics of tagged particles, whereas the R\'enyi entropies are constrained by collective transport of the particles. Our results suggest that care must be taken when relating transport and entanglement entropy dynamics in generic quantum systems with conservation laws.
翻訳日:2023-01-30 23:08:35 公開日:2022-08-16
# 実固体の光電子分光における周期結合クラスターグリーン関数

Periodic Coupled-Cluster Green's Function for Photoemission Spectra of Realistic Solids ( http://arxiv.org/abs/2208.07478v1 )

ライセンス: Link先を確認
Katelyn Laughon, Jason M. Yu, and Tianyu Zhu(参考訳) 本稿では,周期系の光電子分光をシミュレートする結合クラスターグリーン関数(ccgf)の効率的な実装を提案する。 結合クラスタ・シングルとダブルス(CCSD)レベルにおいて,ブリュアンゾーンサンプリングによる周期的CCGFアプローチをガウスベースで定式化する。 現実的な固体のCCGF計算を可能にするために,CCGFとより安価な多体摂動理論(GW)を組み合わせ,MOR周波数補間手法を実装した能動空間の自己エネルギー補正手法を提案する。 能動空間の自己エネルギー補正とMOR技術により,高い精度を維持しながらCCGFの計算コストを大幅に削減できることがわかった。 提案手法を用いてシリコン(Si)および酸化亜鉛(ZnO)結晶のスペクトル特性とバンド構造を3-$\zeta$ Gaussian基底および中規模k点サンプリングを用いて計算し,実験結果とよく一致した。

We present an efficient implementation of coupled-cluster Green's function (CCGF) method for simulating photoemission spectra of periodic systems. We formulate the periodic CCGF approach with Brillouin zone sampling in Gaussian basis at the coupled-cluster singles and doubles (CCSD) level. To enable CCGF calculations of realistic solids, we propose an active-space self-energy correction scheme by combining CCGF with cheaper many-body perturbation theory (GW) and implement the model order reduction (MOR) frequency interpolation technique. We find that the active-space self-energy correction and MOR techniques significantly reduce the computational cost of CCGF while maintaining the high accuracy. We apply the developed CCGF approaches to compute spectral properties and band structure of silicon (Si) and zinc oxide (ZnO) crystals using triple-$\zeta$ Gaussian basis and medium-size k-point sampling, and find good agreement with experimental measurements.
翻訳日:2023-01-30 23:08:06 公開日:2022-08-16
# 導波路QEDにおける熱伝導の全光制御

All-optical control of thermal conduction in waveguide QED ( http://arxiv.org/abs/2208.07475v1 )

ライセンス: Link先を確認
Wei-Bin Yan, Zhong-Xiao Man, Ying-Jie Zhang, Heng Fan, and Yun-Jie Xia(参考訳) レーザー駆動原子で中間した2つの1次元導波路間の熱伝導について検討した。 レーザーは熱伝導の光制御を提供する。 温度勾配に対する熱の調整不能な非対称伝導を実現する。 変調レーザにより、導波路から他の導波路への熱伝導を抑制することができる。 一方、抑制されたものと反対の方向への伝導が得られる。 熱電流はレーザーのエネルギーの流れによって著しく増幅される。 移動すると、このスキームはヒートエンジンのように振る舞う。

We investigate the heat conduction between two one-dimension waveguides intermediated by a Laser-driving atom. The Laser provides the optical control on the heat conduction. The tunable asymmetric conduction of the heat against the temperature gradient is realized. Assisted by the modulated Laser, the heat conduction from either waveguide to the other waveguide can be suppressed. Meanwhile, the conduction towards the direction opposite to the suppressed one is gained. The heat currents can be significantly amplified by the energy flow of the Laser. Moveover, the scheme can act like a heat engine.
翻訳日:2023-01-30 23:07:48 公開日:2022-08-16
# 量子アニーラのq-score評価

Evaluating the Q-score of Quantum Annealers ( http://arxiv.org/abs/2208.07633v1 )

ライセンス: Link先を確認
Ward van der Schoot, Daan Leermakers, Robert Wezeman, Niels Neumann, Frank Phillipson(参考訳) D-Waveの量子デバイス、古典的アルゴリズム、ハイブリッド量子古典解法のためのAtos Qスコアを報告する。 q-scoreを計算するには、ますます大きなグラフの最大カット問題を解決することが必要となる。 この研究は量子デバイス上でQスコアの最初の計算結果を示し、これらの量子デバイスが最適化問題の解法において古典的なデバイスと比較する方法を示す。 D-Waveの標準メソッドを60秒の制限時間で最初から使用しています。 D-Waveの2000QとAdvantageのQスコアはそれぞれ70と140である。 d-waveの2つの古典的なアルゴリズムのq-scoreはそれぞれ2,300と5,800である。 最後に,アウト・オブ・ボックスのハイブリッドアプローチを報告し,q-scoreが12,500であることを示す。

We report the Atos Q-score for D-Wave's quantum devices, classical algorithms and hybrid quantum-classical solver. Computing the Q-score entails solving the Max-Cut problem for increasingly large graphs. This work presents the first computation of the Q-score on a quantum device and shows how these quantum devices compare to classical devices at solving optimisation problems. We use D-Wave's standard methods out of the box with a time limit of 60 seconds. The Q-score for D-Wave's 2000Q and Advantage devices are 70 and 140, respectively. The Q-score for two of D-Wave's classical algorithms, based on tabu search and simulated annealing respectively, are 2,300 and 5,800. Finally, we report the out-of-the-box hybrid approach to have a Q-score of 12,500.
翻訳日:2023-01-30 23:05:20 公開日:2022-08-16
# 変量量子固有解法を有限温度に拡張する

Extending the Variational Quantum Eigensolver to Finite Temperatures ( http://arxiv.org/abs/2208.07621v1 )

ライセンス: Link先を確認
Johannes Selisko, Maximilian Amsler, Thomas Hammerschmidt, Ralf Drautz, and Thomas Eckl(参考訳) 本稿では、変量量子固有解器(VQE)を有限温度まで拡張する変量量子熱分解器(VQT)について述べる。 qVQTは、量子デバイス上の密度行列を符号化するために、2つの変分回路間の中間測定を利用する。 古典的最適化は、量子力学系の熱状態と関連する全ての励起状態を同時に提供する。 2つの異なるスピン系に対するqVQTの能力を実証する。 まず,1次元ハイゼンベルク鎖の回路深さと温度の関数としてのqVQTの性能を解析する。 第二に、励起状態を用いて、2次元のJ1-J2ハイゼンベルクモデルの完全な温度依存相図をマッピングする。 数値実験により、現在利用可能なnisqデバイス上での有限温度での様々な量子多体系の研究に容易に応用できる手法の効率を示す。

We present a variational quantum thermalizer (VQT), called quantum-VQT (qVQT), which extends the variational quantum eigensolver (VQE) to finite temperatures. The qVQT makes use of an intermediate measurement between two variational circuits to encode a density matrix on a quantum device. A classical optimization provides the thermal state and, simultaneously, all associated excited states of a quantum mechanical system. We demonstrate the capabilities of the qVQT for two different spin systems. First, we analyze the performance of qVQT as a function of the circuit depth and the temperature for a 1-dimensional Heisenberg chain. Second, we use the excited states to map the complete, temperature dependent phase diagram of a 2-dimensional J1-J2 Heisenberg model. The numerical experiments demonstrate the efficiency of our approach, which can be readily applied to study various quantum many-body systems at finite temperatures on currently available NISQ devices.
翻訳日:2023-01-30 23:05:07 公開日:2022-08-16
# ポンプ付自発パラメトリックダウンコンバージョンを用いた高感度量子センシング

High-sensitivity quantum sensing with pump-enhanced spontaneous parametric down-conversion ( http://arxiv.org/abs/2208.07595v1 )

ライセンス: Link先を確認
Chiara Lindner, Jachin Kunz, Simon J. Herr, Jens Kiessling, Sebastian Wolf, Frank K\"uhnemann(参考訳) 近年,自然パラメトリックダウンコンバージョン(SPDC)による相関光子対に基づく非線形干渉計を用いた量子センシングの概念が開発されている。 周波数縮退から遠く離れたspdcを使用することで、中赤外光子と低ノイズ検出のための相関近赤外光子との間の「分断」が可能となる。 しかし、SPDCによって提供される少数の光子と結果として生じる信号対雑音比は、新しいセンシング概念の幅広い適用性を阻害する制限因子である。 本稿では, ポンプ付SPDCに基づく非線形干渉計を試作し, 出力速度を強く改善するが, ブロードバンド, 自発エミッションを維持する。 この概念の検証のために,近赤外検出による高分解能中赤外分光法の実証を行い,精度の向上を示す。 中赤外光子の数は古典的な分光計より約5桁小さいが、量子分光器の感度は同等となり、現実世界の応用に向けた重要なステップとなる。

Recent years have seen the development of quantum sensing concepts utilizing nonlinear interferometers based on correlated photon pairs generated by spontaneous parametric down-conversion (SPDC). Using SPDC far from frequency degeneracy allows a 'division of labor' between the mid-infrared photon for strongest sample interaction and the correlated near-infrared photon for low-noise detection. The small number of photons provided by SPDC and the resulting inferior signal-to-noise ratio are, however, a limiting factor preventing wide applicability of the novel sensing concept. Here, we demonstrate a nonlinear interferometer based on pump-enhanced SPDC with strongly improved emission rates, but maintaining broadband, spontaneous emission. For validation of the concept, we demonstrate high-resolution mid-infrared spectroscopy with near-infrared detection, showcasing the improved accuracy. Although the number of mid-infrared photons is about five orders of magnitude smaller than in classical spectrometers, the sensitivity of the quantum spectrometer becomes comparable, marking an essential step toward real-world applications.
翻訳日:2023-01-30 23:04:40 公開日:2022-08-16
# 二重量子井戸の基底上の人工確率ニューラルネットワーク

Artificial stochastic neural network on the base of double quantum wells ( http://arxiv.org/abs/2208.07584v1 )

ライセンス: Link先を確認
O. V. Pavlovsky, V. I. Dorozhinsky, S.D. Mostovoy(参考訳) 本稿では,量子力学粒子を応用したニューラルネットワークのモデルについて検討する。 これらの粒子はモデルにおけるニューロンの役割を担っている。 このような量子力学系をシミュレートするためにモンテカルロ積分法を用いる。 粒子の自己ポテンシャルの形式と2つの相互作用ポテンシャル(励起と阻害)が提案される。 最も単純な論理要素(例えば、または、そうでない)の例を示す。 さらに,本モデルの枠組みにおいて,最も単純な畳み込みネットワークの実装を示す。

We consider a model of an artificial neural network based on quantum-mechanical particles in $W$ potential. These particles play the role of neurons in our model. To simulate such a quantum-mechanical system the Monte-Carlo integration method is used. A form of the self-potential of a particle as well as two interaction potentials (exciting and inhibiting) are proposed. Examples of simplest logical elements (such as AND, OR and NOT) are shown. Further we show an implementation of the simplest convolutional network in framework of our model.
翻訳日:2023-01-30 23:04:21 公開日:2022-08-16
# 量子回路の部分等価性検証

Partial Equivalence Checking of Quantum Circuits ( http://arxiv.org/abs/2208.07564v1 )

ライセンス: Link先を確認
Tian-Fu Chen, Jie-Hong R. Jiang, Min-Hsiu Hsieh(参考訳) 量子回路の等価性チェックは量子プログラムのコンパイルにおいて不可欠な要素であり、量子プログラムを量子ビット数、初期化条件、出力状態によって異なる異なる量子回路に合成することができる。 実装変種間の同値性を検証するには、適切な一般性が必要である。 量子回路等価性の異なる概念が定義されているが、以前の方法では、量子ビットが部分的に初期化されている2つの量子回路間の観測等価性は確認できない。 本研究では,2つの回路が部分的に等価である必要十分条件を証明した。 この条件に基づき、事前のアプローチでは部分等価性が検証できない量子回路をチェックするアルゴリズムを考案する。 実験の結果,本手法の汎用性を確認し,その効率と有効性を示す。 この結果は、量子プログラムコンパイルの最適化力を解き放ち、より積極的なステップを取ることができる。

Equivalence checking of quantum circuits is an essential element in quantum program compilation, in which a quantum program can be synthesized into different quantum circuits that may vary in the number of qubits, initialization requirements, and output states. Verifying the equivalences among the implementation variants requires proper generality. Although different notions of quantum circuit equivalence have been defined, prior methods cannot check observational equivalence between two quantum circuits whose qubits are partially initialized, which is referred to as partial equivalence. In this work, we prove a necessary and sufficient condition for two circuits to be partially equivalent. Based on the condition, we devise algorithms for checking quantum circuits whose partial equivalence cannot be verified by prior approaches. Experiment results confirm the generality and demonstrate the efficiency and effectiveness of our method. Our result may unleash the optimization power of quantum program compilation to take more aggressive steps.
翻訳日:2023-01-30 23:04:17 公開日:2022-08-16
# クエンチダイナミクスによるトポロジカルナンバーの直接測定

Direct Measurement of Topological Number by Quench Dynamics ( http://arxiv.org/abs/2208.07555v1 )

ライセンス: Link先を確認
Pei-Ling Huang and Chao Ma and Xiang-Long Yu and Jiansheng Wu(参考訳) トポロジカル数の測定は、トポロジカルシステムの研究において重要である。 近年,トポロジカル数と力学の関係が構築されている。 しかし、トポロジカルな数値を動的に読み出す直接的な方法はいまだに欠けている。 本研究では,未知系の位相数を直接測定する新しい動的プロトコルを提案する。 一般的なクエンチ演算と異なり、未知系のハミルトニアンを既知の位相特性を持つ別のものに変更する。 クエンチ後、異なる初期状態は、クエンチ後の最終ブロッホバンド上の異なる粒子数分布をもたらす。 このような分布は、運動量に依存する複素数である初期ブロッホ状態と最終ブロッホ状態の間の波動関数の重なりに依存する。 運動量が 2\pi$ で変化するとき、波動関数の位相が $\delta n\pi$ で重なり合うことが証明され、ここで$\delta n$ は初期ブロッホバンドと最終ブロッホバンドの間の位相的数差である。 これと最後のブロッホバンドの既知の位相数に基づいて、粒子数分布から初期状態の位相数を直接推定することができ、系の進化を追跡したりスピンテクスチャを測定する必要はない。 2つの実験計画も提案されている。 これらのスキームは便利で堅牢な測定方法を提供し、またトポロジとダイナミクスの関係の理解を深める。

The measurement of topological number is crucial in the research of topological systems. Recently, the relations between the topological number and the dynamics are built. But a direct method to read out the topological number via the dynamics is still lacking. In this work, we propose a new dynamical protocol to directly measure the topological number of an unknown system. Different from common quench operations, we change the Hamiltonian of the unknown system to another one with known topological properties. After the quench, different initial states result in different particle number distributions on the post-quench final Bloch bands. Such distributions depend on the wavefunction overlap between the initial Bloch state and the final Bloch state, which is a complex number depending on the momentum. We prove a theorem that when the momentum varies by $2\pi$, the phase of the wavefunction overlap change by $\Delta n\pi$ where $\Delta n$ is the topological number difference between the initial Bloch band and the final Bloch band. Based on this and the known topological number of the final Bloch band, we can directly deduce the topological number of the initial state from the particle number distribution and need not track the evolution of the system nor measure the spin texture. Two experimental schemes are also proposed as well. These schemes provide a convenient and robust measurement method and also deepens the understanding of the relation between topology and dynamics.
翻訳日:2023-01-30 23:04:04 公開日:2022-08-16
# ソースコードを持っている場合の平均推定、または量子モンテカルロ法

Mean estimation when you have the source code; or, quantum Monte Carlo methods ( http://arxiv.org/abs/2208.07544v1 )

ライセンス: Link先を確認
Robin Kothari, Ryan O'Donnell(参考訳) 例えば、$\boldsymbol{y}$ は実確率変数であり、それを生成する ``the code'' へのアクセスが与えられる(例えば、出力が $\boldsymbol{y}$ であるランダム化または量子回路)。 我々は、$O(n)$ timesを実行し、$\mu = \mathrm{E}[\boldsymbol{y}]$に対して$\widehat{\boldsymbol{\mu}}$ for $\mu = \mathrm{E}[\boldsymbol{y}]$に対して、高い確率で $|\widehat{\boldsymbol{\mu}} - \mu| \leq \sigma/n$, ここで$\sigma = \mathrm{stddev}[\boldsymbol{y}]$を返します。 この$n$への依存は量子アルゴリズムに最適である。 古典アルゴリズムと比較すると、二次的に悪い$|\widehat{\boldsymbol{\mu}} - \mu| \leq \sigma/\sqrt{n}$ しか達成できない。 我々の手法は、$\boldsymbol{y}$に関する仮定を追加し、/またはアルゴリズムが$\sigma$の先行値を知っていると仮定し、/または$O(n)$を超える追加の対数因子を使用した。 我々の結果の中心的なサブルーチンは、本質的にはグロバーのアルゴリズムであるが、複雑な位相を持つ。

Suppose $\boldsymbol{y}$ is a real random variable, and one is given access to ``the code'' that generates it (for example, a randomized or quantum circuit whose output is $\boldsymbol{y}$). We give a quantum procedure that runs the code $O(n)$ times and returns an estimate $\widehat{\boldsymbol{\mu}}$ for $\mu = \mathrm{E}[\boldsymbol{y}]$ that with high probability satisfies $|\widehat{\boldsymbol{\mu}} - \mu| \leq \sigma/n$, where $\sigma = \mathrm{stddev}[\boldsymbol{y}]$. This dependence on $n$ is optimal for quantum algorithms. One may compare with classical algorithms, which can only achieve the quadratically worse $|\widehat{\boldsymbol{\mu}} - \mu| \leq \sigma/\sqrt{n}$. Our method improves upon previous works, which either made additional assumptions about $\boldsymbol{y}$, and/or assumed the algorithm knew an a priori bound on $\sigma$, and/or used additional logarithmic factors beyond $O(n)$. The central subroutine for our result is essentially Grover's algorithm but with complex phases.ally Grover's algorithm but with complex phases.
翻訳日:2023-01-30 23:03:40 公開日:2022-08-16
# 連続可変絡み付きハイブリッド絡み合い状態のテレポーテーション

Teleportation of Hybrid Entangled States with Continuous-Variable Entanglement ( http://arxiv.org/abs/2208.07495v1 )

ライセンス: Link先を確認
Mingjian He and Robert Malaney(参考訳) 離散可変(DV)と連続可変(CV)量子系のハイブリッド絡み合いは、異種量子ネットワークにとって不可欠な資源である。 これまでの研究では,DV量子ビットの伝送路をCVアンタングル状態にすることで,送信側でのベル状態測定で定義した新しいプロトコルにより,伝送路の損失を低減できることを示した。 この研究は、CVベースの新しいテレポーテーションプロトコルがハイブリッド絡み合い状態の転送を改善することができるかどうかを考察する。 まず,このような変換プロトコルの性能をcvのみの量子ビットのテレポーティングで決定し,従来のcvベースのテレポーテーションよりも大幅に改善されていることを示す。 次に,従来型のcvベーステレポーテーションよりも大幅な改善が見られたことを示す,特定のハイブリッドエンタングル状態のテレポーテーションにおける類似した修正について検討する。 与えられたチャネル損失に対して、ハイブリッド絡み合った状態のDV量子ビットをテレポートすると、CV量子ビットをテレポートするよりも常に高い忠実性が得られる。 次に、修正されたテレポーテーションプロトコルにおける様々な非ガウス演算の使用について検討し、成功確率の低いコストで、量子ハサミが損失耐性を最も改善することを発見した。 以上の結果から, 損失のある場合, 送信機で実施した量子測定がcvベースのテレポーテーションに驚くべき, 劇的な影響を与えることを強調する。

Hybrid entanglement between discrete-variable (DV) and continuous-variable (CV) quantum systems is an essential resource for heterogeneous quantum networks. Our previous work showed that in lossy channels the teleportation of DV qubits, via CV-entangled states, can be significantly improved by a new protocol defined by a modified Bell state measurement at the sender. This work explores whether a new, similarly modified, CV-based teleportation protocol can lead to improvement in the transfer of hybrid entangled states. To set the scene, we first determine the performance of such a modified protocol in teleporting CV-only qubits, showing that significant improvement over traditional CV-based teleportation is obtained. We then explore similar modifications in the teleportation of a specific hybrid entangled state showing that significant improvement over traditional CV-based teleportation is again found. For a given channel loss, we find teleporting the DV qubit of the hybrid entangled state can always achieve higher fidelity than teleporting the CV qubit. We then explore the use of various non-Gaussian operations in our modified teleportation protocol, finding that, at a cost of lower success probability, quantum scissors provides the most improvement in the loss tolerance. Our new results emphasize that in lossy conditions, the quantum measurements undertaken at the sender can have a surprising and dramatic impact on CV-based teleportation.
翻訳日:2023-01-30 23:02:45 公開日:2022-08-16
# 短期量子デバイスのための適応型POVM実装と測定誤差軽減戦略

Adaptive POVM implementations and measurement error mitigation strategies for near-term quantum devices ( http://arxiv.org/abs/2208.07817v1 )

ライセンス: Link先を確認
Adam Glos and Anton Nyk\"anen and Elsi-Mari Borrelli and Sabrina Maniscalco and Matteo A. C. Rossi and Zolt\'an Zimbor\'as and Guillermo Garc\'ia-P\'erez(参考訳) 近距離小雑音デバイスにおける変分量子アルゴリズムに適した適応計測手法を提案する。 特に,従来の"測定のための学習"戦略を2つの方法で一般化する。 まず、アシラリーキュービットを使わずに単純な射影測定でシミュレートできる適応正作用素値測度(POVM)のクラスを考えることにより、必要なキュービットと2キュービットゲートの量を削減できる。 第2に、ノイズの影響を軽減するために量子検出器トモグラフィーに基づく手法を導入することにより、現在利用可能なノイズ量子デバイスで期待値を確実に推測するだけでなく、POVMを最適化することができる。 提案手法は, 変分量子固有解法において, 化学的精度を達成するために必要なショット数を大幅に削減し, 短期量子コンピューティングのボトルネックの1つを解決するのに有効であることを示す。

We present adaptive measurement techniques tailored for variational quantum algorithms on near-term small and noisy devices. In particular, we generalise earlier "learning to measure" strategies in two ways. First, by considering a class of adaptive positive operator valued measures (POVMs) that can be simulated with simple projective measurements without ancillary qubits, we decrease the amount of required qubits and two-qubit gates. Second, by introducing a method based on Quantum Detector Tomography to mitigate the effect of noise, we are able to optimise the POVMs as well as to infer expectation values reliably in the currently available noisy quantum devices. Our numerical simulations clearly indicate that the presented strategies can significantly reduce the number of needed shots to achieve chemical accuracy in variational quantum eigensolvers, thus helping to solve one of the bottlenecks of near-term quantum computing.
翻訳日:2023-01-30 22:55:59 公開日:2022-08-16
# 数個の熱量子の分割による非ガウス的絡み合い

Non-Gaussian entanglement via splitting of a few thermal quanta ( http://arxiv.org/abs/2208.07816v1 )

ライセンス: Link先を確認
Pradip Laha, Darren W. Moore, Radim Filip(参考訳) 量子分割はガウスの絡み合いの本質的な生成であり、明らかに線型系において最もよく生じる絡み合いである。 一般に、そのようなガウスの絡み合いは、線形化に必要な高コヒーレントかつ低ノイズ外部駆動を持つ非線形過程の強い励起から生じる。 対照的に、閉じ込められたイオンと超伝導回路における効率的な三線型過程を含む最近の実験は、線形化プロセスなしで数個の熱量子の分裂をテストするための相補的な可能性を開いた。 このような小さな熱エネルギーによって刺激され、強い縮退したトリリニアカップリングは、非縮退したトリリニアカップリングとは対照的に、蒸留可能な2次スクイージングの3dB以上で検出できる大量の非古典性を生成する。 物質的絡み合いは、非古典的状態の絡み合いポテンシャルを達成するために第3モードへの線形結合を介して非古典的生成と接して生成することができる。 このような絡み合いは、共分散行列によって捕捉されないが、分割された熱量子の平均数で増大する。 我々はこの解析を高次縮退量子分割過程にまで拡張し、この非ガウス的絡み合いが低エネルギー熱レベルでの強い非線形系に既に一般的であることを示す。 そのため、このような低エネルギー状態で動作する非線形ボソニック系の一般的な絡み合い機構に光を当てた。

Quanta splitting is an essential generator of Gaussian entanglement, apparently the most commonly occurring form of entanglement in linearised systems. In general, such Gaussian entanglement results from the strong pumping of a nonlinear process with the highly coherent and low-noise external drive necessary for the linearisation. In contrast, recent experiments involving efficient trilinear processes in trapped ions and superconducting circuits have opened the complementary possibility to test the splitting of a few thermal quanta without a linearisation process. Stimulated by such small thermal energy, the strong degenerate trilinear coupling generates large amounts of nonclassicality, detectable by more than 3 dB of distillable quadrature squeezing, in contrast with the nondegenerate trilinear coupling. Substantial entanglement can be generated in tandem with the nonclassicality generation via linear coupling to a third mode, achieving the entanglement potential of the nonclassical states. Such entanglement, although not captured by the covariance matrix, grows with the mean number of split thermal quanta; something which does not happen with Gaussian entanglement. We extend our analysis to higher-order degenerate quanta splitting processes to demonstrate that this non-Gaussian entanglement is already common for strongly nonlinear systems at the low-energy thermal level. We thus shed light on the generic entanglement mechanism for nonlinear bosonic systems operating in such low-energy regimes.
翻訳日:2023-01-30 22:55:44 公開日:2022-08-16
# コヒーレント光による量子相関境界の探索

Exploring the boundary of quantum correlations with coherent light ( http://arxiv.org/abs/2208.07794v1 )

ライセンス: Link先を確認
Zheng-Hao Liu, Yu Meng, Yu-Ze Wu, Ze-Yan Hao, Zhen-Peng Xu, Cheng-Jun Ai, Hai Wei, Kai Wen, Jing-Ling Chen, Jie Ma, Jin-Shi Xu, Chuan-Feng Li, and Guang-Can Guo(参考訳) 量子論の目覚しい特徴である文脈性は、量子相関と任意の非文脈的隠れ変数モデルの間の非互換性を捉えている。 Greenberger--Horne-Zeilinger (GHZ) 型パラドックス(英語版)は、決定論的論理論との非互換性を示す文脈性の証明である。 しかしながら、最も単純なGHZ型パラドックスは、最小数の完全文脈と最大の非古典性を持つ。 ここでは、3つの完全文脈のみを利用するGHZ型パラドックスを導出し、この数をさらに減らすことができないことを示す。 古典的実体として解釈可能なコヒーレント光の時間多重モードの高速変調,光畳み込み,ホモダイン検出に基づく37次元コンテクストシティテストにおいて,すべての必須成分を回収する実験を行い,パラドックスの実証を行った。 超高次元システムにおける強い文脈性の提案と観察により、光学系とのエキゾチックな量子相関の探索の道を開いた。

Contextuality, a hallmark feature of the quantum theory, captures the incompatibility between quantum correlations and any noncontextual hidden-variable model. The Greenberger--Horne--Zeilinger (GHZ)-type paradoxes are proofs of contextuality which reveal this incompatibility with deterministic logical arguments. However, the simplest GHZ-type paradox with the fewest number of complete contexts and the largest degree of nonclassicality remains elusive. Here, we derive a GHZ-type paradox utilising only three complete contexts and show this number cannot be further reduced. We forward to demonstrating the paradox with an experiment which recovered all essential ingredients in a 37-dimensional contextuality test based on high-speed modulation, optical convolution and homodyne detection of time-multiplexed modes of coherent light that can be interpreted as a classical entity. By proposing and observing a strong form of contextuality in an extremely high-dimensional system, our results pave the way for the exploration of exotic quantum correlations with optical systems.
翻訳日:2023-01-30 22:55:22 公開日:2022-08-16
# 3量子グラフ状態による位相測定におけるハイゼンベルク極限の実現

Achieving Heisenberg limit in the phase measurement through three-qubit graph states ( http://arxiv.org/abs/2208.07772v1 )

ライセンス: Link先を確認
Subhasish Bag, Ramita Sarkar and Prasanta K. Panigrahi(参考訳) 本研究では,一般的な3量子ビット状態に対する平均量子フィッシャー情報(rmqfi)である$\chi^2$の相互関係について検討し,グラフとハイパーグラフの状態が特別な場合として,$\chi^2 <1$で特徴付けられる真正のマルチパーティ絡み合いを同定する。 我々は、最も対称なグラフ状態とGHZ状態がRMQFI値が最も低いことを証明し、これら2つの状態が位相感度でハイゼンベルク限界に達することを示す。 GHZ状態とは異なり、グラフ状態は同じRMQFI値を持ち、異なるパラメータ、すなわちハイパーグラフ状態によって共有される性質を持つ。 3つのqubitグラフとハイパーグラフ状態はベルの不等式を$F_Q > N$と破ることができる。 GHZ状態と最も対称なグラフ状態は、最高収束等しく3と最大QFI値を持つ。

We study the reciprocal of the mean quantum Fisher information (RMQFI), $\chi^2$ for general three qubit states, having graph and hypergraph states as special cases, for identifying genuine multi party entanglement characterized by $\chi^2 <1$. We demonstrate that the most symmetric graph state and the GHZ state have the lowest RMQFI values leading to the highest statistical speed showing that both these states attain the Heisenberg limit in phase sensitivity. Unlike the GHZ state, graph states have the same RMQFI values for measurement through different parameters, a property shared by the hypergraph states. Three qubit graph and hypergraph states can violate Bell's inequality as $F_Q > N$. Both the GHZ state and the most symmetric graph state have the highest concurrence equalling 3 and the maximum QFI values.
翻訳日:2023-01-30 22:55:04 公開日:2022-08-16
# 量子状態から遠く離れた低温反応の量子的抑制

Quantum suppression of cold reactions far from the quantum regime ( http://arxiv.org/abs/2208.07725v1 )

ライセンス: Link先を確認
Or Katz, Meirav Pinkas, Nitzan Akerman, Roee Ozeri(参考訳) 原子対間の反応は化学や物理学においてユビキタスな過程である。 反応に対する量子散乱効果は、非常に超低温でのみ観測され、s$-waveレジームに近く、少数の部分波が関与している。 高温では、異なる部分波の平均量子干渉の遠心障壁に関連する異なる位相が半古典的な反応速度をもたらす。 ここでは量子論理学を用いて、中性$^{87}$Rb原子の単一冷間対と光学的到達不能$^{87}$Rb$^{+}$イオンの間の共鳴電荷交換反応を実験的に研究する。 その結果,半古典的予測では電荷交換速度が著しく抑制されていることがわかった。 我々の結果は、量子干渉が極低温で持続し、効果反応速度が極低温の$s$-wave状態よりも少なくとも3桁高いことを初めて示している。

Reactions between pairs of atoms are ubiquitous processes in chemistry and physics. Quantum scattering effects on reactions are only observed at extremely ultracold temperatures, close to the $s$-wave regime, with a small number of partial waves involved. At higher temperatures, the different phases associated with the centrifugal barriers of different partial waves average-out quantum interference to yield semi-classical reaction rates. Here we use quantum-logic to experimentally study resonant charge-exchange reactions between single cold pairs of neutral $^{87}$Rb atoms and optically-inaccessible $^{87}$Rb$^{+}$ ions far above the $s$-wave regime. We find that the measured charge-exchange rate is greatly suppressed with respect to the semi-classical prediction. Our results indicate for the first time that quantum interference persists and effects reaction rates at very high temperatures, at least three orders of magnitude higher than the ultracold $s$-wave regime.
翻訳日:2023-01-30 22:54:47 公開日:2022-08-16
# 電子媒体と相互作用する光ビーム。 モデルの厳密解とその光子絡み問題への応用

Light beam interacting with electron medium. Exact solutions of the model and their possible applications to photon entanglement problem ( http://arxiv.org/abs/2208.07721v1 )

ライセンス: Link先を確認
A. I. Breev and D. M. Gitman(参考訳) 量子化されたスピンレス粒子と相互作用する光子ビームからなるQED系を記述するモデルを考える。 我々は、2つの異なるモーメントが同じ方向に動く光子からなる光子ビームによって自分自身を制限する。 各モーメントを持つ光子は2つの線形偏光を持つことができる。 厳密な解は2つの独立したサブシステムに対応し、1つは電子媒体に対応し、もう1つは光子ヒルベルト部分空間内のベクトルによって記述され、互いに相互作用しないいくつかの準光子の集合を表す。 さらに, 一定の磁場内に配置された同一系に対応するモデルの厳密な解を求める。 例えば、可能な応用例として、量子化された電子媒体と定磁場による光子ビームの絡み合いを計算するためのモデルの解を用いる。 したがって、応用磁場と電子媒体のパラメータの関数として光子ビームの絡み合い(情報とシュミットの1つ)を計算する。

We consider a model for describing a QED system consisting of a photon beam interacting with quantized charged spinless particles. We restrict ourselves by a photon beam that consists of photons with two different momenta moving in the same direction. Photons with each moment may have two possible linear polarizations. The exact solutions correspond to two independent subsystems, one of which corresponds to the electron medium and another one is described by vectors in the photon Hilbert subspace and is representing a set of some quasi-photons that do not interact with each other. In addition, we find exact solution of the model that correspond to the same system placed in a constant magnetic field. As an example, of possible applications, we use the solutions of the model for calculating entanglement of the photon beam by quantized electron medium and by a constant magnetic field. Thus, we calculate the entanglement measures (the information and the Schmidt ones) of the photon beam as functions of the applied magnetic field and parameters of the electron medium.
翻訳日:2023-01-30 22:54:31 公開日:2022-08-16
# ハイブリッド量子プログラミングのための効率的なパラメータ化コンパイル

Efficient parameterised compilation for hybrid quantum programming ( http://arxiv.org/abs/2208.07683v1 )

ライセンス: Link先を確認
A.M. Krol, K. Mesman, A. Sarkar, M. M\"oller, Z. Al-Ars(参考訳) 短期量子デバイスは、変分量子固有解法のようなハイブリッド古典量子アルゴリズムを用いて古典的計算を上回る可能性がある。 これらの反復アルゴリズムは古典的なオプティマイザを用いてパラメータ化された量子回路を更新する。 各イテレーションにおいて、回路は物理量子プロセッサまたは量子コンピューティングシミュレータ上で実行され、平均測定結果は古典的なオプティマイザに転送される。 多くの反復が必要な場合、量子プログラム全体も何度も再コンパイルされる。 我々は,OpenQL_PCと呼ばれる量子プログラミングフレームワークにおいて,プログラム全体の再コンパイルを防止する明示的なパラメータを実装した。 我々は、OpenQLにおけるMAXCUTアルゴリズムのコンパイルとシミュレーションに必要な時間と、PyQuilとQiskitの両方で同じアルゴリズムと比較する。 新しいパラメータでは、MAXCUTベンチマークでは、OpenQLのコンパイル時間が大幅に短縮される。 OpenQL_PCを使用する場合、ハイブリッドアルゴリズムのコンパイルは、PyQuilやQiskitを使用する場合の最大2倍高速である。

Near term quantum devices have the potential to outperform classical computing through the use of hybrid classical-quantum algorithms such as Variational Quantum Eigensolvers. These iterative algorithms use a classical optimiser to update a parameterised quantum circuit. Each iteration, the circuit is executed on a physical quantum processor or quantum computing simulator, and the average measurement result is passed back to the classical optimiser. When many iterations are required, the whole quantum program is also recompiled many times. We have implemented explicit parameters that prevent recompilation of the whole program in quantum programming framework OpenQL, called OpenQL_PC, to improve the compilation and therefore total run-time of hybrid algorithms. We compare the time required for compilation and simulation of the MAXCUT algorithm in OpenQL to the same algorithm in both PyQuil and Qiskit. With the new parameters, compilation time in OpenQL is reduced considerably for the MAXCUT benchmark. When using OpenQL_PC, compilation of hybrid algorithms is up to two times faster than when using PyQuil or Qiskit.
翻訳日:2023-01-30 22:53:18 公開日:2022-08-16
# 算術的回路テンソルネットワーク、多変数関数表現、高次元積分

Arithmetic circuit tensor networks, multivariable function representation, and high-dimensional integration ( http://arxiv.org/abs/2209.07410v1 )

ライセンス: Link先を確認
Ruojing Peng, Johnnie Gray, Garnet Kin-Lic Chan(参考訳) 多くの計算問題は高次元関数で定式化することができる。 そのような関数の単純な表現と結果の計算は通常、次元への指数的なコスト依存である「次元の商」に悩まされる。 テンソルネットワークは多項式記憶を持つ高次元関数の特定のクラスを表現する方法を提供する。 この結果、テンソルネットワーク表現が得られれば指数的なコストが改善されるか、場合によっては取り除かれるという計算が可能となる。 本稿では,関数の算術回路から算術回路テンソルネットワークへの直接マッピングを導入する。 最大50次元の単位ハイパーキューブ上での多変数積分の例において、回路構成の複雑さを回路構造から理解することが可能な回路構成のパワーを実証する。 これらの場合、準モンテ-カルロ積分と比較して非常に有利なコストスケーリングを見いだし、さらに、基礎となるテンソルネットワーク回路構造を知らずに効率的な準モンテ-カルロを理論的に実行できない例を示す。

Many computational problems can be formulated in terms of high-dimensional functions. Simple representations of such functions and resulting computations with them typically suffer from the "curse of dimensionality", an exponential cost dependence on dimension. Tensor networks provide a way to represent certain classes of high-dimensional functions with polynomial memory. This results in computations where the exponential cost is ameliorated or in some cases, removed, if the tensor network representation can be obtained. Here, we introduce a direct mapping from the arithmetic circuit of a function to arithmetic circuit tensor networks, avoiding the need to perform any optimization or functional fit. We demonstrate the power of the circuit construction in examples of multivariable integration on the unit hypercube in up to 50 dimensions, where the complexity of integration can be understood from the circuit structure. We find very favorable cost scaling compared to quasi-Monte-Carlo integration for these cases, and further give an example where efficient quasi-Monte-Carlo cannot be theoretically performed without knowledge of the underlying tensor network circuit structure.
翻訳日:2023-01-30 22:47:42 公開日:2022-08-16
# エンタングルメント支援通信能力獲得のためのトランシーバ設計

Transceiver designs to attain the entanglement assisted communications capacity ( http://arxiv.org/abs/2208.07979v1 )

ライセンス: Link先を確認
Ali Cox, Quntao Zhuang, Christos Gagatsos, Boulat Bash and Saikat Guha(参考訳) プリシェードの絡み合いは、高熱雑音と低輝度送信機状態における通信速度を著しく向上させることができる。 この方法では、熱雑音を付加した損失ボソニックチャネルの場合、エンタングルメント支援容量とホールボ容量(事前共有されたエンタングルメントのない量子力学によって許容される最大信頼性通信レート)の比率は$\log(1/{\bar n}_{\rm s})$であり、モードごとの平均送信光子数${\bar n}_{\rm s} \ll 1$である。 このように、例えば量子インターネットや衛星支援量子リンクによって分散される事前共有の絡み合いは、低消費電力の無線周波数通信を大幅に改善することを約束する。 本稿では,下り変換源,二元位相変調,非ガウスジョイント検出といった,連続変数の事前共有エンタングルメントをコードワードブロック上で利用する構造的量子トランシーバの設計法を提案する。 さらに、動的にプログラム可能なインライン2モード圧縮器を組み込んだ総周波発生サンドイッチを用いたフロントエンドと、非破壊マルチモード真空またはノーの測定を用いて、受信機のフロントエンドの出力をフル活用して、アンタングル化支援された古典的通信能力を実現するレシーババックエンドを用いる。

Pre-shared entanglement can significantly boost communication rates in the high thermal noise and low-brightness transmitter regime. In this regime, for a lossy-bosonic channel with additive thermal noise, the ratio between the entanglement-assisted capacity and the Holevo capacity - the maximum reliable-communications rate permitted by quantum mechanics without any pre-shared entanglement - scales as $\log(1/{\bar N}_{\rm S})$, where the mean transmitted photon number per mode, ${\bar N}_{\rm S} \ll 1$. Thus, pre-shared entanglement, e.g., distributed by the quantum internet or a satellite-assisted quantum link, promises to significantly improve low-power radio-frequency communications. In this paper, we propose a pair of structured quantum transceiver designs that leverage continuous-variable pre-shared entanglement generated, e.g., from a down-conversion source, binary phase modulation, and non-Gaussian joint detection over a code word block, to achieve this scaling law of capacity enhancement. Further, we describe a modification to the aforesaid receiver using a front-end that uses sum-frequency generation sandwiched with dynamically-programmable in-line two-mode squeezers, and a receiver back-end that takes full advantage of the output of the receiver's front-end by employing a non-destructive multimode vacuum-or-not measurement to achieve the entanglement-assisted classical communications capacity.
翻訳日:2023-01-30 22:47:22 公開日:2022-08-16
# VQE法による陰極電池材料の遷移金属酸化物のシミュレーションに向けて

Towards the simulation of transition-metal oxides of the cathode battery materials using VQE methods ( http://arxiv.org/abs/2208.07977v1 )

ライセンス: Link先を確認
Marwa H. Farag and Joydip Ghosh(参考訳) 変分量子固有解法(VQE)は、ノイズのある中間スケール量子(NISQ)ハードウェアを利用してモデルハミルトンの最小固有値を得るハイブリッド量子古典法である。 VQEはこれまで、凝縮物質系のシミュレートや小さな分子の量子化学に使われてきた。 本研究では,電池陰極用遷移金属酸化物LiCoO$_2$の基底状態エネルギーを得るためにVQE法を用いる。 li-ion電池の放電中のリチウム化状態とリチウム化状態を表すli$_2$co$_2$o$_4$とco$_2$o$_4$ガス相モデルをシミュレートした。 計算は、ユニタリ結合クラスターシングルとダブルス(uccsd)、ユニタリ結合クラスター一般化シングルとダブルス(uccgsd)、k-ユニタリペア結合クラスター一般化シングルとダブルス(k-upccgsd)の3つの異なる試行波関数のための単一の参照状態を持つ状態ベクトルシミュレータを用いて行われる。 回路の深さ, 2量子ビット絡み込みゲート, 波動関数パラメータなどの資源を解析した。 k=5 の k-UpCCGSD は UCCSD と同様の結果をもたらすが,低コストで得られる。 最後に、VQE法の性能を、結合クラスタシングルとダブルス(CCSD)や完全なアクティブ空間構成相互作用(CASCI)といった古典的な波動関数に基づく手法と比較する。 その結果,VQE法はCCSDの結果と定量的に一致することがわかった。 しかし、CASCIとの比較から、高レベルの電子励起から生じる相関だけでなく、多参照特性を捉えるためには高度なトライアル波動関数が必要である可能性が示唆されている。

Variational quantum eigensolver (VQE) is a hybrid quantum-classical technique that leverages noisy intermediate scale quantum (NISQ) hardware to obtain the minimum eigenvalue of a model Hamiltonian. VQE has so far been used to simulate condensed matter systems as well as quantum chemistry of small molecules. In this work, we employ VQE methods to obtain the ground-state energy of LiCoO$_2$, a candidate transition metal oxide used for battery cathodes. We simulate Li$_2$Co$_2$O$_4$ and Co$_2$O$_4$ gas-phase models, which represent the lithiated and delithiated states during the discharge and the charge of the Li-ion battery, respectively. Computations are performed using a statevector simulator with a single reference state for three different trial wavefunctions: unitary coupled-cluster singles and doubles (UCCSD), unitary coupled-cluster generalized singles and doubles (UCCGSD) and k-unitary pair coupled-cluster generalized singles and doubles (k-UpCCGSD). The resources in terms of circuit depth, two-qubit entangling gates and wavefunction parameters are analyzed. We find that the k-UpCCGSD with k=5 produces results similar to UCCSD but at a lower cost. Finally, the performance of VQE methods is benchmarked against the classical wavefunction-based methods, such as coupled-cluster singles and doubles (CCSD) and complete active space configuration interaction (CASCI). Our results show that VQE methods quantitatively agree with the results obtained from CCSD. However, the comparison against the CASCI results clearly suggests that advanced trial wavefunctions are likely necessary to capture the multi-reference characteristics as well as the correlations emerging from high-level electronic excitations.
翻訳日:2023-01-30 22:46:47 公開日:2022-08-16
# 半古典型Schr\"odinger方程式に対するトロッター公式の一様可観測誤差境界

Uniform observable error bounds of Trotter formulae for the semiclassical Schr\"odinger equation ( http://arxiv.org/abs/2208.07957v1 )

ライセンス: Link先を確認
Yonah Borns-Weil, Di Fang(参考訳) 高速フォワードの定理がなければ、ハミルトン進化のシミュレーション時間は$O(\|H\| t)$でなければならない。 半古典型Schr\"odinger方程式の文脈において、観測可能なクラスの計算コストが最先端境界よりもはるかに低いことを実証した。 半古典的体系(有効なプランク定数 $h \ll 1$)では、ハミルトニアンの作用素ノルムは $o(h^{-1})$ である。 観測可能な進化に使用されるトロッターステップの数は$O(1)$であり、量子スケール上のシュリンガー方程式の可観測性をシミュレートするには古典的なスケールに匹敵するシミュレーション時間しかかからないことを示す。 誤差解析の観点では、加算可観測誤差境界 [Lasser-Lubich 2020] を均一な-$h$可観測誤差境界に改善する。 これは、我々の知る限り、数値法の収束順序を犠牲にすることなく半古典的シュリンガー方程式に対する最初の一様可観測誤差である。 半古典的計算と離散的マイクロ局所解析に基づいて, 量子力学シミュレーションにおいて, 有効なプランク定数の小ささ, 基礎となる力学, 量子力学シミュレーションのスケールに光を当てるなど, マルチスケール特性を利用した潜在的な改善を示す。

By no fast-forwarding theorem, the simulation time for the Hamiltonian evolution needs to be $O(\|H\| t)$, which essentially states that one can not go across the multiple scales as the simulation time for the Hamiltonian evolution needs to be strictly greater than the physical time. We demonstrated in the context of the semiclassical Schr\"odinger equation that the computational cost for a class of observables can be much lower than the state-of-the-art bounds. In the semiclassical regime (the effective Planck constant $h \ll 1$), the operator norm of the Hamiltonian is $O(h^{-1})$. We show that the number of Trotter steps used for the observable evolution can be $O(1)$, that is, to simulate some observables of the Schr\"odinger equation on a quantum scale only takes the simulation time comparable to the classical scale. In terms of error analysis, we improve the additive observable error bounds [Lasser-Lubich 2020] to uniform-in-$h$ observable error bounds. This is, to our knowledge, the first uniform observable error bound for semiclassical Schr\"odinger equation without sacrificing the convergence order of the numerical method. Based on semiclassical calculus and discrete microlocal analysis, our result showcases the potential improvements taking advantage of multiscale properties, such as the smallness of the effective Planck constant, of the underlying dynamics and sheds light on going across the scale for quantum dynamics simulation.
翻訳日:2023-01-30 22:46:14 公開日:2022-08-16
# 雑音量子トンネル問題における量子コヒーレンスと非マルコフ性

Quantum Coherence and non-Markovianity in a Noisy Quantum Tunneling Problem ( http://arxiv.org/abs/2208.07947v1 )

ライセンス: Link先を確認
Nisreen Mohammed Mahdi, Arzu Kurt, and Ferdi Altintas(参考訳) 電信ノイズによって障壁が変動する量子トンネルシステムのコヒーレンスと非マルコビアン性について検討し,そのエネルギーギャップをガウスノイズによって変調する。 平均化法を用いてシステムダイナミクスを解析的に導出し、初期コヒーレント状態と非コヒーレント状態の両方の非常に限定されたパラメータレジームに対するコヒーレンス測度と非マルコフ性の解析式を得る。 kubo数が高い状況下では、非マルコフ力学を観測する。 また, システムのコヒーレンスと非マルコフ性ダイナミクスの間には, 2つの初期状態の中間雑音色での挙動が変化する傾向がある領域を除いて, 強い相関性が認められなかった。

We investigate the coherence and non-Markovianity of a quantum tunneling system whose barrier is fluctuated by a telegraph noise, and its energy gap is modulated by Gaussian noise. With the help of averaging method, the system dynamics are analytically derived, and the analytical expression for coherence measure and non-Markovianity for the very limited parameter regimes for both initially coherent and non-coherent states are obtained. We observe non-Markovian dynamics in a situation where the Kubo number is high. It is also found that there is no strong relation between the coherence of the system and non-Markovianity dynamics except in a region in which these two tend to change their behavior at the intermediate noise color for two initial states.
翻訳日:2023-01-30 22:45:48 公開日:2022-08-16
# 可観測物のデュアルインスツルメンツとシークエンス製品

Dual Instruments and Sequential Products of Observables ( http://arxiv.org/abs/2208.07923v1 )

ライセンス: Link先を確認
Stan Gudder(参考訳) まず,各操作が一意な双対演算を持ち,一意な効果を測定することを示す。 もし$a$と$b$が効果であり、$J$が$a$を測定する演算であれば、$a$のシーケンシャル積を$J$に対して$b$と定義する。 逐次積の性質は導出され、L\ "uders" と Holevo の操作で説明される。 次に、この研究を楽器と観測可能な理論に拡張する。 また、別の楽器(観測可能)によって条件付けられた楽器(観測可能)の概念も定義する。 同一性、状態安定性、反復性が考慮される。 有限可観測物のL\ "uders" および Holevo 楽器に対する逐次積について研究する。

We first show that every operation possesses an unique dual operation and measures an unique effect. If $a$ and $b$ are effects and $J$ is an operation that measures $a$, we define the sequential product of $a$ then $b$ relative to $J$. Properties of the sequential product are derived and are illustrated in terms of L\"uders and Holevo operations. We next extend this work to the theory of instruments and observables. We also define the concept of an instrument (observable) conditioned by another instrument (observable). Identity, state-constant and repeatable instruments are considered. Sequential products of finite observables relative to L\"uders and Holevo instruments are studied.
翻訳日:2023-01-30 22:45:33 公開日:2022-08-16
# 熱平衡の半古典的正則性について

On the semiclassical regularity of thermal equilibria ( http://arxiv.org/abs/2208.07911v1 )

ライセンス: Link先を確認
Jacky J. Chong, Laurent Lafleche, Chiara Saffirio(参考訳) 有限正温度におけるフェルミオン平衡状態の正則性について検討し、それらがある種の半古典的境界を満たすことを示す。 結論として、[J.J. Chong, L. Lafleche, C. Saffirio: arXiv:2103.10946 (2021)] の正の温度状態のクラスを明確に特定する。

We study the regularity properties of fermionic equilibrium states at finite positive temperature and show that they satisfy certain semiclassical bounds. As a corollary, we identify explicitly a class of positive temperature states satisfying the regularity assumptions of [J.J. Chong, L. Lafleche, C. Saffirio: arXiv:2103.10946 (2021)].
翻訳日:2023-01-30 22:45:21 公開日:2022-08-16
# 準備・測定シナリオにおけるほぼ質疑応答

Almost qudits in the prepare-and-measure scenario ( http://arxiv.org/abs/2208.07887v1 )

ライセンス: Link先を確認
Jef Pauwels, Stefano Pironio, Erik Woodhead and Armin Tavakoli(参考訳) 量子通信はしばしばヒルベルト空間の次元のみが知られているシナリオで研究される。 しかし、正確な次元を割り当てることは、しばしば、実際の高次元過程の近似である。 ここでは,標準量子ビットとほぼ一致するが完全ではないキャリアに符号化された量子情報を紹介し,検討する。 半デバイス非依存の量子情報に対するこの概念の意義を,より小さな高次元成分が確立されたプロトコルの結論を著しく損なうことを示すことによって示す。 次に, 半定値緩和に基づく一般化法を提案し, ほぼクウディト相関の組を束縛し, 実演問題の修正に応用する。 この手法はまた、非絡み合ったデバイスを持つ古典的および量子的次元のデバイス非依存テストでよく知られたタスクに対して、新しい体系的アプローチを提供する。 最後に、量子ビット系を実験者が利用できる物理資源とみなし、よく知られたランダムアクセス符号の最適量子プロトコルを決定することを検討する。

Quantum communication is often investigated in scenarios where only the dimension of Hilbert space is known. However, assigning a precise dimension is often an approximation of what is actually a higher-dimensional process. Here, we introduce and investigate quantum information encoded in carriers that nearly, but not entirely, correspond to standard qudits. We demonstrate the relevance of this concept for semi-device-independent quantum information by showing how small higher-dimensional components can significantly compromise the conclusions of established protocols. Then we provide a general method, based on semidefinite relaxations, for bounding the set of almost qudit correlations, and apply it to remedy the demonstrated issues. This method also offers a novel systematic approach to the well-known task of device-independent tests of classical and quantum dimensions with unentangled devices. Finally, we also consider viewing almost qubit systems as a physical resource available to the experimenter and determine the optimal quantum protocol for the well-known Random Access Code.
翻訳日:2023-01-30 22:45:13 公開日:2022-08-16
# 量子相状態学習のための最適アルゴリズム

Optimal algorithms for learning quantum phase states ( http://arxiv.org/abs/2208.07851v1 )

ライセンス: Link先を確認
Srinivasan Arunachalam, Sergey Bravyi, Arkopal Dutt, Theodore J. Yoder(参考訳) 我々は、n$-qubitの量子状態の学習の複雑さを分析する。 次数-$d$位相状態は、$n$変数上の次数-$d$ Boolean多項式である$(-1)^{f(x)}$に比例する振幅を持つすべての2^n$基底ベクトル$x$の重ね合わせとして定義される。 未知の次数-d$位相状態の学習のサンプル複雑性は、分離可能な測定を許すならば$\theta(n^d)$であり、絡み合った測定を許すなら$\theta(n^{d-1})$である。 分離可能な測定に基づく学習アルゴリズムは、実行時$\textsf{poly}(n)$(一定の$d$)を持ち、pauli $x$と$z$ベースでシングルキュービットの測定のみを必要とするため、短期的なデモンストレーションには適しています。 複素数値振幅を持つ一般化位相状態の学習におけるサンプルの複雑さに類似した境界を示す。 さらに、$f$が$\mathbb{f}_2$表現を持つ場合(サンプル複雑性$o(2^d sn)$)、$f$がフーリエ度$t$を持つ場合(サンプル複雑性$o(2^{2t})$)、$\varepsilon$-global非分極化ノイズ(サンプル複雑性$o(n^{1+\varepsilon})$)で二次位相状態を学ぶ場合も検討する。 これらの学習アルゴリズムは、クリフォード階層とiqp回路の対角ユニタリを学ぶ手順を与える。

We analyze the complexity of learning $n$-qubit quantum phase states. A degree-$d$ phase state is defined as a superposition of all $2^n$ basis vectors $x$ with amplitudes proportional to $(-1)^{f(x)}$, where $f$ is a degree-$d$ Boolean polynomial over $n$ variables. We show that the sample complexity of learning an unknown degree-$d$ phase state is $\Theta(n^d)$ if we allow separable measurements and $\Theta(n^{d-1})$ if we allow entangled measurements. Our learning algorithm based on separable measurements has runtime $\textsf{poly}(n)$ (for constant $d$) and is well-suited for near-term demonstrations as it requires only single-qubit measurements in the Pauli $X$ and $Z$ bases. We show similar bounds on the sample complexity for learning generalized phase states with complex-valued amplitudes. We further consider learning phase states when $f$ has sparsity-$s$, degree-$d$ in its $\mathbb{F}_2$ representation (with sample complexity $O(2^d sn)$), $f$ has Fourier-degree-$t$ (with sample complexity $O(2^{2t})$), and learning quadratic phase states with $\varepsilon$-global depolarizing noise (with sample complexity $O(n^{1+\varepsilon})$). These learning algorithms give us a procedure to learn the diagonal unitaries of the Clifford hierarchy and IQP circuits.
翻訳日:2023-01-30 22:44:46 公開日:2022-08-16
# Arachne: ディープニューラルネットワークの検索ベースの修復

Arachne: Search Based Repair of Deep Neural Networks ( http://arxiv.org/abs/1912.12463v2 )

ライセンス: Link先を確認
Jeongju Sohn, Sungmin Kang, Shin Yoo(参考訳) ディープニューラルネットワーク(DNN)の急速な普及により、その振る舞いをテストする方法が求められ、多くのテストアプローチがDNNの誤動作をうまく明らかにしている。 しかし、リトレーニングには高価なデータ収集が伴い、根本問題を修正する保証がないため、そのような振る舞いを修正するために何ができるかは比較的不明確である。 本稿では, DNN の新たな修復手法である Arachne を紹介し, 入出力ペアを仕様として, DNN を直接修復する。 arachneは、効果的なパッチを生成できる神経重みを局在化し、差動進化を用いて局所的な重みを最適化し、誤動作を補正する。 異なるベンチマークを用いた実証研究により、Arachneは一般的な精度を著しく低下させることなく、DNNの特定の誤分類を修正できることが示されている。 アラフネが生成したパッチは、平均して61.3%、最先端のDNN修復技術によるパッチは10.2%と、アラフネよりも数十倍の頻度で一般化されている。 また, 性別分類モデルに偏りを生じさせることで, 公平性に対処できることを示す。 最後に、Arachneをテキスト感情モデルに適用し、畳み込みニューラルネットワークを超えて一般化することを示す。

The rapid and widespread adoption of Deep Neural Networks (DNNs) has called for ways to test their behaviour, and many testing approaches have successfully revealed misbehaviour of DNNs. However, it is relatively unclear what one can do to correct such behaviour after revelation, as retraining involves costly data collection and does not guarantee to fix the underlying issue. This paper introduces Arachne, a novel program repair technique for DNNs, which directly repairs DNNs using their input-output pairs as a specification. Arachne localises neural weights on which it can generate effective patches and uses Differential Evolution to optimise the localised weights and correct the misbehaviour. An empirical study using different benchmarks shows that Arachne can fix specific misclassifications of a DNN without reducing general accuracy significantly. On average, patches generated by Arachne generalise to 61.3% of unseen misbehaviour, whereas those by a state-of-the-art DNN repair technique generalise only to 10.2% and sometimes to none while taking tens of times more than Arachne. We also show that Arachne can address fairness issues by debiasing a gender classification model. Finally, we successfully apply Arachne to a text sentiment model to show that it generalises beyond Convolutional Neural Networks.
翻訳日:2023-01-17 13:04:10 公開日:2022-08-16
# 距離メトリック学習のロバスト性認定に向けて

Towards Certified Robustness of Distance Metric Learning ( http://arxiv.org/abs/2006.05945v2 )

ライセンス: Link先を確認
Xiaochen Yang, Yiwen Guo, Mingzhi Dong, Jing-Hao Xue(参考訳) メトリクス学習は、意味的に類似したインスタンスがまとめられ、異種インスタンスが押し出されるような距離メトリックを学習することを目的としている。 多くの既存の手法では、それらの一般化能力を保証するために類似のインスタンスと異なるインスタンスを分離する特徴空間における距離マージンを最大化または少なくとも制限することを検討している。 本稿では,計量学習アルゴリズムの一般化とロバスト性を改善するために,入力空間に逆マージンを課すことを提唱する。 まず、入力空間におけるトレーニングインスタンスと最も近い逆の例の間の距離として定義される逆マージンが、特徴空間における距離マージンと計量と三重項の制約の相関を考慮に入れていることを示す。 次に,インスタンスの摂動に対する堅牢性を高めるために,摂動損失と呼ばれる新規な損失関数を最小化することにより,対向的マージンを拡大することを提案する。 提案する損失はデータ依存正規化子と見なすことができ、既存のメトリック学習メソッドに簡単に接続できる。 最後に,アルゴリズム的ロバスト性の理論手法を用いて,拡張マージンが一般化能力に有益であることを示す。 16のデータセットに対する実験結果から,既存の最先端手法に比べて,ノイズに対する識別精度と頑健性の両方において,提案手法の優位性が示された。

Metric learning aims to learn a distance metric such that semantically similar instances are pulled together while dissimilar instances are pushed away. Many existing methods consider maximizing or at least constraining a distance margin in the feature space that separates similar and dissimilar pairs of instances to guarantee their generalization ability. In this paper, we advocate imposing an adversarial margin in the input space so as to improve the generalization and robustness of metric learning algorithms. We first show that, the adversarial margin, defined as the distance between training instances and their closest adversarial examples in the input space, takes account of both the distance margin in the feature space and the correlation between the metric and triplet constraints. Next, to enhance robustness to instance perturbation, we propose to enlarge the adversarial margin through minimizing a derived novel loss function termed the perturbation loss. The proposed loss can be viewed as a data-dependent regularizer and easily plugged into any existing metric learning methods. Finally, we show that the enlarged margin is beneficial to the generalization ability by using the theoretical technique of algorithmic robustness. Experimental results on 16 datasets demonstrate the superiority of the proposed method over existing state-of-the-art methods in both discrimination accuracy and robustness against possible noise.
翻訳日:2022-11-23 04:49:04 公開日:2022-08-16
# UCB帯域における最適対外攻撃

Near Optimal Adversarial Attack on UCB Bandits ( http://arxiv.org/abs/2008.09312v2 )

ライセンス: Link先を確認
Shiliang Zuo(参考訳) 我々は,報酬が敵対的腐敗を受ける確率的多腕バンディット問題を考える。 本稿では、UCBの原理を巧みに操り、累積コストを$\sqrt{\log T}$とすると、$T$がラウンド数であるような累積コストで、最適でないターゲットアームを$T - o(T)$倍に引く新たな攻撃戦略を提案する。 また、累積攻撃コストに対する最初の下限も証明する。 我々の下限は最大$\log \log t$ 要素の上限に一致し、攻撃が最適に近いことを示している。

We consider a stochastic multi-arm bandit problem where rewards are subject to adversarial corruption. We propose a novel attack strategy that manipulates a UCB principle into pulling some non-optimal target arm $T - o(T)$ times with a cumulative cost that scales as $\sqrt{\log T}$, where $T$ is the number of rounds. We also prove the first lower bound on the cumulative attack cost. Our lower bound matches our upper bound up to $\log \log T$ factors, showing our attack to be near optimal.
翻訳日:2022-10-26 21:00:50 公開日:2022-08-16
# Supervised PCA:多目的アプローチ

Supervised PCA: A Multiobjective Approach ( http://arxiv.org/abs/2011.05309v4 )

ライセンス: Link先を確認
Alexander Ritchie, Laura Balzano, Daniel Kessler, Chandra S. Sripada, Clayton Scott(参考訳) 教師付き主成分分析(SPCA)手法は、ラベル情報を主成分分析(PCA)に組み込むことを目的としており、抽出した特徴が興味のある予測タスクに有用である。 SPCAの以前の研究は、主に予測誤差の最適化に重点を置いており、抽出された特徴によって説明される分散を最大化する価値を無視している。 本研究では,これらの目的を両立させる新しいSPCA法を提案し,提案手法が既存のアプローチ,すなわち予測誤差と変動の両面において優位であることを示す。 本手法は、任意の教師付き学習損失に対応し、統計的再編成を通じて、一般化線形モデルの新しい低ランク拡張を提供する。

Methods for supervised principal component analysis (SPCA) aim to incorporate label information into principal component analysis (PCA), so that the extracted features are more useful for a prediction task of interest. Prior work on SPCA has focused primarily on optimizing prediction error, and has neglected the value of maximizing variance explained by the extracted features. We propose a new method for SPCA that addresses both of these objectives jointly, and demonstrate empirically that our approach dominates existing approaches, i.e., outperforms them with respect to both prediction error and variation explained. Our approach accommodates arbitrary supervised learning losses and, through a statistical reformulation, provides a novel low-rank extension of generalized linear models.
翻訳日:2022-09-27 06:57:21 公開日:2022-08-16
# 明示的なカラーフィルタ空間における逆画像色変換

Adversarial Image Color Transformations in Explicit Color Filter Space ( http://arxiv.org/abs/2011.06690v2 )

ライセンス: Link先を確認
Zhengyu Zhao and Zhuoran Liu and Martha Larson(参考訳) ディープニューラルネットワークは敵画像に弱いことが示されている。 従来の攻撃は、厳格に制限された摂動を伴う不可分な敵対的イメージを狙う。 近年、研究者は区別できるが目立たない敵対的な画像を探究し、色変換攻撃が効果的であることを実証している。 本研究では,単純なカラーフィルタのパラメータ空間における勾配情報に最適化された新しいカラー変換攻撃であるAdvCFを提案する。 特に,我々のカラーフィルタ空間は,攻撃面と防御面の両方の観点から,逆色変換に対するモデルロバストネスの体系的解析を行うことができるよう,明示的に規定されている。 対照的に、既存の色変換攻撃は、そのような明示的な空間がないため、体系的な分析の機会を提供しない。 さらに,ユーザ調査により,成功率と画像受容率の両方において異なる色変換攻撃を広範囲に比較した。 別の3つの視覚的なタスクにおいて、AdvCFに対するモデル堅牢性に関する興味深い新しい洞察を提供する。 また,実用シナリオにおいて有望であるadvcfの人間解釈可能性についても強調し,画像受容性と効率性の両方において,最先端の人間解釈可能な色変換攻撃よりもその優越性を示す。

Deep Neural Networks have been shown to be vulnerable to adversarial images. Conventional attacks strive for indistinguishable adversarial images with strictly restricted perturbations. Recently, researchers have moved to explore distinguishable yet non-suspicious adversarial images and demonstrated that color transformation attacks are effective. In this work, we propose Adversarial Color Filter (AdvCF), a novel color transformation attack that is optimized with gradient information in the parameter space of a simple color filter. In particular, our color filter space is explicitly specified so that we are able to provide a systematic analysis of model robustness against adversarial color transformations, from both the attack and defense perspectives. In contrast, existing color transformation attacks do not offer the opportunity for systematic analysis due to the lack of such an explicit space. We further conduct extensive comparisons between different color transformation attacks on both the success rate and image acceptability, through a user study. Additional results provide interesting new insights into model robustness against AdvCF in another three visual tasks. We also highlight the human-interpretability of AdvCF, which is promising in practical use scenarios, and show its superiority over the state-of-the-art human-interpretable color transformation attack on both the image acceptability and efficiency.
翻訳日:2022-09-26 07:00:14 公開日:2022-08-16
# M2HF:テキスト検索のためのマルチレベルマルチモーダルハイブリッドフュージョン

M2HF: Multi-level Multi-modal Hybrid Fusion for Text-Video Retrieval ( http://arxiv.org/abs/2208.07664v1 )

ライセンス: Link先を確認
Shuo Liu, Weize Quan, Ming Zhou, Sihong Chen, Jian Kang, Zhe Zhao, Chen Chen, Dong-Ming Yan(参考訳) ビデオにはマルチモーダルなコンテンツが含まれており、自然言語クエリとのマルチレベルのクロスモーダルなインタラクションは、テキストビデオ検索タスク(TVR)に大きく貢献する。 しかし,tvrの大規模事前学習モデルクリップに適用する新しいトレンド手法は,ビデオのマルチモーダルな手がかりに注目しない。 さらに、従来の手法では、マルチモーダルな特徴を単純に結合する手法では、ビデオ内の微細なクロスモーダル情報を利用できない。 本稿では,m2hf(multi-level multi-modal hybrid fusion)ネットワークを提案する。 特に、m2hfはクリップによって抽出された視覚機能を利用して、ビデオから抽出された音声とモーション機能と早期融合し、それぞれオーディオと視覚の融合機能とモーションと視覚の融合機能を得る。 この過程ではマルチモーダルアライメントの問題も考慮される。 次に,映像の特徴,音声-視覚融合機能,モーション-視覚融合機能,および動画から抽出したテキストは,多段階的なキャプションクエリとの相互関係を確立する。 最後に、全レベルからの検索出力を遅延して最終テキストビデオ検索結果を得る。 私たちのフレームワークは,アンサンブル方式とエンドツーエンド方式の2種類のトレーニング戦略を提供します。 さらに、効率的なエンドツーエンドトレーニングのための各モダリティの貢献のバランスをとるために、新しいマルチモーダルバランス損失関数を提案する。 M2HFは、MSR-VTT, MSVD, LSMDC, DiDeMo, ActivityNetの各ベンチマークで、それぞれ64.9\%, 68.2\%, 33.2\%, 57.1\%, 57.8\%の最先端結果が得られる。

Videos contain multi-modal content, and exploring multi-level cross-modal interactions with natural language queries can provide great prominence to text-video retrieval task (TVR). However, new trending methods applying large-scale pre-trained model CLIP for TVR do not focus on multi-modal cues in videos. Furthermore, the traditional methods simply concatenating multi-modal features do not exploit fine-grained cross-modal information in videos. In this paper, we propose a multi-level multi-modal hybrid fusion (M2HF) network to explore comprehensive interactions between text queries and each modality content in videos. Specifically, M2HF first utilizes visual features extracted by CLIP to early fuse with audio and motion features extracted from videos, obtaining audio-visual fusion features and motion-visual fusion features respectively. Multi-modal alignment problem is also considered in this process. Then, visual features, audio-visual fusion features, motion-visual fusion features, and texts extracted from videos establish cross-modal relationships with caption queries in a multi-level way. Finally, the retrieval outputs from all levels are late fused to obtain final text-video retrieval results. Our framework provides two kinds of training strategies, including an ensemble manner and an end-to-end manner. Moreover, a novel multi-modal balance loss function is proposed to balance the contributions of each modality for efficient end-to-end training. M2HF allows us to obtain state-of-the-art results on various benchmarks, eg, Rank@1 of 64.9\%, 68.2\%, 33.2\%, 57.1\%, 57.8\% on MSR-VTT, MSVD, LSMDC, DiDeMo, and ActivityNet, respectively.
翻訳日:2022-08-28 22:11:27 公開日:2022-08-16
# 「大丈夫か、ハニー」:マルチモーダル・リアルワールド・スマートウォッチデータを用いた日常糖尿病管理夫婦の感情認識

"Are you okay, honey?": Recognizing Emotions among Couples Managing Diabetes in Daily Life using Multimodal Real-World Smartwatch Data ( http://arxiv.org/abs/2208.08909v1 )

ライセンス: Link先を確認
George Boateng, Prabhakaran Santhanam, Elgar Fleisch, Janina L\"uscher, Theresa Pauly, Urte Scholz, Guy Bodenmann, Tobias Kowatsch(参考訳) カップルは通常、慢性疾患を一緒に管理し、管理職は患者とロマンチックなパートナーの両方に感情的な負担を負う。 結果として、日常生活における各パートナーの感情認識は、慢性疾患管理における彼らの感情的幸福に関する洞察を与えることができる。 現在、各パートナーの感情を評価するプロセスは、手動、時間集約、そしてコストがかかる。 夫婦間の感情認識に関する研究は存在するが、これらの研究は夫婦の日常生活における相互作用から収集されたデータを用いていない。 そこで本研究では,実世界のマルチモーダルスマートウォッチセンサデータ(スパイチ,心拍数,加速度計,ジャイロスコープ)の85時間(1021~5分間のサンプル)と自己報告感情データ(n=612)を,糖尿病2型糖尿病患者26名(カップル13名)から収集した。 我々は,生理的,運動的,音響的,言語的特徴を抽出し,各パートナーの自己報告された感情(原子価と覚醒)を認識するための機械学習モデル(ベクトルマシンとランダムフォレストのサポート)を訓練した。 最良モデルから得られた結果は、それぞれ63.8%と78.1%のバランスの取れたアキュラシーの確率よりも優れていた。 この研究は、パートナーが日々の感情をモニターし、感情の幸福感を改善するための介入の配信を可能にする自動感情認識システムの構築に寄与する。

Couples generally manage chronic diseases together and the management takes an emotional toll on both patients and their romantic partners. Consequently, recognizing the emotions of each partner in daily life could provide an insight into their emotional well-being in chronic disease management. Currently, the process of assessing each partner's emotions is manual, time-intensive, and costly. Despite the existence of works on emotion recognition among couples, none of these works have used data collected from couples' interactions in daily life. In this work, we collected 85 hours (1,021 5-minute samples) of real-world multimodal smartwatch sensor data (speech, heart rate, accelerometer, and gyroscope) and self-reported emotion data (n=612) from 26 partners (13 couples) managing diabetes mellitus type 2 in daily life. We extracted physiological, movement, acoustic, and linguistic features, and trained machine learning models (support vector machine and random forest) to recognize each partner's self-reported emotions (valence and arousal). Our results from the best models were better than chance with balanced accuracies of 63.8% and 78.1% for arousal and valence respectively. This work contributes toward building automated emotion recognition systems that would eventually enable partners to monitor their emotions in daily life and enable the delivery of interventions to improve their emotional well-being.
翻訳日:2022-08-19 13:56:08 公開日:2022-08-16
# クープマン不変部分空間を用いた非線形ダイナミクスのための極配置制御のデータ駆動エンドツーエンド学習

Data-driven End-to-end Learning of Pole Placement Control for Nonlinear Dynamics via Koopman Invariant Subspaces ( http://arxiv.org/abs/2208.08883v1 )

ライセンス: Link先を確認
Tomoharu Iwata, Yoshinobu Kawahara(参考訳) クープマン作用素理論に基づくブラックボックス非線形力学系の周波数と収束率を制御するためのデータ駆動手法を提案する。 提案手法では,制御力学のクープマン作用素の固有値が目標固有値に近いようにポリシーネットワークを訓練する。 ポリシーネットワークは、クープマン不変部分空間を見つけるニューラルネットワークと、クープマン演算子の固有値を調整するポール配置モジュールとから構成される。 政策ネットワークは異なるため、強化学習を用いてエンドツーエンドで学習することができる。 提案手法は,モデルレス強化学習やシステム同定によるモデルベース制御よりも優れた性能を示す。

We propose a data-driven method for controlling the frequency and convergence rate of black-box nonlinear dynamical systems based on the Koopman operator theory. With the proposed method, a policy network is trained such that the eigenvalues of a Koopman operator of controlled dynamics are close to the target eigenvalues. The policy network consists of a neural network to find a Koopman invariant subspace, and a pole placement module to adjust the eigenvalues of the Koopman operator. Since the policy network is differentiable, we can train it in an end-to-end fashion using reinforcement learning. We demonstrate that the proposed method achieves better performance than model-free reinforcement learning and model-based control with system identification.
翻訳日:2022-08-19 13:20:35 公開日:2022-08-16
# 境界表現とマルチエージェント協調環境による生成熱設計

Generative Thermal Design Through Boundary Representation and Multi-Agent Cooperative Environment ( http://arxiv.org/abs/2208.07952v1 )

ライセンス: Link先を確認
Hadi Keramati and Feridun Hamdullahpur(参考訳) ジェネレイティブデザインは、デザインスペースの探索に有効な方法として、デザインコミュニティ全体に成長してきた。 熱設計は、対流拡散方程式と関連する境界相互作用のため、機械設計や空力設計よりも複雑である。 協調型多エージェント深部強化学習と流体・固体領域の連続幾何表現を用いた生成熱設計を提案する。 提案手法は,生成したジオメトリの熱伝達と圧力降下を予測する環境として,事前学習したニューラルネットワークサロゲートモデルから構成する。 設計空間は複合ベジエ曲線によりパラメータ化され、多重フィン形状最適化を解く。 我々は,多目的報酬を用いた設計戦略の方針を,形状の導出や微分可能な目的関数を必要とせずに学習できることを示す。

Generative design has been growing across the design community as a viable method for design space exploration. Thermal design is more complex than mechanical or aerodynamic design because of the additional convection-diffusion equation and its pertinent boundary interaction. We present a generative thermal design using cooperative multi-agent deep reinforcement learning and continuous geometric representation of the fluid and solid domain. The proposed framework consists of a pre-trained neural network surrogate model as an environment to predict heat transfer and pressure drop of the generated geometries. The design space is parameterized by composite Bezier curve to solve multiple fin shape optimization. We show that our multi-agent framework can learn the policy for design strategy using multi-objective reward without the need for shape derivation or differentiable objective function.
翻訳日:2022-08-18 13:39:28 公開日:2022-08-16
# 知識抽出とマルチモデル融合を用いたリソースアウェアフェデレーション学習

Resource-aware Federated Learning using Knowledge Extraction and Multi-model Fusion ( http://arxiv.org/abs/2208.07978v1 )

ライセンス: Link先を確認
Sixing Yu, Wei Qian, Ali Jannesari(参考訳) ユーザデータのプライバシに関する懸念が高まる中、フェデレーション学習(FL)は、機密データにアクセスせずにエッジデバイス上で機械学習モデルをトレーニングするためのユニークなトレーニングパラダイムとして開発された。 従来のFLと既存のメソッドは、同じモデルのすべてのエッジにアグリゲーションメソッドを直接使用し、クラウドサーバのトレーニングデバイスを使用します。 これらの手法はデータのプライバシを保護するが、異質性をモデル化することはできず、異種コンピューティング能力を無視したり、通信コストの急騰を招いたりする。 本稿では,エッジモデルから抽出した局所知識の集合を,各局所モデルの重みを集約するのではなく,資源認識型flを用いて集約し,知識蒸留によってサーバモデルとして強固な地球的知識に蒸留する。 ローカルモデルとグローバル知識は、深層相互学習によって小さなサイズの知識ネットワークに抽出される。 このような知識抽出により、エッジクライアントは、通信効率とモデルの不均一性を維持しながら、リソース認識モデルをデプロイし、マルチモデル知識融合を実行することができる。 実験の結果,ヘテロジニアスデータとモデルにおける通信コストと一般化性能の観点から,既存のflアルゴリズムよりも大幅に改善した。 本稿では,知識ネットワークとしてResNet-20をトレーニングする場合,VGG-11の通信コストを最大102$\times$とResNet-32を最大30$\times$に削減する。

With increasing concern about user data privacy, federated learning (FL) has been developed as a unique training paradigm for training machine learning models on edge devices without access to sensitive data. Traditional FL and existing methods directly employ aggregation methods on all edges of the same models and training devices for a cloud server. Although these methods protect data privacy, they are not capable of model heterogeneity, even ignore the heterogeneous computing power, and incur steep communication costs. In this paper, we purpose a resource-aware FL to aggregate an ensemble of local knowledge extracted from edge models, instead of aggregating the weights of each local model, which is then distilled into a robust global knowledge as the server model through knowledge distillation. The local model and the global knowledge are extracted into a tiny size knowledge network by deep mutual learning. Such knowledge extraction allows the edge client to deploy a resource-aware model and perform multi-model knowledge fusion while maintaining communication efficiency and model heterogeneity. Empirical results show that our approach has significantly improved over existing FL algorithms in terms of communication cost and generalization performance in heterogeneous data and models. Our approach reduces the communication cost of VGG-11 by up to 102$\times$ and ResNet-32 by up to 30$\times$ when training ResNet-20 as the knowledge network.
翻訳日:2022-08-18 13:39:16 公開日:2022-08-16
# Tiny-HR:エッジデバイス上での心拍推定のための解釈可能な機械学習パイプラインを目指して

Tiny-HR: Towards an interpretable machine learning pipeline for heart rate estimation on edge devices ( http://arxiv.org/abs/2208.07981v1 )

ライセンス: Link先を確認
Preetam Anbukarasu, Shailesh Nanisetty, Ganesh Tata and Nilanjan Ray(参考訳) 本論文は,低消費電力エッジデバイスで取得した圧力センサデータから心拍数を抽出する機械学習(ML)パイプラインの概念実証である。 mlパイプラインはアップサンプラーニューラルネットワーク、信号品質分類器、効率良く正確な心拍数推定に最適化された1d畳み込みニューラルネットワークで構成される。 モデルは設計され、パイプラインは40kb未満であった。 さらに、アップサンプラーと分類器からなるハイブリッドパイプラインを開発し、次いでピーク検出アルゴリズムを開発した。 パイプラインはESP32エッジデバイス上に展開され、信号処理に対してベンチマークを行い、エネルギー使用量と推定時間を測定した。 その結果,提案したMLパイプラインとハイブリッドパイプラインは,従来のアルゴリズムに比べて82%と28%のエネルギーと時間を削減できることがわかった。 MLパイプラインの主なトレードオフは、平均絶対誤差(MAE)が3.28であり、ハイブリッドおよび信号処理パイプラインでは2.39と1.17であった。 したがって、MLモデルはエネルギーと計算に制約のあるデバイスへの展開を約束する。 さらに、MLパイプラインのサンプリングレートと計算要求の低さにより、カスタムハードウェアソリューションにより、ウェアラブルデバイスのコストとエネルギー需要を削減できる。

The focus of this paper is a proof of concept, machine learning (ML) pipeline that extracts heart rate from pressure sensor data acquired on low-power edge devices. The ML pipeline consists an upsampler neural network, a signal quality classifier, and a 1D-convolutional neural network optimized for efficient and accurate heart rate estimation. The models were designed so the pipeline was less than 40 kB. Further, a hybrid pipeline consisting of the upsampler and classifier, followed by a peak detection algorithm was developed. The pipelines were deployed on ESP32 edge device and benchmarked against signal processing to determine the energy usage, and inference times. The results indicate that the proposed ML and hybrid pipeline reduces energy and time per inference by 82% and 28% compared to traditional algorithms. The main trade-off for ML pipeline was accuracy, with a mean absolute error (MAE) of 3.28, compared to 2.39 and 1.17 for the hybrid and signal processing pipelines. The ML models thus show promise for deployment in energy and computationally constrained devices. Further, the lower sampling rate and computational requirements for the ML pipeline could enable custom hardware solutions to reduce the cost and energy needs of wearable devices.
翻訳日:2022-08-18 13:38:54 公開日:2022-08-16
# 材料合成とハードウェアセキュリティのための量子機械学習

Quantum Machine Learning for Material Synthesis and Hardware Security ( http://arxiv.org/abs/2208.08273v1 )

ライセンス: Link先を確認
Collin Beaudoin, Satwik Kundu, Rasit Onur Topaloglu and Swaroop Ghosh(参考訳) 本稿では, 量子コンピューティングを用いて, 半導体サプライチェーンの創薬・物質探索とセキュリティにおいて重要なステップである化学再合成という, 科学的に迫力と日々の課題を2つ解決する。 本稿では,量子長短期記憶(QLSTM)がレトロシンセシスの有効なツールであることを示す。 QLSTMではトレーニング精度が65%,従来のLSTMでは100%であった。 しかし、テストでは、従来のLSTMが70%の精度でピーク時に、QLSTMで80%の精度を達成する。 また,ハードウェアセキュリティ領域における量子ニューラルネットワーク(QNN)の適用,特にパワーセットと領域トロイジャン特徴を用いたハードウェアトロイジャン(HT)検出について実演する。 QNNモデルは97.27%の精度で検出できる。

Using quantum computing, this paper addresses two scientifically pressing and day-to-day relevant problems, namely, chemical retrosynthesis which is an important step in drug/material discovery and security of the semiconductor supply chain. We show that Quantum Long Short-Term Memory (QLSTM) is a viable tool for retrosynthesis. We achieve 65% training accuracy with QLSTM, whereas classical LSTM can achieve 100%. However, in testing, we achieve 80% accuracy with the QLSTM while classical LSTM peaks at only 70% accuracy! We also demonstrate an application of Quantum Neural Network (QNN) in the hardware security domain, specifically in Hardware Trojan (HT) detection using a set of power and area Trojan features. The QNN model achieves detection accuracy as high as 97.27%.
翻訳日:2022-08-18 13:33:50 公開日:2022-08-16
# SMPL-IK:AI駆動型アートワークフローのための形態認識逆キネマティクス

SMPL-IK: Learned Morphology-Aware Inverse Kinematics for AI Driven Artistic Workflows ( http://arxiv.org/abs/2208.08274v1 )

ライセンス: Link先を確認
Vikram Voleti, Boris N. Oreshkin, Florent Bocquelet, F\'elix G. Harvey, Louis-Simon M\'enard, Christopher Pal(参考訳) 逆運動学(Inverse Kinematics, IK)システムはしばしば入力文字に対して剛性があり、新しい骨格に適応するためにユーザーの介入を必要とする。 本稿では,多種多様な形態学に適用可能な柔軟で学習可能なikソルバを作成することを目的としている。 我々は、Skinned Multi-Person Linear Model (SMPL) を用いて、最先端の機械学習 IKソルバを拡張した。 我々のモデルをSMPL-IKと呼び、リアルタイム3Dソフトウェアに統合すると、この拡張システムは、新しいAI支援アニメーションワークフローを定義する機会を開く。 例えば、ポーズのオーサリングはSMPL-IKでより柔軟にでき、ユーザーはキャラクターをポーズしながら性別や体型を変更できる。 さらに、既存のポーズ推定アルゴリズムと連鎖すると、2d画像から3dシーンをブートストラップし、さらに編集することができる。 最後に,任意のヒューマノイド文字をSMPL空間にマッピングするSMPL形状変換機構(SMPL-SI)を提案する。 提案するツールの質的デモに加えて,h36mとamassデータセットのsmpl-ikベースラインを定量的に示す。

Inverse Kinematics (IK) systems are often rigid with respect to their input character, thus requiring user intervention to be adapted to new skeletons. In this paper we aim at creating a flexible, learned IK solver applicable to a wide variety of human morphologies. We extend a state-of-the-art machine learning IK solver to operate on the well known Skinned Multi-Person Linear model (SMPL). We call our model SMPL-IK, and show that when integrated into real-time 3D software, this extended system opens up opportunities for defining novel AI-assisted animation workflows. For example, pose authoring can be made more flexible with SMPL-IK by allowing users to modify gender and body shape while posing a character. Additionally, when chained with existing pose estimation algorithms, SMPL-IK accelerates posing by allowing users to bootstrap 3D scenes from 2D images while allowing for further editing. Finally, we propose a novel SMPL Shape Inversion mechanism (SMPL-SI) to map arbitrary humanoid characters to the SMPL space, allowing artists to leverage SMPL-IK on custom characters. In addition to qualitative demos showing proposed tools, we present quantitative SMPL-IK baselines on the H36M and AMASS datasets.
翻訳日:2022-08-18 13:33:37 公開日:2022-08-16
# 二次ニューラルネットワークとpml条件を有するpinnによる非スムース媒質中の波動シミュレーション

Wave simulation in non-smooth media by PINN with quadratic neural network and PML condition ( http://arxiv.org/abs/2208.08276v1 )

ライセンス: Link先を確認
Yanqi Wu, Hossein S. Aghamiry, Stephane Operto, Jianwei Ma(参考訳) 地震波の周波数領域シミュレーションは, 地震インバージョンにおいて重要な役割を担っているが, 大規模モデルでは依然として困難である。 最近提案された物理インフォームドニューラルネットワーク(PINN)は、効果的なディープラーニング手法であり、幅広い偏微分方程式(PDE)の解法に成功しており、この分野ではまだ改善の余地がある。 例えば、PINNはPDE係数が非滑らかなときに不正確な解を導き、構造的に複雑な媒体を記述する。 本稿では,波動方程式の代わりにPINNを用いて周波数領域における音響および粘性音響散乱波動方程式を解く。 まず, 損失関数に境界条件が実装されない場合, 非スムース速度モデルが不正確な波動場をもたらすことを示す。 次に、PINNの損失関数に完全整合層(PML)条件を加え、PINNにおける非滑らかモデルによる有害な効果を克服する二次ニューラルネットワークを設計する。 PMLと2次ニューロンは、その効果と減衰を改善できることを示し、この改善の理由を議論する。 また, ウェーブフィールドシミュレーション中にトレーニングされたネットワークを用いて, pde-co efficient変質後の別のウェーブフィールドシミュレーションのニューラルネットワークを事前学習し, 収束速度を向上させることを実証する。 この事前学習戦略は、2回の連続または2回の連続実験の間のモデル摂動が小さくなると、反復完全波形インバージョン(FWI)と時間ラグ目標画像に応用できる。

Frequency-domain simulation of seismic waves plays an important role in seismic inversion, but it remains challenging in large models. The recently proposed physics-informed neural network (PINN), as an effective deep learning method, has achieved successful applications in solving a wide range of partial differential equations (PDEs), and there is still room for improvement on this front. For example, PINN can lead to inaccurate solutions when PDE coefficients are non-smooth and describe structurally-complex media. In this paper, we solve the acoustic and visco-acoustic scattered-field wave equation in the frequency domain with PINN instead of the wave equation to remove source singularity. We first illustrate that non-smooth velocity models lead to inaccurate wavefields when no boundary conditions are implemented in the loss function. Then, we add the perfectly matched layer (PML) conditions in the loss function of PINN and design a quadratic neural network to overcome the detrimental effects of non-smooth models in PINN. We show that PML and quadratic neurons improve the results as well as attenuation and discuss the reason for this improvement. We also illustrate that a network trained during a wavefield simulation can be used to pre-train the neural network of another wavefield simulation after PDE-coefficient alteration and improve the convergence speed accordingly. This pre-training strategy should find application in iterative full waveform inversion (FWI) and time-lag target-oriented imaging when the model perturbation between two consecutive iterations or two consecutive experiments can be small.
翻訳日:2022-08-18 13:33:13 公開日:2022-08-16
# Error Parity Fairness: 回帰作業におけるグループフェアネスのテスト

Error Parity Fairness: Testing for Group Fairness in Regression Tasks ( http://arxiv.org/abs/2208.08279v1 )

ライセンス: Link先を確認
Furkan Gursoy, Ioannis A. Kakadiaris(参考訳) 人工知能(AI)の応用は、人間の生活の多くの側面における決定を取り巻く。 社会は、このような自動意思決定システム(ADS)の責任について法的および社会的期待を課すことで対応している。 aiアカウンタビリティの基本的な構成要素であるフェアネスは、個人やセンシティブなグループ(例えば、性別や人種に基づく)の扱いにのみ関係している。 多くの研究は分類タスクの公正な学習と公平性テストに焦点を当てているが、この文献は回帰タスクの公平性を調べる方法にかなり限定されている。 本研究は,回帰的公平性の概念としてエラーパリティを示し,統計的仮説検定手法に基づく集団公平性を評価するためのテスト手法を提案する。 エラーパリティテストは、予測エラーがセンシティブなグループ間でも同様に分散されているかどうかをチェックし、ADSが公平かどうかを判断する。 続いて、いくつかの統計上の群を比較して不一致を探索し、影響のある群を識別する適切な置換試験が行われる。 提案手法の有用性と適用性は郡レベルでのcovid-19予測をケーススタディとして実証し,予測誤差の人種差を明らかにした。 全体として、提案された回帰公正性テスト手法は、公正な機械学習文献のギャップを埋め、より大きなアカウンタビリティ評価とアルゴリズム監査の一部として機能する可能性がある。

The applications of Artificial Intelligence (AI) surround decisions on increasingly many aspects of human lives. Society responds by imposing legal and social expectations for the accountability of such automated decision systems (ADSs). Fairness, a fundamental constituent of AI accountability, is concerned with just treatment of individuals and sensitive groups (e.g., based on sex, race). While many studies focus on fair learning and fairness testing for the classification tasks, the literature is rather limited on how to examine fairness in regression tasks. This work presents error parity as a regression fairness notion and introduces a testing methodology to assess group fairness based on a statistical hypothesis testing procedure. The error parity test checks whether prediction errors are distributed similarly across sensitive groups to determine if an ADS is fair. It is followed by a suitable permutation test to compare groups on several statistics to explore disparities and identify impacted groups. The usefulness and applicability of the proposed methodology are demonstrated via a case study on COVID-19 projections in the US at the county level, which revealed race-based differences in forecast errors. Overall, the proposed regression fairness testing methodology fills a gap in the fair machine learning literature and may serve as a part of larger accountability assessments and algorithm audits.
翻訳日:2022-08-18 13:32:45 公開日:2022-08-16
# 分散データにおける協調因果推論

Collaborative causal inference on distributed data ( http://arxiv.org/abs/2208.07898v1 )

ライセンス: Link先を確認
Yuji Kawamata, Ryoki Motai, Yukihiko Okada, Akira Imakura, Tetsuya Sakurai(参考訳) 近年,分散データのプライバシ保護に伴う因果推論技術の発展が注目されている。 この問題に対処するために、分散データからの因果推論とプライバシ保護を可能にするデータコラボレーション(DC-QE)に基づく準実験を提案する。 本手法は,個別に構築される次元に縮小された中間表現のみを共有することで,プライベートデータのプライバシを保護する。 さらに,本手法はランダム誤差とバイアスの両方を低減できるが,既存の手法では処理効果の推定においてランダム誤差を低減できる。 人工および実世界のデータを用いた数値実験により,本手法が個々の解析値よりも優れた推定結果をもたらすことを確認した。 提案手法の普及により,中間表現をオープンデータとして公開することで,研究者が因果関係を見つけ,知識ベースとして蓄積することができる。

The development of technologies for causal inference with the privacy preservation of distributed data has attracted considerable attention in recent years. To address this issue, we propose a quasi-experiment based on data collaboration (DC-QE) that enables causal inference from distributed data with privacy preservation. Our method preserves the privacy of private data by sharing only dimensionality-reduced intermediate representations, which are individually constructed by each party. Moreover, our method can reduce both random errors and biases, whereas existing methods can only reduce random errors in the estimation of treatment effects. Through numerical experiments on both artificial and real-world data, we confirmed that our method can lead to better estimation results than individual analyses. With the spread of our method, intermediate representations can be published as open data to help researchers find causalities and accumulated as a knowledge base.
翻訳日:2022-08-18 13:28:11 公開日:2022-08-16
# 元anteによるデータセットの識別評価

Ex-Ante Assessment of Discrimination in Dataset ( http://arxiv.org/abs/2208.07918v1 )

ライセンス: Link先を確認
Jonathan Vasquez, Xavier Gitiaux and Huzefa Rangwala(参考訳) データ所有者は、自分たちのデータの使用が過小評価されているコミュニティにどのように害を与えるかという責任を負う。 株主は、例えば人種、性別、年齢、宗教などによって定義された特定の人口集団に対してアルゴリズムに偏りを生じるデータの特徴を特定したいと考えています。 具体的には,特徴から観察結果への基底的真理応答関数が集団間で異なる特徴空間のサブセットを特定することに興味がある。 この目的のために, 個人の反応が感性特性によってどの程度の確率で変化するかを示すスコアを生成する, FORESEE, FORESt of decision trEEsアルゴリズムを提案する。 経験的に、我々のアプローチはランダムフォレスト、ロジスティック回帰、サポートベクトルマシン、k-Nearest Neighborsなど、いくつかの分類で誤分類される可能性のある個人を特定することができる。 このアプローチの利点は、利害関係者が差別に寄与する可能性のあるリスクのあるサンプルを特徴づけるだけでなく、FOESEEを使って今後のサンプルのリスクを見積もることができることです。

Data owners face increasing liability for how the use of their data could harm under-priviliged communities. Stakeholders would like to identify the characteristics of data that lead to algorithms being biased against any particular demographic groups, for example, defined by their race, gender, age, and/or religion. Specifically, we are interested in identifying subsets of the feature space where the ground truth response function from features to observed outcomes differs across demographic groups. To this end, we propose FORESEE, a FORESt of decision trEEs algorithm, which generates a score that captures how likely an individual's response varies with sensitive attributes. Empirically, we find that our approach allows us to identify the individuals who are most likely to be misclassified by several classifiers, including Random Forest, Logistic Regression, Support Vector Machine, and k-Nearest Neighbors. The advantage of our approach is that it allows stakeholders to characterize risky samples that may contribute to discrimination, as well as, use the FORESEE to estimate the risk of upcoming samples.
翻訳日:2022-08-18 13:27:58 公開日:2022-08-16
# FedPerm:パラメータ置換によるプライベートおよびロバストなフェデレーション学習

FedPerm: Private and Robust Federated Learning by Parameter Permutation ( http://arxiv.org/abs/2208.07922v1 )

ライセンス: Link先を確認
Hamid Mozaffari, Virendra J. Marathe, Dave Dice(参考訳) Federated Learning(FL)は、相互に信頼できないクライアントが共通の機械学習モデルを共同でトレーニングできるようにする分散学習パラダイムである。 flでは、クライアントデータプライバシが最優先事項である。 同時に、モデルは敵の顧客からの毒殺攻撃から保護されなければならない。 既存のソリューションはこれら2つの問題を分離して解決する。 我々は、データプライバシを増幅する新しいモデル内パラメータシャッフル技術と、クライアントのモデル更新の暗号化集約を可能にするPrivate Information Retrieval(PIR)ベースの技術を組み合わせて、これらの問題に対処する新しいFLアルゴリズムであるFedPermを提案する。 これらの手法を組み合わせることで、フェデレーションサーバのパラメータパラメータをクライアントから更新し、敵のクライアントによるモデル中毒攻撃の影響を緩和する。 さらに、FedPermのユニークなハイパーパラメータを示し、モデルユーティリティと計算オーバーヘッドをトレードオフするために効果的に使用できる。 MNISTデータセットに対する実証的な評価は、FLにおける既存の差分プライバシー(DP)適用ソリューションに対するFedPermの有効性を示す。

Federated Learning (FL) is a distributed learning paradigm that enables mutually untrusting clients to collaboratively train a common machine learning model. Client data privacy is paramount in FL. At the same time, the model must be protected from poisoning attacks from adversarial clients. Existing solutions address these two problems in isolation. We present FedPerm, a new FL algorithm that addresses both these problems by combining a novel intra-model parameter shuffling technique that amplifies data privacy, with Private Information Retrieval (PIR) based techniques that permit cryptographic aggregation of clients' model updates. The combination of these techniques further helps the federation server constrain parameter updates from clients so as to curtail effects of model poisoning attacks by adversarial clients. We further present FedPerm's unique hyperparameters that can be used effectively to trade off computation overheads with model utility. Our empirical evaluation on the MNIST dataset demonstrates FedPerm's effectiveness over existing Differential Privacy (DP) enforcement solutions in FL.
翻訳日:2022-08-18 13:27:39 公開日:2022-08-16
# 量子特徴選択によるフラッド検出のための混合量子古典法

Mixed Quantum-Classical Method For Fraud Detection with Quantum Feature Selection ( http://arxiv.org/abs/2208.07963v1 )

ライセンス: Link先を確認
Michele Grossi, Noelle Ibrahim, Voica Radescu, Robert Loredo, Kirsten Voigt, Constantin Von Altrock, and Andreas Rudnik(参考訳) 本稿では、Qiskitソフトウェアスタックを介してIBM Safer PaymentsとIBM Quantum Computersを用いて、金融決済業界における分類問題に対するQuantum Support Vector Machine (QSVM)アルゴリズムの最初のエンドツーエンドアプリケーションを提案する。 実カード決済データに基づいて,現在の最先端量子機械学習アルゴリズムがもたらした古典的アプローチに対する補完的影響を評価するために,徹底的な比較を行う。 量子サポートベクトルマシンの特徴マップ特性を用いて,最良特徴を探索する新しい手法について検討した。 結果は、人間の専門知識(ルール決定)に基づく分析から抽出された正確性、リコール、偽陽性率、古典的な機械学習アルゴリズム(Random Forest、XGBoost)、QSVMを用いた量子ベースの機械学習アルゴリズムなど、不正な特定のパフォーマンス指標を用いて比較される。 さらに,古典量子アルゴリズムと量子アルゴリズムを組み合わせて不正防止判断を改善するアンサンブルモデルを用いて,古典量子と量子のハイブリッドアプローチを考察した。 予想通り、結果は特徴の選択とそれらの選択に使用されるアルゴリズムに大きく依存していることがわかった。 QSVMは、機能空間を補完的に探索し、量子ハードウェアの現在の状態に適合するように大幅に削減されたデータセット上で、不正検出のための混合量子古典的手法の精度を向上させた。

This paper presents a first end-to-end application of a Quantum Support Vector Machine (QSVM) algorithm for a classification problem in the financial payment industry using the IBM Safer Payments and IBM Quantum Computers via the Qiskit software stack. Based on real card payment data, a thorough comparison is performed to assess the complementary impact brought in by the current state-of-the-art Quantum Machine Learning algorithms with respect to the Classical Approach. A new method to search for best features is explored using the Quantum Support Vector Machine's feature map characteristics. The results are compared using fraud specific key performance indicators: Accuracy, Recall, and False Positive Rate, extracted from analyses based on human expertise (rule decisions), classical machine learning algorithms (Random Forest, XGBoost) and quantum based machine learning algorithms using QSVM. In addition, a hybrid classical-quantum approach is explored by using an ensemble model that combines classical and quantum algorithms to better improve the fraud prevention decision. We found, as expected, that the results highly depend on feature selections and algorithms that are used to select them. The QSVM provides a complementary exploration of the feature space which led to an improved accuracy of the mixed quantum-classical method for fraud detection, on a drastically reduced data set to fit current state of Quantum Hardware.
翻訳日:2022-08-18 13:27:21 公開日:2022-08-16
# 学習用物体認識装置で学習画像にアクセスするブラインドユーザ

Blind Users Accessing Their Training Images in Teachable Object Recognizers ( http://arxiv.org/abs/2208.07968v1 )

ライセンス: Link先を確認
Jonggi Hong, Jaina Gandhi, Ernest Essuah Mensah, Ebrima H Jarjue, Kyungjun Lee, Hernisa Kacorri(参考訳) 機械学習モデルのトレーニングと評価の反復は、そのパフォーマンスを改善するための重要なプロセスである。 しかし,授業可能なインタフェースにより,視覚障害者が独自の環境下で撮影した写真でオブジェクト認識器を訓練・テストできる一方で,訓練の繰り返しや評価手順のアクセシビリティはほとんど注目されていない。 イテレーションでは、ブラインドユーザにとってアクセス不能なトレーニング写真の視覚検査が想定される。 この課題を、ユーザトレーニングセット内の写真への非視覚的アクセスのために、自動的に推定された記述子を組み込んだモバイルアプリであるMyCamを通じて調査する。 視覚障害者(N=12)がMyCamやディスクリプタとどのように相互作用するかを,自宅での評価研究を通じて検討した。 実時間写真レベルの記述子によって、目隠しされたオブジェクトによる写真の削減が可能となり、参加者はトレーニングセットの質を反復してアクセスすることで、より多くのバリエーションを追加できることを示した。 また、参加者は、効果的にトレーニングでき、ディスクリプタが役に立つことを示すために、このアプリが簡単に使えることを発見した。 しかし、トレーニングや乱雑な背景のばらつきがほとんどないこともあり、主観的反応はモデルの性能に反映されなかった。

Iteration of training and evaluating a machine learning model is an important process to improve its performance. However, while teachable interfaces enable blind users to train and test an object recognizer with photos taken in their distinctive environment, accessibility of training iteration and evaluation steps has received little attention. Iteration assumes visual inspection of the training photos, which is inaccessible for blind users. We explore this challenge through MyCam, a mobile app that incorporates automatically estimated descriptors for non-visual access to the photos in the users' training sets. We explore how blind participants (N=12) interact with MyCam and the descriptors through an evaluation study in their homes. We demonstrate that the real-time photo-level descriptors enabled blind users to reduce photos with cropped objects, and that participants could add more variations by iterating through and accessing the quality of their training sets. Also, Participants found the app simple to use indicating that they could effectively train it and that the descriptors were useful. However, subjective responses were not reflected in the performance of their models, partially due to little variation in training and cluttered backgrounds.
翻訳日:2022-08-18 13:15:08 公開日:2022-08-16
# FOLD-SE: スケーラブルな説明可能なAI

FOLD-SE: Scalable Explainable AI ( http://arxiv.org/abs/2208.07912v1 )

ライセンス: Link先を確認
Huaduo Wang and Gopal Gupta(参考訳) fold-r++は、バイナリ分類タスクのための高効率で説明可能なルールベースの機械学習アルゴリズムである。 階層化された正規論理プログラムを(説明可能な)訓練されたモデルとして生成する。 本稿では,FOLD-R++の利点をすべて継承しつつ,スケーラブルな説明可能性(SE)を提供するFOLD-R++アルゴリズムの改良について述べる。 スケーラブルな説明可能性とは、データセットのサイズに関わらず、学習されたルールと学習されたリテラルの数は小さく、したがって人間が理解できると同時に、分類のパフォーマンスも良好であることを意味する。 FOLD-SEは、XGBoostやMulti-Layer Perceptrons (MLP)のような最先端のアルゴリズムと競合する。 しかし、XGBoostやMLPとは異なり、FOLD-SEアルゴリズムはスケーラブルな説明性を持つモデルを生成する。 FOLD-SEアルゴリズムはFOLD-R++およびRIPPERアルゴリズムよりも効率、性能、説明可能性、特に大規模データセットにおいて優れている。 FOLD-RMアルゴリズムは、多クラス分類タスクのためのFOLD-R++の拡張である。 また,FOLD-SEに基づく改良されたFOLD-RMアルゴリズムについても述べる。

FOLD-R++ is a highly efficient and explainable rule-based machine learning algorithm for binary classification tasks. It generates a stratified normal logic program as an (explainable) trained model. We present an improvement over the FOLD-R++ algorithm, termed FOLD-SE, that provides scalable explainability (SE) while inheriting all the merits of FOLD-R++. Scalable explainability means that regardless of the size of the dataset, the number of learned rules and learned literals stay small and, hence, understandable by human beings, while maintaining good performance in classification. FOLD-SE is competitive in performance with state-of-the-art algorithms such as XGBoost and Multi-Layer Perceptrons (MLP). However, unlike XGBoost and MLP, the FOLD-SE algorithm generates a model with scalable explainability. The FOLD-SE algorithm outperforms FOLD-R++ and RIPPER algorithms in efficiency, performance, and explainability, especially for large datasets. The FOLD-RM algorithm is an extension of FOLD-R++ for multi-class classification tasks. An improved FOLD-RM algorithm built upon FOLD-SE is also presented.
翻訳日:2022-08-18 13:10:33 公開日:2022-08-16
# リーマン拡散モデル

Riemannian Diffusion Models ( http://arxiv.org/abs/2208.07949v1 )

ライセンス: Link先を確認
Chin-Wei Huang, Milad Aghajohari, Avishek Joey Bose, Prakash Panangaden, Aaron Courville(参考訳) 拡散モデルは画像生成と推定のための最近の最先端手法である。 本研究では,任意のリーマン多様体に対する連続時間拡散モデルを一般化し,確率推定のための変分フレームワークを導出する。 本稿では,確率推定に必要となるリーマン偏差を計算するための新しい手法を提案する。 さらに、ユークリッドケースの一般化において、この変分下界の最大化はリーマンスコアマッチングと同値であることを示す。 経験的に、球面、トーラス、双曲型群、直交群といった滑らかな多様体の広いスペクトル上のリーマン拡散モデルの表現力を示す。 提案手法は,全てのベンチマークにおいて新しい最先端の可能性を実現する。

Diffusion models are recent state-of-the-art methods for image generation and likelihood estimation. In this work, we generalize continuous-time diffusion models to arbitrary Riemannian manifolds and derive a variational framework for likelihood estimation. Computationally, we propose new methods for computing the Riemannian divergence which is needed in the likelihood estimation. Moreover, in generalizing the Euclidean case, we prove that maximizing this variational lower-bound is equivalent to Riemannian score matching. Empirically, we demonstrate the expressive power of Riemannian diffusion models on a wide spectrum of smooth manifolds, such as spheres, tori, hyperboloids, and orthogonal groups. Our proposed method achieves new state-of-the-art likelihoods on all benchmarks.
翻訳日:2022-08-18 13:10:17 公開日:2022-08-16
# 人間とAIの相補性の向上: ユーザエキスパートとアルゴリズムチューニングが共同意思決定に及ぼす影響

Advancing Human-AI Complementarity: The Impact of User Expertise and Algorithmic Tuning on Joint Decision Making ( http://arxiv.org/abs/2208.07960v1 )

ライセンス: Link先を確認
Kori Inkpen, Shreya Chappidi, Keri Mallari, Besmira Nushi, Divya Ramesh, Pietro Michelucci, Vani Mandava, Libu\v{s}e Hannah Vep\v{r}ek, Gabrielle Quinn(参考訳) 意思決定のための人間とAIのコラボレーションは、人間またはAI単独のパフォーマンスを超えるチームのパフォーマンスを達成するために努力する。 しかしながら、ユーザのドメイン知識、AIシステムのメンタルモデル、レコメンデーションへの信頼など、多くの要因がヒューマンAIチームの成功に影響を与える可能性がある。 本研究は, 3つのシミュレーションアルゴリズムモデルとのインタラクションを, ほぼ同様の精度で検討する。 本研究は,非自明な血管ラベル作成作業において,血管が流れているか停止しているかを被験者に示す。 以上の結果から,AI-Assistantからの推薦はユーザの意思決定に役立つが,AIに対するユーザベースラインのパフォーマンスや,AIエラー型の相補的チューニングといった要因は,チーム全体のパフォーマンスに大きな影響を及ぼすことが示された。 初心者は改善したが、AIの精度レベルには達しなかった。 高度に熟練したユーザは、AIレコメンデーションにいつ従えばよいのか、一般的にパフォーマンスを維持または改善できる。 AIと同等レベルの精度を持つ中間パフォーマンス者は、AIレコメンデーションがパフォーマンスを損なうかどうかという点で最も多様であった。 さらに,AIレコメンデーションを与えられた場合,AIのパフォーマンスに対するユーザの認識も,AIレコメンデーションによって精度が向上したかどうかに大きな影響を与えることがわかった。 この研究は、人間とAIのコラボレーションに関連する要因の複雑さに関する洞察を提供し、意思決定タスクでユーザを補完する人間中心のAIアルゴリズムの開発方法に関する推奨を提供する。

Human-AI collaboration for decision-making strives to achieve team performance that exceeds the performance of humans or AI alone. However, many factors can impact success of Human-AI teams, including a user's domain expertise, mental models of an AI system, trust in recommendations, and more. This work examines users' interaction with three simulated algorithmic models, all with similar accuracy but different tuning on their true positive and true negative rates. Our study examined user performance in a non-trivial blood vessel labeling task where participants indicated whether a given blood vessel was flowing or stalled. Our results show that while recommendations from an AI-Assistant can aid user decision making, factors such as users' baseline performance relative to the AI and complementary tuning of AI error types significantly impact overall team performance. Novice users improved, but not to the accuracy level of the AI. Highly proficient users were generally able to discern when they should follow the AI recommendation and typically maintained or improved their performance. Mid-performers, who had a similar level of accuracy to the AI, were most variable in terms of whether the AI recommendations helped or hurt their performance. In addition, we found that users' perception of the AI's performance relative on their own also had a significant impact on whether their accuracy improved when given AI recommendations. This work provides insights on the complexity of factors related to Human-AI collaboration and provides recommendations on how to develop human-centered AI algorithms to complement users in decision-making tasks.
翻訳日:2022-08-18 13:08:06 公開日:2022-08-16
# 全方位画像からのカジュアル室内HDR撮影

Casual Indoor HDR Radiance Capture from Omnidirectional Images ( http://arxiv.org/abs/2208.07903v1 )

ライセンス: Link先を確認
Pulkit Gera, Mohammad Reza Karimi Dastjerdi, Charles Renaud, P. J. Narayanan, Jean-Fran\c{c}ois Lalonde(参考訳) パノHDR-NeRF(パノHDR-NeRF)は,大規模な屋内シーンの可塑性フルHDR放射場を,精巧なセットアップや複雑な捕捉プロトコルなしでカジュアルに捕捉するパイプラインである。 まず、ユーザは、現場のオフセットカメラを自由に振って、シーンの低ダイナミックレンジ(ldr)全方位ビデオをキャプチャする。 そして、LDR2HDRネットワークは、取得したLDRフレームをHDRに引き上げ、その後、調整されたNeRF++モデルをトレーニングする。 パノHDR-NeRFパイプラインは、シーンの任意の場所から完全なHDRパノラマを推定することができる。 パノHDR-NeRFは、訓練中に見えない場所で捉えた地上の真実のHDR放射率を持つ様々な実シーンの新たな実験データセットを用いて、任意のシーンから可視放射率を予測する。 また,パノHDR-NeRFが生成したHDR画像は,室内のシーンに正確な照明を施すことなく,適切な照明効果を合成できることも示した。

We present PanoHDR-NeRF, a novel pipeline to casually capture a plausible full HDR radiance field of a large indoor scene without elaborate setups or complex capture protocols. First, a user captures a low dynamic range (LDR) omnidirectional video of the scene by freely waving an off-the-shelf camera around the scene. Then, an LDR2HDR network uplifts the captured LDR frames to HDR, subsequently used to train a tailored NeRF++ model. The resulting PanoHDR-NeRF pipeline can estimate full HDR panoramas from any location of the scene. Through experiments on a novel test dataset of a variety of real scenes with the ground truth HDR radiance captured at locations not seen during training, we show that PanoHDR-NeRF predicts plausible radiance from any scene point. We also show that the HDR images produced by PanoHDR-NeRF can synthesize correct lighting effects, enabling the augmentation of indoor scenes with synthetic objects that are lit correctly.
翻訳日:2022-08-18 12:51:53 公開日:2022-08-16
# ViT-ReT:ビデオにおける人間の活動認識のためのビジョンとリカレントトランスフォーマーニューラルネットワーク

ViT-ReT: Vision and Recurrent Transformer Neural Networks for Human Activity Recognition in Videos ( http://arxiv.org/abs/2208.07929v1 )

ライセンス: Link先を確認
James Wensel, Hayat Ullah, Arslan Munir, Erik Blasch(参考訳) 人間の活動認識は、個人または個人の集団が実行している活動を決定するためにコンピュータビジョンにおいて、新しく重要な領域である。 この分野の応用は、スポーツにおけるハイライトビデオの生成から、インテリジェントな監視やジェスチャー認識まで幅広い。 ほとんどのアクティビティ認識システムは、データから特徴抽出を行うために畳み込みニューラルネットワーク(CNN)と、データの時間依存性の性質を決定するためにリカレントニューラルネットワーク(RNN)の組み合わせに依存している。 本稿では,人間活動認識のための2つのトランスフォーマリンネットワークを提案する。recurrent transformer (ret) は,データシーケンスの予測を行うために使用される専用ニューラルネットワークであり,また視覚トランスフォーマ (vit) は画像から突出した特徴を抽出するのに最適化され,動作認識の速度と拡張性を向上させる。 我々は,提案するトランスフォーマーニューラルネットワークと,現在のCNNおよびRNNに基づく人間活動認識モデルとの比較を,速度と精度の観点から行った。

Human activity recognition is an emerging and important area in computer vision which seeks to determine the activity an individual or group of individuals are performing. The applications of this field ranges from generating highlight videos in sports, to intelligent surveillance and gesture recognition. Most activity recognition systems rely on a combination of convolutional neural networks (CNNs) to perform feature extraction from the data and recurrent neural networks (RNNs) to determine the time dependent nature of the data. This paper proposes and designs two transformer neural networks for human activity recognition: a recurrent transformer (ReT), a specialized neural network used to make predictions on sequences of data, as well as a vision transformer (ViT), a transformer optimized for extracting salient features from images, to improve speed and scalability of activity recognition. We have provided an extensive comparison of the proposed transformer neural networks with the contemporary CNN and RNN-based human activity recognition models in terms of speed and accuracy.
翻訳日:2022-08-18 12:51:36 公開日:2022-08-16
# TRoVE:道路シーンのデータセットをリアルな仮想環境に変換する

TRoVE: Transforming Road Scene Datasets into Photorealistic Virtual Environments ( http://arxiv.org/abs/2208.07943v1 )

ライセンス: Link先を確認
Shubham Dokania, Anbumani Subramanian, Manmohan Chandraker, C. V. Jawahar(参考訳) リッチアノテーションによる高品質な構造化データは、道路シーンを扱うインテリジェントな車両システムにおいて重要な要素である。 しかし、データキュレーションとアノテーションは集中的な投資を必要とし、低多様性のシナリオを生み出す。 近年、合成データへの関心が高まっており、このようなシステムの改善の範囲と、シミュレーションデータの大量生産に必要な手作業の量に関する疑問が持ち上がっている。 シミュレーションデータセットに存在する困難とドメインギャップに対処するために、nuScenesのような既存のデータセットを利用する合成データ生成パイプラインを提案する。 既存のデータセットからアノテーションや視覚的手がかりを用いることで,高忠実度で実シーン特性を模倣し,物理的に意味のある方法でサンプルを多様化する機構を具体化することで,自動マルチモーダルデータ生成を促進できることを示す。 都市景観とキティステップデータセットにおける意味セグメンテーションのための実データと合成データを用いた質的および定量的実験を行い,miouメトリクスの改善を示す。 すべての関連コードとデータはgithub(https://github.com/shubham1810/trove_toolkit)で公開されている。

High-quality structured data with rich annotations are critical components in intelligent vehicle systems dealing with road scenes. However, data curation and annotation require intensive investments and yield low-diversity scenarios. The recently growing interest in synthetic data raises questions about the scope of improvement in such systems and the amount of manual work still required to produce high volumes and variations of simulated data. This work proposes a synthetic data generation pipeline that utilizes existing datasets, like nuScenes, to address the difficulties and domain-gaps present in simulated datasets. We show that using annotations and visual cues from existing datasets, we can facilitate automated multi-modal data generation, mimicking real scene properties with high-fidelity, along with mechanisms to diversify samples in a physically meaningful way. We demonstrate improvements in mIoU metrics by presenting qualitative and quantitative experiments with real and synthetic data for semantic segmentation on the Cityscapes and KITTI-STEP datasets. All relevant code and data is released on github (https://github.com/shubham1810/trove_toolkit).
翻訳日:2022-08-18 12:51:16 公開日:2022-08-16
# aiピックルーム音響による音楽の音響知覚の向上

Enhancing Audio Perception of Music By AI Picked Room Acoustics ( http://arxiv.org/abs/2208.07994v1 )

ライセンス: Link先を確認
Prateek Verma and Jonathan Berger(参考訳) 私たちが聞くすべての音は、連続した畳み込み操作の結果である(例えば、室内音響、マイク特性、楽器自体の共鳴特性など、音響再生システムの特徴や限界は言うまでもない)。 この研究では、AIを使って特定の作品を実行するのに最適な部屋を見つけようとしています。 また,室内音響を音の知覚性を高める方法として用いる。 歴史的に、部屋(特に教会やコンサートホール)は特定の音楽機能を司るように設計されていた。 場合によっては、建築の音響特性により、そこで演奏される音楽が強化された。 第一歩として、特定の音楽に対する音質の向上と相関する室内インパルス応答を指定することで、これを模倣しようと試みている。 畳み込み型アーキテクチャは、まずオーディオサンプルを取り込んで、さまざまな楽器ファミリーや知覚特性のノートに対して、およそ78パーセントの精度で専門家の評価を模倣するように訓練される。 これにより、音符の知覚的快適度を自動的に評価できるオーディオサンプルのスコアリング機能が得られる。 今では、あらゆる種類の部屋や素材を模倣した約6万の合成インパルス応答のライブラリを通して、簡単な畳み込み操作を用いて、特定の部屋で演奏されたような音を変換しています。 知覚的評価器は音楽音のランク付けに使われ、音を奏でるために「最高の部屋またはコンサートホール」を与える。 副産物として、音質の悪い音を「良い」音に変えるために室内音響を用いることもできる。

Every sound that we hear is the result of successive convolutional operations (e.g. room acoustics, microphone characteristics, resonant properties of the instrument itself, not to mention characteristics and limitations of the sound reproduction system). In this work we seek to determine the best room in which to perform a particular piece using AI. Additionally, we use room acoustics as a way to enhance the perceptual qualities of a given sound. Historically, rooms (particularly Churches and concert halls) were designed to host and serve specific musical functions. In some cases the architectural acoustical qualities enhanced the music performed there. We try to mimic this, as a first step, by designating room impulse responses that would correlate to producing enhanced sound quality for particular music. A convolutional architecture is first trained to take in an audio sample and mimic the ratings of experts with about 78 % accuracy for various instrument families and notes for perceptual qualities. This gives us a scoring function for any audio sample which can rate the perceptual pleasantness of a note automatically. Now, via a library of about 60,000 synthetic impulse responses mimicking all kinds of room, materials, etc, we use a simple convolution operation, to transform the sound as if it was played in a particular room. The perceptual evaluator is used to rank the musical sounds, and yield the "best room or the concert hall" to play a sound. As a byproduct it can also use room acoustics to turn a poor quality sound into a "good" sound.
翻訳日:2022-08-18 12:40:35 公開日:2022-08-16
# 収束しない学習アルゴリズムの一般化について

On the generalization of learning algorithms that do not converge ( http://arxiv.org/abs/2208.07951v1 )

ライセンス: Link先を確認
Nisha Chandramoorthy, Andreas Loukas, Khashayar Gatmiry, Stefanie Jegelka(参考訳) ディープラーニングの一般化解析は、訓練が一定の点に収束すると仮定する。 しかし、最近の研究では、確率勾配勾配に最適化されたディープニューラルネットワークの重みが、しばしば無限に振動することが示されている。 理論と実践の相違を減らすため,本論文では,トレーニングダイナミクスが必ずしも不動点に収束しないニューラルネットワークの一般化について述べる。 従来のアルゴリズム安定性を非収束アルゴリズムに拡張した統計アルゴリズム安定性 (sas) の概念を提案し,その一般化への応用について検討する。 このエルゴード理論のアプローチは、従来の最適化と学習理論の観点と比較して新たな洞察をもたらす。 学習アルゴリズムの時間漸近挙動の安定性は、その一般化と関連し、損失ダイナミクスが一般化性能の手がかりとなることを実証的に示す。 我々の発見は、トレーニングが無期限に継続し、重みが収束しない場合でも、トレーニングが「安定して一般化する」ネットワークがより良くなることを示す。

Generalization analyses of deep learning typically assume that the training converges to a fixed point. But, recent results indicate that in practice, the weights of deep neural networks optimized with stochastic gradient descent often oscillate indefinitely. To reduce this discrepancy between theory and practice, this paper focuses on the generalization of neural networks whose training dynamics do not necessarily converge to fixed points. Our main contribution is to propose a notion of statistical algorithmic stability (SAS) that extends classical algorithmic stability to non-convergent algorithms and to study its connection to generalization. This ergodic-theoretic approach leads to new insights when compared to the traditional optimization and learning theory perspectives. We prove that the stability of the time-asymptotic behavior of a learning algorithm relates to its generalization and empirically demonstrate how loss dynamics can provide clues to generalization performance. Our findings provide evidence that networks that "train stably generalize better" even when the training continues indefinitely and the weights do not converge.
翻訳日:2022-08-18 12:34:29 公開日:2022-08-16
# 多変量ホークス混合過程のオンライン学習

Online Learning for Mixture of Multivariate Hawkes Processes ( http://arxiv.org/abs/2208.07961v1 )

ライセンス: Link先を確認
Mohsen Ghassemi, Niccol\`o Dalmasso, Simran Lamba, Vamsi K. Potluru, Sameena Shah, Tucker Balch, Manuela Veloso(参考訳) ホークスプロセスのオンライン学習は、ここ数年、特に俳優のネットワークをモデル化する上で、注目を集めている。 しかしながら、これらの作業は通常、イベント間のリッチな相互作用やアクターの潜在クラスタ、アクター間のネットワーク構造をモデル化する。 本稿では,アクターネットワークの潜伏構造と,医療・金融分野の現実的な設定のためのイベント間のリッチな相互作用をモデル化することを提案する。 合成データと実世界データの両方における実験結果から,本手法の有効性が示された。

Online learning of Hawkes processes has received increasing attention in the last couple of years especially for modeling a network of actors. However, these works typically either model the rich interaction between the events or the latent cluster of the actors or the network structure between the actors. We propose to model the latent structure of the network of actors as well as their rich interaction across events for real-world settings of medical and financial applications. Experimental results on both synthetic and real-world data showcase the efficacy of our approach.
翻訳日:2022-08-18 12:34:12 公開日:2022-08-16
# 公開データによる個人推定

Private Estimation with Public Data ( http://arxiv.org/abs/2208.07984v1 )

ライセンス: Link先を確認
Alex Bie, Gautam Kamath, Vikrant Singhal(参考訳) 我々は,少量の公開データへのアクセスによる差分プライベート(DP)推定の研究を開始する。 d-次元ガウシアンのプライベートな推定には、公開データは、基礎となるプライベートデータのガウシアンと総変動距離の類似性を失うガウシアンに由来すると仮定する。 DPの制約の下では、d+1公開データサンプルは、プライベートデータ分布のレンジパラメータへの依存を、パブリックデータなしでは不要であることが知られているプライベートサンプルの複雑さから排除するのに十分であることを示す。 For separated Gaussian mixtures, we assume that the underlying public and private distributions are the same, and we consider two settings: (1) when given a dimension-independent amount of public data, the private sample complexity can be improved polynomially in terms of the number of mixture components, and any dependence on the range parameters of the distribution can be removed in the approximate DP case; (2) when given an amount of public data linear in the dimension, the private sample complexity can be made independent of range parameters even under concentrated DP, and additional improvements can be made to the overall sample complexity.

We initiate the study of differentially private (DP) estimation with access to a small amount of public data. For private estimation of d-dimensional Gaussians, we assume that the public data comes from a Gaussian that may have vanishing similarity in total variation distance with the underlying Gaussian of the private data. We show that under the constraints of pure or concentrated DP, d+1 public data samples are sufficient to remove any dependence on the range parameters of the private data distribution from the private sample complexity, which is known to be otherwise necessary without public data. For separated Gaussian mixtures, we assume that the underlying public and private distributions are the same, and we consider two settings: (1) when given a dimension-independent amount of public data, the private sample complexity can be improved polynomially in terms of the number of mixture components, and any dependence on the range parameters of the distribution can be removed in the approximate DP case; (2) when given an amount of public data linear in the dimension, the private sample complexity can be made independent of range parameters even under concentrated DP, and additional improvements can be made to the overall sample complexity.
翻訳日:2022-08-18 12:34:05 公開日:2022-08-16
# DAPIによるサイトケラチン発現と上皮分画の新しい深層学習手法

Novel Deep Learning Approach to Derive Cytokeratin Expression and Epithelium Segmentation from DAPI ( http://arxiv.org/abs/2208.08284v1 )

ライセンス: Link先を確認
Felix Jakob Segerer, Katharina Nekolla, Lorenz Rognoni, Ansh Kapil, Markus Schick, Helen Angell, G\"unter Schmidt(参考訳) GAN(Generative Adversarial Networks)は、画像合成の最先端技術である。 本稿では,非小細胞肺癌(NSCLC)画像における核の蛍光DAPI染色から細胞ケラチン(CK)染色を合成する新しいGANベースのアプローチであるdapi2ckを提案する。 我々は, 合成CKを用いて上皮領域を分画し, 専門家のアノテーションと比較すると, 染色CKの分画と同等に良好な結果を得た。 マルチプレクシドIF (mIF) パネルのマーカー数が限られていることを考えると,腫瘍マイクロ環境 (TME) の複雑さに対処する別のマーカーでCKを置き換え,免疫療法の患者選択を容易にすることができる。 染色CKとは対照的に、dapi2ckは非特異的CK染色や腫瘍CK発現の喪失といった問題に悩まされない。

Generative Adversarial Networks (GANs) are state of the art for image synthesis. Here, we present dapi2ck, a novel GAN-based approach to synthesize cytokeratin (CK) staining from immunofluorescent (IF) DAPI staining of nuclei in non-small cell lung cancer (NSCLC) images. We use the synthetic CK to segment epithelial regions, which, compared to expert annotations, yield equally good results as segmentation on stained CK. Considering the limited number of markers in a multiplexed IF (mIF) panel, our approach allows to replace CK by another marker addressing the complexity of the tumor micro-environment (TME) to facilitate patient selection for immunotherapies. In contrast to stained CK, dapi2ck does not suffer from issues like unspecific CK staining or loss of tumoral CK expression.
翻訳日:2022-08-18 12:32:23 公開日:2022-08-16
# pd-morl:選好駆動多目的強化学習アルゴリズム

PD-MORL: Preference-Driven Multi-Objective Reinforcement Learning Algorithm ( http://arxiv.org/abs/2208.07914v1 )

ライセンス: Link先を確認
Toygun Basaklar, Suat Gumussoy, Umit Y. Ogras(参考訳) 現実世界の多くの問題は、複数の、おそらくは矛盾する目標を伴う。 多目的強化学習(MORL)アプローチは、優先ベクトルによって重み付けられた結合目的関数を最大化することによりこれらの問題に対処する。 これらのアプローチは、トレーニング中に指定された選好ベクトルに対応するカスタマイズされたポリシーを見つける。 しかし、設計上の制約と目的は通常、現実のシナリオで動的に変化する。 さらに、潜在的な嗜好ごとにポリシーを保存することはスケーラブルではない。 したがって、1つのトレーニングで所定の領域内の選好空間全体に対するpareto front solutionのセットを得ることは極めて重要である。 そこで本研究では,単一のユニバーサルネットワークを学習し,選好空間全体をカバーする新しいモールアルゴリズムを提案する。 提案手法である Preference-Driven MORL (PD-MORL) は、ネットワークパラメータを更新するためのガイダンスとして、好みを利用する。 古典的深海宝物と果樹ナビゲーションベンチマークを用いてpd-morlを実演した後,多目的連続制御課題における性能評価を行った。

Many real-world problems involve multiple, possibly conflicting, objectives. Multi-objective reinforcement learning (MORL) approaches have emerged to tackle these problems by maximizing a joint objective function weighted by a preference vector. These approaches find fixed customized policies corresponding to preference vectors specified during training. However, the design constraints and objectives typically change dynamically in real-life scenarios. Furthermore, storing a policy for each potential preference is not scalable. Hence, obtaining a set of Pareto front solutions for the entire preference space in a given domain with a single training is critical. To this end, we propose a novel MORL algorithm that trains a single universal network to cover the entire preference space. The proposed approach, Preference-Driven MORL (PD-MORL), utilizes the preferences as guidance to update the network parameters. After demonstrating PD-MORL using classical Deep Sea Treasure and Fruit Tree Navigation benchmarks, we evaluate its performance on challenging multi-objective continuous control tasks.
翻訳日:2022-08-18 12:22:56 公開日:2022-08-16
# 最大ノルムと特徴関数による統計的依存性の測定

Measuring Statistical Dependencies via Maximum Norm and Characteristic Functions ( http://arxiv.org/abs/2208.07934v1 )

ライセンス: Link先を確認
Povilas Daniu\v{s}is, Shubham Juneja, Lukas Kuzma, Virginijus Marcinkevi\v{c}ius(参考訳) 本稿では,特徴関数を用いた統計的依存推定の問題に焦点をあてる。 ジョイント関数と積-マージ特性関数の差の最大ノルムに基づいて,統計依存測度を提案する。 提案手法は、異なる次元の2つのランダムベクトル間の任意の統計的依存性を検出でき、微分可能であり、現代の機械学習やディープラーニングパイプラインに容易に統合できる。 シミュレーションデータと実データの両方で実験も行います。 シミュレーションの結果,提案手法は高次元非線形データにおいて統計的依存性を計測でき,従来の研究手法に比べて次元の呪いの影響が小さいことがわかった。 実データを用いた実験は、2つの異なる経験的推論シナリオに対する統計的測定の有効性を示し、教師付き特徴抽出とディープニューラルネットワーク正則化に適用した場合のパフォーマンス特性の統計的に有意な改善を示す。 さらに、関連するオープンソースリポジトリ https://bit.ly/3d4ch5I へのリンクも提供します。

In this paper, we focus on the problem of statistical dependence estimation using characteristic functions. We propose a statistical dependence measure, based on the maximum-norm of the difference between joint and product-marginal characteristic functions. The proposed measure can detect arbitrary statistical dependence between two random vectors of possibly different dimensions, is differentiable, and easily integrable into modern machine learning and deep learning pipelines. We also conduct experiments both with simulated and real data. Our simulations show, that the proposed method can measure statistical dependencies in high-dimensional, non-linear data, and is less affected by the curse of dimensionality, compared to the previous work in this line of research. The experiments with real data demonstrate the potential applicability of our statistical measure for two different empirical inference scenarios, showing statistically significant improvement in the performance characteristics when applied for supervised feature extraction and deep neural network regularization. In addition, we provide a link to the accompanying open-source repository https://bit.ly/3d4ch5I.
翻訳日:2022-08-18 12:22:41 公開日:2022-08-16
# DICE:生成モデルを用いたデータ効率の良い臨床イベント抽出

DICE: Data-Efficient Clinical Event Extraction with Generative Models ( http://arxiv.org/abs/2208.07989v1 )

ライセンス: Link先を確認
Mingyu Derek Ma, Alex Taylor, Wei Wang, Nanyun Peng(参考訳) 臨床領域における事象抽出は未開拓の研究領域である。 トレーニングデータの欠如に加えて、あいまいな境界を持つ長いエンティティを含むドメイン固有のジャーゴンが大量にあるため、タスクは特に困難である。 本稿では,臨床イベント抽出のための堅牢でデータ効率の良い生成モデルであるDICEを紹介する。 DICEは、イベント抽出を条件付き生成問題とし、ドメインの専門家による説明を利用して、低リソース環境での性能を高める。 さらに、diceは、イベント抽出タスクと共同で訓練された補助的言及識別タスクで生体医学的言及の所在と境界を学習し、タスク間の依存関係を活用し、識別された言及をそれぞれのタスクのトリガーおよび引数候補として組み込む。 また,最初の臨床イベント抽出データセットであるmaccrobat-eeについても紹介する。 本実験は, 臨床領域における低データ環境下でのDICEの堅牢性と, フレキシブル・ジョイントトレーニングと参照マーカーの併用によるメリットについて実証した。

Event extraction in the clinical domain is an under-explored research area. The lack of training data in addition to the high volume of domain-specific jargon that includes long entities with vague boundaries make the task especially challenging. In this paper, we introduce DICE, a robust and data-efficient generative model for clinical event extraction. DICE frames event extraction as a conditional generation problem and utilizes descriptions provided by domain experts to boost the performance under low-resource settings. Furthermore, DICE learns to locate and bound biomedical mentions with an auxiliary mention identification task trained jointly with event extraction tasks to leverage inter-task dependencies and further incorporates the identified mentions as trigger and argument candidates for their respective tasks. We also introduce MACCROBAT-EE, the first clinical event extraction dataset with event argument annotation. Our experiments demonstrate the robustness of DICE under low data settings for the clinical domain and the benefits of incorporating flexible joint training and mention markers into generative approaches.
翻訳日:2022-08-18 12:11:14 公開日:2022-08-16
# 補間のためのフィードフォワードReLUネットワークの普遍解

Universal Solutions of Feedforward ReLU Networks for Interpolations ( http://arxiv.org/abs/2208.07498v1 )

ライセンス: Link先を確認
Changcun Huang(参考訳) 本稿では、補間のためのフィードフォワードReLUネットワークの解に関する理論的枠組みを提供する。補間行列(interpolation matrix)と呼ばれるもので、これまでの3つの作品の要約、拡張、一般化であり、この枠組みに工学的解が組み込まれ、最終的に理解される。 3層ネットワークに対して,様々な種類の解を分類し,正規化形式にモデル化し,その解をデータ,ネットワーク,トレーニングなどの3次元で探索し,過パラメータ化解の機構を解釈する。 深層ネットワークに対して,深層層の基本的な挙動を記述し,脳科学に関連する工学的応用に現れるスパース活性化モードの現象を説明するスパース行列原理(sparse-matrix principle)という一般的な結果を提示する。 応用として、分類のためのディープニューラルネットワークの一般解は、その原理によって構築され、また、エンコーダのデータ分離特性の研究にもこの原理を用いる。 3層の場合と同様、深層層の解もいくつかの次元を通して探索される。 マルチアウトプットニューラルネットワークのメカニズムは補間行列の観点から説明される。

This paper provides a theoretical framework on the solution of feedforward ReLU networks for interpolations, in terms of what is called an interpolation matrix, which is the summary, extension and generalization of our three preceding works, with the expectation that the solution of engineering could be included in this framework and finally understood. To three-layer networks, we classify different kinds of solutions and model them in a normalized form; the solution finding is investigated by three dimensions, including data, networks and the training; the mechanism of overparameterization solutions is interpreted. To deep-layer networks, we present a general result called sparse-matrix principle, which could describe some basic behavior of deep layers and explain the phenomenon of the sparse-activation mode that appears in engineering applications associated with brain science; an advantage of deep layers compared to shallower ones is manifested in this principle. As applications, a general solution of deep neural networks for classification is constructed by that principle; and we also use the principle to study the data-disentangling property of encoders. Analogous to the three-layer case, the solution of deep layers is also explored through several dimensions. The mechanism of multi-output neural networks is explained from the perspective of interpolation matrices.
翻訳日:2022-08-17 13:06:24 公開日:2022-08-16
# 閾値最適化による複数サブタスクからの信頼性決定:野生におけるコンテンツモデレーション

Reliable Decision from Multiple Subtasks through Threshold Optimization: Content Moderation in the Wild ( http://arxiv.org/abs/2208.07522v1 )

ライセンス: Link先を確認
Donghyun Son, Byounggyu Lew, Kwanghee Choi, Yongsu Baek, Seungwoo Choi, Beomjun Shin, Sungjoo Ha, Buru Chang(参考訳) ソーシャルメディアプラットフォームは、コンテンツモデレーションを通じて有害なコンテンツからユーザーを守るのに苦労している。 これらのプラットフォームは最近、大量のユーザー生成コンテンツに毎日対処するために機械学習モデルを活用している。 モデレーション政策は国や製品の種類によって異なるため、政策ごとにモデルを訓練し展開することが一般的である。 しかし、このアプローチは非常に非効率であり、特にポリシーが変更され、データセットの再ラベル付けと、シフトしたデータ分散のモデル再トレーニングが必要になる。 このコストの非効率を緩和するために、ソーシャルメディアプラットフォームでは、未成年者、失礼なジェスチャー、武器の存在を予測するなど、複数のサブタスクの予測スコアを提供するサードパーティのコンテンツモデレーションサービスを採用することが多い。 しかしながら、特定のターゲットポリシーに対する複数のサブタスクの予測スコアから信頼できる自動モデレーション決定を行うことは、まだ広く検討されていない。 本研究では,コンテンツモデレーションの現実シナリオを定式化し,複数のサブタスクの最適しきい値を求めるための簡易かつ効果的なしきい値最適化手法を導入し,信頼性の高いモデレーション決定をコスト効率よく行う。 広範な実験により,既存のしきい値最適化法やヒューリスティックスに比べて,コンテンツモデレーションの性能が向上することを示した。

Social media platforms struggle to protect users from harmful content through content moderation. These platforms have recently leveraged machine learning models to cope with the vast amount of user-generated content daily. Since moderation policies vary depending on countries and types of products, it is common to train and deploy the models per policy. However, this approach is highly inefficient, especially when the policies change, requiring dataset re-labeling and model re-training on the shifted data distribution. To alleviate this cost inefficiency, social media platforms often employ third-party content moderation services that provide prediction scores of multiple subtasks, such as predicting the existence of underage personnel, rude gestures, or weapons, instead of directly providing final moderation decisions. However, making a reliable automated moderation decision from the prediction scores of the multiple subtasks for a specific target policy has not been widely explored yet. In this study, we formulate real-world scenarios of content moderation and introduce a simple yet effective threshold optimization method that searches the optimal thresholds of the multiple subtasks to make a reliable moderation decision in a cost-effective way. Extensive experiments demonstrate that our approach shows better performance in content moderation compared to existing threshold optimization methods and heuristics.
翻訳日:2022-08-17 13:05:55 公開日:2022-08-16
# 多点統合センシングと通信:融合モデルと機能選択

Multi-Point Integrated Sensing and Communication: Fusion Model and Functionality Selection ( http://arxiv.org/abs/2208.07592v1 )

ライセンス: Link先を確認
Guoliang Li, Shuai Wang, Kejiang Ye, Miaowen Wen, Derrick Wing Kwan Ng, Marco Di Renzo(参考訳) ISAC(Integrated Sensistance and Communication)は、スペクトル、エネルギー、ハードウェア効率を改善するためのハードウェアプラットフォームの共有利用を通じて、従来競合していた無線伝送と調和して動作するように設計されているパラダイムシフトである。 しかし, フェードやブロックなどの敵対的要因により, 核融合のないISACは高感度不確実性に悩まされる可能性がある。 本稿では,複数のisacデバイスからの出力を融合して,マルチラダルデータ冗長性を活用し,高いセンシング性能を実現するマルチポイントisac(mpisac)システムを提案する。 さらに,ISAC装置の動作状態(例えば,センシングや通信)を適応的に決定する機能選択モジュールを介して,センシングと通信のトレードオフを効果的に検討する。 提案手法の要点は,仮説テストと最適投票分析により融合精度を予測する融合モデルを採用することである。 シミュレーションの結果,様々なベンチマーク手法よりもMPISACの方が優れていることが示され,提案手法がISACシステムのトレードオフ領域に効果的に適用可能であることが示された。

Integrated sensing and communication (ISAC) represents a paradigm shift, where previously competing wireless transmissions are jointly designed to operate in harmony via the shared use of the hardware platform for improving the spectral, energy, and hardware efficiencies. However, due to adversarial factors such as fading and blockages, ISAC without fusion may suffer from high sensing uncertainties. This paper presents a multi-point ISAC (MPISAC) system that fuses the outputs from multiple ISAC devices for achieving higher sensing performance by exploiting multi-radar data redundancy. Furthermore, we propose to effectively explore the performance trade-off between sensing and communication via a functionality selection module that adaptively determines the working state (i.e., sensing or communication) of an ISAC device. The crux of our approach is to adopt a fusion model that predicts the fusion accuracy via hypothesis testing and optimal voting analysis. Simulation results demonstrate the superiority of MPISAC over various benchmark schemes and show that the proposed approach can effectively span the trade-off region in ISAC systems.
翻訳日:2022-08-17 13:05:30 公開日:2022-08-16
# Recommendation-Dependent Preferenceによるアルゴリズム支援

Algorithmic Assistance with Recommendation-Dependent Preferences ( http://arxiv.org/abs/2208.07626v1 )

ライセンス: Link先を確認
Bryce McLaughlin and Jann Spiess(参考訳) アルゴリズムを使ってレコメンデーションを作成する場合、一般的にこれらのレコメンデーションは、裁判官や医師にリスクアセスメントが提示された場合など、有益な情報を提供するものだと考えています。 しかし、意思決定者がレコメンデーションを得た場合、その情報に反応するだけではないかもしれない。 決定者は、この勧告をデフォルトの行動と見なすことができ、例えば、裁判官が被告又は医師のリスクの高い評価を過度に拒否する場合には、推奨手続から逸脱する結果を恐れる。 本稿では,信念の転換だけでなく,好みの変更によっても選択に影響を及ぼすレコメンデーションの効果と設計について考察する。 監査を回避したいという願望や、このアルゴリズムが設定する参照点に対する損失回避を予測する行動科学の確立したモデルから、私たちのモデルを動機付けます。 提案手法は, アルゴリズムの最適設計を保守的でない推奨へと変えるため, 意思決定者が推奨に過度に反応する非効率性を生み出す。 潜在的な改善策として,戦略的にレコメンデーションを保留するアルゴリズムを議論し,最終決定の質をいかに改善できるかを示す。

When we use algorithms to produce recommendations, we typically think of these recommendations as providing helpful information, such as when risk assessments are presented to judges or doctors. But when a decision-maker obtains a recommendation, they may not only react to the information. The decision-maker may view the recommendation as a default action, making it costly for them to deviate, for example when a judge is reluctant to overrule a high-risk assessment of a defendant or a doctor fears the consequences of deviating from recommended procedures. In this article, we consider the effect and design of recommendations when they affect choices not just by shifting beliefs, but also by altering preferences. We motivate our model from institutional factors, such as a desire to avoid audits, as well as from well-established models in behavioral science that predict loss aversion relative to a reference point, which here is set by the algorithm. We show that recommendation-dependent preferences create inefficiencies where the decision-maker is overly responsive to the recommendation, which changes the optimal design of the algorithm towards providing less conservative recommendations. As a potential remedy, we discuss an algorithm that strategically withholds recommendations, and show how it can improve the quality of final decisions.
翻訳日:2022-08-17 13:05:11 公開日:2022-08-16
# Uconv-Conformer:エンドツーエンド音声認識における入力列長の高精度化

Uconv-Conformer: High Reduction of Input Sequence Length for End-to-End Speech Recognition ( http://arxiv.org/abs/2208.07657v1 )

ライセンス: Link先を確認
Andrei Andrusenko, Rauf Nasretdinov, Aleksei Romanenko(参考訳) 現代のASRアーキテクチャの最適化は、モデルトレーニングと推論のために多くの計算資源を節約するため、最優先課題の一つである。 この研究は、標準適合モデルに基づく新しいuconv-conformerアーキテクチャを提案し、入力シーケンスの長さを16倍に抑え、中間層の処理を高速化する。 このような時間次元の大幅な削減による収束問題を解決するため、U-Netアーキテクチャに似たアップサンプリングブロックを用いて、正しいCTC損失計算を行い、ネットワークトレーニングを安定化する。 Uconv-Conformerアーキテクチャは、トレーニングと推論の点で高速であるだけでなく、ベースラインのConformerよりもWERが優れている。 我々の最高のUconv-Conformerモデルは、CPUとGPUでそれぞれ40.3%のエポックトレーニング時間短縮、47.8%、23.5%の推論アクセラレーションを示した。 Librispeech test_clean と test_other の相対 WER は7.3% と 9.2% に減少した。

Optimization of modern ASR architectures is among the highest priority tasks since it saves many computational resources for model training and inference. The work proposes a new Uconv-Conformer architecture based on the standard Conformer model that consistently reduces the input sequence length by 16 times, which results in speeding up the work of the intermediate layers. To solve the convergence problem with such a significant reduction of the time dimension, we use upsampling blocks similar to the U-Net architecture to ensure the correct CTC loss calculation and stabilize network training. The Uconv-Conformer architecture appears to be not only faster in terms of training and inference but also shows better WER compared to the baseline Conformer. Our best Uconv-Conformer model showed 40.3% epoch training time reduction, 47.8%, and 23.5% inference acceleration on the CPU and GPU, respectively. Relative WER on Librispeech test_clean and test_other decreased by 7.3% and 9.2%.
翻訳日:2022-08-17 13:04:47 公開日:2022-08-16
# 脚歩行のための地形ロバスト性ベンチマークの作成:地形オーサリングとアクティブラーニングによるプロトタイプ

Generating a Terrain-Robustness Benchmark for Legged Locomotion: A Prototype via Terrain Authoring and Active Learning ( http://arxiv.org/abs/2208.07681v1 )

ライセンス: Link先を確認
Chong Zhang(参考訳) 足場を意識した移動は、足場ロボット工学において新たな話題となっている。 しかし、シミュレーションにおいて困難な現実的な地形を生成することは困難であり、研究者が移動政策を評価する方法を制限する。 本稿では,地形のオーサリングとアクティブラーニングによる地形データセットの生成を試作し,学習者が安定して高品質な地形を生成できることを示す。 願わくば、生成されたデータセットは脚の動きの地形ロバスト性ベンチマークを作ることができる。 データセットとコードの実装はhttps://bit.ly/3bn4j7fでリリースされる。

Terrain-aware locomotion has become an emerging topic in legged robotics. However, it is hard to generate challenging and realistic terrains in simulation, which limits the way researchers evaluate their locomotion policies. In this paper, we prototype the generation of a terrain dataset via terrain authoring and active learning, and the learned samplers can stably generate diverse high-quality terrains. Hopefully, the generated dataset can make a terrain-robustness benchmark for legged locomotion. The dataset and the code implementation are released at https://bit.ly/3bn4j7f.
翻訳日:2022-08-17 13:04:29 公開日:2022-08-16
# 無線充電型センサネットワークのための深層強化学習に基づく適応充電ポリシー

A Deep Reinforcement Learning-based Adaptive Charging Policy for Wireless Rechargeable Sensor Networks ( http://arxiv.org/abs/2208.07824v1 )

ライセンス: Link先を確認
Ngoc Bui, Phi Le Nguyen, Viet Anh Nguyen, Phan Thuan Do(参考訳) 無線センサネットワークは、ターゲットや関心のある領域を監視するためにランダムに分散されたセンサノードで構成される。 連続監視のためのネットワークを維持することは、各センサーのバッテリー容量が限られているため、課題である。 センサを充電するために移動充電器(MC)を配置することで、センサをエネルギー化する信頼性の高いソリューションとしてワイヤレス電力伝達技術が登場している。 しかし,ネットワークに生じる不確実性のため,MCの最適充電経路の設計は困難である。 センサのエネルギー消費速度は、ノード故障などのネットワークトポロジの予測不可能な変化により著しく変動する可能性がある。 これらの変化は、各センサーの重要性のシフトにもつながり、既存の作業でも同じことがしばしば想定される。 本稿では, 深部強化学習(DRL)を用いた適応型充電方式を提案することで, これらの課題に対処する。 具体的には、ネットワークの現在の状態のコンディショニングを行うための次のセンサを決定する充電ポリシをmcに付与する。 次に、深層ニューラルネットワークを使用して、この充電ポリシーをパラメータ化し、強化学習技術によってトレーニングします。 我々のモデルはネットワークトポロジーの自発的な変化に対応できる。 実験の結果,提案アルゴリズムは既存のオンデマンドアルゴリズムよりもかなりの差で優れていた。

Wireless sensor networks consist of randomly distributed sensor nodes for monitoring targets or areas of interest. Maintaining the network for continuous surveillance is a challenge due to the limited battery capacity in each sensor. Wireless power transfer technology is emerging as a reliable solution for energizing the sensors by deploying a mobile charger (MC) to recharge the sensor. However, designing an optimal charging path for the MC is challenging because of uncertainties arising in the networks. The energy consumption rate of the sensors may fluctuate significantly due to unpredictable changes in the network topology, such as node failures. These changes also lead to shifts in the importance of each sensor, which are often assumed to be the same in existing works. We address these challenges in this paper by proposing a novel adaptive charging scheme using a deep reinforcement learning (DRL) approach. Specifically, we endow the MC with a charging policy that determines the next sensor to charge conditioning on the current state of the network. We then use a deep neural network to parametrize this charging policy, which will be trained by reinforcement learning techniques. Our model can adapt to spontaneous changes in the network topology. The empirical results show that the proposed algorithm outperforms the existing on-demand algorithms by a significant margin.
翻訳日:2022-08-17 13:04:20 公開日:2022-08-16
# 機械学習によるテスト臭い検出

Machine Learning-Based Test Smell Detection ( http://arxiv.org/abs/2208.07574v1 )

ライセンス: Link先を確認
Valeria Pontillo, Dario Amoroso d'Aragona, Fabiano Pecorelli, Dario Di Nucci, Filomena Ferrucci, Fabio Palomba(参考訳) コンテキスト: テストの臭いは、テストケースを開発する際に採用される最適な設計選択の兆候です。 これまでの研究は、テストコードの保守性と有効性に対する有害性を証明してきた。 そのため、研究者はそれらを検出するための自動化されたヒューリスティックな技術を提案してきた。 しかし、そのような検出器の性能はまだ限られており、チューニングすべきしきい値に依存する。 目的: 4つのテスト臭を検出するための機械学習に基づく新しいテスト臭検出手法の設計と実験を提案する。 方法:手動で検証したテスト臭の最大のデータセットを開発する計画である。 このデータセットは、6人の機械学習者のトレーニングと、プロジェクト内およびプロジェクト間シナリオにおける能力評価に活用される。 最後に、我々のアプローチを最先端のヒューリスティックな手法と比較する。

Context: Test smells are symptoms of sub-optimal design choices adopted when developing test cases. Previous studies have proved their harmfulness for test code maintainability and effectiveness. Therefore, researchers have been proposing automated, heuristic-based techniques to detect them. However, the performance of such detectors is still limited and dependent on thresholds to be tuned. Objective: We propose the design and experimentation of a novel test smell detection approach based on machine learning to detect four test smells. Method: We plan to develop the largest dataset of manually-validated test smells. This dataset will be leveraged to train six machine learners and assess their capabilities in within- and cross-project scenarios. Finally, we plan to compare our approach with state-of-the-art heuristic-based techniques.
翻訳日:2022-08-17 13:01:15 公開日:2022-08-16
# 非単調サブモジュラー最大化のためのオンライン学習:フル情報からバンディットフィードバックへ

Online Learning for Non-monotone Submodular Maximization: From Full Information to Bandit Feedback ( http://arxiv.org/abs/2208.07632v1 )

ライセンス: Link先を確認
Qixin Zhang, Zengde Deng, Zaiyi Chen, Kuangqi Zhou, Haoyuan Hu, Yu Yang(参考訳) 本稿では,オンラインの非単調連続DR-サブモジュラー最大化問題を再検討し,機械学習,経済学,オペレーション研究の分野における幅広い実世界の応用を見出す。 まず,O(\sqrt{T})$の1/e$-regretを1ラウンドあたり$T^{3/2}$確率勾配評価で達成するメタ-MFWアルゴリズムを提案する。 われわれが知る限り、Meta-MFWはオンラインの非単調連続DR-部分モジュラー最大化問題に対して$O(\sqrt{T})$$1/e$-regretを得る最初のアルゴリズムである。 さらに、ODCアルゴリズム \citep{thang2021online} とは対照的に、Meta-MFW は離散化、昇降、丸め操作をせずに単純なオンライン線形オラクルに依存している。 実用的制約を考慮すると,関数ごとの確率勾配の評価をT^{3/2}$から1に減らし,O(T^{4/5})$の1/e$-regretバウンダリを達成できるMono-MFWアルゴリズムを提案する。 次に、Mono-MFWを帯域設定に拡張し、$O(T^{8/9})$の1/e$-regretバウンダリを実現するBandit-MFWアルゴリズムを提案する。 我々の知る限り、Mono-MFWとBandit-MFWは、オンラインの非単調連続DR-サブモジュラー最大化問題に対して、それぞれダウンクロースされた凸集合上のワンショットおよびバンディット設定を探索する最初のサブ線形回帰アルゴリズムである。 最後に,本手法の有効性を検証するために,合成データと実世界データの両方について数値実験を行った。

In this paper, we revisit the online non-monotone continuous DR-submodular maximization problem over a down-closed convex set, which finds wide real-world applications in the domain of machine learning, economics, and operations research. At first, we present the Meta-MFW algorithm achieving a $1/e$-regret of $O(\sqrt{T})$ at the cost of $T^{3/2}$ stochastic gradient evaluations per round. As far as we know, Meta-MFW is the first algorithm to obtain $1/e$-regret of $O(\sqrt{T})$ for the online non-monotone continuous DR-submodular maximization problem over a down-closed convex set. Furthermore, in sharp contrast with ODC algorithm \citep{thang2021online}, Meta-MFW relies on the simple online linear oracle without discretization, lifting, or rounding operations. Considering the practical restrictions, we then propose the Mono-MFW algorithm, which reduces the per-function stochastic gradient evaluations from $T^{3/2}$ to 1 and achieves a $1/e$-regret bound of $O(T^{4/5})$. Next, we extend Mono-MFW to the bandit setting and propose the Bandit-MFW algorithm which attains a $1/e$-regret bound of $O(T^{8/9})$. To the best of our knowledge, Mono-MFW and Bandit-MFW are the first sublinear-regret algorithms to explore the one-shot and bandit setting for online non-monotone continuous DR-submodular maximization problem over a down-closed convex set, respectively. Finally, we conduct numerical experiments on both synthetic and real-world datasets to verify the effectiveness of our methods.
翻訳日:2022-08-17 13:01:07 公開日:2022-08-16
# ニューラルネットワーク検証のためのバック置換手法の最適化について

On Optimizing Back-Substitution Methods for Neural Network Verification ( http://arxiv.org/abs/2208.07669v1 )

ライセンス: Link先を確認
Tom Zelazny, Haoze Wu, Clark Barrett, Guy Katz(参考訳) ミッションクリティカルなシステムにおけるディープラーニングの適用の増加に伴い、ニューラルネットワークの振る舞いに関する正式な保証を得る必要性が高まっている。 実際、ニューラルネットワークを検証するための多くのアプローチが最近提案されているが、一般的にスケーラビリティの制限や精度の不足に苦労している。 多くの最先端の検証スキームにおける重要な要素は、ネットワーク内のニューロンが特定の入力ドメインに対して取得できる値の下位と上位の境界を計算することである。 これらの境界を計算するための多くの一般的なアルゴリズムはシンボリック・バウンド伝播法の変化であり、中でもバック置換と呼ばれるプロセスを利用するアプローチは特に成功した。 本稿では,後方置換によりより厳密な境界を生み出す手法を提案する。 これを実現するために、後方置換時に発生する不正確な誤差を定式化し、最小化する。 本手法は,多数の既存シンボル境界伝搬技術に統合できるという意味では一般的であり,微調整のみである。 本手法を概念実証ツールとして実装し,バック置換を行う最先端検証器と比較して良好な結果を示す。

With the increasing application of deep learning in mission-critical systems, there is a growing need to obtain formal guarantees about the behaviors of neural networks. Indeed, many approaches for verifying neural networks have been recently proposed, but these generally struggle with limited scalability or insufficient accuracy. A key component in many state-of-the-art verification schemes is computing lower and upper bounds on the values that neurons in the network can obtain for a specific input domain -- and the tighter these bounds, the more likely the verification is to succeed. Many common algorithms for computing these bounds are variations of the symbolic-bound propagation method; and among these, approaches that utilize a process called back-substitution are particularly successful. In this paper, we present an approach for making back-substitution produce tighter bounds. To achieve this, we formulate and then minimize the imprecision errors incurred during back-substitution. Our technique is general, in the sense that it can be integrated into numerous existing symbolic-bound propagation techniques, with only minor modifications. We implement our approach as a proof-of-concept tool, and present favorable results compared to state-of-the-art verifiers that perform back-substitution.
翻訳日:2022-08-17 13:00:38 公開日:2022-08-16
# 時間ベースウィンドウを用いたシーケンス分類による学生の成績予測

Predicting student performance using sequence classification with time-based windows ( http://arxiv.org/abs/2208.07749v1 )

ライセンス: Link先を確認
Galina Deeva and Johannes De Smedt and Cecilia Saint-Pierre and Richard Weber and Jochen De Weerdt(参考訳) 世界中の多くの大学が、学術カリキュラムの一部として様々な形態のオンラインとブレンドラーニングを使用している。 さらに、新型コロナウイルスのパンデミックによる最近の変化により、オンライン教育の重要性とユビキタスが大幅に増加した。 e-learningの主な利点は、学生の学習経験の向上と教育的展望の拡大だけでなく、学習分析によって学生の学習プロセスに関する洞察を得ることである。 本研究は,eラーニングプロセスの改善と理解の課題に,以下の方法で貢献する。 まず, 学生の行動データから得られた逐次パターンに基づいて正確な予測モデルを構築し, 授業の早い段階で成績の悪い生徒を識別できることを実証する。 第2に,予測モデルの構築における特異性-一般化性トレードオフを,各コースごとに,コース固有の逐次パターンに基づいて個別に構築すべきか,あるいはより一般的な行動パターンに基づいて複数のコースにまたがって構築すべきかを検討する。 最後に,行動データの時間的側面を把握し,モデルの性能予測に与える影響を解析する手法を提案する。 改良されたシーケンス分類手法は,高レベルの精度で生徒のパフォーマンスを予測でき,コース固有のモデルでは90%に達する。

A growing number of universities worldwide use various forms of online and blended learning as part of their academic curricula. Furthermore, the recent changes caused by the COVID-19 pandemic have led to a drastic increase in importance and ubiquity of online education. Among the major advantages of e-learning is not only improving students' learning experience and widening their educational prospects, but also an opportunity to gain insights into students' learning processes with learning analytics. This study contributes to the topic of improving and understanding e-learning processes in the following ways. First, we demonstrate that accurate predictive models can be built based on sequential patterns derived from students' behavioral data, which are able to identify underperforming students early in the course. Second, we investigate the specificity-generalizability trade-off in building such predictive models by investigating whether predictive models should be built for every course individually based on course-specific sequential patterns, or across several courses based on more general behavioral patterns. Finally, we present a methodology for capturing temporal aspects in behavioral data and analyze its influence on the predictive performance of the models. The results of our improved sequence classification technique are capable to predict student performance with high levels of accuracy, reaching 90 percent for course-specific models.
翻訳日:2022-08-17 12:59:58 公開日:2022-08-16
# その場可視化とデータ圧縮による動的モード分解ワークフローの強化

Enhancing Dynamic Mode Decomposition Workflow with In-Situ Visualization and Data Compression ( http://arxiv.org/abs/2208.07767v1 )

ライセンス: Link先を確認
Gabriel F. Barros, Mal\'u Grave, Jos\'e J. Camata, Alvaro L. G. A. Coutinho(参考訳) 現代の計算科学と工学の応用は、科学機械学習の進歩によって改善されている。 動的モード分解(DMD)のようなデータ駆動手法は、動的システムから生成された時空間データからコヒーレント構造を抽出し、それらのシステムに対して異なるシナリオを推測することができる。 時空間データは、瞬間ごとに空間情報を含むスナップショットとして提供される。 現代のエンジニアリングアプリケーションでは、高次元スナップショットの生成は時間とリソースの要求である。 本研究では,大規模数値シミュレーションにおけるDMDワークフロー向上のための2つの戦略を検討する。 (i)ディスク圧を緩和するための圧縮スナップショット (II)実行時の動的(または一部)を再構成するためにin situ視覚化画像を使用すること。 我々は, 2つの3次元流体力学シミュレーションを用いてアプローチを評価し,dmdを用いて解を再構成する。 その結果、スナップショット圧縮は必要なディスクスペースを大幅に削減することがわかった。 損失圧縮により、信号再構成の相対誤差が低くなり、ストレージの容量が約50〜%減少することがわかった。 また、オンザフライで生成されたデータに対して分析を拡張し、その場で可視化ツールを使用して実行中に状態ベクトルの画像ファイルを生成する。 大きなシミュレーションでは、スナップショットの生成は推論にバッチアルゴリズムを使用するのに十分遅くなる可能性がある。 Streaming DMDはインクリメンタルなSVDアルゴリズムを活用し、新しいスナップショットの到着に合わせてモードを更新する。 ストリーミングDMDを用いて、その場で生成した画像から動的に再構成する。 このプロセスは効率的であり、再構成されたダイナミクスは正確である。

Modern computational science and engineering applications are being improved by the advances in scientific machine learning. Data-driven methods such as Dynamic Mode Decomposition (DMD) can extract coherent structures from spatio-temporal data generated from dynamical systems and infer different scenarios for said systems. The spatio-temporal data comes as snapshots containing spatial information for each time instant. In modern engineering applications, the generation of high-dimensional snapshots can be time and/or resource-demanding. In the present study, we consider two strategies for enhancing DMD workflow in large numerical simulations: (i) snapshots compression to relieve disk pressure; (ii) the use of in situ visualization images to reconstruct the dynamics (or part of) in runtime. We evaluate our approaches with two 3D fluid dynamics simulations and consider DMD to reconstruct the solutions. Results reveal that snapshot compression considerably reduces the required disk space. We have observed that lossy compression reduces storage by almost $50\%$ with low relative errors in the signal reconstructions and other quantities of interest. We also extend our analysis to data generated on-the-fly, using in-situ visualization tools to generate image files of our state vectors during runtime. On large simulations, the generation of snapshots may be slow enough to use batch algorithms for inference. Streaming DMD takes advantage of the incremental SVD algorithm and updates the modes with the arrival of each new snapshot. We use streaming DMD to reconstruct the dynamics from in-situ generated images. We show that this process is efficient, and the reconstructed dynamics are accurate.
翻訳日:2022-08-17 12:59:38 公開日:2022-08-16
# ヘシアン全変分正規化を用いたデラウナイ・トリアングリゲーションに基づく学習

Delaunay-Triangulation-Based Learning with Hessian Total-Variation Regularization ( http://arxiv.org/abs/2208.07787v1 )

ライセンス: Link先を確認
Mehrsa Pourya, Alexis Goujon, Michael Unser(参考訳) 回帰は教師あり学習における中核的な問題の1つだ。 Rectified linear unit (ReLU) ニューラルネットワークはCPWL(Continuous and piecewise-linear)マッピングを生成し、回帰問題を解くための最先端のアプローチである。 本稿では,CPWL関数の表現性を利用した代替手法を提案する。 ディープニューラルネットワークとは対照的に、CPWLパラメータ化は安定性を保証し、解釈可能である。 提案手法は,デラウネー三角測量によるCPWL関数の領域分割に依存する。 三角関数の頂点における関数値は、学習可能なパラメータであり、CPWL関数を一意に識別する。 学習スキームを変分問題として定式化し, 正則化器としてHessian total variation (HTV) を用いて, アフィンの少ないCPWL関数を求める。 このようにして、1つのハイパーパラメータを通してモデルの複雑さを制御する。 三角関数によってパラメータ化された任意のCPWL関数のHTVを計算するための計算フレームワークを開発することにより、学習問題を一般化された最小絶対収縮選択演算子(LASSO)として識別する。 提案手法を低次元シナリオで検証する実験を行った。

Regression is one of the core problems tackled in supervised learning. Rectified linear unit (ReLU) neural networks generate continuous and piecewise-linear (CPWL) mappings and are the state-of-the-art approach for solving regression problems. In this paper, we propose an alternative method that leverages the expressivity of CPWL functions. In contrast to deep neural networks, our CPWL parameterization guarantees stability and is interpretable. Our approach relies on the partitioning of the domain of the CPWL function by a Delaunay triangulation. The function values at the vertices of the triangulation are our learnable parameters and identify the CPWL function uniquely. Formulating the learning scheme as a variational problem, we use the Hessian total variation (HTV) as regularizer to favor CPWL functions with few affine pieces. In this way, we control the complexity of our model through a single hyperparameter. By developing a computational framework to compute the HTV of any CPWL function parameterized by a triangulation, we discretize the learning problem as the generalized least absolute shrinkage and selection operator (LASSO). Our experiments validate the usage of our method in low-dimensional scenarios.
翻訳日:2022-08-17 12:59:18 公開日:2022-08-16
# 位相差推定のためのhvsインスパイア信号分解ネットワーク

HVS-Inspired Signal Degradation Network for Just Noticeable Difference Estimation ( http://arxiv.org/abs/2208.07583v1 )

ライセンス: Link先を確認
Jian Jin, Yuan Xue, Xingxing Zhang, Lili Meng, Yao Zhao, Weisi Lin(参考訳) ディープニューラルネットワークの開発、特に最近開発された教師なしJND生成モデルにより、注目すべき差分(JND)モデリングが大幅に改善されている。 しかし、生成されたJNDが人間の脳の知覚領域ではなく現実世界のシグナル領域で評価されるという大きな欠点がある。 実世界の視覚信号が人間の視覚システム(HVS)で脳に伝達される前に符号化されるため、このような2つの領域でJNDを評価する場合、明らかな違いがある。 そこで本稿では,JND推定のためのHVSに基づく信号劣化ネットワークを提案する。 そこで我々は,JNDの主観的視聴におけるHVS知覚過程を注意深く分析し,関連する洞察を得るとともに,HVSの信号劣化を表すHVS-SDネットワークを設計する。 一方、よく学習されたHVS-SDにより、知覚領域におけるJNDを評価することができる。 一方、jnd生成をよりよく導くために、より正確な事前情報を提供する。 また、合理的なJNDが視覚的注意移動を引き起こすべきではないという要件を考慮して、JND生成を制御するために視覚的注意損失を提案する。 実験により,提案手法はHVSの冗長性を正確に推定するためのSOTA性能を実現することを示す。 ソースコードはhttps://github.com/jianjin008/HVS-SD-JNDで入手できる。

Significant improvement has been made on just noticeable difference (JND) modelling due to the development of deep neural networks, especially for the recently developed unsupervised-JND generation models. However, they have a major drawback that the generated JND is assessed in the real-world signal domain instead of in the perceptual domain in the human brain. There is an obvious difference when JND is assessed in such two domains since the visual signal in the real world is encoded before it is delivered into the brain with the human visual system (HVS). Hence, we propose an HVS-inspired signal degradation network for JND estimation. To achieve this, we carefully analyze the HVS perceptual process in JND subjective viewing to obtain relevant insights, and then design an HVS-inspired signal degradation (HVS-SD) network to represent the signal degradation in the HVS. On the one hand, the well learnt HVS-SD enables us to assess the JND in the perceptual domain. On the other hand, it provides more accurate prior information for better guiding JND generation. Additionally, considering the requirement that reasonable JND should not lead to visual attention shifting, a visual attention loss is proposed to control JND generation. Experimental results demonstrate that the proposed method achieves the SOTA performance for accurately estimating the redundancy of the HVS. Source code will be available at https://github.com/jianjin008/HVS-SD-JND.
翻訳日:2022-08-17 12:55:39 公開日:2022-08-16
# LAMデータセット:ラインレベル手書き文字認識のための新しいベンチマーク

The LAM Dataset: A Novel Benchmark for Line-Level Handwritten Text Recognition ( http://arxiv.org/abs/2208.07682v1 )

ライセンス: Link先を確認
Silvia Cascianelli, Vittorio Pippi, Martin Maarand, Marcella Cornia, Lorenzo Baraldi, Christopher Kermorvant, Rita Cucchiara(参考訳) 手書き文字認識(HTR)は、コンピュータビジョンと自然言語処理の交差点におけるオープンな問題である。 歴史的写本を扱う際の主な課題は、紙の支持の保存、筆跡の多様性、また、同じ著者の幅広い期間にわたる変動、そして古代の表現が不十分な言語からのデータ不足などである。 本稿では,本研究の推進を目的として,60年以上にわたって1人の著者によって編集されたイタリア古写本の行単位のhtrデータセットである ludovico antonio muratori (lam) データセットを提案する。 データセットには2つの設定がある: 基本的な分割と、著者の年齢を考慮した日付ベースの分割。 第1設定は、イタリアの古代文書でHTRを研究することを目的としており、第2設定は、トレーニングデータが入手できない期間に同じ著者によって書かれたテキストを認識することに焦点を当てている。 両構成ともに,他のラインレベルのHTRベンチマークに対しても定量的および定性的な特性を解析し,最先端のHTRアーキテクチャの認識性能を示す。 データセットは \url{https://aimagelab.ing.unimore.it/go/lam} でダウンロードできる。

Handwritten Text Recognition (HTR) is an open problem at the intersection of Computer Vision and Natural Language Processing. The main challenges, when dealing with historical manuscripts, are due to the preservation of the paper support, the variability of the handwriting -- even of the same author over a wide time-span -- and the scarcity of data from ancient, poorly represented languages. With the aim of fostering the research on this topic, in this paper we present the Ludovico Antonio Muratori (LAM) dataset, a large line-level HTR dataset of Italian ancient manuscripts edited by a single author over 60 years. The dataset comes in two configurations: a basic splitting and a date-based splitting which takes into account the age of the author. The first setting is intended to study HTR on ancient documents in Italian, while the second focuses on the ability of HTR systems to recognize text written by the same writer in time periods for which training data are not available. For both configurations, we analyze quantitative and qualitative characteristics, also with respect to other line-level HTR benchmarks, and present the recognition performance of state-of-the-art HTR architectures. The dataset is available for download at \url{https://aimagelab.ing.unimore.it/go/lam}.
翻訳日:2022-08-17 12:55:15 公開日:2022-08-16
# 4次元畳み込みとマルチスケールガウス過程による光界画像からの雨除去

Rain Removal from Light Field Images with 4D Convolution and Multi-scale Gaussian Process ( http://arxiv.org/abs/2208.07735v1 )

ライセンス: Link先を確認
Tao Yan, Mingyue Li, Bin Li, Yang Yang, Rynson W.H. Lau(参考訳) 既存のデラリニング手法は主に1つの入力画像に焦点をあてる。 1枚の入力画像だけでは、正確に雨害を検出し、雨害を除去し、無雨画像を復元することは極めて困難である。 光源画像(lfi)は、単一の2d画像と比較すると、コンピュータビジョンおよびグラフィック研究コミュニティで人気のデバイスとして出現したplenopticカメラを介して各入射光の方向と位置を記録することにより、ターゲットシーンの豊富な3d構造及びテクスチャ情報を埋め込む。 本稿では,LFIから雨害除去のための新しいネットワークである4D-MGP-SRRNetを提案する。 我々の手法は雨のLFIのサブビューを全て入力する。 LFIをフル活用するために,提案するレインステーキ除去ネットワークを構築するために4次元畳み込み層を採用し,LFIの全サブビューを同時に処理する。 提案するネットワークでは,入力LFIのすべてのサブビューから降雨ストリークを検出するために,新しいマルチスケール自己誘導型ガウスプロセス(MSGP)モジュールを用いた降雨検出モデルMGPDNetを提案する。 仮想降雨LFIと実降雨LFIの両方を複数スケールでトレーニングし,実際の降雨ストリークに対する擬似基底真理を計算することにより,降雨ストリークを正確に検出するために半教師学習を導入した。 降雨量を予測するサブビューはすべて4次元残差モデルに入力され、深度マップを推定する。 最後に、推定深度マップから変換された降雨ストリークと霧マップに連結された全てのサブビューを、逆流ニューラルネットワークに基づく降雨LFI復元モデルに入力し、降雨ストリークを段階的に除去し、無雨LFIを回復する。 合成LFIと実世界のLFIを併用した大規模定量および定性評価を行い,提案手法の有効性を示した。

Existing deraining methods mainly focus on a single input image. With just a single input image, it is extremely difficult to accurately detect rain streaks, remove rain streaks, and restore rain-free images. Compared with a single 2D image, a light field image (LFI) embeds abundant 3D structure and texture information of the target scene by recording the direction and position of each incident ray via a plenoptic camera, which has emerged as a popular device in the computer vision and graphics research communities. In this paper, we propose a novel network, 4D-MGP-SRRNet, for rain streak removal from an LFI. Our method takes as input all sub-views of a rainy LFI. In order to make full use of the LFI, we adopt 4D convolutional layers to build the proposed rain steak removal network to simultaneously process all sub-views of the LFI. In the proposed network, the rain detection model, MGPDNet, with a novel Multi-scale Self-guided Gaussian Process (MSGP) module is proposed to detect rain streaks from all sub-views of the input LFI. Semi-supervised learning is introduced to accurately detect rain streaks by training on both virtual-world rainy LFIs and real-world rainy LFIs at multiple scales via calculating pseudo ground truth for real-world rain streaks. All sub-views subtracting the predicted rain streaks are then fed into a 4D residual model to estimate depth maps. Finally, all sub-views concatenated with the corresponding rain streaks and fog maps converted from the estimated depth maps are fed into a rainy LFI restoring model that is based on the adversarial recurrent neural network to progressively eliminate rain streaks and recover the rain-free LFI. Extensive quantitative and qualitative evaluations conducted on both synthetic LFIs and real-world LFIs demonstrate the effectiveness of our proposed method.
翻訳日:2022-08-17 12:54:56 公開日:2022-08-16
# CTスキャン画像と事前訓練モデルを用いたCOVID-19感染症の診断

Diagnosis of COVID-19 disease using CT scan images and pre-trained models ( http://arxiv.org/abs/2208.07829v1 )

ライセンス: Link先を確認
Faezeh Amouzegar, Hamid Mirvaziri, Mostafa Ghazizadeh-Ahsaee, Mahdi Shariatzadeh(参考訳) 新型コロナウイルスの診断は、疾患を予防し、制御するために必要である。 深層学習法は高速かつ正確な方法と考えられている。 本稿では,3つのよく知られた事前学習ネットワークの並列組み合わせにより,新型コロナウイルス感染サンプルと健康なサンプルの識別を試みた。 負のlog-likelihood損失関数はモデルトレーニングに使われている。 SARS-CoV-2データセットのCTスキャン画像を用いて診断を行った。 sars-cov-2データセットには、肺ctスキャンの2482枚の画像が含まれている。 提案されたモデルは97%の精度であった。

Diagnosis of COVID-19 is necessary to prevent and control the disease. Deep learning methods have been considered a fast and accurate method. In this paper, by the parallel combination of three well-known pre-trained networks, we attempted to distinguish coronavirus-infected samples from healthy samples. The negative log-likelihood loss function has been used for model training. CT scan images in the SARS-CoV-2 dataset were used for diagnosis. The SARS-CoV-2 dataset contains 2482 images of lung CT scans, of which 1252 images belong to COVID-19-infected samples. The proposed model was close to 97% accurate.
翻訳日:2022-08-17 12:54:18 公開日:2022-08-16
# ハイブリッド型深部特徴量に基づく病理画像の変形性画像登録法

A Hybrid Deep Feature-Based Deformable Image Registration Method for Pathological Images ( http://arxiv.org/abs/2208.07655v1 )

ライセンス: Link先を確認
Chulong Zhang, Yuming Jiang, Na Li, Zhicheng Zhang, Md Tauhidul Islam, Jingjing Dai, Lin Liu, Wenfeng He, Wenjian Qin, Jing Xiong, Yaoqin Xie and Xiaokun Liang(参考訳) 病理医は、異なる染色された病理スライスからの情報を組み合わせて正確な診断結果を得る必要がある。 変形可能な画像登録はマルチモーダルな病理スライスを用いるのに必要な技術である。 本稿では,染色された病理試料に対するハイブリッドな特徴量に基づく変形可能な画像登録フレームワークを提案する。 まず,2つの深層学習特徴ネットワークで一致した高密度特徴点を抽出する。 そして,さらに誤一致を減らすために,孤立林統計モデルと局所アフィン補正モデルを組み合わせた異常検出法を提案する。 最後に、補間方法は、上記マッチング点に基づいて病理画像登録用dvfを生成する。 我々は,IEEE ISBI 2019 会議と共同で,非剛性組織画像登録(ANHIR)課題のデータセットについて評価を行った。 従来の手法を17%上回り,平均平均登録目標誤差(rtre)が0.0034に達した。 提案手法は,テストデータセットの評価において最先端の性能を達成し,その1をランク付けする。 提案するハイブリッド型深層特徴ベース登録法は,病理画像登録の信頼性の高い方法となり得る。

Pathologists need to combine information from differently stained pathological slices to obtain accurate diagnostic results. Deformable image registration is a necessary technique for fusing multi-modal pathological slices. This paper proposes a hybrid deep feature-based deformable image registration framework for stained pathological samples. We first extract dense feature points and perform points matching by two deep learning feature networks. Then, to further reduce false matches, an outlier detection method combining the isolation forest statistical model and the local affine correction model is proposed. Finally, the interpolation method generates the DVF for pathology image registration based on the above matching points. We evaluate our method on the dataset of the Non-rigid Histology Image Registration (ANHIR) challenge, which is co-organized with the IEEE ISBI 2019 conference. Our technique outperforms the traditional approaches by 17% with the Average-Average registration target error (rTRE) reaching 0.0034. The proposed method achieved state-of-the-art performance and ranking it 1 in evaluating the test dataset. The proposed hybrid deep feature-based registration method can potentially become a reliable method for pathology image registration.
翻訳日:2022-08-17 12:54:08 公開日:2022-08-16
# DRAGON:エッジフェデレーションにおける分散型フォールトトレランス

DRAGON: Decentralized Fault Tolerance in Edge Federations ( http://arxiv.org/abs/2208.07658v1 )

ライセンス: Link先を確認
Shreshth Tuli and Giuliano Casale and Nicholas R. Jennings(参考訳) Edge Federationは、複数のエッジサービスプロバイダのリソースをシームレスに相互接続する、新しいコンピューティングパラダイムである。 このようなシステムにおける重要な課題は、制約のあるデバイスにレイテンシクリティカルでAIベースのリソース集約型のアプリケーションをデプロイすることだ。 そこで本研究では,新しいメモリ効率の高い深層学習モデルである生成最適化ネットワーク(gon)を提案する。 GANとは異なり、GONは入力とサンプルの生成を区別するために単一のネットワークを使用し、メモリフットプリントを大幅に削減する。 GONの低メモリフットプリントを活用したDRAGONと呼ばれる分散フォールトトレランス手法を提案し、シミュレーション(デジタルモデリングツインなど)を行い、エッジフェデレーションの性能を迅速に予測し最適化する。 複数のraspberry-piベースのフェデレーションエッジ構成における実世界のエッジコンピューティングベンチマークによる広範な実験は、dragonがフォールト検出およびqos(quality of service)メトリクスのベースラインメソッドを上回っていることを示している。 具体的には,本提案手法は,最良深層学習(DL)法よりも高いF1スコアを与えるとともに,ヒューリスティック手法よりも低メモリを消費する。 これにより、エネルギー消費量、応答時間、サービスレベルの合意違反をそれぞれ74、63、82パーセント改善することができる。

Edge Federation is a new computing paradigm that seamlessly interconnects the resources of multiple edge service providers. A key challenge in such systems is the deployment of latency-critical and AI based resource-intensive applications in constrained devices. To address this challenge, we propose a novel memory-efficient deep learning based model, namely generative optimization networks (GON). Unlike GANs, GONs use a single network to both discriminate input and generate samples, significantly reducing their memory footprint. Leveraging the low memory footprint of GONs, we propose a decentralized fault-tolerance method called DRAGON that runs simulations (as per a digital modeling twin) to quickly predict and optimize the performance of the edge federation. Extensive experiments with real-world edge computing benchmarks on multiple Raspberry-Pi based federated edge configurations show that DRAGON can outperform the baseline methods in fault-detection and Quality of Service (QoS) metrics. Specifically, the proposed method gives higher F1 scores for fault-detection than the best deep learning (DL) method, while consuming lower memory than the heuristic methods. This allows for improvement in energy consumption, response time and service level agreement violations by up to 74, 63 and 82 percent, respectively.
翻訳日:2022-08-17 12:53:52 公開日:2022-08-16
# 高次精度2サンプルネットワーク推論とネットワークハッシュ

Higher-order accurate two-sample network inference and network hashing ( http://arxiv.org/abs/2208.07573v1 )

ライセンス: Link先を確認
Meijia Shao, Dong Xia, Yuan Zhang, Qiong Wu and Shuo Chen(参考訳) 2つのネットワークを比較するための2サンプル仮説テストは、重要なが難しい問題である。 主な課題は、潜在的に異なるサイズとスパーシリティレベル、隣接行列の非繰り返し観測、計算スケーラビリティ、特に有限サンプル精度とミニマックス最適性に関する理論的研究である。 本稿では,ネットワークモーメントを比較することで,より高次精度の2サンプル推定法を提案する。 本手法は,従来の2サンプルt-testをネットワーク設定に拡張する。 我々はモデリングの仮説を弱め、異なるサイズと疎度レベルのネットワークを効果的に扱うことができる。 我々は、レート最適性を含む強い有限サンプル理論の保証を確立する。 我々の手法は簡単に実装でき、高速に計算できる。 また、オフラインハッシュと高速クエリの新たな非パラメトリックフレームワークを考案し、特に大規模なネットワークデータベースの保守とクエリに有効です。 本手法の有効性を総合シミュレーションにより実証する。 本手法を2つの実世界のデータセットに適用し,興味深い新しい構造を探索する。

Two-sample hypothesis testing for comparing two networks is an important yet difficult problem. Major challenges include: potentially different sizes and sparsity levels; non-repeated observations of adjacency matrices; computational scalability; and theoretical investigations, especially on finite-sample accuracy and minimax optimality. In this article, we propose the first provably higher-order accurate two-sample inference method by comparing network moments. Our method extends the classical two-sample t-test to the network setting. We make weak modeling assumptions and can effectively handle networks of different sizes and sparsity levels. We establish strong finite-sample theoretical guarantees, including rate-optimality properties. Our method is easy to implement and computes fast. We also devise a novel nonparametric framework of offline hashing and fast querying particularly effective for maintaining and querying very large network databases. We demonstrate the effectiveness of our method by comprehensive simulations. We apply our method to two real-world data sets and discover interesting novel structures.
翻訳日:2022-08-17 12:53:31 公開日:2022-08-16
# 極端な質的回帰のためのニューラルネットワークと洪水リスク予測への応用

Neural Networks for Extreme Quantile Regression with an Application to Forecasting of Flood Risk ( http://arxiv.org/abs/2208.07590v1 )

ライセンス: Link先を確認
Olivier C. Pasche and Sebastian Engelke(参考訳) 極端な事象に対するリスクアセスメントは、歴史的観測の範囲を超えて高い質の正確な推定を必要とする。 リスクが観測された予測器の値に依存する場合、回帰手法が予測器空間の補間に使用される。 本稿では,ニューラルネットワークと極値理論のツールを複合したEQRNモデルを提案する。 ニューラルネットワークは自然にデータに付加的な構造を組み込むことができる。 時系列における複雑な逐次依存を捉えることができるEQRNの繰り返しバージョンを開発する。 スイス・アーレ流域における洪水リスク予測に本手法を適用した。 空間と時間の複数の共変量からの情報を利用して、1日前のリターンレベルと超越確率を予測する。 この出力は、従来の極端値解析から得られる静的リターンレベルを補完し、予測は変化する気候で経験した分布シフトに適応することができる。 我々のモデルは、当局が洪水をより効果的に管理し、早期警戒システムによる破壊的な影響を最小限に抑えるのに役立つ。

Risk assessment for extreme events requires accurate estimation of high quantiles that go beyond the range of historical observations. When the risk depends on the values of observed predictors, regression techniques are used to interpolate in the predictor space. We propose the EQRN model that combines tools from neural networks and extreme value theory into a method capable of extrapolation in the presence of complex predictor dependence. Neural networks can naturally incorporate additional structure in the data. We develop a recurrent version of EQRN that is able to capture complex sequential dependence in time series. We apply this method to forecasting of flood risk in the Swiss Aare catchment. It exploits information from multiple covariates in space and time to provide one-day-ahead predictions of return levels and exceedances probabilities. This output complements the static return level from a traditional extreme value analysis and the predictions are able to adapt to distributional shifts as experienced in a changing climate. Our model can help authorities to manage flooding more effectively and to minimize their disastrous impacts through early warning systems.
翻訳日:2022-08-17 12:53:19 公開日:2022-08-16
# HPCセンターにおける人工知能によるナノマテリアル発見の加速

Accelerating nanomaterials discovery with artificial intelligence at the HPC centers ( http://arxiv.org/abs/2208.07612v1 )

ライセンス: Link先を確認
\c{S}ener \"Oz\"onder and H. K\"ubra K\"u\c{c}\"ukkartal(参考訳) 化学物質、薬物、生体材料、合金の特性の研究には何十年もの専門的な研究が必要である。 しかし、多くの場合、結果は現実的な応用に期待されるものではない。 この研究手順は、新しい人工知能と最適化手法によって逆転することができる。 物質の性質と構造的に近接した誘導体を研究する代わりに、その物質のすべての可能な誘導体を含む化学および構造パラメータ空間は、HPC中心で高速かつスマートな方法でスキャンすることができる。 この結果、特定の物理的または化学的性質を持つ特定の物質が見つかる。 ここでは、ベイジアン最適化、ガウス回帰、人工ニューラルネットワークをこの目的のためにどのように利用できるかを示す。 我々は、ドープされたグラフェン量子ドットパラメータ空間上のスマート検索の例を示す。

Study of properties of chemicals, drugs, biomaterials and alloys requires decades of dedicated work. Often times the outcome, however, is not what is expected for practical applications. This research procedure can be inverted by the new artificial intelligence and optimization methods. Instead of studying the properties of a material and its structurally close derivatives, the chemical and structural parameter space that contains all possible derivatives of that material can be scanned in a fast and smart way at the HPC centers. As a result of this, the particular material that has the specific physical or chemical properties can be found. Here we show how Bayesian optimization, Gaussian regression and artificial neural networks can be used towards this goal. We present an example smart search on the doped graphene quantum dot parameter space.
翻訳日:2022-08-17 12:53:05 公開日:2022-08-16
# ランゲヴィン拡散変動推定

Langevin Diffusion Variational Inference ( http://arxiv.org/abs/2208.07743v1 )

ライセンス: Link先を確認
Tomas Geffner and Justin Domke(参考訳) 無調整ランゲヴィン転移に基づく強力な変分分布を構築する多くの方法が存在する。 これらの多くは、幅広い異なるアプローチと技術を用いて開発された。 残念ながら、統一的な分析と導出の欠如は、新しいメソッドの開発と既存のメソッドに対する推論を困難なタスクにする。 我々は、これらの既存のテクニックを統一し、一般化する単一の分析を提供する。 主な考え方は、アンダーダムのランゲヴィン拡散過程とその時間反転を数値シミュレーションすることで目標と変動を増大させることである。 このアプローチの利点は2つある: 既存の多くのメソッドに統一的な定式化を提供し、新しいメソッドの開発を単純化する。 実際、我々の定式化を用いて、既存のアルゴリズムの強みを組み合わせた新しい手法を提案する。 我々の経験的評価は,提案手法が幅広いタスクにおいて,関連するベースラインを一貫して上回ることを示す。

Many methods that build powerful variational distributions based on unadjusted Langevin transitions exist. Most of these were developed using a wide range of different approaches and techniques. Unfortunately, the lack of a unified analysis and derivation makes developing new methods and reasoning about existing ones a challenging task. We address this giving a single analysis that unifies and generalizes these existing techniques. The main idea is to augment the target and variational by numerically simulating the underdamped Langevin diffusion process and its time reversal. The benefits of this approach are twofold: it provides a unified formulation for many existing methods, and it simplifies the development of new ones. In fact, using our formulation we propose a new method that combines the strengths of previously existing algorithms; it uses underdamped Langevin transitions and powerful augmentations parameterized by a score network. Our empirical evaluation shows that our proposed method consistently outperforms relevant baselines in a wide range of tasks.
翻訳日:2022-08-17 12:50:08 公開日:2022-08-16
# アウト・オブ・ディストリビューション・ジェネライゼーションのための反事実的監督に基づく情報ボトルネック

Counterfactual Supervision-based Information Bottleneck for Out-of-Distribution Generalization ( http://arxiv.org/abs/2208.07798v1 )

ライセンス: Link先を確認
Bin Deng and Kui Jia(参考訳) アウト・オブ・ディストリビューション(OOD)一般化のための不変性(因果性)の学習は近年広く注目されており、不変リスク最小化(IRM)の提案(Arjovsky et al., 2019)は注目すべき解決策である。 線形回帰の理論的な約束にもかかわらず、線形分類問題にIRMを使うことの課題はまだ残っている(Rosenfeld et al.,2020, Nagarajan et al., 2021)。 この線に沿って、最近の研究(Arjovsky et al., 2019)が第一歩を踏み出し、情報ボトルネックに基づく不変リスク最小化(IB-IRM)の学習原則を提案する。 本稿では,まず, (arjovsky et al., 2019) で使用される不変特徴の重なりサポートの鍵となる仮定が, ood一般化の保証にかなり強く, それらの仮定を伴わずに最適解を実現できることを示す。 IB-IRMが線形分類問題における不変特徴を学習するのに十分であるかどうかという疑問にさらに答えるために、IB-IRMがラベルに関する全ての情報を捉えているかどうかの2つのケースで失敗することを示した。 このような障害に対処するため,本稿では,その不変性を良好に回復する,CSIB学習アルゴリズムを提案する。 提案アルゴリズムは,単一環境からのデータにアクセスしても動作し,理論的には二進問題と多進問題の両方に対して一貫した結果が得られる。 提案手法の有効性を検証する3つの合成データセットについて実験を行った。

Learning invariant (causal) features for out-of-distribution (OOD) generalization has attracted extensive attention recently, and among the proposals invariant risk minimization (IRM) (Arjovsky et al., 2019) is a notable solution. In spite of its theoretical promise for linear regression, the challenges of using IRM in linear classification problems yet remain (Rosenfeld et al.,2020, Nagarajan et al., 2021). Along this line, a recent study (Arjovsky et al., 2019) has made a first step and proposes a learning principle of information bottleneck based invariant risk minimization (IB-IRM). In this paper, we first show that the key assumption of support overlap of invariant features used in (Arjovsky et al., 2019) is rather strong for the guarantee of OOD generalization and it is still possible to achieve the optimal solution without such assumption. To further answer the question of whether IB-IRM is sufficient for learning invariant features in linear classification problems, we show that IB-IRM would still fail in two cases whether or not the invariant features capture all information about the label. To address such failures, we propose a \textit{Counterfactual Supervision-based Information Bottleneck (CSIB)} learning algorithm that provably recovers the invariant features. The proposed algorithm works even when accessing data from a single environment, and has theoretically consistent results for both binary and multi-class problems. We present empirical experiments on three synthetic datasets that verify the efficacy of our proposed method.
翻訳日:2022-08-17 12:49:54 公開日:2022-08-16
# traffic analytics development kits (tadk): ネットワークアプリでリアルタイムai推論を可能にする

Traffic Analytics Development Kits (TADK): Enable Real-Time AI Inference in Networking Apps ( http://arxiv.org/abs/2208.07558v1 )

ライセンス: Link先を確認
Kun Qiu, Harry Chang, Ying Wang, Xiahui Yu, Wenjun Zhu, Yingqi Liu, Jianwei Ma, Weigang Li, Xiaobo Liu, Shuo Dai(参考訳) 暗号化されたトラフィック分析や未知のマルウェア検出などの高度なトラフィック分析は、ネットワークトラフィックを分析するための高度な方法の必要性を強調している。 ネットワークトラフィックにおける既知のパターンを検出するための固定パターン、シグネチャマッチング、ルールを使用する従来の方法は、AI(Artificial Intelligence)駆動アルゴリズムに置き換えられている。 しかし、高性能なAIネットワーク固有のフレームワークがないため、ネットワークワークロード内にリアルタイムAIベースの処理をデプロイすることは不可能である。 本稿では,AIベースのネットワークワークロード処理に特化した業界標準フレームワークであるTraffic Analytics Development Kits (TADK) の設計について述べる。 tadkは、専用のハードウェア(gpu、ニューラルネットワークユニットなど)を必要とせずに、データセンターからエッジまで、ネットワーク機器のリアルタイムaiベースのネットワークワークロード処理を提供することができる。 tadkをコモディティwafと5g upfにデプロイし,評価結果から,tadkは,トラフィック特徴抽出時のコアあたり35.3gbps,トラフィック分類では6.5gbpsのスループットを達成でき,固定パターンソリューションよりも精度の高い要求毎のsqli/xss検出を4.5usまで低減できることがわかった。

Sophisticated traffic analytics, such as the encrypted traffic analytics and unknown malware detection, emphasizes the need for advanced methods to analyze the network traffic. Traditional methods of using fixed patterns, signature matching, and rules to detect known patterns in network traffic are being replaced with AI (Artificial Intelligence) driven algorithms. However, the absence of a high-performance AI networking-specific framework makes deploying real-time AI-based processing within networking workloads impossible. In this paper, we describe the design of Traffic Analytics Development Kits (TADK), an industry-standard framework specific for AI-based networking workloads processing. TADK can provide real-time AI-based networking workload processing in networking equipment from the data center out to the edge without the need for specialized hardware (e.g., GPUs, Neural Processing Unit, and so on). We have deployed TADK in commodity WAF and 5G UPF, and the evaluation result shows that TADK can achieve a throughput up to 35.3Gbps per core on traffic feature extraction, 6.5Gbps per core on traffic classification, and can decrease SQLi/XSS detection down to 4.5us per request with higher accuracy than fixed pattern solution.
翻訳日:2022-08-17 12:48:45 公開日:2022-08-16
# FALCON: ALCオントロジーによる音と完全なニューラルセマンティックエンターメント

FALCON: Sound and Complete Neural Semantic Entailment over ALC Ontologies ( http://arxiv.org/abs/2208.07628v1 )

ライセンス: Link先を確認
Zhenwei Tang, Tilman Hinnerichs, Xi Peng, Xiangliang Zhang, Robert Hoehndorf(参考訳) 多くのオントロジー、すなわち記述論理(DL)知識ベースは、様々なドメインに関する豊富な知識を提供するために開発され、その多くがALC、すなわち原型的で表現力のあるDLまたはその拡張に基づいている。 ALCオントロジーを探索する主な課題はセマンティックエンターメントを計算することである。 シンボリックなアプローチは、音と完全な意味的包含を保証できるが、矛盾や情報の欠如に敏感である。 この目的のために,ファジィALCオントロジーニューラル推論器であるFALCONを提案する。 FALCONはファジィ論理演算子を使用して任意のALCオントロジーのための単一モデル構造を生成し、セマンティックエンターメントを計算するために複数のモデル構造を使用する。 理論的結果から、FALCONはALCオントロジよりも意味論を計算するための健全で完全なアルゴリズムであることが保証されている。 実験の結果、FALCONは、近似推論(不完全オントロジーの推論)とパラ一貫性推論(矛盾オントロジーの推論)だけでなく、ALCオントロジーの背景知識を組み込むことで、バイオメディカル領域における機械学習を改善することができることがわかった。

Many ontologies, i.e., Description Logic (DL) knowledge bases, have been developed to provide rich knowledge about various domains, and a lot of them are based on ALC, i.e., a prototypical and expressive DL, or its extensions. The main task that explores ALC ontologies is to compute semantic entailment. Symbolic approaches can guarantee sound and complete semantic entailment but are sensitive to inconsistency and missing information. To this end, we propose FALCON, a Fuzzy ALC Ontology Neural reasoner. FALCON uses fuzzy logic operators to generate single model structures for arbitrary ALC ontologies, and uses multiple model structures to compute semantic entailments. Theoretical results demonstrate that FALCON is guaranteed to be a sound and complete algorithm for computing semantic entailments over ALC ontologies. Experimental results show that FALCON enables not only approximate reasoning (reasoning over incomplete ontologies) and paraconsistent reasoning (reasoning over inconsistent ontologies), but also improves machine learning in the biomedical domain by incorporating background knowledge from ALC ontologies.
翻訳日:2022-08-17 12:48:21 公開日:2022-08-16
# 公園の散歩:モデルフリーの強化学習で20分で歩くことを学ぶ

A Walk in the Park: Learning to Walk in 20 Minutes With Model-Free Reinforcement Learning ( http://arxiv.org/abs/2208.07860v1 )

ライセンス: Link先を確認
Laura Smith, Ilya Kostrikov, Sergey Levine(参考訳) 深層強化学習は、ドメイン知識を必要としない制御されていない環境での学習方針に有望なアプローチである。 残念ながら、サンプルの非効率のため、ディープRLアプリケーションは主にシミュレーション環境に焦点を当てている。 本研究では,近年の機械学習アルゴリズムとライブラリの進歩と,ロボット制御の微調整が組み合わさって,現実世界でわずか20分間で四足歩行を学習できることを実証する。 我々は,古典的モデルベースコントローラでは困難であることが知られている屋内および屋外の地形に対するアプローチを評価する。 ロボットは、これらすべての地形で一貫して歩行を学べるように観察する。 最後に,シミュレーション環境において設計判断を評価する。

Deep reinforcement learning is a promising approach to learning policies in uncontrolled environments that do not require domain knowledge. Unfortunately, due to sample inefficiency, deep RL applications have primarily focused on simulated environments. In this work, we demonstrate that the recent advancements in machine learning algorithms and libraries combined with a carefully tuned robot controller lead to learning quadruped locomotion in only 20 minutes in the real world. We evaluate our approach on several indoor and outdoor terrains which are known to be challenging for classical model-based controllers. We observe the robot to be able to learn walking gait consistently on all of these terrains. Finally, we evaluate our design decisions in a simulated environment.
翻訳日:2022-08-17 12:48:01 公開日:2022-08-16
# ソーシャルメディアの語彙分析を通したアメリカの文化地域

American cultural regions mapped through the lexical analysis of social media ( http://arxiv.org/abs/2208.07649v1 )

ライセンス: Link先を確認
Thomas Louf, Bruno Gon\c{c}alves, Jose J. Ramasco, David Sanchez, Jack Grieve(参考訳) 文化圏は、社会科学の様々な分野を交配する有用な概念である。 人間がどのように社会の中で考えや行動を組織し、関連づけるかの知識は、異なる問題に対する行動や態度を理解するのに役立つ。 しかし、文化圏を形成する共通形質の選択は幾らか任意である。 必要なのは、オンラインからやってくる膨大なデータ、特にソーシャルメディアを通じて、アドホックな仮定や偏見、偏見のない文化的地域を特定する方法です。 本研究では,マイクロブログ投稿からの大規模データセットの自動解析に基づいて,文化地域を推定する手法を導入することで,この方向に向けて重要な一歩を踏み出す。 私たちのアプローチは、人々が自分達で議論するトピックから文化的提携を推論できるという原則に基づいています。 具体的には,米国のソーシャルメディアで発生した文言の地域差を測定した。 ジオタグ付きつぶやきにおけるコンテンツ単語の頻度分布から,単語の使用頻度を地域的ホットスポットとして把握し,そこから地域変動の主成分を導出する。 この低次元空間におけるデータの階層的クラスタリングを通じて、この手法は明確な文化的領域とそれらを定義する議論のトピックを生み出す。 我々は、主にアフリカ系アメリカ人文化の影響を受けやすい南北分離と、今日のアメリカの文化圏を包括的に捉えた、より連続した(東-西)と非連続的な(都市-農村)区分を得る。

Cultural areas represent a useful concept that cross-fertilizes diverse fields in social sciences. Knowledge of how humans organize and relate their ideas and behavior within a society helps to understand their actions and attitudes towards different issues. However, the selection of common traits that shape a cultural area is somewhat arbitrary. What is needed is a method that can leverage the massive amounts of data coming online, especially through social media, to identify cultural regions without ad-hoc assumptions, biases or prejudices. In this work, we take a crucial step towards this direction by introducing a method to infer cultural regions based on the automatic analysis of large datasets from microblogging posts. Our approach is based on the principle that cultural affiliation can be inferred from the topics that people discuss among themselves. Specifically, we measure regional variations in written discourse generated in American social media. From the frequency distributions of content words in geotagged Tweets, we find the words' usage regional hotspots, and from there we derive principal components of regional variation. Through a hierarchical clustering of the data in this lower-dimensional space, our method yields clear cultural areas and the topics of discussion that define them. We obtain a manifest North-South separation, which is primarily influenced by the African American culture, and further contiguous (East-West) and non-contiguous (urban-rural) divisions that provide a comprehensive picture of today's cultural areas in the US.
翻訳日:2022-08-17 12:47:50 公開日:2022-08-16
# OrthoMAD:orthogonal Identity Disentanglementによるモーフィング検出

OrthoMAD: Morphing Attack Detection Through Orthogonal Identity Disentanglement ( http://arxiv.org/abs/2208.07841v1 )

ライセンス: Link先を確認
Pedro C. Neto, Tiago Gon\c{c}alves, Marco Huber, Naser Damer, Ana F. Sequeira, Jaime S. Cardoso(参考訳) モーフィング攻撃は、深層顔認識システムに影響を与える多くの脅威の1つだ。 異なる個人から2つの顔を選択し、両方のアイデンティティ情報を含む最終的なイメージに融合する。 本研究では, 両者の同一性情報を考慮した新しい正規化用語を提案し, 2つの直交潜在ベクトルの生成を促進する。 提案手法(OrthoMAD)をFRLLデータセットの5種類のモーフィングで評価し、5つの異なるデータセットでトレーニングした際のモデルの性能を評価する。 バックボーンとして小さなResNet-18を使用すると、実験の大部分で最先端の結果が得られ、他の実験では競争結果が得られます。 この論文のコードは公開される予定だ。

Morphing attacks are one of the many threats that are constantly affecting deep face recognition systems. It consists of selecting two faces from different individuals and fusing them into a final image that contains the identity information of both. In this work, we propose a novel regularisation term that takes into account the existent identity information in both and promotes the creation of two orthogonal latent vectors. We evaluate our proposed method (OrthoMAD) in five different types of morphing in the FRLL dataset and evaluate the performance of our model when trained on five distinct datasets. With a small ResNet-18 as the backbone, we achieve state-of-the-art results in the majority of the experiments, and competitive results in the others. The code of this paper will be publicly available.
翻訳日:2022-08-17 12:44:20 公開日:2022-08-16
# StyleFaceV: 事前トレーニングされたStyleGAN3の分解と再コンパイルによる顔ビデオ生成

StyleFaceV: Face Video Generation via Decomposing and Recomposing Pretrained StyleGAN3 ( http://arxiv.org/abs/2208.07862v1 )

ライセンス: Link先を確認
Haonan Qiu, Yuming Jiang, Hang Zhou, Wayne Wu, Ziwei Liu(参考訳) リアルな生成顔ビデオ合成は、コンピュータビジョンとグラフィックコミュニティの両方において、長い間追求されてきた。 しかし、既存の顔映像生成法は、ドリフトした顔のアイデンティティと不自然な動きを持つ低品質のフレームを生成する傾向がある。 そこで本稿では,これらの課題に対処するために,高度に忠実なアイデンティティ保存された顔ビデオを生成するstylefacevという基本フレームワークを提案する。 我々の中核となる洞察は、外観を分解して情報を合成し、それらをStyleGAN3の潜在空間に再分解し、安定かつ動的結果を生成することである。 具体的には、StyleGAN3は高忠実な顔画像生成に強い先行性を提供するが、潜伏空間は本質的に絡み合っている。 本研究は,その潜伏特性を慎重に検討することにより,顔の外観と動きの絡み合った組み合わせを可能にする分解・再構成設計を提案する。 さらに、時間依存モデルは分解された潜伏特徴に基づいて構築され、現実的かつ時間的にコヒーレントな顔ビデオを生成することのできる合理的な動き列をサンプリングする。 特に当社のパイプラインでは,静的画像と高品質なビデオデータの両方を共同でトレーニングし,高いデータ効率を実現しています。 広範な実験により,本フレームワークが定性的かつ定量的に最先端の映像生成を実現することを実証した。 StyleFaceVは、高解像度のトレーニングビデオがなくても、リアルな1024\times1024$のフェイスビデオを生成することができる。

Realistic generative face video synthesis has long been a pursuit in both computer vision and graphics community. However, existing face video generation methods tend to produce low-quality frames with drifted facial identities and unnatural movements. To tackle these challenges, we propose a principled framework named StyleFaceV, which produces high-fidelity identity-preserving face videos with vivid movements. Our core insight is to decompose appearance and pose information and recompose them in the latent space of StyleGAN3 to produce stable and dynamic results. Specifically, StyleGAN3 provides strong priors for high-fidelity facial image generation, but the latent space is intrinsically entangled. By carefully examining its latent properties, we propose our decomposition and recomposition designs which allow for the disentangled combination of facial appearance and movements. Moreover, a temporal-dependent model is built upon the decomposed latent features, and samples reasonable sequences of motions that are capable of generating realistic and temporally coherent face videos. Particularly, our pipeline is trained with a joint training strategy on both static images and high-quality video data, which is of higher data efficiency. Extensive experiments demonstrate that our framework achieves state-of-the-art face video generation results both qualitatively and quantitatively. Notably, StyleFaceV is capable of generating realistic $1024\times1024$ face videos even without high-resolution training videos.
翻訳日:2022-08-17 12:44:08 公開日:2022-08-16
# CorpusBrain: 知識集約型言語タスクのための生成検索モデルの事前トレーニング

CorpusBrain: Pre-train a Generative Retrieval Model for Knowledge-Intensive Language Tasks ( http://arxiv.org/abs/2208.07652v1 )

ライセンス: Link先を確認
Jiangui Chen, Ruqing Zhang, Jiafeng Guo, Yiqun Liu, Yixing Fan, Xueqi Cheng(参考訳) 知識集約型言語タスク(KILT)は通常、正しい回答を提供するために大量の情報を必要とする。 この問題を解決するための一般的なパラダイムは、探索システムと機械読取機を組み合わせることであり、前者は証拠を回収し、後者はそれらを検証して回答を生成する。 近年、読者は大規模な事前学習型生成モデルの助けを借りて大きな進歩をみせた。 一方、検索コンポーネントの既存のソリューションのほとんどは従来の‘index-retrieve-then-rank’パイプラインに依存している。 近年のモデルベースirモデルの構築に触発されて,従来の多段階探索パイプラインを,探索プロセスを劇的に単純化し,エンドツーエンドで最適化可能な,新たな単一ステップ生成モデルに置き換える提案を行う。 そこで本研究では,事前学習タスクを適切に設計することで,強力な生成的検索モデルを学習でき,さらに微調整を施して下流キルトタスクを改良できることを示す。 我々は,事前学習された生成的検索モデルをコーパスブレインと命名する。コーパスに関する情報は,追加のインデックスを構築することなく,そのパラメータにエンコードされる。 実験の結果,CorpsBrainはKILTベンチマークの検索タスクにおいて,強いベースラインを著しく上回り,新たな最先端のダウンストリーム性能を確立することができることがわかった。 また、CorpsBrainはゼロおよびローリソース設定でうまく動作することも示しています。

Knowledge-intensive language tasks (KILT) usually require a large body of information to provide correct answers. A popular paradigm to solve this problem is to combine a search system with a machine reader, where the former retrieves supporting evidences and the latter examines them to produce answers. Recently, the reader component has witnessed significant advances with the help of large-scale pre-trained generative models. Meanwhile most existing solutions in the search component rely on the traditional ``index-retrieve-then-rank'' pipeline, which suffers from large memory footprint and difficulty in end-to-end optimization. Inspired by recent efforts in constructing model-based IR models, we propose to replace the traditional multi-step search pipeline with a novel single-step generative model, which can dramatically simplify the search process and be optimized in an end-to-end manner. We show that a strong generative retrieval model can be learned with a set of adequately designed pre-training tasks, and be adopted to improve a variety of downstream KILT tasks with further fine-tuning. We name the pre-trained generative retrieval model as CorpusBrain as all information about the corpus is encoded in its parameters without the need of constructing additional index. Empirical results show that CorpusBrain can significantly outperform strong baselines for the retrieval task on the KILT benchmark and establish new state-of-the-art downstream performances. We also show that CorpusBrain works well under zero- and low-resource settings.
翻訳日:2022-08-17 12:43:42 公開日:2022-08-16
# 熱設計における深部畳み込みサロゲートと自由度

Deep convolutional surrogates and degrees of freedom in thermal design ( http://arxiv.org/abs/2208.07482v1 )

ライセンス: Link先を確認
Hadi Keramati and Feridun Hamdullahpur(参考訳) 複合ベジエ曲線を用いた複素フィン測地における熱伝達と圧力降下予測のための代理モデルを提案する。 熱設計プロセスには、複雑で計算コストが高く、時間を要する反復的な高忠実度シミュレーションが含まれる。 機械学習アルゴリズムとGPU(Graphics Processing Units)の進歩により、熱流体シミュレーションを加速するためにCPUのみに頼るのではなく、GPUの並列処理アーキテクチャを利用することができる。 本研究では,画像として保存したトポロジから直接計算流体力学(CFD)の結果を予測するために,畳み込みニューラルネットワーク(CNN)を用いた。 一つのフィンと複数のモルヒネを持つケースについて検討した。 単一フィン設計の場合, Xception ネットワークと通常の CNN の比較を行う。 その結果,特にXception Networkを用いた単一フィン設計では,高い精度で予測が可能であった。 設計の自由度を複数のフィンに増すと、予測エラーが増加する。 しかし、この誤差は、設計上価値のある圧力低下と伝熱推定のために3%以内に留まっている。

We present surrogate models for heat transfer and pressure drop prediction of complex fin geometries generated using composite Bezier curves. Thermal design process includes iterative high fidelity simulation which is complex, computationally expensive, and time-consuming. With the advancement in machine learning algorithms as well as Graphics Processing Units (GPUs), we can utilize the parallel processing architecture of GPUs rather than solely relying on CPUs to accelerate the thermo-fluid simulation. In this study, Convolutional Neural Networks (CNNs) are used to predict results of Computational Fluid Dynamics (CFD) directly from topologies saved as images. The case with a single fin as well as multiple morphable fins are studied. A comparison of Xception network and regular CNN is presented for the case with a single fin design. Results show that high accuracy in prediction is observed for single fin design particularly using Xception network. Increasing design freedom to multiple fins increases the error in prediction. This error, however, remains within three percent for pressure drop and heat transfer estimation which is valuable for design purpose.
翻訳日:2022-08-17 12:42:57 公開日:2022-08-16
# スイマーを用いた強化学習

Making Reinforcement Learning Work on Swimmer ( http://arxiv.org/abs/2208.07587v1 )

ライセンス: Link先を確認
Ma\"el Franceschetti and Coline Lacoux and Ryan Ohouens and Olivier Sigaud(参考訳) SWIMMER環境は強化学習(RL)の標準ベンチマークである。 特に、RL法と遺伝的アルゴリズムや進化戦略といった直接的なポリシー探索法を比較したり組み合わせたりする論文でよく用いられる。 これらの論文の多くは、RL法によるSWIMMERの性能の低下と、直接ポリシー探索法による性能の向上を報告している。 本稿では,SWIMMER 上での RL 手法の低性能は,重要なハイパーパラメータの調整が不十分であること,また,このハイパーパラメータを正しい値に設定することで,問題を簡単に修正できることを示す。

The SWIMMER environment is a standard benchmark in reinforcement learning (RL). In particular, it is often used in papers comparing or combining RL methods with direct policy search methods such as genetic algorithms or evolution strategies. A lot of these papers report poor performance on SWIMMER from RL methods and much better performance from direct policy search methods. In this technical report we show that the low performance of RL methods on SWIMMER simply comes from the inadequate tuning of an important hyper-parameter and that, by setting this hyper-parameter to a correct value, the issue can be very easily fixed.
翻訳日:2022-08-17 12:42:43 公開日:2022-08-16
# 商品・サービス税の循環取引を識別するためのグラフによる表現学習

Representation Learning on Graphs to Identifying Circular Trading in Goods and Services Tax ( http://arxiv.org/abs/2208.07660v1 )

ライセンス: Link先を確認
Priya Mehta, Sanat Bhargava, M. Ravi Kumar, K. Sandeep Kumar, Ch. Sobhan Babu(参考訳) 循環取引は、商品・サービス税における脱税の一形態であり、不正納税者(商人)のグループは、短期間に複数の架空の取引(商品・サービスに価値を付加しない)を自身で重ね合わせて不正取引を隠蔽することを目的としている。 納税者の膨大なデータベースのため、当局は循環トレーダーのグループと彼らが関与している不正取引を手動で識別することは不可能である。 この研究は、ビッグデータ分析とグラフ表現学習技術を用いて、循環トレーダーのコミュニティを特定し、各コミュニティにおける不正取引を分離するフレームワークを提案する。 当社のアプローチは、インドのテランガナ州商務省が提供した実生活データに基づいてテストされ、循環型トレーダーのコミュニティがいくつか見つかった。

Circular trading is a form of tax evasion in Goods and Services Tax where a group of fraudulent taxpayers (traders) aims to mask illegal transactions by superimposing several fictitious transactions (where no value is added to the goods or service) among themselves in a short period. Due to the vast database of taxpayers, it is infeasible for authorities to manually identify groups of circular traders and the illegitimate transactions they are involved in. This work uses big data analytics and graph representation learning techniques to propose a framework to identify communities of circular traders and isolate the illegitimate transactions in the respective communities. Our approach is tested on real-life data provided by the Department of Commercial Taxes, Government of Telangana, India, where we uncovered several communities of circular traders.
翻訳日:2022-08-17 12:42:32 公開日:2022-08-16
# 双方向GANの訓練の促進 : 脱マイティフィケーションへのアプローチ

Enhancement to Training of Bidirectional GAN : An Approach to Demystify Tax Fraud ( http://arxiv.org/abs/2208.07675v1 )

ライセンス: Link先を確認
Priya Mehta, Sandeep Kumar, Ravi Kumar, Ch. Sobhan Babu(参考訳) 外乱検出は難しい活動です。 異常検出のためのいくつかの機械学習手法が文献に提案されている。 本稿では,双方向gan(bigan)による異常検出のための新しいトレーニング手法を提案する。 提案手法を検証するため,提案手法を用いて,納税申告者(納税申告者)を訓練し,納税申告者(納税者)を検出する。 各納税者には,6つの相関パラメータと3つの比パラメータが提出された。 この9次元導出地中データセットに対して,提案手法を用いてbiganを訓練する。 次に、$encoder$($encoder$を使ってこのデータセットをエンコードする)を使用してこのデータセットの潜在表現を生成し、この潜在表現を入力として与えて、$generator$($generator$を使ってデコードする)を使用してこのデータセットを再生する。 各納税者に対して、自己の基幹データと再生データのコサイン類似性を計算する。 コサインの類似度が低い納税者は、潜在リターンマニピュレータである。 本手法は,インド・テランガナ政府営税局が提供した鉄鋼・鉄鋼の納税者データの解析に応用した。

Outlier detection is a challenging activity. Several machine learning techniques are proposed in the literature for outlier detection. In this article, we propose a new training approach for bidirectional GAN (BiGAN) to detect outliers. To validate the proposed approach, we train a BiGAN with the proposed training approach to detect taxpayers, who are manipulating their tax returns. For each taxpayer, we derive six correlation parameters and three ratio parameters from tax returns submitted by him/her. We train a BiGAN with the proposed training approach on this nine-dimensional derived ground-truth data set. Next, we generate the latent representation of this data set using the $encoder$ (encode this data set using the $encoder$) and regenerate this data set using the $generator$ (decode back using the $generator$) by giving this latent representation as the input. For each taxpayer, compute the cosine similarity between his/her ground-truth data and regenerated data. Taxpayers with lower cosine similarity measures are potential return manipulators. We applied our method to analyze the iron and steel taxpayers data set provided by the Commercial Taxes Department, Government of Telangana, India.
翻訳日:2022-08-17 12:42:16 公開日:2022-08-16
# FedMR: モデル再結合によるフェレレーテッドラーニング

FedMR: Fedreated Learning via Model Recombination ( http://arxiv.org/abs/2208.07677v1 )

ライセンス: Link先を確認
Ming Hu and Zhihao Yue and Zhiwei Ling and Xian Wei and Mingsong Chen(参考訳) 有望なプライバシー保護機械学習手法として、フェデレートラーニング(FL)は、秘密のローカルデータを妥協することなく、クライアント間でグローバルモデルトレーニングを可能にする。 しかし、既存のFLメソッドは、フェデレート平均化(FedAvg)ベースのアグリゲーションに依存するため、不均一な分散データに対する低推論性能の問題に悩まされている。 モデルパラメータを粗い方法で平均化することにより、FedAvgは局所モデルの個々の特性を外し、FLの推論能力を強く制限する。 さらに悪いことに、FLトレーニングの各ラウンドにおいて、FedAvgは、同じ初期ローカルモデルをクライアントにディスパッチする。 そこで本稿では,federating model recombination (federating model recombination) という新しいflパラダイムを提案する。 従来のFedAvgベースの方法とは異なり、FedMRのクラウドサーバは、収集されたローカルモデルの各レイヤをシャッフルし、それらを再結合して、クライアントでのローカルトレーニングのための新しいモデルを達成する。 各FLラウンドにおけるモデル組換えと局所訓練により、FedMRは迅速に全クライアントに最適な1つのモデルを見つけることができる。 包括的実験により、fedmrは最先端のfl法と比較して、余分な通信オーバーヘッドを発生させることなく、推論精度を大幅に向上できることを示した。

As a promising privacy-preserving machine learning method, Federated Learning (FL) enables global model training across clients without compromising their confidential local data. However, existing FL methods suffer from the problem of low inference performance for unevenly distributed data, since most of them rely on Federated Averaging (FedAvg)-based aggregation. By averaging model parameters in a coarse manner, FedAvg eclipses the individual characteristics of local models, which strongly limits the inference capability of FL. Worse still, in each round of FL training, FedAvg dispatches the same initial local models to clients, which can easily result in stuck-at-local-search for optimal global models. To address the above issues, this paper proposes a novel and effective FL paradigm named FedMR (Federating Model Recombination). Unlike conventional FedAvg-based methods, the cloud server of FedMR shuffles each layer of collected local models and recombines them to achieve new models for local training on clients. Due to the fine-grained model recombination and local training in each FL round, FedMR can quickly figure out one globally optimal model for all the clients. Comprehensive experimental results demonstrate that, compared with state-of-the-art FL methods, FedMR can significantly improve the inference accuracy without causing extra communication overhead.
翻訳日:2022-08-17 12:41:53 公開日:2022-08-16
# モデル性能劣化のないニューラルネットワーク脆弱な透かし

Neural network fragile watermarking with no model performance degradation ( http://arxiv.org/abs/2208.07585v1 )

ライセンス: Link先を確認
Zhaoxia Yin, Heng Yin, and Xinpeng Zhang(参考訳) ディープニューラルネットワークは、データ中毒やバックドア攻撃などの悪意のある微調整攻撃に対して脆弱である。 そこで,近年の研究では,ニューラルネットワークモデルの悪意のある微調整を検出する方法が提案されている。 しかし、通常は保護されたモデルの性能に悪影響を及ぼす。 そこで本研究では,モデル性能劣化のないニューラルネットワーク脆弱な透かしを提案する。 透かしの過程で、特定の損失関数とシークレットキーを持つ生成モデルを訓練し、ターゲット分類器の微調整に敏感なトリガーを生成する。 検証の過程で、各脆弱トリガーのラベルを取得するために、透かし付き分類器を採用する。 そして、秘密鍵とラベルを比較して悪意のある微調整を検出する。 古典的データセットと分類器の実験により,提案手法はモデルの性能劣化を伴わずに,悪質な微調整を効果的に検出できることを示した。

Deep neural networks are vulnerable to malicious fine-tuning attacks such as data poisoning and backdoor attacks. Therefore, in recent research, it is proposed how to detect malicious fine-tuning of neural network models. However, it usually negatively affects the performance of the protected model. Thus, we propose a novel neural network fragile watermarking with no model performance degradation. In the process of watermarking, we train a generative model with the specific loss function and secret key to generate triggers that are sensitive to the fine-tuning of the target classifier. In the process of verifying, we adopt the watermarked classifier to get labels of each fragile trigger. Then, malicious fine-tuning can be detected by comparing secret keys and labels. Experiments on classic datasets and classifiers show that the proposed method can effectively detect model malicious fine-tuning with no model performance degradation.
翻訳日:2022-08-17 12:38:03 公開日:2022-08-16
# 効率的な表現学習のための複数視点のマッチング

Matching Multiple Perspectives for Efficient Representation Learning ( http://arxiv.org/abs/2208.07654v1 )

ライセンス: Link先を確認
Omiros Pantazis, Mathew Salvaris(参考訳) 表現学習のアプローチは通常、アフィン変換を用いて変換される単一の視点から取得したオブジェクトの画像に依存する。 さらに、表現学習の成功パラダイムである自己監督学習は、異なる視点から見た同じ物体の観察のギャップを常に埋めることができないインスタンス識別と自己拡張に依存している。 複数の視点からオブジェクトを見ることは、データアノテーションが制限された状況において特に重要なオブジェクトの総合的な理解に役立つ。 本稿では,マルチパースペクティブマッチング手法を用いた自己教師付き学習を組み合わせることにより,ロボット掃除機と組み込みカメラによるデータに対する高品質表現の学習に有効であることを示す。 我々は,同一オブジェクトの複数ビューと多種多様な自己教師付き事前学習アルゴリズムを組み合わせることで,余分なラベルを使わずにオブジェクト分類性能を向上できることを示す。

Representation learning approaches typically rely on images of objects captured from a single perspective that are transformed using affine transformations. Additionally, self-supervised learning, a successful paradigm of representation learning, relies on instance discrimination and self-augmentations which cannot always bridge the gap between observations of the same object viewed from a different perspective. Viewing an object from multiple perspectives aids holistic understanding of an object which is particularly important in situations where data annotations are limited. In this paper, we present an approach that combines self-supervised learning with a multi-perspective matching technique and demonstrate its effectiveness on learning higher quality representations on data captured by a robotic vacuum with an embedded camera. We show that the availability of multiple views of the same object combined with a variety of self-supervised pretraining algorithms can lead to improved object classification performance without extra labels.
翻訳日:2022-08-17 12:37:49 公開日:2022-08-16
# FEC: ポイントクラウドセグメンテーションのための高速ユークリッドクラスタリング

FEC: Fast Euclidean Clustering for Point Cloud Segmentation ( http://arxiv.org/abs/2208.07678v1 )

ライセンス: Link先を確認
Yu Cao, Yancheng Wang, Yifei Xue, Huiqing Zhang, Yizhen Lao(参考訳) ポイントクラウドデータからのセグメンテーションは、リモートセンシング、モバイルロボット、自動運転車など、多くのアプリケーションで不可欠である。 しかし、3Dレンジセンサーによって捕捉される点雲は、通常、疎く、非構造的で、効率的なセグメンテーションである。 本稿では,小さな計算要求を伴って,クラウドインスタンスのセグメンテーションを高速化する手法を提案する。 そこで本研究では,既存の作業で用いられるクラスタワイズスキームに対して,ポイントワイズスキームを適用する新しい高速ユークリッドクラスタリング(fec)アルゴリズムを提案する。 提案手法は概念的にシンプルで実装が簡単であり(C++では40行)、古典的セグメンテーション法に比べて2桁の精度で高速な結果が得られる。

Segmentation from point cloud data is essential in many applications such as remote sensing, mobile robots, or autonomous cars. However, the point clouds captured by the 3D range sensor are commonly sparse and unstructured, challenging efficient segmentation. In this paper, we present a fast solution to point cloud instance segmentation with small computational demands. To this end, we propose a novel fast Euclidean clustering (FEC) algorithm which applies a pointwise scheme over the clusterwise scheme used in existing works. Our approach is conceptually simple, easy to implement (40 lines in C++), and achieves two orders of magnitudes faster against the classical segmentation methods while producing high-quality results.
翻訳日:2022-08-17 12:37:35 公開日:2022-08-16
# 局所被曝光強調に向けて

Towards Local Underexposed Photo Enhancement ( http://arxiv.org/abs/2208.07711v1 )

ライセンス: Link先を確認
Yizhan Huang and Xiaogang Xu(参考訳) 深層生成モデルが高度にリアルな画像を生成する能力に触発された最近の研究は、未公開の画像を世界的に拡張する進歩を遂げている。 しかし、局所的な画像強調手法は検討されていないが、実世界のシナリオ、例えば局所的な過露出の修正には必須である。 本研究では,入力マスクでどの領域を啓蒙するかをユーザが制御できる,未公開画像強調のための新しいタスク設定を定義する。 マスクが示すように、画像は、マスク領域a、遷移領域b、未マスク領域cの3つの領域に分けられる。その結果、所望の照明により、領域aを啓蒙すべきであり、明細領域(領域a)から変化領域(領域c)への円滑な遷移(領域b)がある。 そこで本稿では,マスクを付加チャネル(MConcat),マスクベースのノームライゼーション(MNorm)の2つの手法を提案する。 MConcatは単に入力画像にマスクチャネルを付加するだけであるが、MNormは空間変化画素を動的に拡張することができ、入力マスクが示す要件に整合性があることを保証する。 さらに、MConcatはプレイ・アンド・プラグモジュールとして機能し、局所的な拡張を実現するために、画像のグローバルな拡張を行う既存のネットワークに組み込むことができる。 また、ネットワーク全体のトレーニングは、様々なモデル構造に統一されたエリアa、エリアb、エリアcの3種類の損失関数で行うことができる。 我々は,低光度拡張のためのパラメトリック手法,畳み込みニュートラルネットワークモデルおよびトランスベースモデルを用いて,公開データセットを広範囲に実験し,提案手法の有効性を実証する。

Inspired by the ability of deep generative models to generate highly realistic images, much recent work has made progress in enhancing underexposed images globally. However, the local image enhancement approach has not been explored, although they are requisite in the real-world scenario, e.g., fixing local underexposure. In this work, we define a new task setting for underexposed image enhancement where users are able to control which region to be enlightened with an input mask. As indicated by the mask, an image can be divided into three areas, including Masked Area A, Transition Area B, and Unmasked Area C. As a result, Area A should be enlightened to the desired lighting, and there shall be a smooth transition (Area B) from the enlightened area (Area A) to the unchanged region (Area C). To finish this task, we propose two methods: Concatenate the mask as additional channels (MConcat), Mask-based Normlization (MNorm). While MConcat simply append the mask channels to the input images, MNorm can dynamically enhance the spatial-varying pixels, guaranteeing the enhanced images are consistent with the requirement indicated by the input mask. Moreover, MConcat serves as a play-and-plug module, and can be incorporated with existing networks, which globally enhance images, to achieve the local enhancement. And the overall network can be trained with three kinds of loss functions in Area A, Area B, and Area C, which are unified for various model structures. We perform extensive experiments on public datasets with various parametric approaches for low-light enhancement, %the Convolutional-Neutral-Network-based model and Transformer-based model, demonstrating the effectiveness of our methods.
翻訳日:2022-08-17 12:37:24 公開日:2022-08-16
# 不変領域レベルコンテキストメモリを用いた高分解能リモートセンシング画像の教師なしドメイン適応セマンティックセマンティックセマンティクス

Unsupervised domain adaptation semantic segmentation of high-resolution remote sensing imagery with invariant domain-level context memory ( http://arxiv.org/abs/2208.07722v1 )

ライセンス: Link先を確認
Jingru Zhu, Ya Guo, Geng Sun, Libo Yang, Min Deng, Jie Chen(参考訳) セマンティックセグメンテーションは高分解能リモートセンシング(HRS)画像の自動解釈に関わる重要な技術であり、リモートセンシングコミュニティで注目されている。 ディープ畳み込みニューラルネットワーク(DCNN)は、階層的表現能力により、HRSのセマンティックセマンティックセグメンテーションタスクにうまく適用されている。 しかし,高密度アノテーションによる大量のトレーニングデータへの強い依存とデータ分布の変化に対する敏感さは,HRS画像のセマンティックセグメンテーションにおけるDCNNの潜在的な応用を著しく制限している。 本研究では,hrs画像の意味セグメンテーションのための非教師なし領域適応意味セグメンテーションネットワーク(memoryadaptnet)を提案する。 memoryadaptnetは、ソースドメインとターゲットドメインのドメイン分布の不一致を橋渡しし、ドメインシフトの影響を狭めるために、出力空間の逆学習スキームを構築する。 具体的には,不変なドメインレベルコンテキスト情報を格納するために不変特徴メモリモジュールを組み込む。 このモジュールは、カテゴリ注目駆動不変なドメインレベルコンテキストアグリゲーションモジュールによって、ピクセル表現をさらに強化するために現在の擬似不変機能に統合される。 エントロピーに基づく擬似ラベルフィルタリング戦略を用いて、現在のターゲット画像の高信頼の擬似不変特性でメモリモジュールを更新する。 3つのクロスドメインタスクによる広範囲な実験は、提案手法が最先端手法よりも著しく優れていることを示している。

Semantic segmentation is a key technique involved in automatic interpretation of high-resolution remote sensing (HRS) imagery and has drawn much attention in the remote sensing community. Deep convolutional neural networks (DCNNs) have been successfully applied to the HRS imagery semantic segmentation task due to their hierarchical representation ability. However, the heavy dependency on a large number of training data with dense annotation and the sensitiveness to the variation of data distribution severely restrict the potential application of DCNNs for the semantic segmentation of HRS imagery. This study proposes a novel unsupervised domain adaptation semantic segmentation network (MemoryAdaptNet) for the semantic segmentation of HRS imagery. MemoryAdaptNet constructs an output space adversarial learning scheme to bridge the domain distribution discrepancy between source domain and target domain and to narrow the influence of domain shift. Specifically, we embed an invariant feature memory module to store invariant domain-level context information because the features obtained from adversarial learning only tend to represent the variant feature of current limited inputs. This module is integrated by a category attention-driven invariant domain-level context aggregation module to current pseudo invariant feature for further augmenting the pixel representations. An entropy-based pseudo label filtering strategy is used to update the memory module with high-confident pseudo invariant feature of current target images. Extensive experiments under three cross-domain tasks indicate that our proposed MemoryAdaptNet is remarkably superior to the state-of-the-art methods.
翻訳日:2022-08-17 12:36:45 公開日:2022-08-16
# 自己学習とスタイル伝達による経時的テスト時間適応

Gradual Test-Time Adaptation by Self-Training and Style Transfer ( http://arxiv.org/abs/2208.07736v1 )

ライセンス: Link先を確認
Robert A. Marsden, Mario D\"obler, and Bin Yang(参考訳) テスト時のドメインシフトは、実際には避けられない。 テスト時の適応は、デプロイ中にモデルを適用することでこの問題に対処する。 近年の研究では、段階的なドメインシフトの設定において、自己学習が強力な方法であることが理論的に示されている。 本研究では,段階的適応とテスト時間適応の自然な関係を示す。 我々はCarlaTTAと呼ばれる新しい合成データセットを公開し、テスト時間中に段階的なドメインシフトを探索し、教師なし領域適応とテスト時間適応の分野でいくつかの手法を評価する。 本稿では,自己学習とスタイル伝達に基づく新しいGTTAを提案する。 GTTAは段階的なドメインシフトを明示的に活用し、この分野で新しい標準を設定する。 さらに, CIFAR10C, CIFAR100C, ImageNet-Cベンチマークにおける提案手法の有効性を示す。

Domain shifts at test-time are inevitable in practice. Test-time adaptation addresses this problem by adapting the model during deployment. Recent work theoretically showed that self-training can be a strong method in the setting of gradual domain shifts. In this work we show the natural connection between gradual domain adaptation and test-time adaptation. We publish a new synthetic dataset called CarlaTTA that allows to explore gradual domain shifts during test-time and evaluate several methods in the area of unsupervised domain adaptation and test-time adaptation. We propose a new method GTTA that is based on self-training and style transfer. GTTA explicitly exploits gradual domain shifts and sets a new standard in this area. We further demonstrate the effectiveness of our method on the continual and gradual CIFAR10C, CIFAR100C, and ImageNet-C benchmark.
翻訳日:2022-08-17 12:36:20 公開日:2022-08-16
# PoseTrans: シンプルで効果的なPose Transformation Augmentation for Human Pose Estimation

PoseTrans: A Simple Yet Effective Pose Transformation Augmentation for Human Pose Estimation ( http://arxiv.org/abs/2208.07755v1 )

ライセンス: Link先を確認
Wentao Jiang, Sheng Jin, Wentao Liu, Chen Qian, Ping Luo, Si Liu(参考訳) 人間のポーズ推定は、さまざまな人間のポーズを正確に推定することを目的としている。 しかし、既存のデータセットは、まれなポーズがほんの一部しか占めない長い尾の分布に従うことが多く、これはさらにまれなポーズの多様性の欠如につながる。 これらの問題は、現在のポーズ推定器の劣る一般化能力をもたらす。 本稿では、上記の問題を緩和するために、Pose Transformation(PoseTrans)と呼ばれる、単純で効果的なデータ拡張手法を提案する。 具体的には、多彩なポーズを持つ新しいトレーニングサンプルを作成し、ポーズ判別器を採用して、追加ポーズの妥当性を保証するため、PTM(Pose Transformation Module)を提案する。 さらに,ポーズラリティを計測するためのポーズクラスタリングモジュール (pcm) を提案し,ロングテール分布のバランスをとるために "rarest" ポーズを選択する。 3つのベンチマークデータセットに対する大規模な実験により,本手法の有効性が示された。 また,提案手法は効率的で実装が容易であり,既存のポーズ推定モデルのトレーニングパイプラインに容易に組み込むことができる。

Human pose estimation aims to accurately estimate a wide variety of human poses. However, existing datasets often follow a long-tailed distribution that unusual poses only occupy a small portion, which further leads to the lack of diversity of rare poses. These issues result in the inferior generalization ability of current pose estimators. In this paper, we present a simple yet effective data augmentation method, termed Pose Transformation (PoseTrans), to alleviate the aforementioned problems. Specifically, we propose Pose Transformation Module (PTM) to create new training samples that have diverse poses and adopt a pose discriminator to ensure the plausibility of the augmented poses. Besides, we propose Pose Clustering Module (PCM) to measure the pose rarity and select the "rarest" poses to help balance the long-tailed distribution. Extensive experiments on three benchmark datasets demonstrate the effectiveness of our method, especially on rare poses. Also, our method is efficient and simple to implement, which can be easily integrated into the training pipeline of existing pose estimation models.
翻訳日:2022-08-17 12:36:09 公開日:2022-08-16
# style your hair:ローカルスタイル対応ヘアアライメントによるポーズ不変ヘアスタイル転送のための潜在最適化

Style Your Hair: Latent Optimization for Pose-Invariant Hairstyle Transfer via Local-Style-Aware Hair Alignment ( http://arxiv.org/abs/2208.07765v1 )

ライセンス: Link先を確認
Taewoo Kim, Chaeyeon Chung, Yoonseo Kim, Sunghyun Park, Kangyeol Kim, Jaegul Choo(参考訳) 髪型編集は、髪型が複雑で繊細であるため、独特で困難である。 最近のアプローチでは毛髪の詳細が大幅に改善されているが、これらのモデルは、ソース画像のポーズがターゲットの毛髪画像と大きく異なる場合、望ましくない出力を生成し、実際の応用を制限する。 ポーズ不変のヘアスタイル転送モデルであるHairFITは、この制限を緩和するが、繊細なヘアテクスチャを保存するのに不満足な品質を示す。 これらの制約を解決するために,潜伏最適化と新たに提示した局所的マッチング損失を備えた,高パフォーマンスなポーズ不変ヘアスタイル伝達モデルを提案する。 stylegan2潜在性空間において,まず,局所的スタイルマッチングに基づく詳細なテクスチャを保存した,対象毛髪のポーズ対応潜在性コードを探索する。 そこで,本モデルでは,アライメント対象毛髪を考慮し,両画像をブレンドして最終的な出力を生成する。 実験の結果,本モデルでは,大きなポーズ差下での髪型移動と,局所的な髪型テクスチャの保持に長所があることが確認された。

Editing hairstyle is unique and challenging due to the complexity and delicacy of hairstyle. Although recent approaches significantly improved the hair details, these models often produce undesirable outputs when a pose of a source image is considerably different from that of a target hair image, limiting their real-world applications. HairFIT, a pose-invariant hairstyle transfer model, alleviates this limitation yet still shows unsatisfactory quality in preserving delicate hair textures. To solve these limitations, we propose a high-performing pose-invariant hairstyle transfer model equipped with latent optimization and a newly presented local-style-matching loss. In the StyleGAN2 latent space, we first explore a pose-aligned latent code of a target hair with the detailed textures preserved based on local style matching. Then, our model inpaints the occlusions of the source considering the aligned target hair and blends both images to produce a final output. The experimental results demonstrate that our model has strengths in transferring a hairstyle under larger pose differences and preserving local hairstyle textures.
翻訳日:2022-08-17 12:35:51 公開日:2022-08-16
# ViTはハイブリッドな差別・生成拡散モデル

Your ViT is Secretly a Hybrid Discriminative-Generative Diffusion Model ( http://arxiv.org/abs/2208.07791v1 )

ライセンス: Link先を確認
Xiulong Yang, Sheng-Min Shih, Yinlin Fu, Xiaoting Zhao, Shihao Ji(参考訳) Diffusion Denoising Probability Models (DDPM) と Vision Transformer (ViT) は、それぞれ生成タスクと識別タスクにおいて大きな進歩を示しており、これまでこれらのモデルは、主に独自のドメインで開発されてきた。 本稿では, ViT アーキテクチャを DDPM に統合することで DDPM と ViT との直接接続を確立し, 生成型 ViT (GenViT) と呼ばれる新しい生成モデルを導入する。 ViTのモデリング柔軟性により、GenViTをさらにハイブリッドな識別世代モデリングに拡張し、Hybrid ViT(HybViT)を導入することができる。 我々の研究は、画像生成と分類を共同で行うための単一のViTを初めて探求した。 提案するモデルの性能を解析し,生成的および判別的タスクにおいて,先行技術よりも優れていることを示す実験を行った。 私たちのコードと事前トレーニングされたモデルは、https://github.com/sndnyang/Diffusion_ViT で参照できます。

Diffusion Denoising Probability Models (DDPM) and Vision Transformer (ViT) have demonstrated significant progress in generative tasks and discriminative tasks, respectively, and thus far these models have largely been developed in their own domains. In this paper, we establish a direct connection between DDPM and ViT by integrating the ViT architecture into DDPM, and introduce a new generative model called Generative ViT (GenViT). The modeling flexibility of ViT enables us to further extend GenViT to hybrid discriminative-generative modeling, and introduce a Hybrid ViT (HybViT). Our work is among the first to explore a single ViT for image generation and classification jointly. We conduct a series of experiments to analyze the performance of proposed models and demonstrate their superiority over prior state-of-the-arts in both generative and discriminative tasks. Our code and pre-trained models can be found in https://github.com/sndnyang/Diffusion_ViT .
翻訳日:2022-08-17 12:35:31 公開日:2022-08-16
# 動的環境におけるコンテキストアウェアストリーミング知覚

Context-Aware Streaming Perception in Dynamic Environments ( http://arxiv.org/abs/2208.07479v1 )

ライセンス: Link先を確認
Gur-Eyal Sela, Ionel Gog, Justin Wong, Kumar Krishna Agrawal, Xiangxi Mo, Sukrit Kalra, Peter Schafhalter, Eric Leong, Xin Wang, Bharathan Balaji, Joseph Gonzalez, Ion Stoica(参考訳) 効率的なビジョンは、遅延予算の下で精度を最大化する。 これらの作業は、1回に1つの画像の精度をオフラインで評価する。 しかし、自律運転のようなリアルタイム視覚アプリケーションはストリーミング設定で動作し、推論開始と終了の間に真実が変わる。 これにより精度が大幅に低下する。 そのため,ストリーミング設定の精度を平均で最大化するための最近の研究が提案されている。 本稿では,各環境環境におけるストリーミング精度を最大化する手法を提案する。 シナリオの難易度は初期(オフライン)の精度差に影響を及ぼすが、シーン内の障害物変位はその後の精度劣化に影響を与えると仮定する。 提案手法は,これらのシナリオ特性を用いて,テスト時のストリーミング精度を最大化する構成を選択する。 提案手法は従来の静的アプローチよりも7.4%向上する。 さらに,オフライン精度の向上に加えて,本手法による性能向上も実現している。

Efficient vision works maximize accuracy under a latency budget. These works evaluate accuracy offline, one image at a time. However, real-time vision applications like autonomous driving operate in streaming settings, where ground truth changes between inference start and finish. This results in a significant accuracy drop. Therefore, a recent work proposed to maximize accuracy in streaming settings on average. In this paper, we propose to maximize streaming accuracy for every environment context. We posit that scenario difficulty influences the initial (offline) accuracy difference, while obstacle displacement in the scene affects the subsequent accuracy degradation. Our method, Octopus, uses these scenario properties to select configurations that maximize streaming accuracy at test time. Our method improves tracking performance (S-MOTA) by 7.4% over the conventional static approach. Further, performance improvement using our method comes in addition to, and not instead of, advances in offline accuracy.
翻訳日:2022-08-17 12:31:05 公開日:2022-08-16
# 多時間スケールによる時間的行動定位

Temporal Action Localization with Multi-temporal Scales ( http://arxiv.org/abs/2208.07493v1 )

ライセンス: Link先を確認
Zan Gao, Xinglei Cui, Tao Zhuo, Zhiyong Cheng, An-An Liu, Meng Wang, and Shenyong Chen(参考訳) 時間的行動のローカライゼーションはビデオ解析において重要な役割を担い、未編集映像における行動のローカライズと分類を目的としている。 前者の方法は、しばしば単時間スケールの特徴空間上のアクションを予測する。 しかしながら、低レベルのスケールの時間的特徴はアクション分類に十分な意味論を欠いている一方で、高レベルのスケールはアクション境界の豊富な詳細を提供することができない。 この問題に対処するために,マルチ時間スケールの特徴空間における行動を予測することを提案する。 具体的には、異なるスケールの洗練された特徴ピラミッドを使用して、高レベルのスケールから低レベルのスケールにセマンティクスを渡す。 さらに,ビデオ全体の経時的スケールを確立するために,ビデオフレームの長距離依存性を捕捉するために空間時間変換器エンコーダを用いる。 次に、長距離依存性を持つ洗練された特徴を粗い動作予測のための分類器に入力する。 最後に,予測精度をさらに向上させるために,フレームレベルの自己注意モジュールを用いて各アクションインスタンスの分類と境界を洗練することを提案する。 大規模な実験により、提案手法はTHUMOS14データセットにおける最先端のアプローチよりも優れており、ActivityNet1.3データセット上で同等のパフォーマンスが得られることが示された。 THUMOS14データセット上のA2Net (TIP20, Avg\{0.3:0.7\}), Sub-Action (CSVT2022, Avg\{0.1:0.5\}), AFSD (CVPR21, Avg\{0.3:0.7\}) と比較して, 提案手法はそれぞれ12.6\%, 17.4\%, 2.2\%の改善を達成できる。

Temporal action localization plays an important role in video analysis, which aims to localize and classify actions in untrimmed videos. The previous methods often predict actions on a feature space of a single-temporal scale. However, the temporal features of a low-level scale lack enough semantics for action classification while a high-level scale cannot provide rich details of the action boundaries. To address this issue, we propose to predict actions on a feature space of multi-temporal scales. Specifically, we use refined feature pyramids of different scales to pass semantics from high-level scales to low-level scales. Besides, to establish the long temporal scale of the entire video, we use a spatial-temporal transformer encoder to capture the long-range dependencies of video frames. Then the refined features with long-range dependencies are fed into a classifier for the coarse action prediction. Finally, to further improve the prediction accuracy, we propose to use a frame-level self attention module to refine the classification and boundaries of each action instance. Extensive experiments show that the proposed method can outperform state-of-the-art approaches on the THUMOS14 dataset and achieves comparable performance on the ActivityNet1.3 dataset. Compared with A2Net (TIP20, Avg\{0.3:0.7\}), Sub-Action (CSVT2022, Avg\{0.1:0.5\}), and AFSD (CVPR21, Avg\{0.3:0.7\}) on the THUMOS14 dataset, the proposed method can achieve improvements of 12.6\%, 17.4\% and 2.2\%, respectively
翻訳日:2022-08-17 12:30:53 公開日:2022-08-16
# SGM-Net:Semantic Guided Matting Net

SGM-Net: Semantic Guided Matting Net ( http://arxiv.org/abs/2208.07496v1 )

ライセンス: Link先を確認
Qing Song, Wenfeng Sun, Donghan Yang, Mengjie Hu, Chun Liu(参考訳) ヒューマン・マット(Human matting)とは、人間の毛髪、眼鏡、帽子などの細部情報を含む、品質の高い自然画像から人間の部分を取り出すこと。 この技術は、映画産業における画像合成と視覚効果において重要な役割を担っている。 グリーンスクリーンが利用できない場合、既存のヒューマン・マッティング法は、追加の入力(トリマップ、背景画像など)、あるいは計算コストが高く複雑なネットワーク構造を持つモデルを必要とするため、実際にヒト・マッティングを適用するのは非常に困難である。 このような問題を緩和するために、既存のほとんどの手法(MODNetなど)はマルチブランチを使用してセグメンテーションを通じてマッチングを行うが、これらの手法は画像の特徴を完全に活用せず、ネットワークの予測結果のみをガイダンス情報として利用する。 そこで我々は,前景の確率マップを生成し,それをMODNetに追加してセマンティックガイドマッチングネット(SGM-Net)を得るモジュールを提案する。 1枚の画像のみの状態では、人間のマットングタスクを実現できる。 P3M-10kデータセット上で本手法を検証する。 ベンチマークと比較すると,提案手法は様々な評価指標において著しく改善した。

Human matting refers to extracting human parts from natural images with high quality, including human detail information such as hair, glasses, hat, etc. This technology plays an essential role in image synthesis and visual effects in the film industry. When the green screen is not available, the existing human matting methods need the help of additional inputs (such as trimap, background image, etc.), or the model with high computational cost and complex network structure, which brings great difficulties to the application of human matting in practice. To alleviate such problems, most existing methods (such as MODNet) use multi-branches to pave the way for matting through segmentation, but these methods do not make full use of the image features and only utilize the prediction results of the network as guidance information. Therefore, we propose a module to generate foreground probability map and add it to MODNet to obtain Semantic Guided Matting Net (SGM-Net). Under the condition of only one image, we can realize the human matting task. We verify our method on the P3M-10k dataset. Compared with the benchmark, our method has significantly improved in various evaluation indicators.
翻訳日:2022-08-17 12:30:19 公開日:2022-08-16
# マルチスケール・多方向gaborフィルタを用いたカラー画像エッジ検出

Color Image Edge Detection using Multi-scale and Multi-directional Gabor filter ( http://arxiv.org/abs/2208.07503v1 )

ライセンス: Link先を確認
Yunhong Li, Yuandong Bi, Weichuan Zhang, Jie Ren and Jinni Chen(参考訳) 本稿では,入力カラー画像からエッジを得るために,マルチスケールのGaborフィルタを用いたカラーエッジ検出手法を提案する。 提案手法の主な利点は, 良好な耐雑音性を維持しつつ高いエッジ検出精度が得られることである。 提案手法は3つの側面から構成される: まず、RGB色像がCIE L*a*b*空間に変換される。 第2に、入力画像を滑らかにするためにGaborフィルタのセットを使用し、カラーエッジ強度マップを抽出し、ノイズロバスト性と正確なエッジ抽出を備えた新しいESMに融合する。 第3に、カニー検出器の経路に融合esmを埋め込み、ノイズロバストカラーエッジ検出器を生成する。 以上の結果から,提案検出器は検出精度とノイズ破砕性に優れた。

In this paper, a color edge detection method is proposed where the multi-scale Gabor filter are used to obtain edges from input color images. The main advantage of the proposed method is that high edge detection accuracy is attained while maintaining good noise robustness. The proposed method consists of three aspects: First, the RGB color image is converted to CIE L*a*b* space because of its wide coloring area and uniform color distribution. Second, a set of Gabor filters are used to smooth the input images and the color edge strength maps are extracted, which are fused into a new ESM with the noise robustness and accurate edge extraction. Third, Embedding the fused ESM in the route of the Canny detector yields a noise-robust color edge detector. The results show that the proposed detector has the better experience in detection accuracy and noise-robustness.
翻訳日:2022-08-17 12:29:59 公開日:2022-08-16
# ニューラルネットワークによる地震強度分布の予測

Prediction of Seismic Intensity Distributions Using Neural Networks ( http://arxiv.org/abs/2208.07565v1 )

ライセンス: Link先を確認
Koyu Mizutani, Haruki Mitarai, Kakeru Miyazaki, Ryugo Shimamura, Soichiro Kumano, and Toshihiko Yamasaki(参考訳) 地動予測方程式は地震強度分布の予測に一般的に用いられる。 しかし,一般に異常地震分布として知られる地下プレート構造が影響を受ける地震分布に適用することは容易ではない。 本研究では,ニューラルネットワークを用いた回帰と分類のハイブリッドを提案する。 提案モデルでは,分布を画像のような2次元データとして扱う。 本手法は, 地震強度分布, 異常分布を正確に予測できる。

The ground motion prediction equation is commonly used to predict the seismic intensity distribution. However, it is not easy to apply this method to seismic distributions affected by underground plate structures, which are commonly known as abnormal seismic distributions. This study proposes a hybrid of regression and classification approaches using neural networks. The proposed model treats the distributions as 2-dimensional data like an image. Our method can accurately predict seismic intensity distributions, even abnormal distributions.
翻訳日:2022-08-17 12:29:44 公開日:2022-08-16
# 弱教師付き物体検出のためのコントラスト学習による物体発見

Object Discovery via Contrastive Learning for Weakly Supervised Object Detection ( http://arxiv.org/abs/2208.07576v1 )

ライセンス: Link先を確認
Jinhwan Seo, Wonho Bae, Danica J. Sutherland, Junhyug Noh, Daijin Kim(参考訳) Weakly Supervised Object Detection (WSOD)は、画像レベルのアノテーションのみに基づいてトレーニングされたモデルを使用して、画像内のオブジェクトを検出するタスクである。 現在の最先端モデルは、自己監督されたインスタンスレベルの監視の恩恵を受けるが、弱い監視にはカウントや位置情報が含まれていないため、最も一般的な `argmax'' ラベル法は、オブジェクトの多くのインスタンスを無視することが多い。 この問題を軽減するために,オブジェクト発見と呼ばれる新しい複数インスタンスラベリング手法を提案する。 さらに,弱教師付きコントラスト損失(weakly supervised contrastive loss,wscl)と呼ばれる,サンプルのインスタンスレベル情報がない弱監督下での新しいコントラスト損失を導入する。 WSCLは、同じクラスにベクトルを埋め込むための一貫した機能を活用することで、オブジェクト発見のための信頼できる類似性しきい値を構築することを目的としています。 その結果,MS-COCO 2014 と 2017 と PASCAL VOC 2012 と PASCAL VOC 2007 の競争結果が得られた。

Weakly Supervised Object Detection (WSOD) is a task that detects objects in an image using a model trained only on image-level annotations. Current state-of-the-art models benefit from self-supervised instance-level supervision, but since weak supervision does not include count or location information, the most common ``argmax'' labeling method often ignores many instances of objects. To alleviate this issue, we propose a novel multiple instance labeling method called object discovery. We further introduce a new contrastive loss under weak supervision where no instance-level information is available for sampling, called weakly supervised contrastive loss (WSCL). WSCL aims to construct a credible similarity threshold for object discovery by leveraging consistent features for embedding vectors in the same class. As a result, we achieve new state-of-the-art results on MS-COCO 2014 and 2017 as well as PASCAL VOC 2012, and competitive results on PASCAL VOC 2007.
翻訳日:2022-08-17 12:29:39 公開日:2022-08-16
# マルチワード表現を検出するBERT(s)

BERT(s) to Detect Multiword Expressions ( http://arxiv.org/abs/2208.07832v1 )

ライセンス: Link先を確認
Damith Premasiri and Tharindu Ranasinghe(参考訳) MWE(Multiword Expression)は、全体の意味がその部分の意味から派生していない単語群である。 MWEの処理は、機械翻訳や用語抽出を含む多くの自然言語処理(NLP)アプリケーションにおいて重要である。 したがって、MWEの検出は一般的な研究テーマである。 本稿では,mwes検出タスクにおける最先端のニューラルトランスフォーマについて検討し,semeval-2016タスク10のデータセットにおけるいくつかのトランスフォーマモデルを実証的に評価した。 長短期記憶(LSTM)に基づいて,トランスフォーマーモデルが従来のニューラルモデルより優れていることを示す。 コードと事前訓練されたモデルは、コミュニティに無料で提供される。

Multiword expressions (MWEs) present groups of words in which the meaning of the whole is not derived from the meaning of its parts. The task of processing MWEs is crucial in many natural language processing (NLP) applications, including machine translation and terminology extraction. Therefore, detecting MWEs is a popular research theme. In this paper, we explore state-of-the-art neural transformers in the task of detecting MWEs.We empirically evaluate several transformer models in the dataset for SemEval-2016 Task 10: Detecting Minimal Semantic Units and their Meanings (DiMSUM). We show that transformer models outperform the previous neural models based on long short-term memory (LSTM). The code and pre-trained model will be made freely available to the community.
翻訳日:2022-08-17 12:26:37 公開日:2022-08-16
# 時間的概念ドリフトとアライメント:知識組織システムを時間とともに比較する実証的アプローチ

Temporal Concept Drift and Alignment: An empirical approach to comparing Knowledge Organization Systems over time ( http://arxiv.org/abs/2208.07835v1 )

ライセンス: Link先を確認
Sam Grabus (1), Peter Melville Logan (2), Jane Greenberg (1) ((1) Drexel University, (2) Temple University)(参考訳) 本研究では,知識組織システム(kos)における時間的概念ドリフトと時間的アライメントについて検討する。 1910年の議会図書館の主題見出し、2020年の高速トピック、自動インデックスを用いて比較分析を行った。 ユースケースは、90世紀の百科事典ブリタニカのサンプルを含む。 エントリは2つのアプローチでインデックス付けされた。 1) フルテキストインデックス化 2) 名前付きエンティティ認識はスタンフォードのNLPツールキットであるStanzaのエントリに基づいて行われ、エンティティは1910 LCSHとFAST Topicalを使用してHIVE(Helping Interdisciplinary Vocabulary Application)で自動的にインデックス付けされる。 分析は3つの目標に焦点を当てました 1) 1910年のlcsh生産物に排他的な結果の特定 2) 排他的集合において,当時のlcshから廃止され,時相概念ドリフトを示す用語を識別すること。 3)これらの非推奨用語の歴史的意義を探究する。 その結果、歴史的語彙は、KOSや歴史資源において、時間にわたって概念的ドリフトを表すアナクロニスティックな主題を生成できることを確認した。 KOSの変化を時間とともに研究し、歴史的人文科学資源の文脈化を改善する方法を示す。

This research explores temporal concept drift and temporal alignment in knowledge organization systems (KOS). A comparative analysis is pursued using the 1910 Library of Congress Subject Headings, 2020 FAST Topical, and automatic indexing. The use case involves a sample of 90 nineteenth-century Encyclopedia Britannica entries. The entries were indexed using two approaches: 1) full-text indexing; 2) Named Entity Recognition was performed upon the entries with Stanza, Stanford's NLP toolkit, and entities were automatically indexed with the Helping Interdisciplinary Vocabulary application (HIVE), using both 1910 LCSH and FAST Topical. The analysis focused on three goals: 1) identifying results that were exclusive to the 1910 LCSH output; 2) identifying terms in the exclusive set that have been deprecated from the contemporary LCSH, demonstrating temporal concept drift; and 3) exploring the historical significance of these deprecated terms. Results confirm that historical vocabularies can be used to generate anachronistic subject headings representing conceptual drift across time in KOS and historical resources. A methodological contribution is made demonstrating how to study changes in KOS over time and improve the contextualization of historical humanities resources.
翻訳日:2022-08-17 12:26:25 公開日:2022-08-16
# TexPrax: 倫理的でリアルタイムなデータ収集とアノテーションのためのメッセージングアプリケーション

TexPrax: A Messaging Application for Ethical, Real-time Data Collection and Annotation ( http://arxiv.org/abs/2208.07846v1 )

ライセンス: Link先を確認
Lorenz Stangier, Ji-Ung Lee, Yuxi Wang, Marvin M\"uller, Nicholas Frick, Joachim Metternich, and Iryna Gurevych(参考訳) タスク指向ダイアログデータの収集と注釈付けは,特に専門知識を必要とする専門分野において困難である。 同時に、インスタントメッセンジャーのような非公式なコミュニケーションチャネルが仕事でますます使われています。 これにより、これらのチャネルを通じて分散され、従業員によって手作業で処理される多くの作業関連情報がもたらされました。 この問題を軽減するために,作業関連チャットで発生する問題や原因,ソリューションを収集・注釈するメッセージングシステムであるTexPraxを提案する。 TexPraxはチャットボットを使用して、従業員に直接関与し、会話に軽量なアノテーションを提供し、ドキュメント作業を容易にする。 データプライバシとセキュリティ規則に従うため、エンド・ツー・エンドのメッセージ暗号化を使用して、従来のアノテーションツールよりもさまざまな利点があるデータを完全にコントロールします。 TexPraxをドイツの工場従業員とのユーザスタディで評価し、日々の作業中に発生する問題に対する解決策を同僚に尋ねる。 総じて,1027文を含むタスク指向のドイツ語対話201文を文レベルの専門家アノテーションで収集した。 我々のデータ分析により、実世界の会話には、コードスイッチング、同一エンティティの様々な略語、NLPシステムが扱うべき方言が頻繁に含まれていることが明らかになった。

Collecting and annotating task-oriented dialog data is difficult, especially for highly specific domains that require expert knowledge. At the same time, informal communication channels such as instant messengers are increasingly being used at work. This has led to a lot of work-relevant information that is disseminated through those channels and needs to be post-processed manually by the employees. To alleviate this problem, we present TexPrax, a messaging system to collect and annotate problems, causes, and solutions that occur in work-related chats. TexPrax uses a chatbot to directly engage the employees to provide lightweight annotations on their conversation and ease their documentation work. To comply with data privacy and security regulations, we use an end-to-end message encryption and give our users full control over their data which has various advantages over conventional annotation tools. We evaluate TexPrax in a user-study with German factory employees who ask their colleagues for solutions on problems that arise during their daily work. Overall, we collect 201 task-oriented German dialogues containing 1,027 sentences with sentence-level expert annotations. Our data analysis also reveals that real-world conversations frequently contain instances with code-switching, varying abbreviations for the same entity, and dialects which NLP systems should be able to handle.
翻訳日:2022-08-17 12:26:02 公開日:2022-08-16
# BERTifying Sinhala -- Sinhalaテキスト分類のための事前学習言語モデルの包括的解析

BERTifying Sinhala -- A Comprehensive Analysis of Pre-trained Language Models for Sinhala Text Classification ( http://arxiv.org/abs/2208.07864v1 )

ライセンス: Link先を確認
Vinura Dhananjaya, Piyumal Demotte, Surangika Ranathunga, Sanath Jayasena(参考訳) 本研究は,Sinhalaテキスト分類のための事前学習言語モデルの性能を包括的に分析する。 我々は,Sinhalaテキスト分類タスクの集合を検証した結果,XLM-R(XLM-R,LaBSE,LASER)を含む事前学習された多言語モデルのうち,XLM-Rは,Sinhalaテキスト分類において最良であることがわかった。 また,既存のSinhalaの学習済み言語モデルよりもはるかに優れている2つのRoBERTaベースのモノリンガルSinhalaモデルを事前訓練する。 これらの事前学習言語モデルは、微調整時にシンハラ文字分類の非常に強力なベースラインを設定し、微調整にラベル付きデータが不十分な状況において堅牢であることを示す。 さらに,sinhalaテキスト分類のための事前学習モデルの使用を推奨する。 また,sinhalaテキスト分類の将来研究に有用な新しい注釈付きデータセットを導入し,事前学習したモデルを公開する。

This research provides the first comprehensive analysis of the performance of pre-trained language models for Sinhala text classification. We test on a set of different Sinhala text classification tasks and our analysis shows that out of the pre-trained multilingual models that include Sinhala (XLM-R, LaBSE, and LASER), XLM-R is the best model by far for Sinhala text classification. We also pre-train two RoBERTa-based monolingual Sinhala models, which are far superior to the existing pre-trained language models for Sinhala. We show that when fine-tuned, these pre-trained language models set a very strong baseline for Sinhala text classification and are robust in situations where labeled data is insufficient for fine-tuning. We further provide a set of recommendations for using pre-trained models for Sinhala text classification. We also introduce new annotated datasets useful for future research in Sinhala text classification and publicly release our pre-trained models.
翻訳日:2022-08-17 12:25:42 公開日:2022-08-16
# スパイクニューラルネットワークに基づくコヒーレントIsingマシンによる組合せ最適化

Combinatorial optimization solving by coherent Ising machines based on spiking neural networks ( http://arxiv.org/abs/2208.07502v1 )

ライセンス: Link先を確認
Bo Lu, Yong-Pan Gao, Kai Wen, Chuan Wang(参考訳) スパイキングニューラルネットワークは、インテリジェンスレベルを改善し、量子コンピューティングのアドバテージを提供すると考えられている、ニューロモルフィックコンピューティングの一種である。 本稿では,光スパイキングニューラルネットワークを設計することでこの問題に対処し,特に組合せ最適化問題において,計算の高速化に有効であることを示す。 ここで、スパイキングニューラルネットワークは、反対称結合縮退光パラメトリック発振器パルスと散逸パルスによって構成される。 非線形伝達関数は、振幅の不均一性を緩和し、スパイキングニューロンの動的挙動に応じて結果の局所的なミニマを不安定化する。 スパイクニューラルネットワークコヒーレントイジングマシンは組合せ最適化問題において優れた性能を有しており,ニューラルコンピューティングと光コンピューティングに新たな応用が期待されている。

Spiking neural network is a kind of neuromorphic computing which is believed to improve on the level of intelligence and provide advabtages for quantum computing. In this work, we address this issue by designing an optical spiking neural network and prove that it can be used to accelerate the speed of computation, especially on the combinatorial optimization problems. Here the spiking neural network is constructed by the antisymmetrically coupled degenerate optical parametric oscillator pulses and dissipative pulses. A nonlinear transfer function is chosen to mitigate amplitude inhomogeneities and destabilize the resulting local minima according to the dynamical behavior of spiking neurons. It is numerically proved that the spiking neural network-coherent Ising machines has excellent performance on combinatorial optimization problems, for which is expected to offer a new applications for neural computing and optical computing.
翻訳日:2022-08-17 12:25:23 公開日:2022-08-16
# 人工免疫システムによる侵入検知システムの設計

Designing an Artificial Immune System inspired Intrusion Detection System ( http://arxiv.org/abs/2208.07801v1 )

ライセンス: Link先を確認
William Anderson and Kaneesha Moore and Jesse Ables and Sudip Mittal and Shahram Rahimi and Ioana Banicescu and Maria Seale(参考訳) ヒト免疫系(Human Immune System, HIS)は、人体を感染、病気、病気から守る。 このシステムは、サイバーセキュリティの専門家に人工免疫システム(AIS)ベースの侵入検知システム(IDS)を設計するよう促すことができる。 自己/非自己と危険理論を用いた生物学的にインスパイアされたこれらのアルゴリズムは、設計と実装を直接強化することができる。 本稿では,AIS-IDSフレームワークの構築に必要な設計要素について検討し,そのようなシステムを構築するためのアーキテクチャを提案する。

The Human Immune System (HIS) works to protect a body from infection, illness, and disease. This system can inspire cybersecurity professionals to design an Artificial Immune System (AIS) based Intrusion Detection System (IDS). These biologically inspired algorithms using Self/Nonself and Danger Theory can directly augmentIDS designs and implementations. In this paper, we include an examination into the elements of design necessary for building an AIS-IDS framework and present an architecture to create such systems.
翻訳日:2022-08-17 12:25:08 公開日:2022-08-16
# KRACL: Sparse Knowledge Graph Completionのためのグラフコンテキストモデリングによるコントラスト学習

KRACL: Contrastive Learning with Graph Context Modeling for Sparse Knowledge Graph Completion ( http://arxiv.org/abs/2208.07622v1 )

ライセンス: Link先を確認
Zhaoxuan Tan, Zilong Chen, Shangbin Feng, Qingyue Zhang, Qinghua Zheng, Jundong Li, Minnan Luo(参考訳) 知識グラフ埋め込み(KGE)は、エンティティと関係を低次元空間にマッピングすることを目的としており、知識グラフ補完の標準であるtextit{de-facto} となっている。 既存のKGE手法の多くは、知識グラフの頻度が低いエンティティを予測しにくいため、スパーシティの課題に悩まされている。 そこで本研究では,グラフコンテキストとコントラスト学習によるKGの広がりを緩和する新しいフレームワークKRACLを提案する。 まず,近隣の3つ組を異なる潜在空間に同時に投影し,アテンション機構でメッセージを協調的に集約することで,グラフコンテキストを活用する知識関係注意ネットワーク(KRAT)を提案する。 kratは、異なるコンテキストトリプルの微妙な意味情報と重要性を捉え、知識グラフでマルチホップ情報を活用することができる。 第2に,コントラスト損失とクロスエントロピー損失を組み合わせ,よりネガティブなサンプルを導入し,スパースエンティティに対するフィードバックを充実させることにより,知識の相反損失を提案する。 実験により、KRACLは様々な標準知識グラフベンチマーク、特に多数の低次エンティティを持つ WN18RR と NELL-995 において、優れた結果が得られることが示された。 広汎な実験は、KRACLがスパース知識グラフと雑音三重項に対する頑健性を扱うことにも耐える。

Knowledge Graph Embeddings (KGE) aim to map entities and relations to low dimensional spaces and have become the \textit{de-facto} standard for knowledge graph completion. Most existing KGE methods suffer from the sparsity challenge, where it is harder to predict entities that appear less frequently in knowledge graphs. In this work, we propose a novel framework KRACL to alleviate the widespread sparsity in KGs with graph context and contrastive learning. Firstly, we propose the Knowledge Relational Attention Network (KRAT) to leverage the graph context by simultaneously projecting neighboring triples to different latent spaces and jointly aggregating messages with the attention mechanism. KRAT is capable of capturing the subtle semantic information and importance of different context triples as well as leveraging multi-hop information in knowledge graphs. Secondly, we propose the knowledge contrastive loss by combining the contrastive loss with cross entropy loss, which introduces more negative samples and thus enriches the feedback to sparse entities. Our experiments demonstrate that KRACL achieves superior results across various standard knowledge graph benchmarks, especially on WN18RR and NELL-995 which have large numbers of low in-degree entities. Extensive experiments also bear out KRACL's effectiveness in handling sparse knowledge graphs and robustness against noisy triples.
翻訳日:2022-08-17 12:24:59 公開日:2022-08-16
# 政策共鳴法を用いたマルチエージェント強化学習における責任分散問題の解法

Solving the Diffusion of Responsibility Problem in Multiagent Reinforcement Learning with a Policy Resonance Approach ( http://arxiv.org/abs/2208.07753v1 )

ライセンス: Link先を確認
Qingxu Fu, Tenghai Qiu, Jianqiang Yi, Zhiqiang Pu, Xiaolin Ai, Wanmai Yuan(参考訳) マルチエージェント強化学習(MARL, Diffusion of Responsibility, DDR)における未発見問題について報告する。 drは、信頼できる責任分担の交渉に失敗し、高度な協力作業が完了する。 これは、価値ベースとポリシーベースのmarlメソッドの両方において、既存のアルゴリズムがマルチエージェント探索-探索ジレンマを扱う方法の欠陥を反映している。 このDR問題は、社会的心理学領域における同名現象と類似点を共有している。 本研究は,dr問題の原因を理論的に解析することから始まり,dr問題は報酬形成やクレジット割当問題とは無関係であることを強調する。 DR問題に対処するため,マルチエージェント探索・探索戦略を変更し,困難なMARLタスクにおけるMARLアルゴリズムの性能向上を図るためのポリシ共振法を提案する。 この手法は、DR問題に起因する性能劣化を解決するため、既存のほとんどのMARLアルゴリズムによって実装することができる。 診断マルチエージェント環境であるFMEや、競合マルチエージェントゲームであるADCAなど、複数のテストベンチマークタスクで実験が行われる。 最後に,SOTA MARLアルゴリズムにポリシー共振法を実装し,本手法の有効性を示す。

We report a previously undiscovered problem in multiagent reinforcement learning (MARL), named Diffusion of Responsibility (DR). DR causes failures in negotiating a reliable division of responsibilities to complete sophisticated cooperative tasks. It reflects a flaw in how existing algorithms deal with the multiagent exploration-exploitation dilemma in both value-based and policy-based MARL methods. This DR problem shares similarities with a same-name phenomenon in the social psychology domain, also known as the bystander effect. In this work, we start by theoretically analyzing the cause of the DR problem, and we emphasize that the DR problem is not relevant to the reward shaping or the credit assignment problems. To deal with the DR problem, we propose a Policy Resonance method to change the multiagent exploration-exploitation strategy and promote the performance of MARL algorithms in difficult MARL tasks. This method can be equipped by most existing MARL algorithms to resolve the performance degradation caused by the DR problem. Experiments are performed in multiple test benchmark tasks, including FME, a diagnostic multiagent environment, and ADCA, a competitive multiagent game. Finally, we implement the Policy Resonance method on SOTA MARL algorithms to illustrate the effectiveness of this approach.
翻訳日:2022-08-17 12:24:34 公開日:2022-08-16
# 最大独立集合問題に対する適応的繰り返し区間還元局所探索

An Adaptive Repeated-Intersection-Reduction Local Search for the Maximum Independent Set Problem ( http://arxiv.org/abs/2208.07777v1 )

ライセンス: Link先を確認
Enqiang Zhu, Yu Zhang and Chanjuan Liu(参考訳) 最大独立集合 (MIS) 問題は、様々な分野の広範な応用を持つ古典的なNPハード問題であり、その間にエッジを持たない最大の頂点集合を見つけることを目的としている。 計算の難易度のため、特に大きなグラフ上でMIS問題を効果的に解くことは困難である。 許容される時間内によい解を得るためのヒューリスティックなアプローチの採用は、文学において多くの注目を集めている。 本稿では, 適応型局所探索フレームワークと, インスタンスの簡易化のための新しい不正確な効率的な縮小規則の2つの主要な部分からなる, ARIR と呼ばれるMIS の効率的な局所探索アルゴリズムを提案する。 92のインスタンスを含む5つのベンチマークで実験を行う。 4つの最先端アルゴリズムと比較して、ARIRは89のインスタンスで最高の精度を提供し、残りの3つのインスタンスで競合する結果を得る。

The maximum independent set (MIS) problem, a classical NP-hard problem with extensive applications in various areas, aims to find a largest set of vertices with no edge among them. Due to its computational intractability, it is difficult to solve the MIS problem effectively, especially on large graphs. Employing heuristic approaches to obtain a good solution within an acceptable amount of time has attracted much attention in literature. In this paper, we propose an efficient local search algorithm for MIS called ARIR, which consists of two main parts: an adaptive local search framework, and a novel inexact efficient reduction rule to simplify instances. We conduct experiments on five benchmarks, encompassing 92 instances. Compared with four state-of-the-art algorithms, ARIR offers the best accuracy on 89 instances and obtains competitive results on the three remaining instances.
翻訳日:2022-08-17 12:24:11 公開日:2022-08-16
# SIERRA: 研究自動化と再現性のためのモジュールフレームワーク

SIERRA: A Modular Framework for Research Automation and Reproducibility ( http://arxiv.org/abs/2208.07805v1 )

ライセンス: Link先を確認
John Harwell, Maria Gini(参考訳) 現代の知的システム研究者は、システムの振る舞いに関する仮説を作り、1つ以上の独立した変数を使って実験を行い、仮説をテストする。 本稿では,研究の加速と成果の再現性向上のための新しい枠組みであるSIERRAを紹介する。 SIERRAは、独立変数上のクエリから実行可能な実験を自動生成し、実験を実行し、結果を処理してグラフやビデオなどの成果物を生成することによって研究を加速する。 仮説をテストするためのパラダイムをプロシーデュラル(“クエリに答えるためのこれらのステップ”)から宣言型(“ここではテスト--go!”)にシフトさせ、研究者の負担を軽減する。 個々の研究者のニーズに対するカスタマイズと拡張が容易なモジュールアーキテクチャを採用しており、手動による構成や処理を不要にしている。 SIERRAは、実行環境(HPCハードウェア、実ロボットなど)とターゲットプラットフォーム(軌道シミュレータ、実ロボットなど)とは無関係に自動化を提供することで、研究の再現性を向上させる。 これにより、実行環境とプラットフォームに制限のある正確な実験のレプリケーションが可能になり、研究者が異なる計算環境で仮説を簡単にテストできるようになる。

Modern intelligent systems researchers form hypotheses about system behavior and then run experiments using one or more independent variables to test their hypotheses. We present SIERRA, a novel framework structured around that idea for accelerating research development and improving reproducibility of results. SIERRA accelerates research by automating the process of generating executable experiments from queries over independent variables(s), executing experiments, and processing the results to generate deliverables such as graphs and videos. It shifts the paradigm for testing hypotheses from procedural ("Do these steps to answer the query") to declarative ("Here is the query to test--GO!"), reducing the burden on researchers. It employs a modular architecture enabling easy customization and extension for the needs of individual researchers, thereby eliminating manual configuration and processing via throw-away scripts. SIERRA improves reproducibility of research by providing automation independent of the execution environment (HPC hardware, real robots, etc.) and targeted platform (arbitrary simulator or real robots). This enables exact experiment replication, up to the limit of the execution environment and platform, as well as making it easy for researchers to test hypotheses in different computational environments.
翻訳日:2022-08-17 12:23:56 公開日:2022-08-16
# ニューラルネットワークに基づく極端量子化回帰のための統一的部分解釈可能なフレームワーク

A unifying partially-interpretable framework for neural network-based extreme quantile regression ( http://arxiv.org/abs/2208.07581v1 )

ライセンス: Link先を確認
Jordan Richards and Rapha\"el Huser(参考訳) 多くの環境環境でのリスク管理には、極端な出来事を引き起こすメカニズムを理解する必要がある。 このようなリスクを定量化するための有用な指標は、気候、生物圏、環境状態などの予測変数に条件づけられた応答変数の極端な定量値である。 通常、これらの量子は観測可能なデータの範囲外にあり、推定には回帰フレームワーク内のパラメトリック極値モデルの仕様が必要となる。 この文脈における古典的なアプローチは、予測変数と応答変数の間の線形あるいは付加的な関係を利用しており、その予測能力または計算効率のどちらかに苦しむ。 本稿では,複雑な非線形関係を捉え,高次元データによくスケールできる人工ニュートラルネットワークを用いて,極端に質的回帰を行うための新しい手法を提案する。 ニューラルネットワークの「ブラックボックス」の性質は、実践者がしばしば好む解釈可能性の望ましい特性を欠いていることを意味している。したがって、線形で付加的なモデルとディープラーニングを組み合わせて、統計的推論に使用できるが高い予測精度を維持する部分解釈可能なニューラルネットワークを作成する。 この手法を補完するために,分布の一般化された極値クラスに関連する有限低端点問題を克服する極値の新しい点過程モデルを提案する。 この統一フレームワークの有効性は,高次元予測器セットを用いた米国のワイルドファイアデータに示され,線形回帰法およびスプライン回帰法に比べて予測性能が大幅に向上することを示す。

Risk management in many environmental settings requires an understanding of the mechanisms that drive extreme events. Useful metrics for quantifying such risk are extreme quantiles of response variables conditioned on predictor variables that describe e.g., climate, biosphere and environmental states. Typically these quantiles lie outside the range of observable data and so, for estimation, require specification of parametric extreme value models within a regression framework. Classical approaches in this context utilise linear or additive relationships between predictor and response variables and suffer in either their predictive capabilities or computational efficiency; moreover, their simplicity is unlikely to capture the truly complex structures that lead to the creation of extreme wildfires. In this paper, we propose a new methodological framework for performing extreme quantile regression using artificial neutral networks, which are able to capture complex non-linear relationships and scale well to high-dimensional data. The "black box" nature of neural networks means that they lack the desirable trait of interpretability often favoured by practitioners; thus, we combine aspects of linear, and additive, models with deep learning to create partially interpretable neural networks that can be used for statistical inference but retain high prediction accuracy. To complement this methodology, we further propose a novel point process model for extreme values which overcomes the finite lower-endpoint problem associated with the generalised extreme value class of distributions. Efficacy of our unified framework is illustrated on U.S. wildfire data with a high-dimensional predictor set and we illustrate vast improvements in predictive performance over linear and spline-based regression techniques.
翻訳日:2022-08-17 12:20:17 公開日:2022-08-16
# マトロイド上の欠失ロバスト非モノトンサブモジュラー最大化

Deletion Robust Non-Monotone Submodular Maximization over Matroids ( http://arxiv.org/abs/2208.07582v1 )

ライセンス: Link先を確認
Paul D\"utting, Federico Fusco, Silvio Lattanzi, Ashkan Norouzi-Fard, Morteza Zadimoghaddam(参考訳) サブモジュラー関数の最大化は機械学習の基本的な課題であり、本論文では古典的なマトロイド制約の下で問題の削除ロバストなバージョンについて研究する。 ここでの目標は、敵がいくつかの要素を削除した後でも、高い値独立セットを含むデータセットの小さなサイズのサマリを抽出することである。 我々は,空間複雑性がマトロイドのランク $k$ と削除された要素の $d$ に依存する定数近似アルゴリズムを提案する。 中央集権的な設定では、$(4.597+o(\varepsilon))$近似アルゴリズムを示し、$o( \frac{k+d}{\varepsilon^2}\log \frac{k}{\varepsilon})$を$(3.582+o(\varepsilon))$近似で$o(k + \frac{d}{\varepsilon^2}\log \frac{k}{\varepsilon})$ summary sizeに改良する。 ストリーミング設定では、$(9.435 + o(\varepsilon)$-approximation algorithm with summary size and memory $o(k + \frac{d}{\varepsilon^2}\log \frac{k}{\varepsilon})$; 近似係数は単調の場合$(5.582+o(\varepsilon))$に改善される。

Maximizing a submodular function is a fundamental task in machine learning and in this paper we study the deletion robust version of the problem under the classic matroids constraint. Here the goal is to extract a small size summary of the dataset that contains a high value independent set even after an adversary deleted some elements. We present constant-factor approximation algorithms, whose space complexity depends on the rank $k$ of the matroid and the number $d$ of deleted elements. In the centralized setting we present a $(4.597+O(\varepsilon))$-approximation algorithm with summary size $O( \frac{k+d}{\varepsilon^2}\log \frac{k}{\varepsilon})$ that is improved to a $(3.582+O(\varepsilon))$-approximation with $O(k + \frac{d}{\varepsilon^2}\log \frac{k}{\varepsilon})$ summary size when the objective is monotone. In the streaming setting we provide a $(9.435 + O(\varepsilon))$-approximation algorithm with summary size and memory $O(k + \frac{d}{\varepsilon^2}\log \frac{k}{\varepsilon})$; the approximation factor is then improved to $(5.582+O(\varepsilon))$ in the monotone case.
翻訳日:2022-08-17 12:19:50 公開日:2022-08-16
# フーリエ解析バロン空間に対する$L^p$サンプリング数

$L^p$ sampling numbers for the Fourier-analytic Barron space ( http://arxiv.org/abs/2208.07605v1 )

ライセンス: Link先を確認
Felix Voigtlaender(参考訳) 本稿では、バロン函数 $f : [0,1]^d \to \mathbb{R}$ of smoothness $\sigma > 0$ を考えるが、これは \[f(x) = \int_{\mathbb{R}^d} F(\xi) \, e^{2 \pi i \langle x, \xi \rangle} \, d \xi \quad \text{with} \quad \int_{\mathbb{R}^d} |F(\xi)| \cdot (1 + |\xi|)^{\sigma} \, d \xi < \infty と書くことができる。 \]$\sigma = 1$の場合、これらの関数は次元の呪いに悩まされることなく、ニューラルネットワークによって効率的に近似できるため、機械学習において顕著な役割を果たす。 m$ 点サンプル $f(x_1),\dots,f(x_m)$ of a unknown Barron function $f : [0,1]^d \to \mathbb{R}$ of smoothness $\sigma$, $f$ をこれらの標本から回収し、サンプリングポイントと再構成手順を最適に選択するには、どのくらいの価値があるか? L^p$ by $s_m (\sigma; L^p)$で測定された最適再構成誤差を示すと、 \[ m^{- \frac{1}{\max \{ p,2 \}} - \frac{\sigma}{d}} \lesssim s_m(\sigma;L^p) \lesssim (\ln (e + m))^{\alpha(\sigma,d) / p} \cdot m^{- \frac{1}{\max \{ p,2 \}} - \frac{\sigma}{d}} である。

In this paper, we consider Barron functions $f : [0,1]^d \to \mathbb{R}$ of smoothness $\sigma > 0$, which are functions that can be written as \[ f(x) = \int_{\mathbb{R}^d} F(\xi) \, e^{2 \pi i \langle x, \xi \rangle} \, d \xi \quad \text{with} \quad \int_{\mathbb{R}^d} |F(\xi)| \cdot (1 + |\xi|)^{\sigma} \, d \xi < \infty. \] For $\sigma = 1$, these functions play a prominent role in machine learning, since they can be efficiently approximated by (shallow) neural networks without suffering from the curse of dimensionality. For these functions, we study the following question: Given $m$ point samples $f(x_1),\dots,f(x_m)$ of an unknown Barron function $f : [0,1]^d \to \mathbb{R}$ of smoothness $\sigma$, how well can $f$ be recovered from these samples, for an optimal choice of the sampling points and the reconstruction procedure? Denoting the optimal reconstruction error measured in $L^p$ by $s_m (\sigma; L^p)$, we show that \[ m^{- \frac{1}{\max \{ p,2 \}} - \frac{\sigma}{d}} \lesssim s_m(\sigma;L^p) \lesssim (\ln (e + m))^{\alpha(\sigma,d) / p} \cdot m^{- \frac{1}{\max \{ p,2 \}} - \frac{\sigma}{d}} , \] where the implied constants only depend on $\sigma$ and $d$ and where $\alpha(\sigma,d)$ stays bounded as $d \to \infty$.
翻訳日:2022-08-17 12:19:11 公開日:2022-08-16
# Coil2Coil:フェーズドアレイコイル画像を用いた自己監督型MR画像デノイング

Coil2Coil: Self-supervised MR image denoising using phased-array coil images ( http://arxiv.org/abs/2208.07552v1 )

ライセンス: Link先を確認
Juhyung Park, Dongwon Park, Hyeong-Geol Shin, Eun-Jung Choi, Hongjun An, Minjun Kim, Dongmyung Shin, Se Young Chun, and Jongho Lee(参考訳) 磁気共鳴画像のノイズ除去は低信号対雑音比画像の品質向上に有用である。 近年,深層ニューラルネットワークによるノイズ除去は有望な結果を示している。 しかし、これらのネットワークのほとんどは教師あり学習を利用しており、ノイズの破損とクリーンな画像ペアの大規模な訓練画像を必要とする。 トレーニングイメージ、特にクリーンなイメージを持つことは、高価で時間を要する。 そのため,ノイズ崩壊画像のペアのみを必要とするノイズ2ノイズ(N2N)などの手法が開発され,トレーニングデータセット取得の負担が軽減された。 本研究では, クリーンな画像の取得や, ペアのノイズ破損画像の学習を不要とする, 自己教師型デノベーション手法Coil2Coil (C2C)を提案する。 代わりに、フェーズドアレイコイルからのマルチチャネルデータを用いてトレーニング画像を生成する。 まず、マルチチャネルコイルイメージを、入力用とラベル用という2つの画像に分割して結合する。 そして、N2Nのトレーニング画像に使用できるように、ノイズ独立および感度正規化を課すように処理する。 推測のために、この方法はコイル結合された画像(例えばDICOM画像)を入力し、この方法の幅広い適用を可能にする。 合成ノイズ付加画像を用いて評価すると、C2Cは複数の自己教師付き手法に対して最高の性能を示し、教師付き手法に匹敵する結果を報告する。 DICOM画像をテストする際、C2Cはエラーマップに構造依存残差を示さずに実雑音を識別することに成功した。 クリーン画像やペア画像にスキャンを加える必要がないという大きな利点があるため、様々な臨床応用に容易に利用できる。

Denoising of magnetic resonance images is beneficial in improving the quality of low signal-to-noise ratio images. Recently, denoising using deep neural networks has demonstrated promising results. Most of these networks, however, utilize supervised learning, which requires large training images of noise-corrupted and clean image pairs. Obtaining training images, particularly clean images, is expensive and time-consuming. Hence, methods such as Noise2Noise (N2N) that require only pairs of noise-corrupted images have been developed to reduce the burden of obtaining training datasets. In this study, we propose a new self-supervised denoising method, Coil2Coil (C2C), that does not require the acquisition of clean images or paired noise-corrupted images for training. Instead, the method utilizes multichannel data from phased-array coils to generate training images. First, it divides and combines multichannel coil images into two images, one for input and the other for label. Then, they are processed to impose noise independence and sensitivity normalization such that they can be used for the training images of N2N. For inference, the method inputs a coil-combined image (e.g., DICOM image), enabling a wide application of the method. When evaluated using synthetic noise-added images, C2C shows the best performance against several self-supervised methods, reporting comparable outcomes to supervised methods. When testing the DICOM images, C2C successfully denoised real noise without showing structure-dependent residuals in the error maps. Because of the significant advantage of not requiring additional scans for clean or paired images, the method can be easily utilized for various clinical applications.
翻訳日:2022-08-17 12:17:59 公開日:2022-08-16
# 画像圧縮は顔認識における人種バイアスに影響を及ぼすか?

Does lossy image compression affect racial bias within face recognition? ( http://arxiv.org/abs/2208.07613v1 )

ライセンス: Link先を確認
Seyma Yucer, Matt Poyser, Noura Al Moubayed, Toby P. Breckon(参考訳) 本研究は,画像圧縮が顔認識アルゴリズムに与える影響を,被験者の人種的特徴について検討するものである。 我々は、最近提案された人種的表現型に基づくバイアス分析手法を採用し、人種的表現型カテゴリーの様々なレベルの損失圧縮の効果を測定する。 さらに,クロマサブサンプリングとレース関連表現型との関係について検討した。 従来の研究では、JPEG圧縮アルゴリズムが現代の顔認識性能に与える影響について検討した。 しかし、この影響が人種間の異なるグループやその原因によってどのように異なるかにはギャップがある。 広範に実験的に検討した結果, 画像圧縮の一般的な手法は, より暗い肌色(最大34.55\%)などの特定の人種的表現型カテゴリの顔認識性能に悪影響を及ぼすことが示された。 さらに、圧縮中のクロマサブサンプリングの除去は、より暗い肌のトーン、広い鼻、大きな唇、モノリッド眼のカテゴリを含むすべての表現型カテゴリの偽マッチング率(最大15.95%)を向上させる。 また,JPEGなどの圧縮アルゴリズムにおいて,このような現象の原因となる特性について概説する。

Yes - This study investigates the impact of commonplace lossy image compression on face recognition algorithms with regard to the racial characteristics of the subject. We adopt a recently proposed racial phenotype-based bias analysis methodology to measure the effect of varying levels of lossy compression across racial phenotype categories. Additionally, we determine the relationship between chroma-subsampling and race-related phenotypes for recognition performance. Prior work investigates the impact of lossy JPEG compression algorithm on contemporary face recognition performance. However, there is a gap in how this impact varies with different race-related inter-sectional groups and the cause of this impact. Via an extensive experimental setup, we demonstrate that common lossy image compression approaches have a more pronounced negative impact on facial recognition performance for specific racial phenotype categories such as darker skin tones (by up to 34.55\%). Furthermore, removing chroma-subsampling during compression improves the false matching rate (up to 15.95\%) across all phenotype categories affected by the compression, including darker skin tones, wide noses, big lips, and monolid eye categories. In addition, we outline the characteristics that may be attributable as the underlying cause of such phenomenon for lossy compression algorithms such as JPEG.
翻訳日:2022-08-17 12:17:34 公開日:2022-08-16
# ACOPF最適化プロキシのためのアクティブバケタイズ学習

Active Bucketized Learning for ACOPF Optimization Proxies ( http://arxiv.org/abs/2208.07497v1 )

ライセンス: Link先を確認
Michael Klamkin, Mathieu Tanneau, Terrence W.K. Mak, Pascal Van Hentenryck(参考訳) 本稿では,OPFの入力/出力関係を近似する機械学習モデルであるOPFの最適化プロキシについて考察する。 最近の研究は、そのようなプロキシが高忠実であることを示すことに重点を置いている。 しかし、それらのトレーニングには重要なデータが必要であり、各インスタンスは入力分布のサンプルに対してOPFの(オフライン)解決を必要とする。 マーケットクリーニングアプリケーションの要件を満たすため,本研究では,最高のOPFプロキシをタイムリミット内でトレーニングすることを目的とした,新たなアクティブラーニングフレームワークであるActive Bucketized Smpling(ABS)を提案する。 ABSは入力分布をバケットに分割し、次にサンプリングする場所を決定するために取得関数を使用する。 時間とともに増減する適応学習率に依存している。 実験結果はABSの利点を示している。

This paper considers optimization proxies for Optimal Power Flow (OPF), i.e., machine-learning models that approximate the input/output relationship of OPF. Recent work has focused on showing that such proxies can be of high fidelity. However, their training requires significant data, each instance necessitating the (offline) solving of an OPF for a sample of the input distribution. To meet the requirements of market-clearing applications, this paper proposes Active Bucketized Sampling (ABS), a novel active learning framework that aims at training the best possible OPF proxy within a time limit. ABS partitions the input distribution into buckets and uses an acquisition function to determine where to sample next. It relies on an adaptive learning rate that increases and decreases over time. Experimental results demonstrate the benefits of ABS.
翻訳日:2022-08-17 12:17:15 公開日:2022-08-16
# スコアに基づく拡散はアニール化重要度サンプリングを満たす

Score-Based Diffusion meets Annealed Importance Sampling ( http://arxiv.org/abs/2208.07698v1 )

ライセンス: Link先を確認
Arnaud Doucet, Will Grathwohl, Alexander G. D. G. Matthews, Heiko Strathmann(参考訳) 導入から20年以上経っても、Annealed Importance Smpling (AIS) は残差推定の最も効果的な方法の1つである。 これは、トラクタブルな初期分布と、非同次マルコフ連鎖を用いて概してシミュレートした関心のターゲット分布の間の補間する分布列に依存する。 限界確率の重要推定値を得るため、AISはマルコフ連鎖の提案を再重み付けするために拡張目標分布を導入する。 中間分布とそれに対応するマルコフカーネルを変更することで、AISが使用する提案分布の改善に多くの努力が注がれているが、AISは便利だが最適に拡張されたターゲット分布を使用している。 これによりパフォーマンスが損なわれる。 本稿では,最近のスコアベース生成モデル(sgm)の進歩を利用して,ランジュバンとハミルトニアンダイナミクスの離散化に対応するais提案の最適拡張目標分布を近似する。 本稿では,多くのベンチマーク分布と変分自動エンコーダに関する新しいAIS手順を実証する。

More than twenty years after its introduction, Annealed Importance Sampling (AIS) remains one of the most effective methods for marginal likelihood estimation. It relies on a sequence of distributions interpolating between a tractable initial distribution and the target distribution of interest which we simulate from approximately using a non-homogeneous Markov chain. To obtain an importance sampling estimate of the marginal likelihood, AIS introduces an extended target distribution to reweight the Markov chain proposal. While much effort has been devoted to improving the proposal distribution used by AIS, by changing the intermediate distributions and corresponding Markov kernels, an underappreciated issue is that AIS uses a convenient but suboptimal extended target distribution. This can hinder its performance. We here leverage recent progress in score-based generative modeling (SGM) to approximate the optimal extended target distribution for AIS proposals corresponding to the discretization of Langevin and Hamiltonian dynamics. We demonstrate these novel, differentiable, AIS procedures on a number of synthetic benchmark distributions and variational auto-encoders.
翻訳日:2022-08-17 12:13:08 公開日:2022-08-16
# 不確実性誘導のソースフリードメイン適応

Uncertainty-guided Source-free Domain Adaptation ( http://arxiv.org/abs/2208.07591v1 )

ライセンス: Link先を確認
Subhankar Roy, Martin Trapp, Andrea Pilzer, Juho Kannala, Nicu Sebe, Elisa Ricci, Arno Solin(参考訳) source-free domain adaptation (sfda) は、事前訓練されたソースモデルのみを使用して、分類器をラベルなしのターゲットデータセットに適応させることを目的としている。 しかし、ソースデータの欠如とドメインシフトにより、ターゲットデータの予測が信頼性に欠ける。 本稿では,ソースモデル予測の不確かさを定量化し,それを利用して目標適応を導出する。 そこで本研究では,ネットワークパラメータに先立ってモデル予測を導出することにより,確率的情報源モデルを構築する。 ラプラス近似を用いて不確かさを推定し、ソース多様体に属さない対象データポイントを識別し、対象データに関する相互情報を最大化する際にそれらの重み付けを行う。 最近の研究とは異なり、確率的処理は計算的に軽量であり、ソーストレーニングとターゲット適応を分離し、特別なソーストレーニングやモデルアーキテクチャの変更を必要としない。 クローズドセットとオープンセットの設定において、従来のSFDAよりも不確実性誘導SFDAの利点を示し、チューニングなしでも、我々のアプローチが強いドメインシフトに対してより堅牢であることを示す実証的な証拠を提供する。

Source-free domain adaptation (SFDA) aims to adapt a classifier to an unlabelled target data set by only using a pre-trained source model. However, the absence of the source data and the domain shift makes the predictions on the target data unreliable. We propose quantifying the uncertainty in the source model predictions and utilizing it to guide the target adaptation. For this, we construct a probabilistic source model by incorporating priors on the network parameters inducing a distribution over the model predictions. Uncertainties are estimated by employing a Laplace approximation and incorporated to identify target data points that do not lie in the source manifold and to down-weight them when maximizing the mutual information on the target data. Unlike recent works, our probabilistic treatment is computationally lightweight, decouples source training and target adaptation, and requires no specialized source training or changes of the model architecture. We show the advantages of uncertainty-guided SFDA over traditional SFDA in the closed-set and open-set settings and provide empirical evidence that our approach is more robust to strong domain shifts even without tuning.
翻訳日:2022-08-17 12:12:51 公開日:2022-08-16
# ドメイン一般化顔アンチスプーフィングのための顔の表情表現の学習

Learning Facial Liveness Representation for Domain Generalized Face Anti-spoofing ( http://arxiv.org/abs/2208.07828v1 )

ライセンス: Link先を確認
Zih-Ching Chen, Lin-Hsi Tsao, Chin-Lun Fu, Shang-Fu Chen, Yu-Chiang Frank Wang(参考訳) Face Anti-Spoofing (FAS) は、顔のスプーフ攻撃と、関連する分類タスクを実行するための適切なモデルを学ぶことによって一般的にアプローチされる認証攻撃を区別することを目的としている。 実際、そのようなモデルは異なる画像領域のFASに一般化されることを期待する。 さらに、spoof攻撃の種類が事前に分かっていると仮定するのは現実的ではない。 本稿では、前述のドメイン一般化顔のアンチスプーフィングタスクに対処するためのディープラーニングモデルを提案する。 特に,提案するネットワークは,無関係なネットワーク(顔コンテンツや画像領域の特徴)から顔のライブネス表現を分離することができる。 結果の生存度表現は十分な領域不変性を示し、ドメイン一般化FASの実行に適用することができる。 実験では,5つのベンチマークデータセットをさまざまな設定で実験し,そのモデルが未知の画像領域における新しいタイプのスプーフ攻撃を特定する上で,最先端のアプローチに対して良好に動作することを確認した。

Face anti-spoofing (FAS) aims at distinguishing face spoof attacks from the authentic ones, which is typically approached by learning proper models for performing the associated classification task. In practice, one would expect such models to be generalized to FAS in different image domains. Moreover, it is not practical to assume that the type of spoof attacks would be known in advance. In this paper, we propose a deep learning model for addressing the aforementioned domain-generalized face anti-spoofing task. In particular, our proposed network is able to disentangle facial liveness representation from the irrelevant ones (i.e., facial content and image domain features). The resulting liveness representation exhibits sufficient domain invariant properties, and thus it can be applied for performing domain-generalized FAS. In our experiments, we conduct experiments on five benchmark datasets with various settings, and we verify that our model performs favorably against state-of-the-art approaches in identifying novel types of spoof attacks in unseen image domains.
翻訳日:2022-08-17 12:12:33 公開日:2022-08-16
# 大規模言語モデルを用いたアドホックタスク適応のためのインタラクティブおよびビジュアルプロンプトエンジニアリング

Interactive and Visual Prompt Engineering for Ad-hoc Task Adaptation with Large Language Models ( http://arxiv.org/abs/2208.07852v1 )

ライセンス: Link先を確認
Hendrik Strobelt, Albert Webson, Victor Sanh, Benjamin Hoover, Johanna Beyer, Hanspeter Pfister, and Alexander M. Rush(参考訳) 最先端のニューラルネットワークモデルは、教師付きトレーニングなしでゼロショットプロンプトによって、アドホックな言語タスクを解決するために使用することができる。 このアプローチは近年普及しており、研究者は特定のNLPタスクに対して高い精度を達成するプロンプトを証明している。 しかし、新しいタスクのプロンプトを見つけるには実験が必要です。 異なる単語選択の異なるプロンプトテンプレートは、かなりの精度の違いをもたらす。 PromptIDEを使えば、ユーザはプロンプトのバリエーションを試すことができ、プロンプトのパフォーマンスを視覚化し、繰り返しプロンプトを最適化できる。 我々は、ユーザがまず小さなデータを使ってモデルフィードバックにフォーカスするワークフローを開発し、次にタスクの定量的測定を用いて、有望なプロンプトを実証的にグラウンドディングできる大規模なデータ体制に移行した。 このツールを使うと、新しく作成されたアドホックモデルのデプロイが容易になる。 我々は,PromptIDE(http://prompt.vizhub.ai.demo)と実世界のいくつかのユースケースを用いたワークフローの有用性を実演する。

State-of-the-art neural language models can now be used to solve ad-hoc language tasks through zero-shot prompting without the need for supervised training. This approach has gained popularity in recent years, and researchers have demonstrated prompts that achieve strong accuracy on specific NLP tasks. However, finding a prompt for new tasks requires experimentation. Different prompt templates with different wording choices lead to significant accuracy differences. PromptIDE allows users to experiment with prompt variations, visualize prompt performance, and iteratively optimize prompts. We developed a workflow that allows users to first focus on model feedback using small data before moving on to a large data regime that allows empirical grounding of promising prompts using quantitative measures of the task. The tool then allows easy deployment of the newly created ad-hoc models. We demonstrate the utility of PromptIDE (demo at http://prompt.vizhub.ai) and our workflow using several real-world use cases.
翻訳日:2022-08-17 12:12:13 公開日:2022-08-16
# CTI4AI: レッドチームAIモデル後の脅威インテリジェンス生成と共有

CTI4AI: Threat Intelligence Generation and Sharing after Red Teaming AI Models ( http://arxiv.org/abs/2208.07476v1 )

ライセンス: Link先を確認
Chuyen Nguyen and Caleb Morgan and Sudip Mittal(参考訳) 人工知能(ai)と機械学習(ml)ベースの技術の実用性が高まるにつれて、敵対的な攻撃の脅威がますます高まっている。 システムの脆弱性、潜在的な脅威、システムの堅牢性を高めるプロパティの特徴付け、効果的な防御の創造を促進するために、このエコシステムを再編成する必要がある。 二次的なニーズは、このAIセキュリティ脅威インテリジェンスを、モデル開発者、ユーザ、AI/MLセキュリティ専門家など、さまざまなステークホルダ間で共有することだ。 本稿では,AI/ML固有の脆弱性と脅威知能を体系的に識別し,共有する必要性を克服するために,プロトタイプシステムCTI4AIを作成し,記述する。

As the practicality of Artificial Intelligence (AI) and Machine Learning (ML) based techniques grow, there is an ever increasing threat of adversarial attacks. There is a need to red team this ecosystem to identify system vulnerabilities, potential threats, characterize properties that will enhance system robustness, and encourage the creation of effective defenses. A secondary need is to share this AI security threat intelligence between different stakeholders like, model developers, users, and AI/ML security professionals. In this paper, we create and describe a prototype system CTI4AI, to overcome the need to methodically identify and share AI/ML specific vulnerabilities and threat intelligence.
翻訳日:2022-08-17 12:11:57 公開日:2022-08-16
# 5G/6Gアーキテクチャとディープラーニングの収束性について

A Review of the Convergence of 5G/6G Architecture and Deep Learning ( http://arxiv.org/abs/2208.07643v1 )

ライセンス: Link先を確認
Olusola T. Odeyomi, Olubiyi O. Akintade, Temitayo O. Olowu, and Gergely Zaruba(参考訳) 5gアーキテクチャとディープラーニングの融合は、無線通信と人工知能の両方の分野で多くの研究の関心を集めている。 これは、ディープラーニング技術が5Gアーキテクチャを構成する5G技術の潜在的な原動力であると認識されているためである。 したがって、5Gアーキテクチャとディープラーニングの収束に関する広範な調査が行われた。 しかし、既存の調査論文のほとんどは、ディープラーニングが特定の5G技術にどのように収束するかに焦点を当てており、5Gアーキテクチャの全スペクトルをカバーしていない。 最近の調査論文は堅牢であるように思われるが、この論文のレビューでは、ディープラーニングと5gテクノロジの収束を具体的にカバーする構造が整っていないことが示されている。 そこで本稿では,鍵となる5g技術と深層学習の融合について概説する。 このような収束によって直面する課題について論じる。 さらに,今後の6gアーキテクチャの概要と,ディープラーニングにどのように収束するかについても述べる。

The convergence of 5G architecture and deep learning has gained a lot of research interests in both the fields of wireless communication and artificial intelligence. This is because deep learning technologies have been identified to be the potential driver of the 5G technologies, that make up the 5G architecture. Hence, there have been extensive surveys on the convergence of 5G architecture and deep learning. However, most of the existing survey papers mainly focused on how deep learning can converge with a specific 5G technology, thus, not covering the full spectrum of the 5G architecture. Although there is a recent survey paper that appears to be robust, a review of that paper shows that it is not well structured to specifically cover the convergence of deep learning and the 5G technologies. Hence, this paper provides a robust overview of the convergence of the key 5G technologies and deep learning. The challenges faced by such convergence are discussed. In addition, a brief overview of the future 6G architecture, and how it can converge with deep learning is also discussed.
翻訳日:2022-08-17 12:11:43 公開日:2022-08-16
# 連続領域における2レベル計画のための無視効果を持つ学習演算子

Learning Operators with Ignore Effects for Bilevel Planning in Continuous Domains ( http://arxiv.org/abs/2208.07737v1 )

ライセンス: Link先を確認
Nishanth Kumar, Willie McClinton, Rohan Chitnis, Tom Silver, Tom\'as Lozano-P\'erez, Leslie Pack Kaelbling(参考訳) 環境の抽象化をハイレベルに探索して低レベルの意思決定を導く二段階計画は、連続状態や行動空間における長期的タスクの解決に有効な手法である。 近年の研究では、そのような二段階計画を可能にする行動抽象化が、既知の目標を達成する象徴的な述語や実証を与えられた記号演算子やニューラルサンプリングの形で学習できることが示されている。 本研究では,行動が多くの述語の変化を引き起こす環境において,既存のアプローチが不足していることを示す。 この問題に対処するために,無視効果を持つ演算子を学習することを提案する。 我々のアプローチを動機づける重要なアイデアは、述語におけるすべての観測された変化をモデル化することは不要であり、モデル化される唯一の変更は、指定された目標を達成するために高レベルの探索を必要とするものである。 実験により,提案手法は6つのハイブリッドロボットドメインにまたがる無視効果を持つオペレーターを学習できることを示し,エージェントが異なる初期状態,目標,対象数の異なるタスクの新たなバリエーションを,複数のベースラインよりも有意に効率的に解くことができることを示した。

Bilevel planning, in which a high-level search over an abstraction of an environment is used to guide low-level decision making, is an effective approach to solving long-horizon tasks in continuous state and action spaces. Recent work has shown that action abstractions that enable such bilevel planning can be learned in the form of symbolic operators and neural samplers given symbolic predicates and demonstrations that achieve known goals. In this work, we show that existing approaches fall short in environments where actions tend to cause a large number of predicates to change. To address this issue, we propose to learn operators with ignore effects. The key idea motivating our approach is that modeling every observed change in the predicates is unnecessary; the only changes that need be modeled are those that are necessary for high-level search to achieve the specified goal. Experimentally, we show that our approach is able to learn operators with ignore effects across six hybrid robotic domains that enable an agent to solve novel variations of a task, with different initial states, goals, and numbers of objects, significantly more efficiently than several baselines.
翻訳日:2022-08-17 12:11:11 公開日:2022-08-16
# 時空間交通データ回復のための潜在特徴分析に基づくアプローチ

A Latent Feature Analysis-based Approach for Spatio-Temporal Traffic Data Recovery ( http://arxiv.org/abs/2208.07739v1 )

ライセンス: Link先を確認
Yuting Ding, Di Wu(参考訳) データの欠落は、データ駆動インテリジェントトランスポートシステム(ITS)において必然的かつ一般的な問題である。 過去10年間、研究者は交通データ不足の回復について多くの研究を行ってきたが、回復性能を改善するために時空間の交通パターンをフル活用する方法は依然として未解決の問題である。 本稿では,トラヒック速度データの時空間的特性に着目して,欠落データの回復を行列補完問題とし,不完全データから時空間的パターンや基礎構造を検出する隠れ特徴解析に基づく時空間的トラヒックデータ補完手法を提案する。 そこで,各次元の主な特徴を捉えるために,空間的・時間的相関を導入する。 最後に、これらの潜在機能は、潜在機能分析を通じてトラフィックデータをリカバリするために適用される。 実験および評価結果は,モデルの評価基準値が小さいことを示し,モデルの性能が向上したことを示す。 その結果,連続的欠落データを正確に推定できることがわかった。

Missing data is an inevitable and common problem in data-driven intelligent transportation systems (ITS). In the past decade, scholars have done many research on the recovery of missing traffic data, however how to make full use of spatio-temporal traffic patterns to improve the recovery performance is still an open problem. Aiming at the spatio-temporal characteristics of traffic speed data, this paper regards the recovery of missing data as a matrix completion problem, and proposes a spatio-temporal traffic data completion method based on hidden feature analysis, which discovers spatio-temporal patterns and underlying structures from incomplete data to complete the recovery task. Therefore, we introduce spatial and temporal correlation to capture the main underlying features of each dimension. Finally, these latent features are applied to recovery traffic data through latent feature analysis. The experimental and evaluation results show that the evaluation criterion value of the model is small, which indicates that the model has better performance. The results show that the model can accurately estimate the continuous missing data.
翻訳日:2022-08-17 12:10:52 公開日:2022-08-16
# ウェアラブル用多レベルコントラストネットワーク : 関節活動セグメンテーションと認識

Multi-level Contrast Network for Wearables-based Joint Activity Segmentation and Recognition ( http://arxiv.org/abs/2208.07547v1 )

ライセンス: Link先を確認
Songpengcheng Xia, Lei Chu, Ling Pei, Wenxian Yu, Robert C. Qiu(参考訳) ウェアラブルを用いたヒューマンアクティビティ認識(har)は、多くのスマートヘルスケアアプリケーションで広く採用される研究に有望である。 近年,ディープラーニングに基づくHARモデルは,音声認識性能が向上している。 しかし、ほとんどのHARアルゴリズムは、必要不可欠なが滅多に利用されないマルチクラスウィンドウ問題の影響を受けやすい。 本稿では,HARにセグメンテーション技術を導入し,共同活動セグメンテーションと認識を実現することで,この課題を解決することを提案する。 特に,多段時相畳み込みネットワーク(ms-tcn)アーキテクチャを導入して,関節セグメントに対するサンプルレベルの活動予測を行い,活動シーケンスを認識する。 さらに,クラス間類似性とクラス内不均一性に対するharのロバスト性を高めるために,サンプルレベルとセグメントレベルのコントラストを含むマルチレベルコントラスト損失が,アクティビティセグメンテーションと認識性能を改善するための構造的埋め込み空間を学習するために提案されている。 最後に,提案手法の有効性を2つの公開HARデータセットで検証し,各種評価指標の大幅な改善を実現した。

Human activity recognition (HAR) with wearables is promising research that can be widely adopted in many smart healthcare applications. In recent years, the deep learning-based HAR models have achieved impressive recognition performance. However, most HAR algorithms are susceptible to the multi-class windows problem that is essential yet rarely exploited. In this paper, we propose to relieve this challenging problem by introducing the segmentation technology into HAR, yielding joint activity segmentation and recognition. Especially, we introduce the Multi-Stage Temporal Convolutional Network (MS-TCN) architecture for sample-level activity prediction to joint segment and recognize the activity sequence. Furthermore, to enhance the robustness of HAR against the inter-class similarity and intra-class heterogeneity, a multi-level contrastive loss, containing the sample-level and segment-level contrast, has been proposed to learn a well-structured embedding space for better activity segmentation and recognition performance. Finally, with comprehensive experiments, we verify the effectiveness of the proposed method on two public HAR datasets, achieving significant improvements in the various evaluation metrics.
翻訳日:2022-08-17 12:07:21 公開日:2022-08-16
# 3次元室内シーンの言語誘導意味スタイル伝達

Language-guided Semantic Style Transfer of 3D Indoor Scenes ( http://arxiv.org/abs/2208.07870v1 )

ライセンス: Link先を確認
Bu Jin, Beiwen Tian, Hao Zhao, Guyue Zhou(参考訳) 本稿では,3次元屋内シーンの言語誘導型セマンティックスタイル転送の新たな課題に対処する。 入力は3D屋内シーンメッシュと、ターゲットシーンを記述するいくつかのフレーズである。 まず、3次元頂点座標を多層パーセプトロンによりRGB残基にマッピングする。 第二に、色付きの3Dメッシュは、屋内シーン用に調整された視点サンプリング戦略によって、2D画像に微分変換される。 第三に、レンダリングされた2D画像は、事前訓練された視覚言語モデルを介してフレーズと比較される。 最後に、エラーは多層パーセプトロンにバックプロパガンダされ、特定のセマンティックカテゴリに対応する頂点色を更新する。 ScanNetとSceneNNのデータセットを用いて,大規模定性分析とA/Bユーザテストを行った。 1) マルチメディアアプリケーションで潜在的に有用な視覚的な満足度の高い結果を示す。 2)人間との整合性の観点から3次元屋内シーンのレンダリングが重要である。 (3)セマンティクスを組み込むことで、スタイル転送品質が大幅に向上する。 (4) HSV 正規化項は、入力とより整合性があり、一般にはより良く評価される結果をもたらす。 コードとユーザスタディツールボックスはhttps://github.com/air-discover/lasstで入手できる。

We address the new problem of language-guided semantic style transfer of 3D indoor scenes. The input is a 3D indoor scene mesh and several phrases that describe the target scene. Firstly, 3D vertex coordinates are mapped to RGB residues by a multi-layer perceptron. Secondly, colored 3D meshes are differentiablly rendered into 2D images, via a viewpoint sampling strategy tailored for indoor scenes. Thirdly, rendered 2D images are compared to phrases, via pre-trained vision-language models. Lastly, errors are back-propagated to the multi-layer perceptron to update vertex colors corresponding to certain semantic categories. We did large-scale qualitative analyses and A/B user tests, with the public ScanNet and SceneNN datasets. We demonstrate: (1) visually pleasing results that are potentially useful for multimedia applications. (2) rendering 3D indoor scenes from viewpoints consistent with human priors is important. (3) incorporating semantics significantly improve style transfer quality. (4) an HSV regularization term leads to results that are more consistent with inputs and generally rated better. Codes and user study toolbox are available at https://github.com/AIR-DISCOVER/LASST
翻訳日:2022-08-17 12:07:00 公開日:2022-08-16
# テンソル因子化による画像セグメンテーションの出現モデルの推定

Estimating Appearance Models for Image Segmentation via Tensor Factorization ( http://arxiv.org/abs/2208.07853v1 )

ライセンス: Link先を確認
Jeova Farias Sales Rocha Neto(参考訳) イメージセグメンテーションはコンピュータビジョンのコアタスクの1つであり、画像の外観データをその構成領域の色分布でモデル化することに依存することが多い。 多くのセグメンテーションアルゴリズムが交互あるいは暗黙的手法を用いて出現モデルの依存を処理するのに対し、本手法では、下位セグメンテーションに関する事前情報なしで画像からそれらを直接推定する新しい手法を提案する。 本手法では,画像からの局所高次色統計を,潜在変数モデルのテンソル分解に基づく推定器への入力として用いる。 このアプローチは、マルチリージョン画像のモデルを推定し、事前のユーザインタラクションを伴わずに自動的に領域比率を出力し、この問題に対する以前の試みの欠点を克服する。 また,提案手法の性能を,多くの難解な合成・実画像シナリオで実証し,効率的なセグメンテーションアルゴリズムをもたらすことを示す。

Image Segmentation is one of the core tasks in Computer Vision and solving it often depends on modeling the image appearance data via the color distributions of each it its constituent regions. Whereas many segmentation algorithms handle the appearance models dependence using alternation or implicit methods, we propose here a new approach to directly estimate them from the image without prior information on the underlying segmentation. Our method uses local high order color statistics from the image as an input to tensor factorization-based estimator for latent variable models. This approach is able to estimate models in multiregion images and automatically output the regions proportions without prior user interaction, overcoming the drawbacks from a prior attempt to this problem. We also demonstrate the performance of our proposed method in many challenging synthetic and real imaging scenarios and show that it leads to an efficient segmentation algorithm.
翻訳日:2022-08-17 12:06:32 公開日:2022-08-16
# 知識インジェクション型連合学習

Knowledge-Injected Federated Learning ( http://arxiv.org/abs/2208.07530v1 )

ライセンス: Link先を確認
Zhenan Fan, Zirui Zhou, Jian Pei, Michael P. Friedlander, Jiajie Hu, Chengliang Li, Yong Zhang(参考訳) フェデレーション学習は、分散データセットからモデルをトレーニングするための新興技術である。 多くのアプリケーションでは、フェデレーション学習システムに参加しているデータオーナーは、データだけでなく、一連のドメイン知識も保持する。 そのような知識には人間のノウハウと職人技が含まれており、連帯学習タスクに非常に役立つ。 そこで本研究では,参加者のドメイン知識の注入を可能にするフェデレーション学習フレームワークを提案する。 私たちが考えるシナリオは、実際の業界レベルのアプリケーションによって動機づけられ、このアプリケーションに対する我々のアプローチの有効性を実証します。

Federated learning is an emerging technique for training models from decentralized data sets. In many applications, data owners participating in the federated learning system hold not only the data but also a set of domain knowledge. Such knowledge includes human know-how and craftsmanship that can be extremely helpful to the federated learning task. In this work, we propose a federated learning framework that allows the injection of participants' domain knowledge, where the key idea is to refine the global model with knowledge locally. The scenario we consider is motivated by a real industry-level application, and we demonstrate the effectiveness of our approach to this application.
翻訳日:2022-08-17 12:05:41 公開日:2022-08-16
# mask and reason: 複雑な論理クエリのための知識グラフトランスフォーマーの事前学習

Mask and Reason: Pre-Training Knowledge Graph Transformers for Complex Logical Queries ( http://arxiv.org/abs/2208.07638v1 )

ライセンス: Link先を確認
Xiao Liu, Shiyu Zhao, Kai Su, Yukuo Cen, Jiezhong Qiu, Mengdi Zhang, Wei Wu, Yuxiao Dong, Jie Tang(参考訳) 知識グラフ(KG)埋め込みは、不完全KGを推論する主要なアプローチである。 しかし、本質的に浅く静的なアーキテクチャによって制限されるため、論理演算子、インデュートエッジ、複数のソースエンティティ、未知の中間エンティティからなる複雑な論理クエリへの注目の高まりに対処できない。 本稿では、マスク付き事前学習と微調整戦略を備えた知識グラフ変換器(kgTransformer)を提案する。 我々は, 変圧器がkgを処理できるようにkgトリプル変換法を設計, それらはmoeのスパースアクティベーションによりさらに強化される。 次に,複雑な論理クエリをマスキング予測として定式化し,伝達性と一般化性を改善するために2段階のマスキング事前学習戦略を導入する。 2つのベンチマークでの大規模な実験により、kgTransformerは9つのドメイン内およびドメイン外推論タスクにおいて、KG埋め込みベースのベースラインと高度なエンコーダの両方を一貫して上回ることを示した。 さらに、kgTransformerは、与えられた回答を解釈する完全な推論パスを提供することで、説明責任を推論することができる。

Knowledge graph (KG) embeddings have been a mainstream approach for reasoning over incomplete KGs. However, limited by their inherently shallow and static architectures, they can hardly deal with the rising focus on complex logical queries, which comprise logical operators, imputed edges, multiple source entities, and unknown intermediate entities. In this work, we present the Knowledge Graph Transformer (kgTransformer) with masked pre-training and fine-tuning strategies. We design a KG triple transformation method to enable Transformer to handle KGs, which is further strengthened by the Mixture-of-Experts (MoE) sparse activation. We then formulate the complex logical queries as masked prediction and introduce a two-stage masked pre-training strategy to improve transferability and generalizability. Extensive experiments on two benchmarks demonstrate that kgTransformer can consistently outperform both KG embedding-based baselines and advanced encoders on nine in-domain and out-of-domain reasoning tasks. Additionally, kgTransformer can reason with explainability via providing the full reasoning paths to interpret given answers.
翻訳日:2022-08-17 12:05:32 公開日:2022-08-16
# FALSE:フェイクニュース自動および軽量ソリューション

FALSE: Fake News Automatic and Lightweight Solution ( http://arxiv.org/abs/2208.07686v1 )

ライセンス: Link先を確認
Fatema Al Mukhaini, Shaikhah Al Abdoulie, Aisha Al Kharuosi, Amal El Ahmad, Monther Aldwairi(参考訳) 偽ニュースは、噂、印刷メディア、ラジオ、テレビなど、ニュースがあった時から存在した。 近年、情報化時代はコミュニケーションとインターネットのブレークスルーと共に、偽ニュースの拡散を悪化させた。 加えて、eコマース以外では、現在のインターネット経済は広告、ビュー、クリックに依存しているため、多くのデベロッパーがエンドユーザーにリンクや広告をクリックするよう促した。 その結果、ソーシャルメディアネットワークを通じた偽ニュースの広まりは、選挙から5g導入、covid-19パンデミックの処理に至るまで、現実世界の問題に影響を与えてきた。 偽ニュースの検出と妨害は、ファクトチェッカーから人工知能ベースの検出器に至るまで、偽ニュースの出現以来行われている。 より高度な技術がフェイクニュースプロパゲータによって採用されているため、ソリューションはまだ進化している。 本稿では,現代のフェイクニュースデータセットの研究と可視化にR符号を用いた。 データの解析と提示にはクラスタリング、分類、相関、さまざまなプロットを用いる。 この実験は、偽ニュースから現実を区別する分類器の効率が高いことを示している。

Fake news existed ever since there was news, from rumors to printed media then radio and television. Recently, the information age, with its communications and Internet breakthroughs, exacerbated the spread of fake news. Additionally, aside from e-Commerce, the current Internet economy is dependent on advertisements, views and clicks, which prompted many developers to bait the end users to click links or ads. Consequently, the wild spread of fake news through social media networks has impacted real world issues from elections to 5G adoption and the handling of the Covid- 19 pandemic. Efforts to detect and thwart fake news has been there since the advent of fake news, from fact checkers to artificial intelligence-based detectors. Solutions are still evolving as more sophisticated techniques are employed by fake news propagators. In this paper, R code have been used to study and visualize a modern fake news dataset. We use clustering, classification, correlation and various plots to analyze and present the data. The experiments show high efficiency of classifiers in telling apart real from fake news.
翻訳日:2022-08-17 12:05:12 公開日:2022-08-16
# 教師なし異常検出におけるデータ拡張の役割

Role of Data Augmentation in Unsupervised Anomaly Detection ( http://arxiv.org/abs/2208.07734v1 )

ライセンス: Link先を確認
Jaemin Yoo, Tiancheng Zhao, and Leman Akoglu(参考訳) 自己教師付き学習(SSL)は、現実世界のタスクの監視信号を作成するための有望な代替手段として現れ、注意深いラベル付けのコストを回避している。 sslは、アノマリー検出(ad: anomaly detection)のような教師なし問題において特に魅力的である。 sslベースのad(ssad)では、拡張関数の大規模なカタログが使用されており、最近の研究では、拡張関数のタイプがパフォーマンスに大きな影響を与えることが示されている。 これらに動機づけられたこの研究は、SSADをより大きなレンズの下に置き、多くのテストベッドでの広範な実験を通じて、ADにおけるデータ増強の役割を慎重に調査することを目的としている。 我々の主な発見は、自己スーパービジョンは、まだ別のモデルハイパーパラメータとして機能し、データの真の異常の性質に関して慎重に選択されるべきである。 すなわち、拡張と基盤となる異常発生機構の整合性は、SSADの成功の鍵であり、その欠如によりSSLは(!)検出性能を損なうことさえある。 新たなssad手法の提案以外にも,この成長領域の理解を深め,今後の研究に向けた新たな方向性を提示する。

Self-supervised learning (SSL) has emerged as a promising alternative to create supervisory signals to real-world tasks, avoiding extensive cost of careful labeling. SSL is particularly attractive for unsupervised problems such as anomaly detection (AD), where labeled anomalies are costly to secure, difficult to simulate, or even nonexistent. A large catalog of augmentation functions have been used for SSL-based AD (SSAD), and recent works have observed that the type of augmentation has a significant impact on performance. Motivated by those, this work sets out to put SSAD under a larger lens and carefully investigate the role of data augmentation in AD through extensive experiments on many testbeds. Our main finding is that self-supervision acts as a yet-another model hyperparameter, and should be chosen carefully in regards to the nature of true anomalies in the data. That is, the alignment between the augmentation and the underlying anomaly-generating mechanism is the key for the success of SSAD, and in the lack thereof, SSL can even impair (!) detection performance. Moving beyond proposing another SSAD method, our study contributes to the better understanding of this growing area and lays out new directions for future research.
翻訳日:2022-08-17 12:04:55 公開日:2022-08-16
# solbp:不確定ベイズネットワークにおける推定のための二階ループ型信念伝播

SOLBP: Second-Order Loopy Belief Propagation for Inference in Uncertain Bayesian Networks ( http://arxiv.org/abs/2208.07368v1 )

ライセンス: Link先を確認
Conrad D. Hougen, Lance M. Kaplan, Magdalena Ivanovska, Federico Cerutti, Kumar Vijay Mishra and Alfred O. Hero III(参考訳) 2階の不確定ベイズネットワークでは、条件付き確率は分布、すなわち確率よりも確率でしか知られていない。 delta-method は、ベイズネットワークから派生した和生成ネットワークを通じて平均と分散の両方を伝播させ、認識的不確実性やモデル自体の不確かさを特徴付けるための正確な一階推定法である。 あるいは、二階信頼伝播は多木に対して証明されているが、一般有向非巡回グラフ構造に対しては証明されていない。 本研究ではループ的信念伝播を2次ベイズネットワークの設定に拡張し、2次ループ的信念伝播(solbp)を発生させる。 2階ベイズネットワークでは、SOLBPはより計算効率が高くスケーラブルでありながら、和積ネットワークによって生成されるものと一致した推論を生成する。

In second-order uncertain Bayesian networks, the conditional probabilities are only known within distributions, i.e., probabilities over probabilities. The delta-method has been applied to extend exact first-order inference methods to propagate both means and variances through sum-product networks derived from Bayesian networks, thereby characterizing epistemic uncertainty, or the uncertainty in the model itself. Alternatively, second-order belief propagation has been demonstrated for polytrees but not for general directed acyclic graph structures. In this work, we extend Loopy Belief Propagation to the setting of second-order Bayesian networks, giving rise to Second-Order Loopy Belief Propagation (SOLBP). For second-order Bayesian networks, SOLBP generates inferences consistent with those generated by sum-product networks, while being more computationally efficient and scalable.
翻訳日:2022-08-17 12:02:12 公開日:2022-08-16
# 自動エンコーディング変分ベイズを用いた潜在変数モデルのトレーニング:チュートリアル

Training Latent Variable Models with Auto-encoding Variational Bayes: A Tutorial ( http://arxiv.org/abs/2208.07818v1 )

ライセンス: Link先を確認
Yang Zhi-Han(参考訳) 自動符号化変分ベイズ (AEVB) は、潜在変数モデル(教師なし学習の有望な方向)を適合させる強力な汎用アルゴリズムであり、変分自動エンコーダ (VAE) の訓練でよく知られている。 本チュートリアルでは、決定論的オートエンコーダとは対照的に、古典的な期待最大化(EM)アルゴリズムからのAEVBのモチベーションに焦点を当てる。 近年の深層学習文献では,EMとAEVBの結びつきが強調されておらず,この結びつきを強調することで,AEVBに対するコミュニティの理解が向上すると考えられる。 特に,(1)推定パラメータを近似Eステップとして,(2)生成パラメータを近似Mステップとして,(2)ELBOを最適化することが特に有用である。 本稿では,Eステップの近似を変分推論として解釈する方法について論じる。 償却や再パラメータ化のトリックといった重要な概念を詳細に論じる。 最後に, VAE, Conditional VAE, Gaussian Mixture VAE, Variational RNNなど,非深度および深度潜伏変数モデルのAEVBトレーニング手順をスクラッチから抽出した。 読者がAEVBを、(VAEだけでなく)幅広い潜在変数モデルに適合する一般的なアルゴリズムとして認識し、独自の研究分野に現れるモデルにAEVBを適用することを願っている。 含まれるすべてのモデルのPyTorchコードが公開されている。

Auto-encoding Variational Bayes (AEVB) is a powerful and general algorithm for fitting latent variable models (a promising direction for unsupervised learning), and is well-known for training the Variational Auto-Encoder (VAE). In this tutorial, we focus on motivating AEVB from the classic Expectation Maximization (EM) algorithm, as opposed to from deterministic auto-encoders. Though natural and somewhat self-evident, the connection between EM and AEVB is not emphasized in the recent deep learning literature, and we believe that emphasizing this connection can improve the community's understanding of AEVB. In particular, we find it especially helpful to view (1) optimizing the evidence lower bound (ELBO) with respect to inference parameters as approximate E-step and (2) optimizing ELBO with respect to generative parameters as approximate M-step; doing both simultaneously as in AEVB is then simply tightening and pushing up ELBO at the same time. We discuss how approximate E-step can be interpreted as performing variational inference. Important concepts such as amortization and the reparametrization trick are discussed in great detail. Finally, we derive from scratch the AEVB training procedures of a non-deep and several deep latent variable models, including VAE, Conditional VAE, Gaussian Mixture VAE and Variational RNN. It is our hope that readers would recognize AEVB as a general algorithm that can be used to fit a wide range of latent variable models (not just VAE), and apply AEVB to such models that arise in their own fields of research. PyTorch code for all included models are publicly available.
翻訳日:2022-08-17 12:01:53 公開日:2022-08-16
# ロバストマルチモーダル感性解析のためのデュアルレベル特徴回復機能付き効率的なマルチモーダル変圧器

Efficient Multimodal Transformer with Dual-Level Feature Restoration for Robust Multimodal Sentiment Analysis ( http://arxiv.org/abs/2208.07589v1 )

ライセンス: Link先を確認
Licai Sun, Zheng Lian, Bin Liu, Jianhua Tao(参考訳) ユーザ生成オンラインビデオの普及に伴い,MSA(Multimodal Sentiment Analysis)が注目されている。 大きな進歩にもかかわらず、堅牢なMSAへの道にはまだ2つの大きな課題があります。 1)非整合マルチモーダルデータにおける相互モーダル相互作用のモデル化における非効率性 2) ランダムモダリティ機能の欠如に対する脆弱性は、通常、現実的な設定で発生する。 本稿では,EMT-DLFR (Efficient Multimodal Transformer with Dual-Level Feature Restoration) という,汎用的で統一されたフレームワークを提案する。 具体的には、EMTは各モーダルからの発話レベル表現をグローバルなマルチモーダルコンテキストとして採用し、局所的な一助的特徴と相互作用し、相互に促進する。 従来の局所的相互モーダル相互作用手法の2次スケーリングコストを回避するだけでなく,性能も向上する。 一方、不完全なモダリティ設定におけるモデルロバスト性を改善するため、DLFRは低レベルの特徴再構成を行い、非完全データから意味情報を暗黙的に学習するよう促す。 一方,完全かつ不完全なデータを1つのサンプルの2つの異なる視点として革新的に捉え,ハイレベルな表現を明示的に引き付けるためにシャム表現学習を利用する。 一般的な3つのデータセットに対する総合的な実験により,本手法は完全かつ不完全なモード設定でも優れた性能を発揮することが示された。

With the proliferation of user-generated online videos, Multimodal Sentiment Analysis (MSA) has attracted increasing attention recently. Despite significant progress, there are still two major challenges on the way towards robust MSA: 1) inefficiency when modeling cross-modal interactions in unaligned multimodal data; and 2) vulnerability to random modality feature missing which typically occurs in realistic settings. In this paper, we propose a generic and unified framework to address them, named Efficient Multimodal Transformer with Dual-Level Feature Restoration (EMT-DLFR). Concretely, EMT employs utterance-level representations from each modality as the global multimodal context to interact with local unimodal features and mutually promote each other. It not only avoids the quadratic scaling cost of previous local-local cross-modal interaction methods but also leads to better performance. To improve model robustness in the incomplete modality setting, on the one hand, DLFR performs low-level feature reconstruction to implicitly encourage the model to learn semantic information from incomplete data. On the other hand, it innovatively regards complete and incomplete data as two different views of one sample and utilizes siamese representation learning to explicitly attract their high-level representations. Comprehensive experiments on three popular datasets demonstrate that our method achieves superior performance in both complete and incomplete modality settings.
翻訳日:2022-08-17 12:01:19 公開日:2022-08-16
# サブタイプアウェア動的非教師なしドメイン適応

Subtype-Aware Dynamic Unsupervised Domain Adaptation ( http://arxiv.org/abs/2208.07754v1 )

ライセンス: Link先を確認
Xiaofeng Liu, Fangxu Xing, Jia You, Jun Lu, C.-C. Jay Kuo, Georges El Fakhri, Jonghye Woo(参考訳) 非教師付きドメイン適応(UDA)は、ラベル付きソースドメインからラベルなしのターゲットドメインへの知識伝達に成功している。 最近導入されたtransportable prototypical networks (tpn)は、クラスごとの条件アライメントにさらに対処している。 tpnでは、ソース領域とターゲット領域の間のクラス中心の密接性は潜在空間で明示的に強制されているが、基礎となる細粒度のサブタイプ構造とクラス内のクロスドメインのコンパクト性は十分に研究されていない。 これに対応するために,両ドメインのサブタイプラベルを使わずに,対象ドメインの性能を向上させるために,細粒度サブタイプ認識アライメントを適応的に行う手法を提案する。 我々のアプローチの見識は、クラス内のラベルなしのサブタイプは、条件とラベルのシフトが異なるため、サブタイプ内でローカルに近接するが、異なる特性を示すことである。 具体的には,中間擬似ラベルを用いて,サブタイプワイズコンパクト性とクラスワイズ分離を同時に実施することを提案する。 さらに, サブタイプ数について事前知識のない様々なシナリオを体系的に検討し, その基盤となるサブタイプ構造を活用することを提案する。 さらに、代替処理方式を用いてサブタイプのクラスタセンタロイドを着実に進化させるために動的キューフレームワークを開発した。 マルチビュー先天性心疾患データとVisDAおよびDomainNetを用いて実施した実験結果から,我々のサブタイプ認識型UDAの有効性と妥当性を,最先端UDA法と比較した。

Unsupervised domain adaptation (UDA) has been successfully applied to transfer knowledge from a labeled source domain to target domains without their labels. Recently introduced transferable prototypical networks (TPN) further addresses class-wise conditional alignment. In TPN, while the closeness of class centers between source and target domains is explicitly enforced in a latent space, the underlying fine-grained subtype structure and the cross-domain within-class compactness have not been fully investigated. To counter this, we propose a new approach to adaptively perform a fine-grained subtype-aware alignment to improve performance in the target domain without the subtype label in both domains. The insight of our approach is that the unlabeled subtypes in a class have the local proximity within a subtype, while exhibiting disparate characteristics, because of different conditional and label shifts. Specifically, we propose to simultaneously enforce subtype-wise compactness and class-wise separation, by utilizing intermediate pseudo-labels. In addition, we systematically investigate various scenarios with and without prior knowledge of subtype numbers, and propose to exploit the underlying subtype structure. Furthermore, a dynamic queue framework is developed to evolve the subtype cluster centroids steadily using an alternative processing scheme. Experimental results, carried out with multi-view congenital heart disease data and VisDA and DomainNet, show the effectiveness and validity of our subtype-aware UDA, compared with state-of-the-art UDA methods.
翻訳日:2022-08-17 12:00:56 公開日:2022-08-16
# ブラックボックスソースモデルを用いたセグメント化のための教師なしドメイン適応

Unsupervised Domain Adaptation for Segmentation with Black-box Source Model ( http://arxiv.org/abs/2208.07769v1 )

ライセンス: Link先を確認
Xiaofeng Liu, Chaehwa Yoo, Fangxu Xing, C.-C. Jay Kuo, Georges El Fakhri, Jonghye Woo(参考訳) 非教師付きドメイン適応(UDA)は、ラベル付きソースドメインからラベル付きターゲットドメインへの知識伝達に広く用いられ、新しいドメインでのラベル付けの難しさに対処している。 従来のソリューションのトレーニングは通常、ソースデータとターゲットドメインデータの両方の存在に依存します。 しかし、ソースドメイン内の大規模で十分にラベル付けされたデータと訓練されたモデルパラメータのプライバシは、クロスセンター/ドメインのコラボレーションの主要な関心事となる。 そこで本研究では,元データやWhite-boxソースモデルではなく,ソースドメインでのみトレーニングされたブラックボックスセグメンテーションモデルを用いて,UDAのセグメンテーションのための実用的なソリューションを提案する。 具体的には,指数混合崩壊(EMD)を伴う知識蒸留方式を用いて,ターゲット固有表現を徐々に学習する。 さらに、対象領域の信頼度を正規化するために、教師なしエントロピー最小化がさらに適用される。 brats 2018データベース上でフレームワークを評価し,ホワイトボックスのソースモデル適応アプローチと同等のパフォーマンスを実現しました。

Unsupervised domain adaptation (UDA) has been widely used to transfer knowledge from a labeled source domain to an unlabeled target domain to counter the difficulty of labeling in a new domain. The training of conventional solutions usually relies on the existence of both source and target domain data. However, privacy of the large-scale and well-labeled data in the source domain and trained model parameters can become the major concern of cross center/domain collaborations. In this work, to address this, we propose a practical solution to UDA for segmentation with a black-box segmentation model trained in the source domain only, rather than original source data or a white-box source model. Specifically, we resort to a knowledge distillation scheme with exponential mixup decay (EMD) to gradually learn target-specific representations. In addition, unsupervised entropy minimization is further applied to regularization of the target domain confidence. We evaluated our framework on the BraTS 2018 database, achieving performance on par with white-box source model adaptation approaches.
翻訳日:2022-08-17 12:00:08 公開日:2022-08-16
# フレキシブル対話エージェントのためのマニュアルガイド対話

Manual-Guided Dialogue for Flexible Conversational Agents ( http://arxiv.org/abs/2208.07597v1 )

ライセンス: Link先を確認
Ryuichi Takanobu, Hao Zhou, Yankai Lin, Peng Li, Jie Zhou, Minlie Huang(参考訳) 対話データを効率的に構築し、利用する方法と、異なるドメインにモデルを大規模にデプロイする方法は、タスク指向の対話システムを構築する上で2つの重要な問題となる。 本稿では,エージェントが対話とマニュアルの両方からタスクを学習する,これらの問題を緩和するための手話案内対話方式を提案する。 マニュアルは、会話中にユーザーとデータベースと対話するエージェントを案内する非構造化のテキスト文書である。 提案手法は,詳細なドメインオントロジーに対する対話モデルの依存性を低減し,様々なドメインへの適応をより柔軟にする。 そして、スキーマをサポートするために、完全にアノテーション付きマルチドメインデータセットMagDialをコントリビュートします。 命令マッチング、引数フィリング、応答生成の3つのダイアログモデリングサブタスクを導入している。 これらのサブタスクのモデリングは、人間のエージェントの振る舞いパターンと一致します。 手動案内対話方式が対話システム構築におけるデータ効率とドメイン拡張性を向上させることを実証する。 データセットとベンチマークは、将来の研究を促進するために公開される予定だ。

How to build and use dialogue data efficiently, and how to deploy models in different domains at scale can be two critical issues in building a task-oriented dialogue system. In this paper, we propose a novel manual-guided dialogue scheme to alleviate these problems, where the agent learns the tasks from both dialogue and manuals. The manual is an unstructured textual document that guides the agent in interacting with users and the database during the conversation. Our proposed scheme reduces the dependence of dialogue models on fine-grained domain ontology, and makes them more flexible to adapt to various domains. We then contribute a fully-annotated multi-domain dataset MagDial to support our scheme. It introduces three dialogue modeling subtasks: instruction matching, argument filling, and response generation. Modeling these subtasks is consistent with the human agent's behavior patterns. Experiments demonstrate that the manual-guided dialogue scheme improves data efficiency and domain scalability in building dialogue systems. The dataset and benchmark will be publicly available for promoting future research.
翻訳日:2022-08-17 11:59:47 公開日:2022-08-16
# 共用マスク自動エンコーダによるDense Passage Retrieval

ConTextual Mask Auto-Encoder for Dense Passage Retrieval ( http://arxiv.org/abs/2208.07670v1 )

ライセンス: Link先を確認
Xing Wu, Guangyuan Ma, Meng Lin, Zijia Lin, Zhongyuan Wang, Songlin Hu(参考訳) Dense passage retrieveは、クエリとパスの密度の高い表現(ベクトル)に基づいて、大きなコーパスからクエリの関連するパスを検索することを目的としている。 近年,高密度検索性能向上のための事前学習言語モデルの改良が検討されている。 本稿では,高密度経路抽出のための簡易かつ効果的な生成前学習法であるCoT-MAE(ConTextual Masked Auto-Encoder)を提案する。 CoT-MAEは非対称エンコーダ・デコーダアーキテクチャを採用しており、自己教師付きマスク付き自動符号化によって文セマンティクスを高密度ベクトルに圧縮することを学ぶ。 正確には、自己教師付きマスク付き自動エンコーディングはテキストスパン内のトークンのセマンティクスをモデル化し、コンテキスト教師付きマスク付き自動エンコーディングはテキストスパン間のセマンティクス相関をモデル化することを学ぶ。 本研究では,大規模通路検索ベンチマーク実験を行い,cot-maeの高効率化を示す。

Dense passage retrieval aims to retrieve the relevant passages of a query from a large corpus based on dense representations (i.e., vectors) of the query and the passages. Recent studies have explored improving pre-trained language models to boost dense retrieval performance. This paper proposes CoT-MAE (ConTextual Masked Auto-Encoder), a simple yet effective generative pre-training method for dense passage retrieval. CoT-MAE employs an asymmetric encoder-decoder architecture that learns to compress the sentence semantics into a dense vector through self-supervised and context-supervised masked auto-encoding. Precisely, self-supervised masked auto-encoding learns to model the semantics of the tokens inside a text span, and context-supervised masked auto-encoding learns to model the semantical correlation between the text spans. We conduct experiments on large-scale passage retrieval benchmarks and show considerable improvements over strong baselines, demonstrating the high efficiency of CoT-MAE.
翻訳日:2022-08-17 11:59:35 公開日:2022-08-16
# マルチドキュメント要約のための注意アライメント付き並列階層トランス

Parallel Hierarchical Transformer with Attention Alignment for Abstractive Multi-Document Summarization ( http://arxiv.org/abs/2208.07845v1 )

ライセンス: Link先を確認
Ye Ma and Lu Zong(参考訳) 単一文書要約と比較して、抽象的多文書要約(MDS)は、その長大かつ関連のあるソースの表現とカバレッジに課題をもたらす。 本研究では,MDSのための並列階層変換器(PHT)を開発した。 単語と段落の多面的注意を取り入れることで、PHTの階層的アーキテクチャはトークンレベルと文書レベルの両方での依存関係のより優れた処理を可能にします。 ソース文書のより優れたカバレッジに向けて復号化を導くために、最適注意分布を予測したビームサーチをキャリブレーションするアテンションアライメント機構を導入する。 wikisumのデータに基づいて、提案アーキテクチャによるmdsの改善をテストするための包括的な評価が行われる。 内部文書情報と横断文書情報をよりよく扱うことにより、ROUGEと人的評価の結果から、我々の階層モデルは比較的低い計算コストでトランスフォーマーベースラインと比較して高い品質の要約を生成することが示唆された。

In comparison to single-document summarization, abstractive Multi-Document Summarization (MDS) brings challenges on the representation and coverage of its lengthy and linked sources. This study develops a Parallel Hierarchical Transformer (PHT) with attention alignment for MDS. By incorporating word- and paragraph-level multi-head attentions, the hierarchical architecture of PHT allows better processing of dependencies at both token and document levels. To guide the decoding towards a better coverage of the source documents, the attention-alignment mechanism is then introduced to calibrate beam search with predicted optimal attention distributions. Based on the WikiSum data, a comprehensive evaluation is conducted to test improvements on MDS by the proposed architecture. By better handling the inner- and cross-document information, results in both ROUGE and human evaluation suggest that our hierarchical model generates summaries of higher quality relative to other Transformer-based baselines at relatively low computational cost.
翻訳日:2022-08-17 11:59:18 公開日:2022-08-16
# RuDi: 自動統計生成と規則蒸留による行動系列モデルの説明

RuDi: Explaining Behavior Sequence Models by Automatic Statistics Generation and Rule Distillation ( http://arxiv.org/abs/2208.07211v2 )

ライセンス: Link先を確認
Yao Zhang, Yun Xiong, Yiheng Sun, Caihua Shan, Tian Lu, Hui Song, Yangyong Zhu(参考訳) リスクスコアシステムは、多くのアプリケーションに広くデプロイされており、ユーザの行動シーケンスに応じてリスクスコアを割り当てている。 高度な設計を持つ多くのディープラーニング手法は有望な成果を上げているが、ブラックボックスの性質は、公正性、説明可能性、コンプライアンスの考慮により、それらの応用を妨げる。 ルールベースのシステムは、これらのセンシティブなシナリオでは信頼できると考えられている。 しかし、ルールシステムの構築は労働集約的です。 専門家は、ユーザの行動シーケンス、統計に基づくルールの設計、各ルールへの重み付けから有益な統計を見つける必要がある。 本稿では,効率的なブラックボックスモデルと透過的ルールモデルとのギャップを橋渡しする。 そこで本研究では,黒箱教師モデルの知識をルールベース学習モデルに融合する二段階法rudiを提案する。 モンテカルロ木探索に基づく統計生成手法を試作し,第1段階において情報的統計値のセットを提供する。 次に,教師モデルの出力を模倣して,提案するニューラル論理ネットワークを用いた論理規則を構成する。 rudiを実世界の3つのデータセットと産業用データセットで評価し,その効果を実証した。

Risk scoring systems have been widely deployed in many applications, which assign risk scores to users according to their behavior sequences. Though many deep learning methods with sophisticated designs have achieved promising results, the black-box nature hinders their applications due to fairness, explainability, and compliance consideration. Rule-based systems are considered reliable in these sensitive scenarios. However, building a rule system is labor-intensive. Experts need to find informative statistics from user behavior sequences, design rules based on statistics and assign weights to each rule. In this paper, we bridge the gap between effective but black-box models and transparent rule models. We propose a two-stage method, RuDi, that distills the knowledge of black-box teacher models into rule-based student models. We design a Monte Carlo tree search-based statistics generation method that can provide a set of informative statistics in the first stage. Then statistics are composed into logical rules with our proposed neural logical networks by mimicking the outputs of teacher models. We evaluate RuDi on three real-world public datasets and an industrial dataset to demonstrate its effectiveness.
翻訳日:2022-08-17 10:24:04 公開日:2022-08-16
# ドメイン不変表現学習の統一因果的視点

A Unified Causal View of Domain Invariant Representation Learning ( http://arxiv.org/abs/2208.06987v2 )

ライセンス: Link先を確認
Zihao Wang and Victor Veitch(参考訳) トレーニングされたドメインと異なるドメインにデプロイされた場合、機械学習のメソッドは信頼性に欠ける。 これに対処するために、我々は、ドメイン間で安定したデータ構造を保存するが、散発的に不安定な部分を捨てるという意味で、ドメイン不変なデータの表現を学ぼうとするかもしれない。 このタイプの表現学習には、データ拡張に基づく方法、分布不変性、リスク不変性など多くの方法がある。 残念ながら、特定の現実世界のドメインシフトに直面している場合、これらのメソッドのどれが機能するかは明らかではない。 本研究の目的は,異なる手法が相互にどのように関係しているかを示し,それぞれの成功を期待する現実的状況を明らかにすることである。 鍵となるツールは、因果関係が不変であるという考えに依存する新しいドメインシフトの概念であるが、非因果関係(例えば、結合によって)は異なる可能性がある。

Machine learning methods can be unreliable when deployed in domains that differ from the domains on which they were trained. To address this, we may wish to learn representations of data that are domain-invariant in the sense that we preserve data structure that is stable across domains, but throw out spuriously-varying parts. There are many representation-learning approaches of this type, including methods based on data augmentation, distributional invariances, and risk invariance. Unfortunately, when faced with any particular real-world domain shift, it is unclear which, if any, of these methods might be expected to work. The purpose of this paper is to show how the different methods relate to each other, and clarify the real-world circumstances under which each is expected to succeed. The key tool is a new notion of domain shift relying on the idea that causal relationships are invariant, but non-causal relationships (e.g., due to confounding) may vary.
翻訳日:2022-08-17 10:23:46 公開日:2022-08-16
# benchpress: 深いアクティブなベンチマークジェネレータ

BenchPress: A Deep Active Benchmark Generator ( http://arxiv.org/abs/2208.06555v2 )

ライセンス: Link先を確認
Foivos Tsimpourlas, Pavlos Petoumenos, Min Xu, Chris Cummins, Kim Hazelwood, Ajitha Rajan and Hugh Leather(参考訳) 我々は,ソースコードの特徴空間表現にステアリング可能な,コンパイラ用の最初のMLベンチマークジェネレータであるBenchPressを開発した。 BenchPressは、左と右のコンテキストを共同で観察することで、空または既存のシーケンスの任意の部分に新しいコードを追加することで、コンパイル機能を合成する。 benchpressは、アートシンセサイザー(あるいは実際に人間)が到達できないような、望ましいターゲット機能に向けてベンチマーク生成を行う。 ロジニアベンチマークの特徴を3つの異なる特徴空間でターゲティングすることで、パフォーマンスが向上する。 (a)CLgen-アートMLシンセサイザーの状態。 b)clsmith fuzzer。 (c)SRCIRORミュータ、さらには (d) GitHubから人間が書いたコード。 BenchPressは、下流タスクを改善するベンチマークを生成するために、アクティブな学習でフィーチャースペースを検索する最初のジェネレータである。 ベンチプレス、グローヴズなどの使い方をお見せします。 cpu対gpuのヒューリスティックモデルは、benchpressのベンチマークで他の手法よりも高いスピードアップが得られる。 BenchPressは強力なコードジェネレータである。生成されたサンプルはCLgenの2.33%に比べて86%の割合でコンパイルされる。 空の固定入力から始めると、BenchPressはCLgenよりも10倍ユニークなOpenCLベンチマークを生成する。

We develop BenchPress, the first ML benchmark generator for compilers that is steerable within feature space representations of source code. BenchPress synthesizes compiling functions by adding new code in any part of an empty or existing sequence by jointly observing its left and right context, achieving excellent compilation rate. BenchPress steers benchmark generation towards desired target features that has been impossible for state of the art synthesizers (or indeed humans) to reach. It performs better in targeting the features of Rodinia benchmarks in 3 different feature spaces compared with (a) CLgen - a state of the art ML synthesizer, (b) CLSmith fuzzer, (c) SRCIROR mutator or even (d) human-written code from GitHub. BenchPress is the first generator to search the feature space with active learning in order to generate benchmarks that will improve a downstream task. We show how using BenchPress, Grewe's et al. CPU vs GPU heuristic model can obtain a higher speedup when trained on BenchPress's benchmarks compared to other techniques. BenchPress is a powerful code generator: Its generated samples compile at a rate of 86%, compared to CLgen's 2.33%. Starting from an empty fixed input, BenchPress produces 10x more unique, compiling OpenCL benchmarks than CLgen, which are significantly larger and more feature diverse.
翻訳日:2022-08-17 10:23:01 公開日:2022-08-16
# 非ブロックバッチa*(技術報告)

Non-Blocking Batch A* (Technical Report) ( http://arxiv.org/abs/2208.07031v2 )

ライセンス: Link先を確認
Rishi Veerapaneni, Maxim Likhachev(参考訳) ヒューリスティック探索は伝統的に手作りまたはプログラムによるヒューリスティックスに依存している。 ニューラルネットワーク(NN)は、状態からコスト対過去のヒューリスティックまで複雑なマッピングを学ぶために使用できる、より新しい強力なツールである。 しかし、それらのシングル推論時間は大きなオーバーヘッドであり、最適化されたヒューリスティック検索実装における計画時間を大幅に遅くすることができる。 いくつかの最近の研究で、NNのバッチ計算を利用して計画のオーバーヘッドを減らし、(サブ)最適性に制限を課す方法が説明されている。 しかしながら、これらの手法はすべて、バッチを構築しながらNNヒューリスティックを"ブロッキング"方式で使用しており、通常は使用可能な高速で計算可能なヒューリスティック(例えば、既存の古典的派生ヒューリスティック)を無視している。 非ブロックバッチA*(NBBA*)は,非NNヒューリスティックによる拡張を許容しつつ,バッチ内のNNヒューリスティックを遅延的に計算する有界部分最適化手法である。 この微妙ながら重要な変更が、現在のブロッキング方式と比較して拡張の大幅な削減につながることを示し、その性能が、バッチ計算されたNNと高速な非NNヒューリスティック間の情報差に関連していることを確認する。

Heuristic search has traditionally relied on hand-crafted or programmatically derived heuristics. Neural networks (NNs) are newer powerful tools which can be used to learn complex mappings from states to cost-to-go heuristics. However, their slow single inference time is a large overhead that can substantially slow down planning time in optimized heuristic search implementations. Several recent works have described ways to take advantage of NN's batch computations to decrease overhead in planning, while retaining bounds on (sub)optimality. However, all these methods have used the NN heuristic in a "blocking" manner while building up their batches, and have ignored possible fast-to-compute admissible heuristics (e.g. existing classically derived heuristics) that are usually available to use. We introduce Non-Blocking Batch A* (NBBA*), a bounded suboptimal method which lazily computes the NN heuristic in batches while allowing expansions informed by a non-NN heuristic. We show how this subtle but important change can lead to substantial reductions in expansions compared to the current blocking alternative, and see that the performance is related to the information difference between the batch computed NN and fast non-NN heuristic.
翻訳日:2022-08-17 10:22:38 公開日:2022-08-16
# Occlusion Augmentation で学習したコントラスト特徴をもつカテゴリーレベルポス検索

Category-Level Pose Retrieval with Contrastive Features Learnt with Occlusion Augmentation ( http://arxiv.org/abs/2208.06195v2 )

ライセンス: Link先を確認
Georgios Kouros and Shubham Shrivastava and C\'edric Picron and Sushruth Nagesh and Punarjay Chakravarty and Tinne Tuytelaars(参考訳) ポース推定は通常、ビン分類問題または回帰問題として取り組まれる。 どちらの場合でも、そのアイデアはオブジェクトのポーズを直接予測することである。 これは、類似したポーズの外観のバリエーションと異なるポーズ間の類似性のため、非自明な作業である。 代わりに、見積もりよりも2つのポーズを比較する方が簡単だという重要なアイデアに従います。 しかし、Render-and-Compareアプローチは、リアルタイムアプリケーションでは不安定で、計算コストが高く、遅い傾向にある。 ダイナミックマージンと連続的なポーズラベル空間の対比損失を用いてアライメントメトリックを学習し,カテゴリーレベルのポーズ推定を行う。 効率的な推論のために、埋め込み空間に投影されるレンダリングの参照セットを持つ単純なリアルタイム画像検索方式を用いる。 実世界の環境に対する堅牢性を達成するために,我々は合成オクルージョン,バウンディングボックスの摂動,外観増強を用いる。 提案手法は,PASCAL3DおよびOccludedPASCAL3Dの最先端性能と,KITTI3Dの高品質化を実現する。

Pose estimation is usually tackled as either a bin classification problem or as a regression problem. In both cases, the idea is to directly predict the pose of an object. This is a non-trivial task because of appearance variations of similar poses and similarities between different poses. Instead, we follow the key idea that it is easier to compare two poses than to estimate them. Render-and-compare approaches have been employed to that end, however, they tend to be unstable, computationally expensive, and slow for real-time applications. We propose doing category-level pose estimation by learning an alignment metric using a contrastive loss with a dynamic margin and a continuous pose-label space. For efficient inference, we use a simple real-time image retrieval scheme with a reference set of renderings projected to an embedding space. To achieve robustness to real-world conditions, we employ synthetic occlusions, bounding box perturbations, and appearance augmentations. Our approach achieves state-of-the-art performance on PASCAL3D and OccludedPASCAL3D, as well as high-quality results on KITTI3D.
翻訳日:2022-08-17 10:22:14 公開日:2022-08-16
# ExpansionNet v2: Image Captioningのための高速エンドツーエンドトレーニングにおけるブロック静的拡張

ExpansionNet v2: Block Static Expansion in fast end to end training for Image Captioning ( http://arxiv.org/abs/2208.06551v2 )

ライセンス: Link先を確認
Jia Cheng Hu, Roberto Cavicchioli, Alessandro Capotondi(参考訳) 深層学習手法における入力長における性能ボトルネックの可能性を探る。 本研究では,入力と異なる長さで特徴付けられる不均一かつ任意に大きな列の集合に対して,入力を分散処理するブロック静的展開を導入する。 この手法を採用することで,最近の画像キャプションにおける標準手法と比較して,有効性だけでなく,6倍の高速化が期待できる拡張ネットv2モデルを提案する。 このモデルは、オフラインテストスプリットで143.7 CIDEr-D、オンライン評価サーバで140.8 CIDEr-D、nocaps検証セットで72.9 All-CIDErのスコアで、MS-COCO 2014キャプションの課題に対して、アートパフォーマンスの状態を達成している。 ソースコード: https://github.com/jchenghu/expansionnet_v2

Expansion methods explore the possibility of performance bottlenecks in the input length in Deep Learning methods. In this work, we introduce the Block Static Expansion which distributes and processes the input over a heterogeneous and arbitrarily big collection of sequences characterized by a different length compared to the input one. Adopting this method we introduce a model called ExpansionNet v2, which is trained using our novel training strategy, designed to be not only effective but also 6 times faster compared to the standard approach of recent works in Image Captioning. The model achieves the state of art performance over the MS-COCO 2014 captioning challenge with a score of 143.7 CIDEr-D in the offline test split, 140.8 CIDEr-D in the online evaluation server and 72.9 All-CIDEr on the nocaps validation set. Source code available at: https://github.com/jchenghu/ExpansionNet_v2
翻訳日:2022-08-17 10:21:55 公開日:2022-08-16
# メタコントラスト学習によるマイトショット物体検出のための階層的アテンションネットワーク

Hierarchical Attention Network for Few-Shot Object Detection via Meta-Contrastive Learning ( http://arxiv.org/abs/2208.07039v2 )

ライセンス: Link先を確認
Dongwoo Park, Jong-Min Lee(参考訳) Few-shot Object Detection (FSOD)は、新しいカテゴリの画像の分類と検出を目的としている。 既存のメタラーニング手法では、構造的制限のため、サポートとクエリイメージの間の機能を十分に活用できない。 画像の検索とサポートを完全に活用するために,連続的に大きな受容フィールドを持つ階層的注意ネットワークを提案する。 さらに、メタ学習は、サポートとクエリイメージが一致するかどうかを決定するため、カテゴリをよく区別しない。 言い換えれば、メートル法に基づく分類学習は直接動作しないため効果がない。 そこで本研究では,メタコントラスト学習(meta-contrastive learning)と呼ばれる,メタ学習戦略の目的を直接達成するためのコントラスト学習手法を提案する。 最後に、重要なマージンを実現することによって、新しい最先端ネットワークを確立する。 提案手法は,COCOデータセット上での1-30ショットのオブジェクト検出において,2.3,1.0,1.3,3.4,2.4%のAP改善を実現する。 私たちのコードは、https://github.com/infinity7428/hANMCLで利用可能です。

Few-shot object detection (FSOD) aims to classify and detect few images of novel categories. Existing meta-learning methods insufficiently exploit features between support and query images owing to structural limitations. We propose a hierarchical attention network with sequentially large receptive fields to fully exploit the query and support images. In addition, meta-learning does not distinguish the categories well because it determines whether the support and query images match. In other words, metric-based learning for classification is ineffective because it does not work directly. Thus, we propose a contrastive learning method called meta-contrastive learning, which directly helps achieve the purpose of the meta-learning strategy. Finally, we establish a new state-of-the-art network, by realizing significant margins. Our method brings 2.3, 1.0, 1.3, 3.4 and 2.4% AP improvements for 1-30 shots object detection on COCO dataset. Our code is available at: https://github.com/infinity7428/hANMCL
翻訳日:2022-08-17 10:21:37 公開日:2022-08-16