このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。
公開日が20221108となっている論文です。
Title | Authors | Abstract | 論文公表日・翻訳日 |
---|---|---|---|
# 繰り返しシステム・バス相互作用による定常コヒーレンス強化 Enhanced steady-state coherence via repeated system-bath interactions ( http://arxiv.org/abs/2008.05200v3 ) ライセンス: Link先を確認 | Ricardo Rom\'an-Ancheyta, Michal Kol\'a\v{r}, Giacomo Guarnieri and Radim Filip | (参考訳) システムバス相互作用による定常コヒーレンス(SSC)の出現は、外部駆動なしで量子効果が現れることを証明している。
このようなSSCは、アプリケーションに量子的優位性を示すリソースになる可能性がある。
ターゲットシステムが独立および非相関の浴要素と繰り返し相互作用する場合、sscの発生を予測する。
これらの振る舞いを説明するために,システムとバスの相互作用の衝突モデルを用いて,システムが1つの浴要素(初期は不整合状態)と一度に相互作用し,(高速凝固状態の)漸近的にターゲットシステムに結合したマクロマルコフ浴を模倣する。
したがって、SSCの定性的状態は、連続したマルコフ浴を使用する場合と同じである。
回転波近似(RWA)の下での複合系-バス相互作用の存在が、衝突モデルにおける熱資源を用いたSSCの生成に必要な条件であることを確認する。
注目に値するのは, ターゲットシステムが一度に複数の浴槽要素と協調して相互作用すると, sscは実質的に増加することである。
ターゲットシステムと一体的に相互作用する浴要素は、最終状態の純度を許容できるコストで、非ゼロ温度でsscを増加させるのに十分である。
熱力学の観点からは, 衝突モデルにおけるSSC生成は, 定常状態に到達するために必要な非ゼロ電力入力(および浴槽への放熱)と必然的に関連付けられるが, それらのエネルギーコストは, SSC非発生相互作用に依存する場合に比べて低い。 The appearance of steady-state coherence (SSC) from system-bath interaction proves that quantum effects can appear without an external drive. Such SSC could become a resource to demonstrate quantum advantage in the applications. We predict the generation of SSC if the target system repeatedly interacts with independent and non-correlated bath elements. To describe their behavior, we use the collision model approach of system-bath interaction, where the system interacts with one bath element (initially in an incoherent state) at a time, asymptotically (in the fast-collision regime) mimicking a macroscopic Markovian bath coupled to the target system. Therefore, the SSC qualitatively appears to be the same as if the continuous Markovian bath would be used. We confirm that the presence of composite system-bath interactions under the rotating-wave approximation (RWA) is the necessary condition for the generation of SSC using thermal resources in collision models. Remarkably, we show that SSC substantially increases if the target system interacts collectively with more than one bath element at a time. Already few bath elements collectively interacting with the target system are sufficient to increase SSC at non-zero temperatures at the cost of tolerable lowering the final state purity. From the thermodynamic perspective, the SSC generation in our collision models is inevitably linked to a non zero power input (and thus heat dissipated to the bath) necessary to reach the steady-state, although such energetic cost can be lower compared to cases relying on SSC non generating interactions. | 翻訳日:2023-05-06 11:48:13 公開日:2022-11-08 |
# 例外スペクトルと動的磁化 Exceptional spectrum and dynamic magnetization ( http://arxiv.org/abs/2103.04109v2 ) ライセンス: Link先を確認 | Y. B. Shi, K. L. Zhang, Z. Song | (参考訳) マクロ効果は、多体系において局所非エルミート項によって誘導され、完全な実縮退スペクトルの重なり合いが同時に現れ、例外的なスペクトルをもたらす。
本稿では,このような興味をそそる性質をサポートするシステム群を提案する。
一般に、2つの任意の同一のエルミート部分格子とそれらの一方向結合からなる。
一方向結合のみであっても、全ての単粒子固有状態が対に合体することを示す。
これは全ての可能な初期状態が例外的な力学に従うことを意味し、その結果いくつかのマクロ現象がエルミート系には現れない。
本研究では,電子系における複素磁場によって誘起される動的磁化の研究を行う。
半充填時の初期飽和強磁性状態は、高次例外点の動力学に従って反対状態に駆動できることが示される。
任意のエルミート・クエンチ項は安定な反対の飽和強磁性状態は実現できない。
格子次元, 大域ランダムおよび局所不純物分布など, いくつかの代表的な状況において, 磁化の動的過程の数値シミュレーションを行う。
これは動的磁化過程が普遍的な挙動を示すことを示している。 A macroscopic effect can be induced by a local non-Hermitian term in a many-body system, when it manifests simultaneously level coalescence of a full real degeneracy spectrum, leading to exceptional spectrum. In this paper, we propose a family of systems that support such an intriguing property. It is generally consisted of two arbitrary identical Hermitian sub-lattices in association with unidirectional couplings between them. We show exactly that all single-particle eigenstates coalesce in pairs even only single unidirectional coupling appears. It means that all possible initial states obey the exceptional dynamics, resulting in some macroscopic phenomena, which never appears in a Hermitian system. As an application, we study the dynamic magnetization induced by complex fields in an itinerant electron system. It shows that an initial saturated ferromagnetic state at half-filling can be driven into its opposite state according to the dynamics of high-order exceptional point. Any Hermitian quench term cannot realize a steady opposite saturated ferromagnetic state. Numerical simulations for the dynamical processes of magnetization are performed for several representative situations, including lattice dimensions, global random and local impurity distributions. It shows that the dynamic magnetization processes exhibit universal behavior. | 翻訳日:2023-04-08 22:12:23 公開日:2022-11-08 |
# 量子プローブ測定によるスピン浴の反ゼノン精製 Anti-Zeno purification of spin baths by quantum probe measurements ( http://arxiv.org/abs/2108.09826v2 ) ライセンス: Link先を確認 | Durga Bhaktavatsala Rao Dasari, Sen Yang, Arnab Chakrabarti, Amit Finkler, Gershon Kurizki, and J\"org Wrachtrup | (参考訳) 量子ゼノと反ゼノのパラダイムは、不変浴槽に結合した量子システムの進化制御を、適切な間隔で非選択的な測定によって解決してきた。
システム(キュービット)の選択的測定による浴状態制御の概念を導入,理論的,実験的に導入することにより,これらのパラダイムを根本的に修正する。
システムバス交換の反ゼノレジームに対応する間隔において,一連の測定結果が強い相関関係を示した。
これらの相関は、浴状態の純度を劇的に向上させ、浴の低エントロピー定常状態をもたらす。
浄化浴状態は測定が完了すると長時間持続する。
このような浄化により、スピン浴を長期の量子記憶や量子増強センサーとして利用することができる。
実験では、低温でダイヤモンドの核スピン浴で脱相した欠陥中心を繰り返し観測した。 The quantum Zeno and anti-Zeno paradigms have thus far addressed the evolution control of a quantum system coupled to an immutable bath via non-selective measurements performed at appropriate intervals. We fundamentally modify these paradigms by introducing, theoretically and experimentally, the concept of controlling the bath state via selective measurements of the system (a qubit). We show that at intervals corresponding to the anti-Zeno regime of the system-bath exchange, a sequence of measurements has strongly correlated outcomes. These correlations can dramatically enhance the bath-state purity and yield a low-entropy steady state of the bath. The purified bath state persists long after the measurements are completed. Such purification enables the exploitation of spin baths as long-lived quantum memories or as quantum-enhanced sensors. The experiment involved a repeatedly probed defect center dephased by a nuclear spin bath in a diamond at low-temperature. | 翻訳日:2023-03-17 18:25:17 公開日:2022-11-08 |
# 連立確率分布関数の生成量子学習 Generative Quantum Learning of Joint Probability Distribution Functions ( http://arxiv.org/abs/2109.06315v2 ) ライセンス: Link先を確認 | Elton Yechao Zhu, Sonika Johri, Dave Bacon, Mert Esencan, Jungsang Kim, Mark Muir, Nikhil Murgai, Jason Nguyen, Neal Pisenti, Adam Schouela, Ksenia Sosnova, Ken Wright | (参考訳) 確率分布のモデル化は様々な分野において重要な課題である。
これに対する一般的なテクニックは、コプラと呼ばれる一様辺縁を持つ多変量分布の族である。
コプラによる連立分布のモデル化の理論はよく理解されているが、多くの変数で実データを正確にモデル化することは事実上困難である。
本研究では,コピュラをモデル化する量子機械学習アルゴリズムを設計する。
任意のコプラは自然に多成分の最大絡み合い状態にマッピングできることを示す。
qopula' として現れる変分アンサッツは、2つの変数のベル対または複数の変数のghz状態から始まり、コプラ構造を維持しながら変数間の任意の相関を生成する。
応用例として,この変動型アンサッツを用いて量子生成逆ネットワーク (qgan) と量子回路ボーンマシン (qcbm) を訓練し,株式市場からの履歴データに対して2つの変数の合同分布からサンプルを生成する。
我々は、IonQから最大8キュービットのイオン量子コンピュータを捕捉した生成学習アルゴリズムを実証し、その結果が等価な古典的生成学習によって得られたものより優れていることを示す。
さらに, 通信と計算複雑性の議論に基づく古典モデルに対するモデル表現率の指数関数的優位に対する理論的議論を提案する。 Modeling joint probability distributions is an important task in a wide variety of fields. One popular technique for this employs a family of multivariate distributions with uniform marginals called copulas. While the theory of modeling joint distributions via copulas is well understood, it gets practically challenging to accurately model real data with many variables. In this work, we design quantum machine learning algorithms to model copulas. We show that any copula can be naturally mapped to a multipartite maximally entangled state. A variational ansatz we christen as a `qopula' creates arbitrary correlations between variables while maintaining the copula structure starting from a set of Bell pairs for two variables, or GHZ states for multiple variables. As an application, we train a Quantum Generative Adversarial Network (QGAN) and a Quantum Circuit Born Machine (QCBM) using this variational ansatz to generate samples from joint distributions of two variables for historical data from the stock market. We demonstrate our generative learning algorithms on trapped ion quantum computers from IonQ for up to 8 qubits and show that our results outperform those obtained through equivalent classical generative learning. Further, we present theoretical arguments for exponential advantage in our model's expressivity over classical models based on communication and computational complexity arguments. | 翻訳日:2023-03-15 05:11:05 公開日:2022-11-08 |
# 2つの共浮遊ナノ粒子の共振冷却とスクイーズ Sympathetic cooling and squeezing of two co-levitated nanoparticles ( http://arxiv.org/abs/2111.03123v3 ) ライセンス: Link先を確認 | T. W. Penny and A. Pontin and P. F. Barker | (参考訳) 浮上粒子は弱い力を測定し、マクロな物体の量子力学を研究するのに理想的な道具である。
これらの粒子のうち2つ以上の配列は、力の感度の向上とマクロな物体の絡み合いのために提案されている。
本稿では, 相互のクーロン反発によって結合した2つの荷電シリカナノ粒子をポールトラップに閉じ込め, それぞれの粒子の質量と電荷を特徴付ける。
フィードバック冷却を直接適用した第2ナノ粒子にクーロン相互作用を介して結合した1つのナノ粒子の交感性冷却を示す。
また,非熱的運動状態がクーロン相互作用によって移動可能であることを示す類似のプロセスを通じて交感神経スクイーズを実装した。
この研究は、将来の実験で光加熱の効果を検知し、最小化するためにナノ粒子の配列を冷却し、操作するためのプロトコルを確立する。 Levitated particles are an ideal tool for measuring weak forces and investigating quantum mechanics in macroscopic objects. Arrays of two or more of these particles have been suggested for improving force sensitivity and entangling macropscopic objects. In this article, two charged, silica nanoparticles, that are coupled through their mutual Coulomb repulsion, are trapped in a Paul trap, and the individual masses and charges of both particles are characterised. We demonstrate sympathetic cooling of one nanoparticle coupled via the Coulomb interaction to the second nanoparticle to which feedback cooling is directly applied. We also implement sympathetic squeezing through a similar process showing non-thermal motional states can be transferred by the Coulomb interaction. This work establishes protocols to cool and manipulate arrays of nanoparticles for sensing and minimising the effect of optical heating in future experiments. | 翻訳日:2023-03-09 04:12:59 公開日:2022-11-08 |
# Eコマースライブストリームにおける悪意ある販売戦略:AlibabaのTaobaoとByteDanceのTikTokを事例として Malicious Selling Strategies in E-Commerce Livestream: A Case Study of Alibaba's Taobao and ByteDance's TikTok ( http://arxiv.org/abs/2111.10491v4 ) ライセンス: Link先を確認 | Qunfang Wu, Yisi Sang, Dakuo Wang, Zhicong Lu | (参考訳) 新型コロナウイルスのパンデミックによる制限のため、多くのユーザーはショッピングパターンをオフラインからオンラインに変更した。
livestream shoppingはオンラインショッピングメディアの1つとして人気を集めている。
しかし、多くのストリーマーの悪意ある販売行動が報告されている。
本研究では,ストリーマーの悪意ある販売戦略を探究し,視聴者がどのようにこれらの戦略を知覚するかを理解した。
まず、中国で人気のライブストリームプラットフォームであるTaobaoとTikTok(中国語でDouyin)から、40のライブストリームショッピングセッションを記録しました。
16の悪質な販売戦略を特定し、プラットフォーム設計がこれらの悪質な販売戦略を強化したことを突き止めた。
第2に,13名の視聴者によるインタビュー調査を通じて,悪意のある販売戦略に対する視聴者の認識と,悪意のある販売を克服しようとする際に遭遇した課題を詳細に記述した。
我々は、悪意ある販売に対抗する政策と設計上の意味を議論することで締めくくった。 Due to the limitations imposed by the COVID-19 pandemic, many users have shifted their shopping patterns from offline to online. Livestream shopping has become popular as one of the online shopping media. However, many streamers' malicious selling behaviors have been reported. In this research, we sought to explore streamers' malicious selling strategies and understand how viewers perceive these strategies. First, we recorded 40 livestream shopping sessions from two popular livestream platforms in China -- Taobao and TikTok (or "Douyin" in Chinese). We identified 16 malicious selling strategies and found that platform designs enhanced these malicious selling strategies. Second, through an interview study with 13 viewers, we provide a rich description of viewers' awareness of malicious selling strategies and the challenges they encountered while trying to overcome malicious selling. We conclude by discussing the policy and design implications of countering malicious selling. | 翻訳日:2023-03-07 08:10:19 公開日:2022-11-08 |
# RCFT相関器の文字列ネット構成 String-net construction of RCFT correlators ( http://arxiv.org/abs/2112.12708v2 ) ライセンス: Link先を確認 | J\"urgen Fuchs, Christoph Schweigert, Yang Yang | (参考訳) 我々は2次元有理共形場理論の相関子に対する直接的、純粋に2次元のアプローチを達成するために文字列-ネットモデルを用いる。
我々は、基礎となるモジュラー融合圏のシリンダー圏における等等式の観点から、バルク場と境界場を記述する対象に対する簡潔な幾何学的表現を得る。
これらのべき等性と世界表上のフロベニウスグラフを組み合わせることで、一貫性のある相関系を形成する弦網、すなわち分解と相反する適切な写像類群の下で不変量の系が得られる。
マーキングを用いて、特定の相関子からフィールドオブジェクトの演算子積を抽出し、結果として得られる演算子積は半単純性を超えた自然な代数的表現である。
また、ブレイド圏の内部のエックマン・ヒルトン関係を導出し、ブレイドテンソル圏の代数を理解するための弦網の有用性を示す。
最後に,ユニバーサル・コレレータの概念を紹介する。
これにより、異なる世界シートが同じコリレーターを持つ状況の処理を体系化し、より包括的なマッピングクラスグループを定義することができる。 We use string-net models to accomplish a direct, purely two-dimensional, approach to correlators of two-dimensional rational conformal field theories. We obtain concise geometric expressions for the objects describing bulk and boundary fields in terms of idempotents in the cylinder category of the underlying modular fusion category, comprising more general classes of fields than is standard in the literature. Combining these idempotents with Frobenius graphs on the world sheet yields string nets that form a consistent system of correlators, i.e. a system of invariants under appropriate mapping class groups that are compatible with factorization. Using markings, we extract operator products of field objects from specific correlators; the resulting operator products are natural algebraic expressions that make sense beyond semisimplicity. We also derive an Eckmann-Hilton relation internal to a braided category, thereby demonstrating the utility of string nets for understanding algebra in braided tensor categories. Finally we introduce the notion of a universal correlator. This systematizes the treatment of situations in which different world sheets have the same correlator and allows for the definition of a more comprehensive mapping class group. | 翻訳日:2023-03-03 17:51:20 公開日:2022-11-08 |
# 古典カオスをシミュレートした量子システムにおけるスケール間絡み合い生成 Interscale entanglement production in a quantum system simulating classical chaos ( http://arxiv.org/abs/2201.09217v2 ) ライセンス: Link先を確認 | Taiki Haga and Shin-ich Sasa | (参考訳) 古典的カオスの普遍的概念が量子力学の微視的記述からどのように現れるかという根本的な問題である。
ここでは量子力学の枠組みで標準古典カオスを研究する。
特に、適切な連続体極限の後に古典的カオスを正確にシミュレートする量子格子系を設計、これは「ハミルトニアン方程式極限」と呼ばれる。
解析の重要な概念は、格子を等しい大きさの多くのブロックに分割し、各ブロック内の自由度を追跡することによって定義される絡み合いエントロピーである。
このエントロピーを「相互に絡み合うエントロピー」と呼ぶのは、各ブロック内の微小自由度と波動関数の大規模構造を定義する巨視的自由度との間の絡み合いの量を測定するためである。
キックロータのハミルトニアンに対応する量子格子系を数値的にシミュレートすることにより、ハミルトニアン方程式の極限でカオスが発生するときのみ、スケール間エンタングルメントエントロピーの長時間平均は正となり、初期段階におけるエントロピーの成長速度は対応する古典系の粗粒度ギブスエントロピーのそれと比例することがわかった。 It is a fundamental problem how the universal concept of classical chaos emerges from the microscopic description of quantum mechanics. We here study standard classical chaos in a framework of quantum mechanics. In particular, we design a quantum lattice system that exactly simulates classical chaos after an appropriate continuum limit, which is called the "Hamiltonian equation limit". The key concept of our analysis is an entanglement entropy defined by dividing the lattice into many blocks of equal size and tracing out the degrees of freedom within each block. We refer to this entropy as the "interscale entanglement entropy" because it measures the amount of entanglement between the microscopic degrees of freedom within each block and the macroscopic degrees of freedom that define the large-scale structure of the wavefunction. By numerically simulating a quantum lattice system corresponding to the Hamiltonian of the kicked rotor, we find that the long-time average of the interscale entanglement entropy becomes positive only when chaos emerges in the Hamiltonian equation limit, and the growth rate of the entropy in the initial stage is proportional to that of the coarse-grained Gibbs entropy of the corresponding classical system. | 翻訳日:2023-02-28 02:37:00 公開日:2022-11-08 |
# 超伝導スルーシリコンを用いたQubit互換基板 Qubit-compatible substrates with superconducting through-silicon vias ( http://arxiv.org/abs/2201.10425v3 ) ライセンス: Link先を確認 | K. Grigoras, N. Yurttag\"ul, J.-P. Kaikkonen, E. T. Mannila, P. Eskelinen, D. P. Lozano, H.-X. Li, M. Rommel, D. Shiri, N. Tiencken, S. Simbierowicz, A. Ronzani, J. H\"atinen, D. Datta, V. Vesterinen, L. Gr\"onberg, J. Bizn\'arov\'a, A. Fadavi Roudsari, S. Kosen, A. Osman, M. Prunnila, J. Hassel, J. Bylander, J. Govenius | (参考訳) 超伝導量子プロセッサに適したシリコン通電体および電極の作製と特性評価を行う。
単光子レベルで励起される試験共振器の内部品質係数を, チップの前面と背面の接地面を縫合する超伝導路を有するチップ上で100万個測定した。
この共振器の性能は、バイブの存在にもかかわらずシリコンベースの平面溶液の最先端技術と同等である。
地平面の縫合は、量子プロセッサチップの物理サイズを増大させる重要な技術であり、三次元統合によるより複雑な量子デバイスへの第一歩である。 We fabricate and characterize superconducting through-silicon vias and electrodes suitable for superconducting quantum processors. We measure internal quality factors of a million for test resonators excited at single-photon levels, on chips with superconducting vias used to stitch ground planes on the front and back sides of the chips. This resonator performance is on par with the state of the art for silicon-based planar solutions, despite the presence of vias. Via stitching of ground planes is an important enabling technology for increasing the physical size of quantum processor chips, and is a first step toward more complex quantum devices with three-dimensional integration. | 翻訳日:2023-02-27 22:30:05 公開日:2022-11-08 |
# Deng-Fanモデルにおける二原子分子の一般化フラクタルNU法 The Generalized Fractional NU Method for the Diatomic Molecules in the Deng-Fan Model ( http://arxiv.org/abs/2203.04125v2 ) ライセンス: Link先を確認 | M. Abu-Shady, E. M. Khokha, and T. A. Abdel-Karim | (参考訳) deng-fanポテンシャルを持つ分数 n-次元ラジアルシュロディンガー方程式の解を一般化分数的nu法で検討した。
デングファンポテンシャルに対するエネルギー固有値と対応する固有関数の分析式を生成する。
さらに、現在の結果は、Deng-Fan電位とシフトしたDeng-Fan電位のいくつかの二原子分子に適用される。
デングファンポテンシャルとシフトポテンシャルの両方について, 分数パラメータが種々の二原子分子のエネルギーレベルに及ぼす影響を数値的およびグラフィカルに検討した。
分数パラメータが増加するとエネルギー固有値が徐々に改善されることがわかった。
種々の二原子分子のエネルギースペクトルも三次元空間および高次元で評価される。
エネルギースペクトルが次元の数が増えるにつれて増加することは注目に値する。
さらに, デングファンポテンシャルのエネルギースペクトルとそのシフト電位の質量, スクリーニングパラメータ, 平衡結合長, 回転量子数, 振動量子数に対する依存性を示した。
そこで本研究では,Deng-FanポテンシャルとDeng-Fanポテンシャルのエネルギー準位を,従来の二原子分子の古典的な場合において推定し,それと完全に互換性があることを見出した。 A solution of the fractional N-dimensional radial Schrodinger equation with the Deng-Fan potential is investigated by the generalized fractional NU method. The analytical formulas of energy eigenvalues and corresponding eigen functions for the Deng-Fan potential are generated. Furthermore, the current results are applied to several diatomic molecules for the Deng-Fan potential as well as the shifted Deng Fan potential. For both the Deng-Fan potential and its shifted potential, the effect of the fractional parameter on the energy levels of various diatomic molecules is examined numerically and graphically. We found that the energy eigenvalues are gradually improved when the fractional parameter increases. The energy spectra of various diatomic molecules are also evaluated in three-dimensional space and higher dimensions. It is worthy to note that the energy spectrum raises as the number of dimensions increases. In addition, the dependence of the energy spectra of the Deng-Fan potential and its shifted potential on the reduced mass, screening parameter, equilibrium bond length, rotational and vibrational quantum numbers is illustrated. To validate our findings, we estimate the energy levels of the Deng-Fan potential and shifted Deng-Fan potential at the classical case for various diatomic molecules and found that they are entirely compatible with earlier studies. | 翻訳日:2023-02-23 01:45:50 公開日:2022-11-08 |
# 実空間ダイナミクスの量子シミュレーション Quantum simulation of real-space dynamics ( http://arxiv.org/abs/2203.17006v3 ) ライセンス: Link先を確認 | Andrew M. Childs, Jiaqi Leng, Tongyang Li, Jin-Peng Liu, Chenyi Zhang | (参考訳) 量子シミュレーションは量子コンピュータの顕著な応用である。
有限次元系をシミュレートする広範な研究があるが、実空間力学の量子アルゴリズムについてはあまり知られていない。
このようなアルゴリズムを体系的に研究する。
特に、$d$-dimensional Schr\"{o}dinger 方程式と$\eta$ 粒子の力学をゲート複雑性でシミュレートできることを示し、$\tilde{O}\bigl(\eta d F \text{poly}(\log(g'/\epsilon))\bigr)$, where $\epsilon$ is the discretization error, $g'$は波動関数の高次微分を制御し、$F$はポテンシャルの時間積分強度を測定する。
その結果、$\epsilon$ と $g'$ への依存を $\text{poly}(g'/\epsilon)$ から $\text{poly}(\log(g'/\epsilon)$ に指数関数的に改善し、多項式的に $T$ と $d$ への依存を改善しながら、$\eta$ に関する最もよく知られたパフォーマンスを維持している。
クーロン相互作用の場合、$\eta^{3}(d+\eta)T\text{poly}(\log(\eta dTg'/(\Delta\epsilon)))/\Delta$ 1- and two-qubit gates と $\eta^{3}(4d)^{d/2}T\text{poly}(\log(\eta dTg'/(\Delta\epsilon)))/\Delta$ oneand two-qubit gates と QRAM 演算を用いてアルゴリズムを与える。
量子化学の実空間シミュレーションの高速化、一様電子ガスのシミュレーションにおける離散化誤差の厳密な解析、非凸最適化における鞍点から逃れる量子アルゴリズムの二次的改善など、いくつかの計算問題に適用する。 Quantum simulation is a prominent application of quantum computers. While there is extensive previous work on simulating finite-dimensional systems, less is known about quantum algorithms for real-space dynamics. We conduct a systematic study of such algorithms. In particular, we show that the dynamics of a $d$-dimensional Schr\"{o}dinger equation with $\eta$ particles can be simulated with gate complexity $\tilde{O}\bigl(\eta d F \text{poly}(\log(g'/\epsilon))\bigr)$, where $\epsilon$ is the discretization error, $g'$ controls the higher-order derivatives of the wave function, and $F$ measures the time-integrated strength of the potential. Compared to the best previous results, this exponentially improves the dependence on $\epsilon$ and $g'$ from $\text{poly}(g'/\epsilon)$ to $\text{poly}(\log(g'/\epsilon))$ and polynomially improves the dependence on $T$ and $d$, while maintaining best known performance with respect to $\eta$. For the case of Coulomb interactions, we give an algorithm using $\eta^{3}(d+\eta)T\text{poly}(\log(\eta dTg'/(\Delta\epsilon)))/\Delta$ one- and two-qubit gates, and another using $\eta^{3}(4d)^{d/2}T\text{poly}(\log(\eta dTg'/(\Delta\epsilon)))/\Delta$ one- and two-qubit gates and QRAM operations, where $T$ is the evolution time and the parameter $\Delta$ regulates the unbounded Coulomb interaction. We give applications to several computational problems, including faster real-space simulation of quantum chemistry, rigorous analysis of discretization error for simulation of a uniform electron gas, and a quadratic improvement to a quantum algorithm for escaping saddle points in nonconvex optimization. | 翻訳日:2023-02-20 05:12:31 公開日:2022-11-08 |
# 再分権のための集中フェアネス Centralized Fairness for Redistricting ( http://arxiv.org/abs/2203.00872v3 ) ライセンス: Link先を確認 | Seyed A. Esmaeili, Darshan Chakrabarti, Hayley Grape, Brian Brubach | (参考訳) 代表制では、各選挙区が代表を選出する地区に分割されることが多い。
残念ながら、これらのシステムはパルチザンジェリーマンダーの実践に弱いことが証明されている。
その結果, ゲリーマンダー地図の検出手法が導入され, 有意な成功を収めた。
しかし、地域地図を原則的に描けるかという問題は、地理的コンパクト性やパルチザンの競争性といった特定の性質の最適化に焦点をあてた既存の文献のほとんどで未解決のままである。
本研究では、最も「典型的」な再限定写像を見つけるための別のアプローチをとる。
より正確には、再帰写像上のよく動機づけられた距離測度の族を導入する。
次に,サンプリング技術を用いて地図の膨大なコレクションを生成することにより,コレクションからの距離の和を最小化するマップ,すなわち最も「中央」なマップを選択する。
スケーラブルな線形時間アルゴリズムを作成し,サンプル複雑性の保証を行う。
提案手法の副産物は, 距離の点で不規則な地図であることが分かるように, ジェリーマンダーマップを検出できることである。 In representative democracy, the electorate is often partitioned into districts with each district electing a representative. Unfortunately, these systems have proven vulnerable to the practice of partisan gerrymandering. As a result, methods for detecting gerrymandered maps were introduced and have led to significant success. However, the question of how to draw district maps in a principled manner remains open with most of the existing literature focusing on optimizing certain properties such as geographical compactness or partisan competitiveness. In this work, we take an alternative approach which seeks to find the most "typical" redistricting map. More precisely, we introduce a family of well-motivated distance measures over redistricting maps. Then, by generating a large collection of maps using sampling techniques, we select the map which minimizes the sum of the distances from the collection, i.e., the most "central" map. We produce scalable, linear-time algorithms and derive sample complexity guarantees. We show that a by-product of our approach is the ability to detect gerrymandered maps as they are found to be outlier maps in terms of distance. | 翻訳日:2023-02-19 15:21:57 公開日:2022-11-08 |
# K9-12でブロックチェーンを教える:教材とその評価 Teaching Blockchain in K9-12: Instruction materials and their assessment ( http://arxiv.org/abs/2211.05933v1 ) ライセンス: Link先を確認 | Leo Irudayam and Frank Breitinger | (参考訳) 本稿では,新興ITトピックを中等教育(K9-12)に組み込む可能性について分析する。
関連するコンテンツを配信するが、さらにそのトピックに関わる動機付けも行なっている、k9-12の学生のためのブロックチェーンのクラスを開発しました。
私たちのコースは理論資料とハンズオンの応用から成り立っている。
ゲーミフィケーション技術は、学生を奨励し、学習体験を改善するために利用される。
166名の学生からなるこの評価は,特に理論とハンズオン資料の組み合わせにおいて,教材に接する学生の有意な知識獲得率を示している。
教材とチャットアプリケーションの両方が無料で利用可能である。 This paper analyses the feasibility of including emerging IT-topics into secondary education (K9-12). We developed a class on Blockchain for K9-12 students which delivers relevant content but is also indented to motivate them to further engage with the topic. Our course consists of theory material as well as a hands-on application. Gamification techniques are utilised to encourage students and improve the learning experience. The assessment, consisting of 166 students, shows a significant knowledge gain of students exposed to our materials especially when the theory and the hands-on materials are combined. Both, i.e., teaching material and chat application, are freely available. | 翻訳日:2023-02-19 12:21:42 公開日:2022-11-08 |
# 政治的合意と不一致の理解:2022年フランス大統領選挙の証拠 Understanding Political Agreements and Disagreements: Evidence from the 2022 French Presidential Election ( http://arxiv.org/abs/2211.04577v1 ) ライセンス: Link先を確認 | Carlos Navarrete, Nicole Ferrada, Mariana Macedo, Rachael Colley, Jingling Zhang, Umberto Grandi, Jerome Lang, C\'esar A. Hidalgo | (参考訳) コンドルセトとボルダの独創的な著作以来、社会的選択理論は個人の選好を集団的決定に集約する方法を探求してきた。
しかし、社会的選択理論は、ほとんど候補者を伴わない選挙での勝者の特定に重点を置いており、比較的未調査の複数の問題への直接参加に関する疑問を残している。
ここでは、2022年のフランス大統領候補の120件の提案を用いて、人々が独自の政府プログラムを構築した直接参加実験で収集されたデータを分析する。
この設定では、任意の投票規則のために構築できる「分割性」の尺度を導入し、それらに直交し、偏極性のある提案を特定するのに役立ちます。
分別性は,多次元(性,年齢,政治方向,都市・都市区分)にまたがる断片化を捉え,その公理的性質のいくつかを探索する。
これらの結果は、分裂は直接的な参加形態における関連する集合体であることを示唆している。 Since the seminal works of Condorcet and Borda, social choice theory has explored how to aggregate individual preferences into collective decisions. Yet, social choice theory has focused primarily on identifying winners in elections involving few candidates, leaving questions about direct participation on multiple issues relatively unexplored. Here we analyze data collected in a direct participation experiment where people built their own government programs using 120 proposals from the candidates of the 2022 French presidential. We find that in this setting it is useful to introduce a measure of "divisiveness," which can be constructed for any voting rule, is orthogonal to them, and helps identify polarizing proposals. We show that divisiveness captures fragmentation across multiple dimensions (sex, age, political orientation, and urban-rural divide) and explore some of its axiomatic properties. These results suggest divisiveness is a relevant aggregate in direct forms of participation. | 翻訳日:2023-02-19 12:19:14 公開日:2022-11-08 |
# 半世紀にわたる国際共同ダイナミズム:団結か分散か? A half-century of international research collaboration dynamism: Congregate or disperse? ( http://arxiv.org/abs/2211.04429v1 ) ライセンス: Link先を確認 | Keisuke Okamura | (参考訳) 過去数十年間、国境を越えて研究者のコラボレーションモードが劇的に変化してきた。
純粋にアカデミア主導のコラボレーションに加えて、様々な国家主導のイニシアチブが開発され、進行中であり、急速に変化する現代世界の地政学的状況を反映している。
このような多層的な協力関係と国間の競争関係において、学界のリーダーや政策場にとって、その変化とともに、国際的な研究協力とその国内における彼らの立場の完全な範囲を把握することが大きな関心事である。
しかし、このような世界規模のダイナミズムの証拠は少ない。
本稿は、国際協力集団が過去半世紀にわたって、幅広い科学出版物のためにどのように形成・発展してきたかを示す。
2022年にローンチした大規模Open BibliometricsプラットフォームであるOpenAlexから取得したデータに基づいて分析を行った。
専門分野は量子科学、人工知能、バイオテクノロジーなど。
まず、各分野におけるトップクラスのグローバルプレゼンスの変化を、出版量と国際的なコラボレーション率で評価した。
特に、米国と中国は何十年にもわたって急速に接近してきたが、2019年以降に崩壊し始めた。
次に、階層的クラスタリング法に基づき、各分野と期間の国際コラボレーションクラスタを分析し、可視化する。
最後に,過去半世紀の研究協力の「シンキング・ワールド」について,世界規模で定量的に検証した。
これらの結果は、過去、現在、そして将来の国際コラボレーションの全体像に対する貴重な洞察を提供する。 The past decades have witnessed a dramatic change in researchers' collaboration mode across borders. In addition to purely academia-driven collaborations, various state-led initiatives have also been developed and are underway, reflecting the rapidly changing geopolitical situation of the contemporary world. In such multilayered cooperative and competitive relationships among countries, it is of great interest to leaders in academia and the policy arena to grasp the full scope of international research collaboration and their country's place within it, along with its change over time. However, evidence for such world-scale dynamism is scarce to date. This paper provides unique evidence of how international collaboration clusters have formed and evolved over the past half-century for a broad set of scientific publications. Our analyses are based on data retrieved from OpenAlex, a large-scale Open Bibliometrics platform launched in 2022. The science and technology areas of focus include Quantum Science, Artificial Intelligence, Biotechnology and others, totalling 15. We first review the top-tier countries' global presence change for each discipline, measured by publication volumes and international collaboration rates. Notably, the US and China are shown to have rapidly moved closer together for decades but have started moving apart after 2019. Subsequently, we analyse and visualise the international collaboration clusters for each discipline and period based on a hierarchical clustering method. Finally, we provide global-scale quantitative evidence for a 'Shrinking World' of the past half-century's research collaboration. These results provide valuable insights into the big picture of past, present and future international collaboration. | 翻訳日:2023-02-19 12:18:59 公開日:2022-11-08 |
# ソフトウェア組織のdevops環境の成功に寄与する要因:体系的レビュー Factors that Contribute to the Success of a Software Organisation's DevOps Environment: A Systematic Review ( http://arxiv.org/abs/2211.04101v1 ) ライセンス: Link先を確認 | Ashley Gwangwadza, Ridewaan Hanslo | (参考訳) この研究は、ソフトウェア組織のDevOps環境の側面を評価し、これらの環境の成功に寄与する要因を特定します。
DevOpsは最近の概念であり、多くの組織が古いスタイルのソフトウェア開発メソッドからDevOpsのようなアジャイルアプローチに移行しています。
しかしながら、組織がDevOpsを採用すると、DevOps環境の成功に影響を与える要因について、包括的な情報はありません。
この研究は、体系的な文献レビューを通して、このギャップに対処することに焦点を当てた。
体系的なレビューは、2015年から2021年にかけて5つの検索システムとデータベースから33の記事で構成された。
記事では、コラボレーション文化、組織的側面、ツーリングとテクノロジ、継続的プラクティスの4つのカテゴリに15の要因が特定され、グループ化された。
さらに、本研究では、DevOpsの研究と実践に潜在的に寄与するDevOps環境成功要因モデルを提案する。
提案モデルの有効性とその成功要因に関するさらなる研究のために推奨される。 This research assesses the aspects of software organizations' DevOps environments and identifies the factors contributing to these environments' success. DevOps is a recent concept, and many organizations are moving from old-style software development methods to agile approaches such as DevOps. However, there is no comprehensive information on what factors impact the success of the DevOps environment once organizations adopt it. This research focused on addressing this gap through a systematic literature review. The systematic review consisted of 33 articles from five selected search systems and databases from 2015 to 2021. Based on the included articles, 15 factors were identified and grouped into four categories: Collaborative Culture, Organizational Aspects, Tooling and Technology, and Continuous Practices. In addition, this research proposes a DevOps environment success factors model to potentially contribute to DevOps research and practice. Recommendations are made for additional research on the effectiveness of the proposed model and its success factors. | 翻訳日:2023-02-19 12:18:35 公開日:2022-11-08 |
# VRContour:バーチャルリアリティーに医療構造物の輪郭表示をもたらす VRContour: Bringing Contour Delineations of Medical Structures Into Virtual Reality ( http://arxiv.org/abs/2210.12298v2 ) ライセンス: Link先を確認 | Chen Chen, Matin Yarmand, Varun Singh, Michael V. Sherer, James D. Murphy, Yang Zhang, Nadir Weibel | (参考訳) コントゥーリングは放射線療法(RT)治療計画において必須のステップである。
しかし、今日のコンツーリングソフトウェアは2Dディスプレイでしか動作せず、直感的でなく、高いタスク負荷を必要とする。
バーチャルリアリティ(vr)は、没入空間における直感的および自然な相互作用のユニークな利点により、医療と健康科学教育の様々な専門分野において大きな可能性を秘めている。
VRベースの放射線腫瘍学の統合もターゲット医療アプリケーションとして提唱されており、提供者は直接3D医療構造と対話できる。
vrcontourについて紹介し,vrに放射線腫瘍学を効果的に導入する方法について検討する。
自伝的反復設計を通じて,追跡タブレットとvrスタイラスをサポートし,情報消費と入力(2dまたは2d+3d)の次元性を検討することで,vrのコンチューリングに焦点を当てたデザイン空間を3つ定義した。
対象内調査 (n = 8) により, 3次元医療構造物の可視化は, 精度を著しく向上し, 精神的負担, フラストレーション, および全体的なコンチューリング努力を減少させることがわかった。
参加者はまた、このようなメタファーを学習目的に使用するメリットにも同意した。 Contouring is an indispensable step in Radiotherapy (RT) treatment planning. However, today's contouring software is constrained to only work with a 2D display, which is less intuitive and requires high task loads. Virtual Reality (VR) has shown great potential in various specialties of healthcare and health sciences education due to the unique advantages of intuitive and natural interactions in immersive spaces. VR-based radiation oncology integration has also been advocated as a target healthcare application, allowing providers to directly interact with 3D medical structures. We present VRContour and investigate how to effectively bring contouring for radiation oncology into VR. Through an autobiographical iterative design, we defined three design spaces focused on contouring in VR with the support of a tracked tablet and VR stylus, and investigating dimensionality for information consumption and input (either 2D or 2D + 3D). Through a within-subject study (n = 8), we found that visualizations of 3D medical structures significantly increase precision, and reduce mental load, frustration, as well as overall contouring effort. Participants also agreed with the benefits of using such metaphors for learning purposes. | 翻訳日:2023-02-19 11:59:42 公開日:2022-11-08 |
# 物語の(ミス)情報の流れとエンゲージメント力のダイナミクス Dynamics of (mis)information flow and engaging power of narratives ( http://arxiv.org/abs/2207.12264v2 ) ライセンス: Link先を確認 | Emanuele Brugnoli and Marco Delmastro | (参考訳) 誤情報とその潜在的有害な公衆の意見への影響に関する議論は複雑で多面的であり、関連する学術研究でさえ、主流のコンテンツと比較して誤情報の普及と消費に共通点を見出さないほどである。
ここで提示される方法論的枠組みは、スケール効果を制御できる現象とメトリクスの複雑さを表すデータを考えることの重要性を強調している。
統計モデル,計量モデル,機械学習モデルを組み合わせることで、一般の関心事やワクチンなどの社会的関連性に関する誤報が、市民とニュースダイエットの両方で利用できる情報に与える影響について光を当てた。
以上の結果から、ニュースエコシステムにおける誤った情報ソースによって達成された重要な役割だけでなく、特に敏感で感情的な問題に関する議論を時間とともに推進する主流メディアの欠如も示しています。
公開討論の時間的ダイナミクスを適切に考慮することは、虚偽の物語がより容易に伝達され、定着する未制御の空間に、後者が移動するのを防ぐために不可欠である。 The debate around misinformation and its potentially detrimental effects on public opinion is complex and multifaceted, to the extent that even the relevant academic research has not found unanimity on the prevalence and consumption of misinformation compared with mainstream content. The methodological framework presented here emphasises the importance of considering data representative of the complexity of the phenomenon and metrics that control for possible scale effects. By combining statistical, econometric and machine learning models, we shed light on the real impact of misinformation about a subject of general interest and social relevance, such as vaccines, on both the information available to citizens and their news diet. Our results show the prominent role achieved by misinformation sources in the news ecosystem, but also - and above all - the inability of mainstream media to drive the public debate over time on issues that are particularly sensitive and emotional. Taking properly account for the temporal dynamics of public debate seems crucial to prevent the latter from moving into uncontrolled spaces where false narratives are more easily conveyed and entrenched. | 翻訳日:2023-02-19 10:04:46 公開日:2022-11-08 |
# 非マルコフ開量子力学の記述と複雑性 Description and complexity of Non-markovian open quantum dynamics ( http://arxiv.org/abs/2204.06936v2 ) ライセンス: Link先を確認 | Rahul Trivedi | (参考訳) 非マルコフ量子力学の理解とシミュレーションは、オープン量子システム理論の重要な課題である。
この取り組みの重要な進歩は、非マルコフ力学の統一的な数学的記述を開発し、その複雑さを多体設定で分類することである。
本稿では、複素値ラドン測度によって記述される非マルコフメモリ核の一般クラスを特定し、対応するシステム環境ユニタリ群を構成する正規化手順を通じてそれらのダイナミクスを定義する。
この定義に基づいて、メモリカーネルの総変動と滑らか性に関する物理的動機付けの仮定を持つ$k-$local many-body non-Markovianシステムを考える。
我々は、それらの力学を量子コンピュータ上で効率的に近似できることを確立し、非マルコフ開量子系の一般クラスに対する拡張教会チューリング論の厳密な検証を提供する。 Understanding and simulating non-Markovian quantum dynamics remains an important challenge in open quantum system theory. A key advance in this endeavour would be to develop a unified mathematical description of non-Markovian dynamics, and classify its complexity in the many-body setting. In this paper, we identify a general class of non-Markovian memory kernels, described by complex-valued radon measures, and define their dynamics through a regularization procedure constructing the corresponding system-environment unitary groups. Building on this definition, we then consider $k-$local many-body non-Markovian systems with physically motivated assumptions on the total variation and smoothness of the memory kernels. We establish that their dynamics can be efficiently approximated on quantum computers, thus providing a rigorous verification of the Extended Church-Turing thesis for this general class of non-Markovian open quantum systems. | 翻訳日:2023-02-17 00:18:24 公開日:2022-11-08 |
# 量子統計およびコヒーレンス対称性による熱輸送と補正 Heat transport and rectification via quantum statistical and coherence asymmetries ( http://arxiv.org/abs/2204.07060v2 ) ライセンス: Link先を確認 | Stephania Palafox, Ricardo Rom\'an-Ancheyta, Bar{\i}\c{s} \c{C}akmak, \"Ozg\"ur E. M\"ustecapl{\i}o\u{g}lu | (参考訳) ナノスケールでの最近の実験では、電気ダイオードの熱的等価な熱整流器が量子状態で動作可能であることが確認されている。
異なる粒子交換統計,コヒーレンスおよび集団相互作用が2端子接合を有する整流器の量子熱輸送に与える影響について徹底的に検討する。
開系力学を記述するための衝突モデル手法を用いて, 浴体粒子に量子統計あるいはコヒーレンス非対称性が存在する場合, ランダウアー式から根本的に逸脱する非線形熱流の一般式を得る。
そこで本研究では, 2つの浴槽が量子統計やコヒーレンスで異なる場合, 対称中バスカップリングにおいても熱整流が可能であることを示す。
さらに、関連する熱伝導度はクーロンブロック効果のように低温で指数関数的に消失する。
しかし、高温では量子統計量に依存するパワーロー挙動を得る。
以上の結果は,ハイブリッドオープン量子システムや固体熱回路における熱管理に有意である。 Recent experiments at the nanoscales confirm that thermal rectifiers, the thermal equivalent of electrical diodes, can operate in the quantum regime. We present a thorough investigation of the effect of different particle exchange statistics, coherence, and collective interactions on the quantum heat transport of rectifiers with two-terminal junctions. Using a collision model approach to describe the open system dynamics, we obtain a general expression of the nonlinear heat flow that fundamentally deviates from the Landauer formula whenever quantum statistical or coherence asymmetries are present in the bath particles. Building on this, we show that heat rectification is possible even with symmetric medium-bath couplings if the two baths differ in quantum statistics or coherence. Furthermore, the associated thermal conductance vanishes exponentially at low temperatures as in the Coulomb-blockade effect. However, at high temperatures it acquires a power-law behavior depending on the quantum statistics. Our results can be significant for heat management in hybrid open quantum systems or solid-state thermal circuits. | 翻訳日:2023-02-17 00:08:31 公開日:2022-11-08 |
# ダイナミックリフト付きプロトキッパー Proto-Quipper with dynamic lifting ( http://arxiv.org/abs/2204.13041v2 ) ライセンス: Link先を確認 | Peng Fu, Kohei Kishida, Neil J. Ross, Peter Selinger | (参考訳) Quipperは量子コンピューティングのための関数型プログラミング言語である。
Proto-QuipperはQuipperの正式な基盤を提供する言語群である。
本稿では,Quipper に存在する Dynamic lifting という構造で Proto-Quipper-M を拡張した。
回路記述言語であるため、Proto-Quipperには回路生成時間と回路実行時間という2つの異なるランタイムがある。
回路生成時に既知の値をパラメータと呼び、回路実行時に既知の値を状態と呼ぶ。
ダイナミックリフト(Dynamic lifting)は、測定結果などの状態がパラメータに持ち上げられるようにする操作であり、回路の次の部分の生成に影響を与える可能性がある。
その結果、動的リフティングにより、プロトクイッパープログラムは古典計算と量子計算をインターリーブすることができる。
我々はproto-quipper-dynと呼ばれる言語の構文を記述する。
タイプシステムは、ダイナミックリフトの使用を追跡するためにモダリティのシステムを使用する。
また,拡張圏理論に基づく動的浮揚のための抽象的カテゴリー意味論と同様に,操作的意味論も提供する。
タイプシステムと操作セマンティクスの両方が、私たちのカテゴリーセマンティクスに関して健全であることを証明します。
最後に、動的リフトを必須に利用するProto-Quipper-Dynプログラムの例を示す。 Quipper is a functional programming language for quantum computing. Proto-Quipper is a family of languages aiming to provide a formal foundation for Quipper. In this paper, we extend Proto-Quipper-M with a construct called dynamic lifting, which is present in Quipper. By virtue of being a circuit description language, Proto-Quipper has two separate runtimes: circuit generation time and circuit execution time. Values that are known at circuit generation time are called parameters, and values that are known at circuit execution time are called states. Dynamic lifting is an operation that enables a state, such as the result of a measurement, to be lifted to a parameter, where it can influence the generation of the next portion of the circuit. As a result, dynamic lifting enables Proto-Quipper programs to interleave classical and quantum computation. We describe the syntax of a language we call Proto-Quipper-Dyn. Its type system uses a system of modalities to keep track of the use of dynamic lifting. We also provide an operational semantics, as well as an abstract categorical semantics for dynamic lifting based on enriched category theory. We prove that both the type system and the operational semantics are sound with respect to our categorical semantics. Finally, we give some examples of Proto-Quipper-Dyn programs that make essential use of dynamic lifting. | 翻訳日:2023-02-15 09:08:39 公開日:2022-11-08 |
# 量子複雑性と物質の位相相 Quantum complexity and topological phases of matter ( http://arxiv.org/abs/2205.05688v3 ) ライセンス: Link先を確認 | Pawel Caputa, Sinong Liu | (参考訳) この研究において、クリュロフ基底の広がりとして定義される量子多体状態の複雑性は、物質の位相相を区別する新しいプローブとして機能することを発見した。
これを代表的な例の1つであるsu-schrieffer-heegerモデルで解析的に説明し、拡散複雑性が位相相で一定になることを示す。
さらに、同じ設定で、拡散複雑性の進化が初期状態の位相的相と非位相的相とおよびクエンチハミルトン的相によって異なる動的特徴を示すような、正確に解決可能なクエンチプロトコルを解析する。 In this work, we find that the complexity of quantum many-body states, defined as a spread in the Krylov basis, may serve as a new probe that distinguishes topological phases of matter. We illustrate this analytically in one of the representative examples, the Su-Schrieffer-Heeger model, finding that spread complexity becomes constant in the topological phase. Moreover, in the same setup, we analyze exactly solvable quench protocols where the evolution of the spread complexity shows distinct dynamical features depending on the topological vs non-topological phase of the initial state as well as the quench Hamiltonian. | 翻訳日:2023-02-13 12:20:40 公開日:2022-11-08 |
# エントロピーアコーディオン:量子相関階層における新しい尺度 Entropic Accord: A new measure in the quantum correlation hierarchy ( http://arxiv.org/abs/2205.06477v2 ) ライセンス: Link先を確認 | Biveen Shajilal, Elanor Huntington, Ping Koy Lam, and Syed Assad | (参考訳) 量子相関はしばしば、適切な測定の下で2つ以上の局所サブシステムによって示される相関を示す。
これらの相関は古典統計学と関連する古典確率分布の枠組みを超えている。
量子絡み合いはそのような相関で最もよく知られており、量子情報理論において重要な役割を果たす。
しかし、古典統計学では説明できない量子相関を持つ非絡み合い状態が存在する。
このような非古典的相関を捉える尺度は不協和である。
ここでは、絡み合いと不協和の間に適合するエントロピックアコーディオンと呼ばれる量子相関の新しい尺度を紹介する。
これは、両者の射影測定結果の最適化された最小値の相互情報として定義される。
2量子状態の絡み合い、エントロピーアコーディオン、不協和の間に厳密な階層が存在することを示す。
3つのエントロピー量の関係を示す2量子状態について検討する。
不協和と絡み合いとは異なる相関関係のクラスを明らかにすることに加えて、エントロピーアコーディオン測度は特定の文脈において本質的に直感的である。 Quantum correlation often refers to correlations exhibited by two or more local subsystems under a suitable measurement. These correlations are beyond the framework of classical statistics and the associated classical probability distribution. Quantum entanglement is the most well known of such correlations and plays an important role in quantum information theory. However, there exist non-entangled states that still possess quantum correlations which cannot be described by classical statistics. One such measure that captures these nonclassical correlations is discord. Here we introduce a new measure of quantum correlations which we call entropic accord that fits between entanglement and discord. It is defined as the optimised minimax mutual information of the outcome of the projective measurements between two parties. We show a strict hierarchy exists between entanglement, entropic accord and discord for two-qubit states. We study two-qubit states which shows the relationship between the three entropic quantities. In addition to revealing a class of correlations that are distinct from discord and entanglement, the entropic accord measure can be inherently more intuitive in certain contexts. | 翻訳日:2023-02-13 06:59:48 公開日:2022-11-08 |
# 1次元高調波トラップにおける2つの超低温高磁性原子 Two ultracold highly magnetic atoms in a one-dimensional harmonic trap ( http://arxiv.org/abs/2205.08965v3 ) ライセンス: Link先を確認 | Micha{\l} Suchorowski, Anna Dawid, Micha{\l} Tomza | (参考訳) 1次元高調波ポテンシャルに閉じ込められた2つの相互作用する超強磁性原子の性質を理論的に検討する。
原子は異方性長距離双極子-双極子相互作用を介して相互作用し、1次元では接触相互作用によって効果的にモデル化できる。
本研究では, 外部磁場の相互作用, スピン-スピン相互作用, トラップ電位, 系の磁化への影響について検討する。
実験で測定可能な観測対象の時間発展を研究することにより,力学における識別不能性と対称性の役割を示す。
提示されたモデルは、拡張されたハバードモデルのオンサイト相互作用を描写するので、各多体量子シミュレータの基本構成要素をよりよく理解することができる。 We theoretically investigate the properties of two interacting ultracold highly magnetic atoms trapped in a one-dimensional harmonic potential. The atoms interact via an anisotropic long-range dipole-dipole interaction, which in one dimension effectively can be modeled by the contact interaction. We investigate the interplay of the external magnetic field, the spin-spin interaction, and the trapping potential and how they affect the magnetization of the system. We show the role of indistinguishability and symmetries in the dynamics by studying the time evolution of the observables that could be measured experimentally. The presented model may depict the on-site interaction of the extended Hubbard models, therefore giving a better understanding of the fundamental building block of the respective many-body quantum simulators. | 翻訳日:2023-02-12 18:01:24 公開日:2022-11-08 |
# 相互作用するボソンの最適光円錐とディジタル量子シミュレーション Optimal light cone and digital quantum simulation of interacting bosons ( http://arxiv.org/abs/2206.14736v2 ) ライセンス: Link先を確認 | Tomotaka Kuwahara, Tan Van Vu, and Keiji Saito | (参考訳) 情報伝播の速度制限は、非平衡物理学における最も基本的な特徴の1つである。
有限時間ダイナミクスによる情報伝達の領域は、リーブ・ロビンソン境界によって定式化された有効光円錐の内部でほぼ制限される。
これまで、多くの実験的な多体系において、有効光円錐の形状を特定するために広範な研究がなされてきた。
しかし、相互作用するボソン系(自然界で最もユビキタスな量子系の一つ)のリーブ・ロビンソンは、長い間、重要なオープン問題のままである。
本研究は,有効光円錐の形状が空間次元に依存するボソン間相互作用における情報伝搬を制限するための最適光円錐を明らかにする。
これを実現するために,各サイトにおけるボソン数切り欠きの誤差の保証を導くため,ボソン数切り欠きの速度は有限であることが証明された。
さらに,本手法を適用し,相互作用するボソン系をシミュレーションする効率の良いアルゴリズムを提案する。
本研究の結果は, 難解な問題を解決し, 多体ボソンシステムの複雑さを解明するための基礎となるものである。 The speed limit of information propagation is one of the most fundamental features in non-equilibrium physics. The region of information propagation by finite-time dynamics is approximately restricted inside the effective light cone that is formulated by the Lieb-Robinson bound. To date, extensive studies have been conducted to identify the shape of effective light cones in most experimentally relevant many-body systems. However, the Lieb-Robinson bound in the interacting boson systems, one of the most ubiquitous quantum systems in nature, has remained a critical open problem for a long time. This study reveals an optimal light cone to limit the information propagation in interacting bosons, where the shape of the effective light cone depends on the spatial dimension. To achieve it, we prove that the speed for bosons to clump together is finite, which in turn leads to the error guarantee of the boson number truncation at each site. Furthermore, we applied the method to provide a provably efficient algorithm for simulating the interacting boson systems. The results of this study settle the notoriously challenging problem and provide the foundation for elucidating the complexity of many-body boson systems. | 翻訳日:2023-02-07 07:28:33 公開日:2022-11-08 |
# イリノイ・エクスプレス量子大都市圏ネットワークの設計と実装 Design and Implementation of the Illinois Express Quantum Metropolitan Area Network ( http://arxiv.org/abs/2207.09589v2 ) ライセンス: Link先を確認 | Joaquin Chung, Ely M. Eastman, Gregory S. Kanter, Keshav Kapoor, Nikolai Lauk, Cristi\'an Pe\~na, Robert Plunkett, Neil Sinclair, Jordan M. Thomas, Raju Valivarthi, Si Xie, Rajkumar Kettimuthu, Prem Kumar, Panagiotis Spentzouris, Maria Spiropulu | (参考訳) イリノイ・エクスプレス量子ネットワーク(イリノイ・エクスプレス・量子ネットワーク、IEQNET)は、現在利用可能な技術を用いて展開された光ファイバー上での大規模量子ネットワークを実現するプログラムである。
IEQNETはシカゴ都市圏に地理的に分散している複数のサイトで構成されている。
各サイトは、量子ネットワーク内の通信相手を表す1つ以上の量子ノード(Qノード)を有する。
qノードは、絡み合った光子などの量子信号を生成または測定し、標準、古典的信号および従来のネットワークプロセスを介して測定結果を伝達する。
ieqnetノードの絡み合った光子は、複数の波長で生成され、透過光スイッチを介して所望のユーザに選択的に分配される。
本稿では,ieqnet のネットワークアーキテクチャについて述べる。この階層構造は software-defined networking (sdn) 技術を活用して,従来の波長ルーティングと q-ノード間の割り当てを行う。
具体的には、SDNはコントロールプレーンとデータプレーンを分離し、コントロールプレーンは古典的なドメインで完全に実装されている。
また、同期、キャリブレーション、ネットワーク監視、スケジューリングに関する問題に対処するieqnetプロセスについても論じる。
ieqnetの重要な目標は、制御プレーンの古典的信号が同じファイバーライン(量子古典的信号「共存」)のデータプレーンの量子信号と相互に伝達できる範囲を示すことである。
この目標は、受信機での波長可変狭帯域光フィルタリングの使用と、少なくともいくつかのケースでは、量子チャネルと古典チャネルの広い波長分離によってさらに進んでいる。
我々は,絡み合い分布や量子状態テレポーテーションなどの大規模量子通信タスクを実証することにより,堅牢で実用的な量子ネットワークの開発を支援するためにIEQNETを構想する。 The Illinois Express Quantum Network (IEQNET) is a program to realize metropolitan scale quantum networking over deployed optical fiber using currently available technology. IEQNET consists of multiple sites that are geographically dispersed in the Chicago metropolitan area. Each site has one or more quantum nodes (Q-nodes) representing the communication parties in a quantum network. Q-nodes generate or measure quantum signals such as entangled photons and communicate the measurement results via standard, classical signals and conventional networking processes. The entangled photons in IEQNET nodes are generated at multiple wavelengths, and are selectively distributed to the desired users via transparent optical switches. Here we describe the network architecture of IEQNET, including the Internet-inspired layered hierarchy that leverages software-defined networking (SDN) technology to perform traditional wavelength routing and assignment between the Q-nodes. Specifically, SDN decouples the control and data planes, with the control plane being entirely implemented in the classical domain. We also discuss the IEQNET processes that address issues associated with synchronization, calibration, network monitoring, and scheduling. An important goal of IEQNET is to demonstrate the extent to which the control plane classical signals can co-propagate with the data plane quantum signals in the same fiber lines (quantum-classical signal "coexistence"). This goal is furthered by the use of tunable narrow-band optical filtering at the receivers and, at least in some cases, a wide wavelength separation between the quantum and classical channels. We envision IEQNET to aid in developing robust and practical quantum networks by demonstrating metro-scale quantum communication tasks such as entanglement distribution and quantum-state teleportation. | 翻訳日:2023-02-04 12:43:08 公開日:2022-11-08 |
# 量子コンピュータにおける衝突イベント Collider Events on a Quantum Computer ( http://arxiv.org/abs/2207.10694v2 ) ライセンス: Link先を確認 | G\"osta Gustafson, Stefan Prestel, Michael Spannowsky and Simon Williams | (参考訳) 粒子物理学の発見には高品質のシミュレーションデータが不可欠である。
したがって、パートンシャワーアルゴリズムは、イベント生成プログラムにおけるデータ合成の主要な構成要素である。
しかし、パルトンシャワーの生成に使われるコアアルゴリズムは1980年代からほとんど変わっていない。
量子コンピュータの高速かつ連続的な開発では、高エネルギー物理学における問題に量子コンピュータが取り組む可能性を利用するために専用のアルゴリズムが必要である。
本稿では,離散型qcd法によるパートンシャワーの合成法を提案する。
このアルゴリズムは、古典的なツールチェーンに組み込むことができるエレガントな量子ウォーク実装の恩恵を受ける。
ibm_algiersデバイスを使用してパートンシャワーの設定をサンプリングし,aleph,delphi,opal実験で測定した測定値と比較したデータを生成する。
これは、現実的な高エネルギー粒子衝突イベントをシミュレートするために、NISQ(Noisy Intermediate-Scale Quantum)デバイスが初めて使用される。 High-quality simulated data is crucial for particle physics discoveries. Therefore, parton shower algorithms are a major building block of the data synthesis in event generator programs. However, the core algorithms used to generate parton showers have barely changed since the 1980s. With quantum computers' rapid and continuous development, dedicated algorithms are required to exploit the potential that quantum computers provide to address problems in high-energy physics. This paper presents a novel approach to synthesising parton showers using the Discrete QCD method. The algorithm benefits from an elegant quantum walk implementation which can be embedded into the classical toolchain. We use the ibm_algiers device to sample parton shower configurations and generate data that we compare against measurements taken at the ALEPH, DELPHI and OPAL experiments. This is the first time a Noisy Intermediate-Scale Quantum (NISQ) device has been used to simulate realistic high-energy particle collision events. | 翻訳日:2023-02-04 05:13:50 公開日:2022-11-08 |
# 批判的schr\"odinger cat qubit A critical Schr\"odinger cat qubit ( http://arxiv.org/abs/2208.04928v2 ) ライセンス: Link先を確認 | Luca Gravina, Fabrizio Minganti, Vincenzo Savona | (参考訳) ボソニックシステムに量子情報をエンコードすることは、量子誤り訂正への有望な経路である。
猫コードでは、このエンコーディングはシステムのダイナミクスを、反対のパリティのシュル=オディンガー・キャッツ(schr\"odinger cats)にまたがる2次元多様体に閉じ込めることに依存している。
消散性猫量子ビットでは、2光子駆動と2光子消散を組み合わせた工学的な消散スキームが、この多様体を自律的に安定化させ、例えば位相フリップ誤差に対する受動的保護を確保する。
同様に、高い性能を持つゲートを設計できるKerr cat qubitsでは、2光子駆動とKerr非線形性が協力して、猫が持つ基底状態多様体にシステムを閉じ込める。
散逸性、ハミルトニアン、ハイブリッド閉じ込め機構は共鳴において主に研究されている。
ここでは, 2光子散逸とKerr非線形性の両方が存在し, 2光子駆動が共鳴から外れることを許容する臨界猫符号を提案する。
非線形性とデチューニングの競合は、第1次散逸相転移を引き起こし、符号化を幅広いパラメータにわたって効率的に行う。
コードの性能は、リウヴィリアンスペクトル理論の一般的な枠組みでベンチマークされている。
我々は,光子損失とデファスリングノイズの両方の存在下で,臨界安定化機構とハミルトン,消散性,共鳴ハイブリッドとの公正な比較を可能にするチャネル忠実崩壊率を導入する。
クリティカルキャットは他の猫よりも優れており、この強化された性能は現在の実験的な設定の範囲内にある。
幅広いデチューニング値の操作を効果的に行うため、臨界猫符号は特に複数の量子ビット演算を特徴付けるランダムな周波数シフトに耐性があり、スケーラブルで連結されたボソニックキュービットアーキテクチャのための信頼性の高いプロトコルを実現するための場所を開く。 Encoding quantum information onto bosonic systems is a promising route to quantum error correction. In a cat code, this encoding relies on the confinement of the system's dynamics onto the two-dimensional manifold spanned by Schr\"odinger cats of opposite parity. In dissipative cat qubits, an engineered dissipation scheme combining two-photon drive and two-photon dissipation autonomously stabilize this manifold, ensuring passive protection against, e.g., phase-flip errors regardless of their origin. Similarly, in Kerr cat qubits, where highly-performing gates can be engineered, two-photon drive and Kerr nonlinearity cooperate to confine the system to the ground state manifold spanned by the cats. Dissipative, Hamiltonian, and hybrid confinement mechanisms have been mainly investigated at resonance. Here, we propose a critical cat code, where both two-photon dissipation and Kerr nonlinearity are present and the two-photon drive is allowed to be out of resonance. The competition between nonlinearity and detuning triggers a first-order dissipative phase transition, making the encoding efficient over a wide range of parameters. The performance of the code is benchmarked within the general framework of the Liouvillian spectral theory. We introduce a channel-fidelity decay rate, allowing a fair comparison between our critical stabilization mechanism and its Hamiltonian, dissipative, and resonant-hybrid counterparts in the presence of both photon loss and dephasing noise. The critical cat outperforms the others, and this enhanced performance lies within reach of current experimental setups. Efficiently operating over a broad range of detuning values, the critical cat code is particularly resistant to random frequency shifts characterizing multiple-qubit operations, opening venues for the realization of reliable protocols for scalable and concatenated bosonic qubit architectures. | 翻訳日:2023-02-01 19:03:55 公開日:2022-11-08 |
# 時間依存性スピン軌道カップリングによる可変平面ジョセフソン接合 Tunable planar Josephson junctions driven by time-dependent spin-orbit coupling ( http://arxiv.org/abs/2208.07512v2 ) ライセンス: Link先を確認 | David Monroe, Mohammad Alidoust, and Igor \v{Z}uti\'c | (参考訳) 通常の超伝導体とIII-V半導体を統合することで、可変ジョセフソン接合(JJ)とその応用を実装できる汎用的なプラットフォームを提供する。
ゲート制御の時間依存スピン軌道結合により、電流相関係とジョセフソンエネルギーを強く変更することができ、バイアス電流がなくてもjjダイナミクスを駆動するメカニズムを提供することができる。
安定相間の遷移はスピン軌道結合の強さの単純な線形変化で実現され、遷移速度はゲート誘起電界GHz変化を桁違いに超えることができることを示す。
一定の有効磁場とスピン軌道結合の変化の間に生じる相互作用は、超伝導スピントロニクス、マヨラナ境界状態の制御、新興の量子ビットに直接影響する。
我々は、フォールトトレラント量子コンピューティングを求めるトポロジカル超伝導が超伝導エレクトロニクスやスピントロニクスにより単純な応用をもたらすと論じる。 Integrating conventional superconductors with common III-V semiconductors provides a versatile platform to implement tunable Josephson junctions (JJs) and their applications. We propose that with gate-controlled time-dependent spin-orbit coupling, it is possible to strongly modify the current-phase relations and Josephson energy and provide a mechanism to drive the JJ dynamics, even in the absence of any bias current. We show that the transition between stable phases is realized with a simple linear change in the strength of the spin-orbit coupling, while the transition rate can exceed the gate-induced electric field GHz changes by an order of magnitude. The resulting interplay between the constant effective magnetic field and changing spin-orbit coupling has direct implications for superconducting spintronics, controlling Majorana bound states, and emerging qubits. We argue that topological superconductivity, sought for fault-tolerant quantum computing, offers simpler applications in superconducting electronics and spintronics. | 翻訳日:2023-01-30 23:03:01 公開日:2022-11-08 |
# 量子コンピュータにおける対称性破壊・対称性保存回路と対称性回復:量子多体の視点から Symmetry breaking/symmetry preserving circuits and symmetry restoration on quantum computers: A quantum many-body perspective ( http://arxiv.org/abs/2208.11567v3 ) ライセンス: Link先を確認 | Denis Lacroix, Edgar Andres Ruiz Guzman and Pooja Siwach | (参考訳) ここでは、量子コンピュータでそれを扱う際に、量子多体問題の対称性に関連するいくつかの側面について論じる。
対称性の保存、対称性の破断、および可能な対称性の復元に関するいくつかの特徴を概説する。
多粒子系に関連する標準対称性のいくつかを簡潔に議論した後、特に量子レジスタサイズを減らすために、いくつかの対称性を直接量子 ans\atze で符号化する利点について論じる。
しかし、対称性破れ状態の使用は、自発的な対称性破れが発生したときに特定の内部相関を組み込むユニークな方法であることもよく知られている。
これらの側面は量子コンピューティングの文脈で論じられている。
最終的に、量子システムの正確な記述は、最初に破れた対称性が適切に復元されたときのみ達成できる。
本稿では, 量子コンピュータ上で対称性回復を行うために, 量子位相推定による対称性フィルタリングに基づくもの, ハダマールテストの反復独立な集合によるものなど, 以前に検討したいくつかの手法について検討する。
本稿では, 線形結合型ユニタリ (LCU) を用いた状態の浄化など, 対称性回復のための新しい方向を舗装する手法を提案する。 We discuss here some aspects related to the symmetries of a quantum many-body problem when trying to treat it on a quantum computer. Several features related to symmetry conservation, symmetry breaking, and possible symmetry restoration are reviewed. After briefly discussing some of the standard symmetries relevant for many-particle systems, we discuss the advantage of encoding some symmetries directly in quantum ans\"atze, especially to reduce the quantum register size. It is, however, well-known that the use of symmetry-breaking states can also be a unique way to incorporate specific internal correlations when a spontaneous symmetry breaking occurs. These aspects are discussed in the quantum computing context. Ultimately, an accurate description of quantum systems can be achieved only when the initially broken symmetries are properly restored. We review several methods explored previously to perform symmetry restoration on a quantum computer, for instance, the ones based on symmetry filtering by quantum phase estimation and by an iterative independent set of Hadamard tests. We propose novel methods that pave the new directions to perform symmetry restoration, like those based on the purification of the state employing the linear combination of unitaries (LCU) approach. | 翻訳日:2023-01-29 23:57:45 公開日:2022-11-08 |
# ipie: cpuとgpuの柔軟性と効率性を備えたpythonベースの補助フィールド量子モンテカルロプログラム ipie: A Python-based Auxiliary-Field Quantum Monte Carlo Program with Flexibility and Efficiency on CPUs and GPUs ( http://arxiv.org/abs/2209.04015v2 ) ライセンス: Link先を確認 | Fionn D. Malone and Ankit Mahajan and James S. Spencer and Joonho Lee | (参考訳) 我々は,[cu$_2$o$_2$$]^{2+}$の異性化に関する予備的タイミングベンチマークと新しいafqmc結果を用いて,pythonベースの補助フィールド量子モンテカルロ(afqmc)プログラムの開発を報告した。
集中処理ユニット(CPUとGPU)の実装がipieでどのように実現されるかを示す。
PySCFによるipieのインターフェースと、ipieに新しい推定子を追加するための簡単なテンプレートを示す。
QMCPACKとDiceの他のC++コードに対するタイミングベンチマークでは、ipieはCPUとGPUの両方で考慮されたすべての化学系で高速または同様の性能を示している。
cu$_2$o$_2$$$]^{2+}$ 選択された構成相互作用実験の結果、bis($\mu$-oxo) と $\mu$-$\eta^2$:$\eta^2$ peroxo のph-afqmc異性化エネルギーを、10^5$ から 10^6$ の小さな基底集合の正確な結果に収束させることができる。
実験波動関数に52電子と290軌道と10^6$の行列式を含む1kcal/mol未満の誤差を推定した4重ゼータ基底を持つ異性化エネルギーも報告した。
これらの結果は, 緩やかな強い相関と大規模動的相関を持つシステムに対するph-AFQMCとipieの有用性を強調した。 We report the development of a python-based auxiliary-field quantum Monte Carlo (AFQMC) program, ipie, with preliminary timing benchmarks and new AFQMC results on the isomerization of [Cu$_2$O$_2$$]^{2+}$. We demonstrate how implementations for both central and graphical processing units (CPUs and GPUs) are achieved in ipie. We show an interface of ipie with PySCF as well as a straightforward template for adding new estimators to ipie. Our timing benchmarks against other C++ codes, QMCPACK and Dice, suggest that ipie is faster or similarly performing for all chemical systems considered on both CPUs and GPUs. Our results on [Cu$_2$O$_2$$]^{2+}$ using selected configuration interaction trials show that it is possible to converge the ph-AFQMC isomerization energy between bis($\mu$-oxo) and $\mu$-$\eta^2$:$\eta^2$ peroxo configurations to the exact known results for small basis sets with $10^5$ to $10^6$ determinants. We also report the isomerization energy with a quadruple-zeta basis set with an estimated error less than a kcal/mol, which involved 52 electrons and 290 orbitals with $10^6$ determinants in the trial wavefunction. These results highlight the utility of ph-AFQMC and ipie for systems with modest strong correlation and large-scale dynamic correlation. | 翻訳日:2023-01-27 07:46:27 公開日:2022-11-08 |
# 曲面多様体上の純および混合キュービット測地路の複雑性 Complexity of Pure and Mixed Qubit Geodesic Paths on Curved Manifolds ( http://arxiv.org/abs/2209.10661v2 ) ライセンス: Link先を確認 | Carlo Cafaro, Paul M. Alsing | (参考訳) 混合量子状態は量子系に関する不完全知識(すなわち不完全情報)の非常にエントロピーな状態であり、純粋な量子状態はフォン・ノイマンのエントロピーが消滅する完全知識(すなわち完全情報)の状態であることが知られている。
本稿では,純粋および混合状態における量子系の進化の複雑な挙動を記述し,ある程度理解するための情報幾何学的理論的構成法を提案する。
比較解析は自然界において確率的であり、時間平均化法と長期限界に依存し、基礎多様体上の期待される測地的進化を分析することに制限される複雑性測度を用いる。
より具体的には、フビニ・スタディ計量とシェークヴィスト計量を備えた1量子ビット純および混合量子状態の多様体上の測地線経路の複雑さについて研究する。
解析により、ブロッホ球内の混合量子状態の進化はブロッホ球上の純粋な状態の進化よりも複雑であることが示されている。
また,提案した複雑性尺度に基づくランキングは,システムの進化過程において多様体上で探索された領域の平均体積の漸近時間的挙動を表す量であり,測地線長に基づくランキングと一致することも確認した。
最後に,混合量子状態の多様体における測地線長と曲率特性に着目して,sjoqvist多様体と比較してbures多様体の複雑性の軟化を観測した。 It is known that mixed quantum states are highly entropic states of imperfect knowledge (i.e., incomplete information) about a quantum system, while pure quantum states are states of perfect knowledge (i.e., complete information) with vanishing von Neumann entropy. In this paper, we propose an information geometric theoretical construct to describe and, to a certain extent, understand the complex behavior of evolutions of quantum systems in pure and mixed states. The comparative analysis is probabilistic in nature, it uses a complexity measure that relies on a temporal averaging procedure along with a long-time limit, and is limited to analyzing expected geodesic evolutions on the underlying manifolds. More specifically, we study the complexity of geodesic paths on the manifolds of single-qubit pure and mixed quantum states equipped with the Fubini-Study metric and the Sjoqvist metric, respectively. We analytically show that the evolution of mixed quantum states in the Bloch ball is more complex than the evolution of pure states on the Bloch sphere. We also verify that the ranking based on our proposed measure of complexity, a quantity that represents the asymptotic temporal behavior of an averaged volume of the region explored on the manifold during the evolution of the systems, agrees with the geodesic length-based ranking. Finally, focusing on geodesic lengths and curvature properties in manifolds of mixed quantum states, we observed a softening of the complexity on the Bures manifold compared to the Sjoqvist manifold. | 翻訳日:2023-01-25 20:28:47 公開日:2022-11-08 |
# 超電導量子ビットの古典制御によるマスター方程式のエミュレーションとコヒーレンス保存 Master Equation Emulation and Coherence Preservation with Classical Control of a Superconducting Qubit ( http://arxiv.org/abs/2210.01388v2 ) ライセンス: Link先を確認 | Evangelos Vlachos, Haimeng Zhang, Vivek Maurya, Jeffrey Marshall, Tameem Albash, Eli M. Levenson-Falk | (参考訳) オープン量子系は強烈な理論研究のトピックである。
外部環境と相互作用するシステムの進化をモデル化するためのマスター方程式の使用は、最も成功した理論パラダイムの1つである。
異なるオープンシステムの実現を研究するための一般的な実験ツールは限られており、多様なマスター方程式力学をエミュレートし、オープンシステム理論をテストする方法を与える実験ツールを開発することが非常に望ましい。
本稿では,古典的確率雑音を用いたシステム環境相互作用の工学的手法と,特定の形態のマスター方程式のエミュレートについて述べる。
また,非マルコフ雑音を量子系のコヒーレンスを延長し,マルコフ環境の逆効果を反作用させる資源として利用できることを示す。 Open quantum systems are a topic of intense theoretical research. The use of master equations to model a system's evolution subject to an interaction with an external environment is one of the most successful theoretical paradigms. General experimental tools to study different open system realizations have been limited, and so it is highly desirable to develop experimental tools which emulate diverse master equation dynamics and give a way to test open systems theories. In this paper we demonstrate a systematic method for engineering specific system-environment interactions and emulating master equations of a particular form using classical stochastic noise. We also demonstrate that non-Markovian noise can be used as a resource to extend the coherence of a quantum system and counteract the adversarial effects of Markovian environments. | 翻訳日:2023-01-23 22:11:25 公開日:2022-11-08 |
# 光配置可能な$^{171}$yb$^{+}$イオンquditsによる量子ゲートの実現 Realizing quantum gates with optically-addressable $^{171}$Yb$^{+}$ ion qudits ( http://arxiv.org/abs/2210.09121v2 ) ライセンス: Link先を確認 | M.A. Aksenov, I.V. Zalivako, I.A. Semerikov, A.S. Borisenko, N.V. Semenin, P.L. Sidorov, A.K. Fedorov, K.Yu. Khabarova, N.N. Kolachevsky | (参考訳) quditsとしても知られるマルチレベル情報キャリアの利用は、量子コンピューティングデバイスのスケーラビリティを探求するための有望な道である。
本稿では,線形トラップにおける光適応$^{171}$Yb$^{+}$ ion quditsを用いた量子プロセッサの原理的実現法を提案する。
$^{171}$Yb$^{+}$イオンのリッチな準位構造は、435.5nmの四重極時計遷移のゼーマン準位を効率よくロバストなQudit符号化に用いることができる。
単一量子回転と2量子エンタングリング操作からなる共通ゲート集合を2量子系で実現し,これを4量子回路と正式に等価とする。
本研究は,量子アルゴリズムのより効率的な実装のさらなる研究への道を開くものである。 The use of multilevel information carriers, also known as qudits, is a promising path for exploring scalability of quantum computing devices. In this work, we present a proof-of-principle realization of a quantum processor that uses optically-addressed $^{171}$Yb$^{+}$ ion qudits in a linear trap. The rich level structure of $^{171}$Yb$^{+}$ ions makes it possible to use the Zeeman sublevels of the quadrupole clock transition at 435.5 nm for efficient and robust qudit encoding. We demonstrate the realization of the universal set of gates consisting of single-qudit rotations and two-qudit entangling operation with a two-ququart system, which is formally equivalent to a universal gate-based four-qubit processor. Our results paves a way towards further studies of more efficient implementations of quantum algorithms with trapped-ion-based processors. | 翻訳日:2023-01-22 07:09:06 公開日:2022-11-08 |
# 量子系の相関関数に対するマルチスケール時空間アンサッツ Multi-scale space-time ansatz for correlation functions of quantum systems ( http://arxiv.org/abs/2210.12984v2 ) ライセンス: Link先を確認 | Hiroshi Shinaoka, Markus Wallerberger, Yuta Murakami, Kosuke Nogaki, Rihito Sakurai, Philipp Werner, Anna Kauch | (参考訳) 量子系の相関関数は、高次元の時空領域で定義される量子場理論の中心対象である。
これらの物体の数値処理は次元性の呪いに悩まされ、複雑な多体理論の興味深い問題への適用を妨げる。
本稿では,量子系の相関関数に対するマルチスケール空間時間アンサッツ(MSSTA)を提案する。
時空依存は指数的に異なる長さスケールを示す補助量子ビット自由度にマッピングされ、アンザッツは長さスケールの分離を仮定する。
種々の平衡系および非平衡系のアンサッツを数値的に検証し,課題に対して数桁の圧縮率を示す。
畳み込みやフーリエ変換のような図式方程式の基本的な構成要素は圧縮形式で定式化される。
我々はダイソン方程式とベーテ・サルペター方程式の安定性と効率を数値的に示す。
msstaは場の量子論の効率的な計算を実現するための統一フレームワークを提供する。 Correlation functions of quantum systems are central objects in quantum field theories which may be defined in high-dimensional space-time domains. The numerical treatment of these objects suffers from the curse of dimensionality, which hinders the application of sophisticated many-body theories to interesting problems. Here, we propose a quantum-inspired Multi-Scale Space-Time Ansatz (MSSTA) for correlation functions of quantum systems. The space-time dependence is mapped to auxiliary qubit degrees of freedom describing exponentially different length scales, and the ansatz assumes a separation of length scales. We numerically verify the ansatz for various equilibrium and nonequilibrium systems and demonstrate compression rates of several orders of magnitude for challenging cases. Essential building blocks of diagrammatic equations, such as convolutions or Fourier transforms are formulated in the compressed form. We numerically demonstrate the stability and efficiency of the proposed methods for the Dyson and Bethe-Salpeter equations. MSSTA provides a unified framework for implementing efficient computations of quantum field theories. | 翻訳日:2023-01-21 19:02:09 公開日:2022-11-08 |
# 量子計算と復号化多要素量子計算 Oblivious Quantum Computation and Delegated Multiparty Quantum Computation ( http://arxiv.org/abs/2211.00962v2 ) ライセンス: Link先を確認 | Masahito Hayashi | (参考訳) 本稿では、入力量子ビットの秘密性と量子ゲートを識別するプログラムが要求される量子計算の計算結果に対して、暗黙の転送を必要とする新しい概念である暗黙の量子計算を提案する。
本稿では,計算結果の送信に不要な2サーバ(量子)の単純な適用よりも,通信の複雑さを指数関数的に改善する2サーバプロトコルを提案する。
また,複数のユーザが古典的通信のみを用いてマルチパーティ量子計算をサーバに要求する,deleged multiparty quantum computationという新たな概念を提案する。
本稿では,後者のタスクに対して2サーバプロトコルを提案する。 We propose a new concept, oblivious quantum computation, which requires performing oblivious transfer with respect to the computation outcome of the quantum computation, where the secrecy of the input qubits and the program to identify the quantum gates are required. We propose a two-server protocol for this task, which realizes an exponential improvement for the communication complexity over the simple application of two-server (quantum) oblivious transfer to the sending of the computation result. Also, we propose another new concept, delegated multiparty quantum computation, in which, several users ask multiparty quantum computation to server(s) only using classical communications. We propose a two-server protocol for the latter task as well. | 翻訳日:2023-01-20 16:56:15 公開日:2022-11-08 |
# LEDポンプを用いたパラメトリックダウンコンバージョンからの偏光絡み Polarization Entanglement from Parametric Down-Conversion with a LED Pump ( http://arxiv.org/abs/2211.00841v2 ) ライセンス: Link先を確認 | Wuhong Zhang, Diefei Xu, Lixiang Chen | (参考訳) 自然パラメトリックダウンコンバージョン(SPDC)は絡み合い生成のための信頼性の高いプラットフォームである。
規則的に、コヒーレントレーザービームは非線形結晶を励起するための必須条件である。
ここでは、この障壁を破り、商業発光ダイオード(LED)源をポンプビームとして利用して偏光共役光子対を生成する。
この効果は、LED光源が非常に低い空間コヒーレンスであり、ダウンコンバージョン過程中にバイフォトン波動関数に転送されるため、直感的ではない。
しかし、タイプiiの位相整合条件は自然にled光の特定の周波数と波長をフィルターしてspdcに参加し、全横平面上の大域的不整合にかかわらず局所偏光ベル状態を生成することができる。
実験では,ベルの不等式違反の標準枠組みにおけるLED光誘起偏光絡みの程度を特徴付ける。
我々はベルの値$S=2.33\pm 0.097$を達成し、明らかに古典的な有界な$S=2$を超え、量子絡みを目撃した。
我々の研究は、外空間における無電気量子通信を約束する日光や生物光などの他の自然光源を利用することで、偏光の絡み合うように拡張することができる。 Spontaneous parametric down-conversion (SPDC) is a reliable platform for entanglement generation. Routinely, a coherent laser beam is an essential prerequisite for pumping the nonlinear crystal. Here we break this barrier to generate polarization entangled photon pairs by using a commercial light-emitting diode (LED) source to serve as the pump beam. This effect is counterintuitive, as the LED source is of extremely low spatial coherence, which is transferred during the down-conversion process to the biphoton wavefunction. However, the type-II phase-matching condition naturally filters the specific frequency and wavelength of LED light exclusively to participate in SPDC such that localized polarization Bell states can be generated, regardless of the global incoherence over the full transverse plane. In our experiment, we characterize the degree of LED light-induced polarization entanglement in the standard framework of the violation of Bell inequality. We have achieved the Bell value $S=2.33\pm 0.097$, obviously surpassing the classical bound $S=2$ and thus witnessing the quantum entanglement. Our work can be extended to prepare polarization entanglement by using other natural light sources, such as sunlight and bio-light, which holds promise for electricity-free quantum communications in outer space. | 翻訳日:2023-01-20 16:54:57 公開日:2022-11-08 |
# 証明ゲーム Certificate games ( http://arxiv.org/abs/2211.03396v2 ) ライセンス: Link先を確認 | Sourav Chakraborty, Anna G\'al, Sophie Laplante, Rajat Mittal, Anupa Sunny | (参考訳) 本稿では,2人のプレーヤーに異なる関数値の入力が与えられ,x_i\neq y_i$(ゼロコミュニケーション設定)のような$i$の出力が要求されるゲームに勝つ確率に基づく複雑性の尺度であるCertificate Game complexityを紹介し,研究する。
我々は、プライベートコイン、パブリックコイン、共有絡み合いとノンシグナリング戦略の上限を上下に設定し、いくつかの分離を与える。
公開コインモデルの複雑さはランダム化クエリと証明書の複雑さによって上限づけられていることを示す。
一方、分数的およびランダム化証明書の複雑さにより境界が低くなり、ランダム化クエリの複雑さに対して強い下位境界を証明するのがよい候補となる。
プライベートコインモデルの複雑さは、ゼロエラーランダム化クエリの複雑さによって下から制限される。
この量子測度は、古典的および量子的クエリーモデルの間の興味深い、驚くべき違いを浮き彫りにする。
公開コイン証明書ゲーム複雑性はランダム化されたクエリ複雑性によって上から区切られているのに対し、量子証明書ゲーム複雑性は量子クエリ複雑性よりも2倍大きい可能性がある。
量子情報の概念であるノンシグナリング(non-signaling)を使用して、$or$関数の量子証明書ゲーム複雑性(量子クエリの複雑性は$\theta(\sqrt{n})$)を低く設定し、その後、この ‘non-signaling bottleneck'' が高感度、ブロック感度、分数ブロック感度のすべての関数に適用されることを示す。
私たちは、証明書ゲームのシングルビットバージョンを考えています(2人のプレーヤーの入力は、距離が1ドル弱です)。
共有ランダム性を持つシングルビット版の証明書ゲーム複雑性は、一定要素までの感度に等しいことを証明し、新しい感度特性を与える。
プライベートなランダム性を持つシングルビットバージョンは$\lambda^2$に等しいが、$\lambda$はスペクトル感度である。 We introduce and study Certificate Game complexity, a measure of complexity based on the probability of winning a game where two players are given inputs with different function values and are asked to output $i$ such that $x_i\neq y_i$ (zero-communication setting). We give upper and lower bounds for private coin, public coin, shared entanglement and non-signaling strategies, and give some separations. We show that complexity in the public coin model is upper bounded by Randomized query and Certificate complexity. On the other hand, it is lower bounded by fractional and randomized certificate complexity, making it a good candidate to prove strong lower bounds on randomized query complexity. Complexity in the private coin model is bounded from below by zero-error randomized query complexity. The quantum measure highlights an interesting and surprising difference between classical and quantum query models. Whereas the public coin certificate game complexity is bounded from above by randomized query complexity, the quantum certificate game complexity can be quadratically larger than quantum query complexity. We use non-signaling, a notion from quantum information, to give a lower bound of $n$ on the quantum certificate game complexity of the $OR$ function, whose quantum query complexity is $\Theta(\sqrt{n})$, then go on to show that this ``non-signaling bottleneck'' applies to all functions with high sensitivity, block sensitivity or fractional block sensitivity. We consider the single-bit version of certificate games (inputs of the two players have Hamming distance $1$). We prove that the single-bit version of certificate game complexity with shared randomness is equal to sensitivity up to constant factors, giving a new characterization of sensitivity. The single-bit version with private randomness is equal to $\lambda^2$, where $\lambda$ is the spectral sensitivity. | 翻訳日:2023-01-20 02:02:13 公開日:2022-11-08 |
# 準同型論理計測 Homomorphic Logical Measurements ( http://arxiv.org/abs/2211.03625v2 ) ライセンス: Link先を確認 | Shilin Huang, Tomas Jochym-O'Connor, Theodore J. Yoder | (参考訳) Shor と Steane ancilla は2つのよく知られたフォールトトレラントな論理的測定法であり、小さな符号とその結合で成功している。
しかし、大きな量子低密度パリティチェック(LDPC)符号では、ショア測定とステア測定はそれぞれ時間と空間のオーバーヘッドがある。
本研究では,shor と steane を1つのフレームワークに統一し,準同型測度と呼ばれるアンシラ符号の選択を広げる。
適切なアシラコードを持つカルダーバンク・ソー・ステアン(css)コードでは、反復的な測定や蒸留などの複雑なアシラ状態の準備を回避でき、ショア法とステイン法の双方の難しさを克服できる。
例えば、被覆空間の理論を用いて、トーリック符号や双曲曲面符号を含む、一般に表面符号上の任意の$x$-または$z$型の論理ポーリ作用素の準同型測定プロトコルを構築する。
従来の表面符号デコーダ、例えば最小ウェイトの完全マッチングは、我々の構成に直接適用できる。 Shor and Steane ancilla are two well-known methods for fault-tolerant logical measurements, which are successful on small codes and their concatenations. On large quantum low-density-parity-check (LDPC) codes, however, Shor and Steane measurements have impractical time and space overhead respectively. In this work, we widen the choice of ancilla codes by unifying Shor and Steane measurements into a single framework, called homomorphic measurements. For any Calderbank-Shor-Steane (CSS) code with the appropriate ancilla code, one can avoid repetitive measurements or complicated ancilla state preparation procedures such as distillation, which overcomes the difficulties of both Shor and Steane methods. As an example, we utilize the theory of covering spaces to construct homomorphic measurement protocols for arbitrary $X$- or $Z$-type logical Pauli operators on surface codes in general, including the toric code and hyperbolic surface codes. Conventional surface code decoders, such as minimum-weight perfect matching, can be directly applied to our constructions. | 翻訳日:2023-01-20 01:54:00 公開日:2022-11-08 |
# エンタングル位相変調多モードコヒーレント状態による量子リピータ Quantum repeater via entangled phase modulated multimode coherent states ( http://arxiv.org/abs/2211.03597v2 ) ライセンス: Link先を確認 | Roman Goncharov, Alexei D. Kiselev, Fedor Kiselev, Eugene S. Moiseev, Eduard Samsonov, Sergei A. Moiseev, Vladimir Egorov | (参考訳) 本稿では,対称および反対称シュリンガー猫状態の電気的変調により得られる,絡み合った多モードコヒーレント状態を用いる量子リピータのスキームを提案する。
この方法では、リモートパーティによって生成された位相変調状態のサブキャリアモードを、中央ノードの対称ビームスプリッタに送信する。
ビームスプリッタの出力チャネルにおける光子計数測定により、絡み合ったコヒーレント状態が把握される。
量子チャネルにおけるデコヒーレンスの影響が、光数と対応する忠実度の統計に与える影響について検討する。
提案手法は, 生成した絡み付き量子テレポーテーションを利用して, サブキャリア波符号化により量子鍵分布の範囲を拡張できることを示す。 We present a scheme of quantum repeater that uses entangled multimode coherent states which are obtained by electro-optic modulation of symmetric and antisymmetric Schr\"odinger cat states. In this method subcarrier modes of the phase modulated states generated by the remote parties are sent to a symmetric beam splitter at the central node. The entangled coherent states are heraldedly prepared by photon counting measurements at the output channels of the beam splitter. We study how the effects of decoherence in the quantum channel affect statistics of photocounts and corresponding fidelity. We show how the proposed scheme can be useful for extending range of quantum key distribution with sub carrier wave encoding by exploiting quantum teleportation with the generated entanglement. | 翻訳日:2023-01-20 01:53:25 公開日:2022-11-08 |
# ナノファイバー系光双極子トラップにおけるアルカリ土類原子の無感なトッピング State-Insensitive Trapping of Alkaline-Earth Atoms in a Nanofiber-Based Optical Dipole Trap ( http://arxiv.org/abs/2211.04004v1 ) ライセンス: Link先を確認 | K. Ton, G. Kestler, D. Filin, C. Cheung, P. Schneeweiss, T. Hoinkes, J. Volz, M. S. Safronova, A. Rauschenbeutel, and J. T. Barreiro | (参考訳) ナノテーパ光ファイバのエバネッセント光ポテンシャルに閉じ込められた中性原子は、量子技術を開発し、量子ネットワークや量子電磁力学のような基礎科学を探求するための有望なプラットフォームである。
ここでは, 閉じ込められたアルカリ原子による進展を実証し, ナノテーパー光ファイバーのエバネッセンス場を用いたストロンチウム88の高感度光双極子トラップについて述べる。
レーザー冷却の低い温度を$\sim\!
\!
1~\mu$Kはストロンチウムで容易に達成でき、記録的な低トラップ深さのトラップを$\sim\!
\!
3〜\mu$K。
さらに、二重魔法の波長トラップ方式を用いて、キロヘルツ幅5s^{2}\;^{1}\!
S_{0}-5s5p\;^{3}\!
P_{1,|m|=1}$冷却遷移、原子遷移の準表面高分解能分光によって検証する。
これにより、理論上予測される435.827(25)nmの魔法の波長付近のトラップの状態過敏性を実験的に見つけ検証することができる。
非磁性基底状態とストロンチウム88の低衝突散乱長を考えると、この研究はナノフォトニック導波路上の多用途で堅牢な物質波アトムトロニクス回路の開発の基礎でもある。 Neutral atoms trapped in the evanescent optical potentials of nanotapered optical fibers are a promising platform for developing quantum technologies and exploring fundamental science, such as quantum networks and quantum electrodynamics. Building on the successful advancements with trapped alkali atoms, here we demonstrate a state-insensitive optical dipole trap for strontium-88, an alkaline-earth atom, using the evanescent fields of a nanotapered optical fiber. Leveraging the low laser-cooling temperatures of $\sim\!\!1~\mu$K readily achievable with strontium, we demonstrate trapping in record low trap depths corresponding to $\sim\!\!3~\mu$K. Further, employing a double magic wavelength trapping scheme, we realize state-insensitive trapping on the kilohertz-wide $5s^{2}\;^{1}\!S_{0}-5s5p\;^{3}\!P_{1,|m|=1}$ cooling transition, which we verify by performing near-surface high-resolution spectroscopy of the atomic transition. This allows us to experimentally find and verify the state insensitivity of the trap nearby a theoretically predicted magic wavelength of 435.827(25) nm. Given the non-magnetic ground state and low collisional scattering length of strontium-88, this work also lays the foundation for developing versatile and robust matter-wave atomtronic circuits over nanophotonic waveguides. | 翻訳日:2023-01-19 23:31:42 公開日:2022-11-08 |
# 雑音ランダム回路サンプリングのための多項式時間古典アルゴリズム A polynomial-time classical algorithm for noisy random circuit sampling ( http://arxiv.org/abs/2211.03999v1 ) ライセンス: Link先を確認 | Dorit Aharonov, Xun Gao, Zeph Landau, Yunchao Liu, Umesh Vazirani | (参考訳) 本研究では,非集中状態における雑音量子回路の出力分布から逆多項式全変動距離までをサンプリングする多項式時間古典アルゴリズムを提案する。
これは、ゲート当たりのノイズの一定率の存在下では、ランダム回路サンプリング(rcs)は拡張されたチャーチチューリング論文のスケーラブルな実験的違反の基礎にならないという強い証拠を与える。
本アルゴリズムは,現在の形式では実用的ではなく,有限サイズのrcsに基づく量子超越実験にも対処しない。 We give a polynomial time classical algorithm for sampling from the output distribution of a noisy random quantum circuit in the regime of anti-concentration to within inverse polynomial total variation distance. This gives strong evidence that, in the presence of a constant rate of noise per gate, random circuit sampling (RCS) cannot be the basis of a scalable experimental violation of the extended Church-Turing thesis. Our algorithm is not practical in its current form, and does not address finite-size RCS based quantum supremacy experiments. | 翻訳日:2023-01-19 23:31:17 公開日:2022-11-08 |
# Wentaculus: 密度行列的リアリズムが時間の浪費と出会う The Wentaculus: Density Matrix Realism Meets the Arrow of Time ( http://arxiv.org/abs/2211.03973v1 ) ライセンス: Link先を確認 | Eddy Keming Chen | (参考訳) 物理学の基礎における最も難しい問題の2つは、(1)時間の矢印を引き起こすもの、(2)量子力学のオントロジーとは何かである。
物理学の基本的な力学則は時間の矢印を許さないため、量子力学波動関数は我々の通常の経験と根本的に異なる高次元の現実を記述するため、これらは難しい。
本稿では,量子宇宙における時間の矢印に対する新しいアプローチである'wentaculus'理論を特徴付け,詳述する。
Wentaculus の中核は Wentaculus である
(i)密度行列実在論、宇宙の量子状態は客観的であるが不純であるという考え、及び
(II) 初期射影仮説(Initial Projection hypothesis)は、ユニークな初期量子状態を選択する新しい自然法則である。
ゴナキュラス上では、宇宙の量子状態は法則となるのに十分単純であり、時間の矢印は正確な境界条件に遡ることができる。
過去の仮説の本質的な曖昧さを排除し、統計的仮定を排除し、より高度な理論的統一を提供し、「強い決定論」の自然な実現を含む。
共著で密度行列実在論について詳述する。 Two of the most difficult problems in the foundations of physics are (1) what gives rise to the arrow of time and (2) what the ontology of quantum mechanics is. They are difficult because the fundamental dynamical laws of physics do not privilege an arrow of time, and the quantum-mechanical wave function describes a high-dimensional reality that is radically different from our ordinary experiences. In this paper, I characterize and elaborate on the ''Wentaculus'' theory, a new approach to time's arrow in a quantum universe that offers a unified solution to both problems. Central to the Wentaculus are (i) Density Matrix Realism, the idea that the quantum state of the universe is objective but can be impure, and (ii) the Initial Projection Hypothesis, a new law of nature that selects a unique initial quantum state. On the Wentaculus, the quantum state of the universe is sufficiently simple to be a law, and the arrow of time can be traced back to an exact boundary condition. It removes the intrinsic vagueness of the Past Hypothesis, eliminates the Statistical Postulate, provides a higher degree of theoretical unity, and contains a natural realization of ''strong determinism.'' I end by responding to four recent objections. In a companion paper, I elaborate on Density Matrix Realism. | 翻訳日:2023-01-19 23:31:09 公開日:2022-11-08 |
# 繰り返し改善戦略における量子アニール利用のための整数最適化問題の等式化 Ising formulation of integer optimization problems for utilizing quantum annealing in iterative improvement strategy ( http://arxiv.org/abs/2211.03957v1 ) ライセンス: Link先を確認 | Shuntaro Okada, Masayuki Ohzeki | (参考訳) 量子アニーリング(Quantum annealing)は、イジングモデルの基底状態を探索するヒューリスティックアルゴリズムである。
ヒューリスティックアルゴリズムは、妥当な計算時間で近似最適解を求める。
そのため、これまでに多くのアルゴリズムが提案されている。
一般に、ヒューリスティックアルゴリズムの性能は、局所的ミニマを異なる方法でエスケープするため、解決すべき組合せ最適化問題のインスタンスに強く依存する。
したがって,複数のアルゴリズムを組み合わせることで,多種多様な組合せ最適化問題に対して高精度な解を得ることができる。
しかし、量子アニールは、全てのスピン配置が均一な確率で見つかる初期状態から始まるため、他のアルゴリズムによって得られる候補解を改善するには使用できない。
本研究では,反復的改善戦略において量子アニーリングを利用する整数最適化問題のイジング定式化を提案する。
我々の定式化は、逆磁場量子アニールにおける劣化した基底状態のバイアスサンプリングを利用する。
また, 基底状態と候補溶液との重なりがしきい値を超える場合, 完全連結強磁性ポッツモデルにおいて, 1次相転移をうまく回避できることを解析的に示した。
提案手法は幅広い整数最適化問題に適用可能であり,量子アニーリングと他の最適化アルゴリズムのハイブリッド化を可能にする。 Quantum annealing is a heuristic algorithm for searching the ground state of an Ising model. Heuristic algorithms aim to obtain near-optimal solutions with a reasonable computation time. Accordingly, many algorithms have so far been proposed. In general, the performance of heuristic algorithms strongly depends on the instance of the combinatorial optimization problem to be solved because they escape the local minima in different ways. Therefore, combining several algorithms to exploit their complementary strength is effective for obtaining highly accurate solutions for a wide range of combinatorial optimization problems. However, quantum annealing cannot be used to improve a candidate solution obtained by other algorithms because it starts from an initial state where all spin configurations are found with a uniform probability. In this study, we propose an Ising formulation of integer optimization problems to utilize quantum annealing in the iterative improvement strategy. Our formulation exploits the biased sampling of degenerated ground states in transverse magnetic field quantum annealing. We also analytically show that a first-order phase transition is successfully avoided for a fully connected ferromagnetic Potts model if the overlap between a ground state and a candidate solution exceeds a threshold. The proposed formulation is applicable to a wide range of integer optimization problems and enables us to hybridize quantum annealing with other optimization algorithms. | 翻訳日:2023-01-19 23:30:47 公開日:2022-11-08 |
# 非単体ホログラフィチャネルの絡み合いダイナミクス Entanglement Dynamics of the Non-Unitary Holographic Channel ( http://arxiv.org/abs/2211.03944v1 ) ライセンス: Link先を確認 | Kanato Goto, Masahiro Nozaki, Kotaro Tamaoka and Mao Tian Tan | (参考訳) 本研究では、この量子回路に対応する双対作用素状態の演算子絡み合いエントロピーと相互情報(OEE,BOMI)を研究することにより、有限領域の射影測定を含む強スクランブル量子回路の動的特性について検討する。
OEEの時間依存性は、演算子の絡み合いの新しい動的挙動、すなわちOEEの線形時間成長に付随する追加の分数係数を示す。
ホログラフィック系では、これはワームホール体積の線形成長率を変化させる付加的な分数係数と同値である。
BOMIの時間依存性は、射影測定がこの双対状態の非局所的相関を破壊できることを示している。
我々はまた、この強い揺らぎ量子回路を記述する効果的なモデルであるラインテンション図だけでなく、重力双対も提案する。 We study the dynamical properties of a strongly scrambling quantum circuit involving a projective measurement on a finite-sized region by studying the operator entanglement entropy and mutual information (OEE and BOMI) of the dual operator state that corresponds to this quantum circuit. The time-dependence of the OEE exhibits a new dynamical behavior of operator entanglement, namely an additional fractional coefficient that accompanies the linear time growth of the OEE. For a holographic system, this is equivalent to an additional fractional coefficient that modifies the linear growth rate of the wormhole volume. The time-dependence of the BOMI shows that the projective measurement may destroy the non-local correlations in this dual state. We also propose a gravity dual as well as a line-tension picture, which is an effective model, that describe this strongly scrambling quantum circuit. | 翻訳日:2023-01-19 23:30:27 公開日:2022-11-08 |
# 量子データアクセスマシンを用いた$T$-depth-timized Quantum Search $T$-depth-optimized Quantum Search with Quantum Data-access Machine ( http://arxiv.org/abs/2211.03941v1 ) ライセンス: Link先を確認 | Jung Jun Park, Kyunghyun Baek, M. S. Kim, Hyunchul Nha, Jaewan Kim, and Jeongho Bang | (参考訳) 量子検索アルゴリズムは、量子重ね合わせ原理を用いたクエリ複雑性の二次的低減の顕著な利点を提供する。
しかし、実際のアーキテクチャが量子重畳状態のデータベースにアクセスし、処理する方法は、これまでほとんど探索されていなかった。データの量子状態は単にブラックボックス操作によって準備され、アクセスされると考えられていた - いわゆる量子オラクルは、適切に設計されていないとしても、量子量子量子の優位性を悪用する可能性がある。
本稿では,量子データアクセスマシン(qdam)と呼ばれる効率的な量子データアクセスプロセスを導入し,量子検索アルゴリズムの汎用アーキテクチャを提案する。
我々は,有効な量子誤り訂正符号内の論理量子ビットからなるフォールトトレラント量子計算(ftqc)の観点から,アルゴリズムのランタイムを分析する。
具体的には、量子クエリと$T$-depth複雑度という2つの計算複雑性を含む尺度を導入する。これは、FTQCで実装するのにコストがかかることが知られている、例えば$T$ (つまり$\pi/8$ rotation) ゲートのような論理的非クリフォードゲートのパフォーマンスを評価するのに重要である。
我々の分析は、$N$の検索データに対して、対数を示すQDAMモデル、すなわち$O(\log{N})$が成立することを示す。
さらに分析した結果、QDAMに埋め込まれた量子検索には、$O(\sqrt{N} \times \log{N})$ランタイムコストが必要であることが判明した。
そこで本研究では,量子データ探索アルゴリズムが古典的アプローチを真に高速化し,対数的QDAMをキーコンポーネントとすることを示す。 Quantum search algorithms offer a remarkable advantage of quadratic reduction in query complexity using quantum superposition principle. However, how an actual architecture may access and handle the database in a quantum superposed state has been largely unexplored so far; the quantum state of data was simply assumed to be prepared and accessed by a black-box operation -- so-called quantum oracle, even though this process, if not appropriately designed, may adversely diminish the quantum query advantage. Here, we introduce an efficient quantum data-access process, dubbed as quantum data-access machine (QDAM), and present a general architecture for quantum search algorithm. We analyze the runtime of our algorithm in view of the fault-tolerant quantum computation (FTQC) consisting of logical qubits within an effective quantum error correction code. Specifically, we introduce a measure involving two computational complexities, i.e. quantum query and $T$-depth complexities, which can be critical to assess performance since the logical non-Clifford gates, such as the $T$ (i.e., $\pi/8$ rotation) gate, are known to be costliest to implement in FTQC. Our analysis shows that for $N$ searching data, a QDAM model exhibiting a logarithmic, i.e., $O(\log{N})$, growth of the $T$-depth complexity can be constructed. Further analysis reveals that our QDAM-embedded quantum search requires $O(\sqrt{N} \times \log{N})$ runtime cost. Our study thus demonstrates that the quantum data search algorithm can truly speed up over classical approaches with the logarithmic $T$-depth QDAM as a key component. | 翻訳日:2023-01-19 23:30:11 公開日:2022-11-08 |
# ユニタリーのカオス性の順序 Orders of chaoticity of unitaries ( http://arxiv.org/abs/2211.04210v1 ) ライセンス: Link先を確認 | Adrian Ortega, Andrew B. Frigyik and M\'aty\'as Koniorczyk | (参考訳) 我々は、ユニタリのK次カオスの概念を導入し、2レベル量子系の場合の解析を行う。
この性質は、ある量子乱数生成スキームに関係している。
任意のカオス順序を持つユニタリは存在しないことを示す。 We introduce the concept of K-th order chaoticity of unitaries, and analyze it for the case of two-level quantum systems. This property is relevant in a certain quantum random number generation scheme. We show that no unitaries exist with an arbitrary order of chaoticity. | 翻訳日:2023-01-19 23:25:50 公開日:2022-11-08 |
# ガッピンググラフェン単分子膜の光増幅ランドウ・ツェナー伝導率:光触媒真空不安定性のシミュラクラム Light-amplified Landau-Zener conductivity in gapped graphene monolayers: a simulacrum of photo-catalyzed vacuum instability ( http://arxiv.org/abs/2211.04206v1 ) ライセンス: Link先を確認 | Selym Villalba-Ch\'avez, Oliver Mathiak, Reinhold Egger and Carsten M\"uller | (参考訳) ガッピンググラフェン単層中の電子のバンド間遷移は、その表面に弱強度の高周波電磁波と強定電界が重ね合わされたときに、フェルミ表面付近で高い刺激を受ける。
高速振動場に関連する光子エネルギーがグラフェンギャップよりわずかに低いので、マルチ光子吸収チャネルによって促進されながら、トンネル効果によって量子遷移が依然として起こることを考察する。
考慮されたパラメータ配置では、前述の設定に関連付けられた光触媒電流は、強磁場によって駆動される電流を数桁だけ超えることが示される。
最適化条件を明らかにし、電流密度の漸近式を導出する。
本評価の堅牢性は, この現象をグラフェンで検出できることを裏付けるものであり, QEDにおける動的支援型シュウィンガー機構の第一原理的概念として有効である。 Interband transitions of electrons in a gapped graphene monolayer are highly stimulated near the Fermi surface when a high-frequency electric wave of weak intensity and a strong constant electric field are superposed on its surface. We consider the situation in which the photon energy associated with the fast-oscillating field is slightly below the graphene gap so that the quantum transitions still occur through tunneling effects while being facilitated by multiphoton absorption channels. In the considered parameter regime the photo-catalyzed current linked to the described setup is shown to exceed the one driven by the strong field solely by several orders of magnitude. Optimization conditions are revealed and an asymptotic formula for the current density is derived. The robustness of our assessment supports the viability of detecting this phenomenon in graphene, which would serve as a first-principle-proof of concept of the dynamically-assisted Schwinger mechanism in QED. | 翻訳日:2023-01-19 23:25:43 公開日:2022-11-08 |
# 空洞QEDを用いた原子光子エンタングリングゲートの時間的変化の最小化のための最適空洞設計 Optimal cavity design for minimizing errors in cavity-QED-based atom-photon entangling gates with finite temporal duration ( http://arxiv.org/abs/2211.04151v1 ) ライセンス: Link先を確認 | Takeru Utsugi, Rui Asaoka, Yuuki Tokunaga, and Takao Aoki | (参考訳) 本研究では,光子損失だけでなく,光子パルスの時間モードミスマッチが重大な誤差源となる有限光子パルス持続時間に対するキャビティ量子電気力学(qed)に基づく原子光子絡みゲートについて検討する。
我々は, 時間モードミスマッチによる光子損失確率と誤差率の両方を, 状態依存パルス遅延として考慮し, キャビティの透過率, 長さ, 有効断面積などの空洞パラメータの関係を解析的に導出した。
また,短パルス持続時間に対する数値シミュレーションによるパルス歪みの影響についても検討した。 We investigate atom-photon entangling gates based on cavity quantum electrodynamics (QED) for a finite photon-pulse duration, where not only the photon loss but also the temporal mode-mismatch of the photon pulse becomes a severe source of error. We analytically derive relations between cavity parameters, including transmittance, length, and effective cross-sectional area of the cavity, that minimize both the photon loss probability and the error rate due to temporal mode-mismatch by taking it into account as state-dependent pulse delay. We also investigate the effects of pulse distortion using numerical simulations for the case of short pulse duration. | 翻訳日:2023-01-19 23:25:03 公開日:2022-11-08 |
# 階層的運動方程式を用いたフェルミイオン貯水池の効率的な低温シミュレーション:アンダーソン不純物モデルへの応用 Efficient low temperature simulations for fermionic reservoirs with the hierarchical equations of motion method: Application to the Anderson impurity model ( http://arxiv.org/abs/2211.04089v1 ) ライセンス: Link先を確認 | Xiaohan Dan (1 and 2), Meng Xu (3), J. T. Stockburger (3), J. Ankerhold (3), Qiang Shi (1 and 2) ((1) Beijing National Laboratory for Molecular Sciences, State Key Laboratory for Structural Chemistry of Unstable and Stable Species, Institute of Chemistry, Chinese Academy of Sciences, Beijing, China, (2) University of Chinese Academy of Sciences, Beijing, China, (3) Institute for Complex Quantum Systems and IQST, Ulm University, Ulm, Germany) | (参考訳) 階層的運動方程式(heom)アプローチは、オープンシステムの量子力学をシミュレートする正確な方法であり、数値的に正確な結果に系統的収束を可能にする。
浴槽の効果を表すために、貯水池相関関数は通常HEOM法において複数の指数項の和に分解される。
貯水池の相関関数は低温や複雑なバンド構造を持つ場合、非マルコフ的になるため、HEOMによる効率的なシミュレーションを可能にする正確な指数分解を得ることが課題である。
本研究では,周波数領域におけるフェルミ関数とハイブリダイゼーション関数を近似するために,バリセントリック表現を用いる。
これらの関数を最適化された有理分解で近似することにより, 貯留層相関関数の分解における基底関数の数を大幅に削減し, 超低温, 一般浴構造にもheom法を適用した。
低温条件下でのアンダーソン不純物モデル (AIM) にローレンツ型および強結合型ハイブリダイゼーション関数を適用し, 新たな分解法の有効性, 精度, 長期安定性を示す。 The hierarchical equations of motion (HEOM) approach is an accurate method to simulate open system quantum dynamics, which allows for systematic convergence to numerically exact results. To represent the effects of the bath, the reservoir correlation functions are usually decomposed into the summation of multiple exponential terms in the HEOM method. Since the reservoir correlation functions become highly non-Markovian at low temperatures or when the bath has complex band structures, a present challenge is to obtain accurate exponential decompositions that allow efficient simulation with the HEOM. In this work, we employ the barycentric representation to approximate the Fermi function and hybridization functions in the frequency domain. The new method, by approximating these functions with optimized rational decomposition, greatly reduces the number of basis functions in decomposing the reservoir correlation functions, which further allows the HEOM method to be applied to ultra-low temperature and general bath structures. We demonstrate the efficiency, accuracy, and long-time stability of the new decomposition scheme by applying it to the Anderson impurity model (AIM) in the low-temperature regime with the Lorentzian and tight-binding hybridization functions. | 翻訳日:2023-01-19 23:24:49 公開日:2022-11-08 |
# 電子トンネルによる長寿命振動の安定性 Stability of long-sustained oscillations induced by electron tunneling ( http://arxiv.org/abs/2211.04074v1 ) ライセンス: Link先を確認 | Jorge Tabanera-Bravo, Florian Vigneau, Juliette Monsel, Kushagra Aggarwal, L\'ea Bresque, Federico Fedele, Federico Cerisola, G.A.D. Briggs, Janet Anders, Alexia Auf\`eves, Juan M.R. Parrondo, Natalia Ares | (参考訳) 自己振動は、一定の電源から周期運動を生成する効率的な機構の結果である。
量子デバイスでは、これらの振動は単一の電子力学と機械運動の相互作用によって生じる可能性がある。
この機構の複雑さのため、これらの自己振動は、ヒステリシスサイクルを引き起こす不安定な挙動を起こさせる、または消失する。
これらのヒステリシスサイクルを観察し、単一および二重量子ドット構成における異なる状態の安定性を特徴づける。
特に、これらの振動は20秒以上安定しており、電子的および機械的特性の時間スケールを超える桁数であり、演奏時のメカニズムの堅牢性を明らかにしている。
実験結果は, ナノエレクトロメカニカルデバイスにおけるビスタビリティを完全に理解する理論モデルにより再現された。 Self-oscillations are the result of an efficient mechanism generating periodic motion from a constant power source. In quantum devices, these oscillations may arise due to the interaction between single electron dynamics and mechanical motion. Due to the complexity of this mechanism, these self-oscillations may irrupt, vanish, or exhibit a bistable behavior causing hysteresis cycles. We observe these hysteresis cycles and characterize the stability of different regimes in single and double quantum dot configurations. In particular cases, we find these oscillations stable for over 20 seconds, many orders of magnitude above electronic and mechanical characteristic timescales, revealing the robustness of the mechanism at play. The experimental results are reproduced by our theoretical model that provides a complete understanding of bistability in nanoelectromechanical devices. | 翻訳日:2023-01-19 23:24:26 公開日:2022-11-08 |
# ボソン減算による絡み合い生成へのグラフアプローチ Graph approach to entanglement generation by boson subtractions ( http://arxiv.org/abs/2211.04042v1 ) ライセンス: Link先を確認 | Seungbeom Chin and Yong-Su Kim and Marcin Karczewski | (参考訳) 絡み合いは量子情報科学の基本的な面と実践面の中心にある。
絡み合いの研究と活用の優先事項は、絡み合い状態を生成する信頼できる手順を見つけることである。
本研究では,任意の$n$-partite bosonシステムにおいて,ポスト選択なしに真に絡み合うスキームを体系的に探索するグラフ法を提案する。
我々の物理的な構成は、ボゾン対称性を非決定論的な$N$ボソン減算演算子による絡み合いに変換する彫刻プロトコルに基づいている。
このプロトコルは多目的システムのヘラルドスキームとして実現できる。
我々は,彫刻プロトコルのグラフ画像が,様々な真に絡み合った状態に適した彫刻プロトコルを見つけるための組織的戦略であることを示す。
qubit $N$-partite GHZ および W 状態の一般的なスキームは、彫刻プロトコルを持つ以前のスキームよりもはるかに効率的である。
我々はまた、qudit $N$-partite GHZ状態生成スキームを発見し、複雑な絡み合った状態に対する単純な解を見つけるための非常に強力な洞察を提供することを示した。
多数のボソン系において理論スキームが実現可能であることの証明として,偏光量子ビット符号化と隠蔽検出を用いた線形光学系におけるベル状態生成法を提案する。 Entanglement is at the heart of quantum information science in the fundamental and practical aspects. A priority for studying and utilizing entanglement is to find reliable procedures to generate entangled states. In this work, we propose a graph method to systematically search for schemes that obtains genuine entanglement in arbitrary $N$-partite boson systems without postselection. Our physical setup is based on the sculpting protocol, which converts the bosonic symmetrization into entanglement through an indeterministic $N$ boson subtraction operator. This protocol can be realized as heralded schemes of many-boson systems. We show that our graph picture of the sculpting protocol provides an organized strategy to find suitable sculpting protocols for various genuinely entangled states. We have found general schemes for qubit $N$-partite GHZ and W states which are much more efficient than former schemes with sculpting protocol. We also have found a qudit $N$-partite GHZ state generation scheme, which shows our approach provides a significantly powerful insight into finding simple solutions for complicated entangled states. As proof of concept that our theoretical schemes can be realized in many-boson systems, we propose a Bell state generation scheme in linear optical systems with polarization qubit encoding and heralded detections. | 翻訳日:2023-01-19 23:24:14 公開日:2022-11-08 |
# 三角形光学格子におけるSバンドとDバンドを用いた原子ラムゼー干渉法 Atomic Ramsey interferometry with S- and D-band in a triangular optical lattice ( http://arxiv.org/abs/2211.04038v1 ) ライセンス: Link先を確認 | Xiangyu Dong, Chengyang Wu, Zhongcheng Yu, Jinyuan Tian, Zhongkai Wang, Xuzong Chen, Shengjie Jin and Xiaoji Zhou | (参考訳) ラムゼー干渉計は科学と工学に広く応用されている。
内部状態に基づく従来の干渉計と比較して、外部量子状態を持つ干渉計は、量子シミュレーションや精度測定にいくつかの利点がある。
ここでは、三角形光学格子のSバンドとDバンドにおけるブロッホ状態を用いたラムゼー干渉法を初めて開発する。
この干渉計を二次元結合格子で実現する鍵は、ショートカット法を用いて$\pi/2$パルスを構成することである。
明快なラムジー・フリンジを観察し, フリンジのデコヒーレンス機構を解析した。
さらに,sバンドとdバンド間のエコー$\pi$パルスを設計し,コヒーレンス時間を大幅に改善した。
この次元結合格子内のラムゼー干渉計は、トポロジカル物理学、フラストレーション効果、運動量子ビット操作の量子シミュレーションに潜在的に応用できる。 Ramsey interferometers have wide applications in science and engineering. Compared with the traditional interferometer based on internal states, the interferometer with external quantum states has advantages in some applications for quantum simulation and precision measurement. Here, we develop a Ramsey interferometry with Bloch states in S- and D-band of a triangular optical lattice for the first time. The key to realizing this interferometer in two-dimensionally coupled lattice is that we use the shortcut method to construct $\pi/2$ pulse. We observe clear Ramsey fringes and analyze the decoherence mechanism of fringes. Further, we design an echo $\pi$ pulse between S- and D-band, which significantly improves the coherence time. This Ramsey interferometer in the dimensionally coupled lattice has potential applications in the quantum simulations of topological physics, frustrated effects, and motional qubits manipulation. | 翻訳日:2023-01-19 23:23:50 公開日:2022-11-08 |
# 高出力マイケルソン干渉計の単光信号サイドバンド検出 Single-Photon Signal Sideband Detection for High-Power Michelson Interferometers ( http://arxiv.org/abs/2211.04016v1 ) ライセンス: Link先を確認 | Lee McCuller | (参考訳) ミッチェルソン干渉計は実験物理学の基礎となっている。
その応用範囲は、教育環境における波干渉の最初の印象の提供から、微小精度スケールでの時空探査まで多岐にわたる。
干渉計の精度は、物質とエネルギーの基本的な媒体のユニークな視点を提供し、新しい物理学のテストと、遠い天体事象の重力波のシグネチャの探索を可能にする。
光干渉計は通常、出力ポートの電力を連続的に測定することによって操作される。
信号の摂動はサイドバンドフィールドを生成し、そのパワーを変調するフリンジ光でビートノートを形成する。
ほぼダークの破壊的干渉縞で操作すると、この読み出しはホモダイン検出の一形態であり、量子真空ゆらぎによるショットノイズに起因する「標準量子限界」によって設定される。
サイドバンド信号場はエネルギーを持ち、ソースレーザーとは別の光子として直接観測することができる。
信号エネルギーがなければ、真空はサイドバンドを形成しず、光子数やショットノイズを発生させることができない。
これにより、古典的背景が標準量子限界以下である場合、弱い信号を探す際に統計が向上する。
ここでは、光干渉法について光子計数統計を記述し、2種類の測定と、圧縮状態の量子エンハンスメントにおいてもホモダインの読み出しを大きく上回る場合を示す。
光子計数の最も直接的な応用は、量子重力や新しい粒子場からの確率的信号の探索を改善することである。
カウントの利点は重力波検出器のようなより広い応用にまで拡張され、フィッシャー情報代表スペクトル密度の概念がさらなる研究の動機となる。 The Michelson interferometer is a cornerstone of experimental physics. Its applications range from providing first impressions of wave interference in educational settings to probing spacetime at minuscule precision scales. Interferometer precision provides a unique view of the fundamental medium of matter and energy, enabling tests for new physics as well as searches for the gravitational wave signatures of distant astrophysical events. Optical interferometers are typically operated by continuously measuring the power at their output port. Signal perturbations then create sideband fields, forming a beat-note with the fringe light that modulates that power. When operated at a nearly-dark destructive interference fringe, this readout is a form of homodyne detection, with an imprecision set by a ``standard quantum limit'' attributed to shot noise from quantum vacuum fluctuations. The sideband signal fields carry energy which can, alternatively, be directly observed as photons distinct from the source laser. Without signal energy, vacuum does not form sidebands and cannot spuriously create photon counts or shot noise. Thus, counting can offer improved statistics when searching for weak signals when classical backgrounds are below the standard quantum limit. Here, photon counting statistics are described for optical interferometry, relating the two forms of measurement and showing cases where counting greatly outperforms homodyne readout, even with squeezed state quantum enhancement. The most immediate application for photon counting is improving searches of stochastic signals, such as from quantum gravity or from new particle fields. The advantages of counting may extend to wider applications, such as gravitational wave detectors, and the concept of Fisher-information representative spectral density is introduced to motivate further study. | 翻訳日:2023-01-19 23:23:37 公開日:2022-11-08 |
# 計算的不明瞭性とボソンサンプリング Computational indistinguishability and boson sampling ( http://arxiv.org/abs/2211.04420v1 ) ライセンス: Link先を確認 | Georgios M. Nikolopoulos | (参考訳) 本稿では,理想の粗いボソンサンプリング器の出力と真の乱数生成器の出力とを区別する計算問題を,計算不能な敵に対してセキュアな暗号スキームのリソースとして紹介する。
さらに,メッセージの暗号化や認証,エンティティ認証など,このようなスキームの実装のための暗号設定を定義する。 We introduce a computational problem of distinguishing between the output of an ideal coarse-grained boson sampler and the output of a true random number generator, as a resource for cryptographic schemes, which are secure against computationally unbounded adversaries. Moreover, we define a cryptographic setting for the implementation of such schemes, including message encryption and authentication, as well as entity authentication. | 翻訳日:2023-01-19 23:16:11 公開日:2022-11-08 |
# 高温ガス中の単一光子互換TCバンド量子メモリ A Single-Photon-compatible Telecom-C-Band Quantum Memory in a Hot Atomic Gas ( http://arxiv.org/abs/2211.04415v1 ) ライセンス: Link先を確認 | S. E. Thomas, S. Sagona-Stophel, Z. Schofield, I. A. Walmsley, P. M. Ledingham | (参考訳) 通信Cバンドと互換性のある量子光学状態の効率的なストレージとオンデマンド検索は、将来の地上ベースの量子光学ネットワークの要件である。
Cバンドのスペクトルは光ファイバー伝搬損失を最小化し、広帯域は高速ネットワークプロトコルを促進する。
本稿では、通信波長と帯域互換量子メモリについて報告する。
ホット$^{87}$rb蒸気中のオフ共振カスケード吸収プロトコルを用いて、ドップラー制限の記憶時間1.10(2)\,$nsの合計メモリ効率を20.90(1)\,\%$とする。
我々は, 平均光子数入力に対して, 1パルスあたり4.5(6)\times10^{-6}$以上の信号対雑音比を示すことで, 弱コヒーレント状態のメモリ性能を特徴付ける。 The efficient storage and on-demand retrieval of quantum optical states that are compatible with the telecommunications C-band is a requirement for future terrestrial-based quantum optical networking. Spectrum in the C-band minimises optical fiber-propagation losses, and broad optical bandwidth facilitates high-speed networking protocols. Here we report on a telecommunication wavelength and bandwidth compatible quantum memory. Using the Off-Resonant Cascaded Absorption protocol in hot $^{87}$Rb vapour, we demonstrate a total memory efficiency of $20.90(1)\,\%$ with a Doppler-limited storage time of $1.10(2)\,$ns. We characterise the memory performance with weak coherent states, demonstrating signal-to-noise ratios greater than unity for mean photon number inputs above $4.5(6)\times10^{-6}$ per pulse. | 翻訳日:2023-01-19 23:16:03 公開日:2022-11-08 |
# レッドフィールド方程式の時間依存正則化 A time-dependent regularization of the Redfield equation ( http://arxiv.org/abs/2211.04400v1 ) ライセンス: Link先を確認 | Antonio D'Abbruzzo, Vasco Cavina, Vittorio Giovannetti | (参考訳) レッドフィールド方程式の新たな正則化をコサコフスキー行列を最も近い正の半定義近傍に置き換えた。
既存のほとんどのアプローチとは異なり、この手順はコサコフスキ行列の時間依存性を保ち、完全正の(cp)可分量子過程へと導くことができる。
完全可解な3次元オープンシステムのダイナミクスを基準として,部分的世俗的マスター方程式や普遍的リンドブラッド方程式のような他の手法と比較して,過渡的進化において,我々のアプローチがより良く機能することを示す。
初期状態から独立に異なる正規化スキームの比較を行うため、Choi-Jamiolkoski同型に基づく新しい定量的アプローチを導入する。 We introduce a new regularization of the Redfield equation based on a replacement of the Kossakowski matrix with its closest positive semidefinite neighbor. Unlike most of the existing approaches, this procedure is capable of retaining the time dependence of the Kossakowski matrix, leading to a completely positive (CP) divisible quantum process. Using the dynamics of an exactly-solvable three-level open system as a reference, we show that our approach performs better during the transient evolution, if compared to other approaches like the partial secular master equation or the universal Lindblad equation. To make the comparison between different regularization schemes independent from the initial states, we introduce a new quantitative approach based on the Choi-Jamiolkoski isomorphism. | 翻訳日:2023-01-19 23:15:49 公開日:2022-11-08 |
# 超対称性量子力学とリーマン仮説 Supersymmetric quantum mechanics and the Riemann hypothesis ( http://arxiv.org/abs/2211.04382v1 ) ライセンス: Link先を確認 | Pushpa Kalauni and Kimball A Milton | (参考訳) 我々は、ハミルトニアンのエネルギー固有値がリーマンゼータ関数の積となる超対称量子力学モデルを構築する。
リーマンゼータ函数の自明かつ非自明な零点は、このモデルにおける消える基底状態エネルギーと自然に一致することを示す。
このモデルは超対称性の自然な形を提供する。 We construct a supersymmetric quantum mechanical model in which the energy eigenvalues of the Hamiltonians are the products of Riemann zeta functions. We show that the trivial and nontrivial zeros of the Riemann zeta function naturally correspond to the vanishing ground state energies in this model. The model provides a natural form of supersymmetry. | 翻訳日:2023-01-19 23:15:36 公開日:2022-11-08 |
# 波動関数の機能化 Functionalising the wavefunction ( http://arxiv.org/abs/2211.04360v1 ) ライセンス: Link先を確認 | Lorenzo Lorenzetti | (参考訳) 機能主義は x が x の役割を担うという考え方である。
本稿では、波動関数実数論(wfr)の文脈における3次元実体の関数論的説明を擁護し、波動関数から3次元実体を回復する方法を詳細に説明する。
特にこのエッセイは、デイヴィッド・ルイスのスタイルにおける機能的還元主義的アプローチの観点から、WFRの新しいバージョンを提唱している。
この説明は、後者が適切に振る舞うとき、上位のエンティティを下位のエンティティに還元する。
WFRに適用されるように、ある条件を満たす3次元物体と波動関数がどのように同一であるかを示す。
この論文の第一の目的は、WFRの改良されたより厳密なバージョンを提示することであり、これは理論に関するいくつかの問題を解消し、このトピックに関する将来の文献の出発点となる。
さらに、この論文の第2の目標は、WFRをケーススタディとして、特にここで防衛された形で機能的還元主義の促進を実証することであり、科学論争の哲学においてこの見解を復活させることである。
本稿では,機能的リダミズムが他の文脈にも適用可能であることを示唆する。 Functionalism is the view that being x is to play the role of x. This paper defends a functionalist account of three-dimensional entities in the context of Wave Function Realism (WFR), that can explain in detail how we can recover three-dimensional entities out of the wavefunction. In particular, the essay advocates for a novel version of WFR in terms of a functional reductionist approach in the style of David Lewis. This account entails reduction of the upper entities to the bottom ones, when the latter behave appropriately. As applied to WFR, it shows how the wavefunction can turn out to be identical to three-dimensional objects, provided certain conditions. The first major goal of the paper is thus to put forward an improved and more rigorous version of WFR, which dissolves several extant issues about the theory, and can serve as a starting point for the future literature about the topic. Moreover, the second major goal of the article is to take WFR as a case study to demonstrate the pros of functional reductionism, especially in the form defended here, thereby helping to bring this view back in the philosophy of science debate. The positive upshots of this paper suggest a possible application of functional reductionism also to other contexts. | 翻訳日:2023-01-19 23:15:31 公開日:2022-11-08 |
# 量子ドットとマイクロ共振子を結合した多重化単一光子源 Demultiplexed Single-Photon Source with a Quantum Dot Coupled to Microresonator ( http://arxiv.org/abs/2211.04356v1 ) ライセンス: Link先を確認 | M.V. Rakhlin, A.I. Galimov, I.V. Dyakonov, N.N. Skryabin, G.V. Klimko, M.M. Kulagina, Yu.M. Zadiranov, S.V. Sorokin, I.V. Sedova, Yu.A. Guseva, D.S. Berezina, Yu.M. Serov, N.A. Maleev, A.G. Kuzmenkov, S.I. Troshkov, K.V. Taratorin, A.K. Skalkin, S.S. Straupe, S.P. Kulik, T.V. Shubina, A.A. Toropov | (参考訳) 半導体量子ドットに基づく単一光子エミッタの特性、例えばその不明瞭性や明るさは、エキシトンとトライアンの間で自然に切り替えられる再結合チャネルの安定性に依存する。
InAs/GaAs量子ドット近傍のドーピングプロファイルを分散ブラッグ反射器を用いたカラム状微小キャビティに配置することにより,中性励起子状態による支配的再結合を実現することができることを示す。
本装置で実施したhong-ou-mandel実験では、単一モード光ファイバ内の効率10%の効率で、242 ns以内の連続放出された単一光子の91%の識別不能性を示す。
達成された明るさは、光子の時空間分解を6つの独立した空間モードで0.1Hz以上の周波数で行うことができた。 The characteristics of a single-photon emitter based on a semiconductor quantum dot, such as their indistinguishability and brightness, depend on the stability of the recombination channel, which can switch spontaneously between exciton and trion. We show that dominant recombination through neutral exciton states can be achieved by careful control of the doping profile near an epitaxial InAs/GaAs quantum dot placed in a columnar microcavity with distributed Bragg reflectors. The Hong-Ou-Mandel experiments carried out in the fabricated device demonstrate the degree of indistinguishability of 91% of successively emitted single photons within 242 ns at an efficiency of 10% inside a single-mode optical fiber. The achieved brightness made it possible to implement spatio-temporal demultiplexing of photons in six independent spatial modes with an in-fiber generation frequency of more than 0.1 Hz. | 翻訳日:2023-01-19 23:15:09 公開日:2022-11-08 |
# 量子機械学習による平面波に基づく1次元分子波動関数の高分解能化 Resolution enhancement of one-dimensional molecular wavefunctions in plane-wave basis via quantum machine learning ( http://arxiv.org/abs/2211.04336v1 ) ライセンス: Link先を確認 | Rei Sakuma, Yutaro Iiyama, Lento Nagano, Ryu Sawada, Koji Terashi | (参考訳) 超解像度は、低解像度画像から高解像度画像を生成する画像処理における機械学習技術である。
この手法に触発されて,低分解能(低平面エネルギーカットオフ)の一粒子分子波動関数を入力とし,架空の一次元系において高分解能(高平面エネルギーカットオフ)波動関数を生成する量子機械学習の数値実験を行い,異なる学習モデルの性能について検討する。
訓練されたモデルでは、単純な線形補間よりも地対波関数に対して忠実度の高い波動関数を生成でき、ansatzにデータ依存情報を含めることで、質的および定量的に結果を改善することができる。
一方、トレーニングデータセットに含まれない電子配置で計算された波動関数に対しては、現在のアプローチの精度が低下する。
また、多体電子波動関数に対するこのアプローチの一般化についても論じる。 Super-resolution is a machine-learning technique in image processing which generates high-resolution images from low-resolution images. Inspired by this approach, we perform a numerical experiment of quantum machine learning, which takes low-resolution (low plane-wave energy cutoff) one-particle molecular wavefunctions in plane-wave basis as input and generates high-resolution (high plane-wave energy cutoff) wavefunctions in fictitious one-dimensional systems, and study the performance of different learning models. We show that the trained models can generate wavefunctions having higher fidelity values with respect to the ground-truth wavefunctions than a simple linear interpolation, and the results can be improved both qualitatively and quantitatively by including data-dependent information in the ansatz. On the other hand, the accuracy of the current approach deteriorates for wavefunctions calculated in electronic configurations not included in the training dataset. We also discuss the generalization of this approach to many-body electron wavefunctions. | 翻訳日:2023-01-19 23:14:57 公開日:2022-11-08 |
# ハニカムハバード模型における絡み合いエントロピーの普遍的特徴 Universal features of entanglement entropy in the honeycomb Hubbard model ( http://arxiv.org/abs/2211.04334v1 ) ライセンス: Link先を確認 | Jonathan D'Emidio, Roman Orus, Nicolas Laflorencie, Fernando de Juan | (参考訳) 絡み合いエントロピーは、強く相互作用する多体系の普遍的な特徴を明らかにするユニークなプローブである。
2つ以上の次元において、これらの特徴は微妙であり、それらを数値的に検出するには極端に正確さが必要です。
これは相互作用するフェルミオンのモデルにおいて特に困難であり、そのような普遍的な特徴がまだ観測されていない。
本稿では,補助場量子モンテカルロシミュレーションにおける r\'enyi のエンタングルメントエントロピーを計算し,エンタングルリング領域自体を確率変数として扱う手法を提案する。
本手法は,ハニカムハバードモデルに焦点をあて,相互作用フェルミオンの2次元モデルにおいて,初めて普遍サブリーディング対数項を抽出し,その効率を示す。
我々はディラック半金属相とグロス・ネヴェウ・湯川臨界点におけるギャップのないフェルミオンによる普遍的なコーナー寄与と反強磁性モット絶縁相における普遍的なゴールドストーンモード寄与を検出する。 The entanglement entropy is a unique probe to reveal universal features of strongly interacting many-body systems. In two or more dimensions these features are subtle, and detecting them numerically requires extreme precision, a notoriously difficult task. This is especially challenging in models of interacting fermions, where many such universal features have yet to be observed. In this paper we tackle this challenge by introducing a new method to compute the R\'enyi entanglement entropy in auxiliary-field quantum Monte Carlo simulations, where we treat the entangling region itself as a stochastic variable. We demonstrate the efficiency of this method by extracting, for the first time, universal subleading logarithmic terms in a two dimensional model of interacting fermions, focusing on the honeycomb Hubbard model at $T=0$. We detect the universal corner contribution due to gapless fermions throughout the Dirac semi-metal phase and at the Gross-Neveu-Yukawa critical point, as well as the universal Goldstone mode contribution in the antiferromagnetic Mott insulating phase. | 翻訳日:2023-01-19 23:14:37 公開日:2022-11-08 |
# 格子上の相互作用ボソンに対する非ガウス変分波動関数 Non-Gaussian Variational Wavefunctions for Interacting Bosons on the Lattice ( http://arxiv.org/abs/2211.04320v1 ) ライセンス: Link先を確認 | Tian Qian, Jose J. Fernandez-Melgarejo, David Zueco, Javier Molina-Vilaplana | (参考訳) 強相互作用する量子多体ボソニック系の基底状態を研究するための変分法を提案する。
本手法は、非線形正準変換 (nlct) を用いてガウス状態を拡張する拡張変分非ガウス波動関数のクラスを構成する。
本稿では,この手法を,相互作用強度の任意の値で近似基底状態の族を与える1次元Bose-Hubbardモデルを用いて説明する。
相互作用の異なる値に対して、非ガウスのNLCT-心的状態は、モット相にあるときの基底状態エネルギー推定を適宜改善することを発見した。 A variational method for studying the ground state of strongly interacting quantum many-body bosonic systems is presented. Our approach constructs a class of extensive variational non-Gaussian wavefunctions which extend Gaussian states by means of nonlinear canonical transformations (NLCT) on the fields of the theory under consideration. We illustrate this method with the one dimensional Bose-Hubbard model for which the proposal presented here, provides a family of approximate ground states at arbitrarily large values of the interaction strength. We find that, for different values of the interaction, the non-Gaussian NLCT-trial states sensibly improve the ground state energy estimation when the system is in the Mott phase. | 翻訳日:2023-01-19 23:14:16 公開日:2022-11-08 |
# ab initio量子電気力学による分極化学の理解 Understanding polaritonic chemistry from ab initio quantum electrodynamics ( http://arxiv.org/abs/2211.04241v1 ) ライセンス: Link先を確認 | Michael Ruggenthaler, Dominik Sidler and Angel Rubio | (参考訳) 本稿では、量子電磁力学(qed)における量子物質を記述するための理論的基礎と第一原理の枠組みについて述べる。
相互作用する光子、電子、核/イオンについて、弱いものから強いものまで、厳密で完全に量子化された記述を持つことは、偏光化学とキャビティ材料工学の新たな分野を詳細に理解するために重要である。
厳密な第一原理の使用は、光、物質およびそれらの相互作用の現象学的記述に基づく近似モデルの使用から生じる曖昧さや問題を避ける。
基礎物理学と数学の原理から始めて、非相対論的qedを詳細に検討し、シュル=オディンガー型方程式を解いて非摂動論的に極性系を研究することができる。
結果として生じるパウリ・フィエルツ量子場理論は、量子電気力学密度汎関数理論、QED結合クラスター、ボルン・オッペンハイマー分子動力学などの計算手法の発展の基盤となる。
これらの手法は、光と物質を等しく扱い、計算化学や電子構造理論の確立された方法と同じ精度と信頼性を持つ。
これらの新規な初期QED法の背後にあるキーイデアの概説の後、光子による化学特性や反応の変化をよりよく理解するための利点を述べる。
ab initio qed法によって得られた結果から, オープン理論的問題と, 極性化学の機械論的理解がいかに確立されたかを明らかにする。
最終的に、ポーラリトニック化学と第一原理qedの今後の方向性について見通しを述べ、理論と実験的な視点の両方から、今後数年間で解決すべきオープンな問題に対処します。 In this review we present the theoretical foundations and first principles frameworks to describe quantum matter within quantum electrodynamics (QED) in the low-energy regime. Having a rigorous and fully quantized description of interacting photons, electrons and nuclei/ions, from weak to strong light-matter coupling regimes, is pivotal for a detailed understanding of the emerging fields of polaritonic chemistry and cavity materials engineering. The use of rigorous first principles avoids ambiguities and problems stemming from using approximate models based on phenomenological descriptions of light, matter and their interactions. By starting from fundamental physical and mathematical principles, we first review in great detail non-relativistic QED, which allows to study polaritonic systems non-perturbatively by solving a Schr\"odinger-type equation. The resulting Pauli-Fierz quantum field theory serves as a cornerstone for the development of computational methods, such as quantum-electrodynamical density functional theory, QED coupled cluster or cavity Born-Oppenheimer molecular dynamics. These methods treat light and matter on equal footing and have the same level of accuracy and reliability as established methods of computational chemistry and electronic structure theory. After an overview of the key-ideas behind those novel ab initio QED methods, we explain their benefits for a better understanding of photon-induced changes of chemical properties and reactions. Based on results obtained by ab initio QED methods we identify the open theoretical questions and how a so far missing mechanistic understanding of polaritonic chemistry can be established. We finally give an outlook on future directions within polaritonic chemistry and first principles QED and address the open questions that need to be solved in the next years both from a theoretical as well as experimental viewpoint. | 翻訳日:2023-01-19 23:14:04 公開日:2022-11-08 |
# ダブルウェル障壁下のトンネル路の量子干渉 Quantum interference of tunneling paths under a double-well barrier ( http://arxiv.org/abs/2211.04605v1 ) ライセンス: Link先を確認 | Jayameenakshi Venkatraman, Rodrigo G. Cortinas, Nicholas E. Frattini, Xu Xiao, Michel H. Devoret | (参考訳) 量子領域の目印であるトンネル効果は、古典的に禁止された領域を横切る動きを伴う。
駆動型非線形システムでは、2つ以上のトンネル経路がトンネル効果を干渉、増強、またはキャンセルすることがある。
個々の量子系は制御が難しいため、この干渉効果は多体アンサンブルの最低エネルギー状態に対してのみ研究されている。
本実験では,個別のスクイズ駆動型kerr発振器の地盤におけるトンネル振幅と励起状態多様体のコヒーレントな打ち消しを,古典的に禁止された領域におけるトンネル経路の破壊的干渉の結果として示す。
トンネル分割は、周期性がカー係数の2倍となるシュイーズドライブの周波数の関数として、スペクトル内で周期的に消失する。
この共振器のキャンセルと、圧縮駆動の振幅と周波数の両方の関数としてのトンネリングの全体的な指数関数的減少とが組み合わさって、非コヒーレント環境誘起進化下での良好なスイッチング速度を劇的に減少させる。
干渉効果によるトンネルの制御は量子計算、分子、原子核物理学に応用できる。 The tunnel effect, a hallmark of the quantum realm, involves motion across a classically forbidden region. In a driven nonlinear system, two or more tunneling paths may coherently interfere, enhancing or cancelling the tunnel effect. Since individual quantum systems are difficult to control, this interference effect has only been studied for the lowest energy states of many-body ensembles. In our experiment, we show a coherent cancellation of the tunneling amplitude in the ground and excited state manifold of an individual squeeze-driven Kerr oscillator, a consequence of the destructive interference of tunneling paths in the classically forbidden region. The tunnel splitting vanishes periodically in the spectrum as a function of the frequency of the squeeze-drive, with the periodicity given by twice the Kerr coefficient. This resonant cancellation, combined with an overall exponential reduction of tunneling as a function of both amplitude and frequency of the squeeze-drive, reduces drastically the well-switching rate under incoherent environment-induced evolution. The control of tunneling via interference effects can be applied to quantum computation, molecular, and nuclear physics. | 翻訳日:2023-01-19 23:07:27 公開日:2022-11-08 |
# 2結合二重量子ドット系における量子エンタングルメントとコヒーレンスに及ぼす誘起遷移の影響 Effect of induced transition on the quantum entanglement and coherence in two-coupled double quantum dots system ( http://arxiv.org/abs/2211.04588v1 ) ライセンス: Link先を確認 | Zakaria Dahbi, Maron F. Anka, Mostafa Mansour, Moises Rojas, Clebson Cruz | (参考訳) 固体系における量子的性質の研究は研究の重要な道である。
このシナリオでは、ダブル量子ドット(DQD)は量子計算とナノテクノロジーの技術的ブレークスルーのための汎用的なプラットフォームとして現れる。
本研究では、2カップリングされたDODの熱的絡み合いと量子コヒーレンスを検査し、そこでシステムは各サブシステム内の電子遷移を誘導する外部刺激に曝される。
その結果、外部刺激の導入は、系の量子絡み合いとコヒーレンスの程度を変化させるクーロンポテンシャルに依存する量子レベルの交差を誘導することが示された。
したがって、系の量子特性は遷移周波数を変化させることで調整することができ、量子特性の強化に繋がる。 Studying quantum properties in solid-state systems is a significant avenue for research. In this scenario, double quantum dots (DQDs) appear as a versatile platform for technological breakthroughs in quantum computation and nanotechnology. This work inspects the thermal entanglement and quantum coherence in two-coupled DODs, where the system is exposed to an external stimulus that induces an electronic transition within each subsystem. The results show that the introduction of external stimulus induces a quantum level crossing that relies upon the Coulomb potential changing the degree of quantum entanglement and coherence of the system. Thus, the quantum properties of the system can be tuned by changing the transition frequency, leading to the enhancement of its quantum properties. | 翻訳日:2023-01-19 23:07:10 公開日:2022-11-08 |
# 量子誤差検出と抑圧による古典的グローバー探索 Better-than-classical Grover search via quantum error detection and suppression ( http://arxiv.org/abs/2211.04543v1 ) ライセンス: Link先を確認 | Bibek Pokharel, Daniel Lidar | (参考訳) グローバーの探索アルゴリズムは証明可能な量子優位性を示す最初の量子アルゴリズムの1つである。
多数の量子アプリケーションのバックボーンを形成し、ベンチマークに広く使われている。
ここでは、2つの異なるIBM超伝導トランスモン量子ビットプラットフォームを用いて、最大5キュービットのGrover検索アルゴリズムの最大スケールでの古典的成功確率について報告する。
これは4量子ビットと5量子ビットのスケールにおいて、ロバストな動的分離パルスシーケンスによるエラー抑制によって実現され、古典的結果よりも優れた結果が得られない。
測定誤差軽減の後にさらなる改善がもたらされるが、後者は従来よりも優れた性能を達成するにはそれ自体が不十分である。
2量子ビットの場合、[[4,2,2]]量子エラー検出(qed)コードを用いて99.5%の成功確率を示す。
これはQEDによる量子アルゴリズムの破れのデモンストレーションを構成する。
その過程で,回路の符号化に使用されるQEDコードによって検出された誤りをフィルタリングし,量子アルゴリズム全体を通して蓄積されたエラーの全体像を提供する,独立した関心の手法であるアルゴリズム的エラートモグラフィを導入する。
アルゴリズムによる誤差トモグラフィは,振幅減衰,デ強調,脱分極の組み合わせに基づく誤差モデルの厳密なテストを提供する。 Grover's search algorithm is one of the first quantum algorithms to exhibit a provable quantum advantage. It forms the backbone of numerous quantum applications and is widely used in benchmarking efforts. Here, we report better-than-classical success probabilities for a complete Grover search algorithm on the largest scale demonstrated to date, of up to five qubits, using two different IBM superconducting transmon qubit platforms. This is enabled, on the four and five-qubit scale, by error suppression via robust dynamical decoupling pulse sequences, without which we do not observe better-than-classical results. Further improvements arise after the use of measurement error mitigation, but the latter is insufficient by itself for achieving better-than-classical performance. For two qubits, we demonstrate a success probability of 99.5% via the use of the [[4,2,2]] quantum error-detection (QED) code. This constitutes a demonstration of quantum algorithmic breakeven via QED. Along the way, we introduce algorithmic error tomography, a method of independent interest that provides a holistic view of the errors accumulated throughout an entire quantum algorithm, filtered via the errors detected by the QED code used to encode the circuit. We demonstrate that algorithmic error tomography provides a stringent test of an error model based on a combination of amplitude damping, dephasing, and depolarization. | 翻訳日:2023-01-19 23:06:57 公開日:2022-11-08 |
# 量子参照フレームの代数的性質:時間は変動するか? Algebraic properties of quantum reference frames: Does time fluctuate? ( http://arxiv.org/abs/2211.04520v1 ) ライセンス: Link先を確認 | Martin Bojowald and Artur Tsobanjan | (参考訳) 量子参照フレームは、ゆらぎや相関といった典型的な量子的特徴を実装する必要があるため、古典的な参照フレームとは異なるものと期待されている。
本稿では,参照変数のゆらぎと相関,特に時間について,その参照に用いる性質によって制限されることを示す。
数学的には、この性質は、参照変数が物理的自由度でないことを保証するために、システムに制約を課すことによって実装される。
これらの制約は、それらの振る舞いを記述するために、参照変数の物理的自由度と関連づけるだけでなく、参照変数の量子揺らぎとシステムの自由度との相関を制限する。
最適数学的手法として「最陽性」状態の概念を導入する。
量子参照フレームに対する最近の関心の例へのそれらの特性の明示的な応用は、以前は認識されていなかったフレーム-システム相互作用の制限を明らかにする。
現在議論されているクロックモデルは、量子参照フレームとして一貫性を持たせるという仮定に頼っているが、これらの仮定を緩めると、かなり強いと思われる新しい制約にモデルを公開する。
ほぼ肯定的な状態は、関係量子力学の一貫性に関する最近の議論にも光を当てた。 Quantum reference frames are expected to differ from classical reference frames because they have to implement typical quantum features such as fluctuations and correlations. Here, we show that fluctuations and correlations of reference variables, in particular of time, are restricted by their very nature of being used for reference. Mathematically, this property is implemented by imposing constraints on the system to make sure that reference variables are not physical degrees of freedom. These constraints not only relate physical degrees of freedom to reference variables in order to describe their behavior, they also restrict quantum fluctuations of reference variables and their correlations with system degrees of freedom. We introduce the notion of "almost-positive" states as a suitable mathematical method. An explicit application of their properties to examples of recent interest in quantum reference frames reveals previously unrecognized restrictions on possible frame-system interactions. While currently discussed clock models rely on assumptions that, as shown here, make them consistent as quantum reference frames, relaxing these assumptions will expose the models to new restrictions that appear to be rather strong. Almost-positive states also shed some light on a recent debate about the consistency of relational quantum mechanics. | 翻訳日:2023-01-19 23:06:36 公開日:2022-11-08 |
# 変分量子化学はフォールトトレランス閾値以下のゲートエラー確率を必要とする Variational quantum chemistry requires gate-error probabilities below the fault-tolerance threshold ( http://arxiv.org/abs/2211.04505v1 ) ライセンス: Link先を確認 | Kieran Dalton, Christopher K. Long, Yordan S. Yordanov, Charles G. Smith, Crispin H. W. Barnes, Normann Mertig and David R. M. Arvidsson-Shukur | (参考訳) 変分量子固有解法(VQE)は、NISQ時代において有用な量子優位性のための主要な候補である。
量子プロセッサと古典的なオプティマイザの相互作用は、VQEノイズを回復させると考えられている。
ここではこの仮説を考察する。
各種分子の基底状態計算におけるゲートベースVQEアルゴリズムのノイズレジリエンスのランク付けには,全密度行列シミュレーションを用いる。
私たちは騒音のある状態でそれを見つける。
(i)アンサッツ回路を構成する適応vqesは、「固定」アンサッツ回路を使用するvqeを反復的に上回る。
(ii)adapt-vqesは,回路が物理的動機付けではなくゲート効率の高い要素から構築される場合において,性能が向上する。
我々の結果は、幅広い分子に対して、最高の性能のVQEアルゴリズムでさえ、化学的精度に到達するために10−6=10−4=のゲートエラー確率を必要とすることを示している。
これはほとんどのエラー訂正プロトコルのフォールトトレランスしきい値よりもかなり低い。
さらに, 最大ゲートエラー確率は, 雑音(2量子ビット)ゲート数に反比例することがわかった。
以上の結果から,現行のゲート型VQEを用いた化学計算は,誤差補正なしでは短期ハードウェア上では成功しない可能性が示唆された。 The variational quantum eigensolver (VQE) is a leading contender for useful quantum advantage in the NISQ era. The interplay between quantum processors and classical optimisers is believed to make the VQE noise resilient. Here, we probe this hypothesis. We use full density-matrix simulations to rank the noise resilience of leading gate-based VQE algorithms in ground-state computations on a range of molecules. We find that, in the presence of noise: (i) ADAPT-VQEs that construct ansatz circuits iteratively outperform VQEs that use "fixed" ansatz circuits; and (ii) ADAPT-VQEs perform better when circuits are constructed from gate-efficient elements rather than physically-motivated ones. Our results show that, for a wide range of molecules, even the best-performing VQE algorithms require gate-error probabilities on the order of $10^{-6}$ to $10^{-4}$ to reach chemical accuracy. This is significantly below the fault-tolerance thresholds of most error-correction protocols. Further, we estimate that the maximum allowed gate-error probability scales inversely with the number of noisy (two-qubit) gates. Our results indicate that useful chemistry calculations with current gate-based VQEs are unlikely to be successful on near-term hardware without error correction. | 翻訳日:2023-01-19 23:06:16 公開日:2022-11-08 |
# 機械学習を用いた全rfベースの量子デバイスチューニングアルゴリズム All rf-based tuning algorithm for quantum devices using machine learning ( http://arxiv.org/abs/2211.04504v1 ) ライセンス: Link先を確認 | Barnaby van Straaten, Federico Fedele, Florian Vigneau, Joseph Hickie, Daniel Jirovec, Andrea Ballabio, Daniel Chrastina, Giovanni Isella, Georgios Katsaros, Natalia Ares | (参考訳) 高周波測定は、将来の大規模固体量子プロセッサにおけるディビンチェンツォの読み出し基準を満たし、高い帯域幅と周波数多重化を可能にする。
しかし、この読み出し手法のスケーラビリティのポテンシャルは、量子デバイスチューニングが周波数測定のみを用いて行われる場合、すなわち現在の測定に頼らずにしか利用できない。
ラジオ周波数反射法のみを用いて2つの量子ドットを自動チューニングするアルゴリズムを実証する。
高周波測定の高帯域幅を突破し、デバイスアーキテクチャに関する事前知識なしで数分以内にチューニングが完了した。
その結果,量子ドットチューニングのためのトランスポート計測は不要となり,よりスケーラブルなデバイスアーキテクチャへの道を拓くことができた。 Radio-frequency measurements could satisfy DiVincenzo's readout criterion in future large-scale solid-state quantum processors, as they allow for high bandwidths and frequency multiplexing. However, the scalability potential of this readout technique can only be leveraged if quantum device tuning is performed using exclusively radio-frequency measurements i.e. without resorting to current measurements. We demonstrate an algorithm that automatically tunes double quantum dots using only radio-frequency reflectometry. Exploiting the high bandwidth of radio-frequency measurements, the tuning was completed within a few minutes without prior knowledge about the device architecture. Our results show that it is possible to eliminate the need for transport measurements for quantum dot tuning, paving the way for more scalable device architectures. | 翻訳日:2023-01-19 23:05:56 公開日:2022-11-08 |
# N$-mode,$K$-fermion系のジョルダン・ウィグナーエンコーディングのqubit要求を$N$から$\lceil \log_2 {N \choose K} \rceil$へ還元する Reducing the qubit requirement of Jordan-Wigner encodings of $N$-mode, $K$-fermion systems from $N$ to $\lceil \log_2 {N \choose K} \rceil$ ( http://arxiv.org/abs/2211.04501v1 ) ライセンス: Link先を確認 | Brent Harrison, Dylan Nelson, Daniel Adamiak and James Whitfield | (参考訳) 量子コンピュータ上でフェルミオン系をシミュレートするには、フェルミオンの状態を量子ビットにエンコードする必要がある。
Jordan-Wigner や Bravyi-Kitaev 変換のようなフェルミオン対量子ビット写像は、$N$ qubits を使って、$N$フェルミオンモードの系を表現する。
本研究では、$K$フェルミオンと$N$モードの粒子数保存システムに対して、qubit要求を$\lceil \log_2 {N \choose K} \rceil$の情報理論最小値に還元できることを示した。
これにより、キュービット数に制限のある短期量子コンピュータ上での分子や多体系のシミュレーションの実現性が向上する。 To simulate a fermionic system on a quantum computer, it is necessary to encode the state of the fermions onto qubits. Fermion-to-qubit mappings such as the Jordan-Wigner and Bravyi-Kitaev transformations do this using $N$ qubits to represent systems of $N$ fermionic modes. In this work, we demonstrate that for particle number conserving systems of $K$ fermions and $N$ modes, the qubit requirement can be reduced to the information theoretic minimum of $\lceil \log_2 {N \choose K} \rceil$. This will improve the feasibility of simulation of molecules and many-body systems on near-term quantum computers with limited qubit number. | 翻訳日:2023-01-19 23:05:44 公開日:2022-11-08 |
# Inflation: 古典的および量子因果互換性のためのPythonライブラリ Inflation: a Python library for classical and quantum causal compatibility ( http://arxiv.org/abs/2211.04483v1 ) ライセンス: Link先を確認 | Emanuel-Cristian Boghiu and Elie Wolfe and Alejandro Pozas-Kerstjens | (参考訳) Inflationは、観測された確率分布が因果的説明と互換性があるかどうかを評価するPythonライブラリである。
これは理論と応用科学において中心的な問題であり、近年は量子非局所性の領域、すなわちインフレーション技術の発展から重要な進歩を目撃している。
インフレーション(インフレーション)は、純粋因果互換性の問題や、古典パラダイムと量子パラダイムの両方における(相関関係の)集合に対する最適化を解決できる拡張可能なツールキットである。
ライブラリはモジュール化されており、カスタム修正のために低レベルのオブジェクトへの容易にアクセスを保ちながら使えるように設計されている。 We introduce Inflation, a Python library for assessing whether an observed probability distribution is compatible with a causal explanation. This is a central problem in both theoretical and applied sciences, which has recently witnessed important advances from the area of quantum nonlocality, namely, in the development of inflation techniques. Inflation is an extensible toolkit that is capable of solving pure causal compatibility problems and optimization over (relaxations of) sets of compatible correlations in both the classical and quantum paradigms. The library is designed to be modular and with the ability of being ready-to-use, while keeping an easy access to low-level objects for custom modifications. | 翻訳日:2023-01-19 23:05:24 公開日:2022-11-08 |
# 量子コンピュータを用いた期待値と目標値の計算 Calculating Expectiles and Range Value-at-Risk using Quantum Computers ( http://arxiv.org/abs/2211.04456v1 ) ライセンス: Link先を確認 | Christian Laudag\'e, Ivica Turkalj | (参考訳) リスク対策は、企業のリザーブの適切性を測定する上で重要な指標である。
最も一般的なリスク対策は、バリュー・アット・リスク(VaR)と期待短命(ES)である。
Woerner と Egger (arXiv:1806.06893) は量子ベースのアルゴリズムを導入している。
これらの手順はいわゆる量子振幅推定アルゴリズムに基づいている。
これは古典的モンテカルロ法と比較して二次的な速度向上につながる。
それらのアイデアに基づいて,VaRとESの代替品を計算するアルゴリズムを構築した。
これらのリスク対策はいわゆる期待値とレンジバリュー・アット・リスク(RVaR)である。
我々は、それらの望ましい性質を議論し、量子アルゴリズムの構築を説明します。
これらのアルゴリズムは振幅推定にもとづいている。
ケーススタディでは、Woerner and Egger (arXiv:1806.06893)におけるVaRとESのパフォーマンスを比較した。
すべてのアルゴリズムが量子シミュレータ上で十分に機能していることがわかった。
さらに、期待値とVaRの計算は、実際の量子デバイス上のノイズに対して堅牢である。
これはESやRVaRには当てはまらない。 Risk measures are important key figures to measure the adequacy of the reserves of a company. The most common risk measures in practice are Value-at-Risk (VaR) and Expected Shortfall (ES). Woerner and Egger (arXiv:1806.06893) introduce quantum based algorithms to calculate them. Their procedures are based on the so-called quantum amplitude estimation algorithm. This can lead to a quadratic speed up compared to classical Monte-Carlo based methods. Based on their ideas, we construct algorithms to calculate alternatives for VaR and ES. These risk measures are the so-called expectiles and the Range Value-at-Risk (RVaR). We discuss their desirable properties and explain the construction of our quantum algorithms. These algorithms are also based on amplitude estimation. In a case study, we compare their performance with the one for VaR and ES in Woerner and Egger (arXiv:1806.06893). We find that all of the algorithms perform sufficiently well on a quantum simulator. Further, the calculations of expectiles and VaR are robust against noise on a real quantum device. This is not the case for ES and RVaR. | 翻訳日:2023-01-19 23:05:10 公開日:2022-11-08 |
# ソーシャルメディア上での噂検出のためのグラフ対応マルチビューフュージョンの探索 Exploring Graph-aware Multi-View Fusion for Rumor Detection on Social Media ( http://arxiv.org/abs/2212.02419v1 ) ライセンス: Link先を確認 | Yang Wu, Jing Yang, Xiaojun Zhou, Liming Wang, Zhen Xu | (参考訳) ソーシャルメディア上での自動検出は難しい課題となっている。
これまでの研究では、噂の情報を識別するための会話スレッドからの指示手がかりの学習に焦点を当てている。
しかし,これらの手法は様々な視点から噂の会話スレッドをモデル化するだけでなく,多視点機能をうまく融合させることができない。
本稿では,噂表現学習と分類のための新しい多視点融合フレームワークを提案する。
グラフ畳み込みネットワーク(gcn)に基づく複数のビューをエンコードし、畳み込みニューラルネットワーク(cnn)を活用して、すべてのビュー間の一貫性と補完的な情報をキャプチャし、それらを融合する。
2つの公開データセットの実験結果から,本手法が最先端の手法より優れていることが示された。 Automatic detecting rumors on social media has become a challenging task. Previous studies focus on learning indicative clues from conversation threads for identifying rumorous information. However, these methods only model rumorous conversation threads from various views but fail to fuse multi-view features very well. In this paper, we propose a novel multi-view fusion framework for rumor representation learning and classification. It encodes the multiple views based on Graph Convolutional Networks (GCN), and leverages Convolutional Neural Networks (CNN) to capture the consistent and complementary information among all views and fuse them together. Experimental results on two public datasets demonstrate that our method outperforms state-of-the-art approaches. | 翻訳日:2022-12-11 13:08:20 公開日:2022-11-08 |
# マルチソース受動センシングデータを用いた睡眠行動認識のための不均質隠れマルコフモデル Heterogeneous Hidden Markov Models for Sleep Activity Recognition from Multi-Source Passively Sensed Data ( http://arxiv.org/abs/2211.10371v1 ) ライセンス: Link先を確認 | Fernando Moreno-Pino, Mar\'ia Mart\'inez-Garc\'ia, Pablo M. Olmos, Antonio Art\'es-Rodr\'iguez | (参考訳) 精神科患者の受動的活動監視は、患者が時間とともに進化を監督し、関連する治療結果を高めるツールを含む、リアルタイムでの行動変化を検出するために不可欠である。
しばしば睡眠障害と精神的な健康の悪化は密接に関連しており、精神的な健康状態の悪化は患者の概日リズムの変化を伴っている。
したがって、睡眠行動認識は、患者の活動サイクルを表現し、それらの間の行動変化を検出する行動マーカーを構成する。
さらに, スマートフォンから受動的に検出されたデータは, これらのデバイスの普及により, 患者の生体リズムに優れた代替手段となる。
本研究では,受動的に知覚されたデータに基づいて,睡眠の主要なエピソードを特定することを目的とする。
そこで, 不均一隠れマルコフモデルを用いて, 睡眠行動認識タスクに関連する離散潜時変動過程を自己監督的にモデル化する手法を提案する。
臨床検査ウェアラブルで報告された睡眠測定値に対する評価を行い,提案手法の有効性を検証した。 Psychiatric patients' passive activity monitoring is crucial to detect behavioural shifts in real-time, comprising a tool that helps clinicians supervise patients' evolution over time and enhance the associated treatments' outcomes. Frequently, sleep disturbances and mental health deterioration are closely related, as mental health condition worsening regularly entails shifts in the patients' circadian rhythms. Therefore, Sleep Activity Recognition constitutes a behavioural marker to portray patients' activity cycles and to detect behavioural changes among them. Moreover, mobile passively sensed data captured from smartphones, thanks to these devices' ubiquity, constitute an excellent alternative to profile patients' biorhythm. In this work, we aim to identify major sleep episodes based on passively sensed data. To do so, a Heterogeneous Hidden Markov Model is proposed to model a discrete latent variable process associated with the Sleep Activity Recognition task in a self-supervised way. We validate our results against sleep metrics reported by clinically tested wearables, proving the effectiveness of the proposed approach. | 翻訳日:2022-11-27 13:35:30 公開日:2022-11-08 |
# 疫学モデルにおける社会的接触パターンに基づく国々のクラスタリング Clustering of countries based on the associated social contact patterns in epidemiological modelling ( http://arxiv.org/abs/2211.06426v1 ) ライセンス: Link先を確認 | Evans Kiptoo Korir and Zsolt Vizi | (参考訳) 数学的モデルは、コロナウイルス病2019(COVID-19)のような感染症の拡散パターンを理解するために使われてきた。
モデルの伝達成分は、年齢群間の接触率を記述する集団に接触行列を導入することにより、年齢に依存してモデル化することができる。
社会的な接触パターンは国によって異なるため、対応する接触行列を用いて比較・分類することができる。
本稿では,本研究の基盤となる流行モデルに関して,接触行列に基づくクラスタリング諸国の枠組みを提案する。
パイプラインは汎用的でモジュール化されているので、r\"ost et.comのcovid-19モデルでそのアプリケーションをデモします。
パンデミックの状況において、薬品以外の介入しかできない場合に、どの国を比較できるかを示すヒントとなる。 Mathematical models have been used to understand the spread patterns of infectious diseases such as Coronavirus Disease 2019 (COVID-19). The transmission component of the models can be modelled in an age-dependent manner via introducing contact matrix for the population, which describes the contact rates between the age groups. Since social contact patterns vary from country to country, we can compare and group the countries using the corresponding contact matrices. In this paper, we present a framework for clustering countries based on their contact matrices with respect to an underlying epidemic model. Since the pipeline is generic and modular, we demonstrate its application in a COVID-19 model from R\"ost et. al. which gives a hint about which countries can be compared in a pandemic situation, when only non-pharmaceutical interventions are available. | 翻訳日:2022-11-20 13:42:50 公開日:2022-11-08 |
# pynet-v2 mobile:ニューラルネットワークを用いた効率的なオンデバイスフォトプロセッシング PyNet-V2 Mobile: Efficient On-Device Photo Processing With Neural Networks ( http://arxiv.org/abs/2211.06263v1 ) ライセンス: Link先を確認 | Andrey Ignatov and Grigory Malivenko and Radu Timofte and Yu Tseng and Yu-Syuan Xu and Po-Hsiang Yu and Cheng-Ming Chiang and Hsien-Kai Kuo and Min-Hung Chen and Chia-Ming Cheng and Luc Van Gool | (参考訳) モバイル写真の重要性の高まりは、モバイルカメラセンサーの制限にもかかわらず、優れた視覚結果を生み出すことができる高速かつ高性能なRAW画像処理パイプラインの必要性を生み出した。
ディープラーニングベースのアプローチはこの問題を効率的に解決できるが、その計算要求は通常、高解像度のオンデバイス画像処理には大きすぎる。
この制限に対処するために,エッジデバイス用に設計された新しいPyNET-V2 Mobile CNNアーキテクチャを提案する。
提案手法の性能をトレーニングし,評価するために,プロ用中型102MPの富士フィルムカメラと,人気の高いソニーモバイルカメラセンサを用いて,RAW-RGBイメージペア数千枚からなる実世界の富士フィルムUltraISPデータセットを用いた。
その結果,pynet-v2モバイルモデルは従来型ispパイプラインのクオリティを大幅に上回り,高速画像処理用に開発されたニューラルネットワークベースのソリューションを上回った。
さらに、提案アーキテクチャは、NPUやAPUといった最新のモバイルAIアクセラレータとも互換性があり、モデルのレイテンシをさらに0.5秒に短縮できることを示す。
本論文で使用されるデータセット、コード、事前トレーニング済みモデルは、プロジェクトのWebサイトで公開されている。 The increased importance of mobile photography created a need for fast and performant RAW image processing pipelines capable of producing good visual results in spite of the mobile camera sensor limitations. While deep learning-based approaches can efficiently solve this problem, their computational requirements usually remain too large for high-resolution on-device image processing. To address this limitation, we propose a novel PyNET-V2 Mobile CNN architecture designed specifically for edge devices, being able to process RAW 12MP photos directly on mobile phones under 1.5 second and producing high perceptual photo quality. To train and to evaluate the performance of the proposed solution, we use the real-world Fujifilm UltraISP dataset consisting on thousands of RAW-RGB image pairs captured with a professional medium-format 102MP Fujifilm camera and a popular Sony mobile camera sensor. The results demonstrate that the PyNET-V2 Mobile model can substantially surpass the quality of tradition ISP pipelines, while outperforming the previously introduced neural network-based solutions designed for fast image processing. Furthermore, we show that the proposed architecture is also compatible with the latest mobile AI accelerators such as NPUs or APUs that can be used to further reduce the latency of the model to as little as 0.5 second. The dataset, code and pre-trained models used in this paper are available on the project website: https://github.com/gmalivenko/PyNET-v2 | 翻訳日:2022-11-20 13:33:37 公開日:2022-11-08 |
# MicroISP: ディープラーニングでモバイルデバイスで32メガピクセルの写真を処理 MicroISP: Processing 32MP Photos on Mobile Devices with Deep Learning ( http://arxiv.org/abs/2211.06770v1 ) ライセンス: Link先を確認 | Andrey Ignatov and Anastasia Sycheva and Radu Timofte and Yu Tseng and Yu-Syuan Xu and Po-Hsiang Yu and Cheng-Ming Chiang and Hsien-Kai Kuo and Min-Hung Chen and Chia-Ming Cheng and Luc Van Gool | (参考訳) ニューラルネットワークベースのフォトプロセッシングソリューションは、従来のISPシステムよりも画質が良いが、計算量が非常に高いため、モバイルデバイスへの応用は依然として非常に限られている。
本稿では,エッジデバイス向けに設計された新しいMicroISPモデルを提案する。
提案したソリューションは,モバイルMLライブラリを使用して,最新のスマートフォン上で最大32メガピクセルの写真を処理し,推論に1秒未満で処理でき,FullHDイメージではリアルタイムのパフォーマンスを実現する。
モデルのアーキテクチャは柔軟で、計算能力の異なるデバイスに複雑性を調整することができる。
モデルの性能を評価するため,通常のモバイルカメラセンサとプロ用102MPのFujiFilm GFX100カメラで撮影した数千枚の写真からなる,新しいFujifilm UltraISPデータセットを収集した。
実験では、マイクロISPモデルは、そのコンパクトさにもかかわらず、従来のモバイルISPシステムと同等またはより良い視覚的結果を提供できる一方で、これまで提案されていた効率的なディープラーニングベースのソリューションよりも優れていることを示した。
最後に、このモデルは最新のモバイルAIアクセラレータとも互換性があり、スマートフォンのNPUとAPUで優れたランタイムと低消費電力を実現する。
コード、データセット、事前トレーニングされたモデルは、プロジェクトのWebサイトで入手できる。 While neural networks-based photo processing solutions can provide a better image quality compared to the traditional ISP systems, their application to mobile devices is still very limited due to their very high computational complexity. In this paper, we present a novel MicroISP model designed specifically for edge devices, taking into account their computational and memory limitations. The proposed solution is capable of processing up to 32MP photos on recent smartphones using the standard mobile ML libraries and requiring less than 1 second to perform the inference, while for FullHD images it achieves real-time performance. The architecture of the model is flexible, allowing to adjust its complexity to devices of different computational power. To evaluate the performance of the model, we collected a novel Fujifilm UltraISP dataset consisting of thousands of paired photos captured with a normal mobile camera sensor and a professional 102MP medium-format FujiFilm GFX100 camera. The experiments demonstrated that, despite its compact size, the MicroISP model is able to provide comparable or better visual results than the traditional mobile ISP systems, while outperforming the previously proposed efficient deep learning based solutions. Finally, this model is also compatible with the latest mobile AI accelerators, achieving good runtime and low power consumption on smartphone NPUs and APUs. The code, dataset and pre-trained models are available on the project website: https://people.ee.ethz.ch/~ihnatova/microisp.html | 翻訳日:2022-11-20 13:33:14 公開日:2022-11-08 |
# ディープ・ルック・プレフィルター Deep Appearance Prefiltering ( http://arxiv.org/abs/2211.05932v1 ) ライセンス: Link先を確認 | Steve Bako, Pradeep Sen, Anton Kaplanyan | (参考訳) 複雑なシーンの物理的にベースとしたレンダリングは、レンダリングされた画像全体の複雑さの潜在的に非バウンドで不均一な分布を伴って、不当にコストがかかる可能性がある。
理想的なレベル・オブ・ディテール(LoD)手法の目標は、シーンの外観を保ちながら、レンダリングコストを3Dシーンの複雑さとは無関係にすることである。
しかし、現在のフィルター前lod法は、近似モデルや他のヒューリスティックに依存するため、サポートできる外観に制限がある。
本稿では,複雑な形状と材料(disney brdfなど)を用いた3次元環境の事前フィルタを行うための,最初の包括的多スケール型lodフレームワークを提案する。
シーンのマルチスケール階層を用いて,データ駆動による事前フィルタを行い,各スケールで出現位相関数と指向性カバーマスクを得る。
我々のアプローチの核心は、この情報を物理的にベースとしたレンダラー内で容易に復号できるコンパクトな潜在形式に符号化する新しい神経表現である。
一度シーンを焼き尽くすと、レンダリング時に元の幾何学、素材、テクスチャを必要としない。
提案手法は,最先端のプリフィルタ手法と比較し,複雑なシーンに対するメモリの大幅な節約を実現する。 Physically based rendering of complex scenes can be prohibitively costly with a potentially unbounded and uneven distribution of complexity across the rendered image. The goal of an ideal level of detail (LoD) method is to make rendering costs independent of the 3D scene complexity, while preserving the appearance of the scene. However, current prefiltering LoD methods are limited in the appearances they can support due to their reliance of approximate models and other heuristics. We propose the first comprehensive multi-scale LoD framework for prefiltering 3D environments with complex geometry and materials (e.g., the Disney BRDF), while maintaining the appearance with respect to the ray-traced reference. Using a multi-scale hierarchy of the scene, we perform a data-driven prefiltering step to obtain an appearance phase function and directional coverage mask at each scale. At the heart of our approach is a novel neural representation that encodes this information into a compact latent form that is easy to decode inside a physically based renderer. Once a scene is baked out, our method requires no original geometry, materials, or textures at render time. We demonstrate that our approach compares favorably to state-of-the-art prefiltering methods and achieves considerable savings in memory for complex scenes. | 翻訳日:2022-11-20 13:32:20 公開日:2022-11-08 |
# Task-Specific Quantum Metric Learning を用いた変分量子カーネル Variational Quantum Kernels with Task-Specific Quantum Metric Learning ( http://arxiv.org/abs/2211.05225v1 ) ライセンス: Link先を確認 | Daniel T. Chang | (参考訳) 量子カーネル法(すなわち、量子カーネルを用いたカーネル法)は、量子機械学習(QML)へのハイブリッド量子古典的アプローチとして、ノイズ中間量子(NISQ)デバイスの適用性や、あらゆる種類の機械学習問題を解決するための用途など、明確な利点がある。
カーネル法は、高次元(おそらく無限)の特徴空間における点間の類似性の概念に依存する。
機械学習では、類似性の概念は、機能空間の点が機械学習タスク空間に近くなければならないと仮定する。
本稿では,機械学習タスクに特有の量子埋め込み(量子特徴符号化)を最適に生成するために,変分量子カーネルとタスク固有量子量子学習の併用について議論する。
このようなタスク固有の最適量子埋め込みは、暗黙的に特徴選択をサポートするが、量子カーネル法だけでなく、パラメータ化された量子回路(pqcs)に基づく非カーネルqml法にも事前学習や転送学習として有用である。
これは量子カーネル法の量子ユーティリティ、量子アドバンテージ(古典的に難解な量子埋め込み)をさらに示している。 Quantum kernel methods, i.e., kernel methods with quantum kernels, offer distinct advantages as a hybrid quantum-classical approach to quantum machine learning (QML), including applicability to Noisy Intermediate-Scale Quantum (NISQ) devices and usage for solving all types of machine learning problems. Kernel methods rely on the notion of similarity between points in a higher (possibly infinite) dimensional feature space. For machine learning, the notion of similarity assumes that points close in the feature space should be close in the machine learning task space. In this paper, we discuss the use of variational quantum kernels with task-specific quantum metric learning to generate optimal quantum embeddings (a.k.a. quantum feature encodings) that are specific to machine learning tasks. Such task-specific optimal quantum embeddings, implicitly supporting feature selection, are valuable not only to quantum kernel methods in improving the latter's performance, but they can also be valuable to non-kernel QML methods based on parameterized quantum circuits (PQCs) as pretrained embeddings and for transfer learning. This further demonstrates the quantum utility, and quantum advantage (with classically-intractable quantum embeddings), of quantum kernel methods. | 翻訳日:2022-11-11 16:07:13 公開日:2022-11-08 |
# 生体画像のコンセンサスに基づくセグメンテーションの速度論的アプローチ A kinetic approach to consensus-based segmentation of biomedical images ( http://arxiv.org/abs/2211.05226v1 ) ライセンス: Link先を確認 | Raffaella Fiamma Cabini, Anna Pichiecchio, Alessandro Lascialfari, Silvia Figini and Mattia Zanella | (参考訳) 本研究では,バイオメディカルセグメンテーション問題に有界信頼度コンセンサスモデルの運動バージョンを適用した。
提案手法では、各粒子/画素の微視的状態に関する時間依存情報には、その空間位置と、システムの静的特性、すなわち各画素のグレーレベルを表す特徴が含まれている。
導入した微視的モデルから,模型の速度論的定式化を導出する。
システムの大きな時間的挙動は、準不変スケーリングで得られる代理フォッカー・プランク法(英語版)の助けを借りて計算される。
直接シミュレーションモンテカルロ法の計算効率を利用して,パラメータ同定タスクにおける問題のボルツマン型記述を行う。
基礎的真理セグメンテーションマスクと評価されたマスクとの間の距離を測定する適切な損失関数に基づいて、関連する2次元グレースケール画像のセグメンテーションメトリックを最小化する。
バイオメディカルセグメンテーションへの応用は、異なるイメージング研究の文脈に集中する。 In this work, we apply a kinetic version of a bounded confidence consensus model to biomedical segmentation problems. In the presented approach, time-dependent information on the microscopic state of each particle/pixel includes its space position and a feature representing a static characteristic of the system, i.e. the gray level of each pixel. From the introduced microscopic model we derive a kinetic formulation of the model. The large time behavior of the system is then computed with the aid of a surrogate Fokker-Planck approach that can be obtained in the quasi-invariant scaling. We exploit the computational efficiency of direct simulation Monte Carlo methods for the obtained Boltzmann-type description of the problem for parameter identification tasks. Based on a suitable loss function measuring the distance between the ground truth segmentation mask and the evaluated mask, we minimize the introduced segmentation metric for a relevant set of 2D gray-scale images. Applications to biomedical segmentation concentrate on different imaging research contexts. | 翻訳日:2022-11-11 15:59:18 公開日:2022-11-08 |
# コンテキストはチープになる:線形帯域アルゴリズムで確率的コンテキスト帯域を解く Contexts can be Cheap: Solving Stochastic Contextual Bandits with Linear Bandit Algorithms ( http://arxiv.org/abs/2211.05632v1 ) ライセンス: Link先を確認 | Osama A. Hanna, Lin F. Yang, Christina Fragouli | (参考訳) 本稿では,意思決定者が文脈(分布から引き出されたランダムな動作の集合)を提供する確率的文脈線形バンディット問題に対処する。
各アクションの期待される報酬は、アクションの内部積と未知のパラメータによって指定される。
ゴールは、多くのアクションが実行された後、未知の最適ポリシーにできるだけ近くプレイすることを学ぶアルゴリズムを設計することである。
この問題は線型バンディット問題よりも困難であると考えられており、これは文脈的バンディット問題として \emph{fixed} コンテキストとみなすことができる。
驚くべきことに,本稿では,確率的文脈問題は線形バンディット問題であるかのように解くことができることを示した。
特に、文脈分布が知られている場合、全ての確率的文脈線形バンドイットインスタンスを線形バンドイットインスタンスに変換する新しい還元フレームワークを確立する。
文脈分布が不明な場合には、確率的文脈インスタンスを小さな誤特定を伴う線形バンディットインスタンス列に縮小し、誤特定された線形バンディットインスタンスを解決するアルゴリズムとほぼ同じ最悪の場合の後悔を実現できるアルゴリズムを確立する。
その結果、文脈線形バンドイットに縛られた高い確率の後悔がo(d\sqrt{t\log t})$を示し、(li et al., 2019), (li et al., 2021) の未解決問題を解く過程が進行した。
私たちの還元フレームワークは,確率的文脈線形バンディット問題へのアプローチの新たな方法を開き,バッチ設定,不特定化を伴うコンテキストバンディット,未知パラメータの少ないコンテキストバンディット,対向汚職を伴うコンテキストバンディットなど,多数のインスタンスにおける後悔境界の改善を可能にします。 In this paper, we address the stochastic contextual linear bandit problem, where a decision maker is provided a context (a random set of actions drawn from a distribution). The expected reward of each action is specified by the inner product of the action and an unknown parameter. The goal is to design an algorithm that learns to play as close as possible to the unknown optimal policy after a number of action plays. This problem is considered more challenging than the linear bandit problem, which can be viewed as a contextual bandit problem with a \emph{fixed} context. Surprisingly, in this paper, we show that the stochastic contextual problem can be solved as if it is a linear bandit problem. In particular, we establish a novel reduction framework that converts every stochastic contextual linear bandit instance to a linear bandit instance, when the context distribution is known. When the context distribution is unknown, we establish an algorithm that reduces the stochastic contextual instance to a sequence of linear bandit instances with small misspecifications and achieves nearly the same worst-case regret bound as the algorithm that solves the misspecified linear bandit instances. As a consequence, our results imply a $O(d\sqrt{T\log T})$ high-probability regret bound for contextual linear bandits, making progress in resolving an open problem in (Li et al., 2019), (Li et al., 2021). Our reduction framework opens up a new way to approach stochastic contextual linear bandit problems, and enables improved regret bounds in a number of instances including the batch setting, contextual bandits with misspecifications, contextual bandits with sparse unknown parameters, and contextual bandits with adversarial corruption. | 翻訳日:2022-11-11 14:39:45 公開日:2022-11-08 |
# 転移学習と視覚による触覚センシングによる大腸癌ポリープの分類 Classification of Colorectal Cancer Polyps via Transfer Learning and Vision-Based Tactile Sensing ( http://arxiv.org/abs/2211.04573v1 ) ライセンス: Link先を確認 | Nethra Venkatayogi, Ozdemir Can Kara, Jeff Bonyun, Naruhiko Ikoma, and Farshid Alambeigi | (参考訳) 本研究では,大腸癌(CRC)ポリープの早期発見ミス率に対処するために,転写学習と機械学習(ML)分類器を用いてCRCポリープのタイプを正確に,敏感に分類する可能性を検討する。
共通の大腸鏡像を用いる代わりに,視覚型表面触覚センサ(vs-ts)の3次元テクスチャ画像出力に3つの異なるmlアルゴリズムを適用した。
使用済みml分類器の訓練と性能評価のためにcrcポリプの現実的なテクスチャイメージを収集するため,まず,硬度,タイプ,テクスチャの異なる48種類のリアルポリプファントムを設計,付加的に作製した。
次に,使用中の3mlアルゴリズムによるポリプの分類性能を各種統計指標を用いて定量的に評価した。 In this study, to address the current high earlydetection miss rate of colorectal cancer (CRC) polyps, we explore the potentials of utilizing transfer learning and machine learning (ML) classifiers to precisely and sensitively classify the type of CRC polyps. Instead of using the common colonoscopic images, we applied three different ML algorithms on the 3D textural image outputs of a unique vision-based surface tactile sensor (VS-TS). To collect realistic textural images of CRC polyps for training the utilized ML classifiers and evaluating their performance, we first designed and additively manufactured 48 types of realistic polyp phantoms with different hardness, type, and textures. Next, the performance of the used three ML algorithms in classifying the type of fabricated polyps was quantitatively evaluated using various statistical metrics. | 翻訳日:2022-11-10 18:09:35 公開日:2022-11-08 |
# 非有界ループによる微分可能量子プログラミング Differentiable Quantum Programming with Unbounded Loops ( http://arxiv.org/abs/2211.04507v1 ) ライセンス: Link先を確認 | Wang Fang, Mingsheng Ying, Xiaodi Wu | (参考訳) 変分量子応用の出現は、量子コンピューティングにおける自動微分技術の発展につながった。
最近、Zhuら (PLDI 2020) は有界ループを持つ微分可能量子プログラミングを定式化し、量子変分法を訓練するための量子手段によるスケーラブルな勾配計算のためのフレームワークを提供している。
しかし、量子ウォークやユニタリ実装のような有望なパラメータ化量子アプリケーションは、非有界ループの自然な関与のため、既存のフレームワークでは訓練できない。
このギャップを埋めるために、新しく設計された微分規則、コード変換、それらの正当性証明を含む、非有界ループを持つ最初の微分可能な量子プログラミングフレームワークを提供する。
技術的には、非有界ループの微分における無限和を扱う導関数のランダム化推定器を導入し、古典的および確率的プログラミングへの適用性についても論じる。
我々はPythonとQ#でフレームワークを実装し、適切なサンプル効率を示す。
広範囲にわたるケーススタディを通じて、いくつかのパラメータ化量子アプリケーションに対して、近接最適パラメータを自動的に識別するフレームワークのエキサイティングな応用を紹介した。 The emergence of variational quantum applications has led to the development of automatic differentiation techniques in quantum computing. Recently, Zhu et al. (PLDI 2020) have formulated differentiable quantum programming with bounded loops, providing a framework for scalable gradient calculation by quantum means for training quantum variational applications. However, promising parameterized quantum applications, e.g., quantum walk and unitary implementation, cannot be trained in the existing framework due to the natural involvement of unbounded loops. To fill in the gap, we provide the first differentiable quantum programming framework with unbounded loops, including a newly designed differentiation rule, code transformation, and their correctness proof. Technically, we introduce a randomized estimator for derivatives to deal with the infinite sum in the differentiation of unbounded loops, whose applicability in classical and probabilistic programming is also discussed. We implement our framework with Python and Q#, and demonstrate a reasonable sample efficiency. Through extensive case studies, we showcase an exciting application of our framework in automatically identifying close-to-optimal parameters for several parameterized quantum applications. | 翻訳日:2022-11-10 18:08:12 公開日:2022-11-08 |
# 時空のアルゴリズムフェアネスに向けて:ブラックホールを埋める Towards Algorithmic Fairness in Space-Time: Filling in Black Holes ( http://arxiv.org/abs/2211.04568v1 ) ライセンス: Link先を確認 | Cheryl Flynn and Aritra Guha and Subhabrata Majumdar and Divesh Srivastava and Zhengyi Zhou | (参考訳) 新しい技術と地理空間データの利用は、社会に存在する時空間バイアスに注意を向けている。
例えば、新型コロナウイルス(COVID-19)パンデミックはブロードバンドサービスの可用性とデジタル分割におけるその役割の相違を強調し、米国の環境正義運動は、歴史的リライニングの慣行から生じる少数民族の健康への影響を意識し、オープンソースの地理空間データの収集と共有において様々な品質とカバレッジを見出した。
機械学習(ML)の公平性に関する広範な文献にもかかわらず、そのようなバイアスを軽減するアルゴリズム戦略はほとんど提案されていない。
本稿では,時空間バイアスを定量化し,対処するためのユニークな課題を,科学文献やメディアに提示するユースケースのレンズを通して紹介する。
私たちは、トランスファーラーニング、アクティブラーニング、強化学習技術など、これらの課題を定量化、克服するために開発または適応する必要があるML戦略のロードマップを構想します。
さらに,政策立案者に対して,空間的公正に関する問題に関するガイダンスを提供する上で,MLが果たす役割についても論じる。 New technologies and the availability of geospatial data have drawn attention to spatio-temporal biases present in society. For example: the COVID-19 pandemic highlighted disparities in the availability of broadband service and its role in the digital divide; the environmental justice movement in the United States has raised awareness to health implications for minority populations stemming from historical redlining practices; and studies have found varying quality and coverage in the collection and sharing of open-source geospatial data. Despite the extensive literature on machine learning (ML) fairness, few algorithmic strategies have been proposed to mitigate such biases. In this paper we highlight the unique challenges for quantifying and addressing spatio-temporal biases, through the lens of use cases presented in the scientific literature and media. We envision a roadmap of ML strategies that need to be developed or adapted to quantify and overcome these challenges -- including transfer learning, active learning, and reinforcement learning techniques. Further, we discuss the potential role of ML in providing guidance to policy makers on issues related to spatial fairness. | 翻訳日:2022-11-10 18:07:53 公開日:2022-11-08 |
# 量子波動関数と固有値曲面に対する物理インフォームドニューラルネットワークの一原理 First principles physics-informed neural network for quantum wavefunctions and eigenvalue surfaces ( http://arxiv.org/abs/2211.04607v1 ) ライセンス: Link先を確認 | Marios Mattheakis, Gabriel R. Schleder, Daniel Larson, Efthimios Kaxiras | (参考訳) 物理インフォームドニューラルネットワークは微分方程式の一般パラメトリック解の学習に広く応用されている。
本稿では,量子系のパラメータ固有値と固有関数曲面を求めるニューラルネットワークを提案する。
我々は水素分子イオンの解法に本手法を適用した。
イオン位置のcuspを含む現実的な波動関数を生成するクーロンポテンシャルを用いてシュロディンガー方程式を解くab-initio深層学習法である。
神経解は原子間距離の連続的かつ微分可能な関数であり、その誘導体は自動微分を適用して解析的に計算される。
このようなパラメトリックで解析的な解形式は、力場の決定のようなさらなる計算に有用である。 Physics-informed neural networks have been widely applied to learn general parametric solutions of differential equations. Here, we propose a neural network to discover parametric eigenvalue and eigenfunction surfaces of quantum systems. We apply our method to solve the hydrogen molecular ion. This is an ab-initio deep learning method that solves the Schrodinger equation with the Coulomb potential yielding realistic wavefunctions that include a cusp at the ion positions. The neural solutions are continuous and differentiable functions of the interatomic distance and their derivatives are analytically calculated by applying automatic differentiation. Such a parametric and analytical form of the solutions is useful for further calculations such as the determination of force fields. | 翻訳日:2022-11-10 18:07:34 公開日:2022-11-08 |
# ML衛星による火災検知・警報システムのための安全保証事例の作成 Creating a Safety Assurance Case for an ML Satellite-Based Wildfire Detection and Alert System ( http://arxiv.org/abs/2211.04530v1 ) ライセンス: Link先を確認 | Richard Hawkins, Chiara Picardi, Lucy Donnell, Murray Ireland | (参考訳) 野火は世界の多くの地域で共通の問題であり、しばしば壊滅的な結果をもたらす。
衛星データを使用して火災を検知するシステムを含む、野火の早期警告を提供するために多くのシステムが作成されている。
cubesatsのような小型衛星の可用性の向上により、複数の衛星の星座を関心のある領域に配置することで、ワイルドファイア検出応答時間を短縮できる。
衛星に搭載された機械学習コンポーネントを使用することで、処理や地上局への送信が可能なデータの量を制限する制約を克服することができる。
ワイルドファイア警報システムには、ワイルドファイアの存在を検知できなかったり、間違った場所でワイルドファイアを検知したりするといった危険がある。
したがって、十分に安全であることを示すワイルドファイアアラートMLコンポーネントの安全保証ケースを作成する必要がある。
本稿では,mlワイルドファイア警報システムにおける安全保証ケースの作成方法について詳述する。
これは、機械学習の安全性に関する明示的な議論と証拠を含むMLコンポーネントのための、初めて完全に開発された安全ケースである。 Wildfires are a common problem in many areas of the world with often catastrophic consequences. A number of systems have been created to provide early warnings of wildfires, including those that use satellite data to detect fires. The increased availability of small satellites, such as CubeSats, allows the wildfire detection response time to be reduced by deploying constellations of multiple satellites over regions of interest. By using machine learned components on-board the satellites, constraints which limit the amount of data that can be processed and sent back to ground stations can be overcome. There are hazards associated with wildfire alert systems, such as failing to detect the presence of a wildfire, or detecting a wildfire in the incorrect location. It is therefore necessary to be able to create a safety assurance case for the wildfire alert ML component that demonstrates it is sufficiently safe for use. This paper describes in detail how a safety assurance case for an ML wildfire alert system is created. This represents the first fully developed safety case for an ML component containing explicit argument and evidence as to the safety of the machine learning. | 翻訳日:2022-11-10 17:50:43 公開日:2022-11-08 |
# 不均一エネルギー材料のマルチスケール衝撃-起爆シミュレーションにおけるエネルギー局在に関する物理認識深層学習モデル A physics-aware deep learning model for energy localization in multiscale shock-to-detonation simulations of heterogeneous energetic materials ( http://arxiv.org/abs/2211.04561v1 ) ライセンス: Link先を確認 | Phong C.H. Nguyen, Yen-Thi Nguyen, Pradeep K. Seshadri, Joseph B. Choi, H.S. Udaykumar, and Stephen Baek | (参考訳) 不均一エネルギー材料(EM)における衝撃-起爆遷移(SDT)の予測シミュレーションは、そのエネルギー放出と感度の設計と制御に不可欠である。
SDTにおけるEMの熱力学の複雑さのため、マクロスケール応答とサブグリッドメソスケールのエネルギー局在を正確に捉える必要がある。
本研究は,emのsdtシミュレーションのための効率的かつ高精度なマルチスケールフレームワークを提案する。
我々は, マクロスケールSDTシミュレーションに反応進行率情報を供給するための予測結果を用いて, 衝撃開始EMマイクロ構造のメソスケールエネルギー局在をモデル化するために, 深層学習を用いる。
提案するマルチスケールモデリングフレームワークは,2つの段階に分けられる。
第一に, 物理認識型リカレント畳み込みニューラルネットワーク(parc)を用いて, 衝撃誘起不均質em微細構造のメソスケールエネルギー局在をモデル化する。
PARCは、入力衝撃強度が異なる加圧HMX材料の組織内におけるホットスポット点火および成長の直接数値シミュレーション(DNS)を用いて訓練される。
訓練後、PARCはマクロスケールSDTシミュレーションのためのホットスポット点火および成長速度の供給に使用される。
PARCは,計算コストを大幅に削減し,サブグリッド物理の表現性の向上を図りながら,マルチスケールシミュレーションフレームワークにおける代理モデルの役割を担っている。
提案するマルチスケールモデリング手法は,高性能で安全なエネルギー材料の設計において,材料科学者に新たなツールを提供する。 Predictive simulations of the shock-to-detonation transition (SDT) in heterogeneous energetic materials (EM) are vital to the design and control of their energy release and sensitivity. Due to the complexity of the thermo-mechanics of EM during the SDT, both macro-scale response and sub-grid mesoscale energy localization must be captured accurately. This work proposes an efficient and accurate multiscale framework for SDT simulations of EM. We employ deep learning to model the mesoscale energy localization of shock-initiated EM microstructures upon which prediction results are used to supply reaction progress rate information to the macroscale SDT simulation. The proposed multiscale modeling framework is divided into two stages. First, a physics-aware recurrent convolutional neural network (PARC) is used to model the mesoscale energy localization of shock-initiated heterogeneous EM microstructures. PARC is trained using direct numerical simulations (DNS) of hotspot ignition and growth within microstructures of pressed HMX material subjected to different input shock strengths. After training, PARC is employed to supply hotspot ignition and growth rates for macroscale SDT simulations. We show that PARC can play the role of a surrogate model in a multiscale simulation framework, while drastically reducing the computation cost and providing improved representations of the sub-grid physics. The proposed multiscale modeling approach will provide a new tool for material scientists in designing high-performance and safer energetic materials. | 翻訳日:2022-11-10 17:50:28 公開日:2022-11-08 |
# ダウン(ストリーム)時間の削減:異種AI加速器を用いた分子GNNの事前学習 Reducing Down(stream)time: Pretraining Molecular GNNs using Heterogeneous AI Accelerators ( http://arxiv.org/abs/2211.04598v1 ) ライセンス: Link先を確認 | Jenna A. Bilbrey, Kristina M. Herman, Henry Sprueill, Soritis S. Xantheas, Payel Das, Manuel Lopez Roldan, Mike Kraus, Hatem Helal, Sutanay Choudhury | (参考訳) トランスファーラーニングの成功が実証され、大量のデータソースからモデルを事前学習し、それに続く特定のタスクへの微調整を含むアプローチが普及した。
このようなアプローチは自然言語処理などの分野において標準となっているが、化学へのトランスファー学習アプローチの実装と評価は初期段階にある。
本研究では,270万個の水クラスターを含む分子データベース上で学習したグラフニューラルネットワーク(gnn)上で下流タスクの微調整を行う。
分子GNNのトレーニングのためのAIアクセラレータとしてGraphcore IPUを使用することで、0.5Mクラスタで報告された2.7日から2.7Mクラスタで1.2時間に短縮される。
分子動力学の下流タスクのための事前訓練されたモデルを微調整し、1つのGPU上でそれぞれ8.3時間28分しかかからなかった。 The demonstrated success of transfer learning has popularized approaches that involve pretraining models from massive data sources and subsequent finetuning towards a specific task. While such approaches have become the norm in fields such as natural language processing, implementation and evaluation of transfer learning approaches for chemistry are in the early stages. In this work, we demonstrate finetuning for downstream tasks on a graph neural network (GNN) trained over a molecular database containing 2.7 million water clusters. The use of Graphcore IPUs as an AI accelerator for training molecular GNNs reduces training time from a reported 2.7 days on 0.5M clusters to 1.2 hours on 2.7M clusters. Finetuning the pretrained model for downstream tasks of molecular dynamics and transfer to a different potential energy surface took only 8.3 hours and 28 minutes, respectively, on a single GPU. | 翻訳日:2022-11-10 17:50:08 公開日:2022-11-08 |
# 社会的・倫理的MLリスクに対するシステム安全工学 : 事例研究 System Safety Engineering for Social and Ethical ML Risks: A Case Study ( http://arxiv.org/abs/2211.04602v1 ) ライセンス: Link先を確認 | Edgar W. Jatho III and Logan O. Mailloux and Shalaleh Rismani and Eugene D. Williams and Joshua A. Kroll | (参考訳) 政府、産業、アカデミックは、複雑な社会技術システムにおけるMLコンポーネントの社会的および倫理的リスクを特に重視して、ML駆動システムにおける害を特定し、緩和する努力を行っている。
しかし、既存のアプローチは概ね非結合であり、アドホックであり、有効性は不明である。
システム安全工学は、多くの複雑な社会技術分野におけるリスクを特定し管理する実績を持つ、確立された分野である。
我々は、このドメインのツールがその使用状況におけるMLのリスク分析を強化するのに役立つという自然な仮説を採用する。
この仮説を検証するために、多くの米国が運用する処方薬監視プログラム(PDMP)において、ML由来のリスクスコアに依存する重要なML駆動コンポーネントを持つ特定の高頻度システムに対して、システム安全分析、システム理論プロセス分析(STPA)を適用する。
特に、この分析が社会的および倫理的なリスクを特定し、それらを軽減するための具体的な設計レベルのコントロールを開発することへの拡張に焦点をあてています。 Governments, industry, and academia have undertaken efforts to identify and mitigate harms in ML-driven systems, with a particular focus on social and ethical risks of ML components in complex sociotechnical systems. However, existing approaches are largely disjointed, ad-hoc and of unknown effectiveness. Systems safety engineering is a well established discipline with a track record of identifying and managing risks in many complex sociotechnical domains. We adopt the natural hypothesis that tools from this domain could serve to enhance risk analyses of ML in its context of use. To test this hypothesis, we apply a "best of breed" systems safety analysis, Systems Theoretic Process Analysis (STPA), to a specific high-consequence system with an important ML-driven component, namely the Prescription Drug Monitoring Programs (PDMPs) operated by many US States, several of which rely on an ML-derived risk score. We focus in particular on how this analysis can extend to identifying social and ethical risks and developing concrete design-level controls to mitigate them. | 翻訳日:2022-11-10 17:49:56 公開日:2022-11-08 |
# 音声認識のための室内インパルス応答推定の改善 Towards Improved Room Impulse Response Estimation for Speech Recognition ( http://arxiv.org/abs/2211.04473v1 ) ライセンス: Link先を確認 | Anton Ratnarajah, Ishwarya Ananthabhotla, Vamsi Krishna Ithapu, Pablo Hoffmann, Dinesh Manocha, Paul Calamia | (参考訳) 本稿では,下流アプリケーションシナリオであるfar-field automatic speech recognition (asr)の文脈において,ブラインドルームインパルス応答(rir)推定システムの性能を特徴付け,向上させる。
まず、改良されたRIR推定と改善されたASR性能の関連性について、ニューラルネットワークを用いたRIR推定器の評価を行った。
次に、残響音声からrir特徴を符号化し、符号化特徴からrirを構成するganに基づくアーキテクチャを提案し、入力残響音声のエネルギーベース特性を最適化するために新しいエネルギー減衰緩和損失を用いる。
本モデルでは,ASR評価タスク(単語誤り率6.9%)において,音響ベンチマーク(エネルギー崩壊緩和率72%,早期反射エネルギー測定率22%)において,最先端のベースラインよりも優れていた。 We propose to characterize and improve the performance of blind room impulse response (RIR) estimation systems in the context of a downstream application scenario, far-field automatic speech recognition (ASR). We first draw the connection between improved RIR estimation and improved ASR performance, as a means of evaluating neural RIR estimators. We then propose a GAN-based architecture that encodes RIR features from reverberant speech and constructs an RIR from the encoded features, and uses a novel energy decay relief loss to optimize for capturing energy-based properties of the input reverberant speech. We show that our model outperforms the state-of-the-art baselines on acoustic benchmarks (by 72% on the energy decay relief and 22% on an early-reflection energy metric), as well as in an ASR evaluation task (by 6.9% in word error rate). | 翻訳日:2022-11-10 17:40:30 公開日:2022-11-08 |
# PhaseAug: 1対1マッピングをシミュレートする音声合成のための微分拡張 PhaseAug: A Differentiable Augmentation for Speech Synthesis to Simulate One-to-Many Mapping ( http://arxiv.org/abs/2211.04610v1 ) ライセンス: Link先を確認 | Junhyeok Lee, Seungu Han, Hyunjae Cho, Wonbin Jung | (参考訳) 従来のganベースのニューラルボコーダは、対のメルスペクトログラムから正確な基底真理波形を再構成するために訓練され、音声合成の1対1の関係を考慮しない。
この従来の訓練は、識別器と発電機の両方に過剰適合をもたらし、生成された音声信号の周期性アーティファクトに繋がる。
本稿では,各周波数ビンの位相を回転させて一対多マッピングをシミュレートする,音声合成における最初の微分可能な拡張であるphaseaugを提案する。
提案手法では,アーキテクチャの変更を伴わずに,ベースラインを上回ります。
コードとオーディオのサンプルはhttps://github.com/mindslab-ai/phaseaugで入手できる。 Previous generative adversarial network (GAN)-based neural vocoders are trained to reconstruct the exact ground truth waveform from the paired mel-spectrogram and do not consider the one-to-many relationship of speech synthesis. This conventional training causes overfitting for both the discriminators and the generator, leading to the periodicity artifacts in the generated audio signal. In this work, we present PhaseAug, the first differentiable augmentation for speech synthesis that rotates the phase of each frequency bin to simulate one-to-many mapping. With our proposed method, we outperform baselines without any architecture modification. Code and audio samples will be available at https://github.com/mindslab-ai/phaseaug. | 翻訳日:2022-11-10 17:40:13 公開日:2022-11-08 |
# speechmatrix:多言語音声から音声への大規模翻訳コーパス SpeechMatrix: A Large-Scale Mined Corpus of Multilingual Speech-to-Speech Translations ( http://arxiv.org/abs/2211.04508v1 ) ライセンス: Link先を確認 | Paul-Ambroise Duquenne, Hongyu Gong, Ning Dong, Jingfei Du, Ann Lee, Vedanuj Goswani, Changhan Wang, Juan Pino, Beno\^it Sagot, Holger Schwenk | (参考訳) 欧州議会記録の実際の音声から抽出した音声対音声翻訳の大規模多言語コーパスである speechmatrix を提案する。
136の言語ペアの音声アライメントと、合計418万時間の音声が含まれている。
この並列音声の品質を評価するため、マイニングデータのみに基づいてバイリンガル音声音声合成モデルを訓練し、EuroParl-ST, VoxPopuli, FLEURSテストセット上で広範なベースライン結果を確立する。
また, speechmatrix の多言語性によって実現された多言語音声対音声翻訳についても検討した。
また,Mixture-of-Expertsを用いたモデル事前学習とスパーススケーリングにより,翻訳性能が大きく向上することを示す。
マイニングされたデータとモデルは無料で利用できる。 We present SpeechMatrix, a large-scale multilingual corpus of speech-to-speech translations mined from real speech of European Parliament recordings. It contains speech alignments in 136 language pairs with a total of 418 thousand hours of speech. To evaluate the quality of this parallel speech, we train bilingual speech-to-speech translation models on mined data only and establish extensive baseline results on EuroParl-ST, VoxPopuli and FLEURS test sets. Enabled by the multilinguality of SpeechMatrix, we also explore multilingual speech-to-speech translation, a topic which was addressed by few other works. We also demonstrate that model pre-training and sparse scaling using Mixture-of-Experts bring large gains to translation performance. The mined data and models are freely available. | 翻訳日:2022-11-10 17:33:14 公開日:2022-11-08 |
# 周辺単眼画像からの鳥眼視における出現・活動情報の推定 Estimation of Appearance and Occupancy Information in Birds Eye View from Surround Monocular Images ( http://arxiv.org/abs/2211.04557v1 ) ライセンス: Link先を確認 | Sarthak Sharma, Unnikrishnan R. Nair, Udit Singh Parihar, Midhun Menon S and Srikanth Vidapanakal | (参考訳) 自律運転では、シーン内のさまざまなエージェントの位置と外観に関する効率的な推論が必要であり、オブジェクト検出、オブジェクト追跡、パス計画といった下流タスクを支援する。
過去数年間、古典的な自動運転スタックのさまざまなタスクベースモジュールを、エンドツーエンド(e2e)トレーニング可能な学習システムに統合するアプローチが急増している。
これらのアプローチは、知覚、予測、センサー融合モジュールを、シーンの人間解釈可能な表現を抽出する共有潜在空間埋め込みを持つ単一の連続モジュールに置き換える。
最も人気のある表現の1つがバードズアイビュー(BEV)であり、トップダウンビューからエゴの車両フレーム内の様々な交通参加者の位置を表現している。
しかし、BEVは参加者の彩色外観情報をキャプチャしない。
この制限を克服するために,360デグ視野(FOV)をカバーするモノクロカメラのアレイから,様々な交通参加者の外観や占有情報をキャプチャする新しい表現を提案する。
我々は、すべてのカメラ画像の学習画像埋め込みを用いて、シーンの外観と占有度の両方をキャプチャする瞬間にシーンのBEVを生成し、オブジェクト追跡や言語ベースのコマンドの実行といった下流タスクを支援する。
CARLAから生成された合成データセットに対するアプローチの有効性を検証した。
コード、データセット、結果はhttps://rebrand.ly/APP OCC-resultsで確認できる。 Autonomous driving requires efficient reasoning about the location and appearance of the different agents in the scene, which aids in downstream tasks such as object detection, object tracking, and path planning. The past few years have witnessed a surge in approaches that combine the different taskbased modules of the classic self-driving stack into an End-toEnd(E2E) trainable learning system. These approaches replace perception, prediction, and sensor fusion modules with a single contiguous module with shared latent space embedding, from which one extracts a human-interpretable representation of the scene. One of the most popular representations is the Birds-eye View (BEV), which expresses the location of different traffic participants in the ego vehicle frame from a top-down view. However, a BEV does not capture the chromatic appearance information of the participants. To overcome this limitation, we propose a novel representation that captures various traffic participants appearance and occupancy information from an array of monocular cameras covering 360 deg field of view (FOV). We use a learned image embedding of all camera images to generate a BEV of the scene at any instant that captures both appearance and occupancy of the scene, which can aid in downstream tasks such as object tracking and executing language-based commands. We test the efficacy of our approach on synthetic dataset generated from CARLA. The code, data set, and results can be found at https://rebrand.ly/APP OCC-results. | 翻訳日:2022-11-10 17:32:10 公開日:2022-11-08 |
# OutlierDetection.jl: Julia プログラミング言語のためのモジュール型アウトリー検出エコシステム OutlierDetection.jl: A modular outlier detection ecosystem for the Julia programming language ( http://arxiv.org/abs/2211.04550v1 ) ライセンス: Link先を確認 | David Muhr, Michael Affenzeller, Anthony D. Blaom | (参考訳) OutlierDetection.jlは、Juliaでoutlier検出を行うオープンソースエコシステムである。
Juliaで直接実装された高性能な外れ値検出アルゴリズムを提供する。
従来のパッケージとは対照的に,我々のエコシステムは,高レベルプログラミング言語を用いて,高度にスケール可能な外乱検出アルゴリズムの開発を可能にする。
さらに、将来的な外れ値検出アルゴリズムのための標準化されたフレキシブルなインターフェースを提供し、以前のパッケージには見られないモデル構成を可能にする。
ユニットテストや継続的インテグレーション、コードカバレッジレポートといったベストプラクティスは、エコシステム全体で実施されています。
OutlierDetection.jlの最新バージョンはhttps://github.com/OutlierDetectionJL/OutlierDetection.jlで入手できる。 OutlierDetection.jl is an open-source ecosystem for outlier detection in Julia. It provides a range of high-performance outlier detection algorithms implemented directly in Julia. In contrast to previous packages, our ecosystem enables the development highly-scalable outlier detection algorithms using a high-level programming language. Additionally, it provides a standardized, yet flexible, interface for future outlier detection algorithms and allows for model composition unseen in previous packages. Best practices such as unit testing, continuous integration, and code coverage reporting are enforced across the ecosystem. The most recent version of OutlierDetection.jl is available at https://github.com/OutlierDetectionJL/OutlierDetection.jl. | 翻訳日:2022-11-10 17:24:40 公開日:2022-11-08 |
# 計算論理モデルに基づく人間-ロボットチームの応力伝播 Stress Propagation in Human-Robot Teams Based on Computational Logic Model ( http://arxiv.org/abs/2211.04056v1 ) ライセンス: Link先を確認 | Peter Shmerko, Yumi Iwashita, Adrian Stoica, Svetlana Yanushkevich | (参考訳) ミッションチームは、人生と死の決定の感情的な影響にさらされます。
これらは、知的機械がストレスの多い環境やシナリオを扱うために支援する、特別な訓練を受けた人々の小さなグループです。
人間と自律機械のチームにおけるストレスモニタリングのための複合モデルを開発した。
このモデリングは、ミッション失敗に寄与する可能性のある条件を特定することを目的としている。
提案モデルは3つの部分からなる。
1) チームメイトのストレス状態を静的に記述した計算論理部分
2 いつでも任務の状況を示す決定部分
3)標準感受性感染性(sis)パラダイムに基づく応力伝播部。
エージェントベース,ランダムウォーク,ゲームモデルなどのアプローチとは対照的に,提案モデルは小グループにおけるストレス伝搬の条件を満たすために,様々なメカニズムを組み合わせる。
私たちの中核的なアプローチは、意思決定テーブルや意思決定ダイアグラムのようなデータ構造です。
これらのツールは、人間と機械のチームにも適応できる。 Mission teams are exposed to the emotional toll of life and death decisions. These are small groups of specially trained people supported by intelligent machines for dealing with stressful environments and scenarios. We developed a composite model for stress monitoring in such teams of human and autonomous machines. This modelling aims to identify the conditions that may contribute to mission failure. The proposed model is composed of three parts: 1) a computational logic part that statically describes the stress states of teammates; 2) a decision part that manifests the mission status at any time; 3) a stress propagation part based on standard Susceptible-Infected-Susceptible (SIS) paradigm. In contrast to the approaches such as agent-based, random-walk and game models, the proposed model combines various mechanisms to satisfy the conditions of stress propagation in small groups. Our core approach involves data structures such as decision tables and decision diagrams. These tools are adaptable to human-machine teaming as well. | 翻訳日:2022-11-10 17:23:45 公開日:2022-11-08 |
# ロボット調理における知識検索 Knowledge Retrieval for Robotic Cooking ( http://arxiv.org/abs/2211.04524v1 ) ライセンス: Link先を確認 | Kundana Mandapaka | (参考訳) 特定の仕様によるデータ検索が必要な場合、検索アルゴリズムが適用される。
関数型オブジェクト指向ネットワークで検索アルゴリズムを開発する動機は、ほとんどの場合、特定のレシピを検索するか、特定のレシピの材料を決定する必要があることである。
紹介によると、ロボットがレシピ全体を実行できない場合があり、特定のレシピや材料を回収する必要が生じる。
高品質なFOONを使用することで、ロボットはタスク目標を解読し、必要な状態の正しいオブジェクトを見つけ、適切な操作動作のシーケンスを出力することができる。
本稿では,ロボットと人間が,人間単独で行うよりも高い成功率で複雑なタスクを成功させることのできる,重み付きフォオンとタスク計画アルゴリズムをいくつか提示する。 Search algorithms are applied where data retrieval with specified specifications is required. The motivation behind developing search algorithms in Functional Object-Oriented Networks is that most of the time, a certain recipe needs to be retrieved or ingredients for a certain recipe needs to be determined. According to the introduction, there is a time when execution of an entire recipe is not available for a robot thus prompting the need to retrieve a certain recipe or ingredients. With a quality FOON, robots can decipher a task goal, find the correct objects at the required states on which to operate and output a sequence of proper manipulation motions. This paper shows several proposed weighted FOON and task planning algorithms that allow a robot and a human to successfully complete complicated tasks together with higher success rates than a human doing them alone. | 翻訳日:2022-11-10 17:23:36 公開日:2022-11-08 |
# SimOn: オンライン・テンポラル・アクション・ローカライゼーションのためのシンプルなフレームワーク SimOn: A Simple Framework for Online Temporal Action Localization ( http://arxiv.org/abs/2211.04905v1 ) ライセンス: Link先を確認 | Tuan N. Tang, Jungin Park, Kwonyoung Kim, Kwanghoon Sohn | (参考訳) Online Temporal Action Localization (On-TAL)は、未トリミングストリーミングビデオからアクションインスタンスを即座に提供することを目的としている。
このモデルは、過去の予測を修正するために将来のフレームや処理技術を利用することはできないため、より難しい。
本稿では,一般的なTransformerアーキテクチャを用いて,アクションインスタンスをエンドツーエンドで予測する,シンプルで効果的なフレームワークSimOnを提案する。
具体的には、現在のフレーム機能をクエリとして、過去のコンテキスト情報のセットをTransformerのキーと値として取ります。
モデルの出力セットを過去のコンテキストとして使用する以前の作業とは異なり、過去の視覚的コンテキストと現在のクエリのための学習可能なコンテキスト埋め込みを活用する。
THUMOS14とActivityNet1.3データセットの実験結果から、我々のモデルは従来の手法よりも著しく優れており、新しい最先端のOn-TALパフォーマンスを実現していることがわかる。
さらに,行動開始のオンライン検出(ODAS)の評価は,オンライン環境での手法の有効性とロバスト性を示す。
コードはhttps://github.com/TuanTNG/SimOnで入手できる。 Online Temporal Action Localization (On-TAL) aims to immediately provide action instances from untrimmed streaming videos. The model is not allowed to utilize future frames and any processing techniques to modify past predictions, making On-TAL much more challenging. In this paper, we propose a simple yet effective framework, termed SimOn, that learns to predict action instances using the popular Transformer architecture in an end-to-end manner. Specifically, the model takes the current frame feature as a query and a set of past context information as keys and values of the Transformer. Different from the prior work that uses a set of outputs of the model as past contexts, we leverage the past visual context and the learnable context embedding for the current query. Experimental results on the THUMOS14 and ActivityNet1.3 datasets show that our model remarkably outperforms the previous methods, achieving a new state-of-the-art On-TAL performance. In addition, the evaluation for Online Detection of Action Start (ODAS) demonstrates the effectiveness and robustness of our method in the online setting. The code is available at https://github.com/TuanTNG/SimOn | 翻訳日:2022-11-10 17:15:52 公開日:2022-11-08 |
# 部分配向多視点データを用いたクロスビューグラフコントラスト表現学習 Cross-view Graph Contrastive Representation Learning on Partially Aligned Multi-view Data ( http://arxiv.org/abs/2211.04906v1 ) ライセンス: Link先を確認 | Yiming Wang, Dongxia Chang, Zhiqiang Fu, Jie Wen, Yao Zhao | (参考訳) 近年,多視点表現学習が急速に発展し,様々な分野に応用されている。
しかし、以前の作品の多くは、それぞれの視点が完備で整列していると仮定していた。
これにより、ビューの欠如や非整合といった実用的な問題に遭遇すると、パフォーマンスが必然的に低下する。
部分整列型多視点データにおける表現学習の課題を解決するために,多視点情報を統合してデータの整列と潜在表現の学習を行うクロスビューグラフコントラスト学習フレームワークを提案する。
提案手法は,(1)マルチビュー情報とクロスビューグラフコントラスト学習を組み合わせることにより,ビュー固有オートエンコーダとクラスタレベルのデータアライメントによるビュー固有表現学習を同時に行うエンドツーエンドフレームワークであり,(2)クロスビューグラフコントラスト学習が考案されたことにより,3つ以上のモダリティ/ソースからの情報を探索するモデルを適用することが容易である。
複数の実データを用いた大規模実験により,提案手法がクラスタリングと分類タスクに有効であることを示す。 Multi-view representation learning has developed rapidly over the past decades and has been applied in many fields. However, most previous works assumed that each view is complete and aligned. This leads to an inevitable deterioration in their performance when encountering practical problems such as missing or unaligned views. To address the challenge of representation learning on partially aligned multi-view data, we propose a new cross-view graph contrastive learning framework, which integrates multi-view information to align data and learn latent representations. Compared with current approaches, the proposed method has the following merits: (1) our model is an end-to-end framework that simultaneously performs view-specific representation learning via view-specific autoencoders and cluster-level data aligning by combining multi-view information with the cross-view graph contrastive learning; (2) it is easy to apply our model to explore information from three or more modalities/sources as the cross-view graph contrastive learning is devised. Extensive experiments conducted on several real datasets demonstrate the effectiveness of the proposed method on the clustering and classification tasks. | 翻訳日:2022-11-10 17:15:33 公開日:2022-11-08 |
# 気象レーダーデータによる航空動物運動の物理インフォームド推論 Physics-informed inference of aerial animal movements from weather radar data ( http://arxiv.org/abs/2211.04539v1 ) ライセンス: Link先を確認 | Fiona Lippert, Bart Kranstauber, E. Emiel van Loon, Patrick Forr\'e | (参考訳) 動物運動の研究は、効果的な野生生物保護と紛争軽減に不可欠である。
空中移動では、この点で運用中の気象レーダーは必須のデータ源となっている。
しかし、部分的な測定、不完全な空間的カバレッジ、動物の行動の理解不足により、利用可能なレーダーデータから時空間運動パターンを完全に再構築することは困難である。
本研究では,高次元レーダ計測から畳み込みエンコーダを用いた低次元潜在表現へのマッピングを学習することで,この逆問題に対処する。
潜在系ダイナミクスが局所線形ガウス遷移モデルによってよく近似されるという仮定のもと,古典カルマンスムーサを用いた効率的な後続推定を行う。
畳み込みデコーダは、推定潜在状態の状態を既知のレーダー観測モデルを適用する物理空間にマッピングし、完全に教師なしの訓練を可能にする。
物理的整合性を促進するために,既知の質量保存制約を生かした物理情報損失項を導入する。
合成レーダデータを用いた実験では,復元品質とデータ効率の観点から有望な結果が得られた。 Studying animal movements is essential for effective wildlife conservation and conflict mitigation. For aerial movements, operational weather radars have become an indispensable data source in this respect. However, partial measurements, incomplete spatial coverage, and poor understanding of animal behaviours make it difficult to reconstruct complete spatio-temporal movement patterns from available radar data. We tackle this inverse problem by learning a mapping from high-dimensional radar measurements to low-dimensional latent representations using a convolutional encoder. Under the assumption that the latent system dynamics are well approximated by a locally linear Gaussian transition model, we perform efficient posterior estimation using the classical Kalman smoother. A convolutional decoder maps the inferred latent system states back to the physical space in which the known radar observation model can be applied, enabling fully unsupervised training. To encourage physical consistency, we additionally introduce a physics-informed loss term that leverages known mass conservation constraints. Our experiments on synthetic radar data show promising results in terms of reconstruction quality and data-efficiency. | 翻訳日:2022-11-10 17:13:25 公開日:2022-11-08 |
# ehr質問応答のためのニューラルセマンティクス解析システムに向けて Toward a Neural Semantic Parsing System for EHR Question Answering ( http://arxiv.org/abs/2211.04569v1 ) ライセンス: Link先を確認 | Sarvesh Soni and Kirk Roberts | (参考訳) 臨床意味解析(英語: clinical semantic parse, sp)は、電子健康記録(ehrs)からの情報検索を目的とした自然言語クエリから、正確な情報ニーズ(機械理解可能な論理形式)を特定するための重要なステップである。
現在の臨床spのアプローチは、主に従来の機械学習に基づいており、レキシコンを手作りする必要がある。
neural spの最近の進歩は、人間の努力なしに堅牢で柔軟なセマンティックパーサを構築することを約束している。
そこで本研究では,2つのニューラルSPモデルの性能をEHR質問応答(QA)に対して体系的に評価することを目的とする。
2つの臨床用spデータセットにおけるこれらの高度なニューラルモデルの性能は,その適用性と汎用性から有望であることがわかった。
我々の誤差分析は,これらのモデルが生み出す一般的なエラーのタイプを解析し,ERH QAのためのニューラルSPモデルの性能向上に関する今後の研究を知らせる可能性がある。 Clinical semantic parsing (SP) is an important step toward identifying the exact information need (as a machine-understandable logical form) from a natural language query aimed at retrieving information from electronic health records (EHRs). Current approaches to clinical SP are largely based on traditional machine learning and require hand-building a lexicon. The recent advancements in neural SP show a promise for building a robust and flexible semantic parser without much human effort. Thus, in this paper, we aim to systematically assess the performance of two such neural SP models for EHR question answering (QA). We found that the performance of these advanced neural models on two clinical SP datasets is promising given their ease of application and generalizability. Our error analysis surfaces the common types of errors made by these models and has the potential to inform future research into improving the performance of neural SP models for EHR QA. | 翻訳日:2022-11-10 16:48:26 公開日:2022-11-08 |
# ニューロモルフィックスターターキットの開示 Disclosure of a Neuromorphic Starter Kit ( http://arxiv.org/abs/2211.04526v1 ) ライセンス: Link先を確認 | James S. Plank and Bryson Gullett and Adam Z. Foshie and Garrett S. Rose and Catherine D. Schuman | (参考訳) 本稿では,脳をベースとした,ニューロモーフィックなプロセッサとハードウェア環境の研究,探索,実世界の実演を行う研究グループを支援するために設計されたNeuromorphic Starter Kitを提案する。
プロトタイプキットが作られ、テストされています。
このキットの背景にあるモチベーション、設計と構成、そしてプロトタイプの物理実演について説明する。 This paper presents a Neuromorphic Starter Kit, which has been designed to help a variety of research groups perform research, exploration and real-world demonstrations of brain-based, neuromorphic processors and hardware environments. A prototype kit has been built and tested. We explain the motivation behind the kit, its design and composition, and a prototype physical demonstration. | 翻訳日:2022-11-10 16:30:00 公開日:2022-11-08 |
# 慢性疾患における心のケア:IoTを用いた解釈可能なAIアプローチ Care for the Mind Amid Chronic Diseases: An Interpretable AI Approach Using IoT ( http://arxiv.org/abs/2211.04509v1 ) ライセンス: Link先を確認 | Jiaheng Xie, Xiaohang Zhao, Xiang Liu and Xiao Fang | (参考訳) 慢性疾患管理のための健康センシングは社会福祉に多大な利益をもたらす。
既存の健康センシング研究は主に身体性慢性疾患の予測に焦点を当てている。
しかし、慢性疾患の広範な合併症であるうつ病が検討されている。
我々は,運動センサデータを用いた抑うつ予測を支援するため,医学文献を引用する。
意思決定における人間の専門知識を結びつけるため,この高信頼の予測に対する信頼を守り,アルゴリズムの透明性を確保するため,時間的プロトタイプネットワーク(TempPNet)という解釈可能なディープラーニングモデルを開発した。
TempPNetは、創発的なプロトタイプ学習モデルの上に構築されている。
センサデータの時間的特性とうつ病の進行特性に対応するため、TempPNetは、うつ病の時間的進行を捉える能力において、既存のプロトタイプ学習モデルとは異なる。
実世界のモーションセンサーデータを用いた大規模な実験分析により、TempPNetはうつ病の予測において最先端のベンチマークより優れていることが示された。
さらに、テンプネットはその予測を、センサデータから検出されたうつ病の時間的進行とその症状を可視化することで解釈する。
さらに,このベンチマークの解釈性に対する優位性を示すために,ユーザ調査を行った。
本研究は、慢性疾患の協調ケアと健康センシングにおけるうつ病に対するアルゴリズム的解決策を提供する。
提案手法は,センサデータからの抑うつ予測のための新しい解釈可能な深層学習モデルを用いて,既存の文献に寄与する。
患者、医師、介護者は、私たちのモデルをモバイルデバイスにデプロイして、患者のうつ病リスクをリアルタイムで監視できます。
また,本モデルでは,予測結果の解釈をレビューし,インフォームド・インフォメーションを行うことで,人間の専門家による意思決定への参加を可能にする。 Health sensing for chronic disease management creates immense benefits for social welfare. Existing health sensing studies primarily focus on the prediction of physical chronic diseases. Depression, a widespread complication of chronic diseases, is however understudied. We draw on the medical literature to support depression prediction using motion sensor data. To connect human expertise in the decision-making, safeguard trust for this high-stake prediction, and ensure algorithm transparency, we develop an interpretable deep learning model: Temporal Prototype Network (TempPNet). TempPNet is built upon the emergent prototype learning models. To accommodate the temporal characteristic of sensor data and the progressive property of depression, TempPNet differs from existing prototype learning models in its capability of capturing the temporal progression of depression. Extensive empirical analyses using real-world motion sensor data show that TempPNet outperforms state-of-the-art benchmarks in depression prediction. Moreover, TempPNet interprets its predictions by visualizing the temporal progression of depression and its corresponding symptoms detected from sensor data. We further conduct a user study to demonstrate its superiority over the benchmarks in interpretability. This study offers an algorithmic solution for impactful social good - collaborative care of chronic diseases and depression in health sensing. Methodologically, it contributes to extant literature with a novel interpretable deep learning model for depression prediction from sensor data. Patients, doctors, and caregivers can deploy our model on mobile devices to monitor patients' depression risks in real-time. Our model's interpretability also allows human experts to participate in the decision-making by reviewing the interpretation of prediction outcomes and making informed interventions. | 翻訳日:2022-11-10 16:29:53 公開日:2022-11-08 |
# ARMOR: オフラインデータによる任意ベースラインポリシーを改善するためのモデルベースのフレームワーク ARMOR: A Model-based Framework for Improving Arbitrary Baseline Policies with Offline Data ( http://arxiv.org/abs/2211.04538v1 ) ライセンス: Link先を確認 | Tengyang Xie, Mohak Bhardwaj, Nan Jiang, Ching-An Cheng | (参考訳) データカバレッジに関係なく、任意のベースラインポリシーを改善するために、ポリシーを堅牢に学習することのできる、Adversarial Models for Offline Reinforcement Learning (ARMOR)と呼ばれる新しいモデルベースのオフラインRLフレームワークを提案する。
相対悲観主義の概念に基づいて、ARMORは不確実性に直面した場合の最悪の相対性能を最適化するように設計されている。
理論的には、ARMORの学習ポリシは、任意の許容ハイパーパラメータでベースラインポリシーのパフォーマンスを劣化させることなく、ハイパーパラメータが適切に調整されたときにデータカバレッジ内で最高のポリシーと競合し、ベースラインポリシーがデータによって支持されることを示す。
このような堅牢なポリシー改善特性により、ARMORは実世界の学習システムを構築するのに特に適している。 We propose a new model-based offline RL framework, called Adversarial Models for Offline Reinforcement Learning (ARMOR), which can robustly learn policies to improve upon an arbitrary baseline policy regardless of data coverage. Based on the concept of relative pessimism, ARMOR is designed to optimize for the worst-case relative performance when facing uncertainty. In theory, we prove that the learned policy of ARMOR never degrades the performance of the baseline policy with any admissible hyperparameter, and can learn to compete with the best policy within data coverage when the hyperparameter is well tuned, and the baseline policy is supported by the data. Such a robust policy improvement property makes ARMOR especially suitable for building real-world learning systems, because in practice ensuring no performance degradation is imperative before considering any benefit learning can bring. | 翻訳日:2022-11-10 16:21:58 公開日:2022-11-08 |
# 具体化シミュレーション環境における新しいタイプと概念の検出と適応 Detecting and Accommodating Novel Types and Concepts in an Embodied Simulation Environment ( http://arxiv.org/abs/2211.04555v1 ) ライセンス: Link先を確認 | Sadaf Ghaffari, Nikhil Krishnaswamy | (参考訳) 本稿では,ニューラル分類モデルを急速に拡張し,新しいカテゴリーのオブジェクトに適応させ,観察を既知のクラスとして誤分類する代わりに,新たなオブジェクト型が観察された場合に認識する,というaiシステムにおけるメタ認知タスクの2つの方法を提案する。
提案手法は,対話時の物体の運動と特性を記述する具体的シミュレーション環境から得られた数値データを用いて,新しいタイプの検出を成功させる上で,この表現が重要であることを示す。
本稿では,新しいカテゴリや概念の導入を迅速に行うための一連の実験,新しい型検出,対話型システムにおける2つの統合アーキテクチャについて述べる。 In this paper, we present methods for two types of metacognitive tasks in an AI system: rapidly expanding a neural classification model to accommodate a new category of object, and recognizing when a novel object type is observed instead of misclassifying the observation as a known class. Our methods take numerical data drawn from an embodied simulation environment, which describes the motion and properties of objects when interacted with, and we demonstrate that this type of representation is important for the success of novel type detection. We present a suite of experiments in rapidly accommodating the introduction of new categories and concepts and in novel type detection, and an architecture to integrate the two in an interactive system. | 翻訳日:2022-11-10 16:21:40 公開日:2022-11-08 |
# バイアスを有する広浅層ニューラルネットワークの有限サンプル同定 Finite Sample Identification of Wide Shallow Neural Networks with Biases ( http://arxiv.org/abs/2211.04589v1 ) ライセンス: Link先を確認 | Massimo Fornasier, Timo Klock, Marco Mondelli, Michael Rauchensteiner | (参考訳) 人工ニューラルネットワークは、一般に重みとバイアスとして符号化される有限数のパラメータに依存する関数である。
入力-出力対の有限標本からネットワークのパラメータを同定することは、しばしば 'emph{teacher-student model} と呼ばれ、このモデルは訓練と一般化を理解するための一般的な枠組みである。
最悪の場合、NP完全であるとしても、適切な分布仮定を加えた後、急速に増加する文献は、入力次元である$m=\mathcal O(D)$, $D$の2層ネットワークの有限標本識別を確立した。
D<m<D^2$の範囲では、問題は難しくなり、バイアスによってパラメトリケートされたネットワークでは、真にはほとんど知られていない。
本稿では,このような偏りのある浅層ネットワークに対して,構築的手法と有限サンプル同定の理論的保証を提供することにより,そのギャップを埋める。
まず, 2次情報を利用して重みの方向を復元し, 次に適切な代数的評価により記号を同定し, 勾配降下による経験的リスク最小化によりバイアスを回復する。
数値解析の結果,本手法の有効性が示された。 Artificial neural networks are functions depending on a finite number of parameters typically encoded as weights and biases. The identification of the parameters of the network from finite samples of input-output pairs is often referred to as the \emph{teacher-student model}, and this model has represented a popular framework for understanding training and generalization. Even if the problem is NP-complete in the worst case, a rapidly growing literature -- after adding suitable distributional assumptions -- has established finite sample identification of two-layer networks with a number of neurons $m=\mathcal O(D)$, $D$ being the input dimension. For the range $D<m<D^2$ the problem becomes harder, and truly little is known for networks parametrized by biases as well. This paper fills the gap by providing constructive methods and theoretical guarantees of finite sample identification for such wider shallow networks with biases. Our approach is based on a two-step pipeline: first, we recover the direction of the weights, by exploiting second order information; next, we identify the signs by suitable algebraic evaluations, and we recover the biases by empirical risk minimization via gradient descent. Numerical results demonstrate the effectiveness of our approach. | 翻訳日:2022-11-10 16:20:03 公開日:2022-11-08 |
# ゴールを目指す - 地上サッカーのコメンテータのためのリソース Going for GOAL: A Resource for Grounded Football Commentaries ( http://arxiv.org/abs/2211.04534v1 ) ライセンス: Link先を確認 | Alessandro Suglia, Jos\'e Lopes, Emanuele Bastianelli, Andrea Vanzo, Shubham Agarwal, Malvina Nikandrou, Lu Yu, Ioannis Konstas, Verena Rieser | (参考訳) 最近のビデオ+言語データセットは、教育ビデオのような対話が高度に構造化された領域や、テレビ番組のような対話がスクリプト化された領域をカバーしている。
これらの特性はどちらも、基礎言語を学ぶのではなく、モデルによって悪用されるきっかけとなる可能性がある。
本稿では,サッカーの新しいデータセットであるgoal(grounded football commentaries)を紹介する。
ゲームの行程は予測できないため、コメントも用意されているため、動的言語の接地を調査するためのユニークなリソースとなっている。
また,フレームの再注文,モーメント検索,ライブコメント検索,プレイバイプレイのライブコメント生成といったタスクに対して,最先端のベースラインを提供する。
その結果, sotaモデルはほとんどのタスクで適度に機能することがわかった。
これらの結果がもたらす意味を考察し,GOALを利用できる新しいタスクを提案する。
私たちのコードベースは、https://gitlab.com/grounded-sport-convai/goal-baselinesで利用可能です。 Recent video+language datasets cover domains where the interaction is highly structured, such as instructional videos, or where the interaction is scripted, such as TV shows. Both of these properties can lead to spurious cues to be exploited by models rather than learning to ground language. In this paper, we present GrOunded footbAlL commentaries (GOAL), a novel dataset of football (or `soccer') highlights videos with transcribed live commentaries in English. As the course of a game is unpredictable, so are commentaries, which makes them a unique resource to investigate dynamic language grounding. We also provide state-of-the-art baselines for the following tasks: frame reordering, moment retrieval, live commentary retrieval and play-by-play live commentary generation. Results show that SOTA models perform reasonably well in most tasks. We discuss the implications of these results and suggest new tasks for which GOAL can be used. Our codebase is available at: https://gitlab.com/grounded-sport-convai/goal-baselines. | 翻訳日:2022-11-10 16:13:11 公開日:2022-11-08 |
# 深層ニューラルネットワークの物体認識戦略と人間との調和 Harmonizing the object recognition strategies of deep neural networks with humans ( http://arxiv.org/abs/2211.04533v1 ) ライセンス: Link先を確認 | Thomas Fel, Ivan Felipe, Drew Linsley, Thomas Serre | (参考訳) 過去10年間のディープニューラルネットワーク(DNN)の成功の多くは、生物学的インテリジェンスからの洞察ではなく、計算スケールによって支えられている。
ここでは、これらの傾向が、人間が物体認識に頼っている視覚的戦略の説明において、相反する改善をもたらしたかどうかを考察する。
我々は、人間とDNNにおける視覚戦略の2つの関連性と異なる特性を比較し、画像に重要な視覚的特徴があると考え、それらの特徴を使ってオブジェクトを分類する。
ImageNetで訓練された84種類のDNNと3つの独立したデータセットを用いて、画像上の物体認識のための人間の視覚戦略の場所と方法を測定し、DNN分類精度と物体認識のための人間の視覚戦略との整合性の間に体系的なトレードオフを見出した。
最先端のDNNは、精度が向上するにつれて、徐々に人間との整合性が低下している。
DNNと人間の視覚戦略を一致させ、分類精度を向上させる汎用的なトレーニングルーチンです。
我々の研究は、現在DNNの設計を導くスケーリング法則が、人間の視覚を悪化させるモデルを生み出した最初の例である。
コードとデータはhttps://serre-lab.github.io/Harmonizationで公開しています。 The many successes of deep neural networks (DNNs) over the past decade have largely been driven by computational scale rather than insights from biological intelligence. Here, we explore if these trends have also carried concomitant improvements in explaining the visual strategies humans rely on for object recognition. We do this by comparing two related but distinct properties of visual strategies in humans and DNNs: where they believe important visual features are in images and how they use those features to categorize objects. Across 84 different DNNs trained on ImageNet and three independent datasets measuring the where and the how of human visual strategies for object recognition on those images, we find a systematic trade-off between DNN categorization accuracy and alignment with human visual strategies for object recognition. State-of-the-art DNNs are progressively becoming less aligned with humans as their accuracy improves. We rectify this growing issue with our neural harmonizer: a general-purpose training routine that both aligns DNN and human visual strategies and improves categorization accuracy. Our work represents the first demonstration that the scaling laws that are guiding the design of DNNs today have also produced worse models of human vision. We release our code and data at https://serre-lab.github.io/Harmonization to help the field build more human-like DNNs. | 翻訳日:2022-11-10 16:12:24 公開日:2022-11-08 |
# コンテキスト内学習のためのアクティブサンプル選択 Active Example Selection for In-Context Learning ( http://arxiv.org/abs/2211.04486v1 ) ライセンス: Link先を確認 | Yiming Zhang, Shi Feng and Chenhao Tan | (参考訳) 少数の実演例では、大規模な言語モデルは、これらの例からコンテキスト内で学習することで、微調整をすることなく、様々なタスクを実行する能力を示す。
文脈内学習のパフォーマンスは、サンプルのサンプル間で非常に不安定であり、言語モデルが情報を取得する方法の特異性を示している。
逐次決定問題としてインコンテキスト学習の例選択を定式化し、実例を選択するための一般化可能なポリシーを特定するための強化学習アルゴリズムを提案する。
GPT-2の場合、学習方針は、トレーニングの見つからないタスクを一般化する強力な能力を示し、平均5.8 %$改善した。
学習方針から選択した例は, GPT-3 Ada のわずかな改善も達成できる。
しかし、この改善はより大きなgpt-3モデルで減少し、大きな言語モデルの能力の出現を示唆する。 With a handful of demonstration examples, large-scale language models show strong capability to perform various tasks by in-context learning from these examples, without any fine-tuning. We demonstrate that in-context learning performance can be highly unstable across samples of examples, indicating the idiosyncrasies of how language models acquire information. We formulate example selection for in-context learning as a sequential decision problem, and propose a reinforcement learning algorithm for identifying generalizable policies to select demonstration examples. For GPT-2, our learned policies demonstrate strong abilities of generalizing to unseen tasks in training, with a $5.8\%$ improvement on average. Examples selected from our learned policies can even achieve a small improvement on GPT-3 Ada. However, the improvement diminishes on larger GPT-3 models, suggesting emerging capabilities of large language models. | 翻訳日:2022-11-10 16:03:32 公開日:2022-11-08 |
# リテラル記述と視覚画像によるエフェミズムの検出 Detecting Euphemisms with Literal Descriptions and Visual Imagery ( http://arxiv.org/abs/2211.04576v1 ) ライセンス: Link先を確認 | \.Ilker Kesen, Aykut Erdem, Erkut Erdem and Iacer Calixto | (参考訳) 本稿では,EMNLP 2022とともに第3回言語処理ワークショップが主催するエフェミズム検出共有タスクの2段階システムについて述べる。
ユーフェリズムは、中毒や死といったセンシティブな、あるいは不快な問題についての表現を抑える。
ユーヘマティックな言葉や表現のあいまいな性質は、文脈内で実際の意味を検出することを困難にしている。
第一段階では、ベースラインモデルに入力テキストプロンプトにリテラル記述を組み込むことにより、この曖昧さを軽減することを目指している。
この種の直接的な監督は、顕著なパフォーマンス改善をもたらすことが判明した。
第2段階では,テキスト・ツー・イメージ・モデルによって生成される画像の2つのセットである視覚的イメージを用いた視覚的監視をシステムに組み込む。
我々の実験は、視覚監督が統計的に有意な性能向上をもたらすことを示した。
我々のシステムは、F1スコア87.2%で2位となり、ベスト・サブミッションよりも約0.9%劣った。 This paper describes our two-stage system for the Euphemism Detection shared task hosted by the 3rd Workshop on Figurative Language Processing in conjunction with EMNLP 2022. Euphemisms tone down expressions about sensitive or unpleasant issues like addiction and death. The ambiguous nature of euphemistic words or expressions makes it challenging to detect their actual meaning within a context. In the first stage, we seek to mitigate this ambiguity by incorporating literal descriptions into input text prompts to our baseline model. It turns out that this kind of direct supervision yields remarkable performance improvement. In the second stage, we integrate visual supervision into our system using visual imageries, two sets of images generated by a text-to-image model by taking terms and descriptions as input. Our experiments demonstrate that visual supervision also gives a statistically significant performance boost. Our system achieved the second place with an F1 score of 87.2%, only about 0.9% worse than the best submission. | 翻訳日:2022-11-10 16:03:17 公開日:2022-11-08 |
# structdiffusion: オブジェクト中心の拡散による新規オブジェクトの意味的再構成 StructDiffusion: Object-Centric Diffusion for Semantic Rearrangement of Novel Objects ( http://arxiv.org/abs/2211.04604v1 ) ライセンス: Link先を確認 | Weiyu Liu, Tucker Hermans, Sonia Chernova, Chris Paxton | (参考訳) 人間の環境で動作しているロボットは、オブジェクトを意味的に意味のある構成に再構成できる必要がある。
本研究では,ステップバイステップの指示を伴わずに,物理的に有効な構造を構築する問題に着目する。
拡散モデルとオブジェクト中心変換器を組み合わせたStructDiffusionを提案し、「テーブルをセットする」などの高レベル言語目標に基づく単一のRGB-D画像から構造を構築する。
本手法は,複数ステップの複雑な3次元計画タスクに拡散モデルをどのように利用できるかを示す。
StructDiffusionは、既存のマルチモーダルトランスモデルに対して平均16%の差で、未知の物体から物理的に有意な構造を組み立てることの成功率を向上させるとともに、より広い範囲の異なる構造を生成するために、1つのマルチタスクモデルを使用することを可能にした。
シミュレーションおよび実世界の再配置作業における保持対象について実験を行った。
ビデオや追加結果については、webサイトをご覧ください。 Robots operating in human environments must be able to rearrange objects into semantically-meaningful configurations, even if these objects are previously unseen. In this work, we focus on the problem of building physically-valid structures without step-by-step instructions. We propose StructDiffusion, which combines a diffusion model and an object-centric transformer to construct structures out of a single RGB-D image based on high-level language goals, such as "set the table." Our method shows how diffusion models can be used for complex multi-step 3D planning tasks. StructDiffusion improves success rate on assembling physically-valid structures out of unseen objects by on average 16% over an existing multi-modal transformer model, while allowing us to use one multi-task model to produce a wider range of different structures. We show experiments on held-out objects in both simulation and on real-world rearrangement tasks. For videos and additional results, check out our website: http://weiyuliu.com/StructDiffusion/. | 翻訳日:2022-11-10 15:54:38 公開日:2022-11-08 |
# 自然言語処理のための自動スライス検出フレームワークの発見,説明,改善 Discover, Explanation, Improvement: Automatic Slice Detection Framework for Natural Language Processing ( http://arxiv.org/abs/2211.04476v1 ) ライセンス: Link先を確認 | Wenyue Hua, Lifeng Jin, Linfeng Song, Haitao Mi, Yongfeng Zhang, Dong Yu | (参考訳) BERTやRoBERTaのような現在の自然言語処理(NLP)モデルは全体的な性能は高いが、バイアスや学習の難しい特徴のために体系的な誤りを犯すことが多い。
そこで,データポイントの低パフォーマンスなグループを自動的に識別するスライス検出モデル (SDM) の研究が次第に注目され,モデル動作の理解と将来のモデルトレーニングと設計のための洞察の提供が目的となっている。
しかし、SDMの体系的な研究やNLPモデルの評価の定量的評価はほとんどない。
このギャップを埋めるために,本論文では,人間の理解可能な概念の下で各スライスの各データポイントの一貫性と性能の低いグループを発見し,データポイントを統一する"Discover, Explanation, Improvement"フレームワークを提案する。
結果から,本フレームワークでは,複数のデータセットにまたがるパラメータを調整することなく,トレーニングモデルに基づく平均2.85ポイントのモデル性能を直接的に向上させることができる。 Current natural language processing (NLP) models such as BERT and RoBERTa have achieved high overall performance, but they often make systematic errors due to bias or certain difficult features to learn. Thus research on slice detection models (SDM) which automatically identifies underperforming groups of datapoints has gradually caught more attention, which aims at both understanding model behaviors and providing insights for future model training and designing. However, there is little systematic research on SDM and quantitative evaluation of its assessment for NLP models. Our paper fills this gap by proposing "Discover, Explanation, Improvement" framework that discovers coherent and underperforming groups of datapoints and unites datapoints of each slice under human-understandable concepts; it also provides comprehensive evaluation tasks and the corresponding quantitative metrics, which enable convenient comparison for future works. Results show that our framework can accurately select error-prone datapoints with informative semantic features that summarize error patterns, based on which it directly boosts model performance by an average of 2.85 points based on trained models without tuning any parameters across multiple datasets. | 翻訳日:2022-11-10 15:54:02 公開日:2022-11-08 |
# テキストベースのゲームにおける指示に従う学習 Learning to Follow Instructions in Text-Based Games ( http://arxiv.org/abs/2211.04591v1 ) ライセンス: Link先を確認 | Mathieu Tuli, Andrew C. Li, Pashootan Vaezipoor, Toryn Q. Klassen, Scott Sanner, Sheila A. McIlraith | (参考訳) テキストベースのゲームは、エージェントが自然言語を通じて伝達される行動や観察を通じて部分的に観察可能なシミュレーション環境と対話する、一連の意思決定のユニークなクラスを示す。
このような観察には典型的に、強化学習(RL)の設定で、プレイヤーが報酬に値するタスクを完了するために直接または間接的に導くことができる指示が含まれる。
本研究では,RLエージェントがそのような指示に従う能力について検討する。
我々は,最先端のテキストベースのゲームエージェントの性能が,これらの命令の有無によってほとんど影響を受けないことを示す実験を行い,これらのエージェントは一般的に完了までタスクを実行できないことを示した。
さらに, 命令追従の課題をさらに研究し, 対処するために, rl の時間拡張報酬仕様にますます使われる形式言語である線形時相論理 (ltl) という形で, 自然言語命令の内部構造表現を rl エージェントに実装する。
我々のフレームワークは、指示の時間的意味論の理解と、そのような時間的拡張行動の達成に向けての進捗測定の利点を共にサポートし、強調する。
TextWorldでの500以上のゲームによる実験は、我々のアプローチの優れたパフォーマンスを示している。 Text-based games present a unique class of sequential decision making problem in which agents interact with a partially observable, simulated environment via actions and observations conveyed through natural language. Such observations typically include instructions that, in a reinforcement learning (RL) setting, can directly or indirectly guide a player towards completing reward-worthy tasks. In this work, we study the ability of RL agents to follow such instructions. We conduct experiments that show that the performance of state-of-the-art text-based game agents is largely unaffected by the presence or absence of such instructions, and that these agents are typically unable to execute tasks to completion. To further study and address the task of instruction following, we equip RL agents with an internal structured representation of natural language instructions in the form of Linear Temporal Logic (LTL), a formal language that is increasingly used for temporally extended reward specification in RL. Our framework both supports and highlights the benefit of understanding the temporal semantics of instructions and in measuring progress towards achievement of such a temporally extended behaviour. Experiments with 500+ games in TextWorld demonstrate the superior performance of our approach. | 翻訳日:2022-11-10 15:53:41 公開日:2022-11-08 |
# 機械学習時代のMRIデータ調和の有効性
36データセットを対象としたマルチセンター研究 Efficacy of MRI data harmonization in the age of machine learning. A multicenter study across 36 datasets ( http://arxiv.org/abs/2211.04125v1 ) ライセンス: Link先を確認 | Chiara Marzi, Marco Giannelli, Andrea Barucci, Carlo Tessa, Mario Mascalchi, Stefano Diciotti | (参考訳) 複数のサイトから公開されているmriデータをプールすることで、広範囲の被験者グループを組み立て、統計力を高め、機械学習技術によるデータの再利用を促進することができる。
マルチセンターデータの調和化は、データの非生物学的変動源に付随する相反効果を低減するために必要である。
しかし、機械学習の前にデータセット全体に適用すると、トレーニングセット外の情報がモデル構築に影響し、潜在的に過大評価されたパフォーマンスに影響を及ぼすため、ハーモニゼーションはデータ漏洩につながる。
1)データ調和の有効性の測定について提案する。
2) 調和器トランスフォーマー、すなわち、機械学習パイプラインの前処理ステップ間でカプセル化を可能にする戦闘調和の実装、データ漏洩を回避する。
健常者1740名を対象に,脳T1強調MRIデータを36箇所で取得した。
調和後、サイト効果を除去または低減し、mriデータから個々の年齢を予測する際のデータ漏洩効果を測定し、機械学習パイプラインにharmonizer transformerを導入することでデータ漏洩を回避できることを示した。 Pooling publicly-available MRI data from multiple sites allows to assemble extensive groups of subjects, increase statistical power, and promote data reuse with machine learning techniques. The harmonization of multicenter data is necessary to reduce the confounding effect associated with non-biological sources of variability in the data. However, when applied to the entire dataset before machine learning, the harmonization leads to data leakage, because information outside the training set may affect model building, and potentially falsely overestimate performance. We propose a 1) measurement of the efficacy of data harmonization; 2) harmonizer transformer, i.e., an implementation of the ComBat harmonization allowing its encapsulation among the preprocessing steps of a machine learning pipeline, avoiding data leakage. We tested these tools using brain T1-weighted MRI data from 1740 healthy subjects acquired at 36 sites. After harmonization, the site effect was removed or reduced, and we measured the data leakage effect in predicting individual age from MRI data, highlighting that introducing the harmonizer transformer into a machine learning pipeline allows for avoiding data leakage. | 翻訳日:2022-11-09 17:31:54 公開日:2022-11-08 |
# 確率符号化連合学習--理論的解析とインセンティブ機構設計 Stochastic Coded Federated Learning: Theoretical Analysis and Incentive Mechanism Design ( http://arxiv.org/abs/2211.04132v1 ) ライセンス: Link先を確認 | Yuchang Sun and Jiawei Shao and Yuyi Mao and Songze Li and Jun Zhang | (参考訳) フェデレートラーニング(FL)は、多くのエッジデバイスが、生のデータではなくモデルの更新をサーバと共有することによって、機械学習モデルを協調的にトレーニングする、プライバシ保護分散トレーニングパラダイムとして大きな成功を収めています。
しかし、エッジデバイスの不均一な計算および通信資源は、トレーニングプロセスを著しく減速させるストラグラーを生み出す。
この問題を軽減するために,SCFL(Stochastic Coded Federated Learning)と呼ばれる新しいFLフレームワークを提案する。
SCFLでは、トレーニングプロセスが始まる前に、各エッジデバイスがプライバシを保存するコード化されたデータセットをサーバにアップロードする。
トレーニング中、サーバはグローバルコード化されたデータセットの勾配を計算し、ストラグリングデバイスのモデル更新の欠如を補う。
我々は,集約モデル更新が望ましいグローバル更新の偏りのない推定であることを保証するために,勾配集約スキームを設計する。
さらに、この集約方式により、定期的なモデル平均化により、トレーニング効率が向上する。
SCFLの収束性能とプライバシー保証のトレードオフを特徴付ける。
特に、ノイズの多い符号化データセットは、エッジデバイスに対してより強力なプライバシ保護を提供するが、結果としてパフォーマンス劣化を学習する。
我々は、このような紛争を調整するための契約に基づくインセンティブメカニズムを更に開発する。
シミュレーション結果から,scflは与えられた時間内によりよいモデルを学び,ベースラインメソッドよりも高いプライバシー性能のトレードオフを実現することが示された。
さらに、提案されたインセンティブ機構は、従来のstackelbergゲームアプローチよりも優れたトレーニングパフォーマンスを提供する。 Federated learning (FL) has achieved great success as a privacy-preserving distributed training paradigm, where many edge devices collaboratively train a machine learning model by sharing the model updates instead of the raw data with a server. However, the heterogeneous computational and communication resources of edge devices give rise to stragglers that significantly decelerate the training process. To mitigate this issue, we propose a novel FL framework named stochastic coded federated learning (SCFL) that leverages coded computing techniques. In SCFL, before the training process starts, each edge device uploads a privacy-preserving coded dataset to the server, which is generated by adding Gaussian noise to the projected local dataset. During training, the server computes gradients on the global coded dataset to compensate for the missing model updates of the straggling devices. We design a gradient aggregation scheme to ensure that the aggregated model update is an unbiased estimate of the desired global update. Moreover, this aggregation scheme enables periodical model averaging to improve the training efficiency. We characterize the tradeoff between the convergence performance and privacy guarantee of SCFL. In particular, a more noisy coded dataset provides stronger privacy protection for edge devices but results in learning performance degradation. We further develop a contract-based incentive mechanism to coordinate such a conflict. The simulation results show that SCFL learns a better model within the given time and achieves a better privacy-performance tradeoff than the baseline methods. In addition, the proposed incentive mechanism grants better training performance than the conventional Stackelberg game approach. | 翻訳日:2022-11-09 17:31:35 公開日:2022-11-08 |
# 3操作ADMMを用いたフェデレーション学習 Federated Learning Using Three-Operator ADMM ( http://arxiv.org/abs/2211.04152v1 ) ライセンス: Link先を確認 | Shashi Kant, Jos\'e Mairton B. da Silva Jr., Gabor Fodor, Bo G\"oransson, Mats Bengtsson, and Carlo Fischione | (参考訳) フェデレーション学習(federated learning, fl)は、ユーザ側で生成されたデータの送信を回避する分散機械学習パラダイムの例である。
データは送信されないが、エッジデバイスは、ユーザのデバイスの限られた計算資源のために、限られた通信帯域幅、データの均一性、およびストラグラー効果を扱う必要がある。
このような困難を克服するための顕著なアプローチはFedADMMであり、これは古典的な2演算コンセンサスによる乗算器の交互方向法(ADMM)に基づいている。
FedADMMを含むFLアルゴリズムの一般的な前提は、エッジサーバではなく、ユーザの側でデータを使用してグローバルモデルを学ぶことである。
しかし、エッジ学習では、サーバーはベースステーションの近くにあり、リッチデータセットに直接アクセスすることが期待されている。
本稿では,エッジサーバ上のリッチデータを活用することは,ユーザデータセットのみを利用するよりもずっと有益であると主張する。
具体的には,エッジサーバ上のデータを表す仮想ユーザノードの追加によるflの適用が非効率であることを示す。
我々は、FedADMMを一般化したFedTOP-ADMMを提案し、エッジサーバ上のスムーズなコスト関数を利用して、エッジデバイスと平行なグローバルモデルを学習する3演算ADMM方式の手法に基づく。
数値実験により,FedTOP-ADMMは,エッジサーバ上の仮想ユーザを含むFedADMMに対して,所望のテスト精度に到達するために,通信効率が最大33倍に向上していることが示された。 Federated learning (FL) has emerged as an instance of distributed machine learning paradigm that avoids the transmission of data generated on the users' side. Although data are not transmitted, edge devices have to deal with limited communication bandwidths, data heterogeneity, and straggler effects due to the limited computational resources of users' devices. A prominent approach to overcome such difficulties is FedADMM, which is based on the classical two-operator consensus alternating direction method of multipliers (ADMM). The common assumption of FL algorithms, including FedADMM, is that they learn a global model using data only on the users' side and not on the edge server. However, in edge learning, the server is expected to be near the base station and have direct access to rich datasets. In this paper, we argue that leveraging the rich data on the edge server is much more beneficial than utilizing only user datasets. Specifically, we show that the mere application of FL with an additional virtual user node representing the data on the edge server is inefficient. We propose FedTOP-ADMM, which generalizes FedADMM and is based on a three-operator ADMM-type technique that exploits a smooth cost function on the edge server to learn a global model parallel to the edge devices. Our numerical experiments indicate that FedTOP-ADMM has substantial gain up to 33\% in communication efficiency to reach a desired test accuracy with respect to FedADMM, including a virtual user on the edge server. | 翻訳日:2022-11-09 17:31:09 公開日:2022-11-08 |
# 勾配強化深部ニューラルネットワーク近似 Gradient-enhanced deep neural network approximations ( http://arxiv.org/abs/2211.04226v1 ) ライセンス: Link先を確認 | Xiaodong Feng, Li Zeng | (参考訳) 本稿では,関数近似と不確実性定量化のための勾配強化ディープニューラルネットワーク(DNN)アプローチを提案する。
より正確には,提案手法は関数評価と関連する勾配情報の両方を採用し,近似精度を向上させる。
特に、勾配情報は勾配強化DNNの手法における正規化用語として含まれており、経路ノルム正規化DNNの近似と同様の後方推定(二層ニューラルネットワークによる)を提示する。
また, この手法の勾配拡大不確実性定量化への応用について検討し, 提案手法が従来のDNN手法よりも有益であることを示す数値実験を行った。 We propose in this work the gradient-enhanced deep neural networks (DNNs) approach for function approximations and uncertainty quantification. More precisely, the proposed approach adopts both the function evaluations and the associated gradient information to yield enhanced approximation accuracy. In particular, the gradient information is included as a regularization term in the gradient-enhanced DNNs approach, for which we present similar posterior estimates (by the two-layer neural networks) as those in the path-norm regularized DNNs approximations. We also discuss the application of this approach to gradient-enhanced uncertainty quantification, and present several numerical experiments to show that the proposed approach can outperform the traditional DNNs approach in many cases of interests. | 翻訳日:2022-11-09 17:30:45 公開日:2022-11-08 |
# 可換ニューラルネットワークを用いた物理層におけるスプーフィング攻撃検出 Spoofing Attack Detection in the Physical Layer with Commutative Neural Networks ( http://arxiv.org/abs/2211.04269v1 ) ライセンス: Link先を確認 | Daniel Romero, Peter Gerstoft, Hadi Givehchian, Dinesh Bharadia | (参考訳) スプーフィング攻撃では、攻撃者は正統なユーザに対して、正統なユーザを意図したデータにアクセスまたは改ざんするよう命令する。
無線通信システムでは、チャネル無線と送信機無線の特徴に依存してこれらの攻撃を検出することができる。
この文脈では、受信信号強度(rss)を複数の受信機または送信機の空間的位置に対するアクセスポイントに依存させることが一般的である。
既存のスキームは長期推定に依存するため、正統なユーザの動きと偽造を区別することは困難である。
この制限は、短期間のrssベクトル推定のペアの分布を暗黙的に学習するディープニューラルネットワークによって解決される。
適用されたネットワークアーキテクチャは、決定問題が示す入力(可換性)の置換に不変性を課す。
提案アルゴリズムの利点は、私たちが収集したデータセット上で相関する。 In a spoofing attack, an attacker impersonates a legitimate user to access or tamper with data intended for or produced by the legitimate user. In wireless communication systems, these attacks may be detected by relying on features of the channel and transmitter radios. In this context, a popular approach is to exploit the dependence of the received signal strength (RSS) at multiple receivers or access points with respect to the spatial location of the transmitter. Existing schemes rely on long-term estimates, which makes it difficult to distinguish spoofing from movement of a legitimate user. This limitation is here addressed by means of a deep neural network that implicitly learns the distribution of pairs of short-term RSS vector estimates. The adopted network architecture imposes the invariance to permutations of the input (commutativity) that the decision problem exhibits. The merits of the proposed algorithm are corroborated on a data set that we collected. | 翻訳日:2022-11-09 17:30:30 公開日:2022-11-08 |
# DiffPhase: 生成拡散に基づくSTFT位相検索 DiffPhase: Generative Diffusion-based STFT Phase Retrieval ( http://arxiv.org/abs/2211.04332v1 ) ライセンス: Link先を確認 | Tal Peer, Simon Welker, Timo Gerkmann | (参考訳) 拡散確率モデルは最近、音声強調や合成を含む様々なタスクで使われている。
生成的アプローチとして、拡散モデルは既存のデータに基づいて欠落データを生成する計算問題に特に適していることが示されている。
位相検索は本質的に、与えられた大きさに基づいて位相情報を生成する必要がある計算問題である。
本研究は,STFT位相探索に特化して音声強調拡散モデルを適用し,音声領域における先行研究に基づいて構築する。
音声品質とインテリジェンス指標を用いた評価は, 位相探索作業に拡散アプローチが適していることを示し, 性能は古典的手法と近代的手法に勝っている。 Diffusion probabilistic models have been recently used in a variety of tasks, including speech enhancement and synthesis. As a generative approach, diffusion models have been shown to be especially suitable for imputation problems, where missing data is generated based on existing data. Phase retrieval is inherently an imputation problem, where phase information has to be generated based on the given magnitude. In this work we build upon previous work in the speech domain, adapting a speech enhancement diffusion model specifically for STFT phase retrieval. Evaluation using speech quality and intelligibility metrics shows the diffusion approach is well-suited to the phase retrieval task, with performance surpassing both classical and modern methods. | 翻訳日:2022-11-09 17:29:57 公開日:2022-11-08 |
# Adaptive Semantic Communications: 収益のためにソースとチャネルをオーバーフィットする Adaptive Semantic Communications: Overfitting the Source and Channel for Profit ( http://arxiv.org/abs/2211.04339v1 ) ライセンス: Link先を確認 | Jincheng Dai, Sixian Wang, Ke Yang, Kailin Tan, Xiaoqi Qin, Zhongwei Si, Kai Niu, Ping Zhang | (参考訳) ほとんどのセマンティック通信システムは、ディープラーニングモデルを利用して、確立されたソースおよびチャネルコーディングアプローチを超えるエンドツーエンドの伝送性能を提供する。
これまでの研究は主にアーキテクチャとモデルの改善に重点を置いてきたが、完全なデータセットとエルゴードチャネル応答でトレーニングされたようなモデルは、テストインスタンス毎に最適ではない。
モデルキャパシティの制限と不完全な最適化と一般化のため、このような学習モデルは、特にテストデータ分布やチャネル応答がトレーニングフェーズと異なる場合、実際にはそうである可能性が高い場合、最適以下である。
そこで本研究では,深層学習モデルの過剰適合性を利用した新しい意味コミュニケーションパラダイムを提案する。
例えば、我々のモデルはデプロイ後に更新できるため、送信速度歪み(RD)のパフォーマンスに関してさらに大きな向上をもたらす可能性がある。
この新しいシステムはadaptive semantic communication (asc) と呼ばれる。
我々のASCシステムでは、無線伝送ストリームの成分は、ソースデータのセマンティック表現と適応デコーダモデルパラメータの両方を含む。
具体的には、オーバーフィットの概念を極端に捉え、セマンティックコーデックや表現を個々のデータやチャネル状態インスタンスに適応させる一連の巧妙な手法を提案します。
ASCシステム全体の設計は、データレート、モデルレート、歪み項の3つのトレードオフである損失関数を最小化する最適化問題として定式化される。
実験(ユーザスタディを含む)は、ascシステムの有効性と効率を検証する。
特に、過度に適合したコーディングパラダイムのかなりの利益は、セマンティックコミュニケーションを新しい時代へとアップグレードする触媒となる。 Most semantic communication systems leverage deep learning models to provide end-to-end transmission performance surpassing the established source and channel coding approaches. While, so far, research has mainly focused on architecture and model improvements, but such a model trained over a full dataset and ergodic channel responses is unlikely to be optimal for every test instance. Due to limitations on the model capacity and imperfect optimization and generalization, such learned models will be suboptimal especially when the testing data distribution or channel response is different from that in the training phase, as is likely to be the case in practice. To tackle this, in this paper, we propose a novel semantic communication paradigm by leveraging the deep learning model's overfitting property. Our model can for instance be updated after deployment, which can further lead to substantial gains in terms of the transmission rate-distortion (RD) performance. This new system is named adaptive semantic communication (ASC). In our ASC system, the ingredients of wireless transmitted stream include both the semantic representations of source data and the adapted decoder model parameters. Specifically, we take the overfitting concept to the extreme, proposing a series of ingenious methods to adapt the semantic codec or representations to an individual data or channel state instance. The whole ASC system design is formulated as an optimization problem whose goal is to minimize the loss function that is a tripartite tradeoff among the data rate, model rate, and distortion terms. The experiments (including user study) verify the effectiveness and efficiency of our ASC system. Notably, the substantial gain of our overfitted coding paradigm can catalyze semantic communication upgrading to a new era. | 翻訳日:2022-11-09 17:29:44 公開日:2022-11-08 |
# 時系列における量子永続ホモロジー Quantum Persistent Homology for Time Series ( http://arxiv.org/abs/2211.04465v1 ) ライセンス: Link先を確認 | Bernardo Ameneyro, George Siopsis and Vasileios Maroulas | (参考訳) データ分析のための強力な数学的ツールである永続的ホモロジー(persistent homology)は、異なるスケールの変化にわたってトポロジ的特徴を追跡することでデータの形状を要約する。
永続的ホモロジーのための古典的アルゴリズムは、しばしばデータポイント数で指数関数的に増加する実行時間とメモリ要求によって制約される。
この問題を克服するため、永続ホモロジーの2つの量子アルゴリズムが2つの異なるアプローチに基づいて開発された。
しかし、これらの量子アルゴリズムはどちらも点雲の形でデータセットを考慮しており、多くのデータセットが時系列の形で現れることを考慮すれば制限的である。
本稿では,時間列を高次元空間への関連する埋め込みを考慮した点雲に変換する量子ケインの遅延埋め込みアルゴリズムを確立することにより,この問題を緩和する。
時系列の量子変換を点雲にすると、量子永続ホモロジーアルゴリズムを使って元の時系列に関連付けられた点雲から位相的特徴を抽出することができる。 Persistent homology, a powerful mathematical tool for data analysis, summarizes the shape of data through tracking topological features across changes in different scales. Classical algorithms for persistent homology are often constrained by running times and memory requirements that grow exponentially on the number of data points. To surpass this problem, two quantum algorithms of persistent homology have been developed based on two different approaches. However, both of these quantum algorithms consider a data set in the form of a point cloud, which can be restrictive considering that many data sets come in the form of time series. In this paper, we alleviate this issue by establishing a quantum Takens's delay embedding algorithm, which turns a time series into a point cloud by considering a pertinent embedding into a higher dimensional space. Having this quantum transformation of time series to point clouds, then one may use a quantum persistent homology algorithm to extract the topological features from the point cloud associated with the original times series. | 翻訳日:2022-11-09 17:24:05 公開日:2022-11-08 |
# reloc:ロバストな画像タンパリングのための復元支援フレームワーク ReLoc: A Restoration-Assisted Framework for Robust Image Tampering Localization ( http://arxiv.org/abs/2211.03930v1 ) ライセンス: Link先を確認 | Peiyu Zhuang, Haodong Li, Rui Yang, Jiwu Huang | (参考訳) 改ざん画像の普及に伴い,デジタル画像における改ざん領域の配置が注目されている。
しかし、既存の画像改ざんローカライズ手法では、改ざん後の処理によって改ざん跡が歪むため、改ざん後の画像が何らかの後処理を受けると、性能が著しく低下する。
後処理に対するロバスト性は,画像改ざんローカライゼーション技術の実用化のボトルネックとなっている。
この問題に対処するため,本稿では画像改ざんローカライゼーション(reloc)のための復元支援フレームワークを提案する。
ReLocフレームワークは主にイメージ復元モジュールとタンパリングローカライゼーションモジュールで構成されている。
ReLocのキーとなるアイデアは、復元モジュールを使用して、歪んだ改ざんされた画像の高品質な対応を回復し、歪んだ改ざんトレースを再拡張し、改ざんした領域を識別するローカライゼーションモジュールを容易にすることである。
これを実現するために、復元モジュールは、従来の画像品質の制約だけでなく、鑑識指向の客観的機能にも最適化されている。
さらに、復元モジュールとローカライゼーションモジュールとを交互に訓練し、トレーニングプロセスを安定化させ、性能向上に有用である。
提案するフレームワークは、最も一般的に使用される後処理であるJPEG圧縮との戦いによって評価される。
広範な実験結果から,jpeg圧縮に対するロバスト性が大幅に向上することが示された。
十分に訓練されたReLocモデルの復元モジュールは転送可能である。
すなわち、他の改ざんローカライズモジュールと直接デプロイする場合、まだ有効である。 With the spread of tampered images, locating the tampered regions in digital images has drawn increasing attention. The existing image tampering localization methods, however, suffer from severe performance degradation when the tampered images are subjected to some post-processing, as the tampering traces would be distorted by the post-processing operations. The poor robustness against post-processing has become a bottleneck for the practical applications of image tampering localization techniques. In order to address this issue, this paper proposes a novel restoration-assisted framework for image tampering localization (ReLoc). The ReLoc framework mainly consists of an image restoration module and a tampering localization module. The key idea of ReLoc is to use the restoration module to recover a high-quality counterpart of the distorted tampered image, such that the distorted tampering traces can be re-enhanced, facilitating the tampering localization module to identify the tampered regions. To achieve this, the restoration module is optimized not only with the conventional constraints on image visual quality but also with a forensics-oriented objective function. Furthermore, the restoration module and the localization module are trained alternately, which can stabilize the training process and is beneficial for improving the performance. The proposed framework is evaluated by fighting against JPEG compression, the most commonly used post-processing. Extensive experimental results show that ReLoc can significantly improve the robustness against JPEG compression. The restoration module in a well-trained ReLoc model is transferable. Namely, it is still effective when being directly deployed with another tampering localization module. | 翻訳日:2022-11-09 17:23:51 公開日:2022-11-08 |
# eat-radar:fmcwレーダと3次元時間畳み込みネットワークを用いた連続細粒食ジェスチャー検出 Eat-Radar: Continuous Fine-Grained Eating Gesture Detection Using FMCW Radar and 3D Temporal Convolutional Network ( http://arxiv.org/abs/2211.04253v1 ) ライセンス: Link先を確認 | Chunzhuo Wang, T. Sunil Kumar, Walter De Raedt, Guido Camps, Hans Hallez, Bart Vanrumste | (参考訳) 不健康な食事習慣は、肥満や糖尿病などの複数の慢性疾患の主要な原因と考えられている。
自動摂食監視システムは、食事アセスメントを通じて、食事関連疾患を有する人々のqof( quality of life)を改善する可能性を秘めている。
本研究では,新しい接触型レーダーによる食品摂取モニタリング手法を提案する。
具体的には、細粒度飲食ジェスチャーを認識するために、周波数変調連続波(fmcw)レーダセンサを用いる。
細粒度の飲食ジェスチャーは、手を挙げてから口から手を離すまでの一連の動きを含む。
3次元時間畳み込みネットワーク(3d-tcn)を開発し、レンジドップラーキューブ(rdキューブ)を処理し、食事セッションにおける食事中の摂食と飲酒のジェスチャーの検出とセグメント化を行う。
従来のレーダーベースの研究とは異なり、この研究は連続的な食事セッションでデータを収集する。
参加者48名から48回の食事セッション(3121回の食事行動と608回の飲酒行動)を合計783分間の公開データセットを作成する。
このデータセットには4種類の食材(フォーク&ナイフ、チョップスティック、スプーン、手)が含まれている。
提案手法の性能を検証するために8倍のクロス検証法を適用した。
実験の結果,提案した3D-TCNは,畳み込みニューラルネットワークと長期記憶ネットワーク(CNN-LSTM)と,摂食行動検出におけるCNN-Bidirectional LSTMモデル(CNN-BiLSTM)を併用したモデルよりも優れていた。
3D-TCNモデルでは,食行動と飲酒行動においてそれぞれ0.887と0.844のセグメントF1スコアを達成する。
提案手法は,食品セッションにおける細粒度食と飲酒のジェスチャ検出とセグメンテーションにおけるレーダの利用の可能性を示した。 Unhealthy dietary habits are considered as the primary cause of multiple chronic diseases such as obesity and diabetes. The automatic food intake monitoring system has the potential to improve the quality of life (QoF) of people with dietary related diseases through dietary assessment. In this work, we propose a novel contact-less radar-based food intake monitoring approach. Specifically, a Frequency Modulated Continuous Wave (FMCW) radar sensor is employed to recognize fine-grained eating and drinking gestures. The fine-grained eating/drinking gesture contains a series of movement from raising the hand to the mouth until putting away the hand from the mouth. A 3D temporal convolutional network (3D-TCN) is developed to detect and segment eating and drinking gestures in meal sessions by processing the Range-Doppler Cube (RD Cube). Unlike previous radar-based research, this work collects data in continuous meal sessions. We create a public dataset that contains 48 meal sessions (3121 eating gestures and 608 drinking gestures) from 48 participants with a total duration of 783 minutes. Four eating styles (fork & knife, chopsticks, spoon, hand) are included in this dataset. To validate the performance of the proposed approach, 8-fold cross validation method is applied. Experimental results show that our proposed 3D-TCN outperforms the model that combines a convolutional neural network and a long-short-term-memory network (CNN-LSTM), and also the CNN-Bidirectional LSTM model (CNN-BiLSTM) in eating and drinking gesture detection. The 3D-TCN model achieves a segmental F1-score of 0.887 and 0.844 for eating and drinking gestures, respectively. The results of the proposed approach indicate the feasibility of using radar for fine-grained eating and drinking gesture detection and segmentation in meal sessions. | 翻訳日:2022-11-09 17:23:26 公開日:2022-11-08 |
# MPS-EVのエネルギー管理における強化学習の進展と概要 Progress and summary of reinforcement learning on energy management of MPS-EV ( http://arxiv.org/abs/2211.04001v1 ) ライセンス: Link先を確認 | Jincheng Hu, Yang Lin, Liang Chu, Zhuoran Hou, Jihan Li, Jingjing Jiang, Yuanjian Zhang | (参考訳) 環境規制やエネルギー危機下では, 内燃機関(ICE)による高エミッションと低エネルギ効率が認められなくなった。
有望な代替ソリューションとして、MPS-EVはパワートレイン効率を改善するために異なるクリーンエネルギーシステムを導入している。
エネルギー管理戦略(ems)はmps-evの効率、燃費、航続距離を最大化するための重要な技術である。
強化学習(Reinforcement Learning, RL)は, EMSの開発に有効な方法論である。
RLは継続的な注目と研究を受けてきたが、RLベースのEMSの設計要素に関する体系的な分析はいまだに存在しない。
本稿では,RL ベース EMS (RL-EMS) に関する最近の研究を詳細に分析し,RL ベース EMS の設計要素を要約する。
本稿では, アルゴリズム, 知覚スキーム, 決定スキーム, 報酬関数, 革新的トレーニング手法の5つの側面から, rlのemsにおける以前の応用について概説する。
学習効果に対する高度なアルゴリズムの寄与を示し,文献における知覚と制御のスキームを詳細に分析し,報酬関数の設定を分類し,その役割を持つ革新的なトレーニング方法を詳述した。
最後に、RL-EMSとRL-EMSの開発経路を比較することにより、RL-EMSと既存のRL-EMSのギャップを特定する。
最後に,EMSに高度な人工知能(AI)ソリューションを実装するための開発方向性を提案する。 The high emission and low energy efficiency caused by internal combustion engines (ICE) have become unacceptable under environmental regulations and the energy crisis. As a promising alternative solution, multi-power source electric vehicles (MPS-EVs) introduce different clean energy systems to improve powertrain efficiency. The energy management strategy (EMS) is a critical technology for MPS-EVs to maximize efficiency, fuel economy, and range. Reinforcement learning (RL) has become an effective methodology for the development of EMS. RL has received continuous attention and research, but there is still a lack of systematic analysis of the design elements of RL-based EMS. To this end, this paper presents an in-depth analysis of the current research on RL-based EMS (RL-EMS) and summarizes the design elements of RL-based EMS. This paper first summarizes the previous applications of RL in EMS from five aspects: algorithm, perception scheme, decision scheme, reward function, and innovative training method. The contribution of advanced algorithms to the training effect is shown, the perception and control schemes in the literature are analyzed in detail, different reward function settings are classified, and innovative training methods with their roles are elaborated. Finally, by comparing the development routes of RL and RL-EMS, this paper identifies the gap between advanced RL solutions and existing RL-EMS. Finally, this paper suggests potential development directions for implementing advanced artificial intelligence (AI) solutions in EMS. | 翻訳日:2022-11-09 17:22:09 公開日:2022-11-08 |
# 癌免疫療法を増強する効果的な組合せ療法を探索するための腫瘍空間プロテオームの相反的説明の生成 Generating counterfactual explanations of tumor spatial proteomes to discover effective, combinatorial therapies that enhance cancer immunotherapy ( http://arxiv.org/abs/2211.04020v1 ) ライセンス: Link先を確認 | Zitong Jerry Wang, Matt Thomson | (参考訳) 空間オミクス法の最近の進歩は、数百の患者と10から数千の分子イメージングチャネルにわたる微小な解像度でヒト腫瘍の分子組成を画像化することができる。
大規模分子イメージングデータセットは、腫瘍内のタンパク質と細胞タイプの空間的構造が、異なる治療戦略に対する患者の反応をどのように調節するかを理解する新しい機会を提供し、患者応答を増加させる新しい治療法の設計への潜在的な洞察を提供する。
しかしspatial omicsデータセットには、数百から数千のイメージングチャネル(ie色)を組み込むためにスケール可能な計算分析方法が必要であり、同時に、多種多様な腫瘍の可能性のある多数の患者に対する治療反応と相関する分子パターンの抽出を可能にする。
そこで我々は,特定の患者腫瘍に対する免疫系エンゲージメントの程度を予測するシグナル分子の組み合わせの同定と設計のための機械学習戦略を開発した。
患者腫瘍のT細胞分布を予測するために,30-40の分子イメージングチャンネルの画像を用いて分類器を訓練する。
第2に,分類器に勾配降下法に基づく反事実推論戦略を適用し,t細胞浸潤を増加させると予測されるシグナル分子の組み合わせを探索する。
メラノーマ腫瘍におけるCXCL9, CXCL10, CXCL12, CCL19の上昇とCCL8の減少は,69例のコホートで10倍のT細胞浸潤を引き起こすと予測した。
モデルは、この組み合わせが単一の標的摂動よりも効果的であると予想する。
本研究は,空間的オデックデータにおける免疫系活性の分類に基づく癌治療の予測と設計に基づく機械学習のためのパラダイムを提供する。 Recent advances in spatial omics methods enable the molecular composition of human tumors to be imaged at micron-scale resolution across hundreds of patients and ten to thousands of molecular imaging channels. Large-scale molecular imaging datasets offer a new opportunity to understand how the spatial organization of proteins and cell types within a tumor modulate the response of a patient to different therapeutic strategies and offer potential insights into the design of novel therapies to increase patient response. However, spatial omics datasets require computational analysis methods that can scale to incorporate hundreds to thousands of imaging channels (ie colors) while enabling the extraction of molecular patterns that correlate with treatment responses across large number of patients with potentially heterogeneous tumors presentations. Here, we have develop a machine learning strategy for the identification and design of signaling molecule combinations that predict the degree of immune system engagement with a specific patient tumors. We specifically train a classifier to predict T cell distribution in patient tumors using the images from 30-40 molecular imaging channels. Second, we apply a gradient descent based counterfactual reasoning strategy to the classifier and discover combinations of signaling molecules predicted to increase T cell infiltration. Applied to spatial proteomics data of melanoma tumor, our model predicts that increasing the level of CXCL9, CXCL10, CXCL12, CCL19 and decreasing the level of CCL8 in melanoma tumor will increase T cell infiltration by 10-fold across a cohort of 69 patients. The model predicts that the combination is many fold more effective than single target perturbations. Our work provides a paradigm for machine learning based prediction and design of cancer therapeutics based on classification of immune system activity in spatial omics data. | 翻訳日:2022-11-09 17:21:45 公開日:2022-11-08 |
# 通信効率の高い分散bilevelプログラミングのためのペナルティベース手法 A Penalty Based Method for Communication-Efficient Decentralized Bilevel Programming ( http://arxiv.org/abs/2211.04088v1 ) ライセンス: Link先を確認 | Parvin Nazari, Ahmad Mousavi, Davoud Ataee Tarzanagh, and George Michailidis | (参考訳) 強化学習やハイパーパラメータ最適化など、幅広い応用によって、近年、バイレベルプログラミングが文献で注目を集めている。
しかし,星型ネットワークに接続された複数のマシン,すなわちフェデレーション学習環境において,基礎となる二段階最適化問題は一つのマシンで解決されると広く考えられている。
後者のアプローチは、中央ノード(例えばパラメータサーバ)での通信コストが高く、プライバシー上の脆弱性がある。
したがって、双方向最適化問題を通信効率のよい分散方式で解決する手法の開発が注目される。
そこで本稿では,このような最適化問題に対する理論的保証を備えたペナルティ関数に基づく分散アルゴリズムを提案する。
具体的には,分散ネットワーク上でのコンセンサス二レベル計画の解法として,分散交互勾配型アルゴリズムを開発した。
提案アルゴリズムの重要な特徴は,行列ベクトル積の分散計算とベクトル通信によってペナルティ関数の過度な勾配を推定することであり,これは異なる凸性仮定の下で有限時間収束解析を行うための交互アルゴリズムに統合される。
この複雑性解析の汎用性から,この結果は,ミニマックスや構成最適化を含む多種多様なコンセンサス問題に対する収束率をもたらす。
合成データと実データの両方に対する実験結果から,提案手法が実際に有効であることを示す。 Bilevel programming has recently received attention in the literature, due to a wide range of applications, including reinforcement learning and hyper-parameter optimization. However, it is widely assumed that the underlying bilevel optimization problem is solved either by a single machine or in the case of multiple machines connected in a star-shaped network, i.e., federated learning setting. The latter approach suffers from a high communication cost on the central node (e.g., parameter server) and exhibits privacy vulnerabilities. Hence, it is of interest to develop methods that solve bilevel optimization problems in a communication-efficient decentralized manner. To that end, this paper introduces a penalty function based decentralized algorithm with theoretical guarantees for this class of optimization problems. Specifically, a distributed alternating gradient-type algorithm for solving consensus bilevel programming over a decentralized network is developed. A key feature of the proposed algorithm is to estimate the hyper-gradient of the penalty function via decentralized computation of matrix-vector products and few vector communications, which is then integrated within our alternating algorithm to give the finite-time convergence analysis under different convexity assumptions. Owing to the generality of this complexity analysis, our result yields convergence rates for a wide variety of consensus problems including minimax and compositional optimization. Empirical results on both synthetic and real datasets demonstrate that the proposed method works well in practice. | 翻訳日:2022-11-09 17:21:13 公開日:2022-11-08 |
# 拡散型生成モデルを用いた教師なし発声 Unsupervised vocal dereverberation with diffusion-based generative models ( http://arxiv.org/abs/2211.04124v1 ) ライセンス: Link先を確認 | Koichi Saito, Naoki Murata, Toshimitsu Uesaka, Chieh-Hsin Lai, Yuhta Takida, Takao Fukui, Yuki Mitsufuji | (参考訳) 残響音楽から残響を除去することは、下流の音楽操作のための音声を浄化するために必要な手法である。
音楽の残響は自然残響と人工残響の2つのカテゴリを含んでいる。
人工残響は、様々なパラメータ設定と残響タイプのため、自然残響よりも幅広い多様性を持つ。
しかし、近年の教師付きデリバベーション法は、十分に多種多様な残響観測と学習のためのデータ検索を頼りにしており、推論中に見当たらない観測に一般化できるため、失敗する可能性がある。
これらの問題を解決するために,学習用データを必要とすることなく,一般的な音楽用人工残響を除去できる教師なし手法を提案する。
提案手法は拡散モデルに基づいて,未知の残響演算子を従来の信号処理手法で初期化し,拡散モデルの助けを借りて推定を改良する。
目的的および知覚的評価を通して,本手法が現在有意な発声残響ベンチマークを上回っていることを示す。 Removing reverb from reverberant music is a necessary technique to clean up audio for downstream music manipulations. Reverberation of music contains two categories, natural reverb, and artificial reverb. Artificial reverb has a wider diversity than natural reverb due to its various parameter setups and reverberation types. However, recent supervised dereverberation methods may fail because they rely on sufficiently diverse and numerous pairs of reverberant observations and retrieved data for training in order to be generalizable to unseen observations during inference. To resolve these problems, we propose an unsupervised method that can remove a general kind of artificial reverb for music without requiring pairs of data for training. The proposed method is based on diffusion models, where it initializes the unknown reverberation operator with a conventional signal processing technique and simultaneously refines the estimate with the help of diffusion models. We show through objective and perceptual evaluations that our method outperforms the current leading vocal dereverberation benchmarks. | 翻訳日:2022-11-09 17:20:53 公開日:2022-11-08 |
# コミュニケーション効率の高いプライベートフェデレーション学習のための補間MVU機構 The Interpolated MVU Mechanism For Communication-efficient Private Federated Learning ( http://arxiv.org/abs/2211.03942v1 ) ライセンス: Link先を確認 | Chuan Guo, Kamalika Chaudhuri, Pierre Stock, Mike Rabbat | (参考訳) 機械学習モデルをトレーニングするために、サーバが多数のクライアントから差分的にプライベートな勾配更新を集約するプライベートフェデレーション学習(fl)について検討する。
主な課題は、学習したモデルの分類精度とクライアントとサーバ間の通信量の両方でプライバシのバランスをとることだ。
本研究では,より効率的なプライバシー分析を実現するための補間機構を導入することで,通信効率の高いプライベートFL(MVU機構)の手法を構築した。
その結果、様々なデータセット上で通信効率の高いプライベートFLに対してSOTA結果を提供する新しい補間MVU機構が得られた。 We consider private federated learning (FL), where a server aggregates differentially private gradient updates from a large number of clients in order to train a machine learning model. The main challenge is balancing privacy with both classification accuracy of the learned model as well as the amount of communication between the clients and server. In this work, we build on a recently proposed method for communication-efficient private FL -- the MVU mechanism -- by introducing a new interpolation mechanism that can accommodate a more efficient privacy analysis. The result is the new Interpolated MVU mechanism that provides SOTA results on communication-efficient private FL on a variety of datasets. | 翻訳日:2022-11-09 17:15:02 公開日:2022-11-08 |
# 意味に基づくカテゴリーデータクラスタリング Significance-Based Categorical Data Clustering ( http://arxiv.org/abs/2211.03956v1 ) ライセンス: Link先を確認 | Lianyu Hu, Mudi Jiang, Yan Liu, Zengyou He | (参考訳) 分類的データクラスタリングの問題を解決するために多くのアルゴリズムが提案されているが、分類的クラスタの統計的意義にアクセスする方法はまだ未定である。
この空白を満たすために、分類データクラスタリングにおいて重要度に基づく目的関数として機能するテスト統計を導出するために、確率比検定を用いる。
その結果,モンテカルロ探索手法を用いて重要度に基づく目的関数を最適化する新たなクラスタリングアルゴリズムが提案されている。
副産物として、経験的な$p$-valueを計算し、クラスタの集合の統計的意義を評価し、クラスタ数を推定するための改良されたギャップ統計を作成することができる。
広範な実験により,本手法は最先端データクラスタリングアルゴリズムに匹敵する性能が得られることが示唆された。
さらに, 統計的クラスタ検証およびクラスタ数推定における有意性に基づく定式化の有効性を包括的実験により実証した。 Although numerous algorithms have been proposed to solve the categorical data clustering problem, how to access the statistical significance of a set of categorical clusters remains unaddressed. To fulfill this void, we employ the likelihood ratio test to derive a test statistic that can serve as a significance-based objective function in categorical data clustering. Consequently, a new clustering algorithm is proposed in which the significance-based objective function is optimized via a Monte Carlo search procedure. As a by-product, we can further calculate an empirical $p$-value to assess the statistical significance of a set of clusters and develop an improved gap statistic for estimating the cluster number. Extensive experimental studies suggest that our method is able to achieve comparable performance to state-of-the-art categorical data clustering algorithms. Moreover, the effectiveness of such a significance-based formulation on statistical cluster validation and cluster number estimation is demonstrated through comprehensive empirical results. | 翻訳日:2022-11-09 17:14:53 公開日:2022-11-08 |
# 適応最適化法のアルゴリズム安定性と一般化について On the Algorithmic Stability and Generalization of Adaptive Optimization Methods ( http://arxiv.org/abs/2211.03970v1 ) ライセンス: Link先を確認 | Han Nguyen, Hai Pham, Sashank J. Reddi, Barnab\'as P\'oczos | (参考訳) ディープラーニングや機械学習全般で人気があるにもかかわらず、Adagrad、RMSProp、Adam、AdamWといった適応最適化器の理論的性質はまだ完全には理解されていない。
本稿では,これらの最適化手法の安定性と一般化を研究するための新しい枠組みを開発する。
このフレームワークに基づいて、単一のパラメータ$\beta_2$に大きく依存するそのような特性に関する証明可能な保証を示す。
我々の実験は,適応最適化手法の安定性と一般化性に関する実践的知見を提供する。 Despite their popularity in deep learning and machine learning in general, the theoretical properties of adaptive optimizers such as Adagrad, RMSProp, Adam or AdamW are not yet fully understood. In this paper, we develop a novel framework to study the stability and generalization of these optimization methods. Based on this framework, we show provable guarantees about such properties that depend heavily on a single parameter $\beta_2$. Our empirical experiments support our claims and provide practical insights into the stability and generalization properties of adaptive optimization methods. | 翻訳日:2022-11-09 17:14:37 公開日:2022-11-08 |
# 量子化に基づく最適化:大域最適化の確率近似 Quantization-Based Optimization: Alternative Stochastic Approximation of Global Optimization ( http://arxiv.org/abs/2211.03972v1 ) ライセンス: Link先を確認 | Jinwuk Seok and Chang Sik Cho | (参考訳) 本研究では,np-hard問題における目的関数のエネルギーレベルを定量化する大域的最適化アルゴリズムを提案する。
密度分布と均一分布の量子化誤差に対する白色雑音仮説では、量子化誤差をすなわち白色雑音とみなすことができる。
確率解析から、提案アルゴリズムは、目的関数のヘッセン的制約のような局所収束特性の代わりに、リプシッツ連続性を満たす条件下でのみ弱収束する。
これは,提案アルゴリズムがラプラス条件による大域的最適化を保証することを示す。
数値実験により,提案アルゴリズムは,旅行セールスマン問題などのNPハード最適化問題の解法において,従来の学習方法よりも優れていることが示された。 In this study, we propose a global optimization algorithm based on quantizing the energy level of an objective function in an NP-hard problem. According to the white noise hypothesis for a quantization error with a dense and uniform distribution, we can regard the quantization error as i.i.d. white noise. From stochastic analysis, the proposed algorithm converges weakly only under conditions satisfying Lipschitz continuity, instead of local convergence properties such as the Hessian constraint of the objective function. This shows that the proposed algorithm ensures global optimization by Laplace's condition. Numerical experiments show that the proposed algorithm outperforms conventional learning methods in solving NP-hard optimization problems such as the traveling salesman problem. | 翻訳日:2022-11-09 17:14:29 公開日:2022-11-08 |
# マルチアーマッドバンドによる適応データ深さ Adaptive Data Depth via Multi-Armed Bandits ( http://arxiv.org/abs/2211.03985v1 ) ライセンス: Link先を確認 | Tavor Z. Baharav, Tze Leung Lai | (参考訳) tukey (1975) によって導入されたデータ深さは、データサイエンス、ロバスト統計学、計算幾何学において重要なツールである。
より広範な実用性に対する大きな障壁は、深度に関する多くの一般的な測度が計算集約的であり、$d$次元空間における$n$点のデータセット内の単一の点の深さを正確に計算するために$n^d$演算の順序に依存することである。
しかし、多くの場合、点の絶対的な深さに直接関心はなく、むしろそれらの \textit{relative order} に関心を持つ。
例えば、データセットの最も中央にある点(一般的な中央値)を見つけたり、すべての外れ値(低い深さのデータセットのフリンジ上の点)を識別して削除したりしたいかもしれません。
そこで本研究では,$n$deepsを$n$の確率的マルチアームバンディット問題に正確に計算することで,適応的なデータ深度計算のための新しい,インスタンス適応型アルゴリズムを開発した。
我々は,その解釈可能性や漸近的性質から,深度を期待できる概念として現われてきた \citet{liu 1990notion} によって開発されたsimplicial depth に焦点をあてる。
提案手法では,大域的深さ,oja深さ,ラピッド深さなど,データ深さの他の多くの一般的な尺度に容易に拡張できる。
データ内のギャップがパラメータ$\alpha<2$のパワーロー分布に従う場合に特化した場合、データセットの最も深い点(単純な中央値)を特定する複雑さを、$o(n^d)$から$\tilde{o}(n^{d-(d-1)\alpha/2})$に削減できることを示し、ここで$\tilde{o}$は対数因子を抑制する。
提案手法の実用性を示すため, 合成データに関する数値実験により理論的結果を相関させる。 Data depth, introduced by Tukey (1975), is an important tool in data science, robust statistics, and computational geometry. One chief barrier to its broader practical utility is that many common measures of depth are computationally intensive, requiring on the order of $n^d$ operations to exactly compute the depth of a single point within a data set of $n$ points in $d$-dimensional space. Often however, we are not directly interested in the absolute depths of the points, but rather in their \textit{relative ordering}. For example, we may want to find the most central point in a data set (a generalized median), or to identify and remove all outliers (points on the fringe of the data set with low depth). With this observation, we develop a novel and instance-adaptive algorithm for adaptive data depth computation by reducing the problem of exactly computing $n$ depths to an $n$-armed stochastic multi-armed bandit problem which we can efficiently solve. We focus our exposition on simplicial depth, developed by \citet{liu1990notion}, which has emerged as a promising notion of depth due to its interpretability and asymptotic properties. We provide general instance-dependent theoretical guarantees for our proposed algorithms, which readily extend to many other common measures of data depth including majority depth, Oja depth, and likelihood depth. When specialized to the case where the gaps in the data follow a power law distribution with parameter $\alpha<2$, we show that we can reduce the complexity of identifying the deepest point in the data set (the simplicial median) from $O(n^d)$ to $\tilde{O}(n^{d-(d-1)\alpha/2})$, where $\tilde{O}$ suppresses logarithmic factors. We corroborate our theoretical results with numerical experiments on synthetic data, showing the practical utility of our proposed methods. | 翻訳日:2022-11-09 17:14:17 公開日:2022-11-08 |
# 惑星形成初期のニューラルネットワークサブグリッドモデル A Neural Network Subgrid Model of the Early Stages of Planet Formation ( http://arxiv.org/abs/2211.04160v1 ) ライセンス: Link先を確認 | Thomas Pfeil, Miles Cranmer, Shirley Ho, Philip J. Armitage, Tilman Birnstiel, Hubert Klahr | (参考訳) 惑星形成は、原始惑星円盤における$\mathrm {\mu m}$サイズの塵粒の凝集が、天文単位のスケールでの流体力学的プロセス(\approx 1.5\times 10^8 \,\mathrm{km}$)に強く影響されるマルチスケールプロセスである。
したがって、大規模な流体力学シミュレーションの上に塵凝固のミクロ物理をエミュレートするためのサブグリッドモデルに依存する。
関連する物理効果を含む数値シミュレーションは複雑で計算コストが高い。
本稿では,高分解能数値凝固シミュレーションから得られたデータに基づいて,高速かつ正確な集塵モデルを提案する。
本モデルでは, 計算効率が類似した他のダスト凝固処方薬と相容れないダスト凝固過程の詳細を捉えた。 Planet formation is a multi-scale process in which the coagulation of $\mathrm{\mu m}$-sized dust grains in protoplanetary disks is strongly influenced by the hydrodynamic processes on scales of astronomical units ($\approx 1.5\times 10^8 \,\mathrm{km}$). Studies are therefore dependent on subgrid models to emulate the micro physics of dust coagulation on top of a large scale hydrodynamic simulation. Numerical simulations which include the relevant physical effects are complex and computationally expensive. Here, we present a fast and accurate learned effective model for dust coagulation, trained on data from high resolution numerical coagulation simulations. Our model captures details of the dust coagulation process that were so far not tractable with other dust coagulation prescriptions with similar computational efficiency. | 翻訳日:2022-11-09 17:13:41 公開日:2022-11-08 |
# ノードグループ化によるグラフ要約:スペクトルアルゴリズム Graph Summarization via Node Grouping: A Spectral Algorithm ( http://arxiv.org/abs/2211.04169v1 ) ライセンス: Link先を確認 | Arpit Merchant, Michael Mathioudakis, Yanhao Wang | (参考訳) ノードグループ化によるグラフ要約は、ノードを元のグラフからスーパーノードにグループ化し、エッジをスーパーエッジに符号化することで、隣接情報の損失を最小限に抑えることで、簡潔なグラフ表現を構築する一般的な方法である。
このような要約は、小さなサイズと高いクエリ処理効率のために、大規模なグラフ解析に多大な応用がある。
本稿では,和算における損失最小化問題を等価整数最大化問題に再構成する。
まず、整数最大化のための緩和された(フラクショナルな)解を許容することにより、基底となる接続を隣接行列のスペクトル特性に解析的に公開する。
その結果、2つのフェーズからなるSpecSummと呼ばれるアルゴリズムを設計する。
スペクトルグラフ理論に動機付けられた第1フェーズでは、隣接行列の最大(大きさ)固有ベクトル k に対して k-平均クラスタリングを適用し、スーパーノードにノードを割り当てる。
第2段階では,初期課題を更新し,要約品質をさらに向上する欲求的ヒューリスティックを提案する。
最後に,11のデータセットに関する広範な実験を通じて,specsummは最先端の要約アルゴリズムや数百万ノードのグラフに対するスケールと比較して,高品質な要約を効率的に生成することを示した。 Graph summarization via node grouping is a popular method to build concise graph representations by grouping nodes from the original graph into supernodes and encoding edges into superedges such that the loss of adjacency information is minimized. Such summaries have immense applications in large-scale graph analytics due to their small size and high query processing efficiency. In this paper, we reformulate the loss minimization problem for summarization into an equivalent integer maximization problem. By initially allowing relaxed (fractional) solutions for integer maximization, we analytically expose the underlying connections to the spectral properties of the adjacency matrix. Consequently, we design an algorithm called SpecSumm that consists of two phases. In the first phase, motivated by spectral graph theory, we apply k-means clustering on the k largest (in magnitude) eigenvectors of the adjacency matrix to assign nodes to supernodes. In the second phase, we propose a greedy heuristic that updates the initial assignment to further improve summary quality. Finally, via extensive experiments on 11 datasets, we show that SpecSumm efficiently produces high-quality summaries compared to state-of-the-art summarization algorithms and scales to graphs with millions of nodes. | 翻訳日:2022-11-09 17:13:22 公開日:2022-11-08 |
# 超体積指標ヘッセン行列:解析的表現、計算時間複雑度、空間性 The Hypervolume Indicator Hessian Matrix: Analytical Expression, Computational Time Complexity, and Sparsity ( http://arxiv.org/abs/2211.04171v1 ) ライセンス: Link先を確認 | Andr\'e H. Deutz, Michael T.M. Emmerich, Hao Wang | (参考訳) 多目的最適化問題のパレートフロントを近似する問題は、ハイパーボリュームインジケータを最大化する集合を見つける問題として再構成することができる。
本稿では,d$-dimensional decision space (または$m$ dimensional objective space) における n$ 個の点からなる (固定サイズ) 集合からスカラーハイパーボリュームインジケータ値への写像のヘッセン行列の解析的表現を確立する。
ヘッセン行列を定義するために、入力集合はベクトル化され、行列はベクトル化集合から超体積指標への写像の解析的微分によって導出される。
ヘッセン行列はニュートン・ラフソン最適化法のような二階法において重要な役割を担っており、局所最適集合の検証に使うことができる。
これまでのところ, 完全解析式は, 比較的単純な二重対象の場合に対してのみ確立され, 解析された。
本稿では任意の次元(m\geq2$ objective function)の式を導出する。
実際に重要な3次元の場合、ヘッセン行列の非零成分の正確な計算のために、o(n\log n)$ の時間複雑性を持つ漸近的に効率的なアルゴリズムを提供する。
非ゼロなエントリの数に対して、1,12m-6$のシャープなバウンドを確立する。
また、一般の$m$-次元の場合、コンパクトな再帰的解析式を確立し、そのアルゴリズム的実装について論じる。
また, 一般の場合においても, 再帰的な表現によって, 疎結合の結果が確立される。
解析的に導出されたアルゴリズムと結果の検証と説明のために,Python と Mathematica の実装を用いて数値的な例を示す。
本論文のサプリメントとして,アルゴリズムとテストデータのオープンソース実装が利用可能である。 The problem of approximating the Pareto front of a multiobjective optimization problem can be reformulated as the problem of finding a set that maximizes the hypervolume indicator. This paper establishes the analytical expression of the Hessian matrix of the mapping from a (fixed size) collection of $n$ points in the $d$-dimensional decision space (or $m$ dimensional objective space) to the scalar hypervolume indicator value. To define the Hessian matrix, the input set is vectorized, and the matrix is derived by analytical differentiation of the mapping from a vectorized set to the hypervolume indicator. The Hessian matrix plays a crucial role in second-order methods, such as the Newton-Raphson optimization method, and it can be used for the verification of local optimal sets. So far, the full analytical expression was only established and analyzed for the relatively simple bi-objective case. This paper will derive the full expression for arbitrary dimensions ($m\geq2$ objective functions). For the practically important three-dimensional case, we also provide an asymptotically efficient algorithm with time complexity in $O(n\log n)$ for the exact computation of the Hessian Matrix' non-zero entries. We establish a sharp bound of $12m-6$ for the number of non-zero entries. Also, for the general $m$-dimensional case, a compact recursive analytical expression is established, and its algorithmic implementation is discussed. Also, for the general case, some sparsity results can be established; these results are implied by the recursive expression. To validate and illustrate the analytically derived algorithms and results, we provide a few numerical examples using Python and Mathematica implementations. Open-source implementations of the algorithms and testing data are made available as a supplement to this paper. | 翻訳日:2022-11-09 17:13:02 公開日:2022-11-08 |
# 非凸ペアワイズ融合に基づくクラスタ化フェデレーション学習 Clustered Federated Learning based on Nonconvex Pairwise Fusion ( http://arxiv.org/abs/2211.04218v1 ) ライセンス: Link先を確認 | Xue Yu, Ziyi Liu, Yifan Sun and Wu Wang | (参考訳) 本研究では、FLの定式化の1つであるクラスタ化フェデレーション学習(FL)について検討し、デバイスをクラスタに分割し、各クラスタがそのデータを局所化モデルに最適に適合させる。
パラメータのペア差に非凸ペナルティを適用した新しいクラスタリングFLフレームワークを提案する。
このフレームワークは、クラスタの数とクラスタ内のデバイスセットを事前に知ることなく、自動的にクラスタを識別できる。
提案するフレームワークを実装するために,FPFCと呼ばれる新しいクラスタリングFL法を開発した。
本手法は標準ADMMに準じて並列に実装され,各通信ラウンドにおける装置のサブセットのみを更新し,各装置が可変量の作業を行うことを可能にする。
これにより、プライバシーを同時に保ちながら通信コストを大幅に削減する。
また,fl設定下でのハイパーパラメータチューニングのための新しいウォームアップ戦略を提案し,非同期型fpfc (asyncfpfc) を検討する。
理論的には、一般の非凸損失に対するFPFCの収束保証を提供し、二乗損失を持つ線形モデルの下で統計的収束率を確立する。
既存手法よりもFPFCの方が優れていることを示す。 This study investigates clustered federated learning (FL), one of the formulations of FL with non-i.i.d. data, where the devices are partitioned into clusters and each cluster optimally fits its data with a localized model. We propose a novel clustered FL framework, which applies a nonconvex penalty to pairwise differences of parameters. This framework can automatically identify clusters without a priori knowledge of the number of clusters and the set of devices in each cluster. To implement the proposed framework, we develop a novel clustered FL method called FPFC. Advancing from the standard ADMM, our method is implemented in parallel, updates only a subset of devices at each communication round, and allows each participating device to perform a variable amount of work. This greatly reduces the communication cost while simultaneously preserving privacy, making it practical for FL. We also propose a new warmup strategy for hyperparameter tuning under FL settings and consider the asynchronous variant of FPFC (asyncFPFC). Theoretically, we provide convergence guarantees of FPFC for general nonconvex losses and establish the statistical convergence rate under a linear model with squared loss. Our extensive experiments demonstrate the advantages of FPFC over existing methods. | 翻訳日:2022-11-09 17:12:34 公開日:2022-11-08 |
# 物理系熱圏モデルのための低次確率的エミュレーション Reduced Order Probabilistic Emulation for Physics-Based Thermosphere Models ( http://arxiv.org/abs/2211.04392v1 ) ライセンス: Link先を確認 | Richard J. Licata and Piyush M. Mehta | (参考訳) 空間環境は揮発性があり、高い駆動力を持つ。
宇宙の天気は地球の磁気圏に影響を与え、特に中性質量密度の進化に熱圏で動的かつエニグマティックな反応を引き起こす。
多くのモデルは、密度応答を生成するために宇宙気象ドライバを使用するが、これらのモデルは典型的には計算コストがかかるか、特定の宇宙気象条件に不正確である。
本研究の目的は、確率論的機械学習(ML)手法を用いて、物理学に基づく熱圏モデルである熱圏電離圏電気力学一般循環モデル(TIE-GCM)の効率的なサロゲートを作成することである。
本手法は,TIE-GCMとリカレントニューラルネットワークの次元性を低減し,熱圏の動的挙動を数値モデルよりはるかに高速にモデル化するために主成分分析を利用する。
新たに開発されたrope(reduced order probabilistic emulator)は、長期記憶ニューラルネットワークを使用して、削減された状態において時系列予測を行い、将来の密度の分布を提供する。
利用可能なデータ全体で、TIE-GCM ROPEは従来の線形手法と同様の誤差を示しながら、嵐時モデリングを改善する。
また,2003年11月の豪雨に対する衛星伝搬実験を行い,タイ・gcmロープがタイ・gcm密度が5km以上の偏差から生じる位置を捉えられることを示した。
同時に、線形アプローチは、7 - 18 kmの偏りをもたらす点推定を提供する。 The geospace environment is volatile and highly driven. Space weather has effects on Earth's magnetosphere that cause a dynamic and enigmatic response in the thermosphere, particularly on the evolution of neutral mass density. Many models exist that use space weather drivers to produce a density response, but these models are typically computationally expensive or inaccurate for certain space weather conditions. In response, this work aims to employ a probabilistic machine learning (ML) method to create an efficient surrogate for the Thermosphere Ionosphere Electrodynamics General Circulation Model (TIE-GCM), a physics-based thermosphere model. Our method leverages principal component analysis to reduce the dimensionality of TIE-GCM and recurrent neural networks to model the dynamic behavior of the thermosphere much quicker than the numerical model. The newly developed reduced order probabilistic emulator (ROPE) uses Long-Short Term Memory neural networks to perform time-series forecasting in the reduced state and provide distributions for future density. We show that across the available data, TIE-GCM ROPE has similar error to previous linear approaches while improving storm-time modeling. We also conduct a satellite propagation study for the significant November 2003 storm which shows that TIE-GCM ROPE can capture the position resulting from TIE-GCM density with < 5 km bias. Simultaneously, linear approaches provide point estimates that can result in biases of 7 - 18 km. | 翻訳日:2022-11-09 17:12:12 公開日:2022-11-08 |
# 話者ダイアリゼーションのための高分解能埋め込み抽出器 High-resolution embedding extractor for speaker diarisation ( http://arxiv.org/abs/2211.04060v1 ) ライセンス: Link先を確認 | Hee-Soo Heo, Youngki Kwon, Bong-Jin Lee, You Jin Kim, Jee-weon Jung | (参考訳) 話者埋め込み抽出器はクラスタリングに基づく話者ダイアリゼーションシステムの性能に大きく影響する。
従来、各音声セグメントから1つの埋め込みのみを抽出する。
しかし、スライディングウインドウのアプローチにより、セグメンテーションは2つ以上の話者を含むことが容易にできる。
本研究では,各音声セグメントから複数の高分解能埋め込みを抽出する,高分解能埋め込み抽出器(HEE)と呼ばれる新しい埋め込み抽出器アーキテクチャを提案する。
heeは機能マップ抽出器とエンハンサーで構成されており、セルフアテンション機構を備えたエンハンサーが成功の鍵となる。
HEEのエンハンサーは集約プロセスを置き換え、グローバルプール層の代わりに、グローバルコンテキストを活用することで、各フレームに対する相対情報を結合する。
抽出されたフレームレベルの埋め込みは、それぞれ話者を表すことができる。
したがって、複数の話者を各セグメントの異なるフレームレベルの特徴で表現することができる。
また,提案したHEEを学習するための混合データトレーニングフレームワークを提案する。
4つの公開データセットを含む5つの評価セットに関する実験を通じて、提案するheeは1つのデータセットを除いて、各評価セットに対して少なくとも10%の改善を示す。 Speaker embedding extractors significantly influence the performance of clustering-based speaker diarisation systems. Conventionally, only one embedding is extracted from each speech segment. However, because of the sliding window approach, a segment easily includes two or more speakers owing to speaker change points. This study proposes a novel embedding extractor architecture, referred to as a high-resolution embedding extractor (HEE), which extracts multiple high-resolution embeddings from each speech segment. Hee consists of a feature-map extractor and an enhancer, where the enhancer with the self-attention mechanism is the key to success. The enhancer of HEE replaces the aggregation process; instead of a global pooling layer, the enhancer combines relative information to each frame via attention leveraging the global context. Extracted dense frame-level embeddings can each represent a speaker. Thus, multiple speakers can be represented by different frame-level features in each segment. We also propose an artificially generating mixture data training framework to train the proposed HEE. Through experiments on five evaluation sets, including four public datasets, the proposed HEE demonstrates at least 10% improvement on each evaluation set, except for one dataset, which we analyse that rapid speaker changes less exist. | 翻訳日:2022-11-09 17:05:46 公開日:2022-11-08 |
# BER:話者ダイアリゼーションのためのバランスの取れたエラー率 BER: Balanced Error Rate For Speaker Diarization ( http://arxiv.org/abs/2211.04304v1 ) ライセンス: Link先を確認 | Tao Liu and Kai Yu | (参考訳) DERはジレンマに直面しながらダイアリゼーション性能を評価する主要な指標であり、短い発話やセグメントのエラーは長いものによって圧倒される傾向がある。
短いセグメント、例えば `yes' や `no,' は意味的情報を持っている。
さらにderは、話の少ない話者の誤りを見落としている。
jerは話者エラーのバランスを取るが、同じジレンマに苦しんでいる。
完全ダイアリゼーション評価を構成する全ての側面,時間誤差,セグメント誤差,話者重み付け誤差を考慮し,話者ダイアリゼーションを評価するための平衡誤差レート(BER)を提案する。
まず,接続されたサブグラフと適応IoU閾値を用いたセグメントレベルの誤差率(SER)を提案し,精度の高いセグメントマッチングを実現する。
第2に、ダイアリゼーションを統一的に評価するために、持続時間とセグメント間の話者固有の調和平均、次いで話者重み付き平均を採用する。
第3に,モジュール化システム,eend,マルチモーダルメソッドを用いて,実データセット上で測定値を分析する。
SERとBERはhttps://github.com/X-LANCE/BERで公開されている。 DER is the primary metric to evaluate diarization performance while facing a dilemma: the errors in short utterances or segments tend to be overwhelmed by longer ones. Short segments, e.g., `yes' or `no,' still have semantic information. Besides, DER overlooks errors in less-talked speakers. Although JER balances speaker errors, it still suffers from the same dilemma. Considering all those aspects, duration error, segment error, and speaker-weighted error constituting a complete diarization evaluation, we propose a Balanced Error Rate (BER) to evaluate speaker diarization. First, we propose a segment-level error rate (SER) via connected sub-graphs and adaptive IoU threshold to get accurate segment matching. Second, to evaluate diarization in a unified way, we adopt a speaker-specific harmonic mean between duration and segment, followed by a speaker-weighted average. Third, we analyze our metric via the modularized system, EEND, and the multi-modal method on real datasets. SER and BER are publicly available at https://github.com/X-LANCE/BER. | 翻訳日:2022-11-09 17:05:28 公開日:2022-11-08 |
# 低分解能LiDARカメラキャリブレーションの深度補間と教師付きコントラスト学習への応用 Enhanced Low-resolution LiDAR-Camera Calibration Via Depth Interpolation and Supervised Contrastive Learning ( http://arxiv.org/abs/2211.03932v1 ) ライセンス: Link先を確認 | Zhikang Zhang, Zifan Yu, Suya You, Raghuveer Rao, Sanjeev Agarwal, Fengbo Ren | (参考訳) 近年,低分解能LiDARの応用が進み,低分解能LiDARカメラキャリブレーションの問題が注目されている。
主な課題は、点雲のスパーシティとノイズの2つだ。
この問題に対処するために,点密度向上のための奥行き補間と,耐雑音特性学習のための教師付きコントラスト学習を提案する。
RELLIS-3D実験では,32チャンネルのLiDAR点雲データに対して平均絶対回転/変換誤差0.15cm/0.33\textdegreeを達成し,全基準法より大幅に優れていた。 Motivated by the increasing application of low-resolution LiDAR recently, we target the problem of low-resolution LiDAR-camera calibration in this work. The main challenges are two-fold: sparsity and noise in point clouds. To address the problem, we propose to apply depth interpolation to increase the point density and supervised contrastive learning to learn noise-resistant features. The experiments on RELLIS-3D demonstrate that our approach achieves an average mean absolute rotation/translation errors of 0.15cm/0.33\textdegree on 32-channel LiDAR point cloud data, which significantly outperforms all reference methods. | 翻訳日:2022-11-09 17:05:10 公開日:2022-11-08 |
# ParticleNeRF: 動的シーンにおけるオンラインニューラルラジアンスフィールドのためのパーティクルベース符号化 ParticleNeRF: Particle Based Encoding for Online Neural Radiance Fields in Dynamic Scenes ( http://arxiv.org/abs/2211.04041v1 ) ライセンス: Link先を確認 | Jad Abou-Chakra, Feras Dayoub, Niko S\"underhauf | (参考訳) neural radiance fields(nerfs)は、3dシーンの座標ベースの暗黙的な表現であり、画像から環境の表現を学ぶために微分可能なレンダリング手順を使用する。
本稿では,オンライン方式で動的シーンを扱うためにNeRFを拡張した。
粒子ベースのパラメトリック符号化を導入することで、中間のNeRF特徴(現在は宇宙の粒子と結合している)を動的幾何学で移動させることができる。
我々は、NeRFの光度再構成損失を、関連する特徴に加えて粒子の位置にバックプロパゲートする。
位置勾配は粒子速度として解釈され、位置ベースの力学系(PBS)を用いて位置に統合される。
PBS を NeRF の定式化に導入することにより,粒子運動に衝突制約を加えることができ,剛性や変形性のある物体制約などのシステムに他の運動先行を付加する将来の機会が得られる。
特徴を宇宙空間に移動させることで、NeRFを変化シーンに漸進的に適応させることが示される。 Neural Radiance Fields (NeRFs) are coordinate-based implicit representations of 3D scenes that use a differentiable rendering procedure to learn a representation of an environment from images. This paper extends NeRFs to handle dynamic scenes in an online fashion. We do so by introducing a particle-based parametric encoding, which allows the intermediate NeRF features -- now coupled to particles in space -- to be moved with the dynamic geometry. We backpropagate the NeRF's photometric reconstruction loss into the position of the particles in addition to the features they are associated with. The position gradients are interpreted as particle velocities and integrated into positions using a position-based dynamics (PBS) physics system. Introducing PBS into the NeRF formulation allows us to add collision constraints to the particle motion and creates future opportunities to add other movement priors into the system such as rigid and deformable body constraints. We show that by allowing the features to move in space, we incrementally adapt the NeRF to the changing scene. | 翻訳日:2022-11-09 17:04:56 公開日:2022-11-08 |
# GANのアンサンブルは、合成画像を用いたセグメンテーションネットワークのトレーニングにおいて、より良いパフォーマンスをもたらすか? Does an ensemble of GANs lead to better performance when training segmentation networks with synthetic images? ( http://arxiv.org/abs/2211.04086v1 ) ライセンス: Link先を確認 | M{\aa}ns Larsson, Muhammad Usman Akbar, Anders Eklund | (参考訳) セグメントネットワークのトレーニングには大規模なアノテートデータセットが必要である。
医用画像では、このようなデータセットを作成するのに時間がかかり、費用がかかることが多いため、これらのデータセットを他の研究者と共有することは困難である。
異なるaiモデルは、現在非常に現実的な合成画像を生成することができる。
しかし、近年の研究では、ディープネットワークのトレーニングに合成画像を使用すると、実際の画像よりもパフォーマンスが悪くなることが示されている。
ここでは,単一のganから10ganのアンサンブルを用いた合成画像とアノテーションを用いて,実際のテスト画像のサイススコアを4.7 %から14.0 %に増加させることを示す。 Large annotated datasets are required to train segmentation networks. In medical imaging, it is often difficult, time consuming and expensive to create such datasets, and it may also be difficult to share these datasets with other researchers. Different AI models can today generate very realistic synthetic images, which can potentially be openly shared as they do not belong to specific persons. However, recent work has shown that using synthetic images for training deep networks often leads to worse performance compared to using real images. Here we demonstrate that using synthetic images and annotations from an ensemble of 10 GANs, instead of from a single GAN, increases the Dice score on real test images with 4.7 % to 14.0 % on specific classes. | 翻訳日:2022-11-09 17:04:39 公開日:2022-11-08 |
# PDAC患者に対する治療効果予測のためのセグメンテーションラベルと表現学習 Exploiting segmentation labels and representation learning to forecast therapy response of PDAC patients ( http://arxiv.org/abs/2211.04180v1 ) ライセンス: Link先を確認 | Alexander Ziller, Ayhan Can Erdur, Friederike Jungmann, Daniel Rueckert, Rickmer Braren, Georgios Kaissis | (参考訳) 膵管腺癌治療反応の予測は、この高モルティリティ腫瘍における臨床的に困難かつ重要な課題である。
この課題に対処できるニューラルネットワークのトレーニングは、大規模なデータセットの欠如と、膵臓の解剖学的局在の困難さによって妨げられている。
そこで本研究では,固形腫瘍(recist)スコアにおける反応評価基準,臨床医による癌反応評価の標準化方法,腫瘍マーカーを用いた臨床評価に基づく,初期化学療法に対する腫瘍反応予測のためのハイブリッドディープニューラルネットワークパイプラインを提案する。
セグメンテーションから分類への表現伝達と局所化と表現学習の組み合わせを活用する。
提案手法は, 合計477個のデータセットを用いて, ROC-AUC 63.7% の処理応答を予測できる極めて効率的な手法である。 The prediction of pancreatic ductal adenocarcinoma therapy response is a clinically challenging and important task in this high-mortality tumour entity. The training of neural networks able to tackle this challenge is impeded by a lack of large datasets and the difficult anatomical localisation of the pancreas. Here, we propose a hybrid deep neural network pipeline to predict tumour response to initial chemotherapy which is based on the Response Evaluation Criteria in Solid Tumors (RECIST) score, a standardised method for cancer response evaluation by clinicians as well as tumour markers, and clinical evaluation of the patients. We leverage a combination of representation transfer from segmentation to classification, as well as localisation and representation learning. Our approach yields a remarkably data-efficient method able to predict treatment response with a ROC-AUC of 63.7% using only 477 datasets in total. | 翻訳日:2022-11-09 17:04:24 公開日:2022-11-08 |
# 多クラス超音波スキャンによる乳幼児の股関節スクリーニング Infant hip screening using multi-class ultrasound scan segmentation ( http://arxiv.org/abs/2211.04350v1 ) ライセンス: Link先を確認 | Andrew Stamper and Abhinav Singh and James McCouat and Irina Voiculescu | (参考訳) 乳児の股関節の発達性異形成(DDH)は,大腿骨頭が誤って股関節内に位置している状態である。
超音波画像中のキー構造を分割する深層学習アルゴリズムを提案し,これを用いて大腿骨頭蓋被覆率(fhc)を算出し,ddhのスクリーニング診断を行う。
我々の知る限り、DDHスクリーニングのためのFHC計算を自動化する最初の研究である。
我々のアルゴリズムは、テスト画像の89.8%で専門家臨床医と合意し、国際的な最先端技術を上回る。 Developmental dysplasia of the hip (DDH) is a condition in infants where the femoral head is incorrectly located in the hip joint. We propose a deep learning algorithm for segmenting key structures within ultrasound images, employing this to calculate Femoral Head Coverage (FHC) and provide a screening diagnosis for DDH. To our knowledge, this is the first study to automate FHC calculation for DDH screening. Our algorithm outperforms the international state of the art, agreeing with expert clinicians on 89.8% of our test images. | 翻訳日:2022-11-09 17:04:08 公開日:2022-11-08 |
# GENIUS:クラスタリングに基づくグラフニューラルネットワークによるサブチーム置換の新しいソリューション GENIUS: A Novel Solution for Subteam Replacement with Clustering-based Graph Neural Network ( http://arxiv.org/abs/2211.04100v1 ) ライセンス: Link先を確認 | Chuxuan Hu, Qinghai Zhou, Hanghang Tong | (参考訳) サブチーム置換とは、特定の理由(例えば、利害対立、従業員の混乱など)でメンバーの非利用可能なサブセットとして機能できる最適候補セットを見つけることであり、同じタスクに取り組んでいるソーシャルネットワークに埋め込まれた人々のチームである。
この問題に関する以前の調査では、新しい最適化チームと元のチームの類似性を測定するための最適な基準として、グラフカーネルが組み込まれている。
しかし, ますます普及しているソーシャルネットワークは, 1) グラフカーネルベースのアプローチは, ノード特徴間の重要な内在的相関を捉えるのに無力であり, (2) ネットワークが拡大するにつれて, ネットワーク全体を探索するので, ネットワーク全体の効率が極めて悪く, (3) 雇用予算の制限により, 使用不能なサブチームに対する等大置換の要求が適用不能となるなど, 既存の手法の基本的制約を明らかにしている。
本研究では,(1)新しいクラスタリングベースのグラフニューラルネットワーク(GNN)フレームワークであるGENIUSを提案し,(2) 提案したGENIUSに自己監督型正の正の相関性を持つトレーニングスキームを付与し,チームレベルの表現学習の改善と非教師なしノードクラスタによる高速な計算を行う。
提案手法の有効性を実証し,(1)最適化されたチームとオリジナルチームの類似性を著しく向上させる優れた候補メンバーを選択できる,(2)効率性:平均走行時間で600倍以上のスピードアップを達成する,という方法の有効性を実証した。 Subteam replacement is defined as finding the optimal candidate set of people who can best function as an unavailable subset of members (i.e., subteam) for certain reasons (e.g., conflicts of interests, employee churn), given a team of people embedded in a social network working on the same task. Prior investigations on this problem incorporate graph kernel as the optimal criteria for measuring the similarity between the new optimized team and the original team. However, the increasingly abundant social networks reveal fundamental limitations of existing methods, including (1) the graph kernel-based approaches are powerless to capture the key intrinsic correlations among node features, (2) they generally search over the entire network for every member to be replaced, making it extremely inefficient as the network grows, and (3) the requirement of equal-sized replacement for the unavailable subteam can be inapplicable due to limited hiring budget. In this work, we address the limitations in the state-of-the-art for subteam replacement by (1) proposing GENIUS, a novel clustering-based graph neural network (GNN) framework that can capture team network knowledge for flexible subteam replacement, and (2) equipping the proposed GENIUS with self-supervised positive team contrasting training scheme to improve the team-level representation learning and unsupervised node clusters to prune candidates for fast computation. Through extensive empirical evaluations, we demonstrate the efficacy of the proposed method (1) effectiveness: being able to select better candidate members that significantly increase the similarity between the optimized and original teams, and (2) efficiency: achieving more than 600 times speed-up in average running time. | 翻訳日:2022-11-09 17:03:58 公開日:2022-11-08 |
# カリフォルニアにおけるAutoMLベースのAlmond収量予測と予測 AutoML-based Almond Yield Prediction and Projection in California ( http://arxiv.org/abs/2211.03925v1 ) ライセンス: Link先を確認 | Shiheng Duan, Shuaiqi Wu, Erwan Monier, Paul Ullrich | (参考訳) アーモンドはカリフォルニアで最も収益性の高い製品の一つであるが、気候変動に最も敏感な製品でもある。
気候要因とアーモンド収量との関係をよりよく理解するために、自動機械学習フレームワークを使用して機械学習モデルのコレクションを構築する。
予測スキルは歴史記録を用いて評価される。
将来の予測は17のダウンスケールの気候出力を用いて導出される。
アンサンブル平均プロジェクションは、2つの異なる気候シナリオの下でのアーモンドの収率変化と、技術開発の役割を強調する2つの技術開発シナリオを表示する。
平均的な予測と分布は利害関係者に洞察に富んだ結果をもたらし、政策立案者が気候適応のために利用できる。 Almonds are one of the most lucrative products of California, but are also among the most sensitive to climate change. In order to better understand the relationship between climatic factors and almond yield, an automated machine learning framework is used to build a collection of machine learning models. The prediction skill is assessed using historical records. Future projections are derived using 17 downscaled climate outputs. The ensemble mean projection displays almond yield changes under two different climate scenarios, along with two technology development scenarios, where the role of technology development is highlighted. The mean projections and distributions provide insightful results to stakeholders and can be utilized by policymakers for climate adaptation. | 翻訳日:2022-11-09 17:03:04 公開日:2022-11-08 |
# 深部マルチターゲット予測におけるハイパーパラメータ最適化 Hyperparameter optimization in deep multi-target prediction ( http://arxiv.org/abs/2211.04362v1 ) ライセンス: Link先を確認 | Dimitrios Iliadis, Marcel Wever, Bernard De Baets, Willem Waegeman | (参考訳) 機械学習モデルの構成と微調整がますます複雑になっているため、自動化機械学習(automl)の分野は過去10年間に登場してきた。
しかし、Auto-WEKAやAuto-Sklearnのようなソフトウェア実装は通常、分類や回帰といった古典的な機械学習(ML)タスクに重点を置いている。
私たちの研究は、マルチラベル分類、多変量回帰、マルチタスク学習、ダイアディック予測、行列補完、ゼロショット学習といった一般的なML設定を含む、マルチターゲット予測の領域に該当するほとんどの問題設定のための単一のAutoMLフレームワークを提供する最初の試みと見なすことができる。
MTP問題設定のための一般的なディープラーニングフレームワークであるDeepMTPを、人気のあるハイパーパラメータ最適化(HPO)メソッドで拡張することにより、自動問題選択とモデル構成を実現する。
異なるデータセットにわたる広範なベンチマークとMPP問題設定は、特定のHPOメソッドが他よりも優れているケースを特定する。 As a result of the ever increasing complexity of configuring and fine-tuning machine learning models, the field of automated machine learning (AutoML) has emerged over the past decade. However, software implementations like Auto-WEKA and Auto-sklearn typically focus on classical machine learning (ML) tasks such as classification and regression. Our work can be seen as the first attempt at offering a single AutoML framework for most problem settings that fall under the umbrella of multi-target prediction, which includes popular ML settings such as multi-label classification, multivariate regression, multi-task learning, dyadic prediction, matrix completion, and zero-shot learning. Automated problem selection and model configuration are achieved by extending DeepMTP, a general deep learning framework for MTP problem settings, with popular hyperparameter optimization (HPO) methods. Our extensive benchmarking across different datasets and MTP problem settings identifies cases where specific HPO methods outperform others. | 翻訳日:2022-11-09 16:57:20 公開日:2022-11-08 |
# モチーフ誘導型時系列対実説明 Motif-guided Time Series Counterfactual Explanations ( http://arxiv.org/abs/2211.04411v1 ) ライセンス: Link先を確認 | Peiyu Li, Soukaina Filali Boubrahimi, Shah Muhammad Hamd | (参考訳) 解釈可能な機械学習手法の必要性が高まる中、モデル決定に影響を及ぼす要因の多様な説明を提供するために、人間の努力が高まる必要がある。
AIベースのシステムの信頼性と透明性を改善するために、説明可能な人工知能(XAI)分野が出現した。
XAIパラダイムは2つの主要なカテゴリに分かれている。
特徴属性法は、モデル決定の背後にある理由を説明することに基づくが、反実的説明法は、異なる決定をもたらす最小の入力変化を発見する。
本稿では,時系列モデルにおける信頼と透明性の構築を目的として,モチーフを用いて反事実的説明を生成する。
本稿では,意思決定プロセスにおける解釈情報の提供に重要なモチーフをフル活用した,直感的な反事実説明を生成する新しいモデルMG-CFを提案する。
我々の知る限りでは、これは反実的な説明生成を導くモチーフを活用する最初の試みである。
UCRリポジトリから5つの実世界の時系列データセットを用いてモデルを検証した。
実験結果から,mg-cfは,すべての望ましい反事実的説明特性と,他の競合する最先端のベースラインとのバランスにおいて優れていることが示された。 With the rising need of interpretable machine learning methods, there is a necessity for a rise in human effort to provide diverse explanations of the influencing factors of the model decisions. To improve the trust and transparency of AI-based systems, the EXplainable Artificial Intelligence (XAI) field has emerged. The XAI paradigm is bifurcated into two main categories: feature attribution and counterfactual explanation methods. While feature attribution methods are based on explaining the reason behind a model decision, counterfactual explanation methods discover the smallest input changes that will result in a different decision. In this paper, we aim at building trust and transparency in time series models by using motifs to generate counterfactual explanations. We propose Motif-Guided Counterfactual Explanation (MG-CF), a novel model that generates intuitive post-hoc counterfactual explanations that make full use of important motifs to provide interpretive information in decision-making processes. To the best of our knowledge, this is the first effort that leverages motifs to guide the counterfactual explanation generation. We validated our model using five real-world time-series datasets from the UCR repository. Our experimental results show the superiority of MG-CF in balancing all the desirable counterfactual explanations properties in comparison with other competing state-of-the-art baselines. | 翻訳日:2022-11-09 16:57:03 公開日:2022-11-08 |
# 機械学習に基づくデリリウム予測におけるアルゴリズムバイアス Algorithmic Bias in Machine Learning Based Delirium Prediction ( http://arxiv.org/abs/2211.04442v1 ) ライセンス: Link先を確認 | Sandhya Tripathi, Bradley A Fritz, Michael S Avidan, Yixin Chen, and Christopher R King | (参考訳) 一般入院や手術後の一般的な状態であるデリリウムの予測モデルはあまり普及していないが、既存の健康要因とデリリウムリスクの関係からアルゴリズムバイアスの評価が重要である。
本研究では,muse-iiiと他の学術病院データセットを用いて,性や人種といった社会デモグラフィ的特徴がサブグループ全体のモデルパフォーマンスにどのように影響するかを実験的に示す。
本研究の目的は,老齢,人種,社会経済的要因が,mlを用いたデリリウムの早期検出と予防に与える影響について議論することである。 Although prediction models for delirium, a commonly occurring condition during general hospitalization or post-surgery, have not gained huge popularity, their algorithmic bias evaluation is crucial due to the existing association between social determinants of health and delirium risk. In this context, using MIMIC-III and another academic hospital dataset, we present some initial experimental evidence showing how sociodemographic features such as sex and race can impact the model performance across subgroups. With this work, our intent is to initiate a discussion about the intersectionality effects of old age, race and socioeconomic factors on the early-stage detection and prevention of delirium using ML. | 翻訳日:2022-11-09 16:56:45 公開日:2022-11-08 |
# 3相PWM VSRにおける電流センサ故障診断のためのランダムフォレストと電流故障テクスチャ特性に基づく手法 A Random Forest and Current Fault Texture Feature-Based Method for Current Sensor Fault Diagnosis in Three-Phase PWM VSR ( http://arxiv.org/abs/2211.03789v1 ) ライセンス: Link先を確認 | Lei Kou, Xiao-dong Gong, Yi Zheng, Xiu-hui Ni, Yang Li, Quan-de Yuan and Ya-nan Dong | (参考訳) 3相PWM電圧源整流器 (VSR) システムは様々なエネルギー変換システムで広く使われており、現在のセンサが状態監視とシステム制御の鍵となる。
そこで本稿では,三相PWM VSRシステムにおけるセンサ故障診断のためのランダムフォレスト(RF)と電流故障テクスチャ特徴に基づく手法を提案する。
第1に、三相pwmvsrの三相交流電流(acs)を収集して、現在の断層テクスチャ特徴を抽出し、さらに不安定な要因を生じさせないために、追加のハードウェアセンサは不要である。
次に、データ駆動型CSFDD分類器であるランダムフォレスト電流センサ故障検出診断(CSFDD)分類器を訓練するために、電流故障テクスチャ特徴を採用する。
最後に,提案手法の有効性をシミュレーション実験により検証した。
その結果、現在のセンサの故障を検知して位置決めし、保守要員の故障箇所を効果的に提供し、システム全体の安定した動作を維持することが可能となる。 Three-phase PWM voltage-source rectifier (VSR) systems have been widely used in various energy conversion systems, where current sensors are the key component for state monitoring and system control. The current sensor faults may bring hidden danger or damage to the whole system; therefore, this paper proposed a random forest (RF) and current fault texture feature-based method for current sensor fault diagnosis in three-phase PWM VSR systems. First, the three-phase alternating currents (ACs) of the three-phase PWM VSR are collected to extract the current fault texture features, and no additional hardware sensors are needed to avoid causing additional unstable factors. Then, the current fault texture features are adopted to train the random forest current sensor fault detection and diagnosis (CSFDD) classifier, which is a data-driven CSFDD classifier. Finally, the effectiveness of the proposed method is verified by simulation experiments. The result shows that the current sensor faults can be detected and located successfully and that it can effectively provide fault locations for maintenance personnel to keep the stable operation of the whole system. | 翻訳日:2022-11-09 16:56:34 公開日:2022-11-08 |
# キャッシングと再現性: データサイエンス実験の高速化とFAIRer Caching and Reproducibility: Making Data Science experiments faster and FAIRer ( http://arxiv.org/abs/2211.04049v1 ) ライセンス: Link先を確認 | Moritz Schubotz, Ankit Satpute, Andre Greiner-Petter, Akiko Aizawa, Bela Gipp | (参考訳) 小規模から中規模のデータサイエンス実験は、個々の科学者や小さなチームによってアドホックに開発された研究ソフトウェアに依存することが多い。
しばしば、研究ソフトウェアを速く、再利用し、オープンアクセスにする時間はありません。
その結果は2倍になる。
第一に、その後の研究者は提案された仮説や実験的な枠組みに基づいてかなりの時間を費やしなければならない。
最悪の場合、実験を再現し、その結果をその後の研究のために再利用することはできない。
第二に、このアドホックな研究ソフトウェアは、しばしば長期にわたる計算コストの高い実験で失敗すると仮定する。
この場合、ソフトウェアを反復的に改善し、実験を再実行するための全体的な努力は、研究者にかなりの時間的プレッシャーを与えます。
コードの最初の行を書く前にも、キャッシュを研究ソフトウェア開発プロセスの不可欠な部分にすることを提案します。
本稿では,データサイエンスプロジェクトにおける研究ソフトウェア開発のためのキャッシュレコメンデーションについて概説する。
当社の勧告は、合理性依存や速度などの共通問題を回避するための視点を提供する。
同時に、キャッシュはオープンサイエンスのワークフローにおける実験の再現性に寄与する。
ファインダビリティ、アクセシビリティ、インターオペラビリティ、リユースビリティ(FAIR)の4つの原則に関して、研究ソフトウェア開発における提案された推奨を含めると、マシンと人間の両方のソフトウェアFAIRerに関連するデータが得られると予測している。
本稿では,最近完了した研究ソフトウェアプロジェクトにおける数理情報検索における提案提案の有用性を示す。 Small to medium-scale data science experiments often rely on research software developed ad-hoc by individual scientists or small teams. Often there is no time to make the research software fast, reusable, and open access. The consequence is twofold. First, subsequent researchers must spend significant work hours building upon the proposed hypotheses or experimental framework. In the worst case, others cannot reproduce the experiment and reuse the findings for subsequent research. Second, suppose the ad-hoc research software fails during often long-running computationally expensive experiments. In that case, the overall effort to iteratively improve the software and rerun the experiments creates significant time pressure on the researchers. We suggest making caching an integral part of the research software development process, even before the first line of code is written. This article outlines caching recommendations for developing research software in data science projects. Our recommendations provide a perspective to circumvent common problems such as propriety dependence, speed, etc. At the same time, caching contributes to the reproducibility of experiments in the open science workflow. Concerning the four guiding principles, i.e., Findability, Accessibility, Interoperability, and Reusability (FAIR), we foresee that including the proposed recommendation in a research software development will make the data related to that software FAIRer for both machines and humans. We exhibit the usefulness of some of the proposed recommendations on our recently completed research software project in mathematical information retrieval. | 翻訳日:2022-11-09 16:55:34 公開日:2022-11-08 |
# レビュアーレコメンデーションシステムのための投稿認識レビュアープロファイリング Submission-Aware Reviewer Profiling for Reviewer Recommender System ( http://arxiv.org/abs/2211.04194v1 ) ライセンス: Link先を確認 | Omer Anjum, Alok Kamatar, Toby Liang, Jinjun Xiong, Wen-mei Hwu | (参考訳) 学術出版システムの完全性と品質を維持し、著者に貴重なレビューを提供するには、適格で偏りのない、興味のないレビュワーを論文提出者に割り当てることが不可欠である。
しかし、数千の応募と数千の潜在的なレビュアーを限られた時間内に一致させることは、カンファレンスプログラム委員会にとって大きな課題である。
トピックモデリングに基づく先行的な取り組みは、公開または提出の抽象的なトピックを定義するのに役立つ特定のコンテキストを失うことに苦しめられている。
さらに、特定されたトピックの解釈が難しい場合もある。
本稿では,潜在的レビュアーが出版する各要約から,研究対象のトピックと,そのトピックを研究する明示的な文脈を学習する手法を提案する。
さらに,レビュアーマッチングシステムを評価するための新しいデータセットを提案する。
実験の結果,既存の手法と比較して精度が大幅に向上した。
また、なぜ勧告がより説明しやすいのかを示すために例を使っています。
この新しいアプローチは、過去2年でトップレベルのカンファレンスで成功している。 Assigning qualified, unbiased and interested reviewers to paper submissions is vital for maintaining the integrity and quality of the academic publishing system and providing valuable reviews to authors. However, matching thousands of submissions with thousands of potential reviewers within a limited time is a daunting challenge for a conference program committee. Prior efforts based on topic modeling have suffered from losing the specific context that help define the topics in a publication or submission abstract. Moreover, in some cases, topics identified are difficult to interpret. We propose an approach that learns from each abstract published by a potential reviewer the topics studied and the explicit context in which the reviewer studied the topics. Furthermore, we contribute a new dataset for evaluating reviewer matching systems. Our experiments show a significant, consistent improvement in precision when compared with the existing methods. We also use examples to demonstrate why our recommendations are more explainable. The new approach has been deployed successfully at top-tier conferences in the last two years. | 翻訳日:2022-11-09 16:55:11 公開日:2022-11-08 |
# カテゴリー予測器を用いたフレキシブルモデリングのための新しいBART A new BART prior for flexible modeling with categorical predictors ( http://arxiv.org/abs/2211.04459v1 ) ライセンス: Link先を確認 | Sameer K. Deshpande | (参考訳) Bayesian Additive Regression Trees (BART) のデフォルト実装は、複数のバイナリインジケータを使用してカテゴリ予測を表現している。
これらのインジケータで構築された回帰ツリーは、'`remove one as time Strategy'を使ってレベルを分割する。
残念なことに、この戦略では、ほとんどのレベルの分割が構築できないため、BARTのレベルグループ間での‘ボロー強度’の能力は著しく制限されている。
我々は、決定ノードの左右両方の子に複数のレベルを割り当てることができる新しい階層の回帰木と新しい決定規則によって、この制限を克服した。
本研究では,空間的領域を空間的に連続した領域に分割する決定ルールを,ネットワークのランダムな分布木からエッジを削除することによって導入する。
我々は、flexBARTパッケージに新しい回帰ツリーを実装し、既存の実装と比較して、計算負荷を伴わずに、しばしばサンプル外の予測性能を改善する。
野球の例と犯罪の時空間モデルを用いたflexBARTの有効性を実証する。 Default implementations of Bayesian Additive Regression Trees (BART) represent categorical predictors using several binary indicators, one for each level of each categorical predictor. Regression trees built with these indicators partition the levels using a ``remove one a time strategy.'' Unfortunately, the vast majority of partitions of the levels cannot be built with this strategy, severely limiting BART's ability to ``borrow strength'' across groups of levels. We overcome this limitation with a new class of regression tree and a new decision rule prior that can assign multiple levels to both the left and right child of a decision node. Motivated by spatial applications with areal data, we introduce a further decision rule prior that partitions the areas into spatially contiguous regions by deleting edges from random spanning trees of a suitably defined network. We implemented our new regression tree priors in the flexBART package, which, compared to existing implementations, often yields improved out-of-sample predictive performance without much additional computational burden. We demonstrate the efficacy of flexBART using examples from baseball and the spatiotemporal modeling of crime. | 翻訳日:2022-11-09 16:54:27 公開日:2022-11-08 |
# ヒューマンアクティビティ認識のためのマルチモーダルデータの多段階的特徴融合 Multi-Stage Based Feature Fusion of Multi-Modal Data for Human Activity Recognition ( http://arxiv.org/abs/2211.04331v1 ) ライセンス: Link先を確認 | Hyeongju Choi, Apoorva Beedu, Harish Haresamudram, Irfan Essa | (参考訳) 人間を適切に支援するためには、人間の活動認識(HAR)システムは複数のモダリティから情報を融合する能力が必要である。
私たちの仮説は、マルチモーダルセンサ、視覚および非視覚は、他のモダリティの制限に対処して補完的な情報を提供する傾向があるということです。
本研究では,RGBビデオとIMUセンサの機能を効果的に組み合わせたマルチモーダルフレームワークを提案し,MMActとUTD-MHADデータセットの堅牢性を示す。
第1段階では,各入力エンコーダが特徴を効果的に抽出することを学び,第2段階ではこれらの特徴を組み合わせることを学習する。
UTD-MHADデータセットでは22%,IMUでは11%,MMActデータセットでは20%,IMUでは12%の大幅な改善が見られた。
広汎な実験を通して、ゼロショット設定におけるモデルの堅牢性、および注釈付きデータ設定の制限を示す。
さらに,より多くの入力モードを使用する最先端の手法と比較し,より難しいmmactデータセットに比較して,utd-mhadデータセットで比較可能な性能を示す。 To properly assist humans in their needs, human activity recognition (HAR) systems need the ability to fuse information from multiple modalities. Our hypothesis is that multimodal sensors, visual and non-visual tend to provide complementary information, addressing the limitations of other modalities. In this work, we propose a multi-modal framework that learns to effectively combine features from RGB Video and IMU sensors, and show its robustness for MMAct and UTD-MHAD datasets. Our model is trained in two-stage, where in the first stage, each input encoder learns to effectively extract features, and in the second stage, learns to combine these individual features. We show significant improvements of 22% and 11% compared to video only and IMU only setup on UTD-MHAD dataset, and 20% and 12% on MMAct datasets. Through extensive experimentation, we show the robustness of our model on zero shot setting, and limited annotated data setting. We further compare with state-of-the-art methods that use more input modalities and show that our method outperforms significantly on the more difficult MMact dataset, and performs comparably in UTD-MHAD dataset. | 翻訳日:2022-11-09 16:48:17 公開日:2022-11-08 |
# 鳥眼視における物体と領域間の知覚不確かさの校正 Calibrated Perception Uncertainty Across Objects and Regions in Bird's-Eye-View ( http://arxiv.org/abs/2211.04340v1 ) ライセンス: Link先を確認 | Markus K\"angsepp, Meelis Kull | (参考訳) 可視性や閉塞性に乏しい運転シナリオでは、安全速度の選択を含む運転判断を行う際の不確実性をすべて考慮しておくことが重要である。
占有格子のようなグリッドベースの知覚出力と、検出対象のリストのようなオブジェクトベースの出力は、よく校正された不確実性推定を伴わなければならない。
我々は最先端の限界を強調し、特に未検出物体の頭頂確率を含む、報告すべき不確実性の完全なセットを提案する。
本研究では,鳥眼ビューの確率的セマンティックセグメンテーションからこれらの確率的アウトプットを得る新しい方法を提案する。
得られた確率は事前調整されていないことを実証し,十分な不確実性を達成する方法を提案する。 In driving scenarios with poor visibility or occlusions, it is important that the autonomous vehicle would take into account all the uncertainties when making driving decisions, including choice of a safe speed. The grid-based perception outputs, such as occupancy grids, and object-based outputs, such as lists of detected objects, must then be accompanied by well-calibrated uncertainty estimates. We highlight limitations in the state-of-the-art and propose a more complete set of uncertainties to be reported, particularly including undetected-object-ahead probabilities. We suggest a novel way to get these probabilistic outputs from bird's-eye-view probabilistic semantic segmentation, in the example of the FIERY model. We demonstrate that the obtained probabilities are not calibrated out-of-the-box and propose methods to achieve well-calibrated uncertainties. | 翻訳日:2022-11-09 16:47:54 公開日:2022-11-08 |
# 正規化摂動: 実世界の領域シフトに対するシンプルなドメイン一般化法 Normalization Perturbation: A Simple Domain Generalization Method for Real-World Domain Shifts ( http://arxiv.org/abs/2211.04393v1 ) ライセンス: Link先を確認 | Qi Fan, Mattia Segu, Yu-Wing Tai, Fisher Yu, Chi-Keung Tang, Bernt Schiele, Dengxin Dai | (参考訳) ドメインシフトに対するモデルの一般化性の向上は、特に自律運転のような安全クリティカルなアプリケーションにおいて重要である。
実世界のドメインスタイルは環境の変化やセンサノイズによって大きく異なるが、深層モデルはトレーニングドメインスタイルしか知らない。
このようなドメインスタイルのギャップは、様々な実世界のドメインのモデル一般化を妨げる。
提案する正規化摂動(np)は,この問題を効果的に克服することができる。
この問題は主に浅層cnn層で学習された低レベル特徴の偏り分布に起因していると考えられる。
そこで本研究では,学習対象のドメインデータの観測を必要とせずに,訓練対象のドメインを多種多様に認識し,一般化することができるように,ソースドメインの特徴のチャネル統計を摂動させ,様々な潜在スタイルを合成することを提案する。
効果的なスタイル合成のためのスタイルに敏感なチャネルについても検討する。
正規化摂動は単一のソースドメインのみに依存し、驚くほど効果的で実装が容易である。
実世界の領域シフトの下でモデルを一般化するための手法の有効性を検証する。 Improving model's generalizability against domain shifts is crucial, especially for safety-critical applications such as autonomous driving. Real-world domain styles can vary substantially due to environment changes and sensor noises, but deep models only know the training domain style. Such domain style gap impedes model generalization on diverse real-world domains. Our proposed Normalization Perturbation (NP) can effectively overcome this domain style overfitting problem. We observe that this problem is mainly caused by the biased distribution of low-level features learned in shallow CNN layers. Thus, we propose to perturb the channel statistics of source domain features to synthesize various latent styles, so that the trained deep model can perceive diverse potential domains and generalizes well even without observations of target domain data in training. We further explore the style-sensitive channels for effective style synthesis. Normalization Perturbation only relies on a single source domain and is surprisingly effective and extremely easy to implement. Extensive experiments verify the effectiveness of our method for generalizing models under real-world domain shifts. | 翻訳日:2022-11-09 16:47:40 公開日:2022-11-08 |
# COV19IR : 新型コロナウイルスの文献検索 COV19IR : COVID-19 Domain Literature Information Retrieval ( http://arxiv.org/abs/2211.04013v1 ) ライセンス: Link先を確認 | Arusarka Bose (1), Zili Zhou (2), Guandong Xu (3) ((1) Indian Institute of Technology Kharagpur, (2) University of Manchester, (3) University of Technology Sydney) | (参考訳) 新型コロナウイルス研究文献の増加は、効果的な文献スクリーニングと、情報検索を意識したドメイン知識に新たな課題をもたらす。
課題に取り組むために,ソリューション,covid-19文献検索,質問応答という2つの課題を実証する。
新型コロナウイルス(covid-19)の文献検索タスク画面は、新型コロナウイルスに関する特定の質問の答えとして、テキストコーパスから適切なテキスト断片を予測する。
トランスフォーマーニューラルネットワークに基づいて,cord-19データセット上でタスクを実装するためのソリューションを提供し,提案手法の有効性を示すいくつかの例を示す。 Increasing number of COVID-19 research literatures cause new challenges in effective literature screening and COVID-19 domain knowledge aware Information Retrieval. To tackle the challenges, we demonstrate two tasks along withsolutions, COVID-19 literature retrieval, and question answering. COVID-19 literature retrieval task screens matching COVID-19 literature documents for textual user query, and COVID-19 question answering task predicts proper text fragments from text corpus as the answer of specific COVID-19 related questions. Based on transformer neural network, we provided solutions to implement the tasks on CORD-19 dataset, we display some examples to show the effectiveness of our proposed solutions. | 翻訳日:2022-11-09 16:47:25 公開日:2022-11-08 |
# 複雑な財務トピックのためのクエリ特化知識グラフ Query-Specific Knowledge Graphs for Complex Finance Topics ( http://arxiv.org/abs/2211.04142v1 ) ライセンス: Link先を確認 | Iain Mackie and Jeffrey Dalton | (参考訳) 金融分野全体で、研究者は複雑な質問に答え、関連する情報を広範囲に「調査」して長文のレポートを生成する。
本ワークショップでは,複雑な研究トピックを対象としたクエリ固有文書とエンティティ知識グラフの構築について論じる。
ドメインエキスパートが挑戦的な質問を作成,(2)長い自然言語の物語を構築し,(3)文書やエンティティの関連性を反復的に検索し,評価するCODECデータセットに注目した。
問合せ固有のKGの構築において、現状のランキングシステムには、文脈の欠如や明示的な知識表現の欠如により、特定の欠陥のある改善のためのヘッドルームがあることが示される。
エンティティとドキュメントの関連性は正の相関を示し、エンティティベースのクエリフィードバックはドキュメントのランク付け効率を向上させる。
さらに,検索を用いてクエリ固有のKGを構築し,CODECの「地下構造グラフ」を用いてその精度とリコールトレードオフを示す。
最後に,適応型kg検索アルゴリズムやgnnに基づく重み付け手法など,今後の課題を指摘するとともに,質の高いデータや情報抽出リコール,複雑なトピックグラフのサイズとスパース性といった課題を強調する。 Across the financial domain, researchers answer complex questions by extensively "searching" for relevant information to generate long-form reports. This workshop paper discusses automating the construction of query-specific document and entity knowledge graphs (KGs) for complex research topics. We focus on the CODEC dataset, where domain experts (1) create challenging questions, (2) construct long natural language narratives, and (3) iteratively search and assess the relevance of documents and entities. For the construction of query-specific KGs, we show that state-of-the-art ranking systems have headroom for improvement, with specific failings due to a lack of context or explicit knowledge representation. We demonstrate that entity and document relevance are positively correlated, and that entity-based query feedback improves document ranking effectiveness. Furthermore, we construct query-specific KGs using retrieval and evaluate using CODEC's "ground-truth graphs", showing the precision and recall trade-offs. Lastly, we point to future work, including adaptive KG retrieval algorithms and GNN-based weighting methods, while highlighting key challenges such as high-quality data, information extraction recall, and the size and sparsity of complex topic graphs. | 翻訳日:2022-11-09 16:47:14 公開日:2022-11-08 |
# 解釈可能な変化点検出のための時変相関ネットワーク Time-Varying Correlation Networks for Interpretable Change Point Detection ( http://arxiv.org/abs/2211.03991v1 ) ライセンス: Link先を確認 | Kopal Garg and Sana Tonekaboni and Anna Goldenberg | (参考訳) 変化点検出(CPD)法は,時系列データの急激な変化を検出することを目的としている。
近年のCDD法は、基礎となる統計分布の変化を識別する可能性を示しているが、時系列データにおける相関構造の複雑な変化を捉えることができないことが多い。
これらの手法は、同じ時系列内であっても、異なる種類の変化点(CP)が出現し、異なるタイプの時系列摂動によって最も特徴付けられる。
この問題に対処するために,時間変化のグラフィカルなラッソ法を用いて特徴間の相関パターンの変化を時間とともに同定するCDD手法であるTiVaCPDを提案し,その組み合わせとして,動的に確立された時間ウィンドウの統計的分布の微妙な変化を同定するKernel Maximum Mean Discrepancy(MMD)テストを提案する。
時系列における様々なタイプのCPの識別と特徴付けにおけるTiVaCPDの性能評価を行い,提案手法がCPのすべてのカテゴリにおける現在のCPD法より優れていることを示す。 Change point detection (CPD) methods aim to detect abrupt changes in time-series data. Recent CPD methods have demonstrated their potential in identifying changes in underlying statistical distributions but often fail to capture complex changes in the correlation structure in time-series data. These methods also fail to generalize effectively, as even within the same time-series, different kinds of change points (CPs) may arise that are best characterized by different types of time-series perturbations. To address this issue, we propose TiVaCPD, a CPD methodology that uses a time-varying graphical lasso based method to identify changes in correlation patterns between features over time, and combines that with an aggregate Kernel Maximum Mean Discrepancy (MMD) test to identify subtle changes in the underlying statistical distributions of dynamically established time windows. We evaluate the performance of TiVaCPD in identifying and characterizing various types of CPs in time-series and show that our method outperforms current state-of-the-art CPD methods for all categories of CPs. | 翻訳日:2022-11-09 16:46:51 公開日:2022-11-08 |
# Centaur: 制約のあるエッジデバイスのためのフェデレーション学習 Centaur: Federated Learning for Constrained Edge Devices ( http://arxiv.org/abs/2211.04175v1 ) ライセンス: Link先を確認 | Fan Mo, Mohammad Malekzadeh, Soumyajit Chatterjee, Fahim Kawsar, Akhil Mathur | (参考訳) ディープニューラルネットワーク上のフェデレーション学習(fl)は、エッジ、特にウェアラブルおよびiotデバイスで新しいアプリケーションを促進する。
このようなデバイスは、大量の多様なデータをキャプチャするが、メモリ、計算、電力、接続の制約があり、FLへの参加を妨げる。
マルチ層FLフレームワークであるCentaurを提案し,超制約デバイスが大規模ニューラルネットワーク上でFLに効率的に参加できるようにする。
centaurは2つの主要なアイデアを組み合わせる。
(i)学習を加速するサンプルの一部を選択するためのデータ選択方式
(ii)同一ユーザが所有する制約されたデバイスと強力なデバイスの両方を統合するパーティションベースのトレーニングアルゴリズム。
4つのベンチマークニューラルネットと3つのデータセットによる評価では、centaurは平均58%の省エネ率を持つ制約付きデバイスでのローカルトレーニングよりも10%高い精度を得ている。
実験の結果,不均衡なデータ,クライアント参加の不均一性,ネットワーク接続確率などを扱う際のCentaurの効率性も向上した。 Federated learning (FL) on deep neural networks facilitates new applications at the edge, especially for wearable and Internet-of-Thing devices. Such devices capture a large and diverse amount of data, but they have memory, compute, power, and connectivity constraints which hinder their participation in FL. We propose Centaur, a multitier FL framework, enabling ultra-constrained devices to efficiently participate in FL on large neural nets. Centaur combines two major ideas: (i) a data selection scheme to choose a portion of samples that accelerates the learning, and (ii) a partition-based training algorithm that integrates both constrained and powerful devices owned by the same user. Evaluations, on four benchmark neural nets and three datasets, show that Centaur gains ~10% higher accuracy than local training on constrained devices with ~58% energy saving on average. Our experimental results also demonstrate the superior efficiency of Centaur when dealing with imbalanced data, client participation heterogeneity, and various network connection probabilities. | 翻訳日:2022-11-09 16:46:31 公開日:2022-11-08 |
# GOOD-D:unsupervised Graph Out-Of-Distribution Detectionについて GOOD-D: On Unsupervised Graph Out-Of-Distribution Detection ( http://arxiv.org/abs/2211.04208v1 ) ライセンス: Link先を確認 | Yixin Liu, Kaize Ding, Huan Liu, Shirui Pan | (参考訳) 既存のディープラーニングモデルの多くは、テストデータがトレーニングデータと同じ分布から引き出されると仮定されたクローズドワールドの仮定に基づいてトレーニングされる。
しかし、オープンワールドシナリオにモデルがデプロイされる場合、テストサンプルは配布外(OOD)になり得るため、慎重に扱う必要がある。
未知分布から引き出されたOODサンプルを検出するため,最近,OOD検出に注目が集まっている。
しかし、現在の取り組みは主にグリッド構造データに焦点を当てており、グラフ構造データへの応用は未検討のままである。
本研究は,グラフ上のデータラベリングが時間的・労働集約的であることを考慮し,ラベル付きIDデータのみに基づいてOODグラフを検出することを目的とした,教師なしグラフOOD検出の問題について検討する。
この目的を達成するために,OODグラフを検出する新しいグラフコントラスト学習フレームワークGOOD-Dを開発した。
摂動自由グラフデータ拡張法により生成された拡張グラフに対して階層的コントラスト学習を行うことにより、GOOD-Dは潜在IDパターンを捕捉し、異なる粒度の意味的不整合(ノードレベル、グラフレベル、グループレベル)に基づいてOODグラフを正確に検出することができる。
教師なしグラフレベルood検出の先駆的研究として,提案手法と最先端手法を比較した総合ベンチマークを構築した。
実験結果は,様々なデータセット上の異なる手法に対するアプローチの優位性を示す。 Most existing deep learning models are trained based on the closed-world assumption, where the test data is assumed to be drawn i.i.d. from the same distribution as the training data, known as in-distribution (ID). However, when models are deployed in an open-world scenario, test samples can be out-of-distribution (OOD) and therefore should be handled with caution. To detect such OOD samples drawn from unknown distribution, OOD detection has received increasing attention lately. However, current endeavors mostly focus on grid-structured data and its application for graph-structured data remains under-explored. Considering the fact that data labeling on graphs is commonly time-expensive and labor-intensive, in this work we study the problem of unsupervised graph OOD detection, aiming at detecting OOD graphs solely based on unlabeled ID data. To achieve this goal, we develop a new graph contrastive learning framework GOOD-D for detecting OOD graphs without using any ground-truth labels. By performing hierarchical contrastive learning on the augmented graphs generated by our perturbation-free graph data augmentation method, GOOD-D is able to capture the latent ID patterns and accurately detect OOD graphs based on the semantic inconsistency in different granularities (i.e., node-level, graph-level, and group-level). As a pioneering work in unsupervised graph-level OOD detection, we build a comprehensive benchmark to compare our proposed approach with different state-of-the-art methods. The experiment results demonstrate the superiority of our approach over different methods on various datasets. | 翻訳日:2022-11-09 16:46:14 公開日:2022-11-08 |
# エッジコンピューティングのためのオンラインシーケンス学習を用いた効率的な圧縮比推定 Efficient Compressed Ratio Estimation using Online Sequential Learning for Edge Computing ( http://arxiv.org/abs/2211.04284v1 ) ライセンス: Link先を確認 | Hiroki Oikawa, Hangli Ge, Noboru Koshizuka | (参考訳) モノのインターネットの普及により、大量のセンサー情報がリアルタイムで取得されている。
これにより、エッジデバイスからのデータの通信コストが増加する。
エッジデバイスで使用可能なデータ圧縮方式である圧縮センシング(cs)は,通信コストを低減する手段として注目を集めている。
csでは,適切な圧縮率の推定が重要である。
強化学習を用いて取得したデータの圧縮比を適応的に推定する手法がある。
しかし、エッジ上で利用できる既存の強化学習手法に関連する計算コストは高くつく。
本研究では,ac-oselm(actor-critic online sequential extreme learning machine)と呼ばれるエッジデバイスに対する効率的な強化学習法と,ac-oselmを用いてエッジ上の適切な圧縮率を推定して圧縮するシステムを開発した。
エッジデバイスに対する他の強化学習法と比較することにより,圧縮率の推定における提案手法の性能を評価する。
実験の結果,AC-OSELMは従来の方法よりも圧縮性能が良く,圧縮比が速いことがわかった。 Owing to the widespread adoption of the Internet of Things, a vast amount of sensor information is being acquired in real time. Accordingly, the communication cost of data from edge devices is increasing. Compressed sensing (CS), a data compression method that can be used on edge devices, has been attracting attention as a method to reduce communication costs. In CS, estimating the appropriate compression ratio is important. There is a method to adaptively estimate the compression ratio for the acquired data using reinforcement learning. However, the computational costs associated with existing reinforcement learning methods that can be utilized on edges are expensive. In this study, we developed an efficient reinforcement learning method for edge devices, referred to as the actor--critic online sequential extreme learning machine (AC-OSELM), and a system to compress data by estimating an appropriate compression ratio on the edge using AC-OSELM. The performance of the proposed method in estimating the compression ratio is evaluated by comparing it with other reinforcement learning methods for edge devices. The experimental results show that AC-OSELM achieved the same or better compression performance and faster compression ratio estimation than the existing methods. | 翻訳日:2022-11-09 16:45:44 公開日:2022-11-08 |
# $BT^2$: バス変換による後方互換トレーニング $BT^2$: Backward-compatible Training with Basis Transformation ( http://arxiv.org/abs/2211.03989v1 ) ライセンス: Link先を確認 | Yifei Zhou, Zilu Li, Abhinav Shrivastava, Hengshuang Zhao, Antonio Torralba, Taipeng Tian, Ser-Nam Lim | (参考訳) 現代の検索システムは、より優れた表現モデルに更新する際に、ギャラリー内のすべてのデータの表現を再計算する必要がある。
このプロセスはバックフィル(backfilling)と呼ばれ、ギャラリーが何十億ものサンプルを含む実世界では特にコストがかかる。
近年、研究者は、新しい表現モデルを補助損失で訓練し、古い表現と後方互換性を持たせるための後方互換性トレーニング(bct)のアイデアを提案している。
このように、新しい表現は、原則としてバックフィルの必要性を避けるために、古い表現と直接比較することができる。
しかし、後続の作業は、後方互換性のある表現モデルが新しいモデル自体のパフォーマンスを同時に維持できない固有のトレードオフが存在することを示している。
この記事では、表現に余分な次元を加えることが、ここで役立つことを発見したことを報告します。
しかし, 比例的に表現の次元を増大させることはうまくいかなかった。
そこで本研究では,新しいBasis Transformation(BT^2$)による後方互換性トレーニングを提案する。
基底変換 (BT) は基本的に正則変換を適用するパラメータの学習可能な集合である。
このような変換は、その入力に含まれる元の情報がその出力に保持される重要な特性を持つ。
本稿では,bt を付加次元の必要量のみを付加する方法について述べる。
我々は、さまざまな設定で、他の最先端メソッドに対して$BT^2$の利点を実証的に検証する。
さらに$BT^2$を、モデルアーキテクチャ(CNNからトランスフォーマーへ)の大幅な変更、モダリティの変更、さらにはディープラーニングモデルの進化を模倣したモデルアーキテクチャの一連の更新など、より困難な、より実用的な設定に拡張します。 Modern retrieval system often requires recomputing the representation of every piece of data in the gallery when updating to a better representation model. This process is known as backfilling and can be especially costly in the real world where the gallery often contains billions of samples. Recently, researchers have proposed the idea of Backward Compatible Training (BCT) where the new representation model can be trained with an auxiliary loss to make it backward compatible with the old representation. In this way, the new representation can be directly compared with the old representation, in principle avoiding the need for any backfilling. However, followup work shows that there is an inherent tradeoff where a backward compatible representation model cannot simultaneously maintain the performance of the new model itself. This paper reports our ``not-so-surprising'' finding that adding extra dimensions to the representation can help here. However, we also found that naively increasing the dimension of the representation did not work. To deal with this, we propose Backward-compatible Training with a novel Basis Transformation ($BT^2$). A basis transformation (BT) is basically a learnable set of parameters that applies an orthonormal transformation. Such a transformation possesses an important property whereby the original information contained in its input is retained in its output. We show in this paper how a BT can be utilized to add only the necessary amount of additional dimensions. We empirically verify the advantage of $BT^2$ over other state-of-the-art methods in a wide range of settings. We then further extend $BT^2$ to other challenging yet more practical settings, including significant change in model architecture (CNN to Transformers), modality change, and even a series of updates in the model architecture mimicking the evolution of deep learning models. | 翻訳日:2022-11-09 16:39:19 公開日:2022-11-08 |
# DNNフィルタによる分布分配型スキャンマッチングのバイアス低減 DNN Filter for Bias Reduction in Distribution-to-Distribution Scan Matching ( http://arxiv.org/abs/2211.04047v1 ) ライセンス: Link先を確認 | Matthew McDermott and Jason Rife | (参考訳) 通常の分散変換(NDT)のようなD2Dポイントのクラウド登録技術は、構造化されていないシーンからサンプリングされた点雲を整列させ、自身のソリューションエラーの共分散(covariance)の正確なバウンダリを提供する。
D2D法は静的なシーンの仮定に依存するため、記録装置がフレーム間を移動するときに、レンジシェード、自己閉塞、移動物体、歪みアーティファクトからバイアスを受けやすい。
深層学習に基づくアプローチは、これらの制約を緩和することで動的シーンの精度を高めることができるが、DNNは、安全性の観点から問題となるような非賞賛のソリューションを生成する。
本稿では,静的シーンの仮定に反するボクセルを排除し,D2Dスキャンマッチングプロセスに誤差を導入するために,LIDAR点雲をダウンサンプリングする方法を提案する。
提案手法はソリューション整合性フィルタを用いて,D2DコントリビューションがPointNetベースの登録ネットワークからのローカル推定値と一致しないようなボクセルの識別とフラグ付けを行う。 Distribution-to-distribution (D2D) point cloud registration techniques such as the Normal Distributions Transform (NDT) can align point clouds sampled from unstructured scenes and provide accurate bounds of their own solution error covariance-- an important feature for safety-of life navigation tasks. D2D methods rely on the assumption of a static scene and are therefore susceptible to bias from range-shadowing, self-occlusion, moving objects, and distortion artifacts as the recording device moves between frames. Deep Learning-based approaches can achieve higher accuracy in dynamic scenes by relaxing these constraints, however, DNNs produce uninterpratable solutions which can be problematic from a safety perspective. In this paper, we propose a method of down-sampling LIDAR point clouds to exclude voxels that violate the assumption of a static scene and introduce error to the D2D scan matching process. Our approach uses a solution consistency filter, identifying and flagging voxels where D2D contributions disagree with local estimates from a PointNet-based registration network. | 翻訳日:2022-11-09 16:38:51 公開日:2022-11-08 |
# ポイントクラウドからの障害物情報抽出によるアクセス可能な歩道幅の決定 Determining Accessible Sidewalk Width by Extracting Obstacle Information from Point Clouds ( http://arxiv.org/abs/2211.04108v1 ) ライセンス: Link先を確認 | Cl\'audia Fonseca Pinh\~ao, Chris Eijgenstein, Iva Gornishka, Shayla Jansen, Diederik M. Roijers, Daan Bloembergen | (参考訳) 歩道の障害物はしばしば経路を遮断し、通路を制限し、特に補助装置(ホイールチェア、ウォーカー、ベビーカー、杖など)を使用する市民や訪問者にとって、フラストレーションと無駄な時間をもたらす。
市の平等な参加と利用を可能にするために、全ての市民は同様の時間と労力で日々の活動を実行し、完了することができるべきである。
そこで,我々は,歩道のアクセシビリティ情報の提供を目標とし,市民の経路計画の改善と,市当局によるボトルネックの特定と行動支援を図っている。
本稿では,アムステルダム市の3次元点雲データに基づいて,障害物のない歩道幅を推定する新しいパイプラインを提案する。 Obstacles on the sidewalk often block the path, limiting passage and resulting in frustration and wasted time, especially for citizens and visitors who use assistive devices (wheelchairs, walkers, strollers, canes, etc). To enable equal participation and use of the city, all citizens should be able to perform and complete their daily activities in a similar amount of time and effort. Therefore, we aim to offer accessibility information regarding sidewalks, so that citizens can better plan their routes, and to help city officials identify the location of bottlenecks and act on them. In this paper we propose a novel pipeline to estimate obstacle-free sidewalk widths based on 3D point cloud data of the city of Amsterdam, as the first step to offer a more complete set of information regarding sidewalk accessibility. | 翻訳日:2022-11-09 16:38:31 公開日:2022-11-08 |
# 道路安全評価と交通シーン分類のための動的損失分散と逐次強化 Dynamic loss balancing and sequential enhancement for road-safety assessment and traffic scene classification ( http://arxiv.org/abs/2211.04165v1 ) ライセンス: Link先を確認 | Marin Ka\v{c}an, Marko \v{S}evrovi\'c, Sini\v{s}a \v{S}egvi\'c | (参考訳) 道路安全検査は、道路インフラに寄与する道路事故死者を減らすために必要な手段である。
最近の研究は、道路安全属性としても知られる、慎重に選択されたリスク要因の観点から、道路安全評価を形式化している。
現在、これらの属性は道路区間ごとに地理的参照単眼映像に手動で注釈付けされている。
2段階のニューラルアーキテクチャによる認識を自動化することで、退屈な人間の労働への依存を減らすことを提案する。
第1段階は、局所的な時空間を観察することにより、40以上の道路安全属性を予測する。
本設計では,ストリートシーンのセマンティックセグメンテーションを事前学習することで,効率的な畳み込みパイプラインを利用する。
第2段階は、より大きな時間的ウィンドウ間のシーケンシャルな統合を通じて予測を強化する。
本設計では,軽量な双方向LSTMアーキテクチャの属性単位のインスタンスを利用する。
どちらの段階も、リコールベースの動的損失重み付けのマルチタスク変種を組み込むことで、極端なクラス不均衡を軽減する。
我々はボスニア・ヘルツェゴビナの2,300kmの公道に沿って、完全にラベル付けされたジオレファレンスビデオを含むiRAP-BHデータセットで実験を行った。
また,本多シーンとFM3mの2つの道路シーン分類データセットについて,本多シーンとFM3mとの比較を行った。
実験により,3つのデータセットに対するコントリビューションの価値を確認した。 Road-safety inspection is an indispensable instrument for reducing road-accident fatalities contributed to road infrastructure. Recent work formalizes road-safety assessment in terms of carefully selected risk factors that are also known as road-safety attributes. In current practice, these attributes are manually annotated in geo-referenced monocular video for each road segment. We propose to reduce dependency on tedious human labor by automating recognition with a two-stage neural architecture. The first stage predicts more than forty road-safety attributes by observing a local spatio-temporal context. Our design leverages an efficient convolutional pipeline, which benefits from pre-training on semantic segmentation of street scenes. The second stage enhances predictions through sequential integration across a larger temporal window. Our design leverages per-attribute instances of a lightweight bidirectional LSTM architecture. Both stages alleviate extreme class imbalance by incorporating a multi-task variant of recall-based dynamic loss weighting. We perform experiments on the iRAP-BH dataset, which involves fully labeled geo-referenced video along 2,300 km of public roads in Bosnia and Herzegovina. We also validate our approach by comparing it with the related work on two road-scene classification datasets from the literature: Honda Scenes and FM3m. Experimental evaluation confirms the value of our contributions on all three datasets. | 翻訳日:2022-11-09 16:38:16 公開日:2022-11-08 |
# depthformer : トランスフォーマリンセグメンテーションネットワークにおけるマルチモーダル位置符号化とクロス入力注意 DepthFormer: Multimodal Positional Encodings and Cross-Input Attention for Transformer-Based Segmentation Networks ( http://arxiv.org/abs/2211.04188v1 ) ライセンス: Link先を確認 | Francesco Barbato, Giulia Rizzoli, Pietro Zanuttigh | (参考訳) セマンティックセグメンテーションのアプローチのほとんどは、シーンを解析するためにカラーカメラの情報のみを使用するが、最近の進歩は、深度データを使用することによってパフォーマンスがさらに向上することを示している。
本研究では,このセグメンテーションタスクにおける最先端性能を実現したトランスフォーマーに基づくディープラーニングアーキテクチャに着目し,位置エンコーディングに組み込んで深度情報を活用することを提案する。
効率的にネットワークをマルチモーダルデータに拡張し,パラメータを付加することなく,トランスフォーマーの自己アテンションモジュールの強みを生かした自然な手法で拡張する。
また,アテンションモジュール内でクロスモダリティ操作を行い,奥行きとカラーブランチ間のキー入力を交換する考え方についても検討した。
私たちのアプローチは、Cityscapesベンチマークのパフォーマンスを継続的に改善します。 Most approaches for semantic segmentation use only information from color cameras to parse the scenes, yet recent advancements show that using depth data allows to further improve performances. In this work, we focus on transformer-based deep learning architectures, that have achieved state-of-the-art performances on the segmentation task, and we propose to employ depth information by embedding it in the positional encoding. Effectively, we extend the network to multimodal data without adding any parameters and in a natural way that makes use of the strength of transformers' self-attention modules. We also investigate the idea of performing cross-modality operations inside the attention module, swapping the key inputs between the depth and color branches. Our approach consistently improves performances on the Cityscapes benchmark. | 翻訳日:2022-11-09 16:37:59 公開日:2022-11-08 |
# rrsr:プログレッシブ特徴のアライメントと選択を伴う相互参照に基づく画像超解像 RRSR:Reciprocal Reference-based Image Super-Resolution with Progressive Feature Alignment and Selection ( http://arxiv.org/abs/2211.04203v1 ) ライセンス: Link先を確認 | Lin Zhang, Xin Li, Dongliang He, Fu Li, Yili Wang, Zhaoxiang Zhang | (参考訳) 参照ベース画像超解像(RefSR)は有望なSR分岐であり、単一画像超解像の限界を克服する大きな可能性を示している。
従来のrefsr手法では,参照特徴転送の有効性とロバスト性の改善が主であるが,sr画像の再構成が容易であれば,類似したlr画像に対するsr再構成性が向上すると考えられる。
そこで本研究では,RefSRネットワークの学習を強化するために,このような事実を適切に活用できる相互学習フレームワークを提案する。
さらに,refsrタスクをさらに改善するために,プログレッシブ機能アライメントと選択モジュールを意図的に設計する。
提案モジュールは,マルチスケールの特徴空間に参照入力画像をアライメントし,プログレッシブな方法で参照認識特徴選択を行うので,より正確な参照特徴を入力特徴に伝達し,ネットワーク能力を向上させる。
我々の相互学習パラダイムはモデルに依存しず、任意のRefSRモデルに適用できる。
最近の最先端refsrモデルが相互学習パラダイムによって一貫して改善できることを実証的に示す。
さらに,提案モデルと相反学習戦略は,複数のベンチマークで新たな最先端性能を設定する。 Reference-based image super-resolution (RefSR) is a promising SR branch and has shown great potential in overcoming the limitations of single image super-resolution. While previous state-of-the-art RefSR methods mainly focus on improving the efficacy and robustness of reference feature transfer, it is generally overlooked that a well reconstructed SR image should enable better SR reconstruction for its similar LR images when it is referred to as. Therefore, in this work, we propose a reciprocal learning framework that can appropriately leverage such a fact to reinforce the learning of a RefSR network. Besides, we deliberately design a progressive feature alignment and selection module for further improving the RefSR task. The newly proposed module aligns reference-input images at multi-scale feature spaces and performs reference-aware feature selection in a progressive manner, thus more precise reference features can be transferred into the input features and the network capability is enhanced. Our reciprocal learning paradigm is model-agnostic and it can be applied to arbitrary RefSR models. We empirically show that multiple recent state-of-the-art RefSR models can be consistently improved with our reciprocal learning paradigm. Furthermore, our proposed model together with the reciprocal learning strategy sets new state-of-the-art performances on multiple benchmarks. | 翻訳日:2022-11-09 16:37:43 公開日:2022-11-08 |
# 非負行列因子化による封じ込め画像の復元 Containminated Images Recovery by Implementing Non-negative Matrix Factorisation ( http://arxiv.org/abs/2211.04247v1 ) ライセンス: Link先を確認 | Pengwei Yang, Angel Teng and Jack Mangos | (参考訳) 非負行列分解(NMF)は、画像の劣化したデータの問題に対処するために広く用いられている。
標準NMFアルゴリズムは、データ行列と分解近似の間のユークリッド距離を最小化する。
この手法は、各データポイントの2乗誤差を用いるため、良い結果を示したが、標準NMFアルゴリズムは外れ値に敏感である。
本稿では,標準NMF,HCNMF,L2,1-NMFアルゴリズムのロバスト性を理論的に解析し,実データ,すなわちORLと拡張YaleBのロバスト性を示す実験セットを実装した。
我々の研究は、各アルゴリズムが収束するために異なる量の反復が必要であることを示した。
これらのアルゴリズムの計算複雑性が高いことから、HCNMFやL2,1-NMFモデルのような最終モデルは、本論文の反復パラメータにうまく収束しない。
それでも実験結果は、前述のアルゴリズムのロバスト性をある程度証明している。 Non-negative matrix factorisation (NMF) has been widely used to address the problem of corrupted data in images. The standard NMF algorithm minimises the Euclidean distance between the data matrix and the factorised approximation. Although this method has demonstrated good results, because it employs the squared error of each data point, the standard NMF algorithm is sensitive to outliers. In this paper, we theoretically analyse the robustness of the standard NMF, HCNMF and L2,1-NMF algorithms, and implement sets of experiments to show the robustness on real datasets, namely ORL and Extended YaleB. Our work demonstrates that different amounts of iterations are required for each algorithm to converge. Given the high computational complexity of these algorithms, our final models such as HCNMF and L2,1-NMF model do not successfully converge within the iteration parameters of this paper. Nevertheless, the experimental results still demonstrate the robustness of the aforementioned algorithms to some extent. | 翻訳日:2022-11-09 16:37:20 公開日:2022-11-08 |
# リアルタイムビオレンス検出のための2ストリーム多次元畳み込みネットワーク Two-stream Multi-dimensional Convolutional Network for Real-time Violence Detection ( http://arxiv.org/abs/2211.04255v1 ) ライセンス: Link先を確認 | Dipon Kumar Ghosh and Amitabha Chakrabarty | (参考訳) 監視カメラの数が増え、セキュリティ上の懸念が高まり、監視映像からの暴力行為の自動検出が研究の活発な領域となった。
現代のディープラーニング手法は暴力検出において高い精度を達成しており、インテリジェントな監視システムに適用可能であることが証明されている。
しかしながら、これらのモデルは計算量的に高価であり、特徴抽出の非効率な方法のため大きさも大きい。
本研究は,rgbフレームとオプティカルフローを用いて暴力を検出する2ストリーム多次元畳み込みネットワーク (2s-mdcn) と呼ばれる暴力検出のための新しいアーキテクチャを提案する。
提案手法は,1次元,2次元,3次元の畳み込みによって時間・空間情報を独立に抽出する。
多次元畳み込みネットワークが組み合わさっているにもかかわらず、我々のモデルはチャネル容量の削減により軽量で効率的であるが、意味のある空間的および時間的情報を抽出することを学ぶ。
さらに、RGBフレームと光フローを組み合わせることで、単一のRGBストリームよりも2.2%精度が向上する。
複雑さが低いにもかかわらず、我々のモデルは最大の暴力検出ベンチマークデータセットで89.7%の最先端の精度を得た。 The increasing number of surveillance cameras and security concerns have made automatic violent activity detection from surveillance footage an active area for research. Modern deep learning methods have achieved good accuracy in violence detection and proved to be successful because of their applicability in intelligent surveillance systems. However, the models are computationally expensive and large in size because of their inefficient methods for feature extraction. This work presents a novel architecture for violence detection called Two-stream Multi-dimensional Convolutional Network (2s-MDCN), which uses RGB frames and optical flow to detect violence. Our proposed method extracts temporal and spatial information independently by 1D, 2D, and 3D convolutions. Despite combining multi-dimensional convolutional networks, our models are lightweight and efficient due to reduced channel capacity, yet they learn to extract meaningful spatial and temporal information. Additionally, combining RGB frames and optical flow yields 2.2% more accuracy than a single RGB stream. Regardless of having less complexity, our models obtained state-of-the-art accuracy of 89.7% on the largest violence detection benchmark dataset. | 翻訳日:2022-11-09 16:37:04 公開日:2022-11-08 |
# 医用画像における近道検出 -胸部x線撮影例- Detecting Shortcuts in Medical Images - A Case Study in Chest X-rays ( http://arxiv.org/abs/2211.04279v1 ) ライセンス: Link先を確認 | Amelia Jim\'enez-S\'anchez, Dovile Juodelye, Bethany Chamberlain, Veronika Cheplygina | (参考訳) 大規模な公開データセットの可用性と計算能力の増大により、医療コミュニティの関心は高性能なアルゴリズムへとシフトした。
しかし、データの品質とアノテーションにはほとんど注意が払われていない。
ベンチマークデータセットのハイパフォーマンスは、データ内のショートカットやアーティファクトを考慮せずに報告することができる。
本研究は,ショートカット問題に対する意識を高めることを目的としている。
過去の知見を検証し,2つの公開データセットを用いて胸部X線検査を行った。
気胸画像のサブセットに対するアノテーションをドレインで共有する。
医用画像分類の一般的な推奨事項をまとめる。 The availability of large public datasets and the increased amount of computing power have shifted the interest of the medical community to high-performance algorithms. However, little attention is paid to the quality of the data and their annotations. High performance on benchmark datasets may be reported without considering possible shortcuts or artifacts in the data, besides, models are not tested on subpopulation groups. With this work, we aim to raise awareness about shortcuts problems. We validate previous findings, and present a case study on chest X-rays using two publicly available datasets. We share annotations for a subset of pneumothorax images with drains. We conclude with general recommendations for medical image classification. | 翻訳日:2022-11-09 16:36:47 公開日:2022-11-08 |
# 合成開口センシング用マルチスペクトル画像における色異常検出の評価 Evaluation of Color Anomaly Detection in Multispectral Images For Synthetic Aperture Sensing ( http://arxiv.org/abs/2211.04293v1 ) ライセンス: Link先を確認 | Francis Seits, Indrajit Kurmi and Oliver Bimber | (参考訳) 本稿では,AOS (Airborne Optical Sectioning) と呼ばれる波長非依存の合成開口センシング技術を用いて得られたマルチスペクトル画像の教師なし異常検出手法を評価する。
密林内の行方不明者や負傷者をドローンで特定し、リアルタイム操作を必要とする捜索救助任務に焦点をあてて、これらの手法のランタイムと品質を評価した。
さらに,視覚範囲で通常動作する色異常検出手法は,遠赤外線(熱的)チャンネルを付加することで常に有用であることを示す。
また、追加の熱帯域がなくても、視覚範囲における色空間の選択が検出結果に影響を与えていることも示している。
HSVやHLSのような色空間は、特に森林のような環境に色異常検出を用いる場合、広く使われているRGB色空間を上回る可能性がある。 In this article, we evaluate unsupervised anomaly detection methods in multispectral images obtained with a wavelength-independent synthetic aperture sensing technique, called Airborne Optical Sectioning (AOS). With a focus on search and rescue missions that apply drones to locate missing or injured persons in dense forest and require real-time operation, we evaluate runtime vs. quality of these methods. Furthermore, we show that color anomaly detection methods that normally operate in the visual range always benefit from an additional far infrared (thermal) channel. We also show that, even without additional thermal bands, the choice of color space in the visual range already has an impact on the detection results. Color spaces like HSV and HLS have the potential to outperform the widely used RGB color space, especially when color anomaly detection is used for forest-like environments. | 翻訳日:2022-11-09 16:36:37 公開日:2022-11-08 |
# シミュレーションに基づく並列トレーニング Simulation-Based Parallel Training ( http://arxiv.org/abs/2211.04119v1 ) ライセンス: Link先を確認 | Lucas Meyer (SINCLAIR AI Lab, EDF R\&D, DATAMOVE ), Alejandro Rib\'es (EDF R\&D, SINCLAIR AI Lab), Bruno Raffin (DATAMOVE ) | (参考訳) 数値シミュレーションは科学と工学においてユビキタスである。
機械学習 for scienceは、これらのシミュレーションから人工神経アーキテクチャをどのように学習し、科学的発見とエンジニアリングプロセスをスピードアップするかを研究する。
これらのアーキテクチャのほとんどは、教師付きでトレーニングされています。
生成が遅く、メモリが欲しがるシミュレーションから、膨大な量のデータが必要です。
本稿では,これらのボトルネックを緩和するトレーニングフレームワークの設計に向けて,現在進行中の作業について述べる。
トレーニングプロセスと並行してデータを生成する。
このような同時性は、トレーニング中に利用可能なデータのバイアスを引き起こす。
我々は,このバイアスをメモリバッファで軽減する戦略を提案する。
我々はマルチパラメトリックなlorenz's attractor上でフレームワークをテストする。
オフライントレーニングと比較して,我々のフレームワークのメリットと,システムの複雑なカオスダイナミクスを捉えるためのデータバイアス緩和戦略の成功を示す。 Numerical simulations are ubiquitous in science and engineering. Machine learning for science investigates how artificial neural architectures can learn from these simulations to speed up scientific discovery and engineering processes. Most of these architectures are trained in a supervised manner. They require tremendous amounts of data from simulations that are slow to generate and memory greedy. In this article, we present our ongoing work to design a training framework that alleviates those bottlenecks. It generates data in parallel with the training process. Such simultaneity induces a bias in the data available during the training. We present a strategy to mitigate this bias with a memory buffer. We test our framework on the multi-parametric Lorenz's attractor. We show the benefit of our framework compared to offline training and the success of our data bias mitigation strategy to capture the complex chaotic dynamics of the system. | 翻訳日:2022-11-09 16:30:03 公開日:2022-11-08 |
# Harmonized System Code の修正にテキストを割り当てる Ensemble ベースのアプローチ An Ensemble-based approach for assigning text to correct Harmonized system code ( http://arxiv.org/abs/2211.04313v1 ) ライセンス: Link先を確認 | Shubham, Avinash Arya, Subarna Roy, Sridhar Jonnala | (参考訳) 産業は、国際出荷の義務や税金を評価する際に、世界中の政府の規則や規制に従って製品を分類しなければならない。
ハーモン化システム(harmonized system, hs)は、産業分類システムの中で最も標準化された商品の分類方法である。
Bert-transformer, NER, 距離ベースアプローチ, 知識グラフからなる階層型アンサンブルモデルは, 未知のテキスト記述をHS法で分類する際に, スケーラビリティ, カバレッジ, ニュアンスを捕捉する能力, 自動化, 監査要求に対処するために開発された。 Industries must follow government rules and regulations around the world to classify products when assessing duties and taxes for international shipment. Harmonized System (HS) is the most standardized numerical method of classifying traded products among industry classification systems. A hierarchical ensemble model comprising of Bert- transformer, NER, distance-based approaches, and knowledge-graphs have been developed to address scalability, coverage, ability to capture nuances, automation and auditing requirements when classifying unknown text-descriptions as per HS method. | 翻訳日:2022-11-09 16:29:52 公開日:2022-11-08 |
# ShaSTA:3次元多物体追跡のための形状と時空間親和性モデリング ShaSTA: Modeling Shape and Spatio-Temporal Affinities for 3D Multi-Object Tracking ( http://arxiv.org/abs/2211.03919v1 ) ライセンス: Link先を確認 | Tara Sadjadpour, Jie Li, Rares Ambrus, and Jeannette Bohg | (参考訳) マルチオブジェクトトラッキングは、あらゆるロボットシステムの基盤となる能力である。
ほとんどのアプローチはトラッキングバイ検出パラダイムに従っている。
しかし、この枠組みでは、検出器は低い精度で高いリコールレジームで機能し、偽陰性率を低く抑えつつ、偽陽性率を高くする。
これは、データアソシエーションとライフサイクル管理をより難しくすることで、トラッキングコンポーネントに悪影響を及ぼす可能性がある。
さらに、閉塞のような難しいシナリオによる偽陰性検出は、トラッキングパフォーマンスに悪影響を及ぼす可能性がある。
そこで本研究では,偽陰性検出を補正しながら,連続フレーム間の形状と時空間親和性を学習し,真陽性検出と偽陽性検出とを区別する手法を提案する。
本手法はロバストなデータアソシエーションと追跡ライフサイクル管理につながる検出の確率的マッチングを提供する。
本手法をアブレーション実験やnuscenes tracking benchmarkを用いて定量的に評価し,最新の結果を得た。
提案手法は,精度の高い高品質トラックを推定するだけでなく,偽陽性トラックと偽陰性トラックの総数を減少させる。
site.google.com/view/shasta-3d-mot/home.comのソースコードとデモビデオのプロジェクトwebサイトをご覧ください。 Multi-object tracking is a cornerstone capability of any robotic system. Most approaches follow a tracking-by-detection paradigm. However, within this framework, detectors function in a low precision-high recall regime, ensuring a low number of false-negatives while producing a high rate of false-positives. This can negatively affect the tracking component by making data association and track lifecycle management more challenging. Additionally, false-negative detections due to difficult scenarios like occlusions can negatively affect tracking performance. Thus, we propose a method that learns shape and spatio-temporal affinities between consecutive frames to better distinguish between true-positive and false-positive detections and tracks, while compensating for false-negative detections. Our method provides a probabilistic matching of detections that leads to robust data association and track lifecycle management. We quantitatively evaluate our method through ablative experiments and on the nuScenes tracking benchmark where we achieve state-of-the-art results. Our method not only estimates accurate, high-quality tracks but also decreases the overall number of false-positive and false-negative tracks. Please see our project website for source code and demo videos: sites.google.com/view/shasta-3d-mot/home. | 翻訳日:2022-11-09 16:28:36 公開日:2022-11-08 |
# 集積回路画像分割における誤りの自動検出:データ駆動アプローチ Automatic Error Detection in Integrated Circuits Image Segmentation: A Data-driven Approach ( http://arxiv.org/abs/2211.03927v1 ) ライセンス: Link先を確認 | Zhikang Zhang, Bruno Machado Trindade, Michael Green, Zifan Yu, Christopher Pawlowicz, Fengbo Ren | (参考訳) 現在の集積回路(IC)の複雑なナノスケール構造とICイメージセグメンテーションタスクの低エラー耐性のため、既存のICイメージセグメンテーションのアプローチでは、大規模な産業アプリケーションにおいて大きなボトルネックとなっている正確性を保証するために、人間の視覚的検査を必要とする。
本稿では,2種類のicセグメンテーションエラーを対象とする,最初のデータ駆動型自動エラー検出手法を提案する。
実業界から収集したIC画像データセットにおいて,既存のCNNによる画像分類と画像翻訳のアプローチを,追加の事前処理と後処理技術で適用することにより,ワイヤエラー検出で0.92/0.93,エラー検出で0.96/0.90のリコール/精度が得られることを示した。 Due to the complicated nanoscale structures of current integrated circuits(IC) builds and low error tolerance of IC image segmentation tasks, most existing automated IC image segmentation approaches require human experts for visual inspection to ensure correctness, which is one of the major bottlenecks in large-scale industrial applications. In this paper, we present the first data-driven automatic error detection approach targeting two types of IC segmentation errors: wire errors and via errors. On an IC image dataset collected from real industry, we demonstrate that, by adapting existing CNN-based approaches of image classification and image translation with additional pre-processing and post-processing techniques, we are able to achieve recall/precision of 0.92/0.93 in wire error detection and 0.96/0.90 in via error detection, respectively. | 翻訳日:2022-11-09 16:28:14 公開日:2022-11-08 |
# 編集可能な室内照明推定 Editable indoor lighting estimation ( http://arxiv.org/abs/2211.03928v1 ) ライセンス: Link先を確認 | Henrique Weber, Mathieu Garon, Jean-Fran\c{c}ois Lalonde | (参考訳) 本稿では,室内シーンの単一視点画像から照明を推定する方法を提案する。
従来の室内照明の予測方法は、リアリズムを欠いた単純なパラメトリック照明や、予測後の理解や修正が難しい、あるいは不可能なリッチな表現に重点を置いていた。
本研究では,編集が容易なパラメトリック光を推定し,強いシャドウを持つレンダリングを可能にするパイプラインと,鏡面オブジェクトの現実的なレンダリングに必要な高周波情報を備えた非パラメトリックテクスチャを提案する。
モデルを用いて得られた予測は解釈可能であり,マウスクリック数回でアーティスト/ユーザによって容易に修正できる。
定量的,定性的な結果から,室内照明推定はカジュアルな利用者にとって容易でありながら,競争力のある結果が得られている。 We present a method for estimating lighting from a single perspective image of an indoor scene. Previous methods for predicting indoor illumination usually focus on either simple, parametric lighting that lack realism, or on richer representations that are difficult or even impossible to understand or modify after prediction. We propose a pipeline that estimates a parametric light that is easy to edit and allows renderings with strong shadows, alongside with a non-parametric texture with high-frequency information necessary for realistic rendering of specular objects. Once estimated, the predictions obtained with our model are interpretable and can easily be modified by an artist/user with a few mouse clicks. Quantitative and qualitative results show that our approach makes indoor lighting estimation easier to handle by a casual user, while still producing competitive results. | 翻訳日:2022-11-09 16:27:57 公開日:2022-11-08 |
# 知識蒸留における混合の役割の理解--実証的研究 Understanding the Role of Mixup in Knowledge Distillation: \\An Empirical Study ( http://arxiv.org/abs/2211.03946v1 ) ライセンス: Link先を確認 | Hongjun Choi, Eun Som Jeon, Ankita Shukla, Pavan Turaga | (参考訳) Mixupは、トレーニングされたモデルの一般化と堅牢性を改善するために、2つのデータサンプル間の線形補間によって新しいサンプルを作成することに基づく、一般的なデータ拡張技術である。
一方、知識蒸留(KD)は、より大きなネットワークの暗黙の知識を用いてより小さなネットワークの学習を導くモデル圧縮と伝達学習に広く用いられている。
一見すると、これらの2つのテクニックは大きく異なるように思えるが、`smoothness' は2つのリンクであり、kd と mixup の相互作用を理解する上でも重要な属性である。
多くの混合変種や蒸留法が提案されているが、知識蒸留における混合変種の役割については多くは理解されていない。
本稿では,ミキシングと知識蒸留の相溶性に関する様々な重要な側面について,実験的に考察する。
また,画像分類に関する広範な解析,可視化,総合的な実験を通じて,知識蒸留の観点で混合学習したネットワークの挙動を検証した。
最後に,本研究の成果に基づいて,学生ネットワークの有効性を高めるための改善戦略を提案する。
さらに,本研究の知見は,kdの手法を一般的に使用する研究者や実践者に対して,洞察に富んだ提案を与えるものである。
私たちのコードはhttps://github.com/hchoi71/mix-kdで利用可能です。 Mixup is a popular data augmentation technique based on creating new samples by linear interpolation between two given data samples, to improve both the generalization and robustness of the trained model. Knowledge distillation (KD), on the other hand, is widely used for model compression and transfer learning, which involves using a larger network's implicit knowledge to guide the learning of a smaller network. At first glance, these two techniques seem very different, however, we found that ``smoothness" is the connecting link between the two and is also a crucial attribute in understanding KD's interplay with mixup. Although many mixup variants and distillation methods have been proposed, much remains to be understood regarding the role of a mixup in knowledge distillation. In this paper, we present a detailed empirical study on various important dimensions of compatibility between mixup and knowledge distillation. We also scrutinize the behavior of the networks trained with a mixup in the light of knowledge distillation through extensive analysis, visualizations, and comprehensive experiments on image classification. Finally, based on our findings, we suggest improved strategies to guide the student network to enhance its effectiveness. Additionally, the findings of this study provide insightful suggestions to researchers and practitioners that commonly use techniques from KD. Our code is available at https://github.com/hchoi71/MIX-KD. | 翻訳日:2022-11-09 16:27:41 公開日:2022-11-08 |
# Natural Adversaries: 自然主義の敵は人工の敵と同じくらい効果的か? NaturalAdversaries: Can Naturalistic Adversaries Be as Effective as Artificial Adversaries? ( http://arxiv.org/abs/2211.04364v1 ) ライセンス: Link先を確認 | Saadia Gabriel, Hamid Palangi, Yejin Choi | (参考訳) 先行研究のかなりの部分は、自然言語理解タスクの逆例生成を探索してきたが、これらの例はしばしば非現実的で、実世界のデータ分布から分岐している。
本研究では,与えられた分類器を騙すのに効果的である敵を設計するための2段階の逆例生成フレームワーク(Natural Adversaries)を導入し,モデル内展開時に起こりうる自然な障害事例を示す。
最初の段階では、入力中のキートークンの関数として与えられた分類器の振る舞いを要約するためにトークン属性法が使用される。
第2段階では、生成モデルが第1ステージからのキートークンで条件付けされる。
NaturalAdversariesは、モデルパラメータへのアクセスレベルに基づいて、ブラックボックスとホワイトボックスの両方の攻撃に適応できる。
以上の結果から,これらの敵はドメイン全体にわたって一般化し,今後のニューラルネットワーク分類モデルの堅牢性向上に向けた知見を提供する。 While a substantial body of prior work has explored adversarial example generation for natural language understanding tasks, these examples are often unrealistic and diverge from the real-world data distributions. In this work, we introduce a two-stage adversarial example generation framework (NaturalAdversaries), for designing adversaries that are effective at fooling a given classifier and demonstrate natural-looking failure cases that could plausibly occur during in-the-wild deployment of the models. At the first stage a token attribution method is used to summarize a given classifier's behaviour as a function of the key tokens in the input. In the second stage a generative model is conditioned on the key tokens from the first stage. NaturalAdversaries is adaptable to both black-box and white-box adversarial attacks based on the level of access to the model parameters. Our results indicate these adversaries generalize across domains, and offer insights for future research on improving robustness of neural text classification models. | 翻訳日:2022-11-09 16:21:57 公開日:2022-11-08 |
# nbiig:テーブルレポートのためのニューラルネットワークbi insights生成システム nBIIG: A Neural BI Insights Generation System for Table Reporting ( http://arxiv.org/abs/2211.04417v1 ) ライセンス: Link先を確認 | Yotam Perlitz, Dafna Sheinwald, Noam Slonim, Michal Shmueli-Scheuer | (参考訳) ニューラルビジネスインテリジェンス(bi)インサイト生成システムであるnbiigを提案する。
テーブルが与えられたとき、システムは対応するrdf表現を作成するために様々な分析を適用し、神経モデルを使用してこれらの表現から流麗なテキスト的洞察を生成する。
生成された洞察は、アナリストによって、ヒューマン・イン・ザ・ループのパラダイムを通じて、魅力的なテーブルレポートを作成するタスクを強化するために使用できる。
基礎となる生成神経モデルは、複数のbiドメインからキュレートされた大規模かつ注意深く蒸留されたデータに基づいて訓練される。
これにより、システムはオープンドメインのテーブル上で忠実で流動的な洞察を生成でき、実用的かつ有用である。 We present nBIIG, a neural Business Intelligence (BI) Insights Generation system. Given a table, our system applies various analyses to create corresponding RDF representations, and then uses a neural model to generate fluent textual insights out of these representations. The generated insights can be used by an analyst, via a human-in-the-loop paradigm, to enhance the task of creating compelling table reports. The underlying generative neural model is trained over large and carefully distilled data, curated from multiple BI domains. Thus, the system can generate faithful and fluent insights over open-domain tables, making it practical and useful. | 翻訳日:2022-11-09 16:21:29 公開日:2022-11-08 |
# テキスト分類のための双曲型セントロイド計算 Hyperbolic Centroid Calculations for Text Classification ( http://arxiv.org/abs/2211.04462v1 ) ライセンス: Link先を確認 | Ayd{\i}n Gerek, C\"uneyt Ferahlar, Bilge \c{S}ipal Sert, Mehmet Can Y\"uney, Onur Ta\c{s}demir, Zeynep Billur Kalafat, Mert Kelkit, Murat Can Ganiz | (参考訳) NLPの新しい発展は、双曲型単語埋め込みの構築である。
ユークリッド空間とは対照的に、双曲埋め込みはベクトルではなく双曲空間の点によって表現される。
これは、文書表現、すなわち単語ベクトルの平均化を構築するための最も一般的な基本的なスキームである。
ベクトル平均をベクトルで表される点のセントロイドとして再解釈し,様々な双曲型セントロイドスキームとテキスト分類の有効性について検討した。 A new development in NLP is the construction of hyperbolic word embeddings. As opposed to their Euclidean counterparts, hyperbolic embeddings are represented not by vectors, but by points in hyperbolic space. This makes the most common basic scheme for constructing document representations, namely the averaging of word vectors, meaningless in the hyperbolic setting. We reinterpret the vector mean as the centroid of the points represented by the vectors, and investigate various hyperbolic centroid schemes and their effectiveness at text classification. | 翻訳日:2022-11-09 16:21:09 公開日:2022-11-08 |
# テンソルデータ表現のためのロバストマニフォールド非負タッカー因子化 Robust Manifold Nonnegative Tucker Factorization for Tensor Data Representation ( http://arxiv.org/abs/2211.03934v1 ) ライセンス: Link先を確認 | Jianyu Wang, Linruize Tang, Jie Chen, Jingdong Chen | (参考訳) 非負のタッカー因子化 (NTF) はユークリッド距離やクルバック・リーブラーの原データと低ランク近似との分岐を最小化し、これはしばしば大雑把な汚職や外れ値に悩まされ、データの多様体構造を無視する。
特に、NTFは回転のあいまいさに悩まされており、回転変換と非回転変換の解は、極大極大を得られるという意味で等しく等しい。
本稿では,外れ値に関する構造的知識を取り入れることで外れ値を扱うための3つの頑健な多様体ntfアルゴリズムを提案する。
まず、半量子最適化アルゴリズムを適用して問題を一般重み付きntfに変換し、重み付けは外れ値に影響される。
次に, 重みに対するコレントロピー誘導計量, フーバー関数, コーシー関数をそれぞれ導入し, 外れ値を扱う。
最後に、NTFの回転あいまいさを克服する多様体正規化を導入する。
提案手法を,さまざまな実世界の画像データベース上でNTFの主要なブランチをカバーする代表的参照と比較した。
実験結果は,2つの評価指標(精度とnmi)に基づく提案手法の有効性を示す。 Nonnegative Tucker Factorization (NTF) minimizes the euclidean distance or Kullback-Leibler divergence between the original data and its low-rank approximation which often suffers from grossly corruptions or outliers and the neglect of manifold structures of data. In particular, NTF suffers from rotational ambiguity, whose solutions with and without rotation transformations are equally in the sense of yielding the maximum likelihood. In this paper, we propose three Robust Manifold NTF algorithms to handle outliers by incorporating structural knowledge about the outliers. They first applies a half-quadratic optimization algorithm to transform the problem into a general weighted NTF where the weights are influenced by the outliers. Then, we introduce the correntropy induced metric, Huber function and Cauchy function for weights respectively, to handle the outliers. Finally, we introduce a manifold regularization to overcome the rotational ambiguity of NTF. We have compared the proposed method with a number of representative references covering major branches of NTF on a variety of real-world image databases. Experimental results illustrate the effectiveness of the proposed method under two evaluation metrics (accuracy and nmi). | 翻訳日:2022-11-09 16:20:05 公開日:2022-11-08 |
# darpa big mechanismプログラムにおけるmitre評価に関する最終報告 Final Report on MITRE Evaluations for the DARPA Big Mechanism Program ( http://arxiv.org/abs/2211.03943v1 ) ライセンス: Link先を確認 | Matthew Peterson, Tonia Korves, Christopher Garay, Robyn Kozierok and Lynette Hirschman | (参考訳) 本報告では,研究論文を読み,その情報をがん機構のコンピュータモデルに統合し,新たな仮説を立案するコンピュータシステムの開発を目的としたDARPA Big Mechanismプログラムのための評価手法を提案する。
プログラムの3段階の評価には反復的かつ漸進的なアプローチを採用しました。
第1フェーズでは,システムと人間チームが生体医学文献から機械的情報を収集し,専門家が収集した生体データベースの情報と統合する能力を評価した。
第2相では,情報の断片を機械モデルに組み立てるシステムの能力を評価した。
第III相評価は、ビッグ・メカニズム・プロセスによって組み立てられたモデル(大まかに自動)に基づく実験観測の解説を提供するシステムの能力に焦点を当てた。
以前の評価に基づいて構築された各フェーズの評価は、新しいフェーズの機能を開発するための開発者を導いた。
本報告では,ゴールド標準の欠如による機械的発見を抽出する際のシステムの精度を評価するための基準セット(各論文の主要な発見に限定したキュレートされたデータセット)などの革新や,実験データのモデルに基づく説明を評価する手法について述べる。
評価及び支持材料の結果は虫垂に含まれる。 This report presents the evaluation approach developed for the DARPA Big Mechanism program, which aimed at developing computer systems that will read research papers, integrate the information into a computer model of cancer mechanisms, and frame new hypotheses. We employed an iterative, incremental approach to the evaluation of the three phases of the program. In Phase I, we evaluated the ability of system and human teams ability to read-with-a-model to capture mechanistic information from the biomedical literature, integrated with information from expert curated biological databases. In Phase II we evaluated the ability of systems to assemble fragments of information into a mechanistic model. The Phase III evaluation focused on the ability of systems to provide explanations of experimental observations based on models assembled (largely automatically) by the Big Mechanism process. The evaluation for each phase built on earlier evaluations and guided developers towards creating capabilities for the new phase. The report describes our approach, including innovations such as a reference set (a curated data set limited to major findings of each paper) to assess the accuracy of systems in extracting mechanistic findings in the absence of a gold standard, and a method to evaluate model-based explanations of experimental data. Results of the evaluation and supporting materials are included in the appendices. | 翻訳日:2022-11-09 16:19:45 公開日:2022-11-08 |
# 3次コントラスト学習によるオープン知識グラフの空間性軽減 Alleviating Sparsity of Open Knowledge Graphs with Ternary Contrastive Learning ( http://arxiv.org/abs/2211.03950v1 ) ライセンス: Link先を確認 | Qian Li, Shafiq Joty, Daling Wang, Shi Feng and Yifei Zhang | (参考訳) 形式知識のスパース性と非オントロジー構成の粗さは、オープン知識グラフ(openkgs)において特にスパース性問題を顕著にする。
スパースリンクのため、少数のエンティティに対する効果的な表現の学習は困難になる。
否定的なサンプルを導入することで、このようなシナリオにおいてコントラスト学習(cl)の定式化が有益であると仮定する。
しかし、既存のCLメソッドは、関係誘導三元伝播パターンを無視したエンティティのバイナリオブジェクトとしてKG三重項をモデル化し、それらはあまりにも汎用的である。
そこで本研究では,頭,関係,尾の3次伝播パターンに基づくCLフレームワークであるTernaryCLを提案する。
TernaryCLは、負のエンティティとリレーションの両方で三項識別機能に反するエンティティとContrastive Relationを導入し、ゼロと少ショットのエンティティが差別的特徴を学ぶのを助けるためにContrastive Selfを導入し、同義エンティティをモデル化するためのContrastive Synonymと、複数のパスからグラフ特徴を集約するContrastive Fusionを設計している。
ベンチマークに関する大規模な実験は、最先端モデルよりもTernaryCLの方が優れていることを示した。 Sparsity of formal knowledge and roughness of non-ontological construction make sparsity problem particularly prominent in Open Knowledge Graphs (OpenKGs). Due to sparse links, learning effective representation for few-shot entities becomes difficult. We hypothesize that by introducing negative samples, a contrastive learning (CL) formulation could be beneficial in such scenarios. However, existing CL methods model KG triplets as binary objects of entities ignoring the relation-guided ternary propagation patterns and they are too generic, i.e., they ignore zero-shot, few-shot and synonymity problems that appear in OpenKGs. To address this, we propose TernaryCL, a CL framework based on ternary propagation patterns among head, relation and tail. TernaryCL designs Contrastive Entity and Contrastive Relation to mine ternary discriminative features with both negative entities and relations, introduces Contrastive Self to help zero- and few-shot entities learn discriminative features, Contrastive Synonym to model synonymous entities, and Contrastive Fusion to aggregate graph features from multiple paths. Extensive experiments on benchmarks demonstrate the superiority of TernaryCL over state-of-the-art models. | 翻訳日:2022-11-09 16:19:24 公開日:2022-11-08 |
# SOTIFエントロピー:オンラインSOTIFのリスク定量化と自律運転の軽減 SOTIF Entropy: Online SOTIF Risk Quantification and Mitigation for Autonomous Driving ( http://arxiv.org/abs/2211.04009v1 ) ライセンス: Link先を確認 | Liang Peng, Boqi Li, Wenhao Yu, Kai Yang, Wenbo Shao, and Hong Wang | (参考訳) 自律運転は複雑な交通シナリオにおいて大きな課題に直面しており、SOTIF(Intended Functionality)の安全性のリスクは、動的運用環境とシステム障害によって引き起こされる。
sotifリスクは、自動運転車(avs)外の物体との衝突リスクに直観的に反映されるだけでなく、実装されたアルゴリズム自体の性能制限リスクにも反映される。
自動運転におけるSOTIFのリスクを最小限にする方法は、現在、重要で困難で未解決の課題である。
そこで本稿では,本邦及び外部リスクの監視,定量化,緩和のための体系的ソリューションを提供することを目的として,sofifリスクをオンラインに最小化するための体系的アプローチとして「自己サーベイランスと自己適応システム」を提案する。
このシステムの中核は、AV内に実装された人工知能アルゴリズムのリスクモニタリングである。
自己監視・自己適応システムの実証として、認識アルゴリズムのリスク監視、すなわち、YOLOv5が強調される。
さらに、固有の認識アルゴリズムリスクと外部衝突リスクは、SOTIFエントロピーを介して共同で定量化され、意思決定モジュールに下流に伝播され、緩和される。
最後に,いくつかの難解なシナリオを実証し,ハードウェア・イン・ザ・ループ実験を行い,システムの効率と有効性を検証する。
その結果,自己監視・自己適応システムは,リアルタイム交通環境におけるSOTIFリスクの信頼性の高いモニタリング,定量化,緩和を可能にすることを示した。 Autonomous driving confronts great challenges in complex traffic scenarios, where the risk of Safety of the Intended Functionality (SOTIF) can be triggered by the dynamic operational environment and system insufficiencies. The SOTIF risk is reflected not only intuitively in the collision risk with objects outside the autonomous vehicles (AVs), but also inherently in the performance limitation risk of the implemented algorithms themselves. How to minimize the SOTIF risk for autonomous driving is currently a critical, difficult, and unresolved issue. Therefore, this paper proposes the "Self-Surveillance and Self-Adaption System" as a systematic approach to online minimize the SOTIF risk, which aims to provide a systematic solution for monitoring, quantification, and mitigation of inherent and external risks. The core of this system is the risk monitoring of the implemented artificial intelligence algorithms within the AV. As a demonstration of the Self-Surveillance and Self-Adaption System, the risk monitoring of the perception algorithm, i.e., YOLOv5 is highlighted. Moreover, the inherent perception algorithm risk and external collision risk are jointly quantified via SOTIF entropy, which is then propagated downstream to the decision-making module and mitigated. Finally, several challenging scenarios are demonstrated, and the Hardware-in-the-Loop experiments are conducted to verify the efficiency and effectiveness of the system. The results demonstrate that the Self-Surveillance and Self-Adaption System enables dependable online monitoring, quantification, and mitigation of SOTIF risk in real-time critical traffic environments. | 翻訳日:2022-11-09 16:19:00 公開日:2022-11-08 |
# ASR誤りのある会話対話におけるロバストな非構造的知識アクセス Robust Unstructured Knowledge Access in Conversational Dialogue with ASR Errors ( http://arxiv.org/abs/2211.03990v1 ) ライセンス: Link先を確認 | Yik-Cheung Tam, Jiacheng Xu, Jiakai Zou, Zecheng Wang, Tinglong Liao, Shuhan Yuan | (参考訳) 音声言語理解(SLU)の性能は自動音声認識(ASR)エラーで劣化させることができる。
ASRエラーシミュレータを用いてクリーンなトレーニングテキストをランダムに破壊し、エラーを自己修正し、目標分類損失を最小化することにより、SLUのロバスト性を改善する新しい手法を提案する。
提案するエラーシミュレータでは,ASRデコーダから生成した混乱ネットワークを人間の書き起こしなしで利用し,モデルトレーニングのための様々なエラーパターンを生成する。
我々は,知識に基づくタスク指向会話とASRエラーの対話を目的としたDSTC10課題に対するアプローチを評価する。
実験の結果,提案手法の有効性が示され,ktd f1 は 0.9433 から 0.9904 に有意に向上した。
Recall@1では、知識クラスタの分類が0.7924から0.9333に向上している。
知識ドキュメントの再評価の結果,Recall@1では0.7358から0.7806,Recall@5では0.8301から0.9333,テストセットでは0.7798から0.8460まで,すべての知識選択指標が大幅に改善された。
近年のDSTC10評価では,リコール@1を0.495から0.7144に引き上げ,知識選択の大幅な改善が示されている。
ソースコードはgithub https://github.com/yctam/dstc10_track2_task2.gitで公開しています。 Performance of spoken language understanding (SLU) can be degraded with automatic speech recognition (ASR) errors. We propose a novel approach to improve SLU robustness by randomly corrupting clean training text with an ASR error simulator, followed by self-correcting the errors and minimizing the target classification loss in a joint manner. In the proposed error simulator, we leverage confusion networks generated from an ASR decoder without human transcriptions to generate a variety of error patterns for model training. We evaluate our approach on the DSTC10 challenge targeted for knowledge-grounded task-oriented conversational dialogues with ASR errors. Experimental results show the effectiveness of our proposed approach, boosting the knowledge-seeking turn detection (KTD) F1 significantly from 0.9433 to 0.9904. Knowledge cluster classification is boosted from 0.7924 to 0.9333 in Recall@1. After knowledge document re-ranking, our approach shows significant improvement in all knowledge selection metrics, from 0.7358 to 0.7806 in Recall@1, from 0.8301 to 0.9333 in Recall@5, and from 0.7798 to 0.8460 in MRR@5 on the test set. In the recent DSTC10 evaluation, our approach demonstrates significant improvement in knowledge selection, boosting Recall@1 from 0.495 to 0.7144 compared to the official baseline. Our source code is released in GitHub https://github.com/yctam/dstc10_track2_task2.git. | 翻訳日:2022-11-09 16:12:36 公開日:2022-11-08 |
# 必要な知識は何か?
kNN-MTドメイン適応のための説明可能なメモリを目指して What Knowledge Is Needed? Towards Explainable Memory for kNN-MT Domain Adaptation ( http://arxiv.org/abs/2211.04052v1 ) ライセンス: Link先を確認 | Wenhao Zhu, Shujian Huang, Yunzhe Lv, Xin Zheng, Jiajun Chen | (参考訳) knn-mtは、外部データストアを構築することによって、ドメイン適応のための新しいパラダイムを提示している。
その結果、構築されたデータストアは通常大きく、おそらく冗長である。
本稿では,NMTモデルに必要な知識について,本手法の解釈可能性問題について検討する。
局所的正しさ (lac) の概念を新しい角度として提案し, 1 つの入力とある近傍に対する潜在的な翻訳正しさを記述する。
実験により,NMTモデルが容易に失敗し,関連する知識を必要とする状況が明らかとなった。
6つの異なるターゲットドメインと2つの言語ペアの実験により、局所的正当性に応じたプルーニングはkNN-MTドメイン適応のための軽量で説明可能なメモリをもたらすことが示された。 kNN-MT presents a new paradigm for domain adaptation by building an external datastore, which usually saves all target language token occurrences in the parallel corpus. As a result, the constructed datastore is usually large and possibly redundant. In this paper, we investigate the interpretability issue of this approach: what knowledge does the NMT model need? We propose the notion of local correctness (LAC) as a new angle, which describes the potential translation correctness for a single entry and for a given neighborhood. Empirical study shows that our investigation successfully finds the conditions where the NMT model could easily fail and need related knowledge. Experiments on six diverse target domains and two language-pairs show that pruning according to local correctness brings a light and more explainable memory for kNN-MT domain adaptation. | 翻訳日:2022-11-09 16:12:06 公開日:2022-11-08 |
# COPEN:事前訓練された言語モデルにおける概念的知識の探索 COPEN: Probing Conceptual Knowledge in Pre-trained Language Models ( http://arxiv.org/abs/2211.04079v1 ) ライセンス: Link先を確認 | Hao Peng, Xiaozhi Wang, Shengding Hu, Hailong Jin, Lei Hou, Juanzi Li, Zhiyuan Liu, Qun Liu | (参考訳) 概念知識は人間の認知と知識基盤の基本である。
しかし、既存の知識探索は、事前学習言語モデル(plm)の事実知識の評価と概念知識の無視にのみ焦点が当てられている。
概念知識はしばしばテキストの背後にある暗黙の常識として現れるため、概念知識のためのプローブの設計は困難である。
知識表現スキーマに着想を得て,plmが概念的類似性によってエンティティを編成し,概念的特性を学習し,文脈でエンティティを概念化するかどうかを調べる3つのタスクをデザインし,plmの概念的知識を包括的に評価する。
タスクについては、393のコンセプトをカバーする24kデータインスタンスを収集し、アノテートします。
plmの異なるサイズと種類に関する広範囲な実験は、既存のplmが体系的に概念的な知識を欠き、様々なスプリアス相関に苦しむことを示している。
PLMにおける人間のような認知を実現する上で、これは重要なボトルネックであると考えています。
COPENと私たちのコードはhttps://github.com/THU-KEG/COPEN.comで公開されている。 Conceptual knowledge is fundamental to human cognition and knowledge bases. However, existing knowledge probing works only focus on evaluating factual knowledge of pre-trained language models (PLMs) and ignore conceptual knowledge. Since conceptual knowledge often appears as implicit commonsense behind texts, designing probes for conceptual knowledge is hard. Inspired by knowledge representation schemata, we comprehensively evaluate conceptual knowledge of PLMs by designing three tasks to probe whether PLMs organize entities by conceptual similarities, learn conceptual properties, and conceptualize entities in contexts, respectively. For the tasks, we collect and annotate 24k data instances covering 393 concepts, which is COPEN, a COnceptual knowledge Probing bENchmark. Extensive experiments on different sizes and types of PLMs show that existing PLMs systematically lack conceptual knowledge and suffer from various spurious correlations. We believe this is a critical bottleneck for realizing human-like cognition in PLMs. COPEN and our codes are publicly released at https://github.com/THU-KEG/COPEN. | 翻訳日:2022-11-09 16:11:52 公開日:2022-11-08 |
# 簡潔さ:見過ごされた言語タスク Conciseness: An Overlooked Language Task ( http://arxiv.org/abs/2211.04126v1 ) ライセンス: Link先を確認 | Felix Stahlberg, Aashish Kumar, Chris Alberti and Shankar Kumar | (参考訳) 文の簡潔な学習モデルに関する新たな研究について報告する。
タスクを定義し、要約や単純化といった関連するタスクとは異なることを示す。
評価のために,2000の文からなる2つのテストセットをそれぞれ2と5のアノテータでアノテートした。
大規模なニューラルネットワークモデルによるゼロショットセットアップがよく機能しない場合、簡潔性は難しい課題であることを示す。
これらの手法の限界を考慮し,ラウンドトリップ翻訳に基づく合成データ生成手法を提案する。
このデータを使ってトランスフォーマーをスクラッチからトレーニングするか、あるいは微調整T5モデルでトレーニングすれば、マルチアノテータの機械翻訳テストセットから抽出した人工簡潔性データセットを微調整することでさらに改善できる最強のベースラインが得られます。 We report on novel investigations into training models that make sentences concise. We define the task and show that it is different from related tasks such as summarization and simplification. For evaluation, we release two test sets, consisting of 2000 sentences each, that were annotated by two and five human annotators, respectively. We demonstrate that conciseness is a difficult task for which zero-shot setups with large neural language models often do not perform well. Given the limitations of these approaches, we propose a synthetic data generation method based on round-trip translations. Using this data to either train Transformers from scratch or fine-tune T5 models yields our strongest baselines that can be further improved by fine-tuning on an artificial conciseness dataset that we derived from multi-annotator machine translation test sets. | 翻訳日:2022-11-09 16:11:32 公開日:2022-11-08 |
# 語彙モデルを用いたアクティブラーニング Active Learning with Tabular Language Models ( http://arxiv.org/abs/2211.04128v1 ) ライセンス: Link先を確認 | Martin Ringsquandl, Aneta Koleva | (参考訳) 最近の表型言語モデル研究の進歩にもかかわらず、現実世界のアプリケーションはまだ難しい。
業界では、スプレッドシートには多くの表があるが、かなりの量のラベルの取得は高価であり、専門家だけが高い技術とドメイン固有の表に注釈を付けることができる。
アクティブラーニングはラベリングコストを削減できるが、今のところ、表型言語モデルと連動してアクティブラーニングに関する作業はない。
本稿では,サブセル名認識のための実世界の産業用表言語モデルユースケースにおける異なる獲得機能について検討する。
以上の結果から,組込みの多様性を持つセルレベル獲得関数はラベル付けの労力を大幅に削減できるが,強制テーブルの多様性は有害であることがわかった。
計算効率と人間の注釈者の視点に関するオープン基礎的な疑問がさらに見受けられる。 Despite recent advancements in tabular language model research, real-world applications are still challenging. In industry, there is an abundance of tables found in spreadsheets, but acquisition of substantial amounts of labels is expensive, since only experts can annotate the often highly technical and domain-specific tables. Active learning could potentially reduce labeling costs, however, so far there are no works related to active learning in conjunction with tabular language models. In this paper we investigate different acquisition functions in a real-world industrial tabular language model use case for sub-cell named entity recognition. Our results show that cell-level acquisition functions with built-in diversity can significantly reduce the labeling effort, while enforced table diversity is detrimental. We further see open fundamental questions concerning computational efficiency and the perspective of human annotators. | 翻訳日:2022-11-09 16:11:18 公開日:2022-11-08 |
# ニューラル証明ネットの展望 Perspectives on neural proof nets ( http://arxiv.org/abs/2211.04141v1 ) ライセンス: Link先を確認 | Richard Moot (TEXTE, LIRMM, CNRS) | (参考訳) 本稿では,証明ネットの証明探索とニューラルネットワークを組み合わせた新しい手法を提案する。
様々な形態の型論理文法の探索に応用された「標準」アプローチとは対照的である。
標準的な手法では、まず単語を式に変換し(置換)、次に原子式にマッチして証明を得る。
まず、ラムダ項に対応することを保証する方法でグラフ構造を生成し、次に頂点ラベルを使って詳細な構造を得る。
頂点ラベリングはグラフニューラルネットワークにおけるよく研究されたタスクであり、ニューラルネットワークを用いたグラフ生成の実装方法が検討される。 In this paper I will present a novel way of combining proof net proof search with neural networks. It contrasts with the 'standard' approach which has been applied to proof search in type-logical grammars in various different forms. In the standard approach, we first transform words to formulas (supertagging) then match atomic formulas to obtain a proof. I will introduce an alternative way to split the task into two: first, we generate the graph structure in a way which guarantees it corresponds to a lambda-term, then we obtain the detailed structure using vertex labelling. Vertex labelling is a well-studied task in graph neural networks, and different ways of implementing graph generation using neural networks will be explored. | 翻訳日:2022-11-09 16:11:05 公開日:2022-11-08 |
# ニューラルワードアライメントのためのサードパーティライナー Third-Party Aligner for Neural Word Alignments ( http://arxiv.org/abs/2211.04198v1 ) ライセンス: Link先を確認 | Jinpeng Zhang, Chuanqi Dong, Xiangyu Duan, Yuqi Zhang, Min Zhang | (参考訳) 単語アライメントは、ソース文とターゲット文の間の翻訳等価な単語を見つけることである。
前回の研究では、自己学習が競争的な単語アライメント結果を達成できることが示されている。
本稿では,ニューラルネットワークによる単語アライメントトレーニングの監督のために,サードパーティ製単語アライメント器によって生成された単語アライメントを提案する。
具体的には、事前訓練された言語モデルの微調整を行う際に、サードパーティの整列器で整列された各単語対のソース語とターゲット語を文脈化された埋め込み空間において互いに近接するように訓練する。
様々な言語ペアのベンチマーク実験により、より正確な単語アライメントを見つけ、間違った単語アライメントを削除することで、我々のアプローチが驚くほどサードパーティの監督に対して自己補正可能であることが示される。
各種サードパーティコーディネータのすべての監視を統合すると、最先端のワードアライメント性能が得られ、最も優れたサードパーティコーディネータよりも平均2ポイント低いアライメントエラー率が得られる。
私たちはhttps://github.com/sdongchuanqi/Third-Party-Supervised-Alignerでコードを公開しました。 Word alignment is to find translationally equivalent words between source and target sentences. Previous work has demonstrated that self-training can achieve competitive word alignment results. In this paper, we propose to use word alignments generated by a third-party word aligner to supervise the neural word alignment training. Specifically, source word and target word of each word pair aligned by the third-party aligner are trained to be close neighbors to each other in the contextualized embedding space when fine-tuning a pre-trained cross-lingual language model. Experiments on the benchmarks of various language pairs show that our approach can surprisingly do self-correction over the third-party supervision by finding more accurate word alignments and deleting wrong word alignments, leading to better performance than various third-party word aligners, including the currently best one. When we integrate all supervisions from various third-party aligners, we achieve state-of-the-art word alignment performances, with averagely more than two points lower alignment error rates than the best third-party aligner. We released our code at https://github.com/sdongchuanqi/Third-Party-Supervised-Aligner. | 翻訳日:2022-11-09 16:10:56 公開日:2022-11-08 |
# 自然言語処理におけるブリッジフェアネスと環境保全性 Bridging Fairness and Environmental Sustainability in Natural Language Processing ( http://arxiv.org/abs/2211.04256v1 ) ライセンス: Link先を確認 | Marius Hessenthaler, Emma Strubell, Dirk Hovy, Anne Lauscher | (参考訳) 公正性と環境影響は、人工知能の持続可能な開発のための重要な研究方向である。
しかしながら、各トピックは自然言語処理(nlp)の活発な研究領域であるが、この2つの分野間の相互作用に関する研究が驚くほど欠落している。
このラクナは、公平性に排他的な焦点が実際に環境の持続性を阻害する可能性があるという証拠が増えているため、非常に問題となっている。
本研究は,(1) 文献から不公平なステレオタイプバイアスを除去するためのサンプル手法を探索し,(2) イングランドのNLPモデル,知識蒸留(KD) のエネルギー消費(および環境影響)を減らすための共通手法を評価することによって, フェアネスアプローチの効率性を検討することによって, NLPにおけるこの重要な交差点に光を当てた。
今回のケーススタディでは, 層や次元の縮小を含む重要なKD因子の効果を評価する。
(a)蒸留作業における性能(自然言語推論と意味的類似性予測)及び
(b)ステレオタイプバイアスの複数の尺度及び寸法(例えば、単語埋め込み関連テストによって測定された性別バイアス)。
その結果,KDが不公平バイアスに与える影響に関する現在の仮定を明らかにすることができた。 Fairness and environmental impact are important research directions for the sustainable development of artificial intelligence. However, while each topic is an active research area in natural language processing (NLP), there is a surprising lack of research on the interplay between the two fields. This lacuna is highly problematic, since there is increasing evidence that an exclusive focus on fairness can actually hinder environmental sustainability, and vice versa. In this work, we shed light on this crucial intersection in NLP by (1) investigating the efficiency of current fairness approaches through surveying example methods for reducing unfair stereotypical bias from the literature, and (2) evaluating a common technique to reduce energy consumption (and thus environmental impact) of English NLP models, knowledge distillation (KD), for its impact on fairness. In this case study, we evaluate the effect of important KD factors, including layer and dimensionality reduction, with respect to: (a) performance on the distillation task (natural language inference and semantic similarity prediction), and (b) multiple measures and dimensions of stereotypical bias (e.g., gender bias measured via the Word Embedding Association Test). Our results lead us to clarify current assumptions regarding the effect of KD on unfair bias: contrary to other findings, we show that KD can actually decrease model fairness. | 翻訳日:2022-11-09 16:10:34 公開日:2022-11-08 |
# SocioProbe: 何、いつ、どこで言語モデルがソシオドモグラフィーについて学ぶか SocioProbe: What, When, and Where Language Models Learn about Sociodemographics ( http://arxiv.org/abs/2211.04281v1 ) ライセンス: Link先を確認 | Anne Lauscher, Federico Bianchi, Samuel Bowman, and Dirk Hovy | (参考訳) プレトレーニング言語モデル(PLM)は、様々なタスクにおいて他のNLPモデルよりも優れています。
彼らの能力と内部の働きをより深く理解することを選んだ研究者たちは、文法性のような低レベルの知識と、事実理解のような中レベルの意味的知識をとらえる範囲を確立した。
しかし、言語の高レベルな側面に関する彼らの知識についてはほとんど理解されていない。
特に、言語形成における社会デマログラフ的側面の重要性にもかかわらず、PLMがこれらの側面、例えば性別や年齢をエンコードするかどうかという疑問はいまだに未解決である。
本稿では,従来の分類器と情報理論的最小記述長を用いて,複数の英語データセット上で異なるシングルgpuplmの社会デモグラフィ知識を探索することで,この研究のギャップを解決する。
以上の結果から, PLMはこれらの社会デマトグラフィーを符号化しており, この知識は, テスト対象のPLMの層に分散していることが明らかとなった。
さらに,多言語解析を行い,補足訓練の効果について検討し,知識をエンコードする事前学習データの程度,場所,および量について検討する。
以上の結果から,社会学的な知識がNLPにとって依然として大きな課題であることが示唆された。
PLMは、一般的な言語理解において優れた知識とモデルを取得するために大量の事前学習データを必要とする。 Pre-trained language models (PLMs) have outperformed other NLP models on a wide range of tasks. Opting for a more thorough understanding of their capabilities and inner workings, researchers have established the extend to which they capture lower-level knowledge like grammaticality, and mid-level semantic knowledge like factual understanding. However, there is still little understanding of their knowledge of higher-level aspects of language. In particular, despite the importance of sociodemographic aspects in shaping our language, the questions of whether, where, and how PLMs encode these aspects, e.g., gender or age, is still unexplored. We address this research gap by probing the sociodemographic knowledge of different single-GPU PLMs on multiple English data sets via traditional classifier probing and information-theoretic minimum description length probing. Our results show that PLMs do encode these sociodemographics, and that this knowledge is sometimes spread across the layers of some of the tested PLMs. We further conduct a multilingual analysis and investigate the effect of supplementary training to further explore to what extent, where, and with what amount of pre-training data the knowledge is encoded. Our overall results indicate that sociodemographic knowledge is still a major challenge for NLP. PLMs require large amounts of pre-training data to acquire the knowledge and models that excel in general language understanding do not seem to own more knowledge about these aspects. | 翻訳日:2022-11-09 16:10:10 公開日:2022-11-08 |
# マイトショットナーのためのプロンプトベースメトリック学習 Prompt-Based Metric Learning for Few-Shot NER ( http://arxiv.org/abs/2211.04337v1 ) ライセンス: Link先を確認 | Yanru Chen, Yanan Zheng, Zhilin Yang | (参考訳) NER (Few-shot named entity recognition) は、ラベルなしのラベルやドメインへの一般化を目標としている。
既存のメトリック学習手法はクエリとサポートセット間のトークンレベルの類似度を計算するが、ラベルセマンティクスをモデリングに完全に組み込むことはできない。
この問題に対処するために,NERの計量学習を大幅に改善する簡単な手法を提案する。
1) 複数のプロンプトスキーマはラベルセマンティクスを強化するように設計されている。
2)複数のプロンプトベース表現を効果的に組み合わせた新しいアーキテクチャを提案する。
実験では,18項目中16項目以下で新たなsota(state-of-the-art)結果が得られ,平均8.84%,最大34.51%のマイクロf1値が得られた。
私たちのコードはhttps://github.com/AChen-qaq/ProMLで利用可能です。 Few-shot named entity recognition (NER) targets generalizing to unseen labels and/or domains with few labeled examples. Existing metric learning methods compute token-level similarities between query and support sets, but are not able to fully incorporate label semantics into modeling. To address this issue, we propose a simple method to largely improve metric learning for NER: 1) multiple prompt schemas are designed to enhance label semantics; 2) we propose a novel architecture to effectively combine multiple prompt-based representations. Empirically, our method achieves new state-of-the-art (SOTA) results under 16 of the 18 considered settings, substantially outperforming the previous SOTA by an average of 8.84% and a maximum of 34.51% in relative gains of micro F1. Our code is available at https://github.com/AChen-qaq/ProML. | 翻訳日:2022-11-09 16:09:49 公開日:2022-11-08 |
# フィードフォワードニューラルネットワークにおける線形等式制約の表現 Expressing linear equality constraints in feedforward neural networks ( http://arxiv.org/abs/2211.04395v1 ) ライセンス: Link先を確認 | Anand Rangarajan, Pan He, Jaemoon Lee, Tania Banerjee, Sanjay Ranka | (参考訳) 我々は、フィードフォワードニューラルネットワークに線形で平等な制約を課そうとする。
上位層予測器は通常非線形であるため、標準的な凸最適化手法と強い双対性を展開しようとする場合、これは難しい課題である。
これを克服するために,制約を課す補助予測変数を持つ新たな鞍点ラグランジアンを導入する。
補助変数の除去は、線形制約を満たすために導入されたラグランジュ乗算器上の双対最小化問題をもたらす。
この最小化問題は、重量行列の標準学習問題と組み合わせられる。
この理論的な展開線から、ラグランジュパラメータの驚くほどの解釈を、制約から生じる固定重みを持つ有極層隠蔽単位として得られる。
したがって、ラグランジュパラメータを含むにもかかわらず、標準的な最小化アプローチは使用できる -- 非常に満足できるが、予期せぬ発見である。
マルチラベル分類から制約付きオートエンコーダまで,将来的には検討される。 We seek to impose linear, equality constraints in feedforward neural networks. As top layer predictors are usually nonlinear, this is a difficult task if we seek to deploy standard convex optimization methods and strong duality. To overcome this, we introduce a new saddle-point Lagrangian with auxiliary predictor variables on which constraints are imposed. Elimination of the auxiliary variables leads to a dual minimization problem on the Lagrange multipliers introduced to satisfy the linear constraints. This minimization problem is combined with the standard learning problem on the weight matrices. From this theoretical line of development, we obtain the surprising interpretation of Lagrange parameters as additional, penultimate layer hidden units with fixed weights stemming from the constraints. Consequently, standard minimization approaches can be used despite the inclusion of Lagrange parameters -- a very satisfying, albeit unexpected, discovery. Examples ranging from multi-label classification to constrained autoencoders are envisaged in the future. | 翻訳日:2022-11-09 16:03:26 公開日:2022-11-08 |
# ハイパーグラフに基づく機械学習アンサンブルネットワーク侵入検知システム A Hypergraph-Based Machine Learning Ensemble Network Intrusion Detection System ( http://arxiv.org/abs/2211.03933v1 ) ライセンス: Link先を確認 | Zong-Zhi Lin, Thomas D. Pike, Mark M. Bailey, Nathaniel D. Bastian | (参考訳) 悪意のある攻撃を検出するネットワーク侵入検知システム(NIDS)は、引き続き課題に対処している。
nidは自動生成されたポートスキャンの侵入に対して脆弱であり、nidはしばしばオフラインで開発され、ネットワークの他の部分に侵入が広がるのを防ぐ時間的遅れが生じる。
これらの課題に対処するために、ハイパーグラフを使用して、インターネットプロトコルアドレスと宛先ポートのセットを介してポートスキャン攻撃の進化パターンをキャプチャし、ハイパーグラフベースのメトリクスのセットを導出し、堅牢でレジリエンスなアンサンブル機械学習(ML)NIDSをトレーニングする。
1) 侵入事例,(2) NIDS更新規則,(3) NIDSリトレーニング要求をトリガーする攻撃しきい値選択,(4) ネットワークトラフィックの性質を事前に把握していない生産環境の組み合わせにより,40のシナリオを自動生成し,3つのツリーモデルからなるMLアンサンブルNIDSを評価する。
その結果, MLアンサンブルNIDSは, Update-all-NIDSルールのモデル設定(すなわち, 同じNIDSリトレーニング要求に基づいて3つのモデルをすべて再トレーニングし,更新する)の下で, シミュレーション全体を通じて100%近い検出性能で最高の結果を得た。 Network intrusion detection systems (NIDS) to detect malicious attacks continues to meet challenges. NIDS are vulnerable to auto-generated port scan infiltration attempts and NIDS are often developed offline, resulting in a time lag to prevent the spread of infiltration to other parts of a network. To address these challenges, we use hypergraphs to capture evolving patterns of port scan attacks via the set of internet protocol addresses and destination ports, thereby deriving a set of hypergraph-based metrics to train a robust and resilient ensemble machine learning (ML) NIDS that effectively monitors and detects port scanning activities and adversarial intrusions while evolving intelligently in real-time. Through the combination of (1) intrusion examples, (2) NIDS update rules, (3) attack threshold choices to trigger NIDS retraining requests, and (4) production environment with no prior knowledge of the nature of network traffic 40 scenarios were auto-generated to evaluate the ML ensemble NIDS comprising three tree-based models. Results show that under the model settings of an Update-ALL-NIDS rule (namely, retrain and update all the three models upon the same NIDS retraining request) the proposed ML ensemble NIDS produced the best results with nearly 100% detection performance throughout the simulation, exhibiting robustness in the complex dynamics of the simulated cyber-security scenario. | 翻訳日:2022-11-09 16:03:14 公開日:2022-11-08 |
# 厳密な幅優先型amr解析法 Strictly Breadth-First AMR Parsing ( http://arxiv.org/abs/2211.03922v1 ) ライセンス: Link先を確認 | Chen Yu, Daniel Gildea | (参考訳) AMR解析は、文をAMRセマンティックグラフに自動的にマッピングするタスクである。
我々は、最近提案され、他の戦略よりも優れた性能を達成したこのタスクの幅優先戦略に焦点を当てた。
しかしながら、この戦略の下での現在のモデルは、AMRグラフを幅優先の順序で生成するモデルのみを \emph{encourage} とするが、 \emph{cannot guarantee} はそれを保証しない。
この問題を解決するために,解析が幅優先の順序に厳密に従うことを示す,新しいアーキテクチャを提案する。
各パースステップでは、 \textbf{focus parent} 頂点を導入し、この頂点を用いて生成を導く。
この新たなアーキテクチャと文とグラフエンコーダの改善によって、私たちのモデルは、AMR 1.0と2.0データセットの両方でより良いパフォーマンスを得ることができます。 AMR parsing is the task that maps a sentence to an AMR semantic graph automatically. We focus on the breadth-first strategy of this task, which was proposed recently and achieved better performance than other strategies. However, current models under this strategy only \emph{encourage} the model to produce the AMR graph in breadth-first order, but \emph{cannot guarantee} this. To solve this problem, we propose a new architecture that \emph{guarantees} that the parsing will strictly follow the breadth-first order. In each parsing step, we introduce a \textbf{focused parent} vertex and use this vertex to guide the generation. With the help of this new architecture and some other improvements in the sentence and graph encoder, our model obtains better performance on both the AMR 1.0 and 2.0 dataset. | 翻訳日:2022-11-09 16:01:37 公開日:2022-11-08 |
# ストーリーを伝える:インタラクティブコンテンツ作成のためのタスク指向ダイアログ Tell Your Story: Task-Oriented Dialogs for Interactive Content Creation ( http://arxiv.org/abs/2211.03940v1 ) ライセンス: Link先を確認 | Satwik Kottur, Seungwhan Moon, Aram H. Markosyan, Hardik Shah, Babak Damavandi, Alborz Geramifard | (参考訳) 人々は写真やビデオを撮って再生し、個人的な重要性の思い出を共有します。
近年,メディアモンタージュ(ストーリー)は,直感的で強力なストーリーテリング能力によって,これらの記憶を共有する手段として人気を博している。
しかし、このようなモンタージュを作成するには、通常、多くの手動検索、クリック、選択を伴い、時間と手間がかかり、ユーザエクスペリエンスに悪影響を及ぼす。
そこで本稿では,メディアコレクションからモンタージュをシームレスに検索,コンパイル,編集するためのインタラクティブツールとして,モンタージュ生成のためのタスク指向ダイアログを提案する。
我々の知識を最大限に活用するために、我々の研究は、このような難解なアプリケーションにマルチターン会話を利用する最初のものである。
大規模なメディアコレクションからシミュレーションしたメディアモンタージュに条件付き10kのダイアログを含む新しいデータセットC3(Conversational Content Creation)を収集する。
これらのダイアログをシミュレート・アンド・パラフレーズのアプローチで収集し、コストと時間の両方を効率良くするために、自然言語分布から描画します。
最先端言語モデルの分析とベンチマークでは,データセットに存在するマルチモーダルな課題が示されている。
最後に,実世界のアプリケーションにおいて提案手法の有効性を示す実世界のモバイルデモアプリケーションを提案する。
私たちのコードとデータは公開されます。 People capture photos and videos to relive and share memories of personal significance. Recently, media montages (stories) have become a popular mode of sharing these memories due to their intuitive and powerful storytelling capabilities. However, creating such montages usually involves a lot of manual searches, clicks, and selections that are time-consuming and cumbersome, adversely affecting user experiences. To alleviate this, we propose task-oriented dialogs for montage creation as a novel interactive tool to seamlessly search, compile, and edit montages from a media collection. To the best of our knowledge, our work is the first to leverage multi-turn conversations for such a challenging application, extending the previous literature studying simple media retrieval tasks. We collect a new dataset C3 (Conversational Content Creation), comprising 10k dialogs conditioned on media montages simulated from a large media collection. We take a simulate-and-paraphrase approach to collect these dialogs to be both cost and time efficient, while drawing from natural language distribution. Our analysis and benchmarking of state-of-the-art language models showcase the multimodal challenges present in the dataset. Lastly, we present a real-world mobile demo application that shows the feasibility of the proposed work in real-world applications. Our code and data will be made publicly available. | 翻訳日:2022-11-09 16:01:21 公開日:2022-11-08 |
# 語彙充足と単語頻度ギャップによるスパース検索のための教師なし領域適応 Unsupervised Domain Adaptation for Sparse Retrieval by Filling Vocabulary and Word Frequency Gaps ( http://arxiv.org/abs/2211.03988v1 ) ライセンス: Link先を確認 | Hiroki Iida and Naoaki Okazaki | (参考訳) 事前訓練された言語モデルを用いたIRモデルはBM25のような語彙的アプローチを著しく上回った。
特に、テキストをスパースベクトルにエンコードするSPLADEは、ドメイン外のデータセットに堅牢性を示すため、実用的に有効なモデルである。
しかし、SPLADEはトレーニングデータにおける低周波単語の正確なマッチングに苦慮している。
さらに、語彙や単語頻度のドメインシフトは、SPLADEの赤外線性能を低下させる。
監視データは対象領域では少ないため、監視データなしでのドメインシフトに対処する必要がある。
本稿では,語彙と単語周波数のギャップを埋める非教師なし領域適応法を提案する。
まず,対象領域のコーパス上で,語彙を拡張し,マスキング言語モデルを用いて連続的に事前学習を行う。
次に、SPLADE符号化されたスパースベクトルを逆文書頻度重みに乗じて、低頻度単語による文書の重要性を検討する。
ソースドメインからの大きな語彙ギャップを持つデータセットに対して,本手法を用いた実験を行った。
本手法は,現状のドメイン適応法よりも優れていることを示す。
さらに,本手法はBM25と組み合わせて最先端の結果を得る。 IR models using a pretrained language model significantly outperform lexical approaches like BM25. In particular, SPLADE, which encodes texts to sparse vectors, is an effective model for practical use because it shows robustness to out-of-domain datasets. However, SPLADE still struggles with exact matching of low-frequency words in training data. In addition, domain shifts in vocabulary and word frequencies deteriorate the IR performance of SPLADE. Because supervision data are scarce in the target domain, addressing the domain shifts without supervision data is necessary. This paper proposes an unsupervised domain adaptation method by filling vocabulary and word-frequency gaps. First, we expand a vocabulary and execute continual pretraining with a masked language model on a corpus of the target domain. Then, we multiply SPLADE-encoded sparse vectors by inverse document frequency weights to consider the importance of documents with lowfrequency words. We conducted experiments using our method on datasets with a large vocabulary gap from a source domain. We show that our method outperforms the present stateof-the-art domain adaptation method. In addition, our method achieves state-of-the-art results, combined with BM25. | 翻訳日:2022-11-09 16:00:58 公開日:2022-11-08 |
# 因果対から因果グラフへ From Causal Pairs to Causal Graphs ( http://arxiv.org/abs/2211.04312v1 ) ライセンス: Link先を確認 | Rezaur Rashid, Jawad Chowdhury, Gabriel Terejanu | (参考訳) 観測データから学習する因果構造は、有限サンプリング、観測不能要因、測定誤差などの様々な要因により、非自明な課題のままである。
制約ベースおよびスコアベースの手法は、有向非巡回グラフ(DAG)を推定する組合せの性質により、高い計算複雑性に悩まされる傾向がある。
NIPS 2013 Workshop on Causality Challengeに触発されたこの論文では、異なるアプローチを採り、ワークショップの課題に対応するために提案された因果効果ペアの機能から得られる全ての可能なグラフの確率分布を生成する。
本稿の目的は,この確率的情報に基づく新しい手法を提案し,その性能を従来の手法と最先端の手法と比較することである。
我々の実験は、合成データと実データの両方において、提案手法が従来の手法よりも統計的に類似または優れた性能を持つだけでなく、計算速度も高いことを示す。 Causal structure learning from observational data remains a non-trivial task due to various factors such as finite sampling, unobserved confounding factors, and measurement errors. Constraint-based and score-based methods tend to suffer from high computational complexity due to the combinatorial nature of estimating the directed acyclic graph (DAG). Motivated by the `Cause-Effect Pair' NIPS 2013 Workshop on Causality Challenge, in this paper, we take a different approach and generate a probability distribution over all possible graphs informed by the cause-effect pair features proposed in response to the workshop challenge. The goal of the paper is to propose new methods based on this probabilistic information and compare their performance with traditional and state-of-the-art approaches. Our experiments, on both synthetic and real datasets, show that our proposed methods not only have statistically similar or better performances than some traditional approaches but also are computationally faster. | 翻訳日:2022-11-09 15:54:44 公開日:2022-11-08 |
# ニューロシンボリックプログラム合成による治療効果の推定 Estimating Treatment Effects using Neurosymbolic Program Synthesis ( http://arxiv.org/abs/2211.04370v1 ) ライセンス: Link先を確認 | Abbavaram Gowtham Reddy, Vineeth N Balasubramanian | (参考訳) 観察データから治療効果を推定することは因果推論の中心的な問題である。
この問題を解決する方法は、因果推論からの帰納バイアスとヒューリスティックを利用して、マルチヘッドニューラルネットワークアーキテクチャと正規化器を設計する。
本研究では,データ効率,解釈可能な手法であるニューロシンボリックプログラム合成を用いて,治療効果推定問題の解法を提案する。
神経シンボリックプログラミングが治療効果推定問題を解決できることを理論的に示す。
文献における帰納的バイアスに基づく治療効果推定問題に対するドメイン固有言語(DSL)を設計することにより、ニューロシンボリックプログラミングは従来の方法よりも治療効果推定の選択肢として優れていると論じる。
実験により,DSLの帰納バイアスを暗黙的に符号化した本手法は,最先端の手法よりもベンチマークデータセットの性能が向上することがわかった。 Estimating treatment effects from observational data is a central problem in causal inference. Methods to solve this problem exploit inductive biases and heuristics from causal inference to design multi-head neural network architectures and regularizers. In this work, we propose to use neurosymbolic program synthesis, a data-efficient, and interpretable technique, to solve the treatment effect estimation problem. We theoretically show that neurosymbolic programming can solve the treatment effect estimation problem. By designing a Domain Specific Language (DSL) for treatment effect estimation problem based on the inductive biases used in literature, we argue that neurosymbolic programming is a better alternative to treatment effect estimation than traditional methods. Our empirical study reveals that our method, which implicitly encodes inductive biases in a DSL, achieves better performance on benchmark datasets than the state-of-the-art methods. | 翻訳日:2022-11-09 15:54:09 公開日:2022-11-08 |
# グラフニューラルネットワークの大規模化 - Approximate PageRankとCoreRankを組み合わせる Improving Graph Neural Networks at Scale: Combining Approximate PageRank and CoreRank ( http://arxiv.org/abs/2211.04248v1 ) ライセンス: Link先を確認 | Ariel R. Ramos Vela, Johannes F. Lutzeyer, Anastasios Giovanidis, Michalis Vazirgiannis | (参考訳) グラフニューラルネットワーク(GNN)は、グラフ構造上で実行される多くの学習タスクにおいて大きな成功を収めている。
それでも、GNNが情報伝達を行うには、産業規模のグラフを扱う場合、不当に高価になる可能性のあるメッセージパッシング方式に依存する。
PPRGoモデルに着想を得て,PageRankとCoreRankの学習可能な凸の組み合わせを利用して,GNN内の複数のホップ近傍情報を拡散するスケーラブルなソリューションCorePPRモデルを提案する。
さらに、モデルの性能を保ちながらトレーニング時間を短縮する、特定のノードに対して最も影響力のある隣人を選択するための動的メカニズムを組み込んだ。
全体として、CorePPRはPPRGoよりも優れており、特に大きなグラフでは、最も影響力のあるノードを選択することがスケーラビリティに特に関係している。
私たちのコードは、https://github.com/arielramos97/CorePPRで公開されています。 Graph Neural Networks (GNNs) have achieved great successes in many learning tasks performed on graph structures. Nonetheless, to propagate information GNNs rely on a message passing scheme which can become prohibitively expensive when working with industrial-scale graphs. Inspired by the PPRGo model, we propose the CorePPR model, a scalable solution that utilises a learnable convex combination of the approximate personalised PageRank and the CoreRank to diffuse multi-hop neighbourhood information in GNNs. Additionally, we incorporate a dynamic mechanism to select the most influential neighbours for a particular node which reduces training time while preserving the performance of the model. Overall, we demonstrate that CorePPR outperforms PPRGo, particularly on large graphs where selecting the most influential nodes is particularly relevant for scalability. Our code is publicly available at: https://github.com/arielramos97/CorePPR. | 翻訳日:2022-11-09 15:52:30 公開日:2022-11-08 |
# 粗い国勢調査とオープンジオデータによる細粒度人口分布図の作成 Fine-grained Population Mapping from Coarse Census Counts and Open Geodata ( http://arxiv.org/abs/2211.04039v1 ) ライセンス: Link先を確認 | Nando Metzger, John E. Vargas-Mu\~noz, Rodrigo C. Daudt, Benjamin Kellenberger, Thao Ton-That Whelan, Ferda Ofli, Muhammad Imran, Konrad Schindler, Devis Tuia | (参考訳) 細かな人口マップは、都市計画、環境モニタリング、公衆衛生、人道活動などいくつかの分野において必要である。
残念なことに、多くの国では大規模な空間単位以上の人口調査しか収集されていない。
POMELOは、粗い国勢調査数とオープンジオデータを用いて、100mの地中サンプリング距離を持つ詳細な人口マップを推定する深層学習モデルである。
さらに、このモデルは、全国に一般化することで、国勢調査が全くない時に人口を見積もることもできる。
サハラ以南のアフリカのいくつかの国における一連の実験で、pomeloareによって作成された地図は、最も詳細な参照数と一致している。 粗い国勢調査の集計は、r2の値が85-89%に達する。 Fine-grained population maps are needed in several domains, like urban planning, environmental monitoring, public health, and humanitarian operations. Unfortunately, in many countries only aggregate census counts over large spatial units are collected, moreover, these are not always up-to-date. We present POMELO, a deep learning model that employs coarse census counts and open geodata to estimate fine-grained population maps with 100m ground sampling distance. Moreover, the model can also estimate population numbers when no census counts at all are available, by generalizing across countries. In a series of experiments for several countries in sub-Saharan Africa, the maps produced with POMELOare in good agreement with the most detailed available reference counts: disaggregation of coarse census counts reaches R2 values of 85-89%; unconstrained prediction in the absence of any counts reaches 48-69%. | 翻訳日:2022-11-09 15:52:00 公開日:2022-11-08 |
# 顧客支援インタラクションに関するメッセージワイズ感性分析に基づくアクティブデトラクタ検出フレームワーク Proactive Detractor Detection Framework Based on Message-Wise Sentiment Analysis Over Customer Support Interactions ( http://arxiv.org/abs/2211.03923v1 ) ライセンス: Link先を確認 | Juan Sebasti\'an Salcedo Gallo, Jes\'us Solano, Javier Hern\'an Garc\'ia, David Zarruk-Valencia, Alejandro Correa-Bahnsen | (参考訳) 本稿では,個々のユーザの推薦決定を予測するために,チャットベースの顧客サポート(cs)インタラクションのみに依存するフレームワークを提案する。
ケーススタディでは、ラテンアメリカの大手電子商取引会社の金融分野における16.4kのユーザ数と48.7kの顧客サポートに関する会話を分析した。
その結果,我々は自然言語処理(nlp)を用いて推薦行動の評価と予測を行い,静的感情分析を行うとともに,各ユーザの感情動態の予測能力を活用する。
以上の結果から,CS会話のメッセージワイドな感情進化のみに基づいて,ユーザが製品やサービスを推薦する可能性を予測することが可能であることが示唆された。 In this work, we propose a framework relying solely on chat-based customer support (CS) interactions for predicting the recommendation decision of individual users. For our case study, we analyzed a total number of 16.4k users and 48.7k customer support conversations within the financial vertical of a large e-commerce company in Latin America. Consequently, our main contributions and objectives are to use Natural Language Processing (NLP) to assess and predict the recommendation behavior where, in addition to using static sentiment analysis, we exploit the predictive power of each user's sentiment dynamics. Our results show that, with respective feature interpretability, it is possible to predict the likelihood of a user to recommend a product or service, based solely on the message-wise sentiment evolution of their CS conversations in a fully automated way. | 翻訳日:2022-11-09 15:45:58 公開日:2022-11-08 |
# 自己教師型音声モデルの層間比較分析 Comparative layer-wise analysis of self-supervised speech models ( http://arxiv.org/abs/2211.03929v1 ) ライセンス: Link先を確認 | Ankita Pasad, Bowen Shi, Karen Livescu | (参考訳) 近年, 事前学習対象, 入力モダリティ, 事前学習データなど, 多くの自己教師型音声モデルが提案されている。
下流タスクにおける印象的な経験的成功にもかかわらず、モデルによって符号化された特性とモデル間の差異についてはまだ限定的な理解しか得られていない。
本研究では,最近の様々なモデルの中間表現について検討する。
具体的には,canonical correlation analysis (cca)に基づく軽量解析ツールを用いて,各層に符号化された音響的,音声的,単語レベルの特性を測定する。
これらの特性は、モデルによって異なる層間で進化し、その変動は事前学習対象の選択に関係している。
さらに,その特性傾向を音声認識および音声言語理解タスクの性能と比較することにより,下流タスクの分析の有用性について検討する。
CCAのトレンドは、下流タスクの関心層を選択するための信頼性の高いガイダンスを提供し、シングルレイヤのパフォーマンスがすべてのレイヤで一致または改善されることに気付き、事前学習されたモデルをより効率的に使用するための意味を示唆している。 Many self-supervised speech models, varying in their pre-training objective, input modality, and pre-training data, have been proposed in the last few years. Despite impressive empirical successes on downstream tasks, we still have a limited understanding of the properties encoded by the models and the differences across models. In this work, we examine the intermediate representations for a variety of recent models. Specifically, we measure acoustic, phonetic, and word-level properties encoded in individual layers, using a lightweight analysis tool based on canonical correlation analysis (CCA). We find that these properties evolve across layers differently depending on the model, and the variations relate to the choice of pre-training objective. We further investigate the utility of our analyses for downstream tasks by comparing the property trends with performance on speech recognition and spoken language understanding tasks. We discover that CCA trends provide reliable guidance to choose layers of interest for downstream tasks and that single-layer performance often matches or improves upon using all layers, suggesting implications for more efficient use of pre-trained models. | 翻訳日:2022-11-09 15:45:46 公開日:2022-11-08 |
# 画像スパース表現と動的視覚センサデータ圧縮のためのスパイクサンプリングネットワーク Spiking sampling network for image sparse representation and dynamic vision sensor data compression ( http://arxiv.org/abs/2211.04166v1 ) ライセンス: Link先を確認 | Chunming Jiang, Yilei Zhang | (参考訳) スパース表現は、ストレージのリソースを大幅に節約し、低次元空間におけるデータの代表的な特徴を見つけることができるため、大きな注目を集めている。
その結果, 特徴抽出, 圧縮センシング, 信号雑音化, 画像クラスタリング, 辞書学習など, 工学領域に広く適用できる可能性が示唆された。
本稿では,スパイクサンプリングネットワークを提案する。
このネットワークはスパイクニューロンで構成されており、どのピクセルポイントを保持すべきか、どのピクセルポイントを入力に応じてマスクする必要があるかを動的に決定することができる。
実験により,本手法により画像のスパース表現が向上し,ランダムサンプリングに比べて画像再構成が容易になることを示す。
そこで本稿では,動的視覚センサから大量のデータを圧縮する手法を用いて,イベントデータの保存要求を大幅に低減する。 Sparse representation has attracted great attention because it can greatly save storage re- sources and find representative features of data in a low-dimensional space. As a result, it may be widely applied in engineering domains including feature extraction, compressed sensing, signal denoising, picture clustering, and dictionary learning, just to name a few. In this paper, we propose a spiking sampling network. This network is composed of spiking neurons, and it can dynamically decide which pixel points should be retained and which ones need to be masked according to the input. Our experiments demonstrate that this approach enables better sparse representation of the original image and facilitates image reconstruction compared to random sampling. We thus use this approach for compressing massive data from the dynamic vision sensor, which greatly reduces the storage requirements for event data. | 翻訳日:2022-11-09 15:45:28 公開日:2022-11-08 |
# ステップワイズフェアネス制約による強化学習 Reinforcement Learning with Stepwise Fairness Constraints ( http://arxiv.org/abs/2211.03994v1 ) ライセンス: Link先を確認 | Zhun Deng, He Sun, Zhiwei Steven Wu, Linjun Zhang, David C. Parkes | (参考訳) AI手法は、信用から雇用、住居まで、社会的に重要な設定で使われており、アルゴリズムによる意思決定に関して公平性を提供することが不可欠である。
さらに、多くの設定は動的であり、人口はシーケンシャルな決定ポリシーに反応する。
本稿では,段階的公正性制約を伴う強化学習(RL)の研究を紹介する。
我々の焦点は表表のエピソードRLであり、政策の最適性と公正性違反に関する強力な理論的保証を学習アルゴリズムに提供する。
我々のフレームワークは、連続的な設定における公平性制約の影響を研究するための有用なツールを提供し、RLに新たな課題をもたらす。 AI methods are used in societally important settings, ranging from credit to employment to housing, and it is crucial to provide fairness in regard to algorithmic decision making. Moreover, many settings are dynamic, with populations responding to sequential decision policies. We introduce the study of reinforcement learning (RL) with stepwise fairness constraints, requiring group fairness at each time step. Our focus is on tabular episodic RL, and we provide learning algorithms with strong theoretical guarantees in regard to policy optimality and fairness violation. Our framework provides useful tools to study the impact of fairness constraints in sequential settings and brings up new challenges in RL. | 翻訳日:2022-11-09 15:44:22 公開日:2022-11-08 |
# 可変レート画像圧縮のための潜在表現の選択圧縮学習 Selective compression learning of latent representations for variable-rate image compression ( http://arxiv.org/abs/2211.04104v1 ) ライセンス: Link先を確認 | Jooyoung Lee and Seyoon Jeong and Munchurl Kim | (参考訳) 近年,多くのニューラルネットワークによる画像圧縮手法が,既存のツールベースコーデックよりも有望な結果を示している。
しかし、そのほとんどは異なるターゲットビットレートの別々のモデルとして訓練され、それによってモデルの複雑さが増大する。
そのため、単一のモデルで可変レートをサポートする学習圧縮のためのいくつかの研究が実施されているが、ネットワークモジュール、層、入力の追加が必要であり、しばしば複雑さのオーバーヘッドにつながるか、コーディング効率が不十分である。
本稿では,まず,ディープラーニングに基づく可変レート画像圧縮に対して,潜在表現を完全一般化した方法で部分符号化する選択的圧縮法を提案する。
提案手法は,異なる目標品質レベルの圧縮に必要な表現要素を適応的に決定する。
そのため,まず3次元重要度マップを入力コンテンツの性質として生成し,表現要素の基本的な重要度を表す。
3次元重要度マップは、重要度調整曲線を用いて異なるターゲット品質レベルに調整される。
調整された3D重要度マップを最終的に3Dバイナリマスクに変換して、圧縮に必要な表現要素を決定する。
提案手法は, 既存の圧縮モデルと容易に統合でき, オーバヘッドの増大は無視できる。
また,異なる品質レベルの重要度調整曲線を簡易に補間することで,連続的な可変レート圧縮が可能となる。
実験の結果,提案手法は個別に訓練された参照圧縮モデルと同等の圧縮効率を達成でき,選択圧縮による復号時間を削減することができることがわかった。
サンプルコードはhttps://github.com/JooyoungLeeETRI/SCRで公開されている。 Recently, many neural network-based image compression methods have shown promising results superior to the existing tool-based conventional codecs. However, most of them are often trained as separate models for different target bit rates, thus increasing the model complexity. Therefore, several studies have been conducted for learned compression that supports variable rates with single models, but they require additional network modules, layers, or inputs that often lead to complexity overhead, or do not provide sufficient coding efficiency. In this paper, we firstly propose a selective compression method that partially encodes the latent representations in a fully generalized manner for deep learning-based variable-rate image compression. The proposed method adaptively determines essential representation elements for compression of different target quality levels. For this, we first generate a 3D importance map as the nature of input content to represent the underlying importance of the representation elements. The 3D importance map is then adjusted for different target quality levels using importance adjustment curves. The adjusted 3D importance map is finally converted into a 3D binary mask to determine the essential representation elements for compression. The proposed method can be easily integrated with the existing compression models with a negligible amount of overhead increase. Our method can also enable continuously variable-rate compression via simple interpolation of the importance adjustment curves among different quality levels. The extensive experimental results show that the proposed method can achieve comparable compression efficiency as those of the separately trained reference compression models and can reduce decoding time owing to the selective compression. The sample codes are publicly available at https://github.com/JooyoungLeeETRI/SCR. | 翻訳日:2022-11-09 15:44:11 公開日:2022-11-08 |
# 分類器からの学習データのクラスラベル分布推定:精度向上したメタ分類器攻撃 Inferring Class Label Distribution of Training Data from Classifiers: An Accuracy-Augmented Meta-Classifier Attack ( http://arxiv.org/abs/2211.04157v1 ) ライセンス: Link先を確認 | Raksha Ramakrishna and Gy\"orgy D\'an | (参考訳) 機械学習(ML)モデルに対するプロパティ推論攻撃は、モデルの主要なタスクとは無関係なトレーニングデータの特性を推測することを目的としており、これまではバイナリ決定問題として定式化されてきた。
しかしながら、産業や医療の分野では、トレーニングデータ中のラベルの割合は、しばしばセンシティブな情報と見なされる。
本稿では,ml分類モデルのパラメータから学習データのクラスラベル分布を推測することを目的とした,文献における二項決定問題とは異なり,新たな特性推論攻撃を提案する。
本稿では,補助データに基づく分類器の精度を付加したシャドウ分類器のパラメータに基づいて訓練した<emph{shadow training} と \emph{meta-classifier} に基づく手法を提案する。
完全に接続されたニューラルネットワークアーキテクチャを持つML分類器に対する提案手法を評価する。
提案した \emph{meta-classifier} 攻撃は,最先端技術に対して最大 52\% の相対的改善を提供する。 Property inference attacks against machine learning (ML) models aim to infer properties of the training data that are unrelated to the primary task of the model, and have so far been formulated as binary decision problems, i.e., whether or not the training data have a certain property. However, in industrial and healthcare applications, the proportion of labels in the training data is quite often also considered sensitive information. In this paper we introduce a new type of property inference attack that unlike binary decision problems in literature, aim at inferring the class label distribution of the training data from parameters of ML classifier models. We propose a method based on \emph{shadow training} and a \emph{meta-classifier} trained on the parameters of the shadow classifiers augmented with the accuracy of the classifiers on auxiliary data. We evaluate the proposed approach for ML classifiers with fully connected neural network architectures. We find that the proposed \emph{meta-classifier} attack provides a maximum relative improvement of $52\%$ over state of the art. | 翻訳日:2022-11-09 15:43:48 公開日:2022-11-08 |
# TimeKit: 協調フィルタリングのための時系列予測ベースのアップグレードキット TimeKit: A Time-series Forecasting-based Upgrade Kit for Collaborative Filtering ( http://arxiv.org/abs/2211.04266v1 ) ライセンス: Link先を確認 | Seoyoung Hong, Minju Jo, Seungji Kook, Jaeeun Jung, Hyowon Wi, Noseong Park, Sung-Bae Cho | (参考訳) リコメンダシステムは、データマイニングと機械学習における長年の研究課題である。
新しいユーザ-テーマインタラクションログが到着すると、それらは本質的にインクリメンタルになる。
実世界のアプリケーションでは、ユーザー/テーマ埋め込みベクトルを抽出するために協調フィルタリングアルゴリズムを定期的に訓練する必要があるため、埋め込みベクトルの時系列を自然に定義することができる。
我々は,時系列予測に基づくアップグレードキット(timekit)を提案する。
i) まず、ベース協調フィルタリングアルゴリズムを決定する。
二 ユーザ/イムの相互作用ログから基本アルゴリズムによるユーザ/イムの埋め込みベクターを月々段階的に抽出すること。
三 時系列予測モデルを抽出した時系列埋め込みベクトルで訓練し、次に
iv) 将来の埋め込みベクトルを予測し、最近の複雑な時系列データ、すなわち神経制御微分方程式(NCDE)の処理のブレークスルーによるドット積スコアを推奨する。
4つの実世界のベンチマークデータセットを用いた実験により,提案する時系列予測に基づくアップグレードキットにより,既存の協調フィルタリングアルゴリズムが大幅に向上することを示す。 Recommender systems are a long-standing research problem in data mining and machine learning. They are incremental in nature, as new user-item interaction logs arrive. In real-world applications, we need to periodically train a collaborative filtering algorithm to extract user/item embedding vectors and therefore, a time-series of embedding vectors can be naturally defined. We present a time-series forecasting-based upgrade kit (TimeKit), which works in the following way: it i) first decides a base collaborative filtering algorithm, ii) extracts user/item embedding vectors with the base algorithm from user-item interaction logs incrementally, e.g., every month, iii) trains our time-series forecasting model with the extracted time- series of embedding vectors, and then iv) forecasts the future embedding vectors and recommend with their dot-product scores owing to a recent breakthrough in processing complicated time- series data, i.e., neural controlled differential equations (NCDEs). Our experiments with four real-world benchmark datasets show that the proposed time-series forecasting-based upgrade kit can significantly enhance existing popular collaborative filtering algorithms. | 翻訳日:2022-11-09 15:43:08 公開日:2022-11-08 |
# $\ell_2$正則化存在下での直交昇降木に対する個別的および大域的特徴属性 Individualized and Global Feature Attributions for Gradient Boosted Trees in the Presence of $\ell_2$ Regularization ( http://arxiv.org/abs/2211.04409v1 ) ライセンス: Link先を確認 | Qingyao Sun (University of Chicago) | (参考訳) $\ell_2$ regularization は、トレーニング勾配向上木に広く使われているが、Saabas や TreeSHAP といった木々の個別化特徴属性メソッドは、トレーニング手順を見渡せる。
我々は,$\ell_2$正規化で訓練された場合の,勾配強化木に対する新しい個別化特徴帰属である予測分解帰属 (predecomp) を提案する。
理論的解析により、PreDecompとインサンプルデータ上のラベルの間の内部積は基本的に木の総収量であり、特徴が独立な場合の集団ケースにおける付加的モデルを忠実に復元できることが示されている。
また,プリデコンプリートと総利得の関係に着想を得たtreeinnerは,各ツリーの個別化特徴属性とラベル間の内積と各ツリーのアウトサンプルデータとで定義された不偏大域的特徴属性の族である。
シミュレーションデータセットとゲノムChIPデータセットの数値実験により、TreeInnerには最先端の機能選択性能があることが示された。
コード再現実験はhttps://github.com/nalzok/treeinnerで利用可能である。 While $\ell_2$ regularization is widely used in training gradient boosted trees, popular individualized feature attribution methods for trees such as Saabas and TreeSHAP overlook the training procedure. We propose Prediction Decomposition Attribution (PreDecomp), a novel individualized feature attribution for gradient boosted trees when they are trained with $\ell_2$ regularization. Theoretical analysis shows that the inner product between PreDecomp and labels on in-sample data is essentially the total gain of a tree, and that it can faithfully recover additive models in the population case when features are independent. Inspired by the connection between PreDecomp and total gain, we also propose TreeInner, a family of debiased global feature attributions defined in terms of the inner product between any individualized feature attribution and labels on out-sample data for each tree. Numerical experiments on a simulated dataset and a genomic ChIP dataset show that TreeInner has state-of-the-art feature selection performance. Code reproducing experiments is available at https://github.com/nalzok/TreeInner . | 翻訳日:2022-11-09 15:37:08 公開日:2022-11-08 |
# SGDのためのBlack Box Lie Groupプレコンディショナー Black Box Lie Group Preconditioners for SGD ( http://arxiv.org/abs/2211.04422v1 ) ライセンス: Link先を確認 | Xilin Li | (参考訳) BFGSアルゴリズムと同様のパラメータと勾配の有限差やヘッセンベクトル積から採取した曲率情報を利用することにより、確率勾配降下(SGD)の収束を加速する行列自由および低階近似プレコンディショナーを提案する。
どちらのプレコンディショナーも、ライン探索が不要で確率勾配雑音に頑健な基準を最小化できるオンライン更新方式を備えており、さらに特定の連結リー群上にいて対応する対称性や不変性、例えば正の行列を持つ連結一般線型群による座標の向きを保つことが制約されている。
リー群の同分散性はプリコンディショナーフィッティングを助長し、その不変性性は2階最適化器では一般的であるがチューニングが難しい減衰のいかなる必要も省く。
パラメータ更新の学習レートとプリコンディショナーフィッティングのステップサイズは自然に正規化され、デフォルト値はほとんどの状況でうまく機能する。 A matrix free and a low rank approximation preconditioner are proposed to accelerate the convergence of stochastic gradient descent (SGD) by exploiting curvature information sampled from Hessian-vector products or finite differences of parameters and gradients similar to the BFGS algorithm. Both preconditioners are fitted with an online updating manner minimizing a criterion that is free of line search and robust to stochastic gradient noise, and further constrained to be on certain connected Lie groups to preserve their corresponding symmetry or invariance, e.g., orientation of coordinates by the connected general linear group with positive determinants. The Lie group's equivariance property facilitates preconditioner fitting, and its invariance property saves any need of damping, which is common in second-order optimizers, but difficult to tune. The learning rate for parameter updating and step size for preconditioner fitting are naturally normalized, and their default values work well in most situations. | 翻訳日:2022-11-09 15:36:47 公開日:2022-11-08 |
# テンソル融合層を有する自発音声からの認知症検出のためのマルチモーダルアプローチ A Multimodal Approach for Dementia Detection from Spontaneous Speech with Tensor Fusion Layer ( http://arxiv.org/abs/2211.04368v1 ) ライセンス: Link先を確認 | Loukas Ilias, Dimitris Askounis, John Psarras | (参考訳) アルツハイマー病(英: alzheimer's disease、ad)は、進行性神経疾患であり、症状が年々徐々に進行することを意味する。
また、認知症の主な原因であり、記憶、思考能力、精神能力に影響を及ぼす。
現在、研究者は、時間効果のある手順を構成するため、自発的な音声からの広告検出に関心を移している。
しかしながら、マルチモーダルアプローチを提案する既存の最先端の作品は、モーダル間相互作用やイントラモーダル相互作用を考慮せず、早期および後期融合アプローチを提案する。
これらの制限に対処するために、我々は、エンドツーエンドのトレーニング可能な方法でトレーニングし、モーダル間およびモーダル間相互作用をキャプチャできるディープニューラルネットワークを提案する。
まず、各オーディオファイルは、log-mel spectrogram、delta、delta-deltaの3つのチャネルからなるイメージに変換される。
次に、各転写文字はBERTモデルに渡され、ゲートされた自己保持層が続く。
同様に、各画像はスウィントランスを通り、独立したゲート付き自己着脱層が続く。
音響的特徴も各音声ファイルから抽出される。
最後に、異なるモジュラリティからの表現ベクトルをテンソル融合層に供給し、モーダル間相互作用をキャプチャする。
ADReSS Challengeデータセットで実施された大規模な実験は、我々の導入したアプローチが、それぞれ86.25%と85.48%のF1スコアに達する既存の研究イニシアチブに対して有益であることを示している。 Alzheimer's disease (AD) is a progressive neurological disorder, meaning that the symptoms develop gradually throughout the years. It is also the main cause of dementia, which affects memory, thinking skills, and mental abilities. Nowadays, researchers have moved their interest towards AD detection from spontaneous speech, since it constitutes a time-effective procedure. However, existing state-of-the-art works proposing multimodal approaches do not take into consideration the inter- and intra-modal interactions and propose early and late fusion approaches. To tackle these limitations, we propose deep neural networks, which can be trained in an end-to-end trainable way and capture the inter- and intra-modal interactions. Firstly, each audio file is converted to an image consisting of three channels, i.e., log-Mel spectrogram, delta, and delta-delta. Next, each transcript is passed through a BERT model followed by a gated self-attention layer. Similarly, each image is passed through a Swin Transformer followed by an independent gated self-attention layer. Acoustic features are extracted also from each audio file. Finally, the representation vectors from the different modalities are fed to a tensor fusion layer for capturing the inter-modal interactions. Extensive experiments conducted on the ADReSS Challenge dataset indicate that our introduced approaches obtain valuable advantages over existing research initiatives reaching Accuracy and F1-score up to 86.25% and 85.48% respectively. | 翻訳日:2022-11-09 15:36:28 公開日:2022-11-08 |
# 脂肪滴から浮遊林へ--PatchGANに基づくセグメンテーションモデルを用いたクロスドメイン移行学習 From fat droplets to floating forests: cross-domain transfer learning using a PatchGAN-based segmentation model ( http://arxiv.org/abs/2211.03937v1 ) ライセンス: Link先を確認 | Kameswara Bharadwaj Mantha, Ramanakumar Sankar, Yuping Zheng, Lucy Fortson, Thomas Pengo, Douglas Mashek, Mark Sanders, Trace Christensen, Jeffrey Salisbury, Laura Trouille, Jarrett E. K. Byrnes, Isaac Rosenthal, Henry Houskeeper, Kyle Cavanaugh | (参考訳) 多くの科学領域は、zooniverse.orgの市民科学プラットフォームが提供するヒューマン・イン・ザ・ループ技術によって機械アルゴリズムを訓練するのに十分なラベルを集めている。
プロジェクトの範囲、タスクタイプ、データレートが増加するにつれ、モデルトレーニングの加速は、最も必要となるボランティア活動に集中する上で最も重要な関心事である。
Zooniverseプロジェクト間のトランスファーラーニング(TL)の適用は、ソリューションとしての可能性を秘めている。
しかし,これと類似した特徴を持つ画像に対して,大規模なジェネリックイメージセットを事前学習するTLアプローチの有効性を理解することは,課題である。
1) 肝臓細胞 (FatChecker, FC) における脂肪滴の同定, (2) 衛星画像 (Floating Forests, FF) におけるケルプ層の同定を, 最初のプロジェクトからの移行学習を通して行う。
我々は,COCO画像集合に基づくTLモデルと比較し,その後,ベースラインモデルと比較した。
FCモデルとCOCO TLモデルの両方が,元のトレーニングサンプルサイズの75%以上を使用する場合,ベースラインモデルよりも優れた性能を示した。
COCOベースのTLモデルは一般的にFCベースのモデルよりも性能が良い。
本研究は,Zooniverseプロジェクト間でホストされているマルチドメインデータに対するTLアプローチの利用に関する重要な知見を提供する。 Many scientific domains gather sufficient labels to train machine algorithms through human-in-the-loop techniques provided by the Zooniverse.org citizen science platform. As the range of projects, task types and data rates increase, acceleration of model training is of paramount concern to focus volunteer effort where most needed. The application of Transfer Learning (TL) between Zooniverse projects holds promise as a solution. However, understanding the effectiveness of TL approaches that pretrain on large-scale generic image sets vs. images with similar characteristics possibly from similar tasks is an open challenge. We apply a generative segmentation model on two Zooniverse project-based data sets: (1) to identify fat droplets in liver cells (FatChecker; FC) and (2) the identification of kelp beds in satellite images (Floating Forests; FF) through transfer learning from the first project. We compare and contrast its performance with a TL model based on the COCO image set, and subsequently with baseline counterparts. We find that both the FC and COCO TL models perform better than the baseline cases when using >75% of the original training sample size. The COCO-based TL model generally performs better than the FC-based one, likely due to its generalized features. Our investigations provide important insights into usage of TL approaches on multi-domain data hosted across different Zooniverse projects, enabling future projects to accelerate task completion. | 翻訳日:2022-11-09 15:35:37 公開日:2022-11-08 |
# 2値ピーク表現を用いたX線回折パターンの増分位相マッピング手法 An Incremental Phase Mapping Approach for X-ray Diffraction Patterns using Binary Peak Representations ( http://arxiv.org/abs/2211.04011v1 ) ライセンス: Link先を確認 | Dipendra Jha, K.V.L.V. Narayanachari, Ruifeng Zhang, Justin Liao, Denis T. Keane, Wei-keng Liao, Alok Choudhary, Yip-Wah Chung, Michael Bedzyk, Ankit Agrawal | (参考訳) 知識発見とデータマイニング技術の進歩にもかかわらず、X線回折(XRD)分析プロセスはほとんど手作業による調査、比較、検証を伴わないままである。
高スループットXRD実験からの大量のXRDサンプルのため、ドメイン科学者が手動で処理することは不可能になっている。
最近、彼らは標準的なクラスタリング技術を活用し始め、ラベリングと検証のために手作業を必要とするXRDパターン表現を減らすようになった。
しかしながら、これらの標準的なクラスタリング手法は、ピークシフト、隣接ピーク、バックグラウンドノイズ、混合位相といった問題固有の側面を扱わないため、さらなるステップを複雑にする誤った構成相図が生じる。
ここでは、データマイニング技術とドメインの専門知識を活用して、これらの問題を解決する。
本稿では,新しい閾値に基づくファジィ類似度尺度を用いた2値ピーク表現に基づく漸進位相マッピング手法を提案する。
提案手法は,まずxrdサンプルの離散二分ピーク表現に対するインクリメンタル位相計算アルゴリズムを適用し,その後に階層的クラスタリングや類似純相の手動マージを行い,最終合成相図を得る。
3元系合金Co-Ni-TaとCo-Ti-Taの組成空間について検討した。
この結果はドメイン科学者によって検証され,手動で計算した地層構造相図によく似ている。
提案するアプローチは、完全なエンドツーエンド自動化xrd分析の目標達成に近づいた。 Despite the huge advancement in knowledge discovery and data mining techniques, the X-ray diffraction (XRD) analysis process has mostly remained untouched and still involves manual investigation, comparison, and verification. Due to the large volume of XRD samples from high-throughput XRD experiments, it has become impossible for domain scientists to process them manually. Recently, they have started leveraging standard clustering techniques, to reduce the XRD pattern representations requiring manual efforts for labeling and verification. Nevertheless, these standard clustering techniques do not handle problem-specific aspects such as peak shifting, adjacent peaks, background noise, and mixed phases; hence, resulting in incorrect composition-phase diagrams that complicate further steps. Here, we leverage data mining techniques along with domain expertise to handle these issues. In this paper, we introduce an incremental phase mapping approach based on binary peak representations using a new threshold based fuzzy dissimilarity measure. The proposed approach first applies an incremental phase computation algorithm on discrete binary peak representation of XRD samples, followed by hierarchical clustering or manual merging of similar pure phases to obtain the final composition-phase diagram. We evaluate our method on the composition space of two ternary alloy systems- Co-Ni-Ta and Co-Ti-Ta. Our results are verified by domain scientists and closely resembles the manually computed ground-truth composition-phase diagrams. The proposed approach takes us closer towards achieving the goal of complete end-to-end automated XRD analysis. | 翻訳日:2022-11-09 15:35:11 公開日:2022-11-08 |
# 経時的ボリュームデータを用いたニューロデドによる疾患進行の時空間モデル Learning Spatio-Temporal Model of Disease Progression with NeuralODEs from Longitudinal Volumetric Data ( http://arxiv.org/abs/2211.04234v1 ) ライセンス: Link先を確認 | Dmitrii Lachinov, Arunava Chakravarty, Christoph Grechenig, Ursula Schmidt-Erfurth, Hrvoje Bogunovic | (参考訳) 進行する疾患による将来の解剖学的変化のロバストな予測は、経験豊富な医療専門家でさえも把握できない極めて困難な課題である。
しかし、この能力は、既に入院段階にある疾患進行の速さに関する情報を提供することで患者の管理を改善することや、迅速な進行剤による臨床試験を充実させ、デジタル双生児によるコントロールアームの必要性を回避できるため、非常に重要である。
本研究では,1つの医療スキャンを処理し,要求された将来点における対象解剖のセグメンテーションを提供することにより,年齢関連疾患の進化をモデル化する深層学習手法を開発する。
提案手法は時間不変な物理過程を表現し,ニューラルネットワークを用いた時間的画素レベルの変化をモデル化する大規模問題を解く。
さらに,事前のドメイン固有の制約を本手法に組み込んで,時間目標学習のための時間的ダイス損失を定義する手法を示す。
高齢者関連疾患に対するアプローチの適用性や画像のモダリティを評価するため,本手法を,Global Atrophy (GTA) 患者100名, アルツハイマー病患者633名, 脳MRI (MRI) 患者2823名を対象に, 提案手法を考案し, 評価した。
地理的萎縮性については,この手法が萎縮性成長予測のベースラインモデルよりも優れていた。
アルツハイマー病では, 提案法は, 疾患によって引き起こされる脳の心室変化を予測し, TADPOLEの課題における最先端の成果を達成できた。 Robust forecasting of the future anatomical changes inflicted by an ongoing disease is an extremely challenging task that is out of grasp even for experienced healthcare professionals. Such a capability, however, is of great importance since it can improve patient management by providing information on the speed of disease progression already at the admission stage, or it can enrich the clinical trials with fast progressors and avoid the need for control arms by the means of digital twins. In this work, we develop a deep learning method that models the evolution of age-related disease by processing a single medical scan and providing a segmentation of the target anatomy at a requested future point in time. Our method represents a time-invariant physical process and solves a large-scale problem of modeling temporal pixel-level changes utilizing NeuralODEs. In addition, we demonstrate the approaches to incorporate the prior domain-specific constraints into our method and define temporal Dice loss for learning temporal objectives. To evaluate the applicability of our approach across different age-related diseases and imaging modalities, we developed and tested the proposed method on the datasets with 967 retinal OCT volumes of 100 patients with Geographic Atrophy, and 2823 brain MRI volumes of 633 patients with Alzheimer's Disease. For Geographic Atrophy, the proposed method outperformed the related baseline models in the atrophy growth prediction. For Alzheimer's Disease, the proposed method demonstrated remarkable performance in predicting the brain ventricle changes induced by the disease, achieving the state-of-the-art result on TADPOLE challenge. | 翻訳日:2022-11-09 15:34:42 公開日:2022-11-08 |
# 言うほど簡単ではない:線形復号法における因果関係の改ざん Much Easier Said Than Done: Falsifying the Causal Relevance of Linear Decoding Methods ( http://arxiv.org/abs/2211.04367v1 ) ライセンス: Link先を確認 | Lucas Hayne, Abhijit Suresh, Hunar Jain, Rahul Kumar, R. McKell Carter | (参考訳) 線形分類器プローブはニューラルネットワークがどのように機能するかをよりよく理解するために頻繁に使用される。
研究者は、学習された内部表現を探索することで、ニューラルネットワークにおけるユニットの重要性を決定する問題にアプローチした。
線形分類器プローブは、高い選択性の高いユニットをネットワーク機能にとって最も重要なものとして識別する。
ネットワークが実際に高い選択性ユニットに依存しているかどうかを、アブレーションを用いてネットワークから除去することでテストすることができる。
意外なことに、高度に選択性の高いユニットが廃止されると、パフォーマンスの損失は少なくなり、場合によっては一部のケースに限られる。
選択的ニューロンに対するアブレーション効果がないにもかかわらず、線形復号法はネットワーク機能の解釈に有効であり、その効果は謎のままである。
ネットワーク関数における選択性の排他的役割をfalsifyし、この矛盾を解消するために、活性化空間の部分領域における単位群を体系的にアブレーションする。
ここでは,プローブにより同定されたニューロンとアブレーションによって同定されたニューロンとの間に弱い相関関係を見いだす。
具体的には,AlexNet,VGG16,MobileNetV2,ResNet101のユニット群において,選択性とユニットの平均活動の相互作用がアブレーション性能の低下を予測できることを示す。
線形デコーダは、ネットワーク機能にとって因果的に重要なユニットと重なるため、何らかの効果がある。
因果的に重要な単位に注目して解釈可能性を改善することができる。 Linear classifier probes are frequently utilized to better understand how neural networks function. Researchers have approached the problem of determining unit importance in neural networks by probing their learned, internal representations. Linear classifier probes identify highly selective units as the most important for network function. Whether or not a network actually relies on high selectivity units can be tested by removing them from the network using ablation. Surprisingly, when highly selective units are ablated they only produce small performance deficits, and even then only in some cases. In spite of the absence of ablation effects for selective neurons, linear decoding methods can be effectively used to interpret network function, leaving their effectiveness a mystery. To falsify the exclusive role of selectivity in network function and resolve this contradiction, we systematically ablate groups of units in subregions of activation space. Here, we find a weak relationship between neurons identified by probes and those identified by ablation. More specifically, we find that an interaction between selectivity and the average activity of the unit better predicts ablation performance deficits for groups of units in AlexNet, VGG16, MobileNetV2, and ResNet101. Linear decoders are likely somewhat effective because they overlap with those units that are causally important for network function. Interpretability methods could be improved by focusing on causally important units. | 翻訳日:2022-11-09 15:34:14 公開日:2022-11-08 |
# アラビア語の方言変化に対するロバスト性のためのパラメータとデータ効率的な連続事前学習 Parameter and Data Efficient Continual Pre-training for Robustness to Dialectal Variance in Arabic ( http://arxiv.org/abs/2211.03966v1 ) ライセンス: Link先を確認 | Soumajyoti Sarkar, Kaixiang Lin, Sailik Sengupta, Leonard Lausen, Sheng Zha, Saab Mansour | (参考訳) 低・高リソース言語におけるタスクに対する多言語言語モデルの使用は、ディープラーニングの成功例である。
近年、アラビア語はその方言のばらつきから広く注目を集めている。
以前の研究は、これらの多言語モデルをアラビア語の方言変種に適応させようと試みてきたが、これらの方言変種の十分な単言語方言データと並列翻訳データが欠如しているため、いまだに難しい問題である。
限られた方言データがアラビア語で訓練されたモデルをその方言変種で改善するために利用できるかどうかについては、未解決の問題である。
まず、多言語BERT(mBERT)をアラビア語単言語データで段階的に事前訓練すると、トレーニング時間が短くなり、我々のカスタム単言語アラビアモデルと比較すると同等の精度が得られることを示す。
次に,(1)少数の方言データを用いて連続的な微調整を行い,(2)アラビア語から英語への平行なデータと翻訳言語モデリング損失関数を探索する。
いずれのアプローチも,単言語モデルで使用する方言分類タスク (+4.64$ avg) の性能向上に寄与することを示す。 The use of multilingual language models for tasks in low and high-resource languages has been a success story in deep learning. In recent times, Arabic has been receiving widespread attention on account of its dialectal variance. While prior research studies have tried to adapt these multilingual models for dialectal variants of Arabic, it still remains a challenging problem owing to the lack of sufficient monolingual dialectal data and parallel translation data of such dialectal variants. It remains an open problem on whether the limited dialectical data can be used to improve the models trained in Arabic on its dialectal variants. First, we show that multilingual-BERT (mBERT) incrementally pretrained on Arabic monolingual data takes less training time and yields comparable accuracy when compared to our custom monolingual Arabic model and beat existing models (by an avg metric of +$6.41$). We then explore two continual pre-training methods-- (1) using small amounts of dialectical data for continual finetuning and (2) parallel Arabic to English data and a Translation Language Modeling loss function. We show that both approaches help improve performance on dialectal classification tasks ($+4.64$ avg. gain) when used on monolingual models. | 翻訳日:2022-11-09 15:28:08 公開日:2022-11-08 |
# テキスト生成のための自己条件埋め込み拡散 Self-conditioned Embedding Diffusion for Text Generation ( http://arxiv.org/abs/2211.04236v1 ) ライセンス: Link先を確認 | Robin Strudel, Corentin Tallec, Florent Altch\'e, Yilun Du, Yaroslav Ganin, Arthur Mensch, Will Grathwohl, Nikolay Savinov, Sander Dieleman, Laurent Sifre, R\'emi Leblond | (参考訳) 連続拡散モデルは、画像生成のために行った自然言語に同じパフォーマンスのブレークスルーをもたらすことができるか?
テキストデータの離散的な性質を回避するために、言語モデリングの標準である埋め込みの連続的な空間にトークンを投影するだけでよい。
本研究では,トークン埋め込みに基づく連続拡散機構である自己条件埋め込み拡散を提案し,条件付きテキスト生成と無条件テキスト生成の両方に対して柔軟かつスケーラブルな拡散モデルを学習する。
定性的かつ定量的な評価を通じて、我々のテキスト拡散モデルが標準自己回帰言語モデルに匹敵するサンプルを生成する一方で、理論上は推論時にアクセラレータハードウェアでより効率的であることを示す。
我々の研究は、自動回帰モデルと同様に、テキストの拡散モデルをスケールアップする方法を開拓し、最近の改良によって連続拡散への性能向上を図っている。 Can continuous diffusion models bring the same performance breakthrough on natural language they did for image generation? To circumvent the discrete nature of text data, we can simply project tokens in a continuous space of embeddings, as is standard in language modeling. We propose Self-conditioned Embedding Diffusion, a continuous diffusion mechanism that operates on token embeddings and allows to learn flexible and scalable diffusion models for both conditional and unconditional text generation. Through qualitative and quantitative evaluation, we show that our text diffusion models generate samples comparable with those produced by standard autoregressive language models - while being in theory more efficient on accelerator hardware at inference time. Our work paves the way for scaling up diffusion models for text, similarly to autoregressive models, and for improving performance with recent refinements to continuous diffusion. | 翻訳日:2022-11-09 15:27:44 公開日:2022-11-08 |
# SLATE:自由形インキコンテンツからのタスク抽出のためのシーケンスラベリング手法 SLATE: A Sequence Labeling Approach for Task Extraction from Free-form Inked Content ( http://arxiv.org/abs/2211.04454v1 ) ライセンス: Link先を確認 | Apurva Gandhi, Ryan Serrao, Biyi Fang, Gilbert Antonius, Jenna Hong, Tra My Nguyen, Sheng Yi, Ehi Nosakhare, Irene Shaffer, Soundararajan Srinivasan, Vivek Gupta | (参考訳) 仮想ホワイトボード上に,デジタル手書き(または「リンク」)ノートなどの自由形式のコンテンツからタスクを抽出するシーケンスラベリング手法であるSLATEを提案する。
提案手法は,タスク/非タスク文への文分割と分類を同時に行うための,単一かつ低遅延モデルの構築を可能にする。
SLATEはベースライン2モデル(セグメンテーションと分類モデル)のアプローチを大きく上回り、タスクF1スコアは84.4\%、文セグメンテーション(境界類似度)スコアは88.4%、レイテンシはベースラインよりも3倍低い。
さらに, inking ドメイン上で nlp を実行する際の課題について考察する。
この新しいタスクのために、コードとデータセットの両方をリリースします。 We present SLATE, a sequence labeling approach for extracting tasks from free-form content such as digitally handwritten (or "inked") notes on a virtual whiteboard. Our approach allows us to create a single, low-latency model to simultaneously perform sentence segmentation and classification of these sentences into task/non-task sentences. SLATE greatly outperforms a baseline two-model (sentence segmentation followed by classification model) approach, achieving a task F1 score of 84.4\%, a sentence segmentation (boundary similarity) score of 88.4% and three times lower latency compared to the baseline. Furthermore, we provide insights into tackling challenges of performing NLP on the inking domain. We release both our code and dataset for this novel task. | 翻訳日:2022-11-09 15:27:29 公開日:2022-11-08 |
# ATCO2コーパス:航空交通制御通信の音声認識と自然言語理解に関する研究のための大規模データセット ATCO2 corpus: A Large-Scale Dataset for Research on Automatic Speech Recognition and Natural Language Understanding of Air Traffic Control Communications ( http://arxiv.org/abs/2211.04054v1 ) ライセンス: Link先を確認 | Juan Zuluaga-Gomez and Karel Vesel\'y and Igor Sz\"oke and Petr Motlicek and Martin Kocour and Mickael Rigault and Khalid Choukri and Amrutha Prasad and Seyyed Saeed Sarfjoo and Iuliia Nigmatulina and Claudia Cevenini and Pavel Kol\v{c}\'arek and Allan Tart and Jan \v{C}ernock\'y | (参考訳) デジタル世界では,パーソナルアシスタント,自動音声認識,対話理解システムがますます重要になっている。
明確な例として、航空管制(ATC)通信がある。
atcは航空機を誘導し、安全かつ最適な方法で空域を制御することを目的としている。
これらの音声ベースの対話は、atco(air traffic controller)と高周波数の無線チャネルを介してパイロットの間で行われる。
これらの新しい技術をATC(低リソース領域)に組み込むには、データ駆動型AIシステムの開発には大規模なアノテートデータセットが必要である。
2つの例は、自動音声認識(ASR)と自然言語理解(NLU)である。
本稿では,アノテートデータの欠如により遅れを取っているatc分野の研究の促進を目的としたデータセットであるatco2コーパスを提案する。
ATCO2コーパスカバー
1)データ収集及び前処理
2)音声データの擬似注釈,及び
3) atc関連名前付きエンティティの抽出。
ATCO2コーパスは3つのサブセットに分けられる。
1)ATCO2-test-set corpusは、手書き文字によるATC音声の4時間と、名前付き認識(コールサイン、コマンド、値)のための金アノテーションのサブセットを含む。
2)ATCO2-PLセットコーパスは,ドメイン内音声認識器,文脈情報,話者ターン情報,信号対雑音比推定,英単語検出スコアから,5281時間の未ラベルATCデータから成っている。
どちらもELDA経由で http://catalog.elra.info/en-us/repository/browse/ELRA-S0484 で購入することができる。
3) ATCO2-test-set-1hコーパスは、元のテストセットコーパスから1時間のサブセットであり、https://www.atco2.org/data.comで無料で提供しています。
我々はATCO2コーパスが、ATC通信だけでなく、一般研究コミュニティにおいても堅牢なASRとNLUの研究を促進することを期待している。 Personal assistants, automatic speech recognizers and dialogue understanding systems are becoming more critical in our interconnected digital world. A clear example is air traffic control (ATC) communications. ATC aims at guiding aircraft and controlling the airspace in a safe and optimal manner. These voice-based dialogues are carried between an air traffic controller (ATCO) and pilots via very-high frequency radio channels. In order to incorporate these novel technologies into ATC (low-resource domain), large-scale annotated datasets are required to develop the data-driven AI systems. Two examples are automatic speech recognition (ASR) and natural language understanding (NLU). In this paper, we introduce the ATCO2 corpus, a dataset that aims at fostering research on the challenging ATC field, which has lagged behind due to lack of annotated data. The ATCO2 corpus covers 1) data collection and pre-processing, 2) pseudo-annotations of speech data, and 3) extraction of ATC-related named entities. The ATCO2 corpus is split into three subsets. 1) ATCO2-test-set corpus contains 4 hours of ATC speech with manual transcripts and a subset with gold annotations for named-entity recognition (callsign, command, value). 2) The ATCO2-PL-set corpus consists of 5281 hours of unlabeled ATC data enriched with automatic transcripts from an in-domain speech recognizer, contextual information, speaker turn information, signal-to-noise ratio estimate and English language detection score per sample. Both available for purchase through ELDA at http://catalog.elra.info/en-us/repository/browse/ELRA-S0484. 3) The ATCO2-test-set-1h corpus is a one-hour subset from the original test set corpus, that we are offering for free at https://www.atco2.org/data. We expect the ATCO2 corpus will foster research on robust ASR and NLU not only in the field of ATC communications but also in the general research community. | 翻訳日:2022-11-09 15:27:16 公開日:2022-11-08 |
# 深層強化学習における事前学習:調査 Pretraining in Deep Reinforcement Learning: A Survey ( http://arxiv.org/abs/2211.03959v1 ) ライセンス: Link先を確認 | Zhihui Xie, Zichuan Lin, Junyou Li, Shuai Li, Deheng Ye | (参考訳) 近年,強化学習(RL)と深層学習の組み合わせが急速に進展している。
ゲームからロボットまで様々なブレークスルーが、高度なrlアルゴリズムやシステムの設計に興味を惹きつけている。
しかし、RLの一般的なワークフローは、計算の非効率性を引き起こす可能性のあるタブララザを学習することである。
これにより、RLアルゴリズムの継続的展開を防ぎ、大規模コンピューティングリソースを持たない研究者を排除できる可能性がある。
機械学習の他の多くの分野において、事前学習パラダイムは、様々な下流タスクに使用できる伝達可能な知識の獲得に有効であることが示されている。
近年,Deep RLの事前学習への関心が高まっており,有望な結果が得られている。
しかし、研究の多くは異なる実験環境に基づいている。
RLの性質のため、この分野での事前訓練には固有の課題があり、そのため新しい設計原則が必要である。
本研究は,深層強化学習のための事前学習における既存研究の体系的見直し,これらの手法の分類,各サブフィールドの議論,オープン問題と今後の方向性について注目することを目的とする。 The past few years have seen rapid progress in combining reinforcement learning (RL) with deep learning. Various breakthroughs ranging from games to robotics have spurred the interest in designing sophisticated RL algorithms and systems. However, the prevailing workflow in RL is to learn tabula rasa, which may incur computational inefficiency. This precludes continuous deployment of RL algorithms and potentially excludes researchers without large-scale computing resources. In many other areas of machine learning, the pretraining paradigm has shown to be effective in acquiring transferable knowledge, which can be utilized for a variety of downstream tasks. Recently, we saw a surge of interest in Pretraining for Deep RL with promising results. However, much of the research has been based on different experimental settings. Due to the nature of RL, pretraining in this field is faced with unique challenges and hence requires new design principles. In this survey, we seek to systematically review existing works in pretraining for deep reinforcement learning, provide a taxonomy of these methods, discuss each sub-field, and bring attention to open problems and future directions. | 翻訳日:2022-11-09 15:26:23 公開日:2022-11-08 |
# abc:オフラインモードシーキング模倣学習のための敵対的行動クローニング ABC: Adversarial Behavioral Cloning for Offline Mode-Seeking Imitation Learning ( http://arxiv.org/abs/2211.04005v1 ) ライセンス: Link先を確認 | Eddy Hudson and Ishan Durugkar and Garrett Warnell and Peter Stone | (参考訳) 専門家エージェントが関心のある環境と相互作用するデータセットが与えられると、効果的なエージェントポリシーを抽出するための実行可能な方法は、このデータで示される最大確率ポリシーを推定することである。
この手法は一般に行動クローニング(BC)と呼ばれる。
本研究は,学習者の方針がガウス語で表される場合,bc が状態的専門家の行動分布に対して平均的に参照されるという,bc の重要な欠点を述べる。
そこで本研究では,gan(generative adversarial network)トレーニングの要素を組み込んだモードシーキング行動を示す,bcの修正版であるadversarial behavior clone (abc)を提案する。
我々は,DeepMind Control スイートから Hopper をベースとした玩具ドメインとドメイン上でABC を評価し,モード探索により標準 BC よりも優れていることを示す。 Given a dataset of expert agent interactions with an environment of interest, a viable method to extract an effective agent policy is to estimate the maximum likelihood policy indicated by this data. This approach is commonly referred to as behavioral cloning (BC). In this work, we describe a key disadvantage of BC that arises due to the maximum likelihood objective function; namely that BC is mean-seeking with respect to the state-conditional expert action distribution when the learner's policy is represented with a Gaussian. To address this issue, we introduce a modified version of BC, Adversarial Behavioral Cloning (ABC), that exhibits mode-seeking behavior by incorporating elements of GAN (generative adversarial network) training. We evaluate ABC on toy domains and a domain based on Hopper from the DeepMind Control suite, and show that it outperforms standard BC by being mode-seeking in nature. | 翻訳日:2022-11-09 15:26:06 公開日:2022-11-08 |
# 双曲グラフ表現学習:チュートリアル Hyperbolic Graph Representation Learning: A Tutorial ( http://arxiv.org/abs/2211.04050v1 ) ライセンス: Link先を確認 | Min Zhou, Menglin Yang, Lujia Pan, Irwin King | (参考訳) グラフ構造化データは、ソーシャルネットワーク、レコメンダシステム、ナレッジグラフ、化学分子など、現実世界のアプリケーションで広く使われている。
グラフ関連学習タスクにおけるユークリッド空間の成功にもかかわらず、複雑なパターンをモデル化する能力は基本的に多項式的に増加する能力によって制限される。
近年,指数関数的成長特性により,木のような構造を持つグラフデータや,ゆるい分布を持つグラフデータ処理の代替として,双曲空間が出現している。
多項式的に拡大するユークリッド空間とは異なり、双曲空間は指数関数的に拡大し、階層的な組織で木のようなグラフやスケールフリーグラフを抽象化する自然な利点をもたらす。
本チュートリアルでは,このグラフ表現学習の新たな分野について,すべてのオーディエンスにアクセス可能なことを目的とした紹介を行う。
まず、グラフ表現学習の簡単な紹介と、いくつかの予備リーマン幾何学と双曲幾何学について述べる。
次に,双曲的浅層モデルや双曲的ニューラルネットワークを含む双曲的埋め込み手法を包括的に検討する。
さらに,これらを汎用フレームワークに統合し,各コンポーネントの変種を要約することにより,現在の双曲グラフニューラルネットワークの技術詳細を紹介する。
さらに,様々な分野における関連アプリケーションについても紹介する。
最後に,非ユークリッドグラフ学習コミュニティのさらなる発展のためのガイドラインとして,グラフ表現学習のための双曲幾何学の先進的な話題について論じる。 Graph-structured data are widespread in real-world applications, such as social networks, recommender systems, knowledge graphs, chemical molecules etc. Despite the success of Euclidean space for graph-related learning tasks, its ability to model complex patterns is essentially constrained by its polynomially growing capacity. Recently, hyperbolic spaces have emerged as a promising alternative for processing graph data with tree-like structure or power-law distribution, owing to the exponential growth property. Different from Euclidean space, which expands polynomially, the hyperbolic space grows exponentially which makes it gains natural advantages in abstracting tree-like or scale-free graphs with hierarchical organizations. In this tutorial, we aim to give an introduction to this emerging field of graph representation learning with the express purpose of being accessible to all audiences. We first give a brief introduction to graph representation learning as well as some preliminary Riemannian and hyperbolic geometry. We then comprehensively revisit the hyperbolic embedding techniques, including hyperbolic shallow models and hyperbolic neural networks. In addition, we introduce the technical details of the current hyperbolic graph neural networks by unifying them into a general framework and summarizing the variants of each component. Moreover, we further introduce a series of related applications in a variety of fields. In the last part, we discuss several advanced topics about hyperbolic geometry for graph representation learning, which potentially serve as guidelines for further flourishing the non-Euclidean graph learning community. | 翻訳日:2022-11-09 15:25:48 公開日:2022-11-08 |
# 訓練可能なフィードフォワードカーネルによる線形自己アテンション近似 Linear Self-Attention Approximation via Trainable Feedforward Kernel ( http://arxiv.org/abs/2211.04076v1 ) ライセンス: Link先を確認 | Uladzislau Yorsh and Alexander Kovalenko | (参考訳) より高速な計算を追求するために、効率的なトランスフォーマーは、印象的な様々なアプローチを実証する - サブクワッドアテンション複雑性を実現するモデルでは、スパーシリティの概念や入力の低ランク近似を利用して、出席するキーの数を減らすことができる。
しばしば強い数学的基礎に基づいて、カーネル化されたアプローチは、高い精度を維持しながら線形複雑度で注意を近似することができる。
そこで,本稿では,学習可能なカーネルメソッドの考え方を拡張し,トランスフォーマアーキテクチャの自己着脱機構を近似する。 In pursuit of faster computation, Efficient Transformers demonstrate an impressive variety of approaches -- models attaining sub-quadratic attention complexity can utilize a notion of sparsity or a low-rank approximation of inputs to reduce the number of attended keys; other ways to reduce complexity include locality-sensitive hashing, key pooling, additional memory to store information in compacted or hybridization with other architectures, such as CNN. Often based on a strong mathematical basis, kernelized approaches allow for the approximation of attention with linear complexity while retaining high accuracy. Therefore, in the present paper, we aim to expand the idea of trainable kernel methods to approximate the self-attention mechanism of the Transformer architecture. | 翻訳日:2022-11-09 15:25:25 公開日:2022-11-08 |
# AutoMLの技術創発:業界における高性能ソフトウェアと応用に関する調査 The Technological Emergence of AutoML: A Survey of Performant Software and Applications in the Context of Industry ( http://arxiv.org/abs/2211.04148v1 ) ライセンス: Link先を確認 | Alexander Scriven, David Jacob Kedziora, Katarzyna Musial, Bogdan Gabrys | (参考訳) ほとんどの技術分野において、基礎研究と実践的産業集積の間には遅れがある。
一部の科学は、連隊による薬物裁判の薬学的な実践など、商業化のための堅牢で確立されたプロセスを持っているが、他の分野は、基本的な学術的な進歩が徐々に商業と産業の領域に拡散する過渡期に直面している。
自動/自動機械学習(automl/autonomous machine learning, automl/autonoml)の比較的若い分野では、その移行期間が進行中である。
しかし、現在ではこの普及状況と普及状況を評価する研究はほとんど行われていない。
したがって、このレビューは、このトピックに関する知識に2つの主要な貢献をしている。
まず、オープンソースと商用の両方の既存のAutoMLツールについて、最新かつ包括的な調査を提供する。
第2に,実世界のアプリケーション用に設計されたautomlソリューションが"ペルフォーマント"であるかどうかを評価するためのフレームワークを動機付け,概説する。
したがって、学術的および商業的なケーススタディの広範な評価と比較によって、2020年代前半におけるautomlのメインストリームの関与を評価し、将来の普及を加速するための障害と機会を特定する。 With most technical fields, there exists a delay between fundamental academic research and practical industrial uptake. Whilst some sciences have robust and well-established processes for commercialisation, such as the pharmaceutical practice of regimented drug trials, other fields face transitory periods in which fundamental academic advancements diffuse gradually into the space of commerce and industry. For the still relatively young field of Automated/Autonomous Machine Learning (AutoML/AutonoML), that transitory period is under way, spurred on by a burgeoning interest from broader society. Yet, to date, little research has been undertaken to assess the current state of this dissemination and its uptake. Thus, this review makes two primary contributions to knowledge around this topic. Firstly, it provides the most up-to-date and comprehensive survey of existing AutoML tools, both open-source and commercial. Secondly, it motivates and outlines a framework for assessing whether an AutoML solution designed for real-world application is 'performant'; this framework extends beyond the limitations of typical academic criteria, considering a variety of stakeholder needs and the human-computer interactions required to service them. Thus, additionally supported by an extensive assessment and comparison of academic and commercial case-studies, this review evaluates mainstream engagement with AutoML in the early 2020s, identifying obstacles and opportunities for accelerating future uptake. | 翻訳日:2022-11-09 15:25:12 公開日:2022-11-08 |
# 雑音画像分類のための学習アドバイザネットワーク Learning advisor networks for noisy image classification ( http://arxiv.org/abs/2211.04177v1 ) ライセンス: Link先を確認 | Simone Ricci, Tiberio Uricchio, Alberto Del Bimbo | (参考訳) 本稿では,画像分類における雑音ラベル問題に対処するために,アドバイザネットワークの新たな概念を提案する。
ディープニューラルネットワーク(DNN)は、ノイズの多いアノテーションでトレーニングデータにパフォーマンスの低下と過度に適合する傾向にある。
重み付け損失法は、トレーニング中のノイズラベルの影響を軽減し、貢献を完全に排除することを目的としている。
この破棄プロセスは、DNNが画像と正しいラベルの間違った関連を学習するのを防ぐが、特にほとんどのサンプルがノイズのあるラベルを持っている場合、使用されるデータの量を減らす。
異なる方法では,各データの損失値を変更することなく,分類器から直接抽出した特徴量を評価する。
アドバイザは、誤ってラベル付けされた例に存在する情報の一部のみに集中し、分類器がそのデータを活用するのに役立つ。
私たちはメタ学習戦略でトレーニングを行い、メインモデルのトレーニングを通じて適応できるようにしました。
我々はCIFAR10とCIFAR100を合成雑音で試験し,実環境雑音を含むCrothing1Mを用いて最先端の結果を報告する。 In this paper, we introduced the novel concept of advisor network to address the problem of noisy labels in image classification. Deep neural networks (DNN) are prone to performance reduction and overfitting problems on training data with noisy annotations. Weighting loss methods aim to mitigate the influence of noisy labels during the training, completely removing their contribution. This discarding process prevents DNNs from learning wrong associations between images and their correct labels but reduces the amount of data used, especially when most of the samples have noisy labels. Differently, our method weighs the feature extracted directly from the classifier without altering the loss value of each data. The advisor helps to focus only on some part of the information present in mislabeled examples, allowing the classifier to leverage that data as well. We trained it with a meta-learning strategy so that it can adapt throughout the training of the main model. We tested our method on CIFAR10 and CIFAR100 with synthetic noise, and on Clothing1M which contains real-world noise, reporting state-of-the-art results. | 翻訳日:2022-11-09 15:18:50 公開日:2022-11-08 |
# 測定誤差を考慮した線形潜在変数モデルの因果発見 Causal Discovery in Linear Latent Variable Models Subject to Measurement Error ( http://arxiv.org/abs/2211.03984v1 ) ライセンス: Link先を確認 | Yuqin Yang, AmirEmad Ghassami, Mohamed Nafea, Negar Kiyavash, Kun Zhang, Ilya Shpitser | (参考訳) 本研究では,混合行列,すなわち観測変数に関連する独立外因性雑音項を表す行列が列の置換とスケーリングによって同定される線形系において,測定誤差が存在する場合の因果発見に焦点をあてる。
我々は, 混合行列によって与えられる写像が存在するという意味で, 観察されていないペアレント原因の存在下で, この問題と因果発見との間に, 幾分驚くべき関係があることを実証する。
その結果、あるモデルの混合行列に基づく識別可能性の結果は、他のモデルの識別可能性結果に変換される。
因果モデルが2部忠実性仮定の下でどの程度識別できるかを特徴付ける。
仮定の最初の部分(従来の忠実性の定義に相当)のみの下では、この構造は変数の順序群の中で因果順序を学習することができるが、群全体のすべての辺を識別することはできない。
さらに, 忠実性仮定の双方が課された場合, 構造はより洗練された順序付きグループ化まで学習できることを示した。
この精細化の結果、観測されていないペアレント原因を持つ潜在変数モデルでは、構造を同定することができる。
理論的結果に基づいて,両モデル間の因果構造学習手法を提案し,その性能を合成データ上で評価する。 We focus on causal discovery in the presence of measurement error in linear systems where the mixing matrix, i.e., the matrix indicating the independent exogenous noise terms pertaining to the observed variables, is identified up to permutation and scaling of the columns. We demonstrate a somewhat surprising connection between this problem and causal discovery in the presence of unobserved parentless causes, in the sense that there is a mapping, given by the mixing matrix, between the underlying models to be inferred in these problems. Consequently, any identifiability result based on the mixing matrix for one model translates to an identifiability result for the other model. We characterize to what extent the causal models can be identified under a two-part faithfulness assumption. Under only the first part of the assumption (corresponding to the conventional definition of faithfulness), the structure can be learned up to the causal ordering among an ordered grouping of the variables but not all the edges across the groups can be identified. We further show that if both parts of the faithfulness assumption are imposed, the structure can be learned up to a more refined ordered grouping. As a result of this refinement, for the latent variable model with unobserved parentless causes, the structure can be identified. Based on our theoretical results, we propose causal structure learning methods for both models, and evaluate their performance on synthetic data. | 翻訳日:2022-11-09 15:18:32 公開日:2022-11-08 |
# 音声言語理解のためのラベル・セマンティクスインジェクションを用いた動的グラフ対話型フレームワーク A Dynamic Graph Interactive Framework with Label-Semantic Injection for Spoken Language Understanding ( http://arxiv.org/abs/2211.04023v1 ) ライセンス: Link先を確認 | Zhihong Zhu, Weiyuan Xu, Xuxin Cheng, Tengtao Song and Yuexian Zou | (参考訳) 複雑な現実シナリオに近いため,マルチインテント検出やスロット充填ジョイントモデルの普及が進んでいる。
しかし,既存のアプローチでは,(1)明示的なラベル特性を無視しつつ,両方のタスクにおいて発話とワンホット符号化ラベルの暗黙の相関関係を識別すること,(2)無関係な意図の導入によるスロット予測の誤りにつながる可能性のあるトークンに対して,複数のインテント情報を直接組み込むことに重点を置いている。
本稿では,まずラベルのセマンティック情報を利用して,モデルに付加的な信号を与え,よりリッチな事前情報を与える,DGIFというフレームワークを提案する。
次に、意図とスロット間の相関をモデル化するために、マルチグラインド・インタラクティブグラフを構築する。
具体的には,ラベルセマンティクスの注入に基づいてインタラクティブグラフを構築するための新しい手法を提案する。
実験の結果,これまでのmixatisデータセットのベストモデルと比較して,13.7%の相対的改善が得られた。 Multi-intent detection and slot filling joint models are gaining increasing traction since they are closer to complicated real-world scenarios. However, existing approaches (1) focus on identifying implicit correlations between utterances and one-hot encoded labels in both tasks while ignoring explicit label characteristics; (2) directly incorporate multi-intent information for each token, which could lead to incorrect slot prediction due to the introduction of irrelevant intent. In this paper, we propose a framework termed DGIF, which first leverages the semantic information of labels to give the model additional signals and enriched priors. Then, a multi-grain interactive graph is constructed to model correlations between intents and slots. Specifically, we propose a novel approach to construct the interactive graph based on the injection of label semantics, which can automatically update the graph to better alleviate error propagation. Experimental results show that our framework significantly outperforms existing approaches, obtaining a relative improvement of 13.7% over the previous best model on the MixATIS dataset in overall accuracy. | 翻訳日:2022-11-09 15:18:10 公開日:2022-11-08 |
# Consprompt: 簡単なプロンプト学習のためのコントラストサンプルのエクスプロイト ConsPrompt: Easily Exploiting Contrastive Samples for Few-shot Prompt Learning ( http://arxiv.org/abs/2211.04118v1 ) ライセンス: Link先を確認 | Jinta Weng and Yue Hu and Zhihong Tian and Heyan Huang | (参考訳) 最近、プロンプト・ラーニングはplmの知識を数少ない設定タスクにモチベーションづける効果的な言語ツールとなっている。
しかしながら、継続的なプロンプトの適切な初期化と専門家優先のマニュアルプロンプトが微調整プロセスに不可欠であるため、学習に堅牢性の欠如が依然として存在することが研究によって示されている。
さらに、人間は比較能力を利用して、異なる例を区別するために既存の知識を動機付けます。
そこで本研究では,コントラストサンプルを用いた即興学習の強化について検討する。
具体的には,まず,プロンプト符号化ネットワーク,コントラストサンプリングモジュール,コントラストスコアリングモジュールを組み合わせたモデルコンスプロンプトを提案する。
次に、類似性に基づく2つのサンプリング戦略とラベルベースの戦略を導入し、差分コントラスト学習を実現する。
提案手法の有効性は,5つの異なるマイズショット学習タスクにおいて実証され,類似性に基づくサンプリング戦略が対照学習の組合せにおいてラベルベースよりも有効であることを示した。
また,この結果から,plmを動機づける優れた知識プローブとしてコンスプロンプトを想定できることが証明された。 Prompt learning recently become an effective linguistic tool to motivate the PLMs' knowledge on few-shot-setting tasks. However, studies have shown the lack of robustness still exists in prompt learning, since suitable initialization of continuous prompt and expert-first manual prompt are essential in fine-tuning process. What is more, human also utilize their comparative ability to motivate their existing knowledge for distinguishing different examples. Motivated by this, we explore how to use contrastive samples to strengthen prompt learning. In detail, we first propose our model ConsPrompt combining with prompt encoding network, contrastive sampling module, and contrastive scoring module. Subsequently, two sampling strategies, similarity-based and label-based strategies, are introduced to realize differential contrastive learning. The effectiveness of proposed ConsPrompt is demonstrated in five different few-shot learning tasks and shown the similarity-based sampling strategy is more effective than label-based in combining contrastive learning. Our results also exhibits the state-of-the-art performance and robustness in different few-shot settings, which proves that the ConsPrompt could be assumed as a better knowledge probe to motivate PLMs. | 翻訳日:2022-11-09 15:17:50 公開日:2022-11-08 |
# テキスト・アタックにおけるセマンティクスの保存 Preserving Semantics in Textual Adversarial Attacks ( http://arxiv.org/abs/2211.04205v1 ) ライセンス: Link先を確認 | David Herel and Hugo Cisneros and Tomas Mikolov | (参考訳) nlpの逆攻撃は、言語モデルに対する考え方に挑戦する。
この種の敵対攻撃の目標は、テキストの本来の意味を維持しながら、入力テキストを変更して分類器を騙すことである。
既存のほとんどの敵攻撃は意味論保存の制約を満たすと主張しているが、注意深い精査はそれ以外は示さない。
問題となるのは,テキストエンコーダが敵の類似性,特にその訓練方法の類似性を決定することにある。
教師なしの訓練方法により、これらのエンコーダは、アントロニム認識の問題により敏感になる。
そこで本研究では,spe(semantics-preserving-encoder)と呼ばれる文埋め込み手法を提案する。
その結果,提案手法は,生成した逆例の意味の変化を最小限に抑えることができた。
また、人間の評価者によって確認されるように、敵の例の全体的な品質も大幅に向上する。
さらに、同様の攻撃の成功を維持しながら、実行をスピードアップするために、既存の攻撃のコンポーネントとして使用できる。 Adversarial attacks in NLP challenge the way we look at language models. The goal of this kind of adversarial attack is to modify the input text to fool a classifier while maintaining the original meaning of the text. Although most existing adversarial attacks claim to fulfill the constraint of semantics preservation, careful scrutiny shows otherwise. We show that the problem lies in the text encoders used to determine the similarity of adversarial examples, specifically in the way they are trained. Unsupervised training methods make these encoders more susceptible to problems with antonym recognition. To overcome this, we introduce a simple, fully supervised sentence embedding technique called Semantics-Preserving-Encoder (SPE). The results show that our solution minimizes the variation in the meaning of the adversarial examples generated. It also significantly improves the overall quality of adversarial examples, as confirmed by human evaluators. Furthermore, it can be used as a component in any existing attack to speed up its execution while maintaining similar attack success. | 翻訳日:2022-11-09 15:17:26 公開日:2022-11-08 |
# アクティブリレーションの発見:一般およびラベル対応オープンリレーション抽出に向けて Active Relation Discovery: Towards General and Label-aware Open Relation Extraction ( http://arxiv.org/abs/2211.04215v1 ) ライセンス: Link先を確認 | Yangning Li, Yinghui Li, Xi Chen, Hai-Tao Zheng, Ying Shen, Hong-Gee Kim | (参考訳) open relation extraction (openre) はオープンドメインから新しい関係を見つけることを目的としている。
従来のOpenRE手法は,(1)既知の関係と新規関係を識別する能力の不足という2つの問題に主に悩まされていた。
従来のテスト設定をもっと一般的な設定に拡張することで、テストデータが目に見えるクラスから来る可能性がある場合、既存のアプローチは大幅にパフォーマンスが低下する。
2) 2次ラベリングは,実用化前に行う必要がある。
既存の手法では、ダウンストリームタスクが緊急に必要とする新しい関係に対して、人間可読で意味のあるタイプをラベル付けすることはできない。
これらの課題に対処するために,未知関係と新規関係を識別するためにリレーショナル・アウトラヤ検出を利用するアクティブ・リレー・ディスカバリー(ARD)フレームワークを提案する。
3つの実世界のデータセットに対する大規模な実験により、ARDは従来と提案した一般のOpenRE設定の両方において、従来の最先端手法よりも大幅に優れていた。
ソースコードとデータセットは再現性のために提供される。 Open Relation Extraction (OpenRE) aims to discover novel relations from open domains. Previous OpenRE methods mainly suffer from two problems: (1) Insufficient capacity to discriminate between known and novel relations. When extending conventional test settings to a more general setting where test data might also come from seen classes, existing approaches have a significant performance decline. (2) Secondary labeling must be performed before practical application. Existing methods cannot label human-readable and meaningful types for novel relations, which is urgently required by the downstream tasks. To address these issues, we propose the Active Relation Discovery (ARD) framework, which utilizes relational outlier detection for discriminating known and novel relations and involves active learning for labeling novel relations. Extensive experiments on three real-world datasets show that ARD significantly outperforms previous state-of-the-art methods on both conventional and our proposed general OpenRE settings. The source code and datasets will be available for reproducibility. | 翻訳日:2022-11-09 15:17:10 公開日:2022-11-08 |
# 英語とペルシア語における中核決議の見直し Review of coreference resolution in English and Persian ( http://arxiv.org/abs/2211.04428v1 ) ライセンス: Link先を確認 | Hassan Haji Mohammadi, Alireza Talebpour, Ahmad Mahmoudi Aznaveh, Samaneh Yazdani | (参考訳) coreference resolution (cr) は自然言語処理において最も難しい領域の1つである。
このタスクは、同じ現実世界のエンティティに対するすべてのテキスト参照を識別する。
この分野の研究は、コリファレンスレゾリューションとアナフォラレゾリューションに分けられる。
テキスト理解の応用や、情報抽出システム、文書要約、機械翻訳などの他のタスクにおける有用性から、この分野は大きな関心を集めている。
その結果、これらのシステムの品質に大きな影響を及ぼす。
本稿では,既存のコーパスと評価指標について概説する。
次に,ルールベースの手法から最新のディープラーニング技術まで,コア推論アルゴリズムの概要について述べる。
最後に,ペルシャ語における中間分解能と代名詞分解能について検討した。 Coreference resolution (CR) is one of the most challenging areas of natural language processing. This task seeks to identify all textual references to the same real-world entity. Research in this field is divided into coreference resolution and anaphora resolution. Due to its application in textual comprehension and its utility in other tasks such as information extraction systems, document summarization, and machine translation, this field has attracted considerable interest. Consequently, it has a significant effect on the quality of these systems. This article reviews the existing corpora and evaluation metrics in this field. Then, an overview of the coreference algorithms, from rule-based methods to the latest deep learning techniques, is provided. Finally, coreference resolution and pronoun resolution systems in Persian are investigated. | 翻訳日:2022-11-09 15:16:54 公開日:2022-11-08 |
# クロス次元ネットワークのためのヒルベルト蒸留 Hilbert Distillation for Cross-Dimensionality Networks ( http://arxiv.org/abs/2211.04031v1 ) ライセンス: Link先を確認 | Dian Qin, Haishuai Wang, Zhe Liu, Hongjia Xu, Sheng Zhou, Jiajun Bu | (参考訳) 3次元畳み込みニューラルネットワークは、ビデオや医用画像などのボリュームデータを処理するのに優れた性能を示している。
しかし、3Dネットワークを利用した競合性能は、2Dネットワークをはるかに超える膨大な計算コストをもたらす。
本稿では,3次元ネットワークの知識を活かして2次元ネットワークの性能を向上する,ヒルベルト曲線を用いた新しいクロス次元蒸留手法を提案する。
提案したヒルベルト蒸留法は,高次元(>=2)表現を1次元連続空間充填曲線にマッピングするヒルベルト曲線を用いて構造情報を保存する。
蒸留された2Dネットワークは、次元的に不均質な3D特徴から変換された曲線によって制御されるため、よく訓練された高次元表現に埋め込まれた構造情報の学習において、2Dネットワークは情報的視点を与える。
さらに,アクティベーション特徴領域におけるヒルベルト曲線の歩幅を動的に短縮し,コンテキスト特徴領域における歩幅を延長し,アクティベーション特徴領域からの学習により多くの注意を払わせる可変長ヒルベルト蒸留法を提案する。
提案アルゴリズムは,2つの分類課題における多次元蒸留に適応した現状の蒸留技術より優れている。
さらに, 提案手法による蒸留2Dネットワークは, 従来の3Dネットワークと競合する性能を達成し, 軽量蒸留2Dネットワークが現実のシナリオにおける煩雑な3Dネットワークの代替となる可能性が示唆された。 3D convolutional neural networks have revealed superior performance in processing volumetric data such as video and medical imaging. However, the competitive performance by leveraging 3D networks results in huge computational costs, which are far beyond that of 2D networks. In this paper, we propose a novel Hilbert curve-based cross-dimensionality distillation approach that facilitates the knowledge of 3D networks to improve the performance of 2D networks. The proposed Hilbert Distillation (HD) method preserves the structural information via the Hilbert curve, which maps high-dimensional (>=2) representations to one-dimensional continuous space-filling curves. Since the distilled 2D networks are supervised by the curves converted from dimensionally heterogeneous 3D features, the 2D networks are given an informative view in terms of learning structural information embedded in well-trained high-dimensional representations. We further propose a Variable-length Hilbert Distillation (VHD) method to dynamically shorten the walking stride of the Hilbert curve in activation feature areas and lengthen the stride in context feature areas, forcing the 2D networks to pay more attention to learning from activation features. The proposed algorithm outperforms the current state-of-the-art distillation techniques adapted to cross-dimensionality distillation on two classification tasks. Moreover, the distilled 2D networks by the proposed method achieve competitive performance with the original 3D networks, indicating the lightweight distilled 2D networks could potentially be the substitution of cumbersome 3D networks in the real-world scenario. | 翻訳日:2022-11-09 15:16:45 公開日:2022-11-08 |
# acneic face dataset生成のための生成型adversarial network Generative Adversarial Networks for anonymous Acneic face dataset generation ( http://arxiv.org/abs/2211.04214v1 ) ライセンス: Link先を確認 | Hazem Zein, Samer Chantaf, R\'egis Fournier, Amine Nait-Ali | (参考訳) トレーニングプロセスとテストプロセスで使用されるデータセットが特定の要件を満たす場合、分類モデルのパフォーマンスが効果的であることはよく知られている。
言い換えれば、データセットのサイズが大きく、バランスが取れ、代表的であるほど、提案されたモデルの有効性を信頼でき、その結果が得られます。
残念ながら、大規模な匿名データセットは一般に生物医学的応用、特に病的人間の顔画像を扱うアプリケーションでは一般には利用できない。
この懸念により、ディープラーニングベースのアプローチの使用は、デプロイが難しく、公開結果の再現や検証が困難になる。
本稿では,3段階の重症度(軽度,中等度,重度)に対応するacne障害の特徴を持つ,人間の顔のリアルな匿名合成データセットを作成する効率的な手法を提案する。
したがって、異なるレベルで訓練された特定の階層型GANベースのアルゴリズムを考える。
提案手法の性能を評価するために,生成した合成アシック顔画像を用いて訓練し,実顔画像を用いてテストするCNNに基づく分類システムを提案する。
その結果,InceptionResNetv2を用いて97,6\%の精度が得られた。
結果として、この研究により、科学コミュニティは、法的または倫理的な懸念に縛られることなく、任意のデータ処理アプリケーションに生成された合成データセットを使用できる。
さらに、このアプローチは、合成医療画像の生成を必要とする他のアプリケーションにも拡張することができる。
コードと生成されたデータセットを科学コミュニティに公開できます。 It is well known that the performance of any classification model is effective if the dataset used for the training process and the test process satisfy some specific requirements. In other words, the more the dataset size is large, balanced, and representative, the more one can trust the proposed model's effectiveness and, consequently, the obtained results. Unfortunately, large-size anonymous datasets are generally not publicly available in biomedical applications, especially those dealing with pathological human face images. This concern makes using deep-learning-based approaches challenging to deploy and difficult to reproduce or verify some published results. In this paper, we suggest an efficient method to generate a realistic anonymous synthetic dataset of human faces with the attributes of acne disorders corresponding to three levels of severity (i.e. Mild, Moderate and Severe). Therefore, a specific hierarchy StyleGAN-based algorithm trained at distinct levels is considered. To evaluate the performance of the proposed scheme, we consider a CNN-based classification system, trained using the generated synthetic acneic face images and tested using authentic face images. Consequently, we show that an accuracy of 97,6\% is achieved using InceptionResNetv2. As a result, this work allows the scientific community to employ the generated synthetic dataset for any data processing application without restrictions on legal or ethical concerns. Moreover, this approach can also be extended to other applications requiring the generation of synthetic medical images. We can make the code and the generated dataset accessible for the scientific community. | 翻訳日:2022-11-09 15:16:19 公開日:2022-11-08 |
# 転校学習における転校時期と転校方法 When & How to Transfer with Transfer Learning ( http://arxiv.org/abs/2211.04347v1 ) ライセンス: Link先を確認 | Adrian Tormos, Dario Garcia-Gasulla, Victor Gimenez-Abalos and Sergio Alvarez-Napagao | (参考訳) ディープラーニングでは、画像関連タスクを扱う場合、転送学習(tl)が事実上のアプローチになっている。
あるタスクで学習した視覚機能は、他のタスクで再利用可能であることが示され、パフォーマンスが大幅に向上した。
ディープ表現を再利用することで、tlはデータ可用性の制限、計算リソースの制限、人間エキスパートへのアクセスの制限のあるドメインでのディープモデルの使用を可能にする。
現実のアプリケーションの大部分を含むドメイン。
本稿では,tlを実験的に評価し,その性能,環境負荷,人的時間および計算要求に関するトレードオフについて検討する。
結果は,安価な機能抽出アプローチが望ましいこと,高価な微調整作業が追加コストに値する状況であることを強調した。
最後に、tlの使用に関する一連のガイドラインを提案する。 In deep learning, transfer learning (TL) has become the de facto approach when dealing with image related tasks. Visual features learnt for one task have been shown to be reusable for other tasks, improving performance significantly. By reusing deep representations, TL enables the use of deep models in domains with limited data availability, limited computational resources and/or limited access to human experts. Domains which include the vast majority of real-life applications. This paper conducts an experimental evaluation of TL, exploring its trade-offs with respect to performance, environmental footprint, human hours and computational requirements. Results highlight the cases were a cheap feature extraction approach is preferable, and the situations where an expensive fine-tuning effort may be worth the added cost. Finally, a set of guidelines on the use of TL are proposed. | 翻訳日:2022-11-09 15:15:59 公開日:2022-11-08 |
# 遠隔クラスタ型無線フェデレート学習 Over-The-Air Clustered Wireless Federated Learning ( http://arxiv.org/abs/2211.03363v2 ) ライセンス: Link先を確認 | Ayush Madhan-Sohini, Divin Dominic, Nazreen Shah, Ranjitha Prasad | (参考訳) プライバシ、セキュリティ、帯域幅の制約により、無線システムにおけるフェデレーション学習(FL)は、生データを共有せずに機械学習(ML)モデルのトレーニングを共同で行うことができる。
このようなコラボレーティブなFL戦略は、しばしば、サーバでのモデルアグリゲーションを必要とします。
一方、分散flでは、参加者の顧客はパラメータ更新を交換することでコンセンサスmlモデルに到達する必要がある。
本研究では,集中型無線FL (CWFL) 戦略を提案する。これは集中型サーバの必要性を排除し,サーバベースの戦略と同様の精度を達成できるが,分散型FLに比べてチャネル使用率が少ない。
理論的には,クラスタ毎のCWFLの収束速度はO(1/T)であり,ノイズの影響を緩和する。
MNIST と CIFAR のデータセットを用いて,通信ラウンド毎に異なるクラスタ数に対して,CWFL の精度性能を示す。 Privacy, security, and bandwidth constraints have led to federated learning (FL) in wireless systems, where training a machine learning (ML) model is accomplished collaboratively without sharing raw data. Often, such collaborative FL strategies necessitate model aggregation at a server. On the other hand, decentralized FL necessitates that participating clients reach a consensus ML model by exchanging parameter updates. In this work, we propose the over-the-air clustered wireless FL (CWFL) strategy, which eliminates the need for a strong central server and yet achieves an accuracy similar to the server-based strategy while using fewer channel uses as compared to decentralized FL. We theoretically show that the convergence rate of CWFL per cluster is O(1/T) while mitigating the impact of noise. Using the MNIST and CIFAR datasets, we demonstrate the accuracy performance of CWFL for the different number of clusters across communication rounds. | 翻訳日:2022-11-09 15:10:33 公開日:2022-11-08 |
# 多層パーセプトロンネットワークを用いた幼魚の遺伝子型判別 Multilayer Perceptron Network Discriminates Larval Zebrafish Genotype using Behaviour ( http://arxiv.org/abs/2211.03051v2 ) ライセンス: Link先を確認 | Christopher Fusco, Angel Allen | (参考訳) ゼブラフィッシュ(zebrafish)は、新しい疾患の治療に用いられる一般的なモデル生物である。
高スループットの薬物スクリーンは、治療後の行動の変化を観察することで、マルチウェルプレートの幼虫ゼブラフィッシュ上で行うことができる。
しかし、この挙動の解析は、得られたデータの高次元性のため困難である。
個々の統計(例えば移動距離など)の統計分析は一般に、治療群間で有意な差異を検出するのに十分ではない。
本稿では,5日間の遺伝子型によるパーキンソン病のゼブラフィッシュモデルの分類法を提案する。
2次元の動作特徴のセットを使用して、多層パーセプトロンニューラルネットワークを訓練する。
さらに,統合勾配を用いることで,各行動特徴がモデルによる遺伝子型分類に与える影響を把握できることを示した。
このようにして、我々はゼブラフィッシュ幼虫を分類するための新しいパイプラインを提供する。 Zebrafish are a common model organism used to identify new disease therapeutics. High-throughput drug screens can be performed on larval zebrafish in multi-well plates by observing changes in behaviour following a treatment. Analysis of this behaviour can be difficult, however, due to the high dimensionality of the data obtained. Statistical analysis of individual statistics (such as the distance travelled) is generally not powerful enough to detect meaningful differences between treatment groups. Here, we propose a method for classifying zebrafish models of Parkinson's disease by genotype at 5 days old. Using a set of 2D behavioural features, we train a multi-layer perceptron neural network. We further show that the use of integrated gradients can give insight into the impact of each behaviour feature on genotype classifications by the model. In this way, we provide a novel pipeline for classifying zebrafish larvae, beginning with feature preparation and ending with an impact analysis of said features. | 翻訳日:2022-11-09 15:10:05 公開日:2022-11-08 |
# スパース機構シフトモデルによる単一細胞の因果表現の学習 Learning Causal Representations of Single Cells via Sparse Mechanism Shift Modeling ( http://arxiv.org/abs/2211.03553v2 ) ライセンス: Link先を確認 | Romain Lopez, Nata\v{s}a Tagasovska, Stephen Ra, Kyunghyn Cho, Jonathan K. Pritchard, Aviv Regev | (参考訳) 変分オートエンコーダ(VAE)のような潜在変数モデルは、特に単細胞ゲノミクスの分野において、生物学的データを解析するためのゴーツーツールとなっている。
残る課題の1つは、細胞のアイデンティティを定義する生物学的プロセスとしての潜在変数の解釈である。
生物学的応用以外では、この問題は一般に学習不整合表現と呼ばれる。
単細胞ゲノミクスデータに適用されたVAEの非絡み合い促進型がいくつか導入されているが、このタスクは追加構造を伴わずに独立かつ同一に分散された測定から不可能であることが示されている。
代わりに、近年の手法では、非定常データとスパース機構シフト仮定を利用して、因果意味を持つ非絡み合った表現を学習することを提案する。
本稿では、遺伝学的・化学的摂動を伴う単細胞ゲノミクスデータの解析への方法論的進歩の応用について述べる。
より正確には、各摂動を未知だがスパースな潜在変数のサブセットを対象とする確率的介入として扱う、単一細胞遺伝子発現データの深い生成モデルを提案する。
これらの手法を単細胞シミュレーションデータにベンチマークし,潜在ユニットのリカバリ,因果目標同定,ドメイン外一般化における性能評価を行った。
最後に,この手法を実世界の2つの大規模遺伝子摂動データセットに適用し,スパース機構シフト仮説を応用したモデルが,トランスファー学習タスクにおける現代手法を上回っていることを見出した。
scvi-toolsライブラリを使って新しいモデルとベンチマークを実装し、それをオープンソースソフトウェアとしてリリースする。 Latent variable models such as the Variational Auto-Encoder (VAE) have become a go-to tool for analyzing biological data, especially in the field of single-cell genomics. One remaining challenge is the interpretability of latent variables as biological processes that define a cell's identity. Outside of biological applications, this problem is commonly referred to as learning disentangled representations. Although several disentanglement-promoting variants of the VAE were introduced, and applied to single-cell genomics data, this task has been shown to be infeasible from independent and identically distributed measurements, without additional structure. Instead, recent methods propose to leverage non-stationary data, as well as the sparse mechanism shift assumption in order to learn disentangled representations with a causal semantic. Here, we extend the application of these methodological advances to the analysis of single-cell genomics data with genetic or chemical perturbations. More precisely, we propose a deep generative model of single-cell gene expression data for which each perturbation is treated as a stochastic intervention targeting an unknown, but sparse, subset of latent variables. We benchmark these methods on simulated single-cell data to evaluate their performance at latent units recovery, causal target identification and out-of-domain generalization. Finally, we apply those approaches to two real-world large-scale gene perturbation data sets and find that models that exploit the sparse mechanism shift hypothesis surpass contemporary methods on a transfer learning task. We implement our new model and benchmarks using the scvi-tools library, and release it as open-source software at \url{https://github.com/Genentech/sVAE}. | 翻訳日:2022-11-09 15:09:42 公開日:2022-11-08 |
# マスキングを増やせば言葉の順序が重要になる Word Order Matters when you Increase Masking ( http://arxiv.org/abs/2211.04427v1 ) ライセンス: Link先を確認 | Karim Lasri and Alessandro Lenci and Thierry Poibeau | (参考訳) 自然言語の重要な性質である語順は、位置符号化を用いてトランスフォーマーベースのニューラルネットワークモデルに注入される。
しかし、最近の実験では、そのような機能を持たないいくつかのモデルでは、いくつかのタスクで最先端のパフォーマンスを達成できたため、明示的な位置符号化が必ずしも有用ではないことが示されている。
この現象をよりよく理解するために,事前学習目標自体(つまりマスキング言語モデル)に対する位置符号化の除去の効果を調べ,モデルが共起者のみから位置情報を再構築できるかどうかを検証した。
我々は,タスクの位置情報の重要性に影響を及ぼすプロキシとして,入力文中のマスクトークンの量を制御する。
位置情報の必要性はマスキングの量とともに増大し、位置エンコーディングのないマスキング言語モデルではタスク上でこの情報を再構築できないことがわかった。
これらの結果は、マスキングの量とトランスフォーマーが位置エンコーディングを用いて言語の順序に敏感な側面を捉える能力との直接的な関係を指している。 Word order, an essential property of natural languages, is injected in Transformer-based neural language models using position encoding. However, recent experiments have shown that explicit position encoding is not always useful, since some models without such feature managed to achieve state-of-the art performance on some tasks. To understand better this phenomenon, we examine the effect of removing position encodings on the pre-training objective itself (i.e., masked language modelling), to test whether models can reconstruct position information from co-occurrences alone. We do so by controlling the amount of masked tokens in the input sentence, as a proxy to affect the importance of position information for the task. We find that the necessity of position information increases with the amount of masking, and that masked language models without position encodings are not able to reconstruct this information on the task. These findings point towards a direct relationship between the amount of masking and the ability of Transformers to capture order-sensitive aspects of language using position encoding. | 翻訳日:2022-11-09 15:09:14 公開日:2022-11-08 |
# 二重不均質強化学習 Doubly Inhomogeneous Reinforcement Learning ( http://arxiv.org/abs/2211.03983v1 ) ライセンス: Link先を確認 | Liyuan Hu and Mengbing Li and Chengchun Shi and Zhenke Wu and Piotr Fryzlewicz | (参考訳) 本稿では,時間的非定常性と対象の不均質性下での2重不均質環境における強化学習(rl)について検討する。
多くのアプリケーションでは、時間や人口によって変化する可能性のあるシステムのダイナミクスによって生成されたデータセットに遭遇し、高品質なシーケンシャルな意思決定に挑戦することが一般的である。
それでも、既存のRL解のほとんどは時間的定常性または主観的均一性を必要とし、両方の仮定が破られた場合、準最適ポリシーをもたらす。
両課題を同時に解決するために,最近の変更点検出とクラスタ識別を交互に行うポリシ学習において,時間とともに個人間で類似したダイナミクスを表示する,‘best data chunks’を決定するアルゴリズムを提案する。
提案手法は汎用的であり,クラスタリングおよび変更点検出アルゴリズムの幅広い範囲で動作する。
インプットとして複数の初期推定器を必要とするという意味では、乗算的に堅牢であり、そのうちの1つが一貫性を持つ必要がある。
さらに, 時間と個体数で情報を借りることで, より弱い信号の検出が可能となり, 時間ごとのクラスタリングアルゴリズムや被検者ごとの変化点検出アルゴリズムに比べ, 収束特性が向上した。
実験により,本手法の有用性を大規模シミュレーションと実データ応用により実証する。 This paper studies reinforcement learning (RL) in doubly inhomogeneous environments under temporal non-stationarity and subject heterogeneity. In a number of applications, it is commonplace to encounter datasets generated by system dynamics that may change over time and population, challenging high-quality sequential decision making. Nonetheless, most existing RL solutions require either temporal stationarity or subject homogeneity, which would result in sub-optimal policies if both assumptions were violated. To address both challenges simultaneously, we propose an original algorithm to determine the ``best data chunks" that display similar dynamics over time and across individuals for policy learning, which alternates between most recent change point detection and cluster identification. Our method is general, and works with a wide range of clustering and change point detection algorithms. It is multiply robust in the sense that it takes multiple initial estimators as input and only requires one of them to be consistent. Moreover, by borrowing information over time and population, it allows us to detect weaker signals and has better convergence properties when compared to applying the clustering algorithm per time or the change point detection algorithm per subject. Empirically, we demonstrate the usefulness of our method through extensive simulations and a real data application. | 翻訳日:2022-11-09 15:08:56 公開日:2022-11-08 |
# UATTA-ENS : PIRC糖尿病網膜症検出のための不確実な検査時間増強 UATTA-ENS: Uncertainty Aware Test Time Augmented Ensemble for PIRC Diabetic Retinopathy Detection ( http://arxiv.org/abs/2211.03148v2 ) ライセンス: Link先を確認 | Pratinav Seth, Adil Khan, Ananya Gupta, Saurabh Kumar Mishra and Akshat Bhandari | (参考訳) Deep Ensemble Convolutional Neural Networksは、糖尿病網膜症の診断を含む、医師に匹敵する診断性能で医療画像を分析する方法として選択されている。
しかし、一般的な手法は決定論的であり、予測の不確実性の推定はできない。
不確実性の定量化は誤診のリスクを軽減するために重要である。
信頼できるアーキテクチャは、自信過剰な予測を避けるために適切に調整されるべきです。
そこで本研究では,5クラスPIRC糖尿病網膜症分類のためのUATTA-ENS: Uncertainty-Aware Test-Time Augmented Ensemble Techniqueを提案する。 Deep Ensemble Convolutional Neural Networks has become a methodology of choice for analyzing medical images with a diagnostic performance comparable to a physician, including the diagnosis of Diabetic Retinopathy. However, commonly used techniques are deterministic and are therefore unable to provide any estimate of predictive uncertainty. Quantifying model uncertainty is crucial for reducing the risk of misdiagnosis. A reliable architecture should be well-calibrated to avoid over-confident predictions. To address this, we propose a UATTA-ENS: Uncertainty-Aware Test-Time Augmented Ensemble Technique for 5 Class PIRC Diabetic Retinopathy Classification to produce reliable and well-calibrated predictions. | 翻訳日:2022-11-09 15:08:36 公開日:2022-11-08 |
# プライバシーと説明可能性 - 包括的な影響ベンチマーク Privacy Meets Explainability: A Comprehensive Impact Benchmark ( http://arxiv.org/abs/2211.04110v1 ) ライセンス: Link先を確認 | Saifullah Saifullah, Dominique Mercier, Adriano Lucieri, Andreas Dengel, Sheraz Ahmed | (参考訳) 10年代半ばから、Deep Learning (DL)の時代は、今日まで続き、毎年新しい話題やイノベーションが生まれている。
それでも、これらのイノベーションが実際のアプリケーションにもたらすスピードは、この速いペースには及ばない。
特に、安全クリティカルな応用は、厳格な規制と倫理的要件を満たしており、これは依然として議論の活発な分野である。
eXplainable AI (XAI) とプライバシ保護機械学習 (PPML) はどちらも重要な研究分野であり、DLで一般的なデータ処理のブラックボックスモデルの欠点を軽減することを目的としている。
それぞれの分野での活発な研究活動にもかかわらず、その相互作用にはまだ注意が払われていない。
本研究は,私的学習手法がDLモデルの生成説明に与える影響を初めて研究したものである。
複数のドメインからの様々な画像および時系列データセット、および様々なプライバシー技術、XAI手法、モデルアーキテクチャを網羅した広範な実験分析において、生成された説明に対するプライベートトレーニングの効果について検討した。
この結果は、プライバシーの導入による説明の無視できない変化を示唆している。
PPMLがXAIに与える影響を個別に報告することとは別に,本論文では,実際の応用におけるテクニックの選択について,明確な推奨を行う。
これらの重要な技術の相互依存を明らかにすることで、この研究は安全クリティカルな領域において、実践的に適用可能なAIのハードルを克服する第一歩となる。 Since the mid-10s, the era of Deep Learning (DL) has continued to this day, bringing forth new superlatives and innovations each year. Nevertheless, the speed with which these innovations translate into real applications lags behind this fast pace. Safety-critical applications, in particular, underlie strict regulatory and ethical requirements which need to be taken care of and are still active areas of debate. eXplainable AI (XAI) and privacy-preserving machine learning (PPML) are both crucial research fields, aiming at mitigating some of the drawbacks of prevailing data-hungry black-box models in DL. Despite brisk research activity in the respective fields, no attention has yet been paid to their interaction. This work is the first to investigate the impact of private learning techniques on generated explanations for DL-based models. In an extensive experimental analysis covering various image and time series datasets from multiple domains, as well as varying privacy techniques, XAI methods, and model architectures, the effects of private training on generated explanations are studied. The findings suggest non-negligible changes in explanations through the introduction of privacy. Apart from reporting individual effects of PPML on XAI, the paper gives clear recommendations for the choice of techniques in real applications. By unveiling the interdependencies of these pivotal technologies, this work is a first step towards overcoming the remaining hurdles for practically applicable AI in safety-critical domains. | 翻訳日:2022-11-09 15:07:41 公開日:2022-11-08 |
# 固有不確実性を考慮したソフトサイス最適化セグメンテーションマップの体積バイアスの理論解析と実験的検証 Theoretical analysis and experimental validation of volume bias of soft Dice optimized segmentation maps in the context of inherent uncertainty ( http://arxiv.org/abs/2211.04161v1 ) ライセンス: Link先を確認 | Jeroen Bertels, David Robben, Dirk Vandermeulen, Paul Suetens | (参考訳) 臨床的な関心は、典型的にはセグメンテーションに由来する構造物の体積を測定することである。
セグメンテーション法を評価・比較するために、セグメンテーションと予め定義された真実との類似性をDiceスコアなどの一般的な離散メトリクスを用いて測定する。
最近のセグメンテーション手法では、学習フェーズにおける損失関数の一部として、ソフトサイスのような微分可能なサロゲートメトリックを用いる。
本研究では,まず,本質的に不確実あるいは曖昧であるセグメント化からボリューム推定を導出する方法を簡潔に説明する。
この後、理論解析と実験的な検証が行われ、cnnの訓練における不確かさと共通の損失関数、すなわちクロスエントロピーとソフトダイスを結びつける。
ソフトなDice最適化は、Diceスコアやその他の測定値に対して改善された性能をもたらすが、本質的な不確実性の高いタスクに対してボリュームバイアスをもたらす可能性がある。
これらの結果から, 臨床上の限界が示唆され, 任意の再校正ステップでより密接なad-hocボリューム分析を行うことが示唆された。 The clinical interest is often to measure the volume of a structure, which is typically derived from a segmentation. In order to evaluate and compare segmentation methods, the similarity between a segmentation and a predefined ground truth is measured using popular discrete metrics, such as the Dice score. Recent segmentation methods use a differentiable surrogate metric, such as soft Dice, as part of the loss function during the learning phase. In this work, we first briefly describe how to derive volume estimates from a segmentation that is, potentially, inherently uncertain or ambiguous. This is followed by a theoretical analysis and an experimental validation linking the inherent uncertainty to common loss functions for training CNNs, namely cross-entropy and soft Dice. We find that, even though soft Dice optimization leads to an improved performance with respect to the Dice score and other measures, it may introduce a volume bias for tasks with high inherent uncertainty. These findings indicate some of the method's clinical limitations and suggest doing a closer ad-hoc volume analysis with an optional re-calibration step. | 翻訳日:2022-11-09 15:07:17 公開日:2022-11-08 |
# HAQJSK:グラフ分類のための階層型量子Jensen-Shannonカーネル HAQJSK: Hierarchical-Aligned Quantum Jensen-Shannon Kernels for Graph Classification ( http://arxiv.org/abs/2211.02904v2 ) ライセンス: Link先を確認 | Lu Bai, Lixin Cui, Yue Wang, Ming Li, Edwin R. Hancock | (参考訳) 本研究では,非分散グラフに対する新しい量子カーネル群,すなわち階層型量子化 Jensen-Shannon Kernels (HAQJSK)を提案する。
多くの従来のグラフカーネルとは異なり、提案されたHAQJSKカーネルは、乱数サイズのグラフと変換グラフの間の階層的整列構造情報を固定サイズの整列グラフ構造、すなわち頂点の階層的推移的配向随伴行列と連続時間量子ウォーク(CTQW)の階層的推移的配向密度行列に組み込むことができる。
一対のグラフに対して、得られたHAQJSKカーネルは、その推移的整列グラフ構造の間の量子ジェンセン-シャノン分岐(QJSD)を測定することによって定義される。
提案するHAQJSKカーネルは,CTQWの観点からより固有なグローバルグラフ特性を反映するだけでなく,既存のR-畳み込みカーネルで発生する構造的対応情報を無視する欠点にも対処する。
さらに、QJSDとCTQWに関連付けられた以前の量子Jensen-Shannonカーネルとは異なり、提案されたHAQJSKカーネルは、置換不変性と正定性の性質を同時に保証し、HAQJSKカーネルの理論的利点を説明することができる。
実験は提案したカーネルの有効性を示す。 In this work, we propose a family of novel quantum kernels, namely the Hierarchical Aligned Quantum Jensen-Shannon Kernels (HAQJSK), for un-attributed graphs. Different from most existing classical graph kernels, the proposed HAQJSK kernels can incorporate hierarchical aligned structure information between graphs and transform graphs of random sizes into fixed-sized aligned graph structures, i.e., the Hierarchical Transitive Aligned Adjacency Matrix of vertices and the Hierarchical Transitive Aligned Density Matrix of the Continuous-Time Quantum Walk (CTQW). For a pair of graphs to hand, the resulting HAQJSK kernels are defined by measuring the Quantum Jensen-Shannon Divergence (QJSD) between their transitive aligned graph structures. We show that the proposed HAQJSK kernels not only reflect richer intrinsic global graph characteristics in terms of the CTQW, but also address the drawback of neglecting structural correspondence information arising in most existing R-convolution kernels. Furthermore, unlike the previous Quantum Jensen-Shannon Kernels associated with the QJSD and the CTQW, the proposed HAQJSK kernels can simultaneously guarantee the properties of permutation invariant and positive definiteness, explaining the theoretical advantages of the HAQJSK kernels. Experiments indicate the effectiveness of the proposed kernels. | 翻訳日:2022-11-09 14:58:44 公開日:2022-11-08 |
# サイクルアソシエーションによるビデオからの一般化可能な再同定 Generalizable Re-Identification from Videos with Cycle Association ( http://arxiv.org/abs/2211.03663v2 ) ライセンス: Link先を確認 | Zhongdao Wang, Zhaopeng Dou, Jingwei Zhang, Liang Zheng, Yifan Sun, Yali Li, Shengjin Wang | (参考訳) 本稿では,ラベルなしビデオから一般化可能な人物再識別(re-ID)表現を学習することに興味がある。
比較すると
1) トレーニングセットとテストセットが通常同じドメイン下にある、一般的な教師なしのリID設定
2) トレーニングサンプルをラベル付けした一般的なドメイン一般化(DG) re-ID設定では,トレーニングサンプルはラベル付けされず,テストドメインと整合しないさまざまなドメインで収集されるという,新たなシナリオが両立している。
言い換えれば、教師なしの方法で表現を学習し、新しいドメインでのre-IDに直接使用することを目指している。
この目標を達成するために、我々は、トレーニングの複雑さを低く抑えるスケーラブルな自己教師型学習手法であるCycle Association (CycAs) と、提案手法に合わせてLMP-videoという名の大規模未ラベルのre-IDデータセットを構築した。
具体的には、CycAsは、時間的に連続したビデオフレームペア間のインスタンス関連のサイクル一貫性を強制することにより、re-ID特徴を学習し、トレーニングコストはデータサイズにのみ線形であり、大規模なトレーニングを可能にする。
一方、LMPビデオデータセットは非常に巨大で、10万本以上のYoutubeビデオから収集された5000万枚の未ラベルの人物画像を含んでいるため、自己教師による学習に十分な土壌として機能する。
CycAsは,LMPビデオで学習し,新しいドメインに対して優れた一般化を学習している。
達成された結果は、時には教師付き領域一般化可能なモデルよりも優れる。
注目すべきは、CycAsがマーケット1501で82.2%、MSMT17で49.0%のランク-1を達成したことだ。
また,CycAsの非教師付きre-IDおよびプレトレイン・アンド・ファネチューンシナリオ下での優位性も示す。 In this paper, we are interested in learning a generalizable person re-identification (re-ID) representation from unlabeled videos. Compared with 1) the popular unsupervised re-ID setting where the training and test sets are typically under the same domain, and 2) the popular domain generalization (DG) re-ID setting where the training samples are labeled, our novel scenario combines their key challenges: the training samples are unlabeled, and collected form various domains which do no align with the test domain. In other words, we aim to learn a representation in an unsupervised manner and directly use the learned representation for re-ID in novel domains. To fulfill this goal, we make two main contributions: First, we propose Cycle Association (CycAs), a scalable self-supervised learning method for re-ID with low training complexity; and second, we construct a large-scale unlabeled re-ID dataset named LMP-video, tailored for the proposed method. Specifically, CycAs learns re-ID features by enforcing cycle consistency of instance association between temporally successive video frame pairs, and the training cost is merely linear to the data size, making large-scale training possible. On the other hand, the LMP-video dataset is extremely large, containing 50 million unlabeled person images cropped from over 10K Youtube videos, therefore is sufficient to serve as fertile soil for self-supervised learning. Trained on LMP-video, we show that CycAs learns good generalization towards novel domains. The achieved results sometimes even outperform supervised domain generalizable models. Remarkably, CycAs achieves 82.2% Rank-1 on Market-1501 and 49.0% Rank-1 on MSMT17 with zero human annotation, surpassing state-of-the-art supervised DG re-ID methods. Moreover, we also demonstrate the superiority of CycAs under the canonical unsupervised re-ID and the pretrain-and-finetune scenarios. | 翻訳日:2022-11-09 14:58:15 公開日:2022-11-08 |