このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20220828となっている論文です。

PDF登録状況(公開日: 20220828)

TitleAuthorsAbstract論文公表日・翻訳日
# 光格子におけるスピン軌道結合ボース-アインシュタイン凝縮体の超流動の解析結果

Analytical results for the superflow of spin-orbit-coupled Bose-Einstein condensates in optical lattices ( http://arxiv.org/abs/2104.09796v2 )

ライセンス: Link先を確認
Xiaobing Luo, Zhou Hu, Zhao-Yun Zeng, Yunrong Luo, Baiyuan Yang, Jinpeng Xiao, Lei Li, and Ai-Xi Chen(参考訳) 本稿では,十分に強い原子間相互作用に対して,光格子に対称なスピン相互作用を持つスピン軌道結合ボース・アインシュタイン凝縮系(becs)のモデルへのブリルアンゾーンエッジにおける電流輸送非線形ブロッホ状態の解析解が存在することを示す。 これらの単純だが汎用的な正確な解は、通常のBEC格子系や一様スピン軌道結合BEC系では類似しない興味深い性質を解析的に証明する。 これはスピン軌道結合BEC格子系の超流動およびその他の関連する性質を理解するための分析的な例である。

In this paper, we show that for sufficiently strong atomic interactions, there exist analytical solutions of current-carrying nonlinear Bloch states at the Brillouin zone edge to the model of spin-orbit-coupled Bose-Einstein condensates (BECs) with symmetric spin interaction loaded into optical lattices. These simple but generic exact solutions provide an analytical demonstration of some intriguing properties which have neither an analog in the regular BEC lattice systems nor in the uniform spin-orbit-coupled BEC systems. It is an analytical example for understanding the superfluid and other related properties of the spin-orbit-coupled BEC lattice systems.
翻訳日:2023-04-03 02:38:16 公開日:2022-08-28
# シカモア量子回路のサンプリング問題の解法

Solving the sampling problem of the Sycamore quantum circuits ( http://arxiv.org/abs/2111.03011v2 )

ライセンス: Link先を確認
Feng Pan, Keyang Chen, Pan Zhang(参考訳) 本研究では,google の sycamore 量子回路の出力分布から,従来のスーパーコンピュータの到達範囲を超え,量子超越性を示すために用いられてきた目標忠実性を持つ独立サンプルを生成する問題について検討する。 そこで本研究では,対応するテンソルネットワークを1回だけ縮約することにより,この問題を古典的に解く新しい手法を提案する。 535$ qubits と 20$ cycles の sycamore 量子超越回路では、$\hat p(\mathbf s)=|\hat \psi(\mathbf s)|^2$ という分布からサンプル化された100万個の非相関ビット文字列 $\{\mathbf s\}$ を生成した。 計算全体の費用は計算クラスタで約15ドル、GPUは512ドルだ。 得られた100万のサンプルは、収縮コードと収縮順序を公表する。 もし我々のアルゴリズムがExaFLOPS性能を持つ現代のスーパーコンピュータに高い効率で実装できれば、理想的には、シミュレーションはGoogleの量子ハードウェアよりも高速な数十秒かかるだろうと推定する。

We study the problem of generating independent samples from the output distribution of Google's Sycamore quantum circuits with a target fidelity, which is believed to be beyond the reach of classical supercomputers and has been used to demonstrate quantum supremacy. We propose a new method to classically solve this problem by contracting the corresponding tensor network just once, and is massively more efficient than existing methods in obtaining a large number of uncorrelated samples with a target fidelity. For the Sycamore quantum supremacy circuit with $53$ qubits and $20$ cycles, we have generated one million uncorrelated bitstrings $\{\mathbf s\}$ which are sampled from a distribution $\hat P(\mathbf s)=|\hat \psi(\mathbf s)|^2$, where the approximate state $\hat \psi$ has fidelity $F\approx 0.0037$. The whole computation has cost about $15$ hours on a computational cluster with $512$ GPUs. The obtained one million samples, the contraction code and contraction order is made public. If our algorithm could be implemented with high efficiency on a modern supercomputer with ExaFLOPS performance, we estimate that ideally, the simulation would cost a few dozens of seconds, which is faster than Google's quantum hardware.
翻訳日:2023-03-09 04:22:43 公開日:2022-08-28
# フラックス可変トランスモンシステムの有効モデルの数値解析

Numerical analysis of effective models for flux-tunable transmon systems ( http://arxiv.org/abs/2201.02402v3 )

ライセンス: Link先を確認
Hannes Lagemann, Dennis Willsch, Madita Willsch, Fengping Jin, Hans De Raedt, Kristel Michielsen(参考訳) フラックス可変トランスモンを記述するためのシミュレーションと解析計算は通常、対応する集中要素モデルの有効モデルに基づいている。 しかし、制御パルスが適用された場合、多くの場合、実効モデルによる予測が元の集中要素モデルによる予測からどの程度逸脱しているかは分かっていない。 本研究は,マイクロ波および非モード制御パルス(外部フラックス)の有効要素モデルとラップ要素モデルの両方に対して,時間依存シュリンガー方程式の数値解を比較する。 これらの制御パルスは、シングルキュービット (X) と2キュービットゲート (Iswap と Cz) の遷移をモデル化するために用いられる。 まず、単一の磁束可変トランスモンに対する非断熱有効ハミルトニアンの導出を行い、このモデルのパルス応答を対応する回路ハミルトニアンの1つと比較する。 ここでは,両モデルが類似した制御パルスの出力を予測できることを見いだす。 そして、2つの異なる2量子系において、異なる近似がシングルキュービット(X)と2キュービットゲート(IswapとCz)の遷移にどのように影響するかを研究する。 この目的のために、1つのフラックス可変トランスモンと2つの2量子ビットシステムという3つの異なるシステムを考える。 要約すると、制御パルスが適用された場合、一般に適用される一連の近似(個別および/または組み合わせ)はシステムの応答を実質的に変化させることができる。

Simulations and analytical calculations that aim to describe flux-tunable transmons are usually based on effective models of the corresponding lumped-element model. However, when a control pulse is applied, in most cases it is not known how much the predictions made with the effective models deviate from the predictions made with the original lumped-element model. In this work we compare the numerical solutions of the time-dependent Schr\"odinger equation for both the effective and the lumped-element models, for microwave and unimodal control pulses (external fluxes). These control pulses are used to model single-qubit (X) and two-qubit gate (Iswap and Cz) transitions. First, we derive a non-adiabatic effective Hamiltonian for a single flux-tunable transmon and compare the pulse response of this model to the one of the corresponding circuit Hamiltonian. Here we find that both models predict similar outcomes for similar control pulses. Then, we study how different approximations affect single-qubit (X) and two-qubit gate (Iswap and Cz) transitions in two different two-qubit systems. For this purpose we consider three different systems in total: a single flux-tunable transmon and two two-qubit systems. In summary, we find that a series of commonly applied approximations (individually and/or in combination) can change the response of a system substantially, when a control pulse is applied.
翻訳日:2023-03-02 01:37:43 公開日:2022-08-28
# 量子コンピュータ上の$\mathbb{Z}_2$格子ゲージ理論における閉じ込めの証明

Probing confinement in a $\mathbb{Z}_2$ lattice gauge theory on a quantum computer ( http://arxiv.org/abs/2203.08905v2 )

ライセンス: Link先を確認
Julius Mildenberger, Wojciech Mruczkiewicz, Jad C. Halimeh, Zhang Jiang, Philipp Hauke(参考訳) デジタル量子シミュレーターは、粒子および凝縮物質物理学における健全な問題に対処するためのテーブルトッププラットフォームを提供する。 特に報奨対象は格子ゲージ理論(LGT)によって与えられる。 荷電物質や電場などのそれらの構成成分は、局所的なゲージの制約によって支配され、これは工学的には非常に困難であり、粒子の閉じ込めのような完全には理解されていない特徴を惹きつける。 ここでは超伝導量子チップ上の$\mathbb{z}_2$ lgtの閉じ込めダイナミクスをシミュレートする。 電荷-ゲージ-相互作用を6つのネイティブ2量子ゲートで合成し、最大25個のトロッターステップのシミュレーション時間を実現する。 電場にのみ結合する項のチューニングが電荷を制限し、局所ゲージ制約が両者の間に生み出すタイトな結合が現れることを観察する。 さらに, ゲージ制約を$\mathbb{z}_2$から$\mathrm{u}(1)$対称性に変更することで, 系の力学が凍結する, 異なる機構を考察する。 我々の研究は、基礎となるゲージ制約がlgtのダイナミクスに課す劇的な制限を示し、ゲージ制約がどのように修正され保護されるかを示し、多体相互作用によって支配される他のモデルを研究する方法を示している。

Digital quantum simulators provide a table-top platform for addressing salient questions in particle and condensed-matter physics. A particularly rewarding target is given by lattice gauge theories (LGTs). Their constituents, e.g., charged matter and the electric gauge field, are governed by local gauge constraints, which are highly challenging to engineer and which lead to intriguing yet not fully understood features such as confinement of particles. Here, we simulate confinement dynamics in a $\mathbb{Z}_2$ LGT on a superconducting quantum chip. We synthesize the charge--gauge-field interaction using only 6 native two-qubit gates, enabling us to reach simulation times of up to 25 Trotter steps. We observe how tuning a term that couples only to the electric field confines the charges, a manifestation of the tight bond that the local gauge constraint generates between both. Moreover, we study a different mechanism, where a modification of the gauge constraint from a $\mathbb{Z}_2$ to a $\mathrm{U}(1)$ symmetry freezes the system dynamics. Our work showcases the dramatic restriction that the underlying gauge constraint imposes on the dynamics of an LGT, it illustrates how gauge constraints can be modified and protected, and it paves the way for studying other models governed by many-body interactions.
翻訳日:2023-02-21 22:51:35 公開日:2022-08-28
# 分別パターンが地域計画の有効性に与える影響

How Segregation Patterns Affect the Availability of Fair District Plans ( http://arxiv.org/abs/2208.13235v1 )

ライセンス: Link先を確認
William Hager and Betseygail Rand(参考訳) 我々は、少数民族の人口と住宅隔離パターンが異なる4200の合成都市を創出する。 これらのうち1200は既存の都市をモデルにしており、3000は格子状都市である。 各市では、市政委員会選挙の1人の投票地区計画を検討する。 フェア・ディストリクト・プランは、マイノリティが多数を占める地区が市全体のマイノリティ人口に比例する地域として定義されている。 このように、各都市は3つの特徴によって要約される:少数派、分離の基準、公平な地区計画が利用可能である。 少数民族の人口が約25%-33%である場合、分離の程度と比例する地区計画の可否との間には正の相関があることがわかった。 対照的に、少数民族がより拡散した住宅形態で暮らしている場合、比例的な地区計画が少ない。 最後に,GerryChain ソフトウェアプログラムによって作成された地区計画のアンサンブルのランタイムとサンプルサイズを検証する新しい手法を開発した。

We create 4200 synthetic cities which vary in percent minority population and their residential segregation patterns. Of these, 1200 are modeled on existing cities, and 3000 are rectangular grid cities. In each city, we consider single-member voting district plans for a hypothetical city council election. A fair district plan is defined as one where the number of minority-majority districts is proportional to the city-wide minority population. Thus each city is summarized by three traits: minority percent, a measure of segregation, and availability of a fair district plan. We find that when the minority population is around 25%-33%, there is a positive correlation between the degree of segregation and the availability of proportional district plan. Consistently, when the minority population lives in a more diffuse residential pattern, there are fewer available proportional district plans. Finally, we develop a new method to validate runtime and sample size of an ensemble of district plans created by the GerryChain software program.
翻訳日:2023-02-19 10:50:44 公開日:2022-08-28
# トランスモン量子ビットに強く結合した超伝導スピン量子ビットの直接操作

Direct manipulation of a superconducting spin qubit strongly coupled to a transmon qubit ( http://arxiv.org/abs/2208.10094v2 )

ライセンス: Link先を確認
Marta Pita-Vidal, Arno Bargerbos, Rok \v{Z}itko, Lukas J. Splitthoff, Lukas Gr\"unhaupt, Jaap J. Wesdorp, Yu Liu, Leo P. Kouwenhoven, Ram\'on Aguado, Bernard van Heck, Angela Kou, Christian Kraglund Andersen(参考訳) 半導体のスピン量子ビットは現在、量子コンピューティングの最も有望なアーキテクチャの1つである。 しかし、距離を延ばすマルチキュービット相互作用の実現には課題がある。 超伝導スピン量子ビットは、アンドレフ準位の自由度で量子ビットを符号化することで有望な代替を提供する。 このようなアンドレフスピン量子ビットは、固有のスピン-スーパーカレントカップリングによって実現される回路量子電気力学の利点を活用できる。 アンドレフスピン量子ビットの最初の実現は、半導電性弱リンクの励起状態において量子ビットを符号化し、計算部分空間から頻繁に減衰する。 さらに、間接ラマン遷移の必要性により、急激なqubit操作が妨げられた。 ここでは、電荷エネルギーが大きい静電気的に定義された量子ドットジョセフソン接合のスピン分割ダブルト基底状態を用いて、異なる量子ビット部分空間を利用する。 さらに10GHzの周波数範囲で直接スピン操作を可能にするために磁場を用いる。 全電気マイクロ波ドライブを用いて200MHzを超えるRabi周波数を実現する。 さらに、アンドレーフスピン量子ビットを超伝導トランスモン量子ビットに埋め込み、強いコヒーレント量子ビット結合を示す。 これらの結果は、超伝導と半導体量子ビットの両方の有益な側面を組み合わせたハイブリッドアーキテクチャへの重要なステップである。

Spin qubits in semiconductors are currently one of the most promising architectures for quantum computing. However, they face challenges in realizing multi-qubit interactions over extended distances. Superconducting spin qubits provide a promising alternative by encoding a qubit in the spin degree of freedom of an Andreev level. Such an Andreev spin qubit could leverage the advantages of circuit quantum electrodynamic, enabled by an intrinsic spin-supercurrent coupling. The first realization of an Andreev spin qubit encoded the qubit in the excited states of a semiconducting weak-link, leading to frequent decay out of the computational subspace. Additionally, rapid qubit manipulation was hindered by the need for indirect Raman transitions. Here, we exploit a different qubit subspace, using the spin-split doublet ground state of an electrostatically-defined quantum dot Josephson junction with large charging energy. Additionally, we use a magnetic field to enable direct spin manipulation over a frequency range of 10 GHz. Using an all-electric microwave drive we achieve Rabi frequencies exceeding 200 MHz. We furthermore embed the Andreev spin qubit in a superconducting transmon qubit, demonstrating strong coherent qubit-qubit coupling. These results are a crucial step towards a hybrid architecture that combines the beneficial aspects of both superconducting and semiconductor qubits.
翻訳日:2023-01-30 05:09:32 公開日:2022-08-28
# 1つの超伝導量子ビットを同時に制御したハイブリッド制御NOTゲートの単一ステップ実装

Single-step implementation of a hybrid controlled-NOT gate with one superconducting qubit simultaneously controlling multiple target cat-state qubits ( http://arxiv.org/abs/2208.13118v1 )

ライセンス: Link先を確認
Qi-Ping Su, Yu Zhang, Chui-Ping Yang(参考訳) ハイブリッド量子ゲートは最近かなりの注目を集めている。 量子情報プロセッサと異なるエンコーディングの量子ビットを接続する上で重要な役割を担い、量子プロセッサと量子メモリの間の量子状態の伝送において重要な応用を持つ。 本研究では,1つの超伝導(SC)量子ビットを同時に制御するマルチターゲット量子ビット制御NOTゲートの単一ステップ実装を提案する。 この提案では、ゲートは3レベルscクトリットとn$のマイクロ波キャビティで実装されている。 制御scキュービットの2つの論理状態はクトリットの2つの最低レベルで表され、一方、各ターゲットのキャット状態キュービットの2つの論理状態はマイクロ波共振器の2つの準直交キャット状態で表される。 この提案は基本的に、各キャビティとキュートリットの分散結合を通して行われる。 ゲート実現は、単一のステップ操作のみを必要とするため、非常に単純である。 古典的なパルスを適用したり、測定を行う必要はない。 ゲート動作時間はターゲット量子ビット数とは独立であり、ターゲット量子ビット数が増加するにつれて増加しない。 また、ゲート動作中に第3の高エネルギーレベルが占有されないため、クォートからの脱コヒーレンスを大幅に抑制する。 このハイブリッドマルチターゲット量子ゲートの応用として、SC量子ビットと猫状態量子ビットのハイブリッドグリーンベルガー・ホルン・ザイリンガー(GHZ)絡み合い状態の生成についてさらに議論する。 例えば、現在の回路QED技術において、1つのSC量子ビットと3つの猫状態量子ビットのハイブリッドGHZ状態を生成する実験可能性について数値解析する。

Hybrid quantum gates have recently drawn considerable attention. They play significant roles in connecting quantum information processors with qubits of different encoding and have important applications in the transmission of quantum states between a quantum processor and a quantum memory. In this work, we propose a single-step implementation of a multi-target-qubit controlled-NOT gate with one superconducting (SC) qubit simultaneously controlling $n$ target cat-state qubits. In this proposal, the gate is implemented with $n$ microwave cavities coupled to a three-level SC qutrit. The two logic states of the control SC qubit are represented by the two lowest levels of the qutrit, while the two logic states of each target cat-state qubit are represented by two quasi-orthogonal cat states of a microwave cavity. This proposal operates essentially through the dispersive coupling of each cavity with the qutrit. The gate realization is quite simple because it requires only a single-step operation. There is no need of applying a classical pulse or performing a measurement. The gate operation time is independent of the number of target qubits, thus it does not increase as the number of target qubits increases. Moreover, because the third higher energy level of the qutrit is not occupied during the gate operation, decoherence from the qutrit is greatly suppressed. As an application of this hybrid multi-target-qubit gate, we further discuss the generation of a hybrid Greenberger-Horne-Zeilinger (GHZ) entangled state of SC qubits and cat-state qubits. As an example, we numerically analyze the experimental feasibility of generating a hybrid GHZ state of one SC qubit and three cat-state qubits within present circuit QED technology.
翻訳日:2023-01-28 17:21:14 公開日:2022-08-28
# 1つの超伝導クォートと1つの猫状態クォートを持つハイブリッド制御SUMゲートとハイブリッド絡み合った状態調製への応用

Hybrid controlled-SUM gate with one superconducting qutrit and one cat-state qutrit and application in hybrid entangled state preparation ( http://arxiv.org/abs/2208.13114v1 )

ライセンス: Link先を確認
Qi-Ping Su, Yu Zhang, Liang Bin, Chui-Ping Yang(参考訳) 量子ビットと比較すると、qudit ($d$-levelまたは$d$-state quantum system) は情報を保存し処理するためのより大きなヒルベルト空間を提供する。 一方、quditベースのハイブリッド量子コンピューティングは、通常、その性質やエンコーディング形式が異なるクオディットを持つハイブリッド量子ゲートを実行する必要がある。 本研究では、qutritの場合、すなわち$d$=3のquditの場合を考える。 超伝導(SC)クォートとキャットステートクォートを組み合わせたハイブリッド量子制御SUMゲートを実現するための簡単な手法を提案する。 このゲートと単量子ゲートは、クトリットを持つ量子計算のための三元論理ゲートの普遍集合を形成する。 提案手法は回路QEDに基づいており,マイクロ波空洞に分散結合したSC量子カート(4レベル量子システム)を用いて動作している。 ゲートの実装は非常に簡単で、単一の基本的な操作しか必要としない。 古典的なパルスも測定も必要ない。 sc ququartの補助高エネルギーレベルはゲート動作中に実質的に励起されるため、このレベルからのデコヒーレンスが大幅に抑制される。 このゲートの応用として、1つのSCクォートリットと1つの猫状態クォートリットのハイブリッド最大絡み合った状態の生成について議論する。 さらに,このようなハイブリッドな絡み合い状態を回路qedで生成する実験可能性についても検討した。 この提案は非常に一般的なものであり、光学的またはマイクロ波的空洞に結合した4レベル自然原子や人工原子など、幅広い物理系において同じ課題を達成するために拡張することができる。

Compared with a qubit, a qudit (i.e., $d$-level or $d$-state quantum system) provides a larger Hilbert space to store and process information. On the other hand, qudit-based hybrid quantum computing usually requires performing hybrid quantum gates with qudits different in their nature or in their encoding format. In this work, we consider the qutrit case, i.e., the case for a qudit with $d$=3. We propose a simple method to realize a hybrid quantum controlled-SUM gate with one superconducting (SC) qutrit and a cat-state qutrit. This gate plus single-qutrit gates form a universal set of ternary logic gates for quantum computing with qutrits. Our proposal is based on circuit QED and operates essentially by employing a SC ququart (a four-level quantum system) dispersively coupled to a microwave cavity. The gate implementation is quite simple because it only requires a single basic operation. Neither classical pulse nor measurement is needed. The auxiliary higher energy level of the SC ququart is virtually excited during the gate operation, thus decoherence from this level is greatly suppressed. As an application of this gate, we discuss the generation of a hybrid maximally-entangled state of one SC qutrit and one cat-state qutrit. We further analyze the experimental feasibility of creating such hybrid entangled state in circuit QED. This proposal is quite general and can be extended to accomplish the same task in a wide range of physical system, such as a four-level natural or artificial atom coupled to an optical or microwave cavity.
翻訳日:2023-01-28 17:20:45 公開日:2022-08-28
# 熱純量子状態を持つゲージ理論の量子計算相図に向けて

Toward Quantum Computing Phase Diagrams of Gauge Theories with Thermal Pure Quantum States ( http://arxiv.org/abs/2208.13112v1 )

ライセンス: Link先を確認
Zohreh Davoudi, Niklas Mueller, Connor Powers(参考訳) 有限温度と化学ポテンシャルにおける自然界における強い相互作用の位相図は、モンテカルロに基づく計算技術が符号問題を克服できないために理論的には明らかにされていない。 量子コンピューティングはサインプロブレムフリーなアプローチを提供するが、熱的期待値の評価は一般的に量子コンピュータにおいてリソース集約的である。 ゲージ理論の熱力学的研究を容易にするため, 制約ゲージ理論に応用された統計力学の熱-純-量子状態の定式化を一般化し, 有限温度および化学ポテンシャルのモデルにおけるキラル相転移のマッピングを含む, 単純な低次元ゲージ理論の位相図が強固に決定されていることを数値的に示す。 量子アルゴリズム、リソース要件、およびアルゴリズムおよびハードウェアエラー解析は、将来の実装を動機付けるためにさらに議論されている。 したがって、熱純量子状態は、量子コンピューティングの時代におけるゲージ理論における効率的な熱状態準備の候補となる可能性がある。

The phase diagram of strong interactions in nature at finite temperature and chemical potential remains largely unexplored theoretically due to inadequacy of Monte-Carlo-based computational techniques in overcoming a sign problem. Quantum computing offers a sign-problem-free approach but evaluating thermal expectation values is generally resource intensive on quantum computers. To facilitate thermodynamic studies of gauge theories, we propose a generalization of thermal-pure-quantum-state formulation of statistical mechanics applied to constrained gauge-theory dynamics, and numerically demonstrate that the phase diagram of a simple low-dimensional gauge theory is robustly determined using this approach, including mapping a chiral phase transition in the model at finite temperature and chemical potential. Quantum algorithms, resource requirements, and algorithmic and hardware error analysis are further discussed to motivate future implementations. Thermal pure quantum states, therefore, may present a suitable candidate for efficient thermal-state preparation in gauge theories in the era of quantum computing.
翻訳日:2023-01-28 17:20:21 公開日:2022-08-28
# 量子バウンサーの厳密な古典的限界

Exact classical limit of the quantum bouncer ( http://arxiv.org/abs/2208.13277v1 )

ライセンス: Link先を確認
Juan A. Ca\~nas, J. Bernal, A. Mart\'in-Ruiz(参考訳) 本稿では、周期的量子システムの古典的極限を決定するための体系的アプローチを開発し、量子バウンサーの問題にうまく適用した。 周期系では、古典的な確率密度は量子確率密度に従わないことがよく知られている。 代わりに、これは大きな量子数の極限における局所平均に従う。 この事実に導かれ、古典的および量子確率密度の両方をフーリエ展開として表現し、ここでは局所平均化がフーリエ係数が大きな量子数の極限で互いに接近することを示している。 量子フーリエ係数の先頭項は、正確な古典的極限をもたらすが、下位項も出現し、マクロレベルの量子補正と解釈できる。 この理論を重力場下での粒子バウンシング問題に適用し、古典的確率密度が量子分布から正確に回復されることを示す。 現実的なシステムでは、量子補正は古典的な結果に対して強く抑制されている($\sim 10^{-10}$)。

In this paper we develop a systematic approach to determine the classical limit of periodic quantum systems and applied it successfully to the problem of the quantum bouncer. It is well known that, for periodic systems, the classical probability density does not follow the quantum probability density. Instead, it follows the local average in the limit of large quantum numbers. Guided by this fact, and expressing both the classical and quantum probability densities as Fourier expansions, here we show that local averaging implies that the Fourier coefficients approach each other in the limit of large quantum numbers. The leading term in the quantum Fourier coefficient yields the exact classical limit, but subdominant terms also emerge, which we may interpret as quantum corrections at the macroscopic level. We apply this theory to the problem of a particle bouncing under the gravity field and show that the classical probability density is exactly recovered from the quantum distribution. We show that for realistic systems, the quantum corrections are strongly suppressed (by a factor of $\sim 10^{-10}$) with respect to the classical result.
翻訳日:2023-01-28 17:18:18 公開日:2022-08-28
# 観察者は箱を開けることなくシュロディンガーの猫の状態を知ることができるか?

Can the observer know the state of Schrodinger's cat without opening the box? ( http://arxiv.org/abs/2208.13225v1 )

ライセンス: Link先を確認
Lizhi Xin, Houwen Xin(参考訳) シュロディンガーの猫が箱を開けることなく生きているか死んだかを知るためには、観察者は自然とゲームをしなければならない。 観察者は、不完全な情報によって猫の状態を(信念の度合いで)「解き放つ」必要があり、言い換えれば、観察者の決定は不確実性の下で行う必要がある。 不確実性下における意思決定のための量子期待値理論を提案する。 測定された歴史的結果から価値を最大化することにより、客観的な量子世界を通して主観的信念に基づいて対応する行動を選択するよう、観測者を誘導する。 値演算子は、量子決定木として、量子ゲートと論理演算の両方から構築することができる。 遺伝的プログラミングは量子決定木を最適化するために適用される。

In order to know if the Schrodinger's cat is alive or dead without opening the box, observers have to play a game with nature. The observers have to "guess" (with degrees of belief) the state of the cat due to incomplete information; in other words, the observers' decision has to be made under uncertainty. We propose a quantum expected value theory for decision-making under uncertainty. Value operator is proposed to guide observers to choose corresponding actions based on their subjective beliefs through objective quantum world by maximizing the value from the measured historical results. The value operator, as a quantum decision tree, can be constructed from both quantum gates and logic operations. Genetic programming is applied to optimize quantum decision trees.
翻訳日:2023-01-28 17:18:02 公開日:2022-08-28
# スピン軌道共役ボース・アインシュタイン凝縮体の非エルミート二重井戸におけるスピンジョセフソン効果

Spin Josephson effects of spin-orbit-coupled Bose-Einstein condensates in a non-Hermitian double well ( http://arxiv.org/abs/2208.13198v1 )

ライセンス: Link先を確認
Jia Tang, Zhou Hu, Zhao-Yun Zeng, Jinpeng Xiao, Lei Li, Yajiang Chen, Ai-Xi Chen, and Xiaobing Luo(参考訳) 本稿では、周期的に駆動される非エルミート二重ウェルポテンシャルにおけるスピン軌道結合型ボース・アインシュタイン凝縮体のスピンおよびトンネルダイナミクスについて検討する。 高周波駆動下では、標準時分割法を用いて有効時間平均ハミルトニアン値を求め、Floquet準エネルギーを解析的に算出し、スピン軌道結合強度が半整数値を取る場合であっても、パリティ時間(PT)破壊相転移が任意に小さい非エルミートパラメータに対しても現れることを示した。 システムと利得と損失のバランスが取れたPT対称の場合、崩壊したPT対称領域では、ノルムの指数的成長の現在の挙動への寄与を落とすと、消滅する原子電流と共にネットスピン電流が存在することが数値的および解析的に見出される。 系がPT対称でないとき、準エネルギーは部分複素であるが、安定なネットスピン電流は周期的な駆動場を制御し、井戸内の凝縮体の空間的局在と利得を伴って生成することができる。 この結果は非エルミート物理学の理解を深め、スピントロニクスの様々な装置を設計するのに有用である。

In this paper, we investigate the spin and tunneling dynamics of a spin-orbit-coupled noninteracting Bose-Einstein condensate in a periodically driven non-Hermitian double-well potential. Under high-frequency driving, we obtain the effective time-averaged Hamiltonian by using the standard time-averaging method, and analytically calculate the Floquet quasienergies, revealing that the parity-time (PT)-breaking phase transition appears even for arbitrarily small non-Hermitian parameters when the spin-orbit coupling strength takes half-integer value, irrespective of the values of other parameters used. When the system is PT-symmetric with balanced gain and loss, we find numerically and analytically that in the broken PT-symmetric regions, there will exist the net spin current together with a vanishing atomic current, if we drop the contribution of the exponential growth of the norm to the current behaviors. When the system is non-PT-symmetric, though the quasienergies are partial complex, a stable net spin current can be generated by controlling the periodic driving field, which is accompanied by a spatial localization of the condensate in the well with gain. The results deepen the understanding of non-Hermitian physics and could be useful for engineering a variety of devices for spintronics.
翻訳日:2023-01-28 17:17:51 公開日:2022-08-28
# schrodinger cat状態を用いたquditの構築と離散変数quditと連続変数quditとのハイブリッド絡み合いの生成

Construction of a qudit using Schrodinger cat states and generation of hybrid entanglement between a discrete-variable qudit and a continuous-variable qudit ( http://arxiv.org/abs/2208.13194v1 )

ライセンス: Link先を確認
Qi-ping Su, Tong Liu, Yu Zhang, and Chui-Ping Yang(参考訳) 連続可変(CV)quditは,各猫状態に符号化された位相が適切に選択された場合に,ボソニックモードの準直交猫状態を用いて構築可能であることを示す。 構築されたCVquditとFock状態に符号化された離散可変(DV)quditを用いて,超伝導フラックスキュートに結合した2つのマイクロ波キャビティを用いてCVquditとDVquditのハイブリッド最大絡み合った状態を生成するアプローチを提案する。 この提案は、1つのキャビティのフォック状態の重ね合わせの初期調製と、他のキャビティの猫状態の初期調製に依存している。 各空洞の初期状態が準備された後、この提案は2つの基本的な操作、すなわち、第1の操作は、両方の空洞とキュートリットの分散結合を用いるのに対し、第2の操作は1つの空洞とキュートリットの分散結合を使用するのである。 絡み合った状態の生成は決定論的であり、クディットの寸法が大きくなるにつれて操作時間は減少する。 また、全体の運転中、カプラ・クトリットは基底状態のままであり、クトリットからの分離は著しく減少する。 例として、回路QEDに基づくDVクォートリットとCVクォートリットのハイブリッド最大絡み合った状態を生成する実験可能性について述べる。 この提案は普遍的で、自然または人工の3レベル原子に結合した2つのマイクロ波または光学キャビティを使用することで、同じ課題を達成するために拡張することができる。

We show that a continuous-variable (CV) qudit can be constructed using quasiorthogonal cat states of a bosonic mode, when the phase encoded in each cat state is chosen appropriately. With the constructed CV qudit and the discrete-variable (DV) qudit encoded with Fock states, we propose an approach to generate the hybrid maximally entangled state of a CV qudit and a DV qudit by using two microwave cavities coupled to a superconducting flux qutrit. This proposal relies on the initial preparation of a superposition of Fock states of one cavity and the initial preparation of a cat state of the other cavity. After the initial state of each cavity is prepared, this proposal requires only two basic operations, i.e., the first operation employs the dispersive coupling of both cavities with the qutrit while the second operation uses the dispersive coupling of only one cavity with the qutrit. The entangled state production is deterministic and the operation time decreases as the dimensional size of each qudit increases. In addition, during the entire operation, the coupler qutrit remains in the ground state and thus decoherence from the qutrit is significantly reduced. As an example, we further discuss the experimental feasibility for generating the hybrid maximally entangled state of a DV qutrit and a CV qutrit based on circuit QED. This proposal is universal and can be extended to accomplish the same task, by using two microwave or optical cavities coupled to a natural or artificial three-level atom.
翻訳日:2023-01-28 17:17:28 公開日:2022-08-28
# 大規模フルプログラマブル量子ウォークとその応用

Large-scale full-programmable quantum walk and its applications ( http://arxiv.org/abs/2208.13186v1 )

ライセンス: Link先を確認
Yizhi Wang, Yingwen Liu, Junwei Zhan, Shichuan Xue, Yuzhen Zheng, Ru Zeng, Zhihao Wu, Zihao Wang, Qilin Zheng, Dongyang Wang, Weixu Shi, Xiang Fu, Ping Xu, Yang Wang, Yong Liu, Jiangfang Ding, Guangyao Huang, Chunlin Yu, Anqi Huang, Xiaogang Qiang, Mingtang Deng, Weixia Xu, Kai Lu, Xuejun Yang, Junjie Wu(参考訳) フォトニクスでは、ボーソンサンプリングのタスクにおいて量子計算の利点が実証されている。 次に、実用的な問題に対する量子エンハンスドアプローチの開発がフォトニックシステムの最優先事項の1つとなる。 量子ウォークは、新しい有用な量子アルゴリズムを開発するための強力なカーネルである。 ここでは,完全プログラム可能なフォトニック量子コンピューティングシステムを用いて,大規模量子ウォークを実現する。 このシステムはシリコン量子フォトニックチップを統合し、最大400頂点のグラフ上での量子ウォークダイナミクスのシミュレーションを可能にし、粒子特性、初期状態、グラフ構造、進化時間を含む量子ウォークパラメータ上での完全なプログラム性を持つ。 400次元ヒルベルト空間において、オンチップ回路全体の発展の後のランダムな絡み合った量子状態の平均忠実度は94.29$\pm$1.28$%$である。 本システムでは,古典的ランダムウォークを越える量子ウォークの指数的に高速な打込みと4次的に高速な混合性能を示し,実験的打抜き効率の2桁以上の向上と,実験的進化時間のほぼ半分の短縮を実現した。 我々は,スケールフリーネットワークの集中度の測定,Erd\"{o}s-R\'{e}nyiネットワーク上のターゲット探索,非同型グラフ対の識別,高階トポロジカル絶縁体の位相位相のシミュレーションなど,一連の量子アプリケーションの実装に利用した。 我々の研究は、近い将来に実用的関心事の応用に取り組むための量子フォトニクスの1つの実現可能な道を示す。

With photonics, the quantum computational advantage has been demonstrated on the task of boson sampling. Next, developing quantum-enhanced approaches for practical problems becomes one of the top priorities for photonic systems. Quantum walks are powerful kernels for developing new and useful quantum algorithms. Here we realize large-scale quantum walks using a fully programmable photonic quantum computing system. The system integrates a silicon quantum photonic chip, enabling the simulation of quantum walk dynamics on graphs with up to 400 vertices and possessing full programmability over quantum walk parameters, including the particle property, initial state, graph structure, and evolution time. In the 400-dimensional Hilbert space, the average fidelity of random entangled quantum states after the whole on-chip circuit evolution reaches as high as 94.29$\pm$1.28$\%$. With the system, we demonstrated exponentially faster hitting and quadratically faster mixing performance of quantum walks over classical random walks, achieving more than two orders of magnitude of enhancement in the experimental hitting efficiency and almost half of the reduction in the experimental evolution time for mixing. We utilize the system to implement a series of quantum applications, including measuring the centrality of scale-free networks, searching targets on Erd\"{o}s-R\'{e}nyi networks, distinguishing non-isomorphic graph pairs, and simulating the topological phase of higher-order topological insulators. Our work shows one feasible path for quantum photonics to address applications of practical interests in the near future.
翻訳日:2023-01-28 17:16:40 公開日:2022-08-28
# 繊維集積化炭化ケイ素空孔磁力計

Fiber-integrated silicon carbide silicon vacancy-based magnetometer ( http://arxiv.org/abs/2208.13173v1 )

ライセンス: Link先を確認
Wei-Ke Quan, Lin Liu, Qin-Yue Luo, Xiao-Di Liu, Jun-Feng Wang(参考訳) 炭化ケイ素のシリコン空孔は様々な量子センシングに多くの注目を集めている。 しかし、従来の実験のほとんどは共焦点走査システムを用いて達成されており、実用化には限界がある。 本研究では,炭化ケイ素系シリコン空孔型ベクトル磁力計を室温で試作した。 まず、炭化ケイ素スライス中のシリコン空孔を光ファイバ先端に効果的に結合し、同時にファイバーを介してスピン信号の読み出しを実現する。 その後、異なるレーザーおよびマイクロ波パワーで光学的に検出された磁気共鳴スペクトルを研究し、12.3 {\mu}T/Hz1/2の磁場感度を最適化した。 これに基づいて、それぞれ外部磁場の強度と極角を測定するために磁力計が実行される。 これらの実験を通じて,地球物理学やバイオメディカルセンシングなどの実用環境におけるシリコン空隙磁力計の応用について検討した。

Silicon vacancy in silicon carbide has drawn much attention for various quantum sensing. However, most of the previous experiments are achieved using confocal scanning systems, which limit its applications in practical applications. In this work, we demonstrate a compact fiber-integrated silicon carbide silicon vacancy-based vector magnetometer at room temperature. First, we effectively couple the silicon vacancy in a tiny silicon carbide slice to an optical fiber tip and realize the readout of the spin signal through the fiber at the same time. We then study the optically detected magnetic resonance spectra at different laser and microwave powers, obtaining an optimized magnetic field sensitivity of 12.3 {\mu}T/Hz1/2. Based on this, the magnetometer is performed to measure the strength and polar angle of an external magnetic field, respectively. Through these experiments, we have paved the way for fiber-integrated silicon vacancy-based magnetometer applications in practical environments such as geophysics and biomedical sensing.
翻訳日:2023-01-28 17:16:16 公開日:2022-08-28
# 設計シリコン空隙中心を用いた炭化ケイ素の高圧下での磁気検出

Magnetic detection under high pressures using designed silicon vacancy centers in silicon carbide ( http://arxiv.org/abs/2208.13171v1 )

ライセンス: Link先を確認
Jun-Feng Wang, Lin Liu, Xiao-Di Liu, Qiang Li, Jin-Ming Cui, Di-Fan Zhou, Ji-Yang Zhou, Yu Wei, Hai-An Xu, Wan Xu, Wu-Xi Lin, Jin-Wei Yan, Zhen-Xuan He, Zheng-Hao Liu, Zhi-He Hao, Hai-Ou Li, Wen Liu, Jin-Shi Xu, Eugene Gregoryanz, Chuan-Feng Li and Guang-Can Guo(参考訳) 圧力は物質の性質を調べる上で重要なパラメータである。 圧力誘起磁気相転移現象は、ダイヤモンドアンビルセルの高圧における超伝導挙動を検出する能力によって大きな関心を集めている。 しかし, 試料室体積が小さいため, 局所試料磁気特性の検出は大きな課題である。 近年, ダイヤモンド中の窒素空洞 (NV) 中心の光磁気共鳴法 (ODMR) を用いて, 圧力誘起相転移が検出されている。 しかし、4つの方位軸と温度依存性ゼロフィールドスプリッティングを持つnv中心は観測されたodmrスペクトルの解釈が困難である。 そこで本研究では, 4H-SiCのシリコン空孔欠陥の光学特性とスピン特性について検討した。 この手法を用いて,磁性Nd2Fe14B試料の磁気相転移を約7GPaで観測した。 最後に、超伝導体YBa2Cu3O6.66の臨界温度圧力相図をマッピングして精錬する。 これらの実験は、シリコン空孔に基づく量子センサーが高圧下での磁気検出に使用される道を開く。

Pressure is a significant parameter to investigate the properties of matter. The phenomenon of pressure-induced magnetic phase transition has attracted great interest due to its ability to detect superconducting behaviour at high pressures in diamond anvil cell. However, detection of the local sample magnetic properties is a great challenge due to the small sample chamber volume. Recently, in situ pressure-induced phase transition has been detected using optically detected magnetic resonance (ODMR) method of the nitrogen vacancies (NV) centers in diamond. However, the NV centers with four orientation axes and temperature-dependent zero-field-splitting present some difficulty to interpret the observed ODMR spectra. Here, we investigate and characterize the optical and spin properties of the implanted silicon vacancy defects in 4H-SiC, which is single-axis and temperature-independent zero-field-splitting. Using this technique, we observe the magnetic phase transition of a magnetic Nd2Fe14B sample at about 7 GPa. Finally, the critical temperature-pressure phase diagram of the superconductor YBa2Cu3O6.66 is mapped and refined. These experiments pave the way for the silicon vacancy-based quantum sensor being used in situ magnetic detection at high pressures.
翻訳日:2023-01-28 17:15:59 公開日:2022-08-28
# 導波路に結合した3レベル$\lambda$原子を用いた光子の周波数成分間の相対位相の検出

Detecting the relative phase between different frequency components of a photon using a three-level $\Lambda$ atom coupled to a waveguide ( http://arxiv.org/abs/2208.13136v1 )

ライセンス: Link先を確認
Janet Zhong, Rituraj, Fatih Dinc, Shanhui Fan(参考訳) 導波路に沿って伝播する単一光子の散乱を、導波路に結合した2つの非退化基底状態の重ね合わせにおいて、1つの3レベル$\Lambda$原子を持つ任意の重ね合わせ状態の2つの周波数で研究する。 この散乱は、光子周波数間の相対位相と原子基底状態の間の相対位相の両方に依存することが判明した。 その結果、導波管に結合した3レベル$\Lambda$原子は、光子重畳状態の2つの周波数間の相対位相を検出する光子位相フィルタとして使用できることがわかった。

We study the scattering of a single photon propagating along a waveguide in an arbitrary superposition state two frequencies with a single three-level $\Lambda$ atom in a superposition of two non-degenerate ground states where the atom is coupled to a waveguide. We find that the scattering depends on both the relative phase between the photon frequencies and the relative phase between the atomic ground states. Our results show that a three-level $\Lambda$ atom coupled to a waveguide can be used as photon phase filter that could detect the relative phase between the two frequencies of the photon superposition state.
翻訳日:2023-01-28 17:15:41 公開日:2022-08-28
# 低温原子の有向伝播における確率共鳴の観測

Observation of stochastic resonance in directed propagation of cold atoms ( http://arxiv.org/abs/2208.13127v1 )

ライセンス: Link先を確認
Alexander Staron (1), Kefeng Jiang (1), Casey Scoggins (1), Daniel Wingert (1), David Cubero (2), and Samir Bali ((1) (1) Department of Physics, Miami University, Oxford, Ohio 45056-1866, USA (2) Departamento de Fisica Aplicada I, Universidad de Sevilla, Spain)(参考訳) 弱い光プローブは、散逸光格子に閉じ込められたランダムに拡散する原子を照らす。 プローブ透過スペクトルは、特定の速度クラスの原子の有向伝播を示す。 ランダム光子散乱率の変化に伴い、この指向伝搬の共鳴増強が観察される。 この確率共鳴をプローブ強度と格子深の関数として実験的に定義する。 新しい1次元モデルでは、プローブ励起原子密度波と光ポンピング速度がランダムに拡散する試料内で原子の有向伝播を誘導する様子が明らかにされる。

A weak probe of light illuminates randomly diffusing atoms confined in a dissipative optical lattice. The probe transmission spectrum reveals directed propagation of a specific velocity-class of atoms. Resonant enhancement of this directed propagation is observed as we vary the random photon scattering rate. We experimentally characterize this stochastic resonance as a function of probe intensity and lattice well depth. A novel one-dimensional model reveals how the probe-excited atomic density waves and optical pumping rates conspire to create directed atomic propagation within a randomly diffusing sample.
翻訳日:2023-01-28 17:15:28 公開日:2022-08-28
# NPLデータセットを用いた機械学習モデルの評価と特徴量解析

Machine Learning Models Evaluation and Feature Importance Analysis on NPL Dataset ( http://arxiv.org/abs/2209.09638v1 )

ライセンス: Link先を確認
Rufael Fekadu, Anteneh Getachew, Yishak Tadele, Nuredin Ali, Israel Goytom(参考訳) 個人に対する非業績ローンの確率を予測することは、銀行が信用リスクを減らし、ローンを与える前に正しい決定を下す上で極めて有益である。 これらの決定を下す傾向は信用調査に基づいており、一般的に認められた基準、ローンの支払い履歴、クライアントの人口統計データに従っている。 本研究では,エチオピアのプライベートバンクが提供するデータセット上で,ランダムフォレスト,決定木,kn,svm,xgboostなどの異なる機械学習モデルがどのように動作するかを評価する。 さらに, この評価を動機として, 銀行にとって重要な特徴を記述するために, 異なる特徴選択法を検討する。 以上の結果から,XGBoostはKMeans SMOTEのオーバーサンプリングデータにおいて最高F1スコアを達成した。 また、最も重要な特徴は、信用リスクの評価において、側方関係の特徴よりも、応募者の年齢、就業年数、求職者の総収入であることがわかった。

Predicting the probability of non-performing loans for individuals has a vital and beneficial role for banks to decrease credit risk and make the right decisions before giving the loan. The trend to make these decisions are based on credit study and in accordance with generally accepted standards, loan payment history, and demographic data of the clients. In this work, we evaluate how different Machine learning models such as Random Forest, Decision tree, KNN, SVM, and XGBoost perform on the dataset provided by a private bank in Ethiopia. Further, motivated by this evaluation we explore different feature selection methods to state the important features for the bank. Our findings show that XGBoost achieves the highest F1 score on the KMeans SMOTE over-sampled data. We also found that the most important features are the age of the applicant, years of employment, and total income of the applicant rather than collateral-related features in evaluating credit risk.
翻訳日:2022-09-25 17:49:14 公開日:2022-08-28
# 神経チェックポイントのランキング

Ranking Neural Checkpoints ( http://arxiv.org/abs/2011.11200v4 )

ライセンス: Link先を確認
Yandong Li, Xuhui Jia, Ruoxin Sang, Yukun Zhu, Bradley Green, Liqiang Wang, Boqing Gong(参考訳) 本稿では、ダウンストリームタスクへの転送学習のためのチェックポイントと呼ばれる、事前学習された多くのディープニューラルネットワーク(dnn)をランク付けすることに関する。 DNNの広範な使用により、さまざまなソースから数百のチェックポイントを簡単に収集することができる。 どれが一番関心のある下流のタスクに転送するのですか? この疑問に徹底的に答えるために、ニューラルチェックポイントランキングベンチマーク(NeuCRaB)を構築し、直感的なランキング尺度について検討する。 これらの指標は汎用的であり、どのデータセットでチェックポイントが事前トレーニングされているかを知ることなく、異なる出力型のチェックポイントに適用できる。 また、計算コストも低く、事実上有意義である。 その結果,チェックポイントによって抽出された特徴の線形分離性は移動可能性の強い指標であることが示唆された。 我々はまた、実験において最高のパフォーマンスをもたらす新しいランキング指標であるNLEEPにも到達します。

This paper is concerned with ranking many pre-trained deep neural networks (DNNs), called checkpoints, for the transfer learning to a downstream task. Thanks to the broad use of DNNs, we may easily collect hundreds of checkpoints from various sources. Which of them transfers the best to our downstream task of interest? Striving to answer this question thoroughly, we establish a neural checkpoint ranking benchmark (NeuCRaB) and study some intuitive ranking measures. These measures are generic, applying to the checkpoints of different output types without knowing how the checkpoints are pre-trained on which dataset. They also incur low computation cost, making them practically meaningful. Our results suggest that the linear separability of the features extracted by the checkpoints is a strong indicator of transferability. We also arrive at a new ranking measure, NLEEP, which gives rise to the best performance in the experiments.
翻訳日:2022-09-22 01:36:52 公開日:2022-08-28
# 概念発見による感染症の自動分類

Automatic Infectious Disease Classification Analysis with Concept Discovery ( http://arxiv.org/abs/2209.02415v1 )

ライセンス: Link先を確認
Elena Sizikova, Joshua Vendrow, Xu Cao, Rachel Grotheer, Jamie Haddock, Lara Kassab, Alona Kryshchenko, Thomas Merkh, R. W. M. A. Madushani, Kenny Moise, Annie Ulichney, Huy V. Vo, Chuntian Wang, Megan Coffee, Kathryn Leonard, Deanna Needell(参考訳) 画像からの感染症の自動分類は、必要な診断を容易にする。 このようなアプローチは、リソースの制約により診断下にある結核のような疾患や、臨床医が診断の経験がほとんどないサルポックスのような新規で新興の疾患を識別することができる。 診断の欠如や遅延を避けることは、さらなる感染を防ぎ、臨床結果を改善する。 ニューラルネットワークの予測を理解し,信頼するには,学習した表現の分析が必要である。 本研究では,概念の自動発見,すなわち人間の解釈可能な属性は,トレーニングラベルやプロトコルを超えて一般化し,医用画像解析タスクにおける学習情報の深い理解を可能にすると主張している。 医療画像とコンピュータビジョンのコミュニティにおける既存の概念発見アプローチの概要と結核(tb)予測とサルポックス予測タスクの代表的な手法について評価する。 最後に,NMFxを提案する。NMFxは,教師なし,弱教師付き,教師付きシナリオにおいて統一的に機能する概念発見による解釈可能性の一般式である。

Automatic infectious disease classification from images can facilitate needed medical diagnoses. Such an approach can identify diseases, like tuberculosis, which remain under-diagnosed due to resource constraints and also novel and emerging diseases, like monkeypox, which clinicians have little experience or acumen in diagnosing. Avoiding missed or delayed diagnoses would prevent further transmission and improve clinical outcomes. In order to understand and trust neural network predictions, analysis of learned representations is necessary. In this work, we argue that automatic discovery of concepts, i.e., human interpretable attributes, allows for a deep understanding of learned information in medical image analysis tasks, generalizing beyond the training labels or protocols. We provide an overview of existing concept discovery approaches in medical image and computer vision communities, and evaluate representative methods on tuberculosis (TB) prediction and monkeypox prediction tasks. Finally, we propose NMFx, a general NMF formulation of interpretability by concept discovery that works in a unified way in unsupervised, weakly supervised, and supervised scenarios.
翻訳日:2022-09-11 13:16:46 公開日:2022-08-28
# 深部演算子ネットワークと緩和法に基づくPDEのためのハイブリッド反復型数値伝達可能解法(HINTS)

A Hybrid Iterative Numerical Transferable Solver (HINTS) for PDEs Based on Deep Operator Network and Relaxation Methods ( http://arxiv.org/abs/2208.13273v1 )

ライセンス: Link先を確認
Enrui Zhang, Adar Kahana, Eli Turkel, Rishikesh Ranade, Jay Pathak, George Em Karniadakis(参考訳) 線形系の反復解法は偏微分方程式(PDE)の数値解の鍵となる要素である。 過去数十年間、ヤコビ、ガウス=シーデル、共役勾配、多重グリッド法などの古典的な方法の研究が続けられてきたが、より速く、より堅牢で信頼性の高い解法を開発する必要性がまだ強い。 演算子の回帰に対する科学的深層学習の最近の進歩に基づき、微分方程式に対するハイブリッド、反復、数値、移乗可能な解法であるHINTSを提案する。 HINTSは、標準的な緩和手法とDeep Operator Network(DeepONet)を組み合わせている。 標準的な数値解法と比較して、HINTSは機械ゼロに近い精度を保ちながら、幅広い微分方程式に対してより高速な解を提供することができる。 固有モード解析により、HINTSの個々のソルバは固有モードのスペクトルの異なる領域をターゲットにしており、結果として一様収束率となり、結果としてハイブリッドソルバ全体の例外的な性能が得られた。 さらに、ヒントは多次元方程式に適用され、計算領域に関して柔軟であり、異なる離散化に転送可能である。

Iterative solvers of linear systems are a key component for the numerical solutions of partial differential equations (PDEs). While there have been intensive studies through past decades on classical methods such as Jacobi, Gauss-Seidel, conjugate gradient, multigrid methods and their more advanced variants, there is still a pressing need to develop faster, more robust and reliable solvers. Based on recent advances in scientific deep learning for operator regression, we propose HINTS, a hybrid, iterative, numerical, and transferable solver for differential equations. HINTS combines standard relaxation methods and the Deep Operator Network (DeepONet). Compared to standard numerical solvers, HINTS is capable of providing faster solutions for a wide class of differential equations, while preserving the accuracy close to machine zero. Through an eigenmode analysis, we find that the individual solvers in HINTS target distinct regions in the spectrum of eigenmodes, resulting in a uniform convergence rate and hence exceptional performance of the hybrid solver overall. Moreover, HINTS applies to equations in multidimensions, and is flexible with regards to computational domain and transferable to different discretizations.
翻訳日:2022-08-30 14:54:19 公開日:2022-08-28
# 話者同定のためのハイパーベクタを用いた計算

Computing with Hypervectors for Efficient Speaker Identification ( http://arxiv.org/abs/2208.13285v1 )

ライセンス: Link先を確認
Ping-Chen Huang, Denis Kleyko, Jan M. Rabaey, Bruno A. Olshausen, Pentti Kanerva(参考訳) 本研究では,高次元ランダムベクトルを用いた話者識別手法を提案する。 その強みは単純さとスピードだ。 トレーニングデータを通過するのは1.02kのアクティブパラメータと128分のパスだけで,1,251人のVoxCeleb1データセット上でTop-1とTop-5のスコアが31%と52%に達したのです。 これは、相互情報で測定される識別力の2$\times$ゲインのみに対して、数百万のパラメータと桁以上の計算複雑性を必要とするcnnモデルとは対照的である。 一般学習ベクトル量子化(GLVQ)による92秒のトレーニングにより、スコアは48%と67%に向上した。 訓練された分類器は5.7ミリ秒で音声の1秒間を分類する。

We introduce a method to identify speakers by computing with high-dimensional random vectors. Its strengths are simplicity and speed. With only 1.02k active parameters and a 128-minute pass through the training data we achieve Top-1 and Top-5 scores of 31% and 52% on the VoxCeleb1 dataset of 1,251 speakers. This is in contrast to CNN models requiring several million parameters and orders of magnitude higher computational complexity for only a 2$\times$ gain in discriminative power as measured in mutual information. An additional 92 seconds of training with Generalized Learning Vector Quantization (GLVQ) raises the scores to 48% and 67%. A trained classifier classifies 1 second of speech in 5.7 ms. All processing was done on standard CPU-based machines.
翻訳日:2022-08-30 14:53:59 公開日:2022-08-28
# mando: スマートコントラクト脆弱性のきめ細かな検出のためのマルチレベルヘテロジニアスグラフ埋め込み

MANDO: Multi-Level Heterogeneous Graph Embeddings for Fine-Grained Detection of Smart Contract Vulnerabilities ( http://arxiv.org/abs/2208.13252v1 )

ライセンス: Link先を確認
Hoang H. Nguyen, Nhat-Minh Nguyen, Chunyao Xie, Zahra Ahmadi, Daniel Kudendo, Thanh-Nam Doan, Lingxiao Jiang(参考訳) 異なる種類のノードとエッジからなるヘテロジニアスグラフの学習は、均質なグラフ技術の結果を高める。 そのようなグラフの興味深い例は、ソフトウェアコードの実行フローを表す制御フローグラフである。 このようなグラフはコードのセマンティックな情報を表すため、そのようなグラフのための技術やツールの開発は、その信頼性のためにソフトウェアの脆弱性を検出するのに非常に有益である。 しかし、既存の異種グラフ技術は、異なる種類のノードとエッジの数が大きく変動する複雑なグラフを扱うには不十分である。 本稿では、制御フローグラフと異なるタイプのノードとリンクを含むコールグラフの両方上に構築された異種契約グラフで表されるソフトウェアコードのサンプルとしてEthereumスマートコントラクトに焦点を当てる。 このような異種契約グラフの構造を学習するための新しい異種グラフ表現であるMANDOを提案する。 MANDOは、異なるタイプのノードとその隣人とのリレーショナル接続を構成するカスタマイズされたメタパスを抽出する。 さらに,複数種類のノードとそのメタパスのマルチレベル埋め込みを異種契約グラフに学習し,より正確にスマートコントラクトのコードセマンティクスをキャプチャし,きめ細かな行レベルと粗い契約レベルの脆弱性検出を容易にするマルチメタパス異種グラフアテンションネットワークを開発した。 大規模スマートコントラクトデータセットの広範な評価により、MANDOは、粗粒度契約レベルでの他の手法の脆弱性検出結果を改善する。 さらに重要なのは、きめ細かい行レベルの脆弱性を識別できる最初の学習ベースのアプローチであり、F1スコアの点で従来のコード分析ベースの脆弱性検出アプローチを11.35%から70.81%改善していることだ。

Learning heterogeneous graphs consisting of different types of nodes and edges enhances the results of homogeneous graph techniques. An interesting example of such graphs is control-flow graphs representing possible software code execution flows. As such graphs represent more semantic information of code, developing techniques and tools for such graphs can be highly beneficial for detecting vulnerabilities in software for its reliability. However, existing heterogeneous graph techniques are still insufficient in handling complex graphs where the number of different types of nodes and edges is large and variable. This paper concentrates on the Ethereum smart contracts as a sample of software codes represented by heterogeneous contract graphs built upon both control-flow graphs and call graphs containing different types of nodes and links. We propose MANDO, a new heterogeneous graph representation to learn such heterogeneous contract graphs' structures. MANDO extracts customized metapaths, which compose relational connections between different types of nodes and their neighbors. Moreover, it develops a multi-metapath heterogeneous graph attention network to learn multi-level embeddings of different types of nodes and their metapaths in the heterogeneous contract graphs, which can capture the code semantics of smart contracts more accurately and facilitate both fine-grained line-level and coarse-grained contract-level vulnerability detection. Our extensive evaluation of large smart contract datasets shows that MANDO improves the vulnerability detection results of other techniques at the coarse-grained contract level. More importantly, it is the first learning-based approach capable of identifying vulnerabilities at the fine-grained line-level, and significantly improves the traditional code analysis-based vulnerability detection approaches by 11.35% to 70.81% in terms of F1-score.
翻訳日:2022-08-30 14:49:55 公開日:2022-08-28
# 深層学習によるテレビシリーズのimdb評価の予測--矢印の場合

Predicting IMDb Rating of TV Series with Deep Learning: The Case of Arrow ( http://arxiv.org/abs/2208.13302v1 )

ライセンス: Link先を確認
Anna Luiza Gomes, Get\'ulio Vianna, Tatiana Escovedo, Marcos Kalinowski(参考訳) コンテクスト:今日提供されるテレビシリーズは、非常に多い。 大量生産のため、低視聴率のオリジナル性が欠如しているため、多くのシリーズがキャンセルされる。 問題: 何らかのショーが大きな成功を収めた理由を示すことができる意思決定支援システムを持つことで、ショーの更新や開始の選択が容易になる。 解決策: CW Network が放送した Arrow シリーズの事例を調査し,IMDb 評価の予測に記述的および予測的モデリング手法を用いた。 我々は,エピソードのテーマがユーザによる評価に影響を与えると仮定し,データセットはエピソードのディレクターによってのみ構成され,そのレビューの回数,エピソードのラテント・ディリクレ・アロケーション(LDA)モデルによって抽出された各テーマのパーセンテージ,ウィキペディアからの視聴者数,IMDbからのレーティングによって構成される。 LDAモデルは、単語からなる文書の集合の生成確率モデルである。 方法: 本研究では, ケーススタディ法を用い, 定量的手法を用いて解析した。 結果】各エピソードの特徴は,KNNモデルに類似した平均二乗誤差があるが,テスト期間中の標準偏差が良くなるため,評価を最善に予測したモデルはCataboostであった。 許容根平均二乗誤差0.55でimdbの評価を予測できた。

Context: The number of TV series offered nowadays is very high. Due to its large amount, many series are canceled due to a lack of originality that generates a low audience. Problem: Having a decision support system that can show why some shows are a huge success or not would facilitate the choices of renewing or starting a show. Solution: We studied the case of the series Arrow broadcasted by CW Network and used descriptive and predictive modeling techniques to predict the IMDb rating. We assumed that the theme of the episode would affect its evaluation by users, so the dataset is composed only by the director of the episode, the number of reviews that episode got, the percentual of each theme extracted by the Latent Dirichlet Allocation (LDA) model of an episode, the number of viewers from Wikipedia and the rating from IMDb. The LDA model is a generative probabilistic model of a collection of documents made up of words. Method: In this prescriptive research, the case study method was used, and its results were analyzed using a quantitative approach. Summary of Results: With the features of each episode, the model that performed the best to predict the rating was Catboost due to a similar mean squared error of the KNN model but a better standard deviation during the test phase. It was possible to predict IMDb ratings with an acceptable root mean squared error of 0.55.
翻訳日:2022-08-30 14:49:25 公開日:2022-08-28
# 逆ガウスポテンシャル中に閉じ込められた水素原子

Hydrogen atom confined inside an inverted-Gaussian potential ( http://arxiv.org/abs/2208.13107v1 )

ライセンス: Link先を確認
H. Olivares-Pil\'on, A. M. Escobar-Ru\'iz, M. A. Quiroz-Ju\'arez, N. Aquino(参考訳) 本研究では, 貫通可能な球状ポテンシャル内に閉じ込められた水素原子について考察する。 収束ポテンシャルは、深さ$\omega_0$, width $\sigma$ の逆ガウス函数によって記述され、r_c$ の中心となる。 特に、このモデルは$c_{60}$フラーレン内の原子を研究するのに使われている。 角運動量$l=0,1,2$の最低値については、3つの異なる数値法を用いてパラメータ(\omega_0,\sigma,r_c$)の関数としてのシステムのスペクトルを算出する。 (i)ラグランジュ・メッシュ法、 (ii)四階有限差、及び (iii)有限要素法。 11以上の有意な数字の具体的な結果が表示される。 また、lagrange-meshアプローチでは、対応する固有関数と、それぞれ$s、p$および$d$対称性の最初の6つの状態に対する期待値である$r$が提示される。 私たちの正確なエネルギーは、ニューラルネットワークをトレーニングするために初期データとして取り込まれます。 効率的な数値補間を生成する。 本稿は,文献で報告された数値を改良し,拡張する。

In this work, we consider the hydrogen atom confined inside a penetrable spherical potential. The confining potential is described by an inverted-Gaussian function of depth $\omega_0$, width $\sigma$ and centered at $r_c$. In particular, this model has been used to study atoms inside a $C_{60}$ fullerene. For the lowest values of angular momentum $l=0,1,2$, the spectra of the system as a function of the parameters ($\omega_0,\sigma,r_c$) is calculated using three distinct numerical methods: (i) Lagrange-mesh method, (ii) fourth order finite differences and (iii) the finite element method. Concrete results with not less than 11 significant figures are displayed. Also, within the Lagrange-mesh approach the corresponding eigenfunctions and the expectation value of $r$ for the first six states of $s, p$ and $d$ symmetries, respectively, are presented. Our accurate energies are taken as initial data to train an artificial neural network as well. It generates an efficient numerical interpolation. The present numerical results improve and extend those reported in the literature.
翻訳日:2022-08-30 14:41:37 公開日:2022-08-28
# 変圧器を用いた高精度・ロバスト病変ReCIST径予測とセグメンテーション

Accurate and Robust Lesion RECIST Diameter Prediction and Segmentation with Transformers ( http://arxiv.org/abs/2208.13113v1 )

ライセンス: Link先を確認
Youbao Tang, Ning Zhang, Yirui Wang, Shenghua He, Mei Han, Jing Xiao, Ruei-Sung Lin(参考訳) RECIST (Response Evaluation Criteria In Solid tumors) 径とセグメンテーションを自動計測することはコンピュータ支援診断において重要である。 近年研究されているが,(1)高空間解像度を維持しつつ,リッチな文脈情報を組み込むことによる特徴の強化,(2)新しいタスクや共同最適化の損失など,その正確性や堅牢性を改善する余地は残されている。 この目的を達成するために,病変直腸径予測および分節化(lrdps)のためのトランスベースネットワーク(meaformer, measurement transformer)を提案する。 病変のセグメンテーション、熱マップ予測、キーポイント回帰の3つの相関的および補的タスクとして定式化されている。 我々の知る限りでは、RECISTの直径予測にキーポイントレグレッションを使うのはこれが初めてである。 meaformerは、トランスフォーマーを使用して長距離の依存関係をキャプチャすることで、高解像度機能を強化できる。 最適化を改善するために、これらのタスク間の関係を明確に構築するために、2つの一貫性損失が導入される。 実験により,MeaFormerは大規模DeepLesionデータセット上でのRDPSの最先端性能を達成し,2つの下流クリニック関連タスク,すなわち3次元病変セグメンテーションとRECISTアセスメントの有望な結果をもたらすことが示された。

Automatically measuring lesion/tumor size with RECIST (Response Evaluation Criteria In Solid Tumors) diameters and segmentation is important for computer-aided diagnosis. Although it has been studied in recent years, there is still space to improve its accuracy and robustness, such as (1) enhancing features by incorporating rich contextual information while keeping a high spatial resolution and (2) involving new tasks and losses for joint optimization. To reach this goal, this paper proposes a transformer-based network (MeaFormer, Measurement transFormer) for lesion RECIST diameter prediction and segmentation (LRDPS). It is formulated as three correlative and complementary tasks: lesion segmentation, heatmap prediction, and keypoint regression. To the best of our knowledge, it is the first time to use keypoint regression for RECIST diameter prediction. MeaFormer can enhance high-resolution features by employing transformers to capture their long-range dependencies. Two consistency losses are introduced to explicitly build relationships among these tasks for better optimization. Experiments show that MeaFormer achieves the state-of-the-art performance of LRDPS on the large-scale DeepLesion dataset and produces promising results of two downstream clinic-relevant tasks, i.e., 3D lesion segmentation and RECIST assessment in longitudinal studies.
翻訳日:2022-08-30 14:34:59 公開日:2022-08-28
# 階層立方体分割による可変サイズブロックを用いた効率的な運動モデル

Efficient Motion Modelling with Variable-sized blocks from Hierarchical Cuboidal Partitioning ( http://arxiv.org/abs/2208.13137v1 )

ライセンス: Link先を確認
Priyabrata Karmakar, Manzur Murshed, Manoranjan Paul, David Taubman(参考訳) ブロックベースアーキテクチャを用いたモーションモデリングは、フレームを独立して補償される固定サイズのブロックに分割するビデオ符号化において広く用いられている。 これはしばしば、固定サイズのブロックがオブジェクトの境界とほとんど一致しないため、コーディングの非効率につながる。 これに対処するために階層的ブロックパーティショニングが導入されたが、動きベクトルの増加は効果を制限している。 近年,cuboidal partitioningを用いた画像の近似セグメンテーションが普及している。 可変長方形セグメント(cuboids)はブロックベースの画像/ビデオ符号化技術に容易に適合するだけでなく、オブジェクト境界とうまく整合することができる。 これは、立方体分割は二乗誤差の和 (sse) を最小化する同質性制約に基づいているからである。 本稿では,スケーラブルなビデオ符号化において使用される固定サイズのブロックに対する動きモデリングにおけるcuboidsの可能性について検討した。 具体的には,グループ・オブ・ピクチャ(GOP)におけるアンカーフレームの立方体分割情報を用いて,動作補償電流フレームを構築した。 その後、予測された現在のフレームをベース層として使用し、スケーラブルなHEVCエンコーダを用いて、現在のフレームを拡張層として符号化する。 6.71%-10.90%のビットレート保存を4Kビデオシーケンスで確認した。

Motion modelling with block-based architecture has been widely used in video coding where a frame is divided into fixed-sized blocks that are motion compensated independently. This often leads to coding inefficiency as fixed-sized blocks hardly align with the object boundaries. Although hierarchical block-partitioning has been introduced to address this, the increased number of motion vectors limits the benefit. Recently, approximate segmentation of images with cuboidal partitioning has gained popularity. Not only are the variable-sized rectangular segments (cuboids) readily amenable to block-based image/video coding techniques, but they are also capable of aligning well with the object boundaries. This is because cuboidal partitioning is based on a homogeneity constraint, minimising the sum of squared errors (SSE). In this paper, we have investigated the potential of cuboids in motion modelling against the fixed-sized blocks used in scalable video coding. Specifically, we have constructed motion-compensated current frame using the cuboidal partitioning information of the anchor frame in a group-of-picture (GOP). The predicted current frame has then been used as the base layer while encoding the current frame as an enhancement layer using the scalable HEVC encoder. Experimental results confirm 6.71%-10.90% bitrate savings on 4K video sequences.
翻訳日:2022-08-30 14:34:35 公開日:2022-08-28
# 頭部・頸部リンパ節の自動郭清のための深層学習

Deep Learning for automatic head and neck lymph node level delineation ( http://arxiv.org/abs/2208.13224v1 )

ライセンス: Link先を確認
Thomas Weissmann, Yixing Huang, Stefan Fischer, Johannes Roesch, Sina Mansoorian, Horacio Ayala Gaona, Antoniu-Oreste Gostian, Markus Hecht, Sebastian Lettmaier, Lisa Deloch, Benjamin Frey, Udo S. Gaipl, Luitpold V. Distel, Andreas Maier, Heinrich Iro, Sabine Semrau, Christoph Bert, Rainer Fietkau and Florian Putz(参考訳) 背景: 深層学習に基づく頭頸部リンパ節レベル(HN_LNL)は放射線治療研究と臨床治療計画との関連性が高いが, 学術文献ではまだ検討されている。 方法: nnu-net 3d-fullres/2d-ensembleモデルの20種類のhn_lnlの自動セグメンテーション訓練に35個の計画用ctsを用いた。 検証は独立したテストセット(n=20)で行った。 完全盲検評価では, 3名の臨床専門家が, 深層学習の自己隔離の質を, 専門家が作成した輪郭と比較した。 10例のサブグループにおいて,observer内変動とdeep learning autosegmentationのパフォーマンスを比較した。 CTスライス面配向による自動輪郭整合が幾何精度および専門家評価に及ぼす影響について検討した。 結果:CTスライス平面調整による深層学習のセグメンテーションは, 専門家が作成したコントラル (81.0 vs. 79.6, p<0.001) よりも有意に優れていたが, スライス平面調整のない深部学習セグメンテーションは専門家が作成したコントラル (77.2 vs. 79.6, p<0.001) よりも有意に劣った。 深層学習セグメンテーションの幾何学的精度は,レベル間の精度のばらつき(p<0.001)とオブザーバー内変動(0.78 vs. 0.77, p=0.064)とは無関係であった。 結論: nnU-net 3D-fullres/2D-ensemble model を用いて HN_LNL の高精度オートデライン化を, HN_LNL の大規模標準オートデライン化に理想的に適合する限られたトレーニングデータセットのみを用いて行うことができることを示す。 幾何学的精度の指標は、盲目のエキスパートレーティングにとって不完全な代理である。

Background: Deep learning-based head and neck lymph node level (HN_LNL) autodelineation is of high relevance to radiotherapy research and clinical treatment planning but still understudied in academic literature. Methods: An expert-delineated cohort of 35 planning CTs was used for training of an nnU-net 3D-fullres/2D-ensemble model for autosegmentation of 20 different HN_LNL. Validation was performed in an independent test set (n=20). In a completely blinded evaluation, 3 clinical experts rated the quality of deep learning autosegmentations in a head-to-head comparison with expert-created contours. For a subgroup of 10 cases, intraobserver variability was compared to deep learning autosegmentation performance. The effect of autocontour consistency with CT slice plane orientation on geometric accuracy and expert rating was investigated. Results: Mean blinded expert rating per level was significantly better for deep learning segmentations with CT slice plane adjustment than for expert-created contours (81.0 vs. 79.6, p<0.001), but deep learning segmentations without slice plane adjustment were rated significantly worse than expert-created contours (77.2 vs. 79.6, p<0.001). Geometric accuracy of deep learning segmentations was non-different from intraobserver variability (mean Dice per level, 0.78 vs. 0.77, p=0.064) with variance in accuracy between levels being improved (p<0.001). Clinical significance of contour consistency with CT slice plane orientation was not represented by geometric accuracy metrics (Dice, 0.78 vs. 0.78, p=0.572) Conclusions: We show that a nnU-net 3D-fullres/2D-ensemble model can be used for highly accurate autodelineation of HN_LNL using only a limited training dataset that is ideally suited for large-scale standardized autodelineation of HN_LNL in the research setting. Geometric accuracy metrics are only an imperfect surrogate for blinded expert rating.
翻訳日:2022-08-30 14:34:16 公開日:2022-08-28
# 不等角化音声表現に向けて

Towards Disentangled Speech Representations ( http://arxiv.org/abs/2208.13191v1 )

ライセンス: Link先を確認
Cal Peyser, Ronny Huang Andrew Rosenberg Tara N. Sainath, Michael Picheny, Kyunghyun Cho(参考訳) 音声表現の注意深い構成は、多くの音声タスクに対するアプローチの設計において主要な特徴となっている。 このようなアプローチは、表現が転写に関連する音声信号の一部のみを含み、無関係な情報を破棄する「乱れ」を強調している。 本稿では,asrとttsの結合モデルに基づく表現学習タスクを構築し,そうでない部分からの書き起こしに関係のある音声信号のどの部分を分断した音声表現を学習する。 このような表現をうまく見つけることは、訓練に固有のランダム性と結びついているという経験的証拠を示す。 次に、最適化問題に対するこれらの望まれない解が独自の統計的性質を持っていることを観察する。 最後に、これらの特性をトレーニング中に付与することで、WERを平均24.5%向上させることを示す。 これらの観察は、効果的な音声表現を学ぶための新しいアプローチを動機付ける。

The careful construction of audio representations has become a dominant feature in the design of approaches to many speech tasks. Increasingly, such approaches have emphasized "disentanglement", where a representation contains only parts of the speech signal relevant to transcription while discarding irrelevant information. In this paper, we construct a representation learning task based on joint modeling of ASR and TTS, and seek to learn a representation of audio that disentangles that part of the speech signal that is relevant to transcription from that part which is not. We present empirical evidence that successfully finding such a representation is tied to the randomness inherent in training. We then make the observation that these desired, disentangled solutions to the optimization problem possess unique statistical properties. Finally, we show that enforcing these properties during training improves WER by 24.5% relative on average for our joint modeling task. These observations motivate a novel approach to learning effective audio representations.
翻訳日:2022-08-30 14:32:50 公開日:2022-08-28
# アウトプットと入力リンクに基づくオンラインソーシャルネットワークにおける意見リーダ検出

Opinion Leader Detection in Online Social Networks Based on Output and Input Links ( http://arxiv.org/abs/2208.13161v1 )

ライセンス: Link先を確認
Zahra Ghorbani, Seyed Hossein Khasteh, Saeid Ghafouri(参考訳) ネットワーク上のユーザが自分の意見を隣人の意見に基づいてどのように更新するかを理解することは、ネットワーク科学の分野に多大な関心を惹きつけており、ますます多くの文献がこの問題の重要性を認識している。 本稿では,有向ネットワークにおける意見形成の新しい動的モデルを提案する。 このモデルでは、各ノードの意見は近隣の意見の重み付け平均として更新され、重み付けは社会的影響を表す。 我々は,新しい中心性尺度を,影響と適合性の両方に基づく社会的影響指標として定義する。 2つの意見形成モデルを用いて、この新しいアプローチを測定する。 (i)degrootモデル及び (ii) 独自のモデルを提案する。 これまで発表された研究は、適合性を考慮せず、社会的影響を計算する際にノードの影響のみを考慮してきた。 我々の定義では、高い外度と低い外度と高い外度が接続されたノードは、高い中心性を持っていた。 本研究の主な貢献として,他のノードの意見に大きな影響を与える可能性があるソーシャルネットワーク内のノードの小さなサブセットを探索するアルゴリズムを提案する。 実世界データを用いた実験により,提案手法が先行する最先端手法を有意に上回っていることが示された。

The understanding of how users in a network update their opinions based on their neighbours opinions has attracted a great deal of interest in the field of network science, and a growing body of literature recognises the significance of this issue. In this research paper, we propose a new dynamic model of opinion formation in directed networks. In this model, the opinion of each node is updated as the weighted average of its neighbours opinions, where the weights represent social influence. We define a new centrality measure as a social influence metric based on both influence and conformity. We measure this new approach using two opinion formation models: (i) the Degroot model and (ii) our own proposed model. Previously published research studies have not considered conformity, and have only considered the influence of the nodes when computing the social influence. In our definition, nodes with low in-degree and high out-degree that were connected to nodes with high out-degree and low in-degree had higher centrality. As the main contribution of this research, we propose an algorithm for finding a small subset of nodes in a social network that can have a significant impact on the opinions of other nodes. Experiments on real-world data demonstrate that the proposed algorithm significantly outperforms previously published state-of-the-art methods.
翻訳日:2022-08-30 14:29:02 公開日:2022-08-28
# 統計的手法を用いた可視性に制限のある複雑ネットワークにおける影響最大化(IM)

Influence Maximization (IM) in Complex Networks with Limited Visibility Using Statistical Methods ( http://arxiv.org/abs/2208.13166v1 )

ライセンス: Link先を確認
aeid Ghafouri, Seyed Hossein Khasteh, Seyed Omid Azarkasb(参考訳) sn(social network)は、それらの間の相互作用を表すグループからなる社会構造である。 SNは近年広く使われており、その後製品プロモーションや情報拡散のプラットフォームとして広く普及している。 SNの人々はお互いの興味や行動に直接影響を与えます。 SNの最も重要な問題の1つは、ネットワーク拡散シナリオのシードノードとして選択された場合、ネットワーク内の他のノードに最大限の影響を持つことができる人を見つけることである。 影響力のあるディフューザーは、もしそれがネットワークの出版号のシードセットに選ばれれば、その拡散したエンティティについて学んだ人の大半を持つだろう。 これは、影響最大化(IM)問題として知られる文学におけるよく知られた問題である。 これはnp完全問題であり、多項式時間では解がないことが証明されているが、それは部分モジュラー関数の性質を持ち、したがって欲張りなアルゴリズムを使って解くことができると論じられている。 この複雑さを改善するために提案された手法のほとんどは、グラフ全体が見えるという仮定に基づいている。 しかし、この仮定は多くの実世界のグラフには当てはまらない。 本研究では,リンク予測手法による電流最大化手法を擬似可視グラフに拡張する。 この目的のために,指数ランダムグラフモデル (ERGM) と呼ばれるグラフ生成手法がリンク予測に用いられている。 スタンフォード大学のsnapデータセットのデータを用いて,提案手法を検証した。 実験によると,提案手法は実世界のグラフ上で効率的である。

A social network (SN) is a social structure consisting of a group representing the interaction between them. SNs have recently been widely used and, subsequently, have become suitable and popular platforms for product promotion and information diffusion. People in an SN directly influence each other's interests and behavior. One of the most important problems in SNs is to find people who can have the maximum influence on other nodes in the network in a cascade manner if they are chosen as the seed nodes of a network diffusion scenario. Influential diffusers are people who, if they are chosen as the seed set in a publishing issue in the network, that network will have the most people who have learned about that diffused entity. This is a well-known problem in literature known as influence maximization (IM) problem. Although it has been proven that this is an NP-complete problem and does not have a solution in polynomial time, it has been argued that it has the properties of sub modular functions and, therefore, can be solved using a greedy algorithm. Most of the methods proposed to improve this complexity are based on the assumption that the entire graph is visible. However, this assumption does not hold for many real-world graphs. This study is conducted to extend current maximization methods with link prediction techniques to pseudo-visibility graphs. To this end, a graph generation method called the exponential random graph model (ERGM) is used for link prediction. The proposed method is tested using the data from the Snap dataset of Stanford University. According to the experimental tests, the proposed method is efficient on real-world graphs.
翻訳日:2022-08-30 14:28:44 公開日:2022-08-28
# NISQアルゴリズムを用いた量子機械学習分類のための前処理的視点

A preprocessing perspective for quantum machine learning classification advantage using NISQ algorithms ( http://arxiv.org/abs/2208.13251v1 )

ライセンス: Link先を確認
Javier Mancilla and Christophe Pere(参考訳) 量子機械学習(QML)は、古典的な機械学習アプローチと比較して、そのメリットを広く、明確に示していない。 今のところ、いくつかの量子にインスパイアされた技術が小さな漸進的な利点を達成している特定のケースのみが存在しており、ハイブリッド量子コンピューティングのいくつかの実験ケースは、中期的な未来を考えることを約束している。 現在の量子コンピュータはノイズが多く、量子ビットがほとんどテストできないため、qml法の現在および潜在的な量子利点を示すのは難しい。 本研究では,データ前処理段階において線形判別分析(LDA)を用いて量子分類器の古典的符号化と性能を向上できることを示す。 その結果、変分量子アルゴリズム(VQA)は、LDA手法とバランスの取れた精度で性能が向上し、ベースラインの古典的分類器を上回った。

Quantum Machine Learning (QML) hasn't yet demonstrated extensively and clearly its advantages compared to the classical machine learning approach. So far, there are only specific cases where some quantum-inspired techniques have achieved small incremental advantages, and a few experimental cases in hybrid quantum computing are promising considering a mid-term future (not taking into account the achievements purely associated with optimization using quantum-classical algorithms). The current quantum computers are noisy and have few qubits to test, making it difficult to demonstrate the current and potential quantum advantage of QML methods. This study shows that we can achieve better classical encoding and performance of quantum classifiers by using Linear Discriminant Analysis (LDA) during the data preprocessing step. As a result, Variational Quantum Algorithm (VQA) shows a gain of performance in balanced accuracy with the LDA technique and outperforms baseline classical classifiers.
翻訳日:2022-08-30 14:28:07 公開日:2022-08-28
# ドメイン適応主成分分析:分布外データを用いた基礎線形学習法

Domain Adaptation Principal Component Analysis: base linear method for learning with out-of-distribution data ( http://arxiv.org/abs/2208.13290v1 )

ライセンス: Link先を確認
Evgeny M Mirkes, Jonathan Bac, Aziz Fouch\'e, Sergey V. Stasenko, Andrei Zinovyev and Alexander N. Gorban(参考訳) ドメイン適応(domain adaptation)は、現代の機械学習において一般的なパラダイムであり、分類器(ソースドメイン)と潜在的に大きなラベルなしデータセット(ターゲットドメイン)を学習およびテストするためのラベルを持つデータセットのトレーニングまたは検証の相違に対処することを目的としている。 課題は、ソースデータセットとターゲットデータセットの両方の共通表現を見つけることであり、ソースデータセットがトレーニングのために通知され、ソースとターゲットのばらつきを最小限に抑えることである。 ドメイン適応のための最も一般的なソリューションは、現在、分類と逆学習モジュールを組み合わせたニューラルネットワークのトレーニングに基づいている。 本稿では,DAPCA(Domain Adaptation principal Component Analysis)と呼ばれる手法を提案する。 DAPCAは、データポイント間の正と負の重みを導入し、主成分分析の教師付き拡張を一般化する。 DAPCAは反復アルゴリズムを表現し、各イテレーションで単純な二次最適化問題を解く。 アルゴリズムの収束は保証され、イテレーションの数は実際には少ない。 提案アルゴリズムは,これまで提案されてきたドメイン適応タスクのベンチマークで検証し,バイオメディカル応用における単一細胞オミクスデータセットの解析にDAACAを用いることのメリットを示した。 全体として、DAPCAは、ソースとターゲットドメイン間のばらつきを考慮して、データセット表現の削減につながる多くの機械学習アプリケーションにおいて、有用な前処理ステップとして機能する。

Domain adaptation is a popular paradigm in modern machine learning which aims at tackling the problem of divergence between training or validation dataset possessing labels for learning and testing a classifier (source domain) and a potentially large unlabeled dataset where the model is exploited (target domain). The task is to find such a common representation of both source and target datasets in which the source dataset is informative for training and such that the divergence between source and target would be minimized. Most popular solutions for domain adaptation are currently based on training neural networks that combine classification and adversarial learning modules, which are data hungry and usually difficult to train. We present a method called Domain Adaptation Principal Component Analysis (DAPCA) which finds a linear reduced data representation useful for solving the domain adaptation task. DAPCA is based on introducing positive and negative weights between pairs of data points and generalizes the supervised extension of principal component analysis. DAPCA represents an iterative algorithm such that at each iteration a simple quadratic optimization problem is solved. The convergence of the algorithm is guaranteed and the number of iterations is small in practice. We validate the suggested algorithm on previously proposed benchmarks for solving the domain adaptation task, and also show the benefit of using DAPCA in the analysis of single cell omics datasets in biomedical applications. Overall, DAPCA can serve as a useful preprocessing step in many machine learning applications leading to reduced dataset representations, taking into account possible divergence between source and target domains.
翻訳日:2022-08-30 14:24:13 公開日:2022-08-28
# 知識蒸留としてのゴールコンディションQ-Learning

Goal-Conditioned Q-Learning as Knowledge Distillation ( http://arxiv.org/abs/2208.13298v1 )

ライセンス: Link先を確認
Alexander Levine, Soheil Feizi(参考訳) 強化学習の多くの応用はゴール条件付き環境として定式化することができ、各エピソードでは、そのエピソードで得られる報酬に影響を与えるが、ダイナミクスには影響しない「ゴール」が存在する。 自動カリキュラム生成や目標リラベル化など,目標条件環境の性能向上のための様々な手法が提案されている。 本研究では,ゴール条件設定におけるオフ・ポリティクス強化学習と知識蒸留との関係について検討する。 特に、現在のQ値関数と目標Q値推定はどちらも目標の関数であり、全ての目標に対して目標と一致するようにQ値関数を訓練したい。 そこで我々はQ関数更新に知識蒸留技術であるグラディエントベース注意伝達(Zagoruyko and Komodakis 2017)を適用した。 これは,ゴールの空間が高次元である場合,ゴール条件付きオフポリシー強化学習の性能を向上できることを実証的に示す。 また,この手法は,複数の同時スパース目標において効率的な学習を可能にするために適用可能であり,エージェントは,テスト時にすべて特定された,大きな目標セットのいずれかを達成することで報奨を得ることができる。 最後に、理論的な支援を提供するために、(いくつかの仮定の下で)標準のオフポリティクスアルゴリズムは、最適ポリシーを学ぶために少なくともO(d^2)の遷移を必要とする環境のクラスを例示し、一方、提案手法では、dが目標と状態空間の次元性であるO(d)の遷移のみを必要とする。

Many applications of reinforcement learning can be formalized as goal-conditioned environments, where, in each episode, there is a "goal" that affects the rewards obtained during that episode but does not affect the dynamics. Various techniques have been proposed to improve performance in goal-conditioned environments, such as automatic curriculum generation and goal relabeling. In this work, we explore a connection between off-policy reinforcement learning in goal-conditioned settings and knowledge distillation. In particular: the current Q-value function and the target Q-value estimate are both functions of the goal, and we would like to train the Q-value function to match its target for all goals. We therefore apply Gradient-Based Attention Transfer (Zagoruyko and Komodakis 2017), a knowledge distillation technique, to the Q-function update. We empirically show that this can improve the performance of goal-conditioned off-policy reinforcement learning when the space of goals is high-dimensional. We also show that this technique can be adapted to allow for efficient learning in the case of multiple simultaneous sparse goals, where the agent can attain a reward by achieving any one of a large set of objectives, all specified at test time. Finally, to provide theoretical support, we give examples of classes of environments where (under some assumptions) standard off-policy algorithms require at least O(d^2) observed transitions to learn an optimal policy, while our proposed technique requires only O(d) transitions, where d is the dimensionality of the goal and state space.
翻訳日:2022-08-30 14:23:46 公開日:2022-08-28
# 時間遅延を伴う分散学習における非同期学習方式

Asynchronous Training Schemes in Distributed Learning with Time Delay ( http://arxiv.org/abs/2208.13154v1 )

ライセンス: Link先を確認
Haoxiang Wang, Zhanhong Jiang, Chao Liu, Soumik Sarkar, Dongxiang Jiang, Young M. Lee(参考訳) 分散ディープラーニングの文脈では、固定重みや勾配の問題によってアルゴリズムの性能が低下する可能性がある。 この問題は通常、目的関数とステップサイズに関する軽度な仮定を持つ遅延耐性アルゴリズムによって取り組まれる。 本稿では,新しいアルゴリズムを開発するために,$\textbf{P}$redicting $\textbf{C}$lipping $\textbf{A}$synchronous $\textbf{S}$tochastic $\textbf{G}$radient $\textbf{D}$escent (別名 PC-ASGD)を提案する。 具体的には、PC-ASGDには2つのステップがある: $\textit{predicting step}$はTaylor拡張を使った勾配予測を利用して時代遅れの重みの安定化を減らし、$\textit{clipping step}$は時代遅れの重みを選択的に減らし、負の効果を緩和する。 これらの2つのステップ間の効果のバランスをとるためにトレードオフパラメータが導入された。 理論的には, 滑らかな対象関数が弱く強凸かつ非凸である場合, 提案アルゴリズムのステップサイズが一定である場合の遅延の影響を考慮した収束率を示す。 また,PC-ASGDの実用版として,トレードオフパラメータの決定を支援する条件を適用して提案する。 実験的な検証のために、2つのベンチマークデータセット上で2つのディープニューラルネットワークアーキテクチャを用いてアルゴリズムの性能を示す。

In the context of distributed deep learning, the issue of stale weights or gradients could result in poor algorithmic performance. This issue is usually tackled by delay tolerant algorithms with some mild assumptions on the objective functions and step sizes. In this paper, we propose a different approach to develop a new algorithm, called $\textbf{P}$redicting $\textbf{C}$lipping $\textbf{A}$synchronous $\textbf{S}$tochastic $\textbf{G}$radient $\textbf{D}$escent (aka, PC-ASGD). Specifically, PC-ASGD has two steps - the $\textit{predicting step}$ leverages the gradient prediction using Taylor expansion to reduce the staleness of the outdated weights while the $\textit{clipping step}$ selectively drops the outdated weights to alleviate their negative effects. A tradeoff parameter is introduced to balance the effects between these two steps. Theoretically, we present the convergence rate considering the effects of delay of the proposed algorithm with constant step size when the smooth objective functions are weakly strongly-convex and nonconvex. One practical variant of PC-ASGD is also proposed by adopting a condition to help with the determination of the tradeoff parameter. For empirical validation, we demonstrate the performance of the algorithm with two deep neural network architectures on two benchmark datasets.
翻訳日:2022-08-30 14:15:22 公開日:2022-08-28
# グラフニューラルネットワークを用いた軌道予測による異種相互作用強度の学習

Learning Heterogeneous Interaction Strengths by Trajectory Prediction with Graph Neural Network ( http://arxiv.org/abs/2208.13179v1 )

ライセンス: Link先を確認
Seungwoong Ha, Hawoong Jeong(参考訳) 相互作用するエージェントを持つ力学系は自然界において普遍的であり、一般的に構成員間の関係グラフによってモデル化される。 近年,深層ニューラルネットワークによるシステムトラジェクタからそれらの関係を推測する手法が提案されているが,そのほとんどは単純さのために二元的あるいは離散的な相互作用を仮定している。 実世界では、相互作用核はしばしば連続的な相互作用の強度を伴い、これは離散関係によって正確に近似できない。 本研究では,接地-実地相互作用の強みを伴わない連続重み付き相互作用グラフを推定するリレーショナル・アテンション推論ネットワーク(rain)を提案する。 提案モデルでは,軌道表現を洗練するための新しいペアアテンション(PA)機構と,各エージェントの異種相互作用重みを抽出するグラフトランスフォーマーを用いる。 その結果,pa機構を用いた降雨モデルでは,シミュレーション物理系の連続的な相互作用強度を教師なしで正確に推定できることがわかった。 さらに、rain with paは、解釈可能な相互作用グラフを用いて、モーションキャプチャデータからの軌跡予測に成功し、未知のダイナミクスを連続的な重みでモデル化することの利点を示す。

Dynamical systems with interacting agents are universal in nature, commonly modeled by a graph of relationships between their constituents. Recently, various works have been presented to tackle the problem of inferring those relationships from the system trajectories via deep neural networks, but most of the studies assume binary or discrete types of interactions for simplicity. In the real world, the interaction kernels often involve continuous interaction strengths, which cannot be accurately approximated by discrete relations. In this work, we propose the relational attentive inference network (RAIN) to infer continuously weighted interaction graphs without any ground-truth interaction strengths. Our model employs a novel pairwise attention (PA) mechanism to refine the trajectory representations and a graph transformer to extract heterogeneous interaction weights for each pair of agents. We show that our RAIN model with the PA mechanism accurately infers continuous interaction strengths for simulated physical systems in an unsupervised manner. Further, RAIN with PA successfully predicts trajectories from motion capture data with an interpretable interaction graph, demonstrating the virtue of modeling unknown dynamics with continuous weights.
翻訳日:2022-08-30 14:14:51 公開日:2022-08-28
# 鉄道における障害検出と診断のための対比特徴学習

Contrastive Feature Learning for Fault Detection and Diagnostics in Railway Applications ( http://arxiv.org/abs/2208.13288v1 )

ライセンス: Link先を確認
Katharina Rombach, Gabriel Michau, Kajan Ratnasabapathy, Lucian-Stefan Ancu, Wilfried B\"urzle, Stefan Koller and Olga Fink(参考訳) 鉄道は、複数のインフラと車両資産からなる複雑なシステムである。 システムを安全かつ確実かつ効率的に運用するには、多くのコンポーネントを監視する必要がある。 このプロセスの自動化には、データ駆動の障害検出と診断モデルが用いられる。 しかし実際には、トレーニングデータセットが将来のすべての条件を代表していない場合、データ駆動モデルのパフォーマンスは損なわれる可能性がある。 本稿では,運用要因や環境要因に不変であるが,一方で,資産の健康状態の変化に敏感な特徴表現を学習することによって,この問題にアプローチすることを提案する。 鉄道システム内の実況監視データセット(インフラストラクチャー資産からの1画像データセットとローリングストック資産からの1時系列データセット)について,教師付き・教師なしの故障検出・診断タスクにおいて,コントラスト学習がいかに活用できるかを評価する。 まず,ラベル付き画像データセットを用いた鉄道寝台欠陥分類タスクにおける教師付きコントラスト特徴学習の性能を評価する。 第2に,鉄道車両データセットに与えられた異常検出タスクにおいて,故障サンプルにアクセスせずに教師なしコントラスト特徴学習の性能を評価する。 本稿では,特徴エンコーダの劣化に対する感受性がデータ中の新たな障害パターンに敏感かどうかを検証した。 以上の結果から,コントラスト的特徴学習は睡眠に関する教師付き分類タスクの性能を,最先端の手法と比較して向上させることが示された。 また、鉄道車両に関する異常検出タスクでは、最先端の方法と比較して、砲弾欠陥の検出が向上する。

A railway is a complex system comprising multiple infrastructure and rolling stock assets. To operate the system safely, reliably, and efficiently, the condition many components needs to be monitored. To automate this process, data-driven fault detection and diagnostics models can be employed. In practice, however, the performance of data-driven models can be compromised if the training dataset is not representative of all possible future conditions. We propose to approach this problem by learning a feature representation that is, on the one hand, invariant to operating or environmental factors but, on the other hand, sensitive to changes in the asset's health condition. We evaluate how contrastive learning can be employed on supervised and unsupervised fault detection and diagnostics tasks given real condition monitoring datasets within a railway system - one image dataset from infrastructure assets and one time-series dataset from rolling stock assets. First, we evaluate the performance of supervised contrastive feature learning on a railway sleeper defect classification task given a labeled image dataset. Second, we evaluate the performance of unsupervised contrastive feature learning without access to faulty samples on an anomaly detection task given a railway wheel dataset. Here, we test the hypothesis of whether a feature encoder's sensitivity to degradation is also sensitive to novel fault patterns in the data. Our results demonstrate that contrastive feature learning improves the performance on the supervised classification task regarding sleepers compared to a state-of-the-art method. Moreover, on the anomaly detection task concerning the railway wheels, the detection of shelling defects is improved compared to state-of-the-art methods.
翻訳日:2022-08-30 14:14:32 公開日:2022-08-28
# 連続的なドメイン適応にこだわる

Delving into the Continuous Domain Adaptation ( http://arxiv.org/abs/2208.13121v1 )

ライセンス: Link先を確認
Yinsong Xu, Zhuqing Jiang, Aidong Men, Yang Liu, Qingchao Chen(参考訳) 既存のドメイン適応法では、ドメインの相違はいくつかの異なる属性やバリエーション(例えば、アート、リアル、絵画、クイックドリューなど)によって生じると仮定している。 これは現実的なものではなく、いくつかの離散属性を使って現実世界のデータセットを定義することは不可能である、と我々は主張する。 そこで本研究では,無限領域が連続的に変化する属性によって形成されるレンズを通して,連続領域適応(cda)という新たな問題について検討する。 2つのラベル付きソースドメインといくつかの観測対象ドメインデータの知識を活用して、CDAの目的は、連続属性を持つ全データ分布の一般化モデルを学ぶことである。 新しい問題を定式化することの貢献に加えて、強力なcdaベースラインとして新しいアプローチを提案する。 まず,複数のドメイン間の相違を減らし,対象ドメインに一般化する新たな交互学習戦略を提案する。 次に,クロスドメイン分散測定における連続性制約を提案する。 最後に,ミニバッチサイズとの相違を解消するために,適応性能をさらに向上するソースドメインのグローバルビューを維持するために,ドメイン固有のキューを設計する。 提案手法は,CDA問題における最先端の課題を広範囲な実験により実現できることが証明された。 コードはhttps://github.com/SPIresearch/CDAで公開されている。

Existing domain adaptation methods assume that domain discrepancies are caused by a few discrete attributes and variations, e.g., art, real, painting, quickdraw, etc. We argue that this is not realistic as it is implausible to define the real-world datasets using a few discrete attributes. Therefore, we propose to investigate a new problem namely the Continuous Domain Adaptation (CDA) through the lens where infinite domains are formed by continuously varying attributes. Leveraging knowledge of two labeled source domains and several observed unlabeled target domains data, the objective of CDA is to learn a generalized model for whole data distribution with the continuous attribute. Besides the contributions of formulating a new problem, we also propose a novel approach as a strong CDA baseline. To be specific, firstly we propose a novel alternating training strategy to reduce discrepancies among multiple domains meanwhile generalize to unseen target domains. Secondly, we propose a continuity constraint when estimating the cross-domain divergence measurement. Finally, to decouple the discrepancy from the mini-batch size, we design a domain-specific queue to maintain the global view of the source domain that further boosts the adaptation performances. Our method is proven to achieve the state-of-the-art in CDA problem using extensive experiments. The code is available at https://github.com/SPIresearch/CDA.
翻訳日:2022-08-30 14:00:30 公開日:2022-08-28
# タスク伝達学習による降雨ストリークの除去

Removing Rain Streaks via Task Transfer Learning ( http://arxiv.org/abs/2208.13133v1 )

ライセンス: Link先を確認
Yinglong Wang and Chao Ma and Jianzhuang Liu(参考訳) ペアな実世界のトレーニングデータの収集が難しいため、現在、photoshopレンダリングなどの合成データを使った教師付き学習が主流となっている。 しかし、実際の雨景色への一般化は通常、合成データと現実世界データとのギャップのため制限される。 本稿では, 実際の降雨事例に対して, 教師付きデラライニングモデルが一般化できない理由を統計的に検討し, 合成降雨データと実際の降雨データとの実質的な差異を見いだす。 本研究は,他のコネクテッドタスクから好意的なデリーニング表現を学習することで雨を除去することを提案する。 連結タスクでは、実データ用のラベルを容易に得ることができる。 したがって、私たちの核となるアイデアは、タスク転送を通じて実際のデータから表現を学び、デレーシングの一般化を改善することです。 そこで我々は学習戦略を「textit{task transfer learning}」と呼ぶ。 複数の連結タスクがある場合、知識蒸留によるモデルサイズを減らすことを提案する。 接続タスクの事前学習モデルは教師として扱われ、その知識はすべて学生ネットワークに蒸留され、モデルのサイズが小さくなり、一方、全ての接続タスクから効果的な事前表現が維持される。 最後に、学生ネットワークは、ペアの合成雨データで微調整され、事前訓練された事前表現を導いて雨を取り除く。 広範な実験により、提案するタスク転送学習戦略が驚くほど成功し、最先端の教師あり学習法と比較し、合成データに対する他の半教師あり遅延法を上回ったことが示される。 特に、現実世界のシーンへのより優れた一般化を示している。

Due to the difficulty in collecting paired real-world training data, image deraining is currently dominated by supervised learning with synthesized data generated by e.g., Photoshop rendering. However, the generalization to real rainy scenes is usually limited due to the gap between synthetic and real-world data. In this paper, we first statistically explore why the supervised deraining models cannot generalize well to real rainy cases, and find the substantial difference of synthetic and real rainy data. Inspired by our studies, we propose to remove rain by learning favorable deraining representations from other connected tasks. In connected tasks, the label for real data can be easily obtained. Hence, our core idea is to learn representations from real data through task transfer to improve deraining generalization. We thus term our learning strategy as \textit{task transfer learning}. If there are more than one connected tasks, we propose to reduce model size by knowledge distillation. The pretrained models for the connected tasks are treated as teachers, all their knowledge is distilled to a student network, so that we reduce the model size, meanwhile preserve effective prior representations from all the connected tasks. At last, the student network is fine-tuned with minority of paired synthetic rainy data to guide the pretrained prior representations to remove rain. Extensive experiments demonstrate that proposed task transfer learning strategy is surprisingly successful and compares favorably with state-of-the-art supervised learning methods and apparently surpass other semi-supervised deraining methods on synthetic data. Particularly, it shows superior generalization over them to real-world scenes.
翻訳日:2022-08-30 14:00:11 公開日:2022-08-28
# ClusTR:視覚変換器のためのクラスタリングによる効率的な自己注意の探索

ClusTR: Exploring Efficient Self-attention via Clustering for Vision Transformers ( http://arxiv.org/abs/2208.13138v1 )

ライセンス: Link先を確認
Yutong Xie, Jianpeng Zhang, Yong Xia, Anton van den Hengel, and Qi Wu(参考訳) トランスフォーマーは言語モデリングから画像ベースのアプリケーションへの移行に成功しているが、その二次計算の複雑さは、特に密度の高い予測において、依然として課題となっている。 本稿では,密集した自己注意の代替として,長期依存をモデル化する能力を維持しつつ計算の複雑さを低減すべく,コンテンツベースのスパース注意手法を提案する。 具体的には、合計トークン数を減少させるコンテンツベースの方法として、キーとバリュートークンをクラスタ化し、集約する。 結果として得られたクラスタ化されたシーケンスは、元の信号の意味的多様性を保ちながら、より低い計算コストで処理できる。 さらに,クラスタリング誘導による注意を単一スケールからマルチスケールに拡張し,より密集した予測タスクを実現する。 提案する Transformer アーキテクチャ ClusTR にラベルを付け,様々なビジョンタスクにおいて,計算コストが低く,パラメータが少なく,最先端の性能を実現することを示す。 例えば、22.7Mパラメータを持つ私たちのClusTRの小さなモデルは、ImageNet上で83.2\%のTop-1精度を達成する。 ソースコードとImageNetモデルは一般公開される予定だ。

Although Transformers have successfully transitioned from their language modelling origins to image-based applications, their quadratic computational complexity remains a challenge, particularly for dense prediction. In this paper we propose a content-based sparse attention method, as an alternative to dense self-attention, aiming to reduce the computation complexity while retaining the ability to model long-range dependencies. Specifically, we cluster and then aggregate key and value tokens, as a content-based method of reducing the total token count. The resulting clustered-token sequence retains the semantic diversity of the original signal, but can be processed at a lower computational cost. Besides, we further extend the clustering-guided attention from single-scale to multi-scale, which is conducive to dense prediction tasks. We label the proposed Transformer architecture ClusTR, and demonstrate that it achieves state-of-the-art performance on various vision tasks but at lower computational cost and with fewer parameters. For instance, our ClusTR small model with 22.7M parameters achieves 83.2\% Top-1 accuracy on ImageNet. Source code and ImageNet models will be made publicly available.
翻訳日:2022-08-30 13:59:44 公開日:2022-08-28
# データサンプリングの観点から見た対面型アンチスプーフィング

Face Anti-Spoofing from the Perspective of Data Sampling ( http://arxiv.org/abs/2208.13164v1 )

ライセンス: Link先を確認
Usman Muhammad and Mourad Oussalah(参考訳) 顔の偽造防止対策を展開せずに、本物のユーザのプリント写真、ビデオ、シリコンマスクを提示することにより、顔認識システムを偽造することができる。 このように、顔提示攻撃検出(PAD)はデジタルデバイスに安全な顔アクセスを提供する上で重要な役割を果たす。 既存のビデオベースのパッド対策の多くは、ビデオの長距離時間的変動に対処する能力がない。 また, 特徴抽出前のキーフレームサンプリングは, フェース・アンチ・スプーフィング領域では広く研究されていない。 そこで本稿では,ガウスの重み付け関数に基づく長距離時間変化をモデル化する映像処理手法を提案することにより,データサンプリング手法を提案する。 具体的には,ビデオシーケンスの連続tフレームを,tフレームのガウス重み付け和に基づいて,単一のRGB画像に符号化する。 単にデータサンプリングスキームのみを用いて,3つの公開ベンチマークデータセット(Replay-Attack, MSU-MFSD, CASIA-FASD)に対して,データベース内およびデータベース間テストシナリオにおいて,最先端のパフォーマンスをいかなる問題もなく達成できることを実証した。 特に、提案されたスキームは、データベース間のシナリオのベースラインよりもはるかに低いエラー(CASIA-FASDは15.2%から6.7%、Replay-Attackは5.9%から4.9%)を提供する。

Without deploying face anti-spoofing countermeasures, face recognition systems can be spoofed by presenting a printed photo, a video, or a silicon mask of a genuine user. Thus, face presentation attack detection (PAD) plays a vital role in providing secure facial access to digital devices. Most existing video-based PAD countermeasures lack the ability to cope with long-range temporal variations in videos. Moreover, the key-frame sampling prior to the feature extraction step has not been widely studied in the face anti-spoofing domain. To mitigate these issues, this paper provides a data sampling approach by proposing a video processing scheme that models the long-range temporal variations based on Gaussian Weighting Function. Specifically, the proposed scheme encodes the consecutive t frames of video sequences into a single RGB image based on a Gaussian-weighted summation of the t frames. Using simply the data sampling scheme alone, we demonstrate that state-of-the-art performance can be achieved without any bells and whistles in both intra-database and inter-database testing scenarios for the three public benchmark datasets; namely, Replay-Attack, MSU-MFSD, and CASIA-FASD. In particular, the proposed scheme provides a much lower error (from 15.2% to 6.7% on CASIA-FASD and 5.9% to 4.9% on Replay-Attack) compared to baselines in cross-database scenarios.
翻訳日:2022-08-30 13:59:24 公開日:2022-08-28
# ぼかし形成過程を探究した実世界デブラリングに向けて

Towards Real-World Video Deblurring by Exploring Blur Formation Process ( http://arxiv.org/abs/2208.13184v1 )

ライセンス: Link先を確認
Mingdeng Cao, Zhihang Zhong, Yanbo Fan, Jiahao Wang, Yong Zhang, Jue Wang, Yujiu Yang, Yinqiang Zheng(参考訳) 本研究の目的は,実世界のぼやけたビデオに対して,既存のビデオデブロアリングモデルがうまく一般化できるような,近距離からリアルタイムのぼやきを合成する方法を検討することである。 近年、深層学習に基づくアプローチは、ビデオデブロアリングタスクにおいて有望な成功を収めている。 しかし、既存の合成データセットで訓練されたモデルは、望ましくない人工物を持つ現実世界の曖昧なシナリオよりも一般化の問題に悩まされている。 失敗の原因は不明である。 そこで,従来のボケ合成パイプラインを再検討し,撮影パラメータ,ボケ形成空間,画像信号処理装置~(isp)など,考えられる理由を明らかにする。 これらの潜在的な要因の影響を分析するために,まず,超高フレームレート(940fps)生ビデオデータセットをデータベースとして収集し,様々なボケを合成する。 そこで本研究では,ぼかし形成の手がかりを活かし,生ブロルと呼ばれる新しいリアルなぼかし合成パイプラインを提案する。 多くの実験を通して、RAW空間におけるブラーの合成と実世界のテストデータと同じISPの採用により、合成データの負の効果を効果的に排除できることを示した。 さらに、合成したぼやけた映像の撮影パラメータ、例えば露光時間やフレームレートは、デブラリングモデルの性能向上に重要な役割を果たす。 驚くべきことに、提案するraw-blurパイプラインで合成されたぼかしデータに基づいてトレーニングされたモデルは、既存の合成ぼかしデータセットでトレーニングされたモデルに対して5dbpsnrゲインを得ることができる。 新しいリアルな合成パイプラインとそれに対応する生のビデオデータセットは、コミュニティがカスタマイズされたぼかしデータセットを簡単に構築し、実際のデータペアの収集に苦労することなく、実世界のビデオデブラリング性能を大幅に改善できると信じています。

This paper aims at exploring how to synthesize close-to-real blurs that existing video deblurring models trained on them can generalize well to real-world blurry videos. In recent years, deep learning-based approaches have achieved promising success on video deblurring task. However, the models trained on existing synthetic datasets still suffer from generalization problems over real-world blurry scenarios with undesired artifacts. The factors accounting for the failure remain unknown. Therefore, we revisit the classical blur synthesis pipeline and figure out the possible reasons, including shooting parameters, blur formation space, and image signal processor~(ISP). To analyze the effects of these potential factors, we first collect an ultra-high frame-rate (940 FPS) RAW video dataset as the data basis to synthesize various kinds of blurs. Then we propose a novel realistic blur synthesis pipeline termed as RAW-Blur by leveraging blur formation cues. Through numerous experiments, we demonstrate that synthesizing blurs in the RAW space and adopting the same ISP as the real-world testing data can effectively eliminate the negative effects of synthetic data. Furthermore, the shooting parameters of the synthesized blurry video, e.g., exposure time and frame-rate play significant roles in improving the performance of deblurring models. Impressively, the models trained on the blurry data synthesized by the proposed RAW-Blur pipeline can obtain more than 5dB PSNR gain against those trained on the existing synthetic blur datasets. We believe the novel realistic synthesis pipeline and the corresponding RAW video dataset can help the community to easily construct customized blur datasets to improve real-world video deblurring performance largely, instead of laboriously collecting real data pairs.
翻訳日:2022-08-30 13:59:00 公開日:2022-08-28
# 外心的視点からの接地代

Grounded Affordance from Exocentric View ( http://arxiv.org/abs/2208.13196v1 )

ライセンス: Link先を確認
Hongchen Luo, Wei Zhai, Jing Zhang, Yang Cao, Dacheng Tao(参考訳) affordance groundingは、オブジェクトの"アクションの可能性"領域を見つけることを目的としている。 インタラクティブなアベイランスの多様性のため、異なる個人の特徴は多様な相互作用をもたらすため、オブジェクト部品とアベイランスラベルの間に明確なリンクを確立することは困難である。 人間は様々なエキゾセントリックな相互作用を、インタラクティブな多様性の影響に対抗するために不変のエゴセントリックな余裕に変える能力を持っている。 そこで本稿では, エージェントの能力を高めるために, 対人中心のインタラクションと自我中心のオブジェクトイメージを付与し, 対象物の空想知識を学習し, 空想ラベルのみを監督として, 自我中心のイメージに転送するタスクを提案する。 しかしながら、主に異なる地域と異なる視点に関して、ペルソナの間には「相互作用バイアス」がある。 この目的のために私たちは,外心的インタラクションからアフォーアンス特有の特徴を抽出し,エゴセントリックな視点に伝達する,クロスビューアフォーアンス知識伝達フレームワークを考案する。 具体的には、アフォーアンス・コリレーションを保存することにより、アフォーアンス領域の認識を高める。 さらに、36ドルのアプライアンスカテゴリから20万以上のイメージを収集し、ラベル付けすることで、agd20kというアプライアンスグラウンドデータセットを構築する。 実験の結果,本手法は客観的指標と視覚品質に代表されるモデルよりも優れていた。 コードはhttps://github.com/lhc1224/cross-view-affordance-groundingでリリースされる。

Affordance grounding aims to locate objects' "action possibilities" regions, which is an essential step toward embodied intelligence. Due to the diversity of interactive affordance, the uniqueness of different individuals leads to diverse interactions, which makes it difficult to establish an explicit link between object parts and affordance labels. Human has the ability that transforms the various exocentric interactions into invariant egocentric affordance to counter the impact of interactive diversity. To empower an agent with such ability, this paper proposes a task of affordance grounding from exocentric view, i.e., given exocentric human-object interaction and egocentric object images, learning the affordance knowledge of the object and transferring it to the egocentric image using only the affordance label as supervision. However, there is some "interaction bias" between personas, mainly regarding different regions and different views. To this end, we devise a cross-view affordance knowledge transfer framework that extracts affordance-specific features from exocentric interactions and transfers them to the egocentric view. Specifically, the perception of affordance regions is enhanced by preserving affordance co-relations. In addition, an affordance grounding dataset named AGD20K is constructed by collecting and labeling over 20K images from $36$ affordance categories. Experimental results demonstrate that our method outperforms the representative models regarding objective metrics and visual quality. Code is released at https://github.com/lhc1224/Cross-view-affordance-grounding.
翻訳日:2022-08-30 13:58:32 公開日:2022-08-28
# 単眼画像からの3次元シーン形状の高精度復元に向けて

Towards Accurate Reconstruction of 3D Scene Shape from A Single Monocular Image ( http://arxiv.org/abs/2208.13241v1 )

ライセンス: Link先を確認
Wei Yin, Jianming Zhang, Oliver Wang, Simon Nicklaus, Simon Chen, Yifan Liu, Chunhua Shen(参考訳) 過去数年間で大きく進歩したにもかかわらず、単一の単眼画像を用いた深度推定の課題は残る。 第一に、限られたトレーニングデータによって、様々な場面によく一般化できるメートル法深度予測モデルを訓練するのは、簡単ではない。 このように、研究者はより収集が容易な大規模な相対深度データセットを構築した。 しかし,既存の相対深度推定モデルは,相対深度データによるトレーニングによる未知の深度変化により,正確な3次元シーン形状の復元に失敗することが多い。 この問題に対処し,大規模相対深度データをトレーニングし,深度変化を推定することにより,正確なシーン形状を推定しようとする。 そこで本研究では,まず深度を未知のスケールまで予測し,単一の単眼画像からシフトし,さらに3dポイントの雲データを用いて深度シフトと焦点距離を予測し,3dシーン形状の復元を可能にする2段階フレームワークを提案する。 2つのモジュールは別々にトレーニングされているため、厳密なペアトレーニングデータを必要としない。 さらに,画像レベルの正規化回帰損失と正規化幾何損失を提案し,相対深度アノテーションによるトレーニングを改善する。 未知の9つのデータセットで深度モデルをテストし,ゼロショット評価で最先端の性能を得る。 コードは、https://git.io/depthで入手できる。

Despite significant progress made in the past few years, challenges remain for depth estimation using a single monocular image. First, it is nontrivial to train a metric-depth prediction model that can generalize well to diverse scenes mainly due to limited training data. Thus, researchers have built large-scale relative depth datasets that are much easier to collect. However, existing relative depth estimation models often fail to recover accurate 3D scene shapes due to the unknown depth shift caused by training with the relative depth data. We tackle this problem here and attempt to estimate accurate scene shapes by training on large-scale relative depth data, and estimating the depth shift. To do so, we propose a two-stage framework that first predicts depth up to an unknown scale and shift from a single monocular image, and then exploits 3D point cloud data to predict the depth shift and the camera's focal length that allow us to recover 3D scene shapes. As the two modules are trained separately, we do not need strictly paired training data. In addition, we propose an image-level normalized regression loss and a normal-based geometry loss to improve training with relative depth annotation. We test our depth model on nine unseen datasets and achieve state-of-the-art performance on zero-shot evaluation. Code is available at: https://git.io/Depth
翻訳日:2022-08-30 13:58:04 公開日:2022-08-28
# スケーラブルなナノフォトニック電子スパイクニューラルネットワーク

Scalable Nanophotonic-Electronic Spiking Neural Networks ( http://arxiv.org/abs/2208.13144v1 )

ライセンス: Link先を確認
Luis El Srouji, Yun-Jhu Lee, Mehmet Berkay On, Li Zhang, S.J. Ben Yoo(参考訳) spiking neural networks (snn)は、高度に並列化されたリアルタイム処理が可能な新しい計算パラダイムを提供する。 フォトニックデバイスは、SNN計算パラダイムに適合する高帯域並列アーキテクチャの設計に最適である。 CMOSとフォトニック素子の併用により、低損失フォトニックデバイスとアナログエレクトロニクスを組み合わせることで、非線形計算素子の柔軟性を高めることができる。 そこで我々は, リーク型積分・点火(lif)を超えて有用な点火挙動を再現するモノリシックシリコンフォトニクス(siph)プロセス上に, 光電子的点火ニューロン回路を設計・シミュレーションした。 さらに,Mach-Zehnder Interferometric (MZI)メッシュをシナプス相互接続として用いた2つの学習アルゴリズムについて検討した。 ランダムバックプロパゲーション(rpb)の変動を実験的に実証し,単純な分類タスクにおける標準線形回帰の性能と一致させた。 一方,ランダムな入出力マッピングタスクのためのmziメッシュからなるシミュレーションニューラルネットワークに対して,hbbian learning(chl)ルールを適用した。 CHLで訓練されたMZIネットワークは、ランダムな推測よりも優れているが、(MZIメッシュによって課される制約なしで)理想的なニューラルネットワークの性能にマッチしない。 これらの取り組みを通じて、CMOSとSiPhの併用はスケーラブルなSNNコンピューティングアーキテクチャの設計に適していることを示す。

Spiking neural networks (SNN) provide a new computational paradigm capable of highly parallelized, real-time processing. Photonic devices are ideal for the design of high-bandwidth, parallel architectures matching the SNN computational paradigm. Co-integration of CMOS and photonic elements allow low-loss photonic devices to be combined with analog electronics for greater flexibility of nonlinear computational elements. As such, we designed and simulated an optoelectronic spiking neuron circuit on a monolithic silicon photonics (SiPh) process that replicates useful spiking behaviors beyond the leaky integrate-and-fire (LIF). Additionally, we explored two learning algorithms with the potential for on-chip learning using Mach-Zehnder Interferometric (MZI) meshes as synaptic interconnects. A variation of Random Backpropagation (RPB) was experimentally demonstrated on-chip and matched the performance of a standard linear regression on a simple classification task. Meanwhile, the Contrastive Hebbian Learning (CHL) rule was applied to a simulated neural network composed of MZI meshes for a random input-output mapping task. The CHL-trained MZI network performed better than random guessing but does not match the performance of the ideal neural network (without the constraints imposed by the MZI meshes). Through these efforts, we demonstrate that co-integrated CMOS and SiPh technologies are well-suited to the design of scalable SNN computing architectures.
翻訳日:2022-08-30 13:47:07 公開日:2022-08-28
# カオス工学を用いた自己適応・自己修復システムの評価

On Evaluating Self-Adaptive and Self-Healing Systems using Chaos Engineering ( http://arxiv.org/abs/2208.13227v1 )

ライセンス: Link先を確認
Moeen Ali Naqvi and Sehrish Malik and Merve Astekin and Leon Moonen(参考訳) 様々な領域における自己適応型システムの導入が増加しているため、正しい行動を評価する戦略の必要性が高まっている。 特に、レジリエンスとフォールトトレランスの提供を目的とした自己修復システムは、クリティカルで非常にダイナミックな環境で予期せぬ障害に対処することが多い。 リアクティブで複雑な振る舞いは、これらのシステムが望ましい目標に従って実行されるかどうかを評価するのを難しくします。 近年,自己修復行動の体系的評価方法の欠如を懸念する研究がいくつかある。 本稿では,カオス工学に基づく自己適応型・自己修復型システムの体系的評価手法であるCHESSを提案する。 カオスエンジニアリングは、予期せぬ状況やシナリオにシステムを従わせるための方法論である。 レジリエントなマイクロサービスアーキテクチャやサイバー物理システムの構築を支援する上で、これは大きな期待を示している。 CHESSはカオスエンジニアリングを使って、自己修復システムがこのような混乱に耐えられるかを評価することで、この考え方を転換する。 本研究では, 自己修復型スマートオフィス環境の探索的研究を通じて, このアプローチの有効性について検討する。 この研究は、アプローチの約束と限界を探求し、追加作業が必要となる方向を特定するのに役立ちます。 私たちは学んだ教訓の要約で締めくくります。

With the growing adoption of self-adaptive systems in various domains, there is an increasing need for strategies to assess their correct behavior. In particular self-healing systems, which aim to provide resilience and fault-tolerance, often deal with unanticipated failures in critical and highly dynamic environments. Their reactive and complex behavior makes it challenging to assess if these systems execute according to the desired goals. Recently, several studies have expressed concern about the lack of systematic evaluation methods for self-healing behavior. In this paper, we propose CHESS, an approach for the systematic evaluation of self-adaptive and self-healing systems that builds on chaos engineering. Chaos engineering is a methodology for subjecting a system to unexpected conditions and scenarios. It has shown great promise in helping developers build resilient microservice architectures and cyber-physical systems. CHESS turns this idea around by using chaos engineering to evaluate how well a self-healing system can withstand such perturbations. We investigate the viability of this approach through an exploratory study on a self-healing smart office environment. The study helps us explore the promises and limitations of the approach, as well as identify directions where additional work is needed. We conclude with a summary of lessons learned.
翻訳日:2022-08-30 13:46:44 公開日:2022-08-28
# CJaFr-v3 : 無料フィルター付き日仏アライメントコーパス

CJaFr-v3 : A Freely Available Filtered Japanese-French Aligned Corpus ( http://arxiv.org/abs/2208.13170v1 )

ライセンス: Link先を確認
Raoul Blin and Fabien Cromi\`eres(参考訳) 本稿では,自由日仏並列コーパスを提案する。 15Mの整列セグメントを含み、既存のリソースのコンパイルとフィルタリングによって得られる。 本稿では,既存の資源,その量と品質,コーパスの品質向上に応用したフィルタリング,利用準備の整ったコーパスの内容について述べる。 また,このコーパスの有用性とフィルタリングの質を,標準的なMTシステムのトレーニングと評価によって評価する。

We present a free Japanese-French parallel corpus. It includes 15M aligned segments and is obtained by compiling and filtering several existing resources. In this paper, we describe the existing resources, their quantity and quality, the filtering we applied to improve the quality of the corpus, and the content of the ready-to-use corpus. We also evaluate the usefulness of this corpus and the quality of our filtering by training and evaluating some standard MT systems with it.
翻訳日:2022-08-30 13:40:07 公開日:2022-08-28
# ポッドキャスト要約評価:要約評価手法の評価のためのリソース

Podcast Summary Assessment: A Resource for Evaluating Summary Assessment Methods ( http://arxiv.org/abs/2208.13265v1 )

ライセンス: Link先を確認
Potsawee Manakul, Mark J. F. Gales(参考訳) 自動要約評価は、機械生成と人為的な要約の両方に有用である。 文書に与えられた要約テキストを自動的に評価することで、例えば要約生成システムの開発と不適切な要約の検出が可能になる。 要約評価は、要約生成システムをランキングする、特定の文書の要約をランク付けする、絶対的なスケールで文書と要約のペアの品質を推定するなど、いくつかのモードで実施することができる。 既存の要約評価用アノテーション付きデータセットは通常、CNN/DailyMailやXSumのようなニュース要約データセットに基づいている。 本稿では,trec2020で人間の専門家によって評価されたポッドキャスト要約集であるポッドキャスト要約アセスメントコーパス(podcast summary assessment corpus)について述べる。 既存の要約評価データと比較すると、このデータセットには2つのユニークな側面がある。 (i)ロングインプット、音声ポッドキャスト、文書、及び (ii)ポッドキャストコーパスにおける不適切な参照要約を検出する機会。 まず、モデルフリーおよびモデルベース手法を含む既存の評価手法を調査し、この長期入力要約評価データセットのベンチマーク結果を提供する。 次に,トレーニングのための参照要約文書ペアリングをフィルタリングすることを目的として,データ選択のための要約評価を行う。 これら2つの側面に関する実験結果は、要約評価と生成タスクに関する興味深い洞察を提供する。 ポッドキャスト要約評価データは利用可能である。

Automatic summary assessment is useful for both machine-generated and human-produced summaries. Automatically evaluating the summary text given the document enables, for example, summary generation system development and detection of inappropriate summaries. Summary assessment can be run in a number of modes: ranking summary generation systems; ranking summaries of a particular document; and estimating the quality of a document-summary pair on an absolute scale. Existing datasets with annotation for summary assessment are usually based on news summarization datasets such as CNN/DailyMail or XSum. In this work, we describe a new dataset, the podcast summary assessment corpus, a collection of podcast summaries that were evaluated by human experts at TREC2020. Compared to existing summary assessment data, this dataset has two unique aspects: (i) long-input, speech podcast based, documents; and (ii) an opportunity to detect inappropriate reference summaries in podcast corpus. First, we examine existing assessment methods, including model-free and model-based methods, and provide benchmark results for this long-input summary assessment dataset. Second, with the aim of filtering reference summary-document pairings for training, we apply summary assessment for data selection. The experimental results on these two aspects provide interesting insights on the summary assessment and generation tasks. The podcast summary assessment data is available.
翻訳日:2022-08-30 13:39:59 公開日:2022-08-28
# セマンティックセグメンテーションモデルのための秘密鍵を用いたアクセス制御法

An Access Control Method with Secret Key for Semantic Segmentation Models ( http://arxiv.org/abs/2208.13135v1 )

ライセンス: Link先を確認
Teru Nagamori, Ryota Iijima, Hitoshi Kiya(参考訳) 本稿では,シークレット鍵を用いた新たなアクセス制御手法を提案する。 本研究では,視覚変換器 (ViT) を用いたセグメンテーションモデルであるセグメンテーション変換器 (SETR) に着目した。 既存のアクセス制御手法の多くは、画像分類タスクに焦点を当てている。 ViTが保有するパッチ埋め込み構造を用いることで、トレーニング済みモデルとテストイメージを秘密鍵で効率的に暗号化し、セマンティックセグメンテーションタスクを暗号化ドメインで実行することができる。 実験では、正当な鍵を持つ認証ユーザに対して、暗号化無しでプレーンイメージを使用する方法と同等の精度を提供するとともに、不正ユーザに対して極めて劣化した精度を提供する。

A novel method for access control with a secret key is proposed to protect models from unauthorized access in this paper. We focus on semantic segmentation models with the vision transformer (ViT), called segmentation transformer (SETR). Most existing access control methods focus on image classification tasks, or they are limited to CNNs. By using a patch embedding structure that ViT has, trained models and test images can be efficiently encrypted with a secret key, and then semantic segmentation tasks are carried out in the encrypted domain. In an experiment, the method is confirmed to provide the same accuracy as that of using plain images without any encryption to authorized users with a correct key and also to provide an extremely degraded accuracy to unauthorized users.
翻訳日:2022-08-30 13:34:48 公開日:2022-08-28
# 横断画像と臨床データを用いた老化心の生成的モデリング

Generative Modelling of the Ageing Heart with Cross-Sectional Imaging and Clinical Data ( http://arxiv.org/abs/2208.13146v1 )

ライセンス: Link先を確認
Mengyun Qiao, Berke Doga Basaran, Huaqi Qiu, Shuo Wang, Yi Guo, Yuanyuan Wang, Paul M. Matthews, Daniel Rueckert, Wenjia Bai(参考訳) 心臓血管疾患は、世界中で死因の主要な疾患であり、加齢に伴う疾患である。 老化に伴う心臓の形態的・機能的変化を理解することは重要な科学的問題であり、心臓血管疾患の重要な危険因子を定義し、疾患の進行を監視するのに役立つ。 本研究では, 加齢に伴う心臓の3次元解剖学的変化を記述するための条件生成モデルを提案する。 提案モデルは柔軟であり、複数の臨床因子(年齢、性別など)を生成プロセスに統合することができる。 心臓解剖の大規模横断データセットを用いてモデルを訓練し,横断データセットと縦データセットの両方で評価する。 このモデルは老化心の経年変化の予測とデータ分布のモデル化に優れた性能を示す。

Cardiovascular disease, the leading cause of death globally, is an age-related disease. Understanding the morphological and functional changes of the heart during ageing is a key scientific question, the answer to which will help us define important risk factors of cardiovascular disease and monitor disease progression. In this work, we propose a novel conditional generative model to describe the changes of 3D anatomy of the heart during ageing. The proposed model is flexible and allows integration of multiple clinical factors (e.g. age, gender) into the generating process. We train the model on a large-scale cross-sectional dataset of cardiac anatomies and evaluate on both cross-sectional and longitudinal datasets. The model demonstrates excellent performance in predicting the longitudinal evolution of the ageing heart and modelling its data distribution.
翻訳日:2022-08-30 13:34:33 公開日:2022-08-28
# CT画像を用いた3次元CNNを用いた肝分画能の検討

Efficient liver segmentation with 3D CNN using computed tomography scans ( http://arxiv.org/abs/2208.13271v1 )

ライセンス: Link先を確認
Khaled Humady, Yasmeen Al-Saeed, Nabila Eladawi, Ahmed Elgarayhi, Mohammed Elmogy, Mohammed Sallah(参考訳) 肝臓は、廃棄物や医薬品からの血液の脱毒など、人体における重要な機能のために脊椎動物において最も重要な代謝器官の1つである。 肝腫瘍による肝疾患は、世界中で最も多い死亡原因の1つである。 したがって, 腫瘍発生初期における肝腫瘍の検出は, 治療の重要部分として必要不可欠である。 多くのイメージングモードは、肝臓腫瘍を検出する補助ツールとして使用できる。 CT(Computed tomography)は、肝などの軟部組織に対して最も用いられる画像モダリティである。 これは、比較的迅速に捕獲できる侵略的モダリティであるからである。 本稿では3D CNN DeepMedic ネットワークモデルを用いて,CT腹部CTから肝を抽出・分画する効率的な自動肝分画フレームワークを提案する。 腹部臓器を腫瘍として分節することによる偽率を低減するため, 腫瘍分節法への入力として, 肝領域を正確に分節し, その後, 分節した肝領域を多くの研究で採用している。 提案した3D CNN DeepMedicモデルでは,元の3D CNNモデルと同様,入力経路は1経路ではなく2経路である。 そこで本研究では,複数の腹部CTバージョンが提供され,セグメンテーションの品質向上に寄与した。 提案モデルは94.36%, 94.57%, 91.86%, 93.14%の精度, 感度, 特異性, dice類似度をそれぞれ達成した。 実験の結果,提案手法の適用性を示した。

The liver is one of the most critical metabolic organs in vertebrates due to its vital functions in the human body, such as detoxification of the blood from waste products and medications. Liver diseases due to liver tumors are one of the most common mortality reasons around the globe. Hence, detecting liver tumors in the early stages of tumor development is highly required as a critical part of medical treatment. Many imaging modalities can be used as aiding tools to detect liver tumors. Computed tomography (CT) is the most used imaging modality for soft tissue organs such as the liver. This is because it is an invasive modality that can be captured relatively quickly. This paper proposed an efficient automatic liver segmentation framework to detect and segment the liver out of CT abdomen scans using the 3D CNN DeepMedic network model. Segmenting the liver region accurately and then using the segmented liver region as input to tumors segmentation method is adopted by many studies as it reduces the false rates resulted from segmenting abdomen organs as tumors. The proposed 3D CNN DeepMedic model has two pathways of input rather than one pathway, as in the original 3D CNN model. In this paper, the network was supplied with multiple abdomen CT versions, which helped improve the segmentation quality. The proposed model achieved 94.36%, 94.57%, 91.86%, and 93.14% for accuracy, sensitivity, specificity, and Dice similarity score, respectively. The experimental results indicate the applicability of the proposed method.
翻訳日:2022-08-30 13:34:22 公開日:2022-08-28
# 変形場のパラメータ化を用いた非教師付き微分型心臓画像登録

Unsupervised diffeomorphic cardiac image registration using parameterization of the deformation field ( http://arxiv.org/abs/2208.13275v1 )

ライセンス: Link先を確認
Ameneh Sheikhjafari, Deepa Krishnaswamy, Michelle Noga, Nilanjan Ray, Kumaradevan Punithakumar(参考訳) 本研究では,移動メッシュパラメータ化に基づくエンドツーエンドの非教師付き微分同相変形登録フレームワークを提案する。 このパラメータ化を用いて、変形場は変換ジャコビアン行列式と端速度場のカールでモデル化することができる。 変形場の新しいモデルには3つの重要な利点がある: まず、明示的な正規化項とコスト関数の対応する重みの必要性を緩和する。 滑らかさは溶液に暗黙的に埋め込まれ、物理的に妥当な変形場となる。 第二に、変換ヤコビ行列に適用される明示的な制約を通して微分同相を保証する。 最後に、このパラメータ化の性質は、半径成分および回転成分の観点から変形場を定義することであるので、心データ処理に適している。 提案手法の有効性を,2次元および3次元心臓MRIスキャンを含む3つの異なるデータセット上で評価することにより検討した。 その結果,提案フレームワークは,既存の学習ベースおよび非学習ベース手法を上回り,二相変換を生成する。

This study proposes an end-to-end unsupervised diffeomorphic deformable registration framework based on moving mesh parameterization. Using this parameterization, a deformation field can be modeled with its transformation Jacobian determinant and curl of end velocity field. The new model of the deformation field has three important advantages; firstly, it relaxes the need for an explicit regularization term and the corresponding weight in the cost function. The smoothness is implicitly embedded in the solution which results in a physically plausible deformation field. Secondly, it guarantees diffeomorphism through explicit constraints applied to the transformation Jacobian determinant to keep it positive. Finally, it is suitable for cardiac data processing, since the nature of this parameterization is to define the deformation field in terms of the radial and rotational components. The effectiveness of the algorithm is investigated by evaluating the proposed method on three different data sets including 2D and 3D cardiac MRI scans. The results demonstrate that the proposed framework outperforms existing learning-based and non-learning-based methods while generating diffeomorphic transformations.
翻訳日:2022-08-30 13:33:55 公開日:2022-08-28
# 自動機械学習ツールの利用に関する実証的研究

An Empirical Study on the Usage of Automated Machine Learning Tools ( http://arxiv.org/abs/2208.13116v1 )

ライセンス: Link先を確認
Forough Majidi, Moses Openja, Foutse Khomh, Heng Li(参考訳) さまざまなドメインにおける自動機械学習(AutoML)ツールの人気は、ここ数年で高まっている。 機械学習(ml)実践者はautomlツールを使用して、機能エンジニアリング、モデルトレーニング、ハイパーパラメータ最適化などのプロセスを自動化および最適化する。 最近の研究は、automlツールを使用した実践者の経験を定性的に研究し、そのパフォーマンスと機能に基づいて異なるautomlツールを比較しているが、既存の研究は、実世界のプロジェクトでautomlツールを使用するプラクティスを大規模に研究していない。 そこで我々は,ML実践者がプロジェクトにおいてAutoMLツールをどのように利用するかを理解するための実証的研究を行った。 この目的のために、GitHubにホストされている多数のオープンソースプロジェクトリポジトリにおいて、最も使われているAutoMLツールとその使用状況のトップ10を調査した。 私たちの研究の結果は 1) AutoMLツールが主にML実践者によって使用されているもの 2) これらのAutoMLツールを使用するリポジトリの特徴。 また、AutoMLツール(例えば、モデルパラメータサンプリング、検索空間管理、モデル評価/エラー分析、データ/特徴変換、データラベリング)とAutoMLツールを使用するMLパイプラインのステージ(例えば、機能エンジニアリング)を使用することの目的を特定した。 最後に、同じソースコードファイルでAutoMLツールが使用される頻度について報告する。 私たちの結果は、ml実践者がさまざまなautomlツールとその使用法を学ぶのに役立つことを願っています。 さらに、AutoMLツール開発者は、私たちの発見から恩恵を受け、ツールの使用状況に関する洞察を得て、ユーザの使用状況やニーズに合うようにツールを改善します。

The popularity of automated machine learning (AutoML) tools in different domains has increased over the past few years. Machine learning (ML) practitioners use AutoML tools to automate and optimize the process of feature engineering, model training, and hyperparameter optimization and so on. Recent work performed qualitative studies on practitioners' experiences of using AutoML tools and compared different AutoML tools based on their performance and provided features, but none of the existing work studied the practices of using AutoML tools in real-world projects at a large scale. Therefore, we conducted an empirical study to understand how ML practitioners use AutoML tools in their projects. To this end, we examined the top 10 most used AutoML tools and their respective usages in a large number of open-source project repositories hosted on GitHub. The results of our study show 1) which AutoML tools are mostly used by ML practitioners and 2) the characteristics of the repositories that use these AutoML tools. Also, we identified the purpose of using AutoML tools (e.g. model parameter sampling, search space management, model evaluation/error-analysis, Data/ feature transformation, and data labeling) and the stages of the ML pipeline (e.g. feature engineering) where AutoML tools are used. Finally, we report how often AutoML tools are used together in the same source code files. We hope our results can help ML practitioners learn about different AutoML tools and their usages, so that they can pick the right tool for their purposes. Besides, AutoML tool developers can benefit from our findings to gain insight into the usages of their tools and improve their tools to better fit the users' usages and needs.
翻訳日:2022-08-30 13:26:45 公開日:2022-08-28
# IDP-PGFE:物理誘導特徴抽出に基づく解釈可能な破壊予測器

IDP-PGFE: An Interpretable Disruption Predictor based on Physics-Guided Feature Extraction ( http://arxiv.org/abs/2208.13197v1 )

ライセンス: Link先を確認
Chengshuo Shen, Wei Zheng, Yonghua Ding, Xinkun Ai, Fengming Xue, Yu Zhong, Nengchao Wang, Li Gao, Zhipeng Chen, Zhoujun Yang, Zhongyong Chen, Yuan Pan and J-TEXT team(参考訳) ディスラプション予測は、特に機械学習(ML)ベースの手法において、近年急速に進歩している。 予測器が特定の予測を行う理由を理解することは、将来のトカマク破壊予測器の予測精度と同じくらい重要である。 ほとんどの破壊予測器の目的は精度またはクロスマシン能力である。 しかし、ディスラプション予測モデルが解釈できるならば、あるサンプルがディスラプション前駆体として分類されている理由が分かる。 これにより、入ってくるディスラプションのタイプを判断し、ディスラプションのメカニズムに関する洞察を得ることができます。 本稿では,J-TEXT上での物理誘導特徴抽出(IDP-PGFE)に基づく解釈破壊予測器を設計する。 このモデルの予測性能は、物理誘導特徴を抽出することにより効果的に向上する。 解釈結果の有効性を保証するためには,高性能モデルが必要である。 IDP-PGFEの解釈可能性の研究は、J-TEXT破壊の理解を与え、一般に既存の破壊の理解と一致する。 IDP-PGFE は J-TEXT 上の密度限界実験に向けて連続的に密度を増大させることにより破壊に応用されている。 PGFEの特徴の時間進化は、ECRHの応用によって放射線による破壊が引き起こされ、破壊時の密度が低下することを示す。 RMPの適用は確かにJ-TEXTの密度限界を上昇させる。 この解釈可能性の研究は、RMPがMHD不安定性だけでなく、密度限界破壊を遅らせる放射プロファイルにも影響を及ぼす密度限界破壊の物理的メカニズムの直観を導く。

Disruption prediction has made rapid progress in recent years, especially in machine learning (ML)-based methods. Understanding why a predictor makes a certain prediction can be as crucial as the prediction's accuracy for future tokamak disruption predictors. The purpose of most disruption predictors is accuracy or cross-machine capability. However, if a disruption prediction model can be interpreted, it can tell why certain samples are classified as disruption precursors. This allows us to tell the types of incoming disruption and gives us insight into the mechanism of disruption. This paper designs a disruption predictor called Interpretable Disruption Predictor based On Physics-guided feature extraction (IDP-PGFE) on J-TEXT. The prediction performance of the model is effectively improved by extracting physics-guided features. A high-performance model is required to ensure the validity of the interpretation results. The interpretability study of IDP-PGFE provides an understanding of J-TEXT disruption and is generally consistent with existing comprehension of disruption. IDP-PGFE has been applied to the disruption due to continuously increasing density towards density limit experiments on J-TEXT. The time evolution of the PGFE features contribution demonstrates that the application of ECRH triggers radiation-caused disruption, which lowers the density at disruption. While the application of RMP indeed raises the density limit in J-TEXT. The interpretability study guides intuition on the physical mechanisms of density limit disruption that RMPs affect not only the MHD instabilities but also the radiation profile, which delays density limit disruption.
翻訳日:2022-08-30 13:26:18 公開日:2022-08-28
# ヒルベルトスケールにおける統計的逆問題

Statistical Inverse Problems in Hilbert Scales ( http://arxiv.org/abs/2208.13289v1 )

ライセンス: Link先を確認
Abhishake Rastogi(参考訳) 本稿では,一般雑音を伴う非線形統計逆問題に対するヒルベルトスケールのチコノフ正則化スキームについて検討する。 このスキームの正規化ノルムはヒルベルト空間のノルムよりも強い。 本研究では, 条件安定性推定に基づく理論解析の開発に焦点をあてる。 我々は距離関数の概念を利用して、再生カーネルヒルベルト空間設定における直接および再構成誤差の高確率推定を行う。 さらに、サンプルサイズの観点からの収束率を、適切なソース条件で定義された正規性クラス上のオーバースムーシングケースと正規ケースに対して設定する。 本結果は,関連する設定で得られた前の結果を改善し,一般化する。

In this paper, we study the Tikhonov regularization scheme in Hilbert scales for the nonlinear statistical inverse problem with a general noise. The regularizing norm in this scheme is stronger than the norm in Hilbert space. We focus on developing a theoretical analysis for this scheme based on the conditional stability estimates. We utilize the concept of the distance function to establish the high probability estimates of the direct and reconstruction error in Reproducing kernel Hilbert space setting. Further, the explicit rates of convergence in terms of sample size are established for the oversmoothing case and the regular case over the regularity class defined through appropriate source condition. Our results improve and generalize previous results obtained in related settings.
翻訳日:2022-08-30 13:24:42 公開日:2022-08-28
# 説明可能な(単にポストホックな説明がつかない)医療クレームモデルによる退院拒否または死を避けるために

Interpretable (not just posthoc-explainable) medical claims modeling for discharge placement to prevent avoidable all-cause readmissions or death ( http://arxiv.org/abs/2208.12814v1 )

ライセンス: Link先を確認
Joshua C. Chang, Ted L. Chang, Carson C. Chow, Rohit Mahajan, Sonya Mahajan, Shashaank Vattikuti, Hongjing Xia(参考訳) 本論文は、退院後の全院入院または死亡の同時予測の問題に対処し、これらの有害事象を防止するための退院場所の影響を定量化する。 そこで我々は,ReLU活性化深層ニューラルネットワークの断片線形性に着想を得た,本質的に解釈可能な多レベルベイズモデリングフレームワークを開発した。 生存モデルでは, 退院介入に対する局所的平均治療効果を定量化するために, コンファウンディングを明示的に調整する。 2008年と2011年のメディケア受益者の5%のサンプルでモデルをトレーニングし、2012年の請求書でモデルをテストした。 XGBoostやロジスティック回帰(特徴工学以降)、同一データに基づいてトレーニングされたベイズディープニューラルネットワークに対して、30日間の非計画的読み出し(公式のCMS方法論で定義されている)または死に対する分類精度の評価を行った。 30日間にわたる可読性や死亡率の予測タスクでテストされたこのモデルは、約0.76のAUROCと約0.50のAUPRC(テストデータ全体の肯定的な割合18%)を達成し、正確性に対する解釈性を犠牲にする必要がないことを示した。 さらに、このモデルでは90日間の完全寛容または死亡の分類で0.78のAUROCが試験された。 我々は、本質的な解釈可能なモデルを簡単に考察し、その主な発見を要約する。 さらに、ブラックボックスのポストホックな説明ツールであるshapが、適合したモデルではサポートされていない説明を生成する方法を示す。

This manuscript addresses the simultaneous problems of predicting all-cause inpatient readmission or death after discharge, and quantifying the impact of discharge placement in preventing these adverse events. To this end, we developed an inherently interpretable multilevel Bayesian modeling framework inspired by the piecewise linearity of ReLU-activated deep neural networks. In a survival model, we explicitly adjust for confounding in quantifying local average treatment effects for discharge placement interventions. We trained the model on a 5% sample of Medicare beneficiaries from 2008 and 2011, and then tested the model on 2012 claims. Evaluated on classification accuracy for 30-day all-cause unplanned readmissions (defined using official CMS methodology) or death, the model performed similarly against XGBoost, logistic regression (after feature engineering), and a Bayesian deep neural network trained on the same data. Tested on the 30-day classification task of predicting readmissions or death using left-out future data, the model achieved an AUROC of approximately 0.76 and and AUPRC of approximately 0.50 (relative to an overall positively rate in the testing data of 18%), demonstrating how one need not sacrifice interpretability for accuracy. Additionally, the model had a testing AUROC of 0.78 on the classification of 90-day all-cause unplanned readmission or death. We easily peer into our inherently interpretable model, summarizing its main findings. Additionally, we demonstrate how the black-box posthoc explainer tool SHAP generates explanations that are not supported by the fitted model -- and if taken at face value does not offer enough context to make a model actionable.
翻訳日:2022-08-30 13:19:51 公開日:2022-08-28
# 連続制御のための正規性誘導分布強化学習

Normality-Guided Distributional Reinforcement Learning for Continuous Control ( http://arxiv.org/abs/2208.13125v1 )

ライセンス: Link先を確認
Ju-Seung Byun, Andrew Perrault(参考訳) 平均戻り値の予測モデル、すなわち値関数の学習は多くの強化学習アルゴリズムにおいて重要な役割を果たす。 分散強化学習(DRL)法は、多くの設定で性能が向上することが示されている値分布をモデル化する。 本稿では、マルコフ連鎖中心極限定理を用いて、値分布を略正規としてモデル化する。 そこで本研究では,各エピソードにおける標準偏差の減少にともなう新しいDRLターゲットを提供するために,定量バーを解析的に計算する。 さらに,学習した値分布が対象の正規分布にどの程度近いかに基づく探索戦略を提案する。 我々が概説したアプローチは多くのDRL構造と互換性がある。 テストベッドとして近似ポリシー最適化を用い,正常度誘導目標と探索ボーナスの両方が性能改善をもたらすことを示す。 本手法は,多数の連続制御タスクにおいてDRLベースラインよりも優れた性能を示す。

Learning a predictive model of the mean return, or value function, plays a critical role in many reinforcement learning algorithms. Distributional reinforcement learning (DRL) methods instead model the value distribution, which has been shown to improve performance in many settings. In this paper, we model the value distribution as approximately normal using the Markov Chain central limit theorem. We analytically compute quantile bars to provide a new DRL target that is informed by the decrease in standard deviation that occurs over the course of an episode. In addition, we suggest an exploration strategy based on how closely the learned value distribution resembles the target normal distribution to make the value function more accurate for better policy improvement. The approach we outline is compatible with many DRL structures. We use proximal policy optimization as a testbed and show that both the normality-guided target and exploration bonus produce performance improvements. We demonstrate our method outperforms DRL baselines on a number of continuous control tasks.
翻訳日:2022-08-30 13:09:14 公開日:2022-08-28
# 主要サブモデルトレーニングによるエッジにおける大規模モデルのフェデレーション学習

Federated Learning of Large Models at the Edge via Principal Sub-Model Training ( http://arxiv.org/abs/2208.13141v1 )

ライセンス: Link先を確認
Yue Niu, Saurav Prakash, Souvik Kundu, Sunwoo Lee, Salman Avestimehr(参考訳) エッジユーザの計算能力と通信能力の制限は、大規模モデルのフェデレーション学習(fl)に重大なボトルネックをもたらします。 私たちは、完全な大規模モデルをトレーニングする能力を持つクライアントや、中間的なアクティベーションをサーバと共有しないクライアントがいない、現実的な、しかしより探索の少ないクロスデバイスfl設定を考えています。 そこで本研究では,低ランク構造モデルとカーネル直交性モデルを用いて直交核空間におけるサブモデルを学習するプリンシパル・サブモデル(prism)トレーニング手法を提案する。 より具体的には、サーバモデルにおける元のカーネルに特異値分解(SVD)を適用することにより、Prismはまず、各カーネルがその特異値によって測定される主直交カーネルの集合を得る。 その後、prismは、主カーネルの異なるサブセットを独立に選択してクライアントのサブモデルを作成する新しいサンプリング戦略を利用する。 重要なことに、大きな特異値のカーネルは高いサンプリング確率で割り当てられる。 このように、各サブモデルは全大モデルの低ランク近似であり、全てのクライアントがほぼフルモデルトレーニングを達成する。 各種リソース制約設定における複数のデータセットに対する広範な評価は、Primが既存の代替モデルと比較して最大10%パフォーマンスを向上できることを示している。

Limited compute and communication capabilities of edge users create a significant bottleneck for federated learning (FL) of large models. We consider a realistic, but much less explored, cross-device FL setting in which no client has the capacity to train a full large model nor is willing to share any intermediate activations with the server. To this end, we present Principal Sub-Model (PriSM) training methodology, which leverages models low-rank structure and kernel orthogonality to train sub-models in the orthogonal kernel space. More specifically, by applying singular value decomposition (SVD) to original kernels in the server model, PriSM first obtains a set of principal orthogonal kernels in which each one is weighed by its singular value. Thereafter, PriSM utilizes our novel sampling strategy that selects different subsets of the principal kernels independently to create sub-models for clients. Importantly, a kernel with a large singular value is assigned with a high sampling probability. Thus, each sub-model is a low-rank approximation of the full large model, and all clients together achieve the near full-model training. Our extensive evaluations on multiple datasets in various resource-constrained settings show that PriSM can yield an improved performance of up to 10% compared to existing alternatives, with only around 20% sub-model training.
翻訳日:2022-08-30 13:08:52 公開日:2022-08-28
# RUAD:HPCシステムにおける教師なし異常検出

RUAD: unsupervised anomaly detection in HPC systems ( http://arxiv.org/abs/2208.13169v1 )

ライセンス: Link先を確認
Martin Molan, Andrea Borghesi, Daniele Cesarini, Luca Benini, Andrea Bartolini(参考訳) 現代のハイパフォーマンスコンピューティング(hpc)システムの複雑さの増大は、システム管理者によるシステム可用性向上支援のための自動化およびデータ駆動手法の導入を必要とする。 異常検出は、システム管理者の負担を軽減し、異常と解決までの時間を短縮するため、可用性を向上させる重要な部分である。 しかしながら、現在のSoA(State-of-the-art)アプローチでは、異常検出が監視され、半監視されるため、異常を伴う人間ラベル付きデータセットが必要になる。 正確な異常データの必要性を緩和することを目的としたクラスタリングに基づく教師なし異常検出アプローチは、これまでのところ性能が劣っている。 本研究では,新しいリカレント非教師付き異常検出モデルであるRUADを提案することで,これらの制約を克服する。 ruadは、現在の半教師なしのsoaアプローチよりも良い結果を得る。 これはデータへの一時的な依存関係を考慮し、モデルアーキテクチャに長期のメモリセルを含めることで実現される。 提案手法は、Tier-0システム(CINECAのMarconi100と980ノード)の完全な10ヶ月の歴史に基づいて評価される。 RUADは半教師訓練で0.763、無教師訓練で0.767、半教師訓練で0.747、無教師訓練で0.734のAUCを達成するSoAアプローチを改善する。 また、クラスタリングに基づく現在のSoAの教師なし異常検出手法よりも大幅に優れており、AUCは0.548である。

The increasing complexity of modern high-performance computing (HPC) systems necessitates the introduction of automated and data-driven methodologies to support system administrators' effort toward increasing the system's availability. Anomaly detection is an integral part of improving the availability as it eases the system administrator's burden and reduces the time between an anomaly and its resolution. However, current state-of-the-art (SoA) approaches to anomaly detection are supervised and semi-supervised, so they require a human-labelled dataset with anomalies - this is often impractical to collect in production HPC systems. Unsupervised anomaly detection approaches based on clustering, aimed at alleviating the need for accurate anomaly data, have so far shown poor performance. In this work, we overcome these limitations by proposing RUAD, a novel Recurrent Unsupervised Anomaly Detection model. RUAD achieves better results than the current semi-supervised and unsupervised SoA approaches. This is achieved by considering temporal dependencies in the data and including long-short term memory cells in the model architecture. The proposed approach is assessed on a complete ten-month history of a Tier-0 system (Marconi100 from CINECA with 980 nodes). RUAD achieves an area under the curve (AUC) of 0.763 in semi-supervised training and an AUC of 0.767 in unsupervised training, which improves upon the SoA approach that achieves an AUC of 0.747 in semi-supervised training and an AUC of 0.734 in unsupervised training. It also vastly outperforms the current SoA unsupervised anomaly detection approach based on clustering, achieving the AUC of 0.548.
翻訳日:2022-08-30 13:08:28 公開日:2022-08-28
# 重症感染症の進行リスク予測のための臨床概念の学習

Learning Clinical Concepts for Predicting Risk of Progression to Severe COVID-19 ( http://arxiv.org/abs/2208.13126v1 )

ライセンス: Link先を確認
Helen Zhou, Cheng Cheng, Kelly J. Shields, Gursimran Kochhar, Tariq Cheema, Zachary C. Lipton, Jeremy C. Weiss(参考訳) 新型コロナウイルスの感染拡大に伴い、リスクの高い個人を特定することが重要である。 ペンシルバニア州南西部の主要医療機関のデータを用いて、重篤なcovid-19の進行を予測するサバイバルモデルを構築した。 この取り組みでは、多くの機能に依存するより正確なモデルと、臨床的な直観に合わせたいくつかの機能に依存する精度の低いモデルとのトレードオフに直面します。 複雑な問題として、多くのEHR機能は、より小さなモデルの精度を低下させるため、コード不足の傾向にある。 本研究では,ハイパフォーマンスなリスクスコアを2セット開発した。 (i)利用可能なすべての機能から構築された制約のないモデル (ii)リスク予測子を訓練する前に、少量の臨床概念を学ぶパイプライン。 学習された概念は対応する機能(c-index 0.858対0.844)のパフォーマンスを高め、改善を示す。 (i)サンプル外(時間外)の評価を行う場合。 我々のモデルは以前の作品(C-index 0.844-0.872 vs. 0.598-0.810)より優れていた。

With COVID-19 now pervasive, identification of high-risk individuals is crucial. Using data from a major healthcare provider in Southwestern Pennsylvania, we develop survival models predicting severe COVID-19 progression. In this endeavor, we face a tradeoff between more accurate models relying on many features and less accurate models relying on a few features aligned with clinician intuition. Complicating matters, many EHR features tend to be under-coded, degrading the accuracy of smaller models. In this study, we develop two sets of high-performance risk scores: (i) an unconstrained model built from all available features; and (ii) a pipeline that learns a small set of clinical concepts before training a risk predictor. Learned concepts boost performance over the corresponding features (C-index 0.858 vs. 0.844) and demonstrate improvements over (i) when evaluated out-of-sample (subsequent time periods). Our models outperform previous works (C-index 0.844-0.872 vs. 0.598-0.810).
翻訳日:2022-08-30 13:06:24 公開日:2022-08-28
# 伝達進化戦略を持つ微調整モデルにおけるクロスドメインクロスアーキテクチャブラックボックス攻撃

Cross-domain Cross-architecture Black-box Attacks on Fine-tuned Models with Transferred Evolutionary Strategies ( http://arxiv.org/abs/2208.13182v1 )

ライセンス: Link先を確認
Yinghua Zhang, Yangqiu Song, Kun Bai, Qiang Yang(参考訳) 微調整は敵の攻撃に弱い可能性がある。 細調整モデル(BAFT)に対するブラックボックス攻撃に関する既存の研究は、強い仮定によって制限されている。 このギャップを埋めるために,(1)攻撃対象モデルは微調整モデルであり,(2)ソースドメインデータは既知でアクセス可能であると仮定する2つの新しいbaft設定,クロスドメインおよびクロスドメインクロスアーキテクチャbaftを提案する。 両設定の微調整モデルに対して,まず,エンコーダ・デコーダアーキテクチャを採用し,クリーンな入力を敵の例にマップするソースモデルに対して,逆生成器を訓練することを提案する。 次に、逆生成器のエンコーダによって生成される低次元潜在空間を探索する。 探索は、ソースモデルから得られたサロゲート勾配の指導の下で行われる。 異なるドメインと異なるネットワークアーキテクチャに関する実験結果から,提案手法は,微調整モデルに対して効果的かつ効率的に攻撃できることが示されている。

Fine-tuning can be vulnerable to adversarial attacks. Existing works about black-box attacks on fine-tuned models (BAFT) are limited by strong assumptions. To fill the gap, we propose two novel BAFT settings, cross-domain and cross-domain cross-architecture BAFT, which only assume that (1) the target model for attacking is a fine-tuned model, and (2) the source domain data is known and accessible. To successfully attack fine-tuned models under both settings, we propose to first train an adversarial generator against the source model, which adopts an encoder-decoder architecture and maps a clean input to an adversarial example. Then we search in the low-dimensional latent space produced by the encoder of the adversarial generator. The search is conducted under the guidance of the surrogate gradient obtained from the source model. Experimental results on different domains and different network architectures demonstrate that the proposed attack method can effectively and efficiently attack the fine-tuned models.
翻訳日:2022-08-30 13:02:33 公開日:2022-08-28
# autoqml:グレイスケール画像の遺伝的アルゴリズムを用いたロバスト量子インスパイア分類器の自動生成と学習

AutoQML: Automatic Generation and Training of Robust Quantum-Inspired Classifiers by Using Genetic Algorithms on Grayscale Images ( http://arxiv.org/abs/2208.13246v1 )

ライセンス: Link先を確認
Sergio Altares-L\'opez, Juan Jos\'e Garc\'ia-Ripoll, Angela Ribeiro(参考訳) 多目的遺伝的アルゴリズムを用いて、グレースケール画像上で量子インスパイアされた分類器を自動生成し、訓練するハイブリッドシステムを提案する。 提案手法が一般化し,堅牢であることを保証するために,最小の回路と最大精度を得るための動的適合関数を定義する。 我々は、その外観をペナルティ化し、絡み合うゲートの数の観点から、生成回路の複雑さを最小限に抑える。 最適化目的のために個人で符号化される主成分分析(PCA)と、小さな畳み込みオートエンコーダ(CAE)の2つのアプローチで画像のサイズを縮小する。 これらの2つの手法は互いに比較され、それらの振る舞いを理解し、分類能力が量子回路によるものであることを保証するために古典的な非線形アプローチを用いている。

We propose a new hybrid system for automatically generating and training quantum-inspired classifiers on grayscale images by using multiobjective genetic algorithms. We define a dynamic fitness function to obtain the smallest possible circuit and highest accuracy on unseen data, ensuring that the proposed technique is generalizable and robust. We minimize the complexity of the generated circuits in terms of the number of entanglement gates by penalizing their appearance. We reduce the size of the images with two dimensionality reduction approaches: principal component analysis (PCA), which is encoded in the individual for optimization purpose, and a small convolutional autoencoder (CAE). These two methods are compared with one another and with a classical nonlinear approach to understand their behaviors and to ensure that the classification ability is due to the quantum circuit and not the preprocessing technique used for dimensionality reduction.
翻訳日:2022-08-30 13:02:17 公開日:2022-08-28
# LodView RDFブラウザによる多言語言語リンク型オープンデータクラウド上のナビゲーション

Adapting the LodView RDF Browser for Navigation over the Multilingual Linguistic Linked Open Data Cloud ( http://arxiv.org/abs/2208.13295v1 )

ライセンス: Link先を確認
Alexander Kirillovich and Konstantin Nikolaev(参考訳) 本稿は,多言語言語リンクオープンデータクラウド上のナビゲーションにおけるlodviewの利用について述べる。 まず、LodViewが属するPubbyライクなツールのクラスを定義し、このクラスとURI非参照ツール、RDFブラウザ、LOD視覚化ツールのクラスとの関係を明らかにする。 第2に,lodviewの指定目的への使用を阻害するいくつかの制限を明らかにし,これらの制限を修正するための改善を提案する。 これらの改善は 1) キリルURIの解決 2) 資源のタートル表現におけるキリルURIの復号 3) キリル文字のサポート 4) 資源のRDF表現のためのユーザフレンドリーなURL 5)ハッシュURIのサポート。 6) ネスト資源の拡大 7)RDFコレクションのサポート 8) 資源財産価値の図式化及び 9) $\LaTeX$ 数学表記のサポート。 第3に,提案する改善のいくつかを部分的に実装する。

The paper is dedicated to the use of LodView for navigation over the multilingual Linguistic Linked Open Data cloud. First, we define the class of Pubby-like tools, that LodView belongs to, and clarify the relation of this class to the classes of URI dereferenciation tools, RDF browsers and LOD visualization tools. Second, we reveal several limitations of LodView that impede its use for the designated purpose, and propose improvements to be made for fixing these limitations. These improvements are: 1) resolution of Cyrillic URIs; 2) decoding Cyrillic URIs in Turtle representations of resources; 3) support of Cyrillic literals; 4) user-friendly URLs for RDF representations of resources; 5) support of hash URIs; 6) expanding nested resources; 7) support of RDF collections; 8) pagination of resource property values; and 9) support of $\LaTeX$ math notation. Third, we partially implement several of the proposed improvements.
翻訳日:2022-08-30 13:01:07 公開日:2022-08-28
# 溶出性成分クラスタリング

Leachable Component Clustering ( http://arxiv.org/abs/2208.13217v1 )

ライセンス: Link先を確認
Miao Cheng, Xinge You(参考訳) クラスタリングは、データインスタンスをいくつかの異なるグループに分割しようとするが、共通パーティションに属するデータ間の類似性は、主に予約できる。 さらに、多くの現実世界のアプリケーションで不完全データが頻繁に発生し、パターン解析に幅広い影響を及ぼす。 その結果、データの欠落値を実行するために、データインプテーションとハンドリングに対する特定の解決策が開発され、情報理解のために知識搾取の独立した段階が吸収される。 そこで本研究では, 溶出可能な成分クラスタリングと呼ばれる不完全データのクラスタリング手法を提案する。 提案手法は,既存の手法よりもベイズアライメントによるデータインプテーションを扱い,理論的に失われたパターンを収集する。 方程式の単純な数値計算により,計算効率を保ちながら最適化された分割を学習することができる。 人工不完全データセットを複数実験した結果,提案手法は他の最先端アルゴリズムと比較して優れた性能を示すことができた。

Clustering attempts to partition data instances into several distinctive groups, while the similarities among data belonging to the common partition can be principally reserved. Furthermore, incomplete data frequently occurs in many realworld applications, and brings perverse influence on pattern analysis. As a consequence, the specific solutions to data imputation and handling are developed to conduct the missing values of data, and independent stage of knowledge exploitation is absorbed for information understanding. In this work, a novel approach to clustering of incomplete data, termed leachable component clustering, is proposed. Rather than existing methods, the proposed method handles data imputation with Bayes alignment, and collects the lost patterns in theory. Due to the simple numeric computation of equations, the proposed method can learn optimized partitions while the calculation efficiency is held. Experiments on several artificial incomplete data sets demonstrate that, the proposed method is able to present superior performance compared with other state-of-the-art algorithms.
翻訳日:2022-08-30 12:56:58 公開日:2022-08-28
# ヘシアン方向による高次元損失景観の可視化

Visualizing high-dimensional loss landscapes with Hessian directions ( http://arxiv.org/abs/2208.13219v1 )

ライセンス: Link先を確認
Lucas B\"ottcher and Gregory Wheeler(参考訳) 局所曲率などの高次元損失関数の幾何学的性質の解析と、損失空間のある点における他の最適点の存在は、ニューラルネットワーク構造、実装特性、学習性能との相互作用をよりよく理解するのに役立ちます。 本研究では,高次元確率と微分幾何学の概念を組み合わせて,低次元損失表現の曲率特性が元の損失空間のそれに依存するかを研究する。 ランダムな射影を用いた場合、元の空間の鞍点が低次元表現において正しく識別されることは滅多にない。 そのような射影において、低次元表現における期待曲率は、元の損失空間の平均曲率に比例する。 したがって、元の損失空間の平均曲率は、サドル点が平均してミニマ、最大、またはほぼ平坦な領域として現れるかどうかを決定する。 平均曲率(正規化ヘッセントレース)と期待曲率(平均曲率)の関係を用いて、ハッチンソン法のようにヘッセン積やヘッセンベクトル積を計算せずにヘッセン人の痕跡を推定する。 ランダム射影は鞍の情報を正しく識別できないため,最大かつ最小の主曲率に関連付けられたヘッセン方向に沿った射影を研究することを提案する。 本研究は,損失景観の平坦性と一般化可能性に関する議論とを結びつける。 最後に,約7\times 10^6$パラメータの異なる画像分類器を用いた数値実験において,本手法について述べる。

Analyzing geometric properties of high-dimensional loss functions, such as local curvature and the existence of other optima around a certain point in loss space, can help provide a better understanding of the interplay between neural network structure, implementation attributes, and learning performance. In this work, we combine concepts from high-dimensional probability and differential geometry to study how curvature properties in lower-dimensional loss representations depend on those in the original loss space. We show that saddle points in the original space are rarely correctly identified as such in lower-dimensional representations if random projections are used. In such projections, the expected curvature in a lower-dimensional representation is proportional to the mean curvature in the original loss space. Hence, the mean curvature in the original loss space determines if saddle points appear, on average, as either minima, maxima, or almost flat regions. We use the connection between expected curvature and mean curvature (i.e., the normalized Hessian trace) to estimate the trace of Hessians without calculating the Hessian or Hessian-vector products as in Hutchinson's method. Because random projections are not able to correctly identify saddle information, we propose to study projections along Hessian directions that are associated with the largest and smallest principal curvatures. We connect our findings to the ongoing debate on loss landscape flatness and generalizability. Finally, we illustrate our method in numerical experiments on different image classifiers with up to about $7\times 10^6$ parameters.
翻訳日:2022-08-30 12:56:42 公開日:2022-08-28
# 音声認識のためのベイズ型ニューラルネットワーク言語モデリング

Bayesian Neural Network Language Modeling for Speech Recognition ( http://arxiv.org/abs/2208.13259v1 )

ライセンス: Link先を確認
Boyang Xue and Shoukang Hu and Junhao Xu and Mengzhe Geng and Xunying Liu and Helen Meng(参考訳) 長期記憶リカレントニューラルネットワーク(LSTM-RNN)とトランスフォーマーで表される最先端のニューラルネットワーク言語モデル(NNLM)は非常に複雑になりつつある。 限られたトレーニングデータを与えると、それらは過度に適合し、一般化が貧弱になりがちである。 そこで本稿では,LSTM-RNN と Transformer LM の基盤となる不確実性を考慮するために,3つの手法を含むベイズ学習フレームワークを提案する。 モデルパラメータに対する不確実性、ニューラルアクティベーションの選択、および隠れ出力表現は、それぞれベイジアン、ガウス過程、変分LSTM-RNNまたはトランスフォーマーLMを用いてモデル化される。 効率的な推論手法は、ニューラルネットワーク検索を用いてベイズ学習に最適なネットワーク内部コンポーネントを自動的に選択するために用いられた。 最小数のモンテカルロパラメータのサンプルも使われた。 これにより、ベイジアンNNLMトレーニングで発生する計算コストを最小化することができる。 ami会議音声認識とoxford-bbc lipreading sentences 2 (lrs2) 重畳音声認識について,データ拡張,話者適応,重畳音声のための視聴覚多チャンネルビームフォーミングを特徴とする最先端lf-mmi学習型tdnnシステムを用いて実験を行った。 点推定モデルパラメータとドロップアウト正規化を併用したベースラインLSTM-RNNとトランスフォーマーLMの整合性向上を,両タスクの難易度と単語誤り率(WER)の観点から行った。 特に,lrs2データでは,ベイズ型nnlmsとそれぞれのベースラインのモデル組み合わせにより,ベースラインlstm-rnnおよびトランスフォーマ lmsに対して,統計的に有意なwer低減率 (12.1%,11.3%) が得られた。

State-of-the-art neural network language models (NNLMs) represented by long short term memory recurrent neural networks (LSTM-RNNs) and Transformers are becoming highly complex. They are prone to overfitting and poor generalization when given limited training data. To this end, an overarching full Bayesian learning framework encompassing three methods is proposed in this paper to account for the underlying uncertainty in LSTM-RNN and Transformer LMs. The uncertainty over their model parameters, choice of neural activations and hidden output representations are modeled using Bayesian, Gaussian Process and variational LSTM-RNN or Transformer LMs respectively. Efficient inference approaches were used to automatically select the optimal network internal components to be Bayesian learned using neural architecture search. A minimal number of Monte Carlo parameter samples as low as one was also used. These allow the computational costs incurred in Bayesian NNLM training and evaluation to be minimized. Experiments are conducted on two tasks: AMI meeting transcription and Oxford-BBC LipReading Sentences 2 (LRS2) overlapped speech recognition using state-of-the-art LF-MMI trained factored TDNN systems featuring data augmentation, speaker adaptation and audio-visual multi-channel beamforming for overlapped speech. Consistent performance improvements over the baseline LSTM-RNN and Transformer LMs with point estimated model parameters and drop-out regularization were obtained across both tasks in terms of perplexity and word error rate (WER). In particular, on the LRS2 data, statistically significant WER reductions up to 1.3% and 1.2% absolute (12.1% and 11.3% relative) were obtained over the baseline LSTM-RNN and Transformer LMs respectively after model combination between Bayesian NNLMs and their respective baselines.
翻訳日:2022-08-30 12:55:12 公開日:2022-08-28
# 深層畳み込みニューラルネットワークを用いた脳腫瘍の検出と分類

Detection and Classification of Brain tumors Using Deep Convolutional Neural Networks ( http://arxiv.org/abs/2208.13264v1 )

ライセンス: Link先を確認
Gopinath Balaji, Ranit Sen, Harsh Kirty(参考訳) 腫大とモルビッドの増大による体内組織の異常な発達は腫瘍として知られている。 主に良性および悪性に分類される。 脳内の腫瘍はがんである可能性があるため致命的であり、近くの健康な細胞に餌を与え、サイズを拡大し続けることができる。 これは脳の軟部組織、神経細胞、小血管に影響を及ぼす可能性がある。 したがって、最も正確で初期の段階でそれらを検出・分類する必要がある。 脳腫瘍の大きさや位置が異なるため、その性質を理解することは困難である。 脳腫瘍の検出と分類のプロセスは、近傍の健康な細胞と腫瘍との類似性から、高度なMRI(Magnetic Resonance Imaging)技術でさえも、厄介な作業であることが証明できる。 本稿では、KerasとTensorflowを用いて、EfficientNetB0、ResNet50、Xception、MobileNetV2、VGG16のような最先端の畳み込みニューラルネットワーク(CNN)アーキテクチャを実装し、Transfer Learningを使用して、Glioma、Meningioma、Pituitaryという3種類の脳腫瘍を検出し分類した。 得られたデータセットは3264個の2次元磁気共鳴画像と4つのクラスから構成された。 データセットのサイズが小さいため、データセットのサイズを増やすためにさまざまなデータ拡張技術が使用された。 提案手法は,データ拡張だけでなく,様々な画像復調技術,頭蓋切削,収穫,偏差補正などで構成されている。 提案手法である efficientnetb0 アーキテクチャの精度は 97.61% であった。 本研究の目的は,通常の画素と異常画素を区別し,精度良く分類することである。

Abnormal development of tissues in the body as a result of swelling and morbid enlargement is known as a tumor. They are mainly classified as Benign and Malignant. Tumour in the brain is fatal as it may be cancerous, so it can feed on healthy cells nearby and keep increasing in size. This may affect the soft tissues, nerve cells, and small blood vessels in the brain. Hence there is a need to detect and classify them during the early stages with utmost precision. There are different sizes and locations of brain tumors which makes it difficult to understand their nature. The process of detection and classification of brain tumors can prove to be an onerous task even with advanced MRI (Magnetic Resonance Imaging) techniques due to the similarities between the healthy cells nearby and the tumor. In this paper, we have used Keras and Tensorflow to implement state-of-the-art Convolutional Neural Network (CNN) architectures, like EfficientNetB0, ResNet50, Xception, MobileNetV2, and VGG16, using Transfer Learning to detect and classify three types of brain tumors namely - Glioma, Meningioma, and Pituitary. The dataset we used consisted of 3264 2-D magnetic resonance images and 4 classes. Due to the small size of the dataset, various data augmentation techniques were used to increase the size of the dataset. Our proposed methodology not only consists of data augmentation, but also various image denoising techniques, skull stripping, cropping, and bias correction. In our proposed work EfficientNetB0 architecture performed the best giving an accuracy of 97.61%. The aim of this paper is to differentiate between normal and abnormal pixels and also classify them with better accuracy.
翻訳日:2022-08-30 12:54:37 公開日:2022-08-28
# 高次元リプシッツ関数のニューラルネットワーク近似と逆問題への応用

Neural Network Approximation of Lipschitz Functions in High Dimensions with Applications to Inverse Problems ( http://arxiv.org/abs/2208.13305v1 )

ライセンス: Link先を確認
Santhosh Karnik, Rongrong Wang, and Mark Iwen(参考訳) さまざまな逆問題におけるニューラルネットワークの顕著な成功は、過去10年間に医療画像から地震解析まで、さまざまな分野に採用されている。 しかし、そのような逆問題の高次元性は同時に現在の理論を残しており、これはネットワークが問題の次元で指数関数的にスケールすべきであると予測し、これらの設定で使用されるように見える小さなネットワークが実際に機能する理由を説明することができない。 この理論と実践のギャップを低減するために、ニューラルネットワークが低複素構造を持つ高次元集合上でリプシッツ関数を近似するために必要な複雑さを境界付ける一般的な方法が提供される。 このアプローチは、任意のリプシッツ函数 $f : \mathcal{S}\to \mathbb{R}^p$ に対して、任意のリプシッツ函数 $g : [-M,M]^d \to \mathbb{R}^p$ が存在して、$g(\mathbf{A}\mathbf{x}) = f(\mathbf{x}) = f(\mathbf{x}$) となるような、与えられた高次元集合 $\mathcal{S} \subset \mathbb{R}^D$ が、任意のリプシッツ函数 $f : \mathcal{S}\to \mathbb{R}^p$ であることを意味する。 したがって、$g : [-M,M]^d \to \mathbb{R}^p$ を近似するニューラルネットワークを持つなら、$\mathbf{A}$ を埋め込んだ JL を実装した層を追加して、$f : \mathcal{S} \to \mathbb{R}^p$ を近似したニューラルネットワークを得ることができる。 jl埋め込み結果とニューラルネットワークによるリプシッツ関数の近似結果とを組み合わせることで、ニューラルネットワークが高次元集合上でリプシッツ関数を近似するのに必要となる複雑さを制限する結果が得られる。 最終的な結果は、現在の理論よりも幅広い逆問題において、より小さなネットワークで観測された経験的成功を説明するのに使用できる一般的な理論フレームワークである。

The remarkable successes of neural networks in a huge variety of inverse problems have fueled their adoption in disciplines ranging from medical imaging to seismic analysis over the past decade. However, the high dimensionality of such inverse problems has simultaneously left current theory, which predicts that networks should scale exponentially in the dimension of the problem, unable to explain why the seemingly small networks used in these settings work as well as they do in practice. To reduce this gap between theory and practice, a general method for bounding the complexity required for a neural network to approximate a Lipschitz function on a high-dimensional set with a low-complexity structure is provided herein. The approach is based on the observation that the existence of a linear Johnson-Lindenstrauss embedding $\mathbf{A} \in \mathbb{R}^{d \times D}$ of a given high-dimensional set $\mathcal{S} \subset \mathbb{R}^D$ into a low dimensional cube $[-M,M]^d$ implies that for any Lipschitz function $f : \mathcal{S}\to \mathbb{R}^p$, there exists a Lipschitz function $g : [-M,M]^d \to \mathbb{R}^p$ such that $g(\mathbf{A}\mathbf{x}) = f(\mathbf{x})$ for all $\mathbf{x} \in \mathcal{S}$. Hence, if one has a neural network which approximates $g : [-M,M]^d \to \mathbb{R}^p$, then a layer can be added which implements the JL embedding $\mathbf{A}$ to obtain a neural network which approximates $f : \mathcal{S} \to \mathbb{R}^p$. By pairing JL embedding results along with results on approximation of Lipschitz functions by neural networks, one then obtains results which bound the complexity required for a neural network to approximate Lipschitz functions on high dimensional sets. The end result is a general theoretical framework which can then be used to better explain the observed empirical successes of smaller networks in a wider variety of inverse problems than current theory allows.
翻訳日:2022-08-30 12:51:21 公開日:2022-08-28
# JARVIS : 会話型エンボディードエージェントのためのニューロシンボリック・コモンセンス推論フレームワーク

JARVIS: A Neuro-Symbolic Commonsense Reasoning Framework for Conversational Embodied Agents ( http://arxiv.org/abs/2208.13266v1 )

ライセンス: Link先を確認
Kaizhi Zheng, Kaiwen Zhou, Jing Gu, Yue Fan, Jialu Wang, Zonglin Li, Xuehai He, Xin Eric Wang(参考訳) 実生活タスクを実行するための会話型具体化エージェントの構築は、効果的な人間-エージェントコミュニケーション、マルチモーダル理解、長距離シーケンシャルな意思決定などを必要とするため、長い間、非常に困難な研究目標でした。 従来のシンボリックメソッドにはスケーリングと一般化の問題があり、エンドツーエンドのディープラーニングモデルはデータの不足と高いタスクの複雑さに苦しんでおり、説明が難しいことが多い。 両世界から利益を得るため,モジュール性,汎用性,解釈可能な対話型具体化エージェントのためのニューロシンボリックコモンセンス推論(jarvis)フレームワークを提案する。 まず,大規模言語モデル(LLM)による言語理解とサブゴール計画の促進と,視覚的観察から意味マップを構築することによって,記号表現を取得する。 次に,タスクレベルとアクションレベルの共通感覚に基づくサブゴール計画とアクション生成のシンボリックモジュールの理由について述べる。 TEAChデータセットの大規模実験により, ダイアログヒストリ(EDH), ダイアログからのトラジェクトリ(TfD), 2エージェントタスク完了(TATC)を含む3つのダイアログベースの実施タスクに対して, 最新のSOTA(State-of-the-art)を実現するJARVISフレームワークの有効性と効率を検証した(例: EDHの未確認成功率を6.1\%から15.8\%に引き上げる)。 さらに,タスク性能に影響を及ぼす重要な要因を体系的に分析し,いくつかの設定で手法の優位性を示す。 JARVISモデルは、Alexa Prize SimBot Public Benchmark Challengeで第1位です。

Building a conversational embodied agent to execute real-life tasks has been a long-standing yet quite challenging research goal, as it requires effective human-agent communication, multi-modal understanding, long-range sequential decision making, etc. Traditional symbolic methods have scaling and generalization issues, while end-to-end deep learning models suffer from data scarcity and high task complexity, and are often hard to explain. To benefit from both worlds, we propose a Neuro-Symbolic Commonsense Reasoning (JARVIS) framework for modular, generalizable, and interpretable conversational embodied agents. First, it acquires symbolic representations by prompting large language models (LLMs) for language understanding and sub-goal planning, and by constructing semantic maps from visual observations. Then the symbolic module reasons for sub-goal planning and action generation based on task- and action-level common sense. Extensive experiments on the TEACh dataset validate the efficacy and efficiency of our JARVIS framework, which achieves state-of-the-art (SOTA) results on all three dialog-based embodied tasks, including Execution from Dialog History (EDH), Trajectory from Dialog (TfD), and Two-Agent Task Completion (TATC) (e.g., our method boosts the unseen Success Rate on EDH from 6.1\% to 15.8\%). Moreover, we systematically analyze the essential factors that affect the task performance and also demonstrate the superiority of our method in few-shot settings. Our JARVIS model ranks first in the Alexa Prize SimBot Public Benchmark Challenge.
翻訳日:2022-08-30 12:50:20 公開日:2022-08-28
# FFCNN:畳み込みニューラルネットワーク推論のためのFPGAベースの高速高速化

FFCNN: Fast FPGA based Acceleration for Convolution neural network inference ( http://arxiv.org/abs/2208.13250v1 )

ライセンス: Link先を確認
F. Keddous, H-N. Nguyen, and A. Nakib(参考訳) 本稿では,FFCNN(Fast Inference on FPGAs for Convolution Neural Network)と呼ばれる,大規模畳み込みニューラルネットワークのための新しい効率的なOpenCLベースの加速器を提案する。 FFCNNは、深くパイプライン化されたOpenCLカーネルアーキテクチャに基づいている。 前述したように、OpenCLフレームワークのような高レベルな合成ツールは、本来CPUやGPU用に設計されたコードをFPGAに簡単に移植できるが、FPGA上でOpenCLコードを効率的に動作させるのは難しい。 本研究の目的は,OpenCLハイパフォーマンスコンピューティングアプリケーションのFPGAの効率的な実装を提案することである。 そのため、データ再利用およびタスクマッピング技術も提供され、設計効率が向上する。 また,ffcnnの開発において,以下の動機が考慮された。 FFCNNは、Intel OpenCL SDKベースのFPGA設計フローで容易に実装できるように設計されている。 2)FFFCNでは,メモリ帯域とスループットを改善するために,様々な技術が統合されている。 大規模画像分類のための2つのディープCNNの性能解析を行った。 得られた結果と,同一のアーキテクチャを高速化するために設計された他の作品との比較により,提案する加速器設計の効率と競合性が,性能と資源利用の大幅な向上によって示される。

We present a new efficient OpenCL-based Accelerator for large scale Convolutional Neural Networks called Fast Inference on FPGAs for Convolution Neural Network (FFCNN). FFCNN is based on a deeply pipelined OpenCL kernels architecture. As pointed out before, high-level synthesis tools such as the OpenCL framework can easily port codes originally designed for CPUs and GPUs to FPGAs, but it is still difficult to make OpenCL codes run efficiently on FPGAs. This work aims to propose an efficient FPGA implementation of OpenCL High-Performance Computing Applications. To do so, a Data reuse and task mapping techniques are also presented to improve design efficiency. In addition, the following motivations were taken into account when developing FFCNN: 1) FFCNN has been designed to be easily implemented on Intel OpenCL SDK based FPGA design flow. 2) In FFFCN, different techniques have been integrated to improve the memory band with and throughput. A performance analysis is conducted on two deep CNN for Large-Scale Images classification. The obtained results, and the comparison with other works designed to accelerate the same types of architectures, show the efficiency and the competitiveness of the proposed accelerator design by significantly improved performance and resource utilization.
翻訳日:2022-08-30 12:48:24 公開日:2022-08-28