このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20230125となっている論文です。

PDF登録状況(公開日: 20230125)

TitleAuthorsAbstract論文公表日・翻訳日
# ホークス過程を用いたソーシャルネットワークにおけるテレコミュニケーション履歴から関係ラベルと個性特性の予測

Predicting Relationship Labels and Individual Personality Traits from Telecommunication History in Social Networks using Hawkes Processes ( http://arxiv.org/abs/2009.02032v3 )

ライセンス: Link先を確認
Mateusz Nurek, Rados{\l}aw Michalski, Omar Lizardo, Marian-Andrei Rizoiu(参考訳) 携帯電話には個人情報が豊富にあるので、安全を保とうとしています。 サービス提供者が定期的に収集する通話ログやテキストメッセージログなど、一見匿名のコミュニケーショントレースから個人の心理的プロファイルと仲間との関係を予測できるという、大規模な証拠を提供する。 900人以上の大学生を含む2つの広範囲な縦断研究に基づいて,通信パターンを記述するために点過程モデリングを用いた。 ピア関係タイプと時間ダイナミクスを自動的に予測し,モデルに基づいてユーザパーソナリティを評価する。 パーソナリティ特性によっては、調査自己報告データから得られた金本位パフォーマンスに匹敵する結果が得られる。 その結果、個人の制御外に存在する情報がどのようにセンシティブな情報を再構築できるかが明らかになった。

Mobile phones contain a wealth of private information, so we try to keep them secure. We provide large-scale evidence that the psychological profiles of individuals and their relations with their peers can be predicted from seemingly anonymous communication traces -- calling and texting logs that service providers routinely collect. Based on two extensive longitudinal studies containing more than 900 college students, we use point process modeling to describe communication patterns. We automatically predict the peer relationship type and temporal dynamics, and assess user personality based on the modeling. For some personality traits, the results are comparable to the gold-standard performances obtained from survey self-report data. Findings illustrate how information usually residing outside the control of individuals can be used to reconstruct sensitive information.
翻訳日:2023-05-03 20:52:51 公開日:2023-01-25
# QuTiP-BoFiN:光ハーヴェスティング、量子制御、単一分子エレクトロニクスにおけるボソニックおよびフェルミオン型数値階層型運動方程式ライブラリ

QuTiP-BoFiN: A bosonic and fermionic numerical hierarchical-equations-of-motion library with applications in light-harvesting, quantum control, and single-molecule electronics ( http://arxiv.org/abs/2010.10806v3 )

ライセンス: Link先を確認
Neill Lambert, Tarun Raheja, Simon Cross, Paul Menczel, Shahnawaz Ahmed, Alexander Pitchford, Daniel Burgarth, Franco Nori(参考訳) heom法(hierarchical equation of motion)は、力学を解き、非マルコフ的かつ非摂動的環境と結合した量子系の定常状態を見つけるための強力な厳密な数値解法である。 元々は物理化学の文脈で開発されたもので、固体物理学、光学、単分子エレクトロニクス、生物物理学の問題にも応用されている。 本稿では,音素環境とフェルミオン環境の両方にHEOMを実装した強力なQuTiPプラットフォームと統合したPythonの数値ライブラリを提案する。 私たちはその有用性を一連の例で示します。 ボソニックの場合、任意のスペクトル密度を適合させることのデモンストレーションや、Fenna-Matthews-Olson光合成複合体におけるエネルギー移動のダイナミクスの例を含み、適切な非マルコフ環境が純粋な嫌悪からどのように保護できるかを示している。 また、HEOMが環境からのスピンの動的疎結合の異なる戦略のベンチマークにどのように使用できるかを示し、環境のスペクトル密度が非常に広い場合、Uhrigパルス分散方式が等間隔パルスよりも最適でないことを示す。 フェルミオンの場合、コードのベンチマークとして用いられる積分可能な単一不純物例と、単分子エレクトロニクスへの応用を含む単一のビブロニックモードに強く結合された不純物のより複雑な例を示す。

The "hierarchical equations of motion" (HEOM) method is a powerful exact numerical approach to solve the dynamics and find the steady-state of a quantum system coupled to a non-Markovian and non-perturbative environment. Originally developed in the context of physical chemistry, it has also been extended and applied to problems in solid-state physics, optics, single-molecule electronics, and biological physics. Here we present a numerical library in Python, integrated with the powerful QuTiP platform, which implements the HEOM for both bosonic and fermionic environments. We demonstrate its utility with a series of examples. For the bosonic case, we include demonstrations of fitting arbitrary spectral densities, and an example of the dynamics of energy transfer in the Fenna-Matthews-Olson photosynthetic complex, showing how a suitable non-Markovian environment can protect against pure dephasing. We also demonstrate how the HEOM can be used to benchmark different strategies for dynamical decoupling of a spin from its environment, and show that the Uhrig pulse-spacing scheme is less optimal than equally spaced pulses when the environment's spectral density is very broad. For the fermionic case, we present an integrable single-impurity example, used as a benchmark of the code, and a more complex example of an impurity strongly coupled to a single vibronic mode, with applications to single-molecule electronics.
翻訳日:2023-04-28 03:18:32 公開日:2023-01-25
# ローレンツ不変波パケットの完全集合と修正不確実性関係

A complete set of Lorentz-invariant wave packets and modified uncertainty relation ( http://arxiv.org/abs/2104.01798v4 )

ライセンス: Link先を確認
Kin-ya Oda and Juntaro Wada(参考訳) 完全ローレンツ不変波動パケットの集合を定義し、対応する1粒子ヒルベルト部分空間にまたがることを示し、それゆえフォック空間全体も明らかにローレンツ不変完全性関係(同一性の解)を持つことを示した。 このローレンツ不変波動パケットの位置-運動量不確実性関係は、通常のハイゼンベルクの不確実性原理から逸脱し、非相対論的極限において減少する。

We define a set of fully Lorentz-invariant wave packets and show that it spans the corresponding one-particle Hilbert subspace, and hence the whole Fock space as well, with a manifestly Lorentz-invariant completeness relation (resolution of identity). The position-momentum uncertainty relation for this Lorentz-invariant wave packet deviates from the ordinary Heisenberg uncertainty principle, and reduces to it in the non-relativistic limit.
翻訳日:2023-04-05 06:46:32 公開日:2023-01-25
# マルチカラーグラフの文脈性に対する量子集合

Quantum sets of the multicolored-graph approach to contextuality ( http://arxiv.org/abs/2105.08561v5 )

ライセンス: Link先を確認
Lina Vandr\'e and Marcelo Terra Cunha(参考訳) CHSH不等式はベル不等式の最も有名な例である。 カベロ、セヴェリーニ、ウィンター(CSW)は、いくつかのグラフ理論の概念と量子的および古典的相関を結びつける非文脈的不等式へのグラフアプローチを考案した。 例えば、排他性グラフのテータ体は、量子論によって達成された相関の集合と関連付けることができる。 CSWのアプローチに従うと、CHSHグラフのゼータ体はCHSHベルの不等式の量子集合と等しいと考えるかもしれませんが、これは本当に本当ですか? CHSHの不等式に関するすべての仮定はベルのシナリオに由来するが、CSWのアプローチは非文脈性(NC)シナリオの排他的構造のみを要求する。 CHSHのようなベルシナリオにおける異なるプレイヤーの存在に関連する余分な構造に対処するため、カラーグラフ方式が導入された。 CHSHをベルのシナリオ、あるいはより一般的なNCのシナリオと考えることに何か違いがありますか? ベルCHSH不等式は2色グラフで表され、NCCHSH不等式は、色付きグラフの影である単純なグラフで表される。 一般に、有色グラフのテータ体は、単純グラフの量子境界に対応するlov\`asz数が有色グラフのlov\`asz数以上であるのと同じ方法で、その影グラフのテータ体の部分集合である。 CHSHの不等式の場合、Lov\`asz の数は等しい。 この事故は対応する量子集合にも当てはまるだろうか? つまり、CHSH NCシナリオに適用された量子理論によって到達されたすべての相関は、原理上より制限的なCHSH Bellシナリオでも得られるということなのだろうか? 本稿では,このような質問に対する我々の答えがnegativである。 これはベル制限下では得られない量子相関が存在することを意味する。

The CHSH inequalities are the most famous examples of Bell inequalities. Cabello, Severini, and Winter (CSW) came up with a graph approach to noncontextuality inequalities, which connects some graph-theoretic concepts to quantum and classical correlations. For example, the theta body of the exclusivity graph can be associated with the set of correlations achieved by quantum theory. Following the CSW approach, one may think that the theta body of the CHSH graph, is equal to the quantum set of the CHSH Bell inequality, but is this really true? All assumptions about the CHSH inequalities come from Bell scenarios, while CSW approach only demands the exclusivity structure of a non-contextuality (NC) scenario. To deal with the extra structure related to the presence of different players in a Bell scenario like CHSH, the colored-graph approach was introduced. Does it make any difference to think about CHSH as a Bell scenario or a more general NC scenario? The Bell CHSH inequality is represented by a bicolored graph and the NC CHSH inequality by a simple graph, which is the shadow of the colored graph. In general, we have that the theta body of the colored graph is a subset of the theta body of its shadow graph in the same way that the Lov\`asz number, which corresponds to the quantum bound, of the simple graph is greater than or equal to the Lov\`asz number of the colored graph. In the case of the CHSH inequality, we have that the Lov\`asz numbers are equal. Does this accident also hold for the corresponding quantum sets? Is it true that the theta bodies are equal, which would mean that every correlation reached by quantum theory applied to the CHSH NC scenario could also be obtained at the in principle more restrictive CHSH Bell scenario? In this paper our answer to such a question is negativ. This implies that there are quantum correlations which can not be obtained under Bell restrictions.
翻訳日:2023-03-30 19:48:21 公開日:2023-01-25
# 並列量子アルゴリズムによるハミルトンシミュレーション

Parallel Quantum Algorithm for Hamiltonian Simulation ( http://arxiv.org/abs/2105.11889v2 )

ライセンス: Link先を確認
Zhicheng Zhang, Qisheng Wang, Mingsheng Ying(参考訳) 我々は並列処理が量子シミュレーションをいかに高速化するかを研究する。 局所的ハミルトニアンやポーリ和のような実用的関心を持つ様々なハミルトニアンを含む一様構造ハミルトニアンと呼ばれる構造を持つ大きなハミルトニアンクラスのダイナミクスをシミュレートするために、並列量子アルゴリズムが提案されている。 oracleがターゲットのsparse hamiltonianにアクセスすると、クエリとゲートの複雑さの両方において、量子回路深度で測定された並列量子シミュレーションアルゴリズムの実行時間は、シミュレーション精度$\epsilon$の2倍(poly-)対数依存$\operatorname{polylog}\log(1/\epsilon)$となる。 これは、並列性のない以前の最適スパースハミルトンシミュレーションアルゴリズムの$\operatorname{polylog}(1/\epsilon)$に対する指数関数的な改善を示す。 この結果を得るために,子どもの量子ウォークに基づく並列量子ウォークという新しい概念を導入する。 ターゲットの進化のユニタリは、これらの量子ウォークを平行に組み合わせることで得られる、切り離されたテイラー級数によって近似される。 下限の$\Omega(\log \log (1/\epsilon))$が確立され、この研究で達成されたゲート深さの$\epsilon$-dependenceが著しく改善されないことを示す。 本アルゴリズムは,ハイゼンベルクモデル,sachdev-ye-kitaevモデル,量子化学モデルという3つの物理モデルを2次量子化でシミュレートする。 オーラクルを実装するためのゲート複雑性を明示的に計算することにより、これらのモデルにおいて、我々のアルゴリズムの全ゲート深さが並列設定における$\operatorname{polylog}\log(1/\epsilon)$依存性を持つことを示す。

We study how parallelism can speed up quantum simulation. A parallel quantum algorithm is proposed for simulating the dynamics of a large class of Hamiltonians with good sparse structures, called uniform-structured Hamiltonians, including various Hamiltonians of practical interest like local Hamiltonians and Pauli sums. Given the oracle access to the target sparse Hamiltonian, in both query and gate complexity, the running time of our parallel quantum simulation algorithm measured by the quantum circuit depth has a doubly (poly-)logarithmic dependence $\operatorname{polylog}\log(1/\epsilon)$ on the simulation precision $\epsilon$. This presents an exponential improvement over the dependence $\operatorname{polylog}(1/\epsilon)$ of previous optimal sparse Hamiltonian simulation algorithm without parallelism. To obtain this result, we introduce a novel notion of parallel quantum walk, based on Childs' quantum walk. The target evolution unitary is approximated by a truncated Taylor series, which is obtained by combining these quantum walks in a parallel way. A lower bound $\Omega(\log \log (1/\epsilon))$ is established, showing that the $\epsilon$-dependence of the gate depth achieved in this work cannot be significantly improved. Our algorithm is applied to simulating three physical models: the Heisenberg model, the Sachdev-Ye-Kitaev model and a quantum chemistry model in second quantization. By explicitly calculating the gate complexity for implementing the oracles, we show that on all these models, the total gate depth of our algorithm has a $\operatorname{polylog}\log(1/\epsilon)$ dependence in the parallel setting.
翻訳日:2023-03-29 21:00:15 公開日:2023-01-25
# 散逸光格子におけるレーザー冷却原子の異常統計

Anomalous statistics of laser-cooled atoms in dissipative optical lattices ( http://arxiv.org/abs/2107.09526v3 )

ライセンス: Link先を確認
Gadi Afek, Nir Davidson, David A. Kessler and Eli Barkai(参考訳) 拡散は自然界の多くの物理系で起こり、中心極限定理の普遍性からその一般性を引き出す。 約1世紀前には、このタイプの力学への拡張は、分布が重く、強力な尾を持つことを許される「非正則」拡散の形で得られることが判明した。 運動量依存性の散逸摩擦力のユニークな特徴から、レーザー冷却原子アンサンブルはそのような動力学のテストベッドとして使用できる。 レーザー冷却と異常ダイナミクスの相互作用は、平衡統計物理学と非平衡統計物理学の両方の基本的な概念に対する深い予測的示唆をもたらす。 低温原子実験で利用できる高い制御は、摩擦力のパラメータのチューニングを可能にし、系の力学特性の遷移を明らかにする。 運動量と空間分布の両方において、稀な事象は無限エルゴード理論から適応したツールを用いて非正規化状態によって記述される。 これは新しい実験と理論的な結果をもたらし、システムの様々な特徴を照らす。

Diffusion occurs in numerous physical systems throughout nature, drawing its generality from the universality of the central limit theorem. Around a century ago it was realized that an extension to this type of dynamics can be obtained in the form of ``anomalous" diffusion where distributions are allowed to have heavy, power-law tails. Due to a unique feature of its momentum-dependant dissipative friction force, laser-cooled atomic ensembles can be used as a test bed for such dynamics. The interplay between laser cooling and anomalous dynamics bears deep, predictive implications for fundamental concepts in both equilibrium and non-equilibrium statistical physics. The high degree of control available in cold-atom experiments allows for tuning of the parameters of the friction force, revealing transitions in the dynamical properties of the system. Rare events, in both the momentum and spatial distributions, are described by non-normalized states using tools adapted from infinite ergodic theory. This leads to new experimental and theoretical results, illuminating the various features of the system.
翻訳日:2023-03-21 11:57:37 公開日:2023-01-25
# 都市の流行モデルにおける多層ネットワークアプローチ

Multi-layer network approach in modeling epidemics in an urban town ( http://arxiv.org/abs/2109.02272v4 )

ライセンス: Link先を確認
Meliksah Turker and Haluk O. Bingol(参考訳) 過去3年間、新型コロナウイルス(COVID-19)のパンデミックで何百万人もが死亡し、世界中の何十億人もの人々を苦しめてきた。 当局は学校や仕事の転向や、外出禁止令による社会関係の禁止など様々な措置を講じた。 感染拡大の悪影響を軽減するため、研究者らは予測技術とネットワーク上の流行シミュレーションを用いて、さまざまなシナリオでパンデミックの将来を推定しようとした。 都市における実生活を高分解能で表現することを目的として,各層が日常的に発生する「家」,「仕事」,「学校」といった異なる相互作用に対応する,新しい多層ネットワークモデルを提案する。 我々のシミュレーションは、"フレンドシップ"層のロックダウンが流行の減速に最も影響を与えていることを示している。 したがって、我々の貢献は2倍であり、まずパラメトリックネットワーク生成モデルを提案し、次に、SIRシミュレーションを実行し、層の影響を示す。

The last three years have been an extraordinary time with the Covid-19 pandemic killing millions, affecting and distressing billions of people worldwide. Authorities took various measures such as turning school and work to remote and prohibiting social relations via curfews. In order to mitigate the negative impact of the epidemics, researchers tried to estimate the future of the pandemic for different scenarios, using forecasting techniques and epidemics simulations on networks. Intending to better represent the real-life in an urban town in high resolution, we propose a novel multi-layer network model, where each layer corresponds to a different interaction that occurs daily, such as "household", "work" or "school". Our simulations indicate that locking down "friendship" layer has the highest impact on slowing down epidemics. Hence, our contributions are twofold, first we propose a parametric network generator model; second, we run SIR simulations on it and show the impact of layers.
翻訳日:2023-03-16 00:58:01 公開日:2023-01-25
# COSMOEFT$からの回路複雑性の因果性制約

Causality Constraint on Circuit Complexity from $COSMOEFT$ ( http://arxiv.org/abs/2111.11468v3 )

ライセンス: Link先を確認
Sayantan Choudhury, Arghya Mukherjee, Nilesh Pandey, Abhishek Roy(参考訳) 本稿では,2モード圧縮量子状態を用いた宇宙効果場理論(COSMOEFT)の枠組みにおける有効音速$c_s(\leq 1)$ on Quantum Circuit Complexity(QCC)による因果性制約の物理的意味について検討する。 この COSMOEFT セットアップは、時間微分同相の下で壊れる最低次元作用素の助けを借りて St$\ddot{\text{u}}$ckelberg トリックを用いて構成される。 この設定では、背景準シッター計量における2つの微分項からの寄与のみを考える。 次に、異なる$c_s$に対する回路複雑性とそれらの宇宙進化に関する関連する尺度をNielsenとCovarianceMatrix法という2つの異なるアプローチに従って計算する。 この設定を用いて、Von-Neumann と R\'enyi のエントロピーも計算し、エントロピーと回路複雑性の間の基礎となる接続関係を確立する。 本質的に,回路の複雑度測定と絡み合いエントロピーのスケール係数および$c_s$に対する挙動を考察し,窓内における様々な興味深い未探索特徴である$0.024\leq c_s\leq 1$を見出した。 最後に、上記ウィンドウ内に存在する異なる$c_s$ に対する回路の複雑さ、絡み合いエントロピー、平衡温度との関係についても述べる。

In this article, we investigate the physical implications of the causality constraint via effective sound speed $c_s(\leq 1)$ on Quantum Circuit Complexity(QCC) in the framework of Cosmological Effective Field Theory (COSMOEFT) using the two-mode squeezed quantum states. This COSMOEFT setup is constructed using the St$\ddot{\text{u}}$ckelberg trick with the help of the lowest dimensional operators, which are broken under time diffeomorphism. In this setup, we consider only the contribution from two derivative terms in the background quasi de Sitter metric. Next, we compute the relevant measures of circuit complexity and their cosmological evolution for different $c_s$ by following two different approaches, Nielsen's and Covariance matrix method. Using this setup, we also compute the Von-Neumann and R\'enyi entropy, which finally establishes an underlying connecting relationship between the entanglement entropy and circuit complexity. Essentially, we study the behaviour of the circuit complexity measures and entanglement entropy with respect to the scale factor and $c_s$ and find various interesting unexplored features within the window, $0.024\leq c_s\leq 1$, which is supported by both causality and cosmological observation. Finally, we also comment on the connection between the circuit complexity, entanglement entropy and equilibrium temperature for different $c_s$ lying within the mentioned window.
翻訳日:2023-03-07 04:12:58 公開日:2023-01-25
# 雑音量子ジャイロスコープ

Noisy quantum gyroscope ( http://arxiv.org/abs/2201.10934v2 )

ライセンス: Link先を確認
Lin Jiao, Jun-Hong An(参考訳) 回転センシング用ジャイロスコープは慣性航法システムにおいて重要な役割を果たす。 量子資源を用いた古典的なショットノイズ制限により制限された従来のジャイロスコープよりも精密なジャイロスコープの開発が注目されている。 しかし、既存の量子ジャイロスコープスキームはデコヒーレンスの影響を受け、ノイズメロロジーのノーゴー定理と呼ばれる深刻な劣化を被る。 ここでは、2つの量子化光学場を量子プローブとして使用することにより、no-go定理の制約を突破する量子ジャイロスコープスキームを提案する。 非マルコフ雑音の正確な解析により, 感度向上のための資源としての進化時間と無ノイズの場合の超ハイゼンベルク限界は, それぞれの光学場が環境と結合した状態を形成するとき漸近的に回復可能であることが明らかとなった。 実環境下での高精度回転センシングを実現するためのガイドラインを提供する。

Gyroscope for rotation sensing plays a key role in inertial navigation systems. Developing more precise gyroscopes than the conventional ones bounded by classical shot-noise limit by using quantum resources has attracted much attention. However, existing quantum gyroscope schemes suffer severe deterioration under the influence of decoherence, which is called the no-go theorem of noisy metrology. Here, by using two quantized optical fields as quantum probe, we propose a quantum gyroscope scheme breaking through the constraint of the no-go theorem. Our exact analysis of the non-Markovian noise reveals that both the evolution time as a resource in enhancing the sensitivity and the achieved super-Heisenberg limit in the noiseless case are asymptotically recoverable when each optical field forms a bound state with its environment. The result provides a guideline for realizing high-precision rotation sensing in realistic noisy environments.
翻訳日:2023-02-27 20:35:20 公開日:2023-01-25
# 混合ウェーブレット積分によるパノラマ用深層畳み込みフレームレットデノージング

Deep Convolutional Framelet Denoising for Panoramic by Mixed Wavelet Integration ( http://arxiv.org/abs/2302.10306v1 )

ライセンス: Link先を確認
Masoud Shahraki Mohammadi, Seyed Javad Seyed Mahdavi Chabok(参考訳) 前処理における品質向上とノイズ除去は,画像処理における最も重要なステップのひとつだ。 X線画像は原子と衝突する光子と散乱ノイズ吸収のばらつきによって生成される。 このノイズは、グラフの医学的品質を低下させ、時には自分自身を再発させ、患者が効果的に投与する度合いを上昇させる。 この領域における最も重要な課題の1つは、画像ノイズの低減である。 BM3dやローパスフィルタ、Autoencoderといった技術がこの一歩を踏み出した。 アルゴリズムの構造と繰り返し率が高いため、様々なアーキテクチャを用いたニューラルネットワークは、従来のbm3dフィルタや低パスフィルタに比べて、過去10年間で許容できる結果でノイズを低減している。 ニューラルネットワークと組み合わせたハンケル行列は、これらの構成の1つである。 ハンケル行列は、非局所行列を用いて個々の値を局所成分と非局所成分に分けて局所円を求める。 非局所行列は波動またはDCTを用いて作成することができる。 本稿では,この波形とドーベチ(d4)波長の組み合わせについて,エネルギー量が多いこと,各段階で波形のみを用いるu-netニューラルネットワーク構造を用いることについて述べる。 結果はPSNRとSSIMの基準を用いて評価され,様々な波を用いて検証された。 他のデータセットによる研究によると、1波ネットワークの有効性は0.5%から1.2%に増加した。

Enhancing quality and removing noise during preprocessing is one of the most critical steps in image processing. X-ray images are created by photons colliding with atoms and the variation in scattered noise absorption. This noise causes the graph's quality of medical to decline and, occasionally, causes it to repeat itself, causing an elevation in the patient's effective dose. One of the most critical challenges in this area has consistently been lowering the image noise. Techniques like BM3d, low-pass filters, and Autoencoder have taken this step. Due to the algorithm's structure and high repetition rate, neural networks using various architectures have reduced noise with acceptable results over the past ten years compared to the traditional BM3D and low-pass filters. The Hankel matrix combined with neural networks is one of these configurations. The Hankel matrix seeks a local circle by splitting up individual values into local and non-local components using a non-local matrix. A non-local matrix can be created using the wave or DCT. This paper proposes combining the waveform with the Daubechies (D4) wavelength because it has more energy and uses the u-Net neural network structure, which uses the waveform alone at each stage. The outcomes were evaluated using the PSNR and SSIM criteria, and the outcomes were verified by using various waves. The effectiveness of a one-wave network has increased from 0.5% to 1.2%, according to studies done on other datasets.
翻訳日:2023-02-26 14:17:55 公開日:2023-01-25
# 高次元データ可視化のための深層神経埋め込み

Deep Generative Neural Embeddings for High Dimensional Data Visualization ( http://arxiv.org/abs/2302.10801v1 )

ライセンス: Link先を確認
Halid Ziya Yerebakan, Gerardo Hermosillo Valadez(参考訳) 本稿では,ニューラルネットワーク埋め込みと生成ネットワークを用いてオリジナルデータを再構成する可視化手法を提案する。 この方法では、非パラメトリック構造を通じて個々の画像埋め込みを独立に操作することができ、従来のオートエンコーダアプローチよりも柔軟性を提供する。 データ可視化における本手法の有効性を評価し, t-SNE法およびVAE法と比較した。 さらに,ImageNetデータセットの可視化により,本手法のスケーラビリティを実証した。 我々の技術は、最適化プロセスに影響を与えることなく、埋め込み位置の独立的な編集を可能にするため、ループ内トレーニングに潜在的に応用できる。

We propose a visualization technique that utilizes neural network embeddings and a generative network to reconstruct original data. This method allows for independent manipulation of individual image embeddings through its non-parametric structure, providing more flexibility than traditional autoencoder approaches. We have evaluated the effectiveness of this technique in data visualization and compared it to t-SNE and VAE methods. Furthermore, we have demonstrated the scalability of our method through visualizations on the ImageNet dataset. Our technique has potential applications in human-in-the-loop training, as it allows for independent editing of embedding locations without affecting the optimization process.
翻訳日:2023-02-26 13:59:14 公開日:2023-01-25
# 説明可能なAIはエンドユーザが求めている説明を提供していない

Explainable AI does not provide the explanations end-users are asking for ( http://arxiv.org/abs/2302.11577v1 )

ライセンス: Link先を確認
Savio Rozario and George \v{C}evora(参考訳) 説明可能な人工知能(XAI)技術は、複雑なモデルや関連する予測を理解し、信頼を得ることを目標に、多くのAIシステムのユーザによって頻繁に要求される。 開発中の特定のタスクに適しているが、機械学習システムの信頼を高めるための組織による採用は意図しない結果をもたらす。 本稿では、XAIのデプロイメントにおける制限について議論し、厳格な検証とともに透明性がAIシステムへの信頼を得るのに適していると結論付ける。

Explainable Artificial Intelligence (XAI) techniques are frequently required by users in many AI systems with the goal of understanding complex models, their associated predictions, and gaining trust. While suitable for some specific tasks during development, their adoption by organisations to enhance trust in machine learning systems has unintended consequences. In this paper we discuss XAI's limitations in deployment and conclude that transparency alongside with rigorous validation are better suited to gaining trust in AI systems.
翻訳日:2023-02-26 13:24:16 公開日:2023-01-25
# ノイズランダム回路の絡み合いダイナミクス

Entanglement Dynamics of Noisy Random Circuits ( http://arxiv.org/abs/2203.16555v2 )

ライセンス: Link先を確認
Zhi Li, Shengqi Sang, Timothy H. Hsieh(参考訳) オープン量子系が環境と共に熱化する過程は、基本的関心事であり、ノイズの多い量子デバイスに関係している。 このプロセスの最小限のモデルとして、局所ランダムユニタリと局所非分極チャネルの下で進化するクディット連鎖を考える。 統計力学モデルにマッピングした後、非偏極(ノイズ)は対称性を破る場として振る舞う。 両分割境界の大きさに比例して, 相互情報, 操作者の絡み合い, 絡み合いの負性など, 様々な両分割絡み合いが増加することを示す。 その結果、これらの絡み合い測度は領域法則に従う: 力学におけるそれらの最大値は体積ではなく境界によって境界づけられる。 対照的に、非分極が系の境界でのみ作用するならば、絡み合い測度の最大値は体積則に従う。 我々はクリフォードゲートを含むスケーラブルなシミュレーションを用いて1次元および2次元のシステムの解析を補完する。

The process by which open quantum systems thermalize with an environment is both of fundamental interest and relevant to noisy quantum devices. As a minimal model of this process, we consider a qudit chain evolving under local random unitaries and local depolarization channels. After mapping to a statistical mechanics model, the depolarization (noise) acts like a symmetry-breaking field, and we argue that it causes the system to thermalize within a timescale independent of system size. We show that various bipartite entanglement measures -- mutual information, operator entanglement, and entanglement negativity -- grow at a speed proportional to the size of the bipartition boundary. As a result, these entanglement measures obey an area law: Their maximal value during the dynamics is bounded by the boundary instead of the volume. In contrast, if the depolarization only acts at the system boundary, then the maximum value of the entanglement measures obeys a volume law. We complement our analysis with scalable simulations involving Clifford gates, for both one- and two-dimensional systems.
翻訳日:2023-02-20 06:57:04 公開日:2023-01-25
# STERling: 両部グラフによる相乗的表現学習

STERLING: Synergistic Representation Learning on Bipartite Graphs ( http://arxiv.org/abs/2302.05428v1 )

ライセンス: Link先を確認
Baoyu Jing, Yuchen Yan, Kaize Ding, Chanyoung Park, Yada Zhu, Huan Liu and Hanghang Tong(参考訳) 二部グラフは2種類のノード間の相互作用をモデル化するための強力なデータ構造であり、その基本的な課題は情報的ノード埋め込みの抽出方法である。 自己監視学習(SSL)はこの課題に対処するための有望なパラダイムです。 最近の2部グラフssl法は、正のノード対と負のノード対を区別することで埋め込みを学習するコントラスト学習に基づいている。 対照的学習は通常、多くの負のノードペアを必要とするため、計算負荷や意味的誤りにつながる可能性がある。 本稿では,負のノード対を使わずにノード埋め込みを学ぶための新しい相乗的表現学習モデル(sterling)を提案する。 STERlingは二部グラフのユニークなシナジーを保存する。 局所的および大域的な相乗効果は、対型および内型正のノード対の類似性を最大化し、それぞれ共クラスタの相互情報を最大化する。 理論的解析により、 STERling は埋め込み空間のシナジーを維持できることを示した。 各種ベンチマークデータセットとタスクに対する広範囲な実験評価は,ノード埋め込み抽出における STERling の有効性を示す。

The bipartite graph is a powerful data structure for modeling interactions between two types of nodes, of which a fundamental challenge is how to extract informative node embeddings. Self-Supervised Learning (SSL) is a promising paradigm to address this challenge. Most recent bipartite graph SSL methods are based on contrastive learning which learns embeddings by discriminating positive and negative node pairs. Contrastive learning usually requires a large number of negative node pairs, which could lead to computational burden and semantic errors. In this paper, we introduce a novel synergistic representation learning model (STERLING) to learn node embeddings without negative node pairs. STERLING preserves the unique synergies in bipartite graphs. The local and global synergies are captured by maximizing the similarity of the inter-type and intra-type positive node pairs, and maximizing the mutual information of co-clusters respectively. Theoretical analysis demonstrates that STERLING could preserve the synergies in the embedding space. Extensive empirical evaluation on various benchmark datasets and tasks demonstrates the effectiveness of STERLING for extracting node embeddings.
翻訳日:2023-02-19 14:17:58 公開日:2023-01-25
# metaverseにおけるai生成コンテンツのためのブロックチェーンによるセキュアなセマンティクスコミュニケーション

Blockchain-aided Secure Semantic Communication for AI-Generated Content in Metaverse ( http://arxiv.org/abs/2301.11289v1 )

ライセンス: Link先を確認
Yijing Lin, Hongyang Du, Dusit Niyato, Jiangtian Nie, Jiayi Zhang, Yanyu Cheng, and Zhaohui Yang(参考訳) 仮想トランスポートネットワークの構築には、Metaverseの物理ドメインと仮想ドメイン間の循環を容易にするために、エッジデバイスから仮想サービスプロバイダ(VSP)に送信する大量のデータが必要である。 情報冗長性を低減するためのセマンティックコミュニケーションを活用することで、VSPはエッジデバイスからセマンティックデータを受信して、AIGC(AI-Generated Content)などの高度な技術を通じて、デジタル世界を探索することができる。 しかし、セマンティック通信を使用することは、攻撃者が類似のセマンティック情報を持つ悪意のあるセマンティックデータを送信し、Metaverseサービスを破壊し、AIGCの間違った出力を発生させるため、セキュリティ上の問題を引き起こす。 そこで本稿では,VSPとエッジデバイス間の物理ドメインと仮想ドメインのインタラクションを容易にするために,仮想トランスポートネットワークにおけるAIGCサービスのためのブロックチェーン支援セマンティック通信フレームワークを提案する。 種々の損失関数による逆意味データを生成するトレーニングベースセマンティックアタック手法について説明する。 また,ブロックチェーンとゼロ知識証明を用いた意味防衛スキームをデザインし,敵と真の意味データの意味的類似性と,意味的データ変換の真正性を確認する。 シミュレーションの結果,提案手法は攻撃方式と比較して,敵のセマンティックデータと真のセマンティックデータのセマンティックな類似性を最大30%低減できることがわかった。

The construction of virtual transportation networks requires massive data to be transmitted from edge devices to Virtual Service Providers (VSP) to facilitate circulations between the physical and virtual domains in Metaverse. Leveraging semantic communication for reducing information redundancy, VSPs can receive semantic data from edge devices to provide varied services through advanced techniques, e.g., AI-Generated Content (AIGC), for users to explore digital worlds. But the use of semantic communication raises a security issue because attackers could send malicious semantic data with similar semantic information but different desired content to break Metaverse services and cause wrong output of AIGC. Therefore, in this paper, we first propose a blockchain-aided semantic communication framework for AIGC services in virtual transportation networks to facilitate interactions of the physical and virtual domains among VSPs and edge devices. We illustrate a training-based targeted semantic attack scheme to generate adversarial semantic data by various loss functions. We also design a semantic defense scheme that uses the blockchain and zero-knowledge proofs to tell the difference between the semantic similarities of adversarial and authentic semantic data and to check the authenticity of semantic data transformations. Simulation results show that the proposed defense method can reduce the semantic similarity of the adversarial semantic data and the authentic ones by up to 30% compared with the attack scheme.
翻訳日:2023-02-19 13:53:27 公開日:2023-01-25
# IoTデバイスを用いた看護施設における位置に基づく行動行動偏差検出

Location-based Activity Behavior Deviation Detection for Nursing Home using IoT Devices ( http://arxiv.org/abs/2301.11272v1 )

ライセンス: Link先を確認
Billy Pik Lik Lau, Zann Koh, Yuren Zhou, Benny Kai Kiat Ng, Chau Yuen, Mui Lang Low(参考訳) IoT(Internet of Things)と広範に普及するコンピューティングアプリケーションの進歩により、高齢化する人口の振る舞いを理解するためのより良い機会を提供する。 しかし、老人ホームの場合、高齢者の単独生活を追跡するための一般的なセンサや技術は適切ではない。 本稿では,シンガポールにおける4階建て養護老人ホームである救世軍,ピースヘイブン看護ホームのための位置追跡システムを設計する。 ここでの課題は、老人ホーム住民の集団活動を特定し、逸脱した活動行動があるかどうかを検出することである。 そこで本研究では,データ融合手法を用いて,位置に基づく逸脱行動検出システムを提案する。 データフュージョンの特徴を計算するために、グループと個人の活動時間を抽出するための適応的手法を適用し、各住民に毎日のハイブリッド規範を生成する。 次に、日々の標準パターンと居住者ごとの日々の入力データとの差を考慮し、逸脱した活動行動検出を行う。 最後に、住民間の逸脱行動は、規則に基づく分類アプローチにより分類される。 人口の44.4%が逸脱した活動行動を持っておらず、37%が逸脱した行動行動に関与しており、18.6%が逸脱した行動行動を持っている。

With the advancement of the Internet of Things(IoT) and pervasive computing applications, it provides a better opportunity to understand the behavior of the aging population. However, in a nursing home scenario, common sensors and techniques used to track an elderly living alone are not suitable. In this paper, we design a location-based tracking system for a four-story nursing home - The Salvation Army, Peacehaven Nursing Home in Singapore. The main challenge here is to identify the group activity among the nursing home's residents and to detect if they have any deviated activity behavior. We propose a location-based deviated activity behavior detection system to detect deviated activity behavior by leveraging data fusion technique. In order to compute the features for data fusion, an adaptive method is applied for extracting the group and individual activity time and generate daily hybrid norm for each of the residents. Next, deviated activity behavior detection is executed by considering the difference between daily norm patterns and daily input data for each resident. Lastly, the deviated activity behavior among the residents are classified using a rule-based classification approach. Through the implementation, there are 44.4% of the residents do not have deviated activity behavior , while 37% residents involved in one deviated activity behavior and 18.6% residents have two or more deviated activity behaviors.
翻訳日:2023-02-19 13:53:03 公開日:2023-01-25
# 新型コロナウイルス接触追跡アプリケーションの使用意図に影響する要因

Factors Influencing Intention to use the COVID-19 Contact Tracing Application ( http://arxiv.org/abs/2301.10770v1 )

ライセンス: Link先を確認
Vinh T. Nguyen and Chuyen T. H. Nguyen(参考訳) 本研究では,covid-19トラッカーの使用意図に影響を与える変数の影響について検討した。 224人の個人による実験結果によると、パフォーマンスの期待、信頼、プライバシはすべて、アプリの使用意図に影響を与えている。 しかし,社会的影響,努力期待,ファシリテーション条件は統計的に有意ではなかった。 この概念モデルは変動量の60.7パーセントを説明しており、ソフトウェア開発者、サービス提供者、および政策立案者は、市民にアプリの使用を奨励するための実行可能な要因として、パフォーマンスの期待、信頼、プライバシを考慮するべきであることを示唆している。

This study investigated the effects of variables influencing the intention to use the COVID-19 tracker. Experiment results from 224 individuals revealed that performance expectations, trust, and privacy all have an impact on app usage intention. However, social impact, effort expectation, and facilitating conditions were not shown to be statistically significant. The conceptual model explained 60.07 percent of the amount of variation, suggesting that software developers, service providers, and policymakers should consider performance expectations, trust, and privacy as viable factors to encourage citizens to use the app
翻訳日:2023-02-19 13:51:58 公開日:2023-01-25
# 包括的食品データベースの構築について

On Creating a Comprehensive Food Database ( http://arxiv.org/abs/2301.10649v1 )

ライセンス: Link先を確認
Lexington Whalen (1), Brie Turner-McGrievy (1), Matthew McGrievy (1), Andrew Hester (1), Homayoun Valafar (1) ((1) University of South Carolina)(参考訳) 摂食障害対策を主目的とする研究は、カロリー摂取を主眼とした食品の栄養素含量の評価に重点を置いている。 これらの研究には2つの主要な障害があります。 1つ目は、各食品のカロリー摂取が既存のデータベースから計算されるという事実に関連している。 第二に、カロリー摂取の科学的意義を、栄養素含有量の単一の尺度として扱う。 既存のデータベースを必要とするため、研究者は食品の包括的セットとそれぞれの栄養素の源を見つけざるを得ない。 この検索だけでは難しい作業であり、もし完了すれば、しばしば有償のAPIサービスが必要になります。 これらのサービスは高価で使い捨てではないため、研究の他の部分を対象とする資金は、修正やコントリビューションができない、扱いにくいデータベースを提供することに限られる。 そこで本研究では,米国食品医薬品局(usda)の食品データベースを新たに導入し,食品雑貨店やファストフード店などにおける食品データベースについて紹介する。 現在、米国内の約18,000のブランドと100のレストランからなる約150万の食品エントリを蓄積しています。 これらの食品はまた、カロリー量から飽和脂肪レベルまで、それらに関連する栄養データが豊富にある。 データはMySQL形式で保存され、5つの主要なテーブルに分散される。 また、利用可能なときにこれらの食品のエントリの画像を取得し、オープンソースリポジトリにデータとプログラムのスクリプトをすべて含んでいます。

Studies with the primary aim of addressing eating disorders focus on assessing the nutrient content of food items with an exclusive focus on caloric intake. There are two primary impediments that can be noted in these studies. The first of these relates to the fact that caloric intake of each food item is calculated from an existing database. The second concerns the scientific significance of caloric intake used as the single measure of nutrient content. By requiring an existing database, researchers are forced to find some source of a comprehensive set of food items as well as their respective nutrients. This search alone is a difficult task, and if completed often leads to the requirement of a paid API service. These services are expensive and non-customizable, taking away funding that could be aimed at other parts of the study only to give an unwieldy database that can not be modified or contributed to. In this work, we introduce a new rendition of the USDA's food database that includes both foods found in grocery stores and those found in restaurants or fast food places. At the moment, we have accumulated roughly 1.5 million food entries consisting of approximately 18,000 brands and 100 restaurants in the United States. These foods also have an abundance of nutrient data associated with them, from the caloric amount to saturated fat levels. The data is stored in MySQL format and is spread among five major tables. We have also procured images for theses foods entries when available, and have included all of our data and program scripts in an open source repository.
翻訳日:2023-02-19 13:51:47 公開日:2023-01-25
# HEAR4Health:コンピュータ・オーディションを現代医療の基盤にするための青写真

HEAR4Health: A blueprint for making computer audition a staple of modern healthcare ( http://arxiv.org/abs/2301.10477v1 )

ライセンス: Link先を確認
Andreas Triantafyllopoulos, Alexander Kathan, Alice Baird, Lukas Christ, Alexander Gebhard, Maurice Gerczuk, Vincent Karas, Tobias H\"ubner, Xin Jing, Shuo Liu, Adria Mallol-Ragolta, Manuel Milling, Sandra Ottl, Anastasia Semertzidou, Srividya Tirunellai Rajamani, Tianhao Yan, Zijiang Yang, Judith Dineley, Shahin Amiriparian, Katrin D. Bartl-Pokorny, Anton Batliner, Florian B. Pokorny, Bj\"orn W. Schuller(参考訳) 近年、デジタル医療の研究が急速に増加し、従来の医療システムを現代的でインテリジェントで多用途の同等品に転換しようとしている。 医療画像の分野では第一に、そして第一に、ウェアラブルやその他のインテリジェントなセンサーの利用において、ai技術を活用するアプリケーション群が誕生した。 対照的に、コンピュータのオーディションは、少なくとも商業的関心の観点からは遅れているように見える。 しかし、オーディションは長年医療従事者にとって必須のアシスタントであり、聴診器は世界中の医師にとって重要なサインだ。 この従来のテクノロジーをAIで変換するには、固有の課題がいくつか必要だ。 我々は、4つの主要な柱で必要とされる進歩を分類する: 聴き、実生活環境における聴覚信号の分析に必要な基礎技術に対応する; 以前には計算とデータ効率に必要とされる進歩; 個々の違いを考慮し、医療データの経年的性質を扱うために注意深い; そして最後に、医療分野に準拠した倫理基準の遵守を確保するために責任を負う。

Recent years have seen a rapid increase in digital medicine research in an attempt to transform traditional healthcare systems to their modern, intelligent, and versatile equivalents that are adequately equipped to tackle contemporary challenges. This has led to a wave of applications that utilise AI technologies; first and foremost in the fields of medical imaging, but also in the use of wearables and other intelligent sensors. In comparison, computer audition can be seen to be lagging behind, at least in terms of commercial interest. Yet, audition has long been a staple assistant for medical practitioners, with the stethoscope being the quintessential sign of doctors around the world. Transforming this traditional technology with the use of AI entails a set of unique challenges. We categorise the advances needed in four key pillars: Hear, corresponding to the cornerstone technologies needed to analyse auditory signals in real-life conditions; Earlier, for the advances needed in computational and data efficiency; Attentively, for accounting to individual differences and handling the longitudinal nature of medical data; and, finally, Responsibly, for ensuring compliance to the ethical standards accorded to the field of medicine.
翻訳日:2023-02-19 13:51:25 公開日:2023-01-25
# 新型コロナウイルス関連健康政策のための逆学習型スタンス分類器

Adversarial Learning-based Stance Classifier for COVID-19-related Health Policies ( http://arxiv.org/abs/2209.04631v3 )

ライセンス: Link先を確認
Feng Xie, Zhong Zhang, Xuechen Zhao, Haiyang Wang, Jiaying Zou, Lei Tian, Bin Zhou, Yusong Tan(参考訳) 新型コロナウイルス(COVID-19)のパンデミックは世界中の人々に不測の損失をもたらしている。 感染拡大を封じ込め、さらに危機を緩和するため、様々な健康政策(在宅勤務命令など)が発行され、ユーザーがソーシャルメディア上で態度を共有するようになったことで議論が激しさを増した。 本稿では、パンデミックに対するスタンス検出(クロスターゲット、ゼロショット設定)のより現実的なシナリオを考察し、新型コロナウイルス関連健康政策に対する公衆の態度を自動的に識別する対人学習に基づくスタンス分類器を提案する。 具体的には、モデルが大量のラベル付きデータをトレーニングし、ソーストピックから伝達可能な知識をキャプチャして、スパースラベル付きデータによる新興健康政策への一般化を可能にする逆学習を採用する。 モデルのより深い理解を深めるために、ポリシー記述を外部の知識としてモデルに組み込む。 一方、GeoEncoderは、各リージョンで指定された観測されていない背景要素をキャプチャし、非テキスト情報として表現することをモデルに推奨するように設計されている。 新型コロナウイルス関連健康政策におけるスタンス検出課題に基づく幅広いベースラインの性能評価を行い, 提案手法は, クロスターゲット, ゼロショットの両設定において, 最先端の性能を達成できることを実験的に示す。

The ongoing COVID-19 pandemic has caused immeasurable losses for people worldwide. To contain the spread of the virus and further alleviate the crisis, various health policies (e.g., stay-at-home orders) have been issued which spark heated discussions as users turn to share their attitudes on social media. In this paper, we consider a more realistic scenario on stance detection (i.e., cross-target and zero-shot settings) for the pandemic and propose an adversarial learning-based stance classifier to automatically identify the public's attitudes toward COVID-19-related health policies. Specifically, we adopt adversarial learning that allows the model to train on a large amount of labeled data and capture transferable knowledge from source topics, so as to enable generalize to the emerging health policies with sparse labeled data. To further enhance the model's deeper understanding, we incorporate policy descriptions as external knowledge into the model. Meanwhile, a GeoEncoder is designed which encourages the model to capture unobserved background factors specified by each region and then represent them as non-text information. We evaluate the performance of a broad range of baselines on the stance detection task for COVID-19-related health policies, and experimental results show that our proposed method achieves state-of-the-art performance in both cross-target and zero-shot settings.
翻訳日:2023-02-19 11:04:06 公開日:2023-01-25
# 制約なしブラックボックスバイナリ最適化のための変分量子アルゴリズム:特徴選択への応用

Variational quantum algorithm for unconstrained black box binary optimization: Application to feature selection ( http://arxiv.org/abs/2205.03045v3 )

ライセンス: Link先を確認
Christa Zoufal and Ryan V. Mishmash and Nitin Sharma and Niraj Kumar and Aashish Sheshadri and Amol Deshmukh and Noelle Ibrahim and Julien Gacon and Stefan Woerner(参考訳) 制約のないブラックボックスバイナリ最適化問題、すなわち目的関数がブラックボックスとして与えられる問題を解くために、変分量子アルゴリズムを導入する。 これは、最適化のための量子アルゴリズムの典型的な設定とは対照的で、古典的目的関数は与えられた二次二分最適化問題として提供され、パウリ作用素の和にマッピングされる。 さらに,量子イマジナリー時間発展の収束保証に基づいて,この手法を理論的に正当化することを提案する。 アルゴリズムの性能とその潜在的な利点を調べるため,実世界の最適化問題である機能選択に挑戦した。 これは、不正検出などの予測モデルを構築するために使用する、関連する機能のサブセットを選択する問題を指す。 最適特徴の選択(ジェネリック損失関数によって定式化される場合)は、古典的ヒューリスティックを構築するための構造をほとんど提供しない。 これは(短期的な)量子アルゴリズムが古典的最先端のアプローチと競合する余地を残している。 量子最適化に基づく特徴選択アルゴリズムであるVarQFSを適用し、20と59の入力特徴(量子ビット)を持つ信用リスクデータセットの予測モデルを構築し、量子ハードウェアとテンソルネットワークに基づく数値シミュレーションを用いてモデルをトレーニングする。 量子法は, 従来の特徴選択技術と比較して, 競争力があり, 性能も向上していることを示す。

We introduce a variational quantum algorithm to solve unconstrained black box binary optimization problems, i.e., problems in which the objective function is given as black box. This is in contrast to the typical setting of quantum algorithms for optimization where a classical objective function is provided as a given Quadratic Unconstrained Binary Optimization problem and mapped to a sum of Pauli operators. Furthermore, we provide theoretical justification for our method based on convergence guarantees of quantum imaginary time evolution. To investigate the performance of our algorithm and its potential advantages, we tackle a challenging real-world optimization problem: feature selection. This refers to the problem of selecting a subset of relevant features to use for constructing a predictive model such as fraud detection. Optimal feature selection -- when formulated in terms of a generic loss function -- offers little structure on which to build classical heuristics, thus resulting primarily in 'greedy methods'. This leaves room for (near-term) quantum algorithms to be competitive to classical state-of-the-art approaches. We apply our quantum-optimization-based feature selection algorithm, termed VarQFS, to build a predictive model for a credit risk data set with 20 and 59 input features (qubits) and train the model using quantum hardware and tensor-network-based numerical simulations, respectively. We show that the quantum method produces competitive and in certain aspects even better performance compared to traditional feature selection techniques used in today's industry.
翻訳日:2023-02-14 03:45:40 公開日:2023-01-25
# Motion ID:人間の認証アプローチ

Motion ID: Human Authentication Approach ( http://arxiv.org/abs/2302.01751v1 )

ライセンス: Link先を確認
Aleksei Gavron, Konstantin Belev, Konstantin Kudelkin, Vladislav Shikhov, Andrey Akushevich, Alexey Fartukov, Vladimir Paramonov, Dmitry Syromolotov, Artem Makoyan(参考訳) 我々は、Motion IDと呼ばれる新しいユーザ認証手法を導入する。 本手法では,慣性測定ユニット(IMU)によって提供される動作センサを用いて,モバイルデバイスが取得したIMUデータの短時間の時系列を通して人物の身元を確認する。 本論文はアンロックイベントを含む2つのラベル付きデータセットを提示する: IMU測定の最初の特徴は、6つの異なるスマートフォンで12週間連続してデータを収集する6人のユーザによって提供される。 2つ目は、1つの特定の動作パターンに対して50時間のIMUデータを含んでいる。 さらに,動作パターンの識別とユーザ検証を利用して,データ前処理と機械学習に基づく2段階のユーザ認証プロセスを提案する。 以上の結果から,既存の生体認証法やandroid生体認証基準と比較し,提案手法の評価について概説した。 この手法は高い精度を示し、既存の手法と組み合わせて有効に使用できることを示した。 さらに,本手法はスタンドアロンソリューションとして有望であることを示す。 学術的なコミュニティにデータセットを提供し、プロジェクトコードを共有します。

We introduce a novel approach to user authentication called Motion ID. The method employs motion sensing provided by inertial measurement units (IMUs), using it to verify the persons identity via short time series of IMU data captured by the mobile device. The paper presents two labeled datasets with unlock events: the first features IMU measurements, provided by six users who continuously collected data on six different smartphones for a period of 12 weeks. The second one contains 50 hours of IMU data for one specific motion pattern, provided by 101 users. Moreover, we present a two-stage user authentication process that employs motion pattern identification and user verification and is based on data preprocessing and machine learning. The Results section details the assessment of the method proposed, comparing it with existing biometric authentication methods and the Android biometric standard. The method has demonstrated high accuracy, indicating that it could be successfully used in combination with existing methods. Furthermore, the method exhibits significant promise as a standalone solution. We provide the datasets to the scholarly community and share our project code.
翻訳日:2023-02-12 13:12:58 公開日:2023-01-25
# 非線形環境バックアクションを持つオープン量子システム:拡張ディシパトン理論とコアシステム階層構成

Open quantum systems with nonlinear environmental backactions: Extended dissipaton theory versus core-system hierarchy construction ( http://arxiv.org/abs/2206.14375v4 )

ライセンス: Link先を確認
Zi-Hao Chen and Yao Wang and Rui-Xue Xu and YiJing Yan(参考訳) 本稿では,二次環境結合を持つ量子散逸理論の包括的説明を行う。 理論の発展には、ブラウン解法モード組み込み階層的量子マスター方程式、拡張ディシパトン運動方程式(DEOM)の定式化を検証するコアシステム階層構造(R. Xu et al., J. Chem. Phys. 148, 114103 (2018)))が含まれる。 また、平衡に関する2次想像時間DEOMや、非平衡熱力学問題に対する(t)-DEOMも開発されている。 祝福されたヤジンスキーの等式とクルックの関係は正確に再現され、拡張されたDEOM理論の厳密性を確認する。 拡張されたDEOMはより数値的に効率的であるが、コアシステム階層の量子マスター方程式は相関した解法力学の「視覚化」に有利である。

In this paper, we present a comprehensive account of quantum dissipation theories with the quadratic environment couplings. The theoretical development includes the Brownian solvation mode embedded hierarchical quantum master equations, a core-system hierarchy construction that verifies the extended dissipaton equation of motion (DEOM) formalism [R. X. Xu et al., J. Chem. Phys. 148, 114103 (2018)]. Developed are also the quadratic imaginary-time DEOM for equilibrium and the {\lambda} (t)-DEOM for nonequilibrium thermodynamics problems. Both the celebrated Jarzynski equality and Crooks relation are accurately reproduced, which in turn confirms the rigorousness of the extended DEOM theories. While the extended DEOM is more numerically efficient, the core-system hierarchy quantum master equation is favorable for ''visualizing'' the correlated solvation dynamics.
翻訳日:2023-02-07 07:43:57 公開日:2023-01-25
# 駆動共振系ネットワークにおける量子状態工学のための遺伝的アルゴリズムによる最適量子制御

Optimal quantum control via genetic algorithms for quantum state engineering in driven-resonator mediated networks ( http://arxiv.org/abs/2206.14681v3 )

ライセンス: Link先を確認
Jonathon Brown, Mauro Paternostro and Alessandro Ferraro(参考訳) 進化的アルゴリズムに基づく量子状態工学に機械学習によるアプローチを採用する。 特に、超伝導プラットフォームに焦点をあて、一般的な単一モード駆動マイクロ波共振器を介して相互作用する、量子ビットのネットワーク(直接結合を持たない人工原子の状態に符号化されている)を考える。 クビット共振器結合は共鳴状態にあり、時間に調整可能であると仮定される。 遺伝的アルゴリズムは、3量子GHZおよびディック状態や4量子グラフ状態を含む、進化した状態と様々なターゲットとの忠実度を最適化する結合の関数的時間依存性を見つけるために用いられる。 我々は、理想的なノイズフリー設定で訓練されているにもかかわらず、高量子忠実度(実効次元96のシステムの最悪の場合0.96以上)と耐雑音性を観察する。 これらの結果から, 遺伝的アルゴリズムは大規模量子系の制御に有効な手法であることが示された。

We employ a machine learning-enabled approach to quantum state engineering based on evolutionary algorithms. In particular, we focus on superconducting platforms and consider a network of qubits -- encoded in the states of artificial atoms with no direct coupling -- interacting via a common single-mode driven microwave resonator. The qubit-resonator couplings are assumed to be in the resonant regime and tunable in time. A genetic algorithm is used in order to find the functional time-dependence of the couplings that optimise the fidelity between the evolved state and a variety of targets, including three-qubit GHZ and Dicke states and four-qubit graph states. We observe high quantum fidelities (above 0.96 in the worst case setting of a system of effective dimension 96) and resilience to noise, despite the algorithm being trained in the ideal noise-free setting. These results show that the genetic algorithms represent an effective approach to control quantum systems of large dimensions.
翻訳日:2023-02-07 07:27:59 公開日:2023-01-25
# BRAIN L:本推薦システム

BRAIN L: A book recommender system ( http://arxiv.org/abs/2302.00653v1 )

ライセンス: Link先を確認
Jessie Caridad Mart\'in Sujo and Elisabet Golobardes i Rib\'e(参考訳) スペインの書籍販売は徐々に減少しており、販売プロセスを可能な限り最適化するために急激な変更が必要である。 本研究では,出版専門の自然言語(brain l)を用いた人工知能における推論基盤(base of reasoning in artificial intelligence)という新しいシステムを提案する。 人工知能(AI)、自然言語処理(NLP)、テクノログ(Tecnolog\'ia del Machine Learning)の新たな知識分野は、書籍レコメンデーションのためのケースベース推論(CBR)技術と組み合わせられている。 意思決定のためのNLP技術でサポートされている類似事例/書籍を検索するモデルを開発した。 加えて、システムは、新しいケースで学習するだけでなく、これらのケースが本物であるような専門家レビューによってモデルを評価するためにポリシーが実行されます。

Book sales in Spain have fallen progressively, which requires urgent changes to optimize the sales process as much as possible. This research proposes a new system, called Base of Reasoning in Artificial Intelligence with Natural Language (BRAIN L) focused exclusively on the publishing industry. The new field of knowledge of Artificial Intelligence (AI), Natural Language Processing (NLP), tecnolog\'ia del Machine Learning is combined with Case-Based Reasoning (CBR) techniques for book recommendations. A model is developed to retrieve similar cases/books supported by NLP techniques for decision making. In addition, policies are implemented to keep the model evaluated by expert reviews, where the system not only learns with new cases, but these cases are real.
翻訳日:2023-02-06 00:09:22 公開日:2023-01-25
# 遅延高調波発振器における軌道量子化

Orbit quantization in a retarded harmonic oscillator ( http://arxiv.org/abs/2301.13608v1 )

ライセンス: Link先を確認
\'Alvaro G. L\'opez(参考訳) 状態依存時間遅延フィードバックを持つ遅延電位の存在下での減衰型高調波発振器のダイナミクスについて検討した。 小さな時間遅れの極限において、発振器はLi\enardシステムと同値であることを示す。 これにより、最初のホップ分岐の値を解析的に予測し、自己振動運動を解き放つことができる。 複数のモデルパラメータ値の分岐図を計算し,多変数領域を詳細に解析する。 リアプノフエネルギー関数を用いて、共存する2つの安定極限サイクルで表される2つのよく解かれたエネルギー準位を識別する。 パラメータ空間のさらなる探索は、基礎エネルギーレベルで2つの縮退した共存極限サイクルを含む重ね合わせ極限サイクルの存在を明らかにする。 システムが平衡から遠く離れていると、内在的でロバストな間欠性を示す多スケールのストレンジアトラクタが発見される。

We study the dynamics of a damped harmonic oscillator in the presence of a retarded potential with state-dependent time-delayed feedback. In the limit of small time-delays, we show that the oscillator is equivalent to a Li\'enard system. This allows us to analytically predict the value of the first Hopf bifurcation, unleashing a self-oscillatory motion. We compute bifurcation diagrams for several model parameter values and analyse multistable domains in detail. Using the Lyapunov energy function, two well-resolved energy levels represented by two coexisting stable limit cycles are discerned. Further exploration of the parameter space reveals the existence of a superposition limit cycle, encompassing two degenerate coexisting limit cycles at the fundamental energy level. When the system is driven very far from equilibrium, a multiscale strange attractor displaying intrinsic and robust intermittency is uncovered.
翻訳日:2023-02-06 00:08:52 公開日:2023-01-25
# 都市空気移動の既存交通システムへの統合をシミュレーションする調査

Simulating the Integration of Urban Air Mobility into Existing Transportation Systems: A Survey ( http://arxiv.org/abs/2301.12901v1 )

ライセンス: Link先を確認
Xuan Jiang, Yuhan Tang, Zhiyi Tang, Junzhe Cao, Vishwanath Bulusu, Cristian Poliziani, Raja Sengupta(参考訳) 都市空気移動(UAM)は、都市部の交通に革命をもたらす可能性があり、渋滞を緩和し、アクセシビリティを向上させる新しい交通手段を提供する。 しかし、既存の交通システムへのUAMの統合は、交通の流れとキャパシティへの影響を十分に理解する必要がある複雑な作業である。 本稿では,大都市交通におけるUAM研究の現状をシミュレーション手法を用いて調査する。 我々は,既存の交通パターンや渋滞,安全分析やリスク評価,潜在的経済的・環境的利益,UAMと地上交通のための共有インフラとルートの開発など,都市交通システムへのUAM統合の鍵となる課題と機会を特定した。 また,移動時間の短縮や未整備地域のアクセシビリティ向上など,uamの潜在的なメリットについても論じる。 本調査は,都市交通におけるUAM研究の現状をシミュレーションで概観し,今後の研究開発の要点を明らかにするものである。

Urban air mobility (UAM) has the potential to revolutionize transportation in metropolitan areas, providing a new mode of transportation that could alleviate congestion and improve accessibility. However, the integration of UAM into existing transportation systems is a complex task that requires a thorough understanding of its impact on traffic flow and capacity. In this paper, we conduct a survey to investigate the current state of research on UAM in metropolitan-scale traffic using simulation techniques. We identify key challenges and opportunities for the integration of UAM into urban transportation systems, including impacts on existing traffic patterns and congestion; safety analysis and risk assessment; potential economic and environmental benefits; and the development of shared infrastructure and routes for UAM and ground-based transportation. We also discuss the potential benefits of UAM, such as reduced travel times and improved accessibility for underserved areas. Our survey provides a comprehensive overview of the current state of research on UAM in metropolitan-scale traffic using simulation and highlights key areas for future research and development.
翻訳日:2023-02-06 00:08:41 公開日:2023-01-25
# Infinite Latent State Replicationsによるトピックモデルの推論の改善

Improving the Inference of Topic Models via Infinite Latent State Replications ( http://arxiv.org/abs/2301.12974v1 )

ライセンス: Link先を確認
Daniel Rugeles and Zhen Hai and Juan Felipe Carmona and Manoranjan Dash and Gao Cong(参考訳) テキストマイニングにおいて、トピックモデルはテキストコーパスから潜在意味トピックを推測するための確率的生成モデルの一種である。 トピックモデルに対する最も一般的な推論アプローチの1つは、おそらく崩壊したgibbsサンプリング(cgs)である。 本稿では,トピックモデルに対するCGSの推論を改善することを目的とする。 そこで本稿では,トピックサンプル数を無限に最大化し,無限潜在状態レプリケーション(ilr)と呼ばれる新しい推論手法を開発し,各文書と単語のペアに対して頑健なソフトトピック割り当てを生成することを提案する。 公開データセットによる実験結果から, ILR は既存のトピックモデルの推定において CGS よりも優れていた。

In text mining, topic models are a type of probabilistic generative models for inferring latent semantic topics from text corpus. One of the most popular inference approaches to topic models is perhaps collapsed Gibbs sampling (CGS), which typically samples one single topic label for each observed document-word pair. In this paper, we aim at improving the inference of CGS for topic models. We propose to leverage state augmentation technique by maximizing the number of topic samples to infinity, and then develop a new inference approach, called infinite latent state replication (ILR), to generate robust soft topic assignment for each given document-word pair. Experimental results on the publicly available datasets show that ILR outperforms CGS for inference of existing established topic models.
翻訳日:2023-02-05 04:27:25 公開日:2023-01-25
# 大規模言語モデルに基づくニューラルセマンティックパーザの解説(学習要約)

Explaining Large Language Model-Based Neural Semantic Parsers (Student Abstract) ( http://arxiv.org/abs/2301.13820v1 )

ライセンス: Link先を確認
Daking Rai (1), Yilun Zhou (2), Bailin Wang (2), Ziyu Yao (1) ((1) George Mason University, (2) Massachusetts Institute of Technology)(参考訳) 大規模言語モデル(LLM)は意味解析などの構造的予測タスクにおいて強力な能力を示してきたが、その成功の基盤となるメカニズムを調査する研究は少ない。 本研究は,llmに基づくセマンティクスパーサを説明するための異なる手法を研究し,モデルの振る舞いを定性的に説明し,それらの理解を深める今後の研究を刺激することを目的としている。

While large language models (LLMs) have demonstrated strong capability in structured prediction tasks such as semantic parsing, few amounts of research have explored the underlying mechanisms of their success. Our work studies different methods for explaining an LLM-based semantic parser and qualitatively discusses the explained model behaviors, hoping to inspire future research toward better understanding them.
翻訳日:2023-02-05 04:18:16 公開日:2023-01-25
# 知っていること:AIシステムへの適切な信頼を阻害する人間の能力の不足

Knowing About Knowing: An Illusion of Human Competence Can Hinder Appropriate Reliance on AI Systems ( http://arxiv.org/abs/2301.11333v1 )

ライセンス: Link先を確認
Gaole He, Lucie Kuiper, Ujwal Gadiraju(参考訳) AIシステムは、人間が適切に頼れるかどうかについて、さまざまなタスクにおいて人間を増強する。 近年の研究では、AIによる意思決定で補完的なチームパフォーマンスを達成する上で、適切な信頼が鍵であることが示されている。 本稿では,Dunning-Kruger Effect (DKE) がAIシステムへの適切な依存を妨げるかどうか,未解明の問題に対処する。 DKEは、能力の低い個人が自身のスキルやパフォーマンスを過大評価しているため、メタ認知バイアスである。 実験的な研究(N = 249)を通じて、AIシステムへの人間依存に対するDKEの影響と、AIアドバイスの誤認を明らかにするチュートリアル介入を用いて、AIアドバイスのユーザ理解を改善するための論理単位に基づく説明を活用することで、そのような効果を緩和できるかどうかを検討した。 その結果、パフォーマンスを過大評価する参加者は、最適なチームパフォーマンスを妨げるAIシステムへの信頼度が低い傾向にあることがわかった。 論理単位に基づく説明は、ユーザーが能力の校正を改善したり、適切な依存を促進するのに役立つものではなかった。 この介入は,過度な自己評価を行う参加者の自己評価を校正し,適切な信頼を促すのに有効であるが,過度な自己評価を行う参加者の適切な信頼を損なう可能性が示唆された。 本研究は,aiシステムへの適切な依存を促進しつつ,ユーザの認知バイアスに対処する手法の設計に広く影響している。 人間のAI意思決定における信頼と信頼の形成における自己評価の役割の理解を深めた。 これは、このコミュニティにおける関連するHCI研究の今後の方向性を示すものである。

The dazzling promises of AI systems to augment humans in various tasks hinge on whether humans can appropriately rely on them. Recent research has shown that appropriate reliance is the key to achieving complementary team performance in AI-assisted decision making. This paper addresses an under-explored problem of whether the Dunning-Kruger Effect (DKE) among people can hinder their appropriate reliance on AI systems. DKE is a metacognitive bias due to which less-competent individuals overestimate their own skill and performance. Through an empirical study (N = 249), we explored the impact of DKE on human reliance on an AI system, and whether such effects can be mitigated using a tutorial intervention that reveals the fallibility of AI advice, and exploiting logic units-based explanations to improve user understanding of AI advice. We found that participants who overestimate their performance tend to exhibit under-reliance on AI systems, which hinders optimal team performance. Logic units-based explanations did not help users in either improving the calibration of their competence or facilitating appropriate reliance. While the tutorial intervention was highly effective in helping users calibrate their self-assessment and facilitating appropriate reliance among participants with overestimated self-assessment, we found that it can potentially hurt the appropriate reliance of participants with underestimated self-assessment. Our work has broad implications on the design of methods to tackle user cognitive biases while facilitating appropriate reliance on AI systems. Our findings advance the current understanding of the role of self-assessment in shaping trust and reliance in human-AI decision making. This lays out promising future directions for relevant HCI research in this community.
翻訳日:2023-01-30 17:45:28 公開日:2023-01-25
# 持続可能な開発目標の自動ラベリング改善のための新しいデータとアンサンブルモデル

Using novel data and ensemble models to improve automated labeling of Sustainable Development Goals ( http://arxiv.org/abs/2301.11353v1 )

ライセンス: Link先を確認
Dirk U. Wulff, Dominik S. Meier, Rui Mata(参考訳) 国連 (UN) 持続可能な開発目標 (SDG) の作業を監視するために、テキストに基づくラベル付けシステムが提案されている。 本稿では,様々なテキストソースを用いたシステムの系統的比較を行い,その特異性(真正レート)と感度(真負レート)に違いがあり,系統的バイアス(例えば,他と比較して特定のSDGに対してより敏感である)があり,解析されたテキストの種類や量に敏感であることを示す。 次に、ラベリングシステムをプールするアンサンブルモデルにより、これらの制限を緩和し、現在利用可能な全システムのラベリング性能を上回ることを示す。 研究者や政策立案者はラベリングシステムの選択に気を配り、自動的な手法に基づいてsdgsにおける作業の絶対的かつ相対的な有意性について結論を出す際にアンサンブル手法を好むべきであると結論づけた。

A number of labeling systems based on text have been proposed to help monitor work on the United Nations (UN) Sustainable Development Goals (SDGs). Here, we present a systematic comparison of systems using a variety of text sources and show that systems differ considerably in their specificity (i.e., true-positive rate) and sensitivity (i.e., true-negative rate), have systematic biases (e.g., are more sensitive to specific SDGs relative to others), and are susceptible to the type and amount of text analyzed. We then show that an ensemble model that pools labeling systems alleviates some of these limitations, exceeding the labeling performance of all currently available systems. We conclude that researchers and policymakers should care about the choice of labeling system and that ensemble methods should be favored when drawing conclusions about the absolute and relative prevalence of work on the SDGs based on automated methods.
翻訳日:2023-01-30 17:35:51 公開日:2023-01-25
# 分散トレーニングによるドメイン認識ディープラーニングモデルの高速化

Accelerating Domain-aware Deep Learning Models with Distributed Training ( http://arxiv.org/abs/2301.11787v1 )

ライセンス: Link先を確認
Aishwarya Sarkar, Chaoqun Lu and Ali Jannesari(参考訳) データ生成技術の最近の進歩は、地理空間データの爆発的な成長をもたらした。 水文学、生態学、輸送学などの領域では、時空間的相互作用の複雑なパターンを深層学習技術の助けを借りて解釈することで、時間が必要となる。 しかし、ドメイン固有の知識を持たないディープラーニング技術を適用すると、準最適予測性能が得られる傾向にある。 第二に、そのようなモデルを大規模データでトレーニングするには、広範な計算資源が必要である。 これらの課題を解消するために,ドメイン固有知識を利用した分散ドメイン対応時空間ネットワークを提案する。 我々のネットワークは、画素寄与ブロック、分散多重チャネル畳み込み(CNN)空間ブロック、繰り返し時間ブロックで構成されている。 提案手法を検証するために,水文学における洪水予知法を選択する。 解析結果から,最大4.1倍の速度アップと最大93.%の予測性能で,流域の排出計測値のピークを効果的に予測できることがわかった。 我々のアプローチは全体の12.6倍のスピードアップを達成し,平均予測性能を16\%向上させた。 アメリカ合衆国北部の23の流域のデータセットについて広範な実験を行い、その結果を報告する。

Recent advances in data-generating techniques led to an explosive growth of geo-spatiotemporal data. In domains such as hydrology, ecology, and transportation, interpreting the complex underlying patterns of spatiotemporal interactions with the help of deep learning techniques hence becomes the need of the hour. However, applying deep learning techniques without domain-specific knowledge tends to provide sub-optimal prediction performance. Secondly, training such models on large-scale data requires extensive computational resources. To eliminate these challenges, we present a novel distributed domain-aware spatiotemporal network that utilizes domain-specific knowledge with improved model performance. Our network consists of a pixel-contribution block, a distributed multiheaded multichannel convolutional (CNN) spatial block, and a recurrent temporal block. We choose flood prediction in hydrology as a use case to test our proposed method. From our analysis, the network effectively predicts high peaks in discharge measurements at watershed outlets with up to 4.1x speedup and increased prediction performance of up to 93\%. Our approach achieved a 12.6x overall speedup and increased the mean prediction performance by 16\%. We perform extensive experiments on a dataset of 23 watersheds in a northern state of the U.S. and present our findings.
翻訳日:2023-01-30 15:10:23 公開日:2023-01-25
# グラフ神経接核:大規模グラフ上の収束

Graph Neural Tangent Kernel: Convergence on Large Graphs ( http://arxiv.org/abs/2301.10808v1 )

ライセンス: Link先を確認
Sanjukta Krishnagopal, Luana Ruiz(参考訳) グラフニューラルネットワーク(gnns)は、グラフ機械学習タスクにおいて顕著な性能を発揮するが、その学習ダイナミクスが十分に理解されていない大規模グラフデータのトレーニングは困難である。 グラフニューラルタンジェントカーネル(GNTK)とグラフトンを用いた大規模グラフGNNのトレーニングダイナミクスについて検討する。 大きな幅の限界において、過度にパラメータ化されたNNの最適化はNTK上のカーネル回帰と等価である。 ここでは、GNTKが別の独立次元としてどのように進化するかを、グラフサイズとして検討する。 我々は、GNN のグラフン NN と GNTK のグラフン NTK を定義し、成長するグラフの列上で、GNTK がグラフン NTK に収束することを証明する。 さらに、GNTKの固有空間は、問題学習方向と関連する学習速度に関連するもので、GNTKのスペクトルに収束することを示す。 これは、大グラフ極限において、中程度の大きさのグラフに装着されたGNTKは、大グラフ上の同じタスクを解き、大グラフ GNN の学習力学を推測することができることを意味する。 これらの結果はノード回帰およびノード分類タスクで実証的に検証される。

Graph neural networks (GNNs) achieve remarkable performance in graph machine learning tasks but can be hard to train on large-graph data, where their learning dynamics are not well understood. We investigate the training dynamics of large-graph GNNs using graph neural tangent kernels (GNTKs) and graphons. In the limit of large width, optimization of an overparametrized NN is equivalent to kernel regression on the NTK. Here, we investigate how the GNTK evolves as another independent dimension is varied: the graph size. We use graphons to define limit objects -- graphon NNs for GNNs, and graphon NTKs for GNTKs, and prove that, on a sequence of growing graphs, the GNTKs converge to the graphon NTK. We further prove that the eigenspaces of the GNTK, which are related to the problem learning directions and associated learning speeds, converge to the spectrum of the GNTK. This implies that in the large-graph limit, the GNTK fitted on a graph of moderate size can be used to solve the same task on the large-graph and infer the learning dynamics of the large-graph GNN. These results are verified empirically on node regression and node classification tasks.
翻訳日:2023-01-27 15:16:27 公開日:2023-01-25
# 確率的分類器の評価:トリプティッチ

Evaluating Probabilistic Classifiers: The Triptych ( http://arxiv.org/abs/2301.10803v1 )

ライセンス: Link先を確認
Timo Dimitriadis, Tilmann Gneiting, Alexander I. Jordan, Peter Vogel(参考訳) 確率的分類器や信頼スコアと呼ばれる二項結果の確率予測は科学や社会においてユビキタスであり、それらを評価・比較する方法は大きな需要がある。 本稿では,予測性能の個別的かつ相補的な側面に着目した診断グラフィックスの提案と検討を行う。信頼性図は校正に対処し,受信者動作特性(roc)曲線は識別能力の診断を行い,マーフィー図は全体的な予測性能と価値を可視化する。 マーフィー曲線は、広く使われている誤分類率を含む予測の平均初等スコアを示し、マーフィー曲線の下の領域は平均ブライアスコアと等しい。 キャリブレーション予測では、信頼性曲線は対角線上にあり、競合するキャリブレーション予測では、ROC曲線とマーフィー曲線は同じ交差点数を共有する。 最近開発された CORP (Consistent, Optimally binned, Reproducible, Pool-Adjacent-Violators) アルゴリズムを用いて信頼性図を作成し,平均スコアを誤校正 (MCB), 識別 (DSC), 不確実 (UNC) コンポーネントに分解する。 識別能力のdsc指標とキャリブレーションメトリックmcbのプロットは、複数の競合相手間での分類器の性能を可視化する。 提案したツールは、天体物理学、経済学、社会科学の実証的な例で説明されている。

Probability forecasts for binary outcomes, often referred to as probabilistic classifiers or confidence scores, are ubiquitous in science and society, and methods for evaluating and comparing them are in great demand. We propose and study a triptych of diagnostic graphics that focus on distinct and complementary aspects of forecast performance: The reliability diagram addresses calibration, the receiver operating characteristic (ROC) curve diagnoses discrimination ability, and the Murphy diagram visualizes overall predictive performance and value. A Murphy curve shows a forecast's mean elementary scores, including the widely used misclassification rate, and the area under a Murphy curve equals the mean Brier score. For a calibrated forecast, the reliability curve lies on the diagonal, and for competing calibrated forecasts, the ROC and Murphy curves share the same number of crossing points. We invoke the recently developed CORP (Consistent, Optimally binned, Reproducible, and Pool-Adjacent-Violators (PAV) algorithm based) approach to craft reliability diagrams and decompose a mean score into miscalibration (MCB), discrimination (DSC), and uncertainty (UNC) components. Plots of the DSC measure of discrimination ability versus the calibration metric MCB visualize classifier performance across multiple competitors. The proposed tools are illustrated in empirical examples from astrophysics, economics, and social science.
翻訳日:2023-01-27 15:16:04 公開日:2023-01-25
# NASCTY:畳み込みニューラルネットワークが生み出すサイドチャネル漏れに対する神経進化

NASCTY: Neuroevolution to Attack Side-channel Leakages Yielding Convolutional Neural Networks ( http://arxiv.org/abs/2301.10802v1 )

ライセンス: Link先を確認
Fiske Schijlen, Lichao Wu, Luca Mariot(参考訳) サイドチャネル解析(SCA)は、デバイスが生成した漏洩を利用して秘密鍵に関する情報を得ることができる。 研究者らは先日、ニューラルネットワーク(NN)が強力なプロファイリングSCAを実行可能であることを発見した。 本稿では,アーキテクチャのハイパーパラメータに遺伝的演算子を適用して,サイドチャネル解析のためのCNNを自動生成する,新しい遺伝的アルゴリズムであるNASCTY-CNNの有効性について検討する。 その結果,マスク保護により非同期リークに対する最先端のアプローチに近い性能が得られることを示し,同様の神経進化法がさらなる研究の場となることを実証した。 最後に、構築されたNN間の共通性は、NASCTYが効果的なアーキテクチャを構築し、適用した対策に対処する方法に関する情報を提供する。

Side-channel analysis (SCA) can obtain information related to the secret key by exploiting leakages produced by the device. Researchers recently found that neural networks (NNs) can execute a powerful profiling SCA, even on targets protected with countermeasures. This paper explores the effectiveness of Neuroevolution to Attack Side-channel Traces Yielding Convolutional Neural Networks (NASCTY-CNNs), a novel genetic algorithm approach that applies genetic operators on architectures' hyperparameters to produce CNNs for side-channel analysis automatically. The results indicate that we can achieve performance close to state-of-the-art approaches on desynchronized leakages with mask protection, demonstrating that similar neuroevolution methods provide a solid venue for further research. Finally, the commonalities among the constructed NNs provide information on how NASCTY builds effective architectures and deals with the applied countermeasures.
翻訳日:2023-01-27 15:15:30 公開日:2023-01-25
# 視覚的質問応答における回答と説明の統一モデルに向けて

Towards a Unified Model for Generating Answers and Explanations in Visual Question Answering ( http://arxiv.org/abs/2301.10799v1 )

ライセンス: Link先を確認
Chenxi Whitehouse, Tillman Weyde, Pranava Madhyastha(参考訳) 視覚的質問応答 (VQA) の説明は研究で注目を集めている。 しかし、既存のシステムのほとんどは、答えの予測と説明のために別々のモデルを使っている。 我々は、QAモデルとは無関係なトレーニング説明モデルにより、説明の根拠が減り、性能が制限されると主張している。 そこで本稿では,Unified Model に対するマルチタスク学習手法を提案し,より基礎的で一貫した Answers and Explanations (UMAE) の生成を提案する。 これを実現するために,トレーニングインスタンスに人工的なプロンプトトークンを追加し,様々なVQAタスク上でマルチモーダルエンコーダデコーダモデルを微調整する。 実験では、UMAEモデルがA-OKVQAのSOTA応答精度を10~15%以上越え、OK-VQAの競合結果を示し、A-OKVQAとVCRの新しいSOTA説明スコアを達成し、VQA-Xのドメイン外性能を示す。

Providing explanations for visual question answering (VQA) has gained much attention in research. However, most existing systems use separate models for predicting answers and providing explanations. We argue that training explanation models independently of the QA model makes the explanations less grounded and limits performance. To address this, we propose a multitask learning approach towards a Unified Model for more grounded and consistent generation of both Answers and Explanations (UMAE). To achieve this, we add artificial prompt tokens to training instances and finetune a multimodal encoder-decoder model on various VQA tasks. In our experiments, UMAE models surpass the prior SOTA answer accuracy on A-OKVQA by 10~15%, show competitive results on OK-VQA, achieve new SOTA explanation scores on A-OKVQA and VCR, and demonstrate promising out-of-domain performance on VQA-X.
翻訳日:2023-01-27 15:15:13 公開日:2023-01-25
# 古典的および量子異常検出による標準モデルを越えての物理学の破滅

Unravelling physics beyond the standard model with classical and quantum anomaly detection ( http://arxiv.org/abs/2301.10787v1 )

ライセンス: Link先を確認
Julian Schuhmacher, Laura Boggia, Vasilis Belis, Ema Puljak, Michele Grossi, Maurizio Pierini, Sofia Vallecorsa, Francesco Tacchino, Panagiotis Barkoutsos, and Ivano Tavernelli(参考訳) 微視的スケールで新しい物理学現象を見つける多くの希望は、大型ハドロン衝突型加速器(lhc)で行ったような高エネルギー物理学実験から得られた観測に依存している。 しかし、現在の実験は、bsm(beyond standard model)理論の発展を導く新しい物理学の明確な兆候を示していない。 LHCで生成される膨大な量のデータから新しい物理のシグネチャを同定することは、異常検出のクラスに該当し、最も大きな計算課題の1つである。 本稿では,ランダムなプロセスによる異常の人工的生成に基づいて,教師付き学習環境で異常検出を行う新しい手法を提案する。 その結果,古典的支援ベクトル分類器 (CSVC) と量子的支援ベクトル分類器 (QSVC) を用いて,SMイベント中の人工的異常を同定した。 さらに有望なことに、人工的な異常を識別するために訓練されたSVCを用いることで、現実的なBSMイベントを高精度に識別することが可能である。 並行して, 分類精度を向上させるための量子アルゴリズムの可能性についても検討し, この新しい計算パラダイムを最大限に活用するために, 妥当な条件を提供する。

Much hope for finding new physics phenomena at microscopic scale relies on the observations obtained from High Energy Physics experiments, like the ones performed at the Large Hadron Collider (LHC). However, current experiments do not indicate clear signs of new physics that could guide the development of additional Beyond Standard Model (BSM) theories. Identifying signatures of new physics out of the enormous amount of data produced at the LHC falls into the class of anomaly detection and constitutes one of the greatest computational challenges. In this article, we propose a novel strategy to perform anomaly detection in a supervised learning setting, based on the artificial creation of anomalies through a random process. For the resulting supervised learning problem, we successfully apply classical and quantum Support Vector Classifiers (CSVC and QSVC respectively) to identify the artificial anomalies among the SM events. Even more promising, we find that employing an SVC trained to identify the artificial anomalies, it is possible to identify realistic BSM events with high accuracy. In parallel, we also explore the potential of quantum algorithms for improving the classification accuracy and provide plausible conditions for the best exploitation of this novel computational paradigm.
翻訳日:2023-01-27 15:14:55 公開日:2023-01-25
# 任意の結晶格子上の多重極群とフラクトン現象

Multipole groups and fracton phenomena on arbitrary crystalline lattices ( http://arxiv.org/abs/2301.10782v1 )

ライセンス: Link先を確認
Daniel Bulmash, Oliver Hart and Rahul Nandkishore(参考訳) マルチポール対称性はフラクトン相の研究から非エルゴード量子力学、新しい流体力学の普遍性クラスの研究まで、複数の文脈で興味深い。 しかし、以前の探査では連続体系や超立方体格子に焦点が当てられていた。 本研究では,任意の結晶格子上の多極対称性を体系的に探究する。 結晶構造(空間群と占領されたワイコフ位置によって特定される)を考えると、体系的にすべての一貫した多重極群を構成することができる。 簡単な2次元結晶構造に着目するが,本手法は汎用的であり,直接的に3次元に拡張する。 全二次元ブラベイ格子およびカゴメ及び呼吸カゴメ結晶構造上の多極子群を分類し、一般結晶格子の手順を説明する。 wyckoff位置を用いて、任意の空間群における可能なすべての多極群を原理的に分類する。 有効な多極群が与えられたとき、有効ハミルトニアンと低エネルギー場理論をどのように構成するかを説明する。 次に、超立方体格子上で得られたある結果を任意の結晶構造に一般化することから始める。 次に、三角形格子上の創発的でロバストなサブシステム対称性と、電荷保存(単極子)を含まない呼吸カゴメ格子上の正確な多極対称性を含む、一見新しい2つの現象を同定する。 これは、任意の格子上の多極対称性の結果を探索することによって、新たな物理学が発見されることを示すものであり、この研究は、その探索の地図を提供し、また非超立方格子に基づく実材料における創発的多極対称性と付随するエキゾチックな現象の探索を導く。

Multipole symmetries are of interest in multiple contexts, from the study of fracton phases, to nonergodic quantum dynamics, to the exploration of new hydrodynamic universality classes. However, prior explorations have focused on continuum systems or hypercubic lattices. In this work, we systematically explore multipole symmetries on arbitrary crystal lattices. We explain how, given a crystal structure (specified by a space group and the occupied Wyckoff positions), one may systematically construct all consistent multipole groups. We focus on two-dimensional crystal structures for simplicity, although our methods are general and extend straightforwardly to three dimensions. We classify the possible multipole groups on all two-dimensional Bravais lattices, and on the kagome and breathing kagome crystal structures to illustrate the procedure on general crystal lattices. Using Wyckoff positions, we provide an in-principle classification of all possible multipole groups in any space group. We explain how, given a valid multipole group, one may construct an effective Hamiltonian and a low-energy field theory. We then explore the physical consequences, beginning by generalizing certain results originally obtained on hypercubic lattices to arbitrary crystal structures. Next, we identify two seemingly novel phenomena, including an emergent, robust subsystem symmetry on the triangular lattice, and an exact multipolar symmetry on the breathing kagome lattice that does not include conservation of charge (monopole), but instead conserves a vector charge. This makes clear that there is new physics to be found by exploring the consequences of multipolar symmetries on arbitrary lattices, and this work provides the map for the exploration thereof, as well as guiding the search for emergent multipolar symmetries and the attendant exotic phenomena in real materials based on nonhypercubic lattices.
翻訳日:2023-01-27 15:14:33 公開日:2023-01-25
# LHCにおける陽子衝突事象の潜時空間における量子異常検出

Quantum anomaly detection in the latent space of proton collision events at the LHC ( http://arxiv.org/abs/2301.10780v1 )

ライセンス: Link先を確認
Kinga Anna Wo\'zniak, Vasilis Belis, Ema Puljak, Panagiotis Barkoutsos, G\"unther Dissertori, Michele Grossi, Maurizio Pierini, Florentin Reiter, Ivano Tavernelli, Sofia Vallecorsa(参考訳) 教師なし量子機械学習アルゴリズムに基づくLHCにおける異常検出のための新しい手法を提案する。 現在の量子ハードウェアの限界によって引き起こされる問題サイズの制約に対応するために、古典的畳み込みオートエンコーダを開発した。 設計した量子異常検出モデル、すなわち教師なしカーネルマシンと2つのクラスタリングアルゴリズムは、オートエンコーダによって生成されたlhcデータの潜在表現において新しい物理現象を見つけるように訓練される。 量子アルゴリズムの性能は、異なるニュー・フィジカルなシナリオにおける古典的コンペティタに対してベンチマークされ、潜在空間の次元とトレーニングデータセットのサイズに依存する。 カーネルに基づく異常検出では、量子モデルがその古典的モデルを大きく上回るレジームを同定する。 カーネルマシンのインスタンスは、利用可能なハードウェアに適合性を検証するために量子コンピュータに実装される。 観測された一貫した性能の利点は、使用する回路の固有量子特性に関係していることを実証する。

We propose a new strategy for anomaly detection at the LHC based on unsupervised quantum machine learning algorithms. To accommodate the constraints on the problem size dictated by the limitations of current quantum hardware we develop a classical convolutional autoencoder. The designed quantum anomaly detection models, namely an unsupervised kernel machine and two clustering algorithms, are trained to find new-physics events in the latent representation of LHC data produced by the autoencoder. The performance of the quantum algorithms is benchmarked against classical counterparts on different new-physics scenarios and its dependence on the dimensionality of the latent space and the size of the training dataset is studied. For kernel-based anomaly detection, we identify a regime where the quantum model significantly outperforms its classical counterpart. An instance of the kernel machine is implemented on a quantum computer to verify its suitability for available hardware. We demonstrate that the observed consistent performance advantage is related to the inherent quantum properties of the circuit used.
翻訳日:2023-01-27 15:14:00 公開日:2023-01-25
# 第三次構造に基づくRNA設計

Generative Tertiary Structure-based RNA Design ( http://arxiv.org/abs/2301.10774v1 )

ライセンス: Link先を確認
Cheng Tan, Zhangyang Gao, Stan Z. Li(参考訳) 人工知能技術を用いた3次元生体高分子からの学習が新興分野である。 タンパク質構造予測の逆として知られる計算タンパク質設計は、定義された構造に折り畳まれるタンパク質配列を生成することを目的としている。 タンパク質設計と類似して、RNA設計は、与えられた構造によってRNA配列を生成することを目的とした合成生物学においても重要なトピックである。 しかし、既存のRNA設計法は主に二次構造に重点を置いており、タンパク質設計で一般的に用いられる情報的第三次構造を無視している。 RNA配列と3D構造との複雑な結合を探索するため,RNAの3D構造から有用な情報を効率的に取得するRNA第三次構造モデリング手法を提案する。 公平な比較のために、豊富なRNAデータを収集し、第三次構造に従ってデータを分割する。 標準データセットでは、RNA第3次構造モデリング手法を用いて構造に基づくタンパク質設計手法を用いてベンチマークを行う。 我々の研究は、第3次構造に基づくRNA設計の今後の発展を刺激し、RNA3D構造と配列のギャップを埋めるであろう。

Learning from 3D biological macromolecules with artificial intelligence technologies has been an emerging area. Computational protein design, known as the inverse of protein structure prediction, aims to generate protein sequences that will fold into the defined structure. Analogous to protein design, RNA design is also an important topic in synthetic biology, which aims to generate RNA sequences by given structures. However, existing RNA design methods mainly focus on the secondary structure, ignoring the informative tertiary structure, which is commonly used in protein design. To explore the complex coupling between RNA sequence and 3D structure, we introduce an RNA tertiary structure modeling method to efficiently capture useful information from the 3D structure of RNA. For a fair comparison, we collect abundant RNA data and split the data according to tertiary structures. With the standard dataset, we conduct a benchmark by employing structure-based protein design approaches with our RNA tertiary structure modeling method. We believe our work will stimulate the future development of tertiary structure-based RNA design and bridge the gap between the RNA 3D structures and sequences.
翻訳日:2023-01-27 15:13:45 公開日:2023-01-25
# 遺伝子SGAN : 多視点弱監視深層クラスタリングによる画像および遺伝子シグネチャを用いた疾患サブタイプ発見法

Gene-SGAN: a method for discovering disease subtypes with imaging and genetic signatures via multi-view weakly-supervised deep clustering ( http://arxiv.org/abs/2301.10772v1 )

ライセンス: Link先を確認
Zhijian Yang, Junhao Wen, Ahmed Abdulkadir, Yuhan Cui, Guray Erus, Elizabeth Mamourian, Randa Melhem, Dhivya Srinivasan, Sindhuja T. Govindarajan, Jiong Chen, Mohamad Habes, Colin L. Masters, Paul Maruff, Jurgen Fripp, Luigi Ferrucci, Marilyn S. Albert, Sterling C. Johnson, John C. Morris, Pamela LaMontagne, Daniel S. Marcus, Tammie L. S. Benzinger, David A. Wolk, Li Shen, Jingxuan Bao, Susan M. Resnick, Haochang Shou, Ilya M. Nasrallah, Christos Davatzikos(参考訳) 疾患の不均一性は、特に神経疾患や神経精神医学疾患において、精密診断と治療にとって重要な課題である。 多くの病気は、MRIや機械学習の手法で捉えられる病気のサブタイプを反映して、個人間で複数の異なる脳の表現型を表示することができる。 しかし、派生したサブタイプが遺伝的要因や感受性因子と関係しない場合、生物学的解釈可能性と治療的妥当性は限定される。 本稿では,多視点,弱教師付き深層クラスタリング手法であるGene-SGANについて述べる。表現型および遺伝的データを共同で検討し,疾患のサブタイプと関連する内因性シグネチャとの遺伝的相関を考慮し,疾患の多様性を識別する。 まず, 半合成実験における遺伝子SGANの一般化可能性, 解釈可能性, 堅牢性を検証した。 次に、高血圧に関連するアルツハイマー病のサブタイプと脳内フェノタイプをMRIおよびSNPデータから抽出し、28,858人の実際のマルチサイトデータセットに適用した。 派生した脳表現型は、神経解剖学的パターン、遺伝子決定因子、生物学的および臨床的バイオマーカーに有意な差を示し、潜在的な神経病理学的過程、遺伝的ドライバ、および感受性因子を示す。 全体的に、遺伝子sganは疾患のサブタイプとエンドフェノタイプの発見に広く適用され、疾患関連、遺伝子駆動の神経画像表現型でテストされている。

Disease heterogeneity has been a critical challenge for precision diagnosis and treatment, especially in neurologic and neuropsychiatric diseases. Many diseases can display multiple distinct brain phenotypes across individuals, potentially reflecting disease subtypes that can be captured using MRI and machine learning methods. However, biological interpretability and treatment relevance are limited if the derived subtypes are not associated with genetic drivers or susceptibility factors. Herein, we describe Gene-SGAN - a multi-view, weakly-supervised deep clustering method - which dissects disease heterogeneity by jointly considering phenotypic and genetic data, thereby conferring genetic correlations to the disease subtypes and associated endophenotypic signatures. We first validate the generalizability, interpretability, and robustness of Gene-SGAN in semi-synthetic experiments. We then demonstrate its application to real multi-site datasets from 28,858 individuals, deriving subtypes of Alzheimer's disease and brain endophenotypes associated with hypertension, from MRI and SNP data. Derived brain phenotypes displayed significant differences in neuroanatomical patterns, genetic determinants, biological and clinical biomarkers, indicating potentially distinct underlying neuropathologic processes, genetic drivers, and susceptibility factors. Overall, Gene-SGAN is broadly applicable to disease subtyping and endophenotype discovery, and is herein tested on disease-related, genetically-driven neuroimaging phenotypes.
翻訳日:2023-01-27 15:13:28 公開日:2023-01-25
# IBM量子コンピュータにおける量子置換パッドによる重ね合わせ状態の量子暗号化

Quantum Encryption of superposition states with Quantum Permutation Pad in IBM Quantum Computers ( http://arxiv.org/abs/2301.10832v1 )

ライセンス: Link先を確認
Maria Perepechaenko and Randy Kuang(参考訳) 重畳状態の暗号化に使用されるKuangとBettenburgの量子置換パッド(QPP)の実装を提案する。 プロジェクトはqiskit development kitを使用して、現在利用可能なibm quantum systemsで実施された。 この研究は、ベース状態の暗号化に使用されるQPPの実装を拡張し、QPPスキームの適用はベース状態の暗号化に限らないことを示した。 この実装では、56の2-qubit Permutation行列のパッドを使用し、QPPアルゴリズムに256ビットのエントロピーを提供した。 猫の画像はこの実験の原文として使われた。 本稿では,対応する重畳状態を生成するために,新しい演算子を適用した。 これらの重ね合わせ状態はQPPを用いて暗号化され、重ね合わせ暗号状態を生成する。 量子チャネルがないため、送信を省略し、同じIBM量子システム上で復号処理を実行した。 量子チャネルが存在する場合、重畳暗号状態は量子ビットとして送信され、異なる量子システム上で直接復号化される。 我々はセキュリティについて簡単な議論をするが、論文は実装に焦点をあてている。 以前は、古典的および量子コンピュータの両方でQPPを動作させており、古典的および量子システム間のセキュリティギャップを埋める興味深い機会を提供している。 この研究は、基底状態と重ね合わせ状態の暗号化に対するQPPの適用性を広げる。

We present an implementation of Kuang and Bettenburg's Quantum Permutation Pad (QPP) used to encrypt superposition states. The project was conducted on currently available IBM quantum systems using the Qiskit development kit. This work extends previously reported implementation of QPP used to encrypt basis states and demonstrates that application of the QPP scheme is not limited to the encryption of basis states. For this implementation, a pad of 56 2-qubit Permutation matrices was used, providing 256 bits of entropy for the QPP algorithm. An image of a cat was used as the plaintext for this experiment. To create corresponding superposition states, we applied a novel operator defined in this paper. These superposition states were then encrypted using QPP, producing superposition ciphertext states. Due to the lack of a quantum channel, we omitted the transmission and executed the decryption procedure on the same IBM quantum system. If a quantum channel existed, the superposition ciphertext states could be transmitted as qubits, and be directly decrypted on a different quantum system. We provide a brief discussion of the security, although the focus of the paper remains on the implementation. Previously we have demonstrated QPP operating in both classical and quantum computers, offering an interesting opportunity to bridge the security gap between classical and quantum systems. This work broadens the applicability of QPP for the encryption of basis states as well as superposition states.
翻訳日:2023-01-27 15:06:35 公開日:2023-01-25
# TranSOP:ストローク処理結果予測のためのトランスフォーマーに基づくマルチモーダル分類

TranSOP: Transformer-based Multimodal Classification for Stroke Treatment Outcome Prediction ( http://arxiv.org/abs/2301.10829v1 )

ライセンス: Link先を確認
Zeynel A. Samak, Philip Clatworthy, Majid Mirmehdi(参考訳) 脳組織への血流の遮断によって引き起こされる急性虚血性脳卒中は、世界中で障害や死亡の原因となっている。 最も最適な虚血性脳卒中治療のための患者の選択は、治療の効果が治療の時間に大きく依存するため、成功するための重要なステップである。 入院時に取得した臨床メタデータと画像情報を利用した分類手法として, 変圧器を用いたマルチモーダルネットワーク(TranSOP)を提案する。 3次元非コントラストct(ncct)の特徴と臨床情報を効率的に結合する融合モジュールを含む。 MRCLEANデータセットの単調データとマルチモーダルデータを用いた比較実験では、最先端のAUCスコアが0.85である。

Acute ischaemic stroke, caused by an interruption in blood flow to brain tissue, is a leading cause of disability and mortality worldwide. The selection of patients for the most optimal ischaemic stroke treatment is a crucial step for a successful outcome, as the effect of treatment highly depends on the time to treatment. We propose a transformer-based multimodal network (TranSOP) for a classification approach that employs clinical metadata and imaging information, acquired on hospital admission, to predict the functional outcome of stroke treatment based on the modified Rankin Scale (mRS). This includes a fusion module to efficiently combine 3D non-contrast computed tomography (NCCT) features and clinical information. In comparative experiments using unimodal and multimodal data on the MRCLEAN dataset, we achieve a state-of-the-art AUC score of 0.85.
翻訳日:2023-01-27 15:06:15 公開日:2023-01-25
# クォークモデルによる量子コンピューティングの実証

Demonstrating quantum computing with the quark model ( http://arxiv.org/abs/2301.10828v1 )

ライセンス: Link先を確認
R. M. Woloshyn(参考訳) 量子力学の問題を解くために量子コンピューティングを用いることは、非相対論的クォークモデルにおいてエネルギーと遷移振幅を計算することによって、ステップバイステップで示される。 量子計算は、チャーモニウムの基底状態と励起状態を決定するために自動微分を用いて実装された変分量子仮想時間発展を用いる。 遷移振幅の計算をハダマール検定を用いて行った。 読み出しとゲートエラーの軽減の例を含む。

The use of quantum computing to solve a problem in quantum mechanics is illustrated, step by step, by calculating energies and transition amplitudes in a nonrelativistic quark model. The quantum computations feature the use of variational quantum imaginary time evolution implemented using automatic differentiation to determine ground and excited states of charmonium. The calculation of transition amplitudes is illustrated utilizing the Hadamard test. Examples of readout and gate error mitigation are included.
翻訳日:2023-01-27 15:05:58 公開日:2023-01-25
# 反射型人工知能

Reflective Artificial Intelligence ( http://arxiv.org/abs/2301.10823v1 )

ライセンス: Link先を確認
Peter R. Lewis and Stefan Sarkadi(参考訳) 人工知能(AI)は、心ができるようなことをするコンピュータを作ることであり、この目標に向かって進むにつれて、人間のタスクを機械に委譲する傾向にある。 しかし、AIシステムは通常、洞察と理解の異常な不均衡でこれらのタスクを行う:新しい、より深い洞察は存在するが、人間の心が以前その活動に持ち込んだであろう重要な品質は、全く欠落している。 したがって、心のどの特徴が複製され、どれが欠落しているか、それが重要なのかを問うことが重要です。 あいまいさ、創発的な知識、そして世界が提示する社会的文脈を扱うとき、人間がタスクにもたらした重要な特徴の1つは、リフレクションである。 しかし、この能力は、現在の主流AIには全く欠落している。 本稿では、リフレクティブAIがどのようなものになるかを尋ねる。 次に、複雑なシステム、認知科学、エージェントにおけるリフレクションの概念を描き、リフレクションaiエージェントのアーキテクチャをスケッチし、今後の方向性を強調する。

Artificial Intelligence (AI) is about making computers that do the sorts of things that minds can do, and as we progress towards this goal, we tend to increasingly delegate human tasks to machines. However, AI systems usually do these tasks with an unusual imbalance of insight and understanding: new, deeper insights are present, yet many important qualities that a human mind would have previously brought to the activity are utterly absent. Therefore, it is crucial to ask which features of minds have we replicated, which are missing, and if that matters. One core feature that humans bring to tasks, when dealing with the ambiguity, emergent knowledge, and social context presented by the world, is reflection. Yet this capability is utterly missing from current mainstream AI. In this paper we ask what reflective AI might look like. Then, drawing on notions of reflection in complex systems, cognitive science, and agents, we sketch an architecture for reflective AI agents, and highlight ways forward.
翻訳日:2023-01-27 15:05:50 公開日:2023-01-25
# RobustPdM: 敵攻撃に対するロバスト予測保守設計

RobustPdM: Designing Robust Predictive Maintenance against Adversarial Attacks ( http://arxiv.org/abs/2301.10822v1 )

ライセンス: Link先を確認
Ayesha Siddique, Ripan Kumar Kundu, Gautam Raj Mode, Khaza Anuarul Hoque(参考訳) 最先端の予測メンテナンス(PdM)技術は、IoT(Internet-of-Things)とディープラーニング(DL)の広範な活用を通じて、メンテナンスコストと複雑なマシンのダウンタイムを削減しつつ、全体的な生産性を向上することに成功した。 残念ながら、IoTセンサーとDLアルゴリズムはどちらもサイバー攻撃を受けやすい。 例えば、DLアルゴリズムは敵の例に対する感受性で知られている。 このような敵対的攻撃はPdMドメインでは明らかに過小評価されている。 これは、分類タスクのコンピュータビジョン領域における逆攻撃は、多変量時系列(mts)回帰タスクのpdmドメインに直接適用できないためである。 本研究では,異なる種類の攻撃の影響を広範囲に解析し,DL対応PdMモデルに対する新たな防御手法を提案することによって,逆方向の堅牢なPdMシステムを設計するエンド・ツー・エンド手法を提案する。 まず、ランダム再起動(PGD_r)攻撃を伴う新しいMSSプロジェクテッドグラディエントDescent(PGD)とMSS PGDを提案する。 MTS PGD と PGD_r と MTS Fast Gradient Sign Method (FGSM) と MTS Basic Iterative Method (BIM) がLong Short-Term Memory (LSTM)、Gated Recurrent Unit (GRU)、Convolutional Neural Network (CNN)、双方向LSTMベースのPdMシステムに与える影響を評価する。 nasaのturbofan engineデータセットを用いた結果,敵の攻撃はrulの予測に深刻な欠陥(最大11倍)を生じさせ,最先端のpdm攻撃の効果を3倍に上回った。 さらに, 敵の攻撃から防御するための新しい近似攻撃訓練法を提案する。 我々は, PdMモデルのロバスト性(最大54倍)を大幅に向上し, 3倍のロバスト性を提供することで, 最先端のPdMディフェンス法より優れることを示した。

The state-of-the-art predictive maintenance (PdM) techniques have shown great success in reducing maintenance costs and downtime of complicated machines while increasing overall productivity through extensive utilization of Internet-of-Things (IoT) and Deep Learning (DL). Unfortunately, IoT sensors and DL algorithms are both prone to cyber-attacks. For instance, DL algorithms are known for their susceptibility to adversarial examples. Such adversarial attacks are vastly under-explored in the PdM domain. This is because the adversarial attacks in the computer vision domain for classification tasks cannot be directly applied to the PdM domain for multivariate time series (MTS) regression tasks. In this work, we propose an end-to-end methodology to design adversarially robust PdM systems by extensively analyzing the effect of different types of adversarial attacks and proposing a novel adversarial defense technique for DL-enabled PdM models. First, we propose novel MTS Projected Gradient Descent (PGD) and MTS PGD with random restarts (PGD_r) attacks. Then, we evaluate the impact of MTS PGD and PGD_r along with MTS Fast Gradient Sign Method (FGSM) and MTS Basic Iterative Method (BIM) on Long Short-Term Memory (LSTM), Gated Recurrent Unit (GRU), Convolutional Neural Network (CNN), and Bi-directional LSTM based PdM system. Our results using NASA's turbofan engine dataset show that adversarial attacks can cause a severe defect (up to 11X) in the RUL prediction, outperforming the effectiveness of the state-of-the-art PdM attacks by 3X. Furthermore, we present a novel approximate adversarial training method to defend against adversarial attacks. We observe that approximate adversarial training can significantly improve the robustness of PdM models (up to 54X) and outperforms the state-of-the-art PdM defense methods by offering 3X more robustness.
翻訳日:2023-01-27 15:05:32 公開日:2023-01-25
# 有限パルスによる2光子励起は量子ドットによって放出される純脱落誘起光子の劣化を解き放つ

Two-photon excitation with finite pulses unlocks pure dephasing-induced degradation of entangled photons emitted by quantum dots ( http://arxiv.org/abs/2301.10820v1 )

ライセンス: Link先を確認
Tim Seidelmann, Thomas K. Bracht, Barbara Ursula Lehner, Christian Schimpf, Michael Cosacchi, Moritz Cygorek, Alexei Vagov, Armando Rastelli, Doris E. Reiter, Vollrath Martin Axt(参考訳) 半導体量子ドットは、特に偏光-絡み合った光子対を生成するためのプラットフォームとして出現している。 しかし,近年,最先端実験で用いられている2光子励起方式は,どの経路情報を導入することで達成可能な絡み合いの程度を制限できることが実証された。 本研究では,2光子励起と長手音響フォノンの強い量子ドットから放出される光子対への影響について検討した。 フォノンは、フォノンによる純粋なデファス化とフォノンによる1光子過程により、さらにエンタングルメントの達成度を減少させ、再励起確率を増大させる。 その結果、励起微細構造分裂が欠如しており、より高い電子状態が到達していない場合でも、コンカレンスによって測定される絡み合いの度合いは、昇温および/またはパルス持続時間とともに減少する。 さらに、有限微細構造分割の場合、フォノンは異なるレーザ偏光に対する共起の差を大きくする。

Semiconductor quantum dots have emerged as an especially promising platform for the generation of polarization-entangled photon pairs. However, it was demonstrated recently that the two-photon excitation scheme employed in state-of-the-art experiments limits the achievable degree of entanglement by introducing which-path information. In this work, the combined impact of two-photon excitation and longitudinal acoustic phonons on photon pairs emitted by strongly-confining quantum dots is investigated. It is found that phonons reduce the achievable degree of entanglement even further due to phonon-induced pure dephasing and phonon-assisted one-photon processes, which increase the re-excitation probability. As a consequence, the degree of entanglement, as measured by the concurrence, decreases with rising temperature and/or pulse duration, even if the excitonic fine-structure splitting is absent and when higher electronic states are out of reach. Furthermore, in the case of finite fine-structure splittings, phonons enlarge the discrepancy in concurrence for different laser polarizations.
翻訳日:2023-01-27 15:04:51 公開日:2023-01-25
# ニューラルオイラー回転方程式によるタンパク質-リガンド結合エネルギー予測

Unsupervised Protein-Ligand Binding Energy Prediction via Neural Euler's Rotation Equation ( http://arxiv.org/abs/2301.10814v1 )

ライセンス: Link先を確認
Wengong Jin, Siranush Sarkizova, Xun Chen, Nir Hacohen, Caroline Uhler(参考訳) タンパク質リガンド結合予測は、AIによる薬物発見の根本的な問題である。 従来の研究は、小さな分子に対する結合親和性データを用いた教師あり学習法に重点を置いていたが、ラベル付きデータのような抗体のような他の薬物クラスにも同様の戦略を適用することは困難である。 本稿では,非教師付きアプローチと結合エネルギー予測を生成的モデリングタスクとして再構成する。 具体的には,se(3)デノイジングスコアマッチングを用いた無標識タンパク質リガンド複合体の組上でエネルギーベースモデルを訓練し,そのログ類似性を結合親和性として解釈する。 我々の重要な貢献は、SE(3)スコアマッチングのためのニューラルオイラーの回転方程式(NERE)と呼ばれる新しい同変回転予測ネットワークである。 タンパク質とリガンド原子の間の力とトルクをモデル化することで回転を予測し、原子座標に対するエネルギー関数の勾配として定義される。 タンパク質-リガンドおよび抗体-抗原結合親和性予測ベンチマークにおけるNEREの評価を行った。 本モデルでは, 教師なしベースライン(物理ベースおよび統計的ポテンシャル)を全て上回り, 抗体症例における教師付き学習法と一致した。

Protein-ligand binding prediction is a fundamental problem in AI-driven drug discovery. Prior work focused on supervised learning methods using a large set of binding affinity data for small molecules, but it is hard to apply the same strategy to other drug classes like antibodies as labelled data is limited. In this paper, we explore unsupervised approaches and reformulate binding energy prediction as a generative modeling task. Specifically, we train an energy-based model on a set of unlabelled protein-ligand complexes using SE(3) denoising score matching and interpret its log-likelihood as binding affinity. Our key contribution is a new equivariant rotation prediction network called Neural Euler's Rotation Equations (NERE) for SE(3) score matching. It predicts a rotation by modeling the force and torque between protein and ligand atoms, where the force is defined as the gradient of an energy function with respect to atom coordinates. We evaluate NERE on protein-ligand and antibody-antigen binding affinity prediction benchmarks. Our model outperforms all unsupervised baselines (physics-based and statistical potentials) and matches supervised learning methods in the antibody case.
翻訳日:2023-01-27 15:04:30 公開日:2023-01-25
# 学習保証を伴う重み付け投票による正確性妥協の公平性向上

Increasing Fairness in Compromise on Accuracy via Weighted Vote with Learning Guarantees ( http://arxiv.org/abs/2301.10813v1 )

ライセンス: Link先を確認
Yijun Bian, Kun Zhang(参考訳) 偏りの問題は、広く応用された機械学習システムにおいてますます深刻に受け止められているため、精度の低下は、公平性を高める際に研究者を深く妨げている。 そこで本研究では,二分分類と多クラス分類の両方に適合する重み付け投票による公平性評価の新たな分析法を提案する。 この分析は、メンバーをアンサンブルすることでバイアス付き予測を補正し、効率的な最小化が可能な学習境界を提供する。 さらに,本解析と支配とパレートの最適性の概念に基づく刈り取り手法を提案する。 実験の結果,提案する学習境界は忠実であり,提案手法は精度を損なうことなくアンサンブルフェア性を高めることができることがわかった。

As the bias issue is being taken more and more seriously in widely applied machine learning systems, the decrease in accuracy in most cases deeply disturbs researchers when increasing fairness. To address this problem, we present a novel analysis of the expected fairness quality via weighted vote, suitable for both binary and multi-class classification. The analysis takes the correction of biased predictions by ensemble members into account and provides learning bounds that are amenable to efficient minimisation. We further propose a pruning method based on this analysis and the concepts of domination and Pareto optimality, which is able to increase fairness under a prerequisite of little or even no accuracy decline. The experimental results indicate that the proposed learning bounds are faithful and that the proposed pruning method can indeed increase ensemble fairness without much accuracy degradation.
翻訳日:2023-01-27 15:04:12 公開日:2023-01-25
# 構造予測のための分離損失の不整合について

On the inconsistency of separable losses for structured prediction ( http://arxiv.org/abs/2301.10810v1 )

ライセンス: Link先を確認
Caio Corro(参考訳) 本稿では,構造化予測のための分離可能な負のログ類似損失が必ずしもベイズ一貫性を持つとは限らないこと,あるいは,言い換えれば,これらの損失を最小化しても,与えられた入力に対するデータ分布の最も可能性の高い構造を予測できるモデルにはならないことを実証する。 この事実は、これらの損失が構造化予測に適合しているかどうか、もしそうならなぜかという疑問を提起する。

In this paper, we prove that separable negative log-likelihood losses for structured prediction are not necessarily Bayes consistent, or, in other words, minimizing these losses may not result in a model that predicts the most probable structure in the data distribution for a given input. This fact opens the question of whether these losses are well-adapted for structured prediction and, if so, why.
翻訳日:2023-01-27 15:03:56 公開日:2023-01-25
# 窒化ケイ素中固有の単光子エミッタの低温光物理

Photophysics of Intrinsic Single-Photon Emitters in Silicon Nitride at Low Temperatures ( http://arxiv.org/abs/2301.10809v1 )

ライセンス: Link先を確認
Zachariah O. Martin, Alexander Senichev, Samuel Peana, Benjamin J. Lawrie, Alexei S. Lagutchev, Alexandra Boltasseva, and Vladimir M. Shalaev(参考訳) 窒化ケイ素に内在する単光子エミッタを作製するためのロバストなプロセスが最近確立されている。 これらのエミッタは、技術的に成熟した窒化ケイ素フォトニクスプラットフォームとの室温操作とモノリシックな統合により量子応用に有望である。 ここでは、これらのエミッタの基本的な光物性を4.2Kから300Kまでの温度関数として、光遷移波長、線幅、光子アンチバンチングの測定によって調査する。 寿命制限線幅のポテンシャルに関する重要な知見は、ゼロフォノン線の不均一および温度依存性の均質化の測定を通じて提供される。 4.2kではスペクトル拡散が主な広化機構であることが判明し、時間分解分光法では周波数制限された線幅を持つゼロフォノン線が均一に拡がった。

A robust process for fabricating intrinsic single-photon emitters in silicon nitride has been recently established. These emitters show promise for quantum applications due to room-temperature operation and monolithic integration with the technologically mature silicon nitride photonics platform. Here, the fundamental photophysical properties of these emitters are probed through measurements of optical transition wavelengths, linewidths, and photon antibunching as a function of temperature from 4.2K to 300K. Important insight into the potential for lifetime-limited linewidths is provided through measurements of inhomogeneous and temperature-dependent homogeneous broadening of the zero-phonon lines. At 4.2K, spectral diffusion was found to be the main broadening mechanism, while time-resolved spectroscopy measurements revealed homogeneously broadened zero-phonon lines with instrument-limited linewidths.
翻訳日:2023-01-27 15:03:47 公開日:2023-01-25
# チップを用いた実験装置における$^{87}$rb原子とyb$^{+}$イオンのハイブリッドトラップ

Hybrid Trapping of $^{87}$Rb Atoms and Yb$^{+}$ Ions in a Chip-Based Experimental Setup ( http://arxiv.org/abs/2301.10864v1 )

ライセンス: Link先を確認
Abasalt Bahrami and Matthias M\"uller and Ferdinand Schmidt-Kaler(参考訳) レーザーで冷却されたイオンと超低温の量子ガスを単一実験で結合したハイブリッド量子システムは、量子化学、ポーラロン物理学、量子情報処理、量子シミュレーションなど、急速に進歩した研究分野を開拓した。 そこで本研究では, イオントラップの下に平らなチップトラップを配置できる, 完全でテスト可能なイオントラップチップを提案する。 この設計は、ハイブリッドトラップに特有の困難を実質的に対処し、原子トラップの深さとイオンの閉じ込めと位置を独立に調整できるよく整ったチップを特徴としている。 イオントラップはYb$^{+}$の線形イオン結晶で試験され、中性$^{87}$Rbもイオントラップ領域下で数ミリメートルのmMOTにロードされた。

Hybrid quantum systems that unite laser-cooled trapped ions and ultracold quantum gases in a single experimental setup have opened a rapidly advancing field of study, including Quantum chemistry, polaron physics, quantum information processing and quantum simulations. We present a fully developed and tested ion trap chip and propose a flat chip trap that can be placed beneath the ion trap. This design substantially addresses the difficulties specific to hybrid traps and features well-aligned chips that allow for independent adjustment of the depth of the atomic trap and the confinement and positioning of ions. The ion trap has been successfully tested with linear ion crystals of Yb$^{+}$ and neutral $^{87}$Rb were also loaded into a mMOT a few millimeters under the ion trapping region.
翻訳日:2023-01-27 14:58:12 公開日:2023-01-25
# 自己教師付き仮想現実を用いた胸腔鏡像の形状再構成

Shape Reconstruction from Thoracoscopic Images using Self-supervised Virtual Learning ( http://arxiv.org/abs/2301.10863v1 )

ライセンス: Link先を確認
Tomoki Oya, Megumi Nakao, Tetsuya Matsuda(参考訳) 内視鏡的カメラ画像からの臓器の術中形状再構成は,画像誘導手術において複雑だが不可欠である。 単一視点の隠蔽画像から全体形状を再構成する不確実性を解決するために,シミュレーション画像と実画像間の共通潜時変数を用いた画像変換を用いた形状再構成の仮想学習フレームワークを提案する。 内視鏡画像と臓器形状の関係を学習するための十分なデータの準備が困難であるため、統計形状モデルから生成されたシミュレーション画像を用いて自己教師あり学習を行う。 しかし、仮想画像と実画像の小さな差は、シミュレーション画像が人間に等価であるとみなされても、推定性能を低下させることができる。 この問題に対処するために、変分オートエンコーダを使用して、実画像とシミュレーション画像を同一の合成画像に変換する。 本研究では,胸腔鏡画像から崩壊肺の形状復元を目標とし,仮想学習が実際の画像とシミュレーション画像の類似性を改善することを確認した。 さらに形状復元誤差は16.9%向上した。

Intraoperative shape reconstruction of organs from endoscopic camera images is a complex yet indispensable technique for image-guided surgery. To address the uncertainty in reconstructing entire shapes from single-viewpoint occluded images, we propose a framework for generative virtual learning of shape reconstruction using image translation with common latent variables between simulated and real images. As it is difficult to prepare sufficient amount of data to learn the relationship between endoscopic images and organ shapes, self-supervised virtual learning is performed using simulated images generated from statistical shape models. However, small differences between virtual and real images can degrade the estimation performance even if the simulated images are regarded as equivalent by humans. To address this issue, a Variational Autoencoder is used to convert real and simulated images into identical synthetic images. In this study, we targeted the shape reconstruction of collapsed lungs from thoracoscopic images and confirmed that virtual learning could improve the similarity between real and simulated images. Furthermore, shape reconstruction error could be improved by 16.9%.
翻訳日:2023-01-27 14:57:58 公開日:2023-01-25
# モノトーン勾配ネットワークを用いた凸関数の勾配学習

Learning Gradients of Convex Functions with Monotone Gradient Networks ( http://arxiv.org/abs/2301.10862v1 )

ライセンス: Link先を確認
Shreyas Chaudhari, Srinivasa Pranav, Jos\'e M. F. Moura(参考訳) 信号処理問題の効率的な凸定式化の導出と研究に多くの努力が注がれているが、凸関数の勾配は勾配に基づく最適化から最適輸送まで重要な応用も持っている。 近年、凸目標学習のためのデータ駆動手法が研究されているが、そのモノトーン勾配の学習はほとんど研究されていない。 本研究では, コンベックス関数の勾配を直接学習する2つのモノトーン勾配ニューラルネットワークアーキテクチャであるCascadedおよびModular Monotone Gradient Networks(C-MGNおよびM-MGN)を提案する。 我々のネットワークはトレーニングが簡単で、モノトーン勾配場をより正確に学習し、最先端の手法よりもはるかに少ないパラメータを使用することを示す。 さらに、運転画像データを増やすために最適な輸送マッピングを学習する能力を示す。

While much effort has been devoted to deriving and studying effective convex formulations of signal processing problems, the gradients of convex functions also have critical applications ranging from gradient-based optimization to optimal transport. Recent works have explored data-driven methods for learning convex objectives, but learning their monotone gradients is seldom studied. In this work, we propose Cascaded and Modular Monotone Gradient Networks (C-MGN and M-MGN respectively), two monotone gradient neural network architectures for directly learning the gradients of convex functions. We show that our networks are simpler to train, learn monotone gradient fields more accurately, and use significantly fewer parameters than state of the art methods. We further demonstrate their ability to learn optimal transport mappings to augment driving image data.
翻訳日:2023-01-27 14:57:42 公開日:2023-01-25
# salesforce causalaiライブラリ:時系列と表データの因果分析のための高速でスケーラブルなフレームワーク

Salesforce CausalAI Library: A Fast and Scalable Framework for Causal Analysis of Time Series and Tabular Data ( http://arxiv.org/abs/2301.10859v1 )

ライセンス: Link先を確認
Devansh Arpit, Matthew Fernandez, Chenghao Liu, Weiran Yao, Wenzhuo Yang, Paul Josel, Shelby Heinecke, Eric Hu, Huan Wang, Stephen Hoi, Caiming Xiong, Kun Zhang, Juan Carlos Niebles(参考訳) 観測データを用いた因果解析のためのオープンソースライブラリであるSalesforce CausalAI Libraryを紹介した。 離散型と連続型の両方の表データと時系列データの因果的発見と因果推論をサポートする。 このライブラリは、変数間の線形および非線形因果関係を扱うアルゴリズムを含み、スピードアップにマルチプロセッシングを使用する。 また、上記のデータ形式と型の両方に対して、所定の構造方程式モデルで合成データを生成することができるデータ生成装置も備えており、様々なアルゴリズムを調査しながら、ユーザーが地中構造因果過程を制御するのに役立つ。 最後に、コーディングせずにデータに対して因果分析を行うことができるユーザインタフェース(ui)を提供する。 このライブラリの目標は、因果関係の領域における様々な問題に対して、迅速かつ柔軟なソリューションを提供することである。 このテクニカルレポートでは、Salesforce CausalAI APIとその機能、サポート対象のアルゴリズムの実装、パフォーマンスとスピードを示す実験について説明している。 私たちのライブラリは \url{https://github.com/salesforce/causalai} で利用可能です。

We introduce the Salesforce CausalAI Library, an open-source library for causal analysis using observational data. It supports causal discovery and causal inference for tabular and time series data, of both discrete and continuous types. This library includes algorithms that handle linear and non-linear causal relationships between variables, and uses multi-processing for speed-up. We also include a data generator capable of generating synthetic data with specified structural equation model for both the aforementioned data formats and types, that helps users control the ground-truth causal process while investigating various algorithms. Finally, we provide a user interface (UI) that allows users to perform causal analysis on data without coding. The goal of this library is to provide a fast and flexible solution for a variety of problems in the domain of causality. This technical report describes the Salesforce CausalAI API along with its capabilities, the implementations of the supported algorithms, and experiments demonstrating their performance and speed. Our library is available at \url{https://github.com/salesforce/causalai}.
翻訳日:2023-01-27 14:57:26 公開日:2023-01-25
# グラフ帯域制限によるグラフ生成の改善

Improving Graph Generation by Restricting Graph Bandwidth ( http://arxiv.org/abs/2301.10857v1 )

ライセンス: Link先を確認
Nathaniel Diamant, Alex M. Tseng, Kangway V. Chuang, Tommaso Biancalani, Gabriele Scalia(参考訳) ディープグラフ生成モデリングは、実世界のグラフを特徴付ける複雑なマルチスケール構造の分布を学習できることが証明されている。 しかし、既存の手法の主な限界の1つは、生成のスケーラビリティを制限し、基礎となる分布の正確なモデリングを妨げる大きな出力空間である。 これらの制約を克服するために,既存のグラフ生成モデルの出力空間を大幅に削減する新しい手法を提案する。 具体的には、多くの実世界のグラフが低いグラフ帯域を持つという観察から始め、トレーニングと生成の間にグラフ帯域を制限する。 私たちの戦略は、アーキテクチャの複雑さを増大させることなく、スケーラビリティと品質の両方を改善します。 提案手法は既存のグラフ生成手法と互換性があり,自動回帰モデルとワンショットモデルの両方への応用について述べる。 分子グラフを含む合成および実データに対する我々の戦略を幅広く検証する。 提案手法は, 生成効率の向上に加えて, 生成品質と復元精度を常に向上することを示す。 実装は利用可能である。

Deep graph generative modeling has proven capable of learning the distribution of complex, multi-scale structures characterizing real-world graphs. However, one of the main limitations of existing methods is their large output space, which limits generation scalability and hinders accurate modeling of the underlying distribution. To overcome these limitations, we propose a novel approach that significantly reduces the output space of existing graph generative models. Specifically, starting from the observation that many real-world graphs have low graph bandwidth, we restrict graph bandwidth during training and generation. Our strategy improves both generation scalability and quality without increasing architectural complexity or reducing expressiveness. Our approach is compatible with existing graph generative methods, and we describe its application to both autoregressive and one-shot models. We extensively validate our strategy on synthetic and real datasets, including molecular graphs. Our experiments show that, in addition to improving generation efficiency, our approach consistently improves generation quality and reconstruction accuracy. The implementation is made available.
翻訳日:2023-01-27 14:57:08 公開日:2023-01-25
# 部分移動:ロシアメディアアウトレットとテレグラム間の多言語情報フローの追跡

Partial Mobilization: Tracking Multilingual Information Flows Amongst Russian Media Outlets and Telegram ( http://arxiv.org/abs/2301.10856v1 )

ライセンス: Link先を確認
Hans W. A. Hanley and Zakir Durumeric(参考訳) ロシアによるウクライナ侵攻後のロシアのオンラインメディアからの偽情報やプロパガンダを受け、ロシア・トゥデイやスプートニク・ニュースなどのロシアのメディアはヨーロッパ全土で禁止された。 これらのロシアのメディアの多くは、聴衆にリーチするために、Telegramのようなメッセージングサービスでコンテンツを強く宣伝し始めた。 本研究では,この現象を理解するために,ロシアメディア16社が2022年を通して732のテレグラムチャンネルとどのように相互作用し,利用してきたかを検討した。 これを実現するために,基礎モデルMPNetの多言語バージョンを用いて,記事やTelegramメッセージを共有埋め込み空間に埋め込んで,コンテンツを意味的に比較する。 DP-Meansクラスタリングの並列化バージョンを利用して,Hawkes Processesを用いた段落レベルのトピック/ナラティブ抽出と時系列解析を行う。 このアプローチにより、我々のウェブサイト全体で、Telegram上での活動から生まれたコンテンツのうち、2.3%(ura.news)から26.7%(ukraina.ru)のコンテンツが発見される。 最後に、個々の物語の拡散を追跡し、これらのウェブサイトとチャンネルがロシアのメディアエコシステム内でコンテンツを広める割合を測定する。

In response to disinformation and propaganda from Russian online media following the Russian invasion of Ukraine, Russian outlets including Russia Today and Sputnik News were banned throughout Europe. Many of these Russian outlets, in order to reach their audiences, began to heavily promote their content on messaging services like Telegram. In this work, to understand this phenomenon, we study how 16 Russian media outlets have interacted with and utilized 732 Telegram channels throughout 2022. To do this, we utilize a multilingual version of the foundational model MPNet to embed articles and Telegram messages in a shared embedding space and semantically compare content. Leveraging a parallelized version of DP-Means clustering, we perform paragraph-level topic/narrative extraction and time-series analysis with Hawkes Processes. With this approach, across our websites, we find between 2.3% (ura.news) and 26.7% (ukraina.ru) of their content originated/resulted from activity on Telegram. Finally, tracking the spread of individual narratives, we measure the rate at which these websites and channels disseminate content within the Russian media ecosystem.
翻訳日:2023-01-27 14:56:53 公開日:2023-01-25
# トランスセプションによる医用画像セグメンテーションの強化:マルチスケール特徴融合アプローチ

Enhancing Medical Image Segmentation with TransCeption: A Multi-Scale Feature Fusion Approach ( http://arxiv.org/abs/2301.10847v1 )

ライセンス: Link先を確認
Reza Azad, Yiwei Jia, Ehsan Khodapanah Aghdam, Julien Cohen-Adad, Dorit Merhof(参考訳) cnnベースの手法は、その有望な性能と堅牢性のため、医療画像のセグメンテーションの基盤となっているが、長距離依存性を捉える上での制限に苦しめられている。 グローバルコンテキスト相関をモデル化するために受信フィールドを拡大するため、トランスフォーマティブベースのアプローチが現在普及している。 さらにリッチな表現を抽出するために、U-Netのいくつかの拡張ではマルチスケールの特徴抽出と融合モジュールを採用し、性能の向上を実現している。 この考え方に触発されて,エンコーダにインセプションのようなモジュールを組み込んで,より優れた機能融合を実現するためのコンテクストブリッジを導入することで特徴付けられる,純粋なトランスフォーマベースのu字型ネットワークである医用画像セグメンテーションのためのトランスセプションを提案する。 本研究で提案する設計は,(1)エンコーダのパッチマージモジュールをresinception patch merge (ripm) で再設計する,という3つの基本原則に基づいている。 マルチブランチ変換器(MB変換器)は、RIPMの出力と同じ数の分岐を採用する。 2つのモジュールを組み合わせることで、モデルは単一のステージ内でマルチスケールの表現をキャプチャできる。 2) MB変換器の後継となるIFFモジュールを構築し,すべての枝からの特徴マップを集約し,特にすべてのスケールの異なるチャネル間の相互作用に着目した。 3) トークン方向の自己着脱のみを含む橋とは対照的に, 2つの視点から異なる段階におけるスケール間の相関を利用するために, チャネル方向の自己着脱を含む2重変圧器橋を提案する。 複数臓器および皮膚病変のセグメンテーションタスクにおける広範囲な実験により, トランスセプションの性能は従来よりも優れていた。 コードは \url{https://github.com/mindflow-institue/TransCeption} で公開されている。

While CNN-based methods have been the cornerstone of medical image segmentation due to their promising performance and robustness, they suffer from limitations in capturing long-range dependencies. Transformer-based approaches are currently prevailing since they enlarge the reception field to model global contextual correlation. To further extract rich representations, some extensions of the U-Net employ multi-scale feature extraction and fusion modules and obtain improved performance. Inspired by this idea, we propose TransCeption for medical image segmentation, a pure transformer-based U-shape network featured by incorporating the inception-like module into the encoder and adopting a contextual bridge for better feature fusion. The design proposed in this work is based on three core principles: (1) The patch merging module in the encoder is redesigned with ResInception Patch Merging (RIPM). Multi-branch transformer (MB transformer) adopts the same number of branches as the outputs of RIPM. Combining the two modules enables the model to capture a multi-scale representation within a single stage. (2) We construct an Intra-stage Feature Fusion (IFF) module following the MB transformer to enhance the aggregation of feature maps from all the branches and particularly focus on the interaction between the different channels of all the scales. (3) In contrast to a bridge that only contains token-wise self-attention, we propose a Dual Transformer Bridge that also includes channel-wise self-attention to exploit correlations between scales at different stages from a dual perspective. Extensive experiments on multi-organ and skin lesion segmentation tasks present the superior performance of TransCeption compared to previous work. The code is publicly available at \url{https://github.com/mindflow-institue/TransCeption}.
翻訳日:2023-01-27 14:56:29 公開日:2023-01-25
# ロボット組立および他の試行錯誤課題における最適意思決定

Optimal decision making in robotic assembly and other trial-and-error tasks ( http://arxiv.org/abs/2301.10846v1 )

ライセンス: Link先を確認
James Watson, Nikolaus Correll(参考訳) 知覚、動作、環境の不確実性は、しばしばロボットタスクが成功するために複数の試みを必要とする。 本研究では,(1)終末成功/失敗の低エントロピー指標と(2)信頼できない(高エントロピー)データを提供する問題のクラスについて検討し,課題の最終結果を予測する。 例えば、充電ステーションと接続しようとするロボット、並列駐車、あるいはしっかりとフィットした部品の組み立てなどだ。 失敗を早期に予測した後に再起動する能力と、単に失敗に走る能力は、スパン、すなわち完了までの総時間を著しく減少させ、他の方法で成功した操作をショートカットする可能性の欠点を負う。 タスク実行時間をポアソン分布と仮定し、マルコフジャンププロセスを用いて基礎となるマルコフ決定過程のダイナミクスを捉えると、故障予測器の混乱行列に基づいてフェイスパンを予測する閉形式解が導出される。 これにより、ロボットはプロダクション環境で障害予測を学習し、実際に時間を節約したときのみプリエンプティブポリシーを採用することができる。 実際のロボットシステムを用いたpeg-in-holeアセンブリ問題を用いて,このアプローチを実証する。 破壊は、力トルクデータに基づく拡張畳み込みネットワークによって予測され、平均メイスパンが101sから81sに減少する(N=120, p<0.05)。 提案アルゴリズムは、ロボットが野生での動作を学習し、改善する方法を幅広く応用し、明確な端末報酬でロボットの動作を一般化するものであると仮定する。

Uncertainty in perception, actuation, and the environment often require multiple attempts for a robotic task to be successful. We study a class of problems providing (1) low-entropy indicators of terminal success / failure, and (2) unreliable (high-entropy) data to predict the final outcome of an ongoing task. Examples include a robot trying to connect with a charging station, parallel parking, or assembling a tightly-fitting part. The ability to restart after predicting failure early, versus simply running to failure, can significantly decrease the makespan, that is, the total time to completion, with the drawback of potentially short-cutting an otherwise successful operation. Assuming task running times to be Poisson distributed, and using a Markov Jump process to capture the dynamics of the underlying Markov Decision Process, we derive a closed form solution that predicts makespan based on the confusion matrix of the failure predictor. This allows the robot to learn failure prediction in a production environment, and only adopt a preemptive policy when it actually saves time. We demonstrate this approach using a robotic peg-in-hole assembly problem using a real robotic system. Failures are predicted by a dilated convolutional network based on force-torque data, showing an average makespan reduction from 101s to 81s (N=120, p<0.05). We posit that the proposed algorithm generalizes to any robotic behavior with an unambiguous terminal reward, with wide ranging applications on how robots can learn and improve their behaviors in the wild.
翻訳日:2023-01-27 14:55:49 公開日:2023-01-25
# 新型コロナウイルスデータに基づくBitcoin価格予測の改善

Improved Bitcoin Price Prediction based on COVID-19 data ( http://arxiv.org/abs/2301.10840v1 )

ライセンス: Link先を確認
Palina Niamkova, Rafael Moreira (University of North Texas)(参考訳) 社会的混乱は人々の財政的決定に影響を与え、支出と貯蓄の変化を引き起こす。 新型コロナウイルス(covid-19)パンデミックのような世界的な混乱の中で、このような変化は避けられない。 ここでは、covid-19が様々な管轄区域に与える影響が、bitcoinのグローバル価格にどのように影響したかを検証する。 我々は、ロックダウンと景気後退の期待が、フィアット通貨(政府発行通貨)への信頼を損なうと仮定し、暗号通貨を上昇させる。 したがって、パンデミックによる混乱、bitcoinの需要、そして最終的にその価格の間の因果関係を見極めることを期待する。 この仮説をテストするために、私たちはbitcoinの価格とcovid-19のケースと死のデータセットをマージしました。 また、追加機能を設計し、統計および機械学習(ML)モデルを適用しました。 我々は、機能の重要性を特定しランク付けするためにランダムフォレストモデル(rf)を適用し、2回セットされたbitcoin価格データに対して長期短期記憶モデル(lstm)を実行した。 lstmモデルにcovid-19データを追加することで、bitcoin価格の予測が改善されたことが分かりました。

Social turbulence can affect people financial decisions, causing changes in spending and saving. During a global turbulence as significant as the COVID-19 pandemic, such changes are inevitable. Here we examine how the effects of COVID-19 on various jurisdictions influenced the global price of Bitcoin. We hypothesize that lock downs and expectations of economic recession erode people trust in fiat (government-issued) currencies, thus elevating cryptocurrencies. Hence, we expect to identify a causal relation between the turbulence caused by the pandemic, demand for Bitcoin, and ultimately its price. To test the hypothesis, we merged datasets of Bitcoin prices and COVID-19 cases and deaths. We also engineered extra features and applied statistical and machine learning (ML) models. We applied a Random Forest model (RF) to identify and rank the feature importance, and ran a Long Short-Term Memory (LSTM) model on Bitcoin prices data set twice: with and without accounting for COVID-19 related features. We find that adding COVID-19 data into the LSTM model improved prediction of Bitcoin prices.
翻訳日:2023-01-27 14:55:19 公開日:2023-01-25
# レイヤが宝くじをプレイすると、すべてのチケットが初期化で勝つ

When Layers Play the Lottery, all Tickets Win at Initialization ( http://arxiv.org/abs/2301.10835v1 )

ライセンス: Link先を確認
Artur Jordao and George Correa de Araujo and Helena de Almeida Maia and Helio Pedrini(参考訳) プルーニングはディープネットワークの計算コストを削減する標準的な手法である。 プルーニングにおける多くの進歩は、LTH(Lottery Ticket hypothesis)の概念を活用している。 LTHは、訓練された密集ネットワークの内部に、同様の精度(すなわち宝くじに勝つ)を達成できるスパースサブネットワークス(ティケット)が存在することを明らかにした。 初期化時のプルーニングは、密集したネットワークを訓練せずに勝利のチケットを見つけることに焦点を当てている。 これらの概念の研究は、サブネットワークが重み付けやフィルタープルーニングから生まれる傾向を共有している。 本研究では,層状プルーニングのレンズからの初期化におけるLTHおよびプルーニングについて検討する。 まず, プルーニングプロセスがレイヤを除去した場合, 入賞券の存在を確認する。 そこで本研究では,初期化時の入賞チケットの発見を提案し,初期(過パラメータ化)高密度ネットワークをトレーニングするための重い計算資源の必要性を排除した。 広範な実験によって、私たちの勝利のチケットは、特にトレーニングフェーズをスピードアップさせ、二酸化炭素排出量の51%を削減できることが示されました。 計算上のメリットに加えて、私たちの当選チケットは、逆や分散の例に対して堅牢性を示しています。 最後に,フィルタ除去チケット(標準構造LTH)が当選チケットとなるのがほとんどなく,初期化時にサブネットワークが抽選に容易に勝ることを示す。

Pruning is a standard technique for reducing the computational cost of deep networks. Many advances in pruning leverage concepts from the Lottery Ticket Hypothesis (LTH). LTH reveals that inside a trained dense network exists sparse subnetworks (tickets) able to achieve similar accuracy (i.e., win the lottery - winning tickets). Pruning at initialization focuses on finding winning tickets without training a dense network. Studies on these concepts share the trend that subnetworks come from weight or filter pruning. In this work, we investigate LTH and pruning at initialization from the lens of layer pruning. First, we confirm the existence of winning tickets when the pruning process removes layers. Leveraged by this observation, we propose to discover these winning tickets at initialization, eliminating the requirement of heavy computational resources for training the initial (over-parameterized) dense network. Extensive experiments show that our winning tickets notably speed up the training phase and reduce up to 51% of carbon emission, an important step towards democratization and green Artificial Intelligence. Beyond computational benefits, our winning tickets exhibit robustness against adversarial and out-of-distribution examples. Finally, we show that our subnetworks easily win the lottery at initialization while tickets from filter removal (the standard structured LTH) hardly become winning tickets.
翻訳日:2023-01-27 14:55:01 公開日:2023-01-25
# 分散世界経済見通し予測のための再帰的深層学習枠組み

Recursive deep learning framework for forecasting the decadal world economic outlook ( http://arxiv.org/abs/2301.10874v1 )

ライセンス: Link先を確認
Tianyi Wang, Rodney Beard, John Hawkins, Rohitash Chandra(参考訳) 国内総生産(GDP)はマクロ経済学において最も広く使われている指標であり、国内経済を測る主要な道具である。 世界経済の多様性と複雑さのため、幅広いモデルが用いられてきたが、パンデミックや戦争のような予期せぬ変化を考慮に入れた、緩やかなGDP予測を行う上での課題がある。 深層学習モデルは時系列予測に応用されてきた時間系列のモデル化に適している。 本稿では,10年以上にわたる世界経済のGDP成長率を予測するためのディープラーニングフレームワークを開発する。 1980年から2019年にかけて、オーストラリア、中国、インド、米国など13カ国でデータを収集し、Penn World Tableをデータソースとして使用しています。 我々は,複数のディープラーニングモデル(LSTM,BD-LSTM,ED-LSTM,CNN)をテストし,その結果を従来の時系列モデル(ARIMA,VAR)と比較した。 その結果,ED-LSTMは最高の性能を示すモデルであることが示唆された。 今後10年間のGDP成長率を予測するための再帰的深層学習フレームワークを提案する。 我々は、ほとんどの国が5年以内に経済成長の減速、停滞、あるいは不況を経験すると予想している。

Gross domestic product (GDP) is the most widely used indicator in macroeconomics and the main tool for measuring a country's economic ouput. Due to the diversity and complexity of the world economy, a wide range of models have been used, but there are challenges in making decadal GDP forecasts given unexpected changes such as pandemics and wars. Deep learning models are well suited for modeling temporal sequences have been applied for time series forecasting. In this paper, we develop a deep learning framework to forecast the GDP growth rate of the world economy over a decade. We use Penn World Table as the source of our data, taking data from 1980 to 2019, across 13 countries, such as Australia, China, India, the United States and so on. We test multiple deep learning models, LSTM, BD-LSTM, ED-LSTM and CNN, and compared their results with the traditional time series model (ARIMA,VAR). Our results indicate that ED-LSTM is the best performing model. We present a recursive deep learning framework to predict the GDP growth rate in the next ten years. We predict that most countries will experience economic growth slowdown, stagnation or even recession within five years; only China, France and India are predicted to experience stable, or increasing, GDP growth.
翻訳日:2023-01-27 14:46:34 公開日:2023-01-25
# ヘイトスピーチに対するグラフ変換器アプローチの質的分析:動的に変化するコンテンツに適応する

Qualitative Analysis of a Graph Transformer Approach to Addressing Hate Speech: Adapting to Dynamically Changing Content ( http://arxiv.org/abs/2301.10871v1 )

ライセンス: Link先を確認
Liam Hebert, Hong Yi Chen, Robin Cohen, Lukasz Golab(参考訳) 我々の研究はソーシャルメディアにおけるヘイトスピーチを予測するためのアプローチを前進させ、ヘイトスピーチの発生をうまく検出するために投稿をフォローする議論を検討すべき重要な必要性を浮き彫りにする。 グラフトランスフォーマーネットワークとモデリング注意とbertレベルの自然言語処理を組み合わせることで,コンテキストをキャプチャし,今後の反社会的行動を予測することができる。 本稿では,ソーシャルネットワークにおけるヘイトスピーチ検出のためのこのソリューションの詳細な質的分析を行い,提案手法が競争相手と比較して最も印象的な結果をもたらすか,理想的なパフォーマンスを達成するための課題があるシナリオを特定するための知見を得る。 現在ソーシャルメディアに浸透している投稿の種類や、ヘイトフルな画像の利用などについて調査している。 これは、モデルをより包括的に拡張するための道筋を示唆する。 重要な洞察は、コンテキストの概念を推論することに焦点を合わせれば、オンライン投稿のマルチモーダル分析をサポートできるようになるということだ。 私たちは、社会的な影響に対するすべてのAIソリューションにとって重要な懸念である、動的変化のテーマに、どのように対処しているのかを考察して結論付けます。 私たちはまた、投稿における憎悪の程度に合わせてキュレートされたコンテンツを通じて、メンタルヘルスの幸福が我々の仕事でどのように前進できるかを簡潔にコメントします。

Our work advances an approach for predicting hate speech in social media, drawing out the critical need to consider the discussions that follow a post to successfully detect when hateful discourse may arise. Using graph transformer networks, coupled with modelling attention and BERT-level natural language processing, our approach can capture context and anticipate upcoming anti-social behaviour. In this paper, we offer a detailed qualitative analysis of this solution for hate speech detection in social networks, leading to insights into where the method has the most impressive outcomes in comparison with competitors and identifying scenarios where there are challenges to achieving ideal performance. Included is an exploration of the kinds of posts that permeate social media today, including the use of hateful images. This suggests avenues for extending our model to be more comprehensive. A key insight is that the focus on reasoning about the concept of context positions us well to be able to support multi-modal analysis of online posts. We conclude with a reflection on how the problem we are addressing relates especially well to the theme of dynamic change, a critical concern for all AI solutions for social impact. We also comment briefly on how mental health well-being can be advanced with our work, through curated content attuned to the extent of hate in posts.
翻訳日:2023-01-27 14:46:11 公開日:2023-01-25
# 光浮上型ナノダンベルによる近接場GHz回転とセンシング

Near-field GHz rotation and sensing with an optically levitated nanodumbbell ( http://arxiv.org/abs/2301.10868v1 )

ライセンス: Link先を確認
Peng Ju, Yuanbin Jin, Kunhong Shen, Yao Duan, Zhujing Xu, Xingyu Gao, Xinjie Ni, Tongcang Li(参考訳) 真空中の浮遊非球状ナノ粒子は量子回転の研究に最適であり、非常に感度の高いトルクと力検出器である。 カシミールトルクや回転する量子真空摩擦といった基本的な粒子と表面の相互作用を探究するために、サブマイクロメートルの分離で表面付近で回転させることが提案されている。 ここでは、サファイア表面から約430nm離れた真空中でシリカナノダンベルを光学的に浮遊させ、GHz周波数で回転させる。 ナノダンベルの先端と表面の間の相対線速度は、サブミクロメータ分離時に1.4km/sに達する。 表面近くの回転するナノダンベルは、室温でのトルク感度が$(5.0 \pm 1.1) \times 10^{-26} {\rm NmHz}^{-1/2}$であることを示す。 さらに,金ナノグレーティング近傍にナノダンベルを浮上させ,光学的回折限界を超える近接場強度分布を探究する。 数値シミュレーションにより,ナノダンベルとナノグレーションの間のカシミールトルクを検出することが期待できる。

A levitated non-spherical nanoparticle in a vacuum is ideal for studying quantum rotations and is an extremely sensitive torque and force detector. It has been proposed to probe fundamental particle-surface interactions such as the Casimir torque and the rotational quantum vacuum friction, which require it to be driven to rotate near a surface at sub-micrometer separations. Here, we optically levitate a silica nanodumbbell in a vacuum at about 430 nm away from a sapphire surface and drive it to rotate at GHz frequencies. The relative linear speed between the tip of the nanodumbbell and the surface reaches 1.4 km/s at a sub-micrometer separation. The rotating nanodumbbell near the surface demonstrates a torque sensitivity of $(5.0 \pm 1.1) \times 10^{-26} {\rm NmHz}^{-1/2}$ at room temperature. Moreover, we levitate a nanodumbbell near a gold nanograting and use it to probe the near-field intensity distribution beyond the optical diffraction limit. Our numerical simulation shows it is promising to detect the Casimir torque between a nanodumbbell and a nanograting.
翻訳日:2023-01-27 14:45:48 公開日:2023-01-25
# 拡散モデルの数学について

On the Mathematics of Diffusion Models ( http://arxiv.org/abs/2301.11108v1 )

ライセンス: Link先を確認
David McAllester(参考訳) 本稿では,拡散モデルの確率微分方程式を,幅広いオーディエンスが利用できる方法で提示することを試みる。 拡散過程はR^dの集団密度上で定義される。 特に興味深いのは画像の人口である。 拡散モデルでは、まず集団からサンプルを取り出し、ノイズのみが残るまで徐々にノイズを付加する拡散過程を定義する。 基本的な考え方は、純粋なノイズを人口サンプルにマッピングする逆拡散プロセスによって人口からサンプルを取ることである。 拡散過程は任意の ``reinterpretation' とは独立に定義されるが、変分オートエンコーダ (``vae interpretation''') や fokker-planck 方程式 (`score-matching intgerpretation'') を用いて解析することができる。 どちらの解析もスコア関数を含む逆拡散法をもたらす。 Fokker-Planck解析は、ゼロ(決定論的逆拡散)を含む任意の所望の逆拡散雑音によってパラメータ化された逆拡散SDEの族を生成する。 VAE解析は拡散SDEと同じノイズレベルで逆拡散SDEを生成する。 VAE分析はまた、与えられた点(画像)の集団確率を計算するのに有用な表現を与える。 与えられた点の確率に関するこの公式は、フォッカー・プランク解析から自然に従わないようである。 ここで提示される数学の多くは、明らかに全てではないが、文献で見ることができる。 論文の最後には属性が与えられます。

This paper attempts to present the stochastic differential equations of diffusion models in a manner that is accessible to a broad audience. The diffusion process is defined over a population density in R^d. Of particular interest is a population of images. In a diffusion model one first defines a diffusion process that takes a sample from the population and gradually adds noise until only noise remains. The fundamental idea is to sample from the population by a reverse-diffusion process mapping pure noise to a population sample. The diffusion process is defined independent of any ``interpretation'' but can be analyzed using the mathematics of variational auto-encoders (the ``VAE interpretation'') or the Fokker-Planck equation (the ``score-matching intgerpretation''). Both analyses yield reverse-diffusion methods involving the score function. The Fokker-Planck analysis yields a family of reverse-diffusion SDEs parameterized by any desired level of reverse-diffusion noise including zero (deterministic reverse-diffusion). The VAE analysis yields the reverse-diffusion SDE at the same noise level as the diffusion SDE. The VAE analysis also yields a useful expression for computing the population probabilities of a given point (image). This formula for the probability of a given point does not seem to follow naturally from the Fokker-Planck analysis. Much, but apparently not all, of the mathematics presented here can be found in the literature. Attributions are given at the end of the paper.
翻訳日:2023-01-27 13:45:01 公開日:2023-01-25
# 雑音環境下での非対称量子状態同時生成方式

Simultaneous Asymmetric Quantum Remote State Preparation Scheme in Noisy Environments ( http://arxiv.org/abs/2301.11287v1 )

ライセンス: Link先を確認
Binayak S. Choudhury, Manoj Kumar Mandal, Soumen Samanta, Biswanath Dolai(参考訳) 本稿では,2つの異なる場所で既知の1量子ビットと2量子ビットの状態を生成するための量子マルチタスクプロトコルについて述べる。 理想的な遠隔状態準備プロトコルは、まず、5ビットの絡み合った状態を利用する。 このような絡み合いの準備のための設計も、IBM量子作曲家プラットフォーム上で提示され、実行される。 プロトコルに対する3種類のノイズの影響を考察し,これらすべてにおいて,プロセスのフィダリティの低減を計算した。 異なるパラメータに対するこれらの忠実度の変化を解析する。

In this paper we discuss a quantum multi-tasking protocol for preparation of known one-qubit and two-qubit states respectively in two different locations. The ideal remote state preparation protocol is discussed in the first place in which a five-qubit entangled state is utilized. The design for the preparation of such entanglement is also presented and run on IBM quantum composer platform. The effects of three types of noises on the protocol are discussed and in all these cases the reduced fidelities of the process are calculated. The variations of these fidelities with respect to different parameters are analysed.
翻訳日:2023-01-27 12:58:18 公開日:2023-01-25
# コンテキスト化スタンス制御を用いた対話における言語モデルデトキソフィケーション

Language Model Detoxification in Dialogue with Contextualized Stance Control ( http://arxiv.org/abs/2301.10368v1 )

ライセンス: Link先を確認
Jing Qian, Xifeng Yan(参考訳) 事前訓練された言語モデル(LM)における有害な変性を減らすため、従来の言語モデル解毒の研究は、文脈を考慮せずに生成体自体の毒性(自己毒性)を減少させることに重点を置いてきた。 その結果、世代が文脈における攻撃言語をサポートする暗黙の攻撃言語の種類は無視される。 所望の属性が生成のために固定された前の作業におけるLM制御タスクとは異なり、生成の望ましい姿勢は、コンテキストの攻撃性に依存する。 そこで本研究では,文脈依存的デトキシフィケーションを行うための新しい制御手法を提案する。 文脈化されたスタンス制御戦略を学習し、入力コンテキストに応じてスタンス制御プレフィックスを生成するメタプレフィックスを導入する。 そして、生成されたスタンスプレフィックスを毒性制御プレフィックスと組み合わせて応答生成を誘導する。 実験の結果,提案手法は,基礎となるlmの低自己毒性を維持しつつ,文脈依存的姿勢制御戦略を効果的に学習できることがわかった。

To reduce the toxic degeneration in a pretrained Language Model (LM), previous work on Language Model detoxification has focused on reducing the toxicity of the generation itself (self-toxicity) without consideration of the context. As a result, a type of implicit offensive language where the generations support the offensive language in the context is ignored. Different from the LM controlling tasks in previous work, where the desired attributes are fixed for generation, the desired stance of the generation depends on the offensiveness of the context. Therefore, we propose a novel control method to do context-dependent detoxification with the stance taken into consideration. We introduce meta prefixes to learn the contextualized stance control strategy and to generate the stance control prefix according to the input context. The generated stance prefix is then combined with the toxicity control prefix to guide the response generation. Experimental results show that our proposed method can effectively learn the context-dependent stance control strategies while keeping a low self-toxicity of the underlying LM.
翻訳日:2023-01-26 16:16:23 公開日:2023-01-25
# 概念表現評価のためのロバスト計量に向けて

Towards Robust Metrics for Concept Representation Evaluation ( http://arxiv.org/abs/2301.10367v1 )

ライセンス: Link先を確認
Mateo Espinosa Zarlenga, Pietro Barbiero, Zohreh Shams, Dmitry Kazhdan, Umang Bhatt, Adrian Weller, Mateja Jamnik(参考訳) 解釈可能性に関する最近の研究は概念に基づく説明に焦点を当てており、ディープラーニングモデルは概念と呼ばれる高レベルな情報の単位で説明されている。 しかし、概念学習モデルは、その表現に不純物を符号化する傾向があることが示され、入力の有意義な特徴を完全に捉えられなかった。 概念学習は、そのような現象を測定するためのメトリクスを欠いているが、乱れ学習の分野は、その要因の純度を測定するための多くの指標と共に、データの変化の根本的な要因に関する関連する概念を探求している。 本稿では,概念学習にはこのような指標が適さないことを示すとともに,概念表現の純度を評価するための新しい指標を提案する。 既存の指標よりもこれらの指標の利点を示し、概念表現と介入の堅牢性を評価する上での有用性を示す。 さらに,両家庭から最先端の手法をベンチマークするための実用性を示すとともに,一般的な仮定とは違い,純粋な概念表現には監督だけでは不十分であることを示す。

Recent work on interpretability has focused on concept-based explanations, where deep learning models are explained in terms of high-level units of information, referred to as concepts. Concept learning models, however, have been shown to be prone to encoding impurities in their representations, failing to fully capture meaningful features of their inputs. While concept learning lacks metrics to measure such phenomena, the field of disentanglement learning has explored the related notion of underlying factors of variation in the data, with plenty of metrics to measure the purity of such factors. In this paper, we show that such metrics are not appropriate for concept learning and propose novel metrics for evaluating the purity of concept representations in both approaches. We show the advantage of these metrics over existing ones and demonstrate their utility in evaluating the robustness of concept representations and interventions performed on them. In addition, we show their utility for benchmarking state-of-the-art methods from both families and find that, contrary to common assumptions, supervision alone may not be sufficient for pure concept representations.
翻訳日:2023-01-26 16:16:03 公開日:2023-01-25
# データ一貫性のある深部硬度mri動作補正

Data Consistent Deep Rigid MRI Motion Correction ( http://arxiv.org/abs/2301.10365v1 )

ライセンス: Link先を確認
Nalini M. Singh, Neel Dey, Malte Hoffmann, Bruce Fischl, Elfar Adalsteinsson, Robert Frost, Adrian V. Dalca, Polina Golland(参考訳) 運動アーティファクトはMRIの広範にわたる問題であり、人口レベルの画像研究において誤診や誤認を引き起こす。 現在の反射型剛性運動補正技術は、画像と運動パラメータの推定を共同で最適化する。 本稿では,厳密な動きパラメータのみを探索するために,深層ネットワークを用いて共同動画像パラメータ探索を削減した。 ネットワークは,k空間データと動きパラメータの2つの入力の関数として再構成を生成する。 我々は、既知の動きパラメータから生成された動乱k空間データをシミュレーションしてネットワークを訓練する。 実験時には,運動パラメータとネットワークベースの画像再構成と取得した測定値とのデータの一貫性損失を最小化し,未知の動作パラメータを推定する。 シミュレーションおよび現実的な2次元高速スピンエコー脳MRIにおけるスライス内運動補正実験は、明示的なデータ一貫性に基づく最適化の利点を保ちながら、高い再構成忠実性を達成する。 私たちのコードはhttps://www.github.com/nalinimsingh/neuromocoで公開されています。

Motion artifacts are a pervasive problem in MRI, leading to misdiagnosis or mischaracterization in population-level imaging studies. Current retrospective rigid intra-slice motion correction techniques jointly optimize estimates of the image and the motion parameters. In this paper, we use a deep network to reduce the joint image-motion parameter search to a search over rigid motion parameters alone. Our network produces a reconstruction as a function of two inputs: corrupted k-space data and motion parameters. We train the network using simulated, motion-corrupted k-space data generated from known motion parameters. At test-time, we estimate unknown motion parameters by minimizing a data consistency loss between the motion parameters, the network-based image reconstruction given those parameters, and the acquired measurements. Intra-slice motion correction experiments on simulated and realistic 2D fast spin echo brain MRI achieve high reconstruction fidelity while retaining the benefits of explicit data consistency-based optimization. Our code is publicly available at https://www.github.com/nalinimsingh/neuroMoCo.
翻訳日:2023-01-26 16:15:45 公開日:2023-01-25
# 衝突回避型自律群羊飼いの計画支援

Planning-assisted autonomous swarm shepherding with collision avoidance ( http://arxiv.org/abs/2301.10363v1 )

ライセンス: Link先を確認
Jing Liu, Hemant Singh, Saber Elsayed, Robert Hunjet and Hussein Abbass(参考訳) ロボット羊飼いは、エージェントの群れを望ましい場所に誘導するバイオインスパイアされたアプローチであり、最近研究の関心が高まっている。 しかし, 遮蔽環境下で高度に分散した群れを飼うことは, 既存の手法では依然として困難である。 障害物や羊の分散を伴う複雑な環境における羊飼いの有効性を向上させるため,本論文では衝突回避のための計画支援型羊飼いフレームワークを提案する。 提案手法は,群れシェパーディング問題を単一トラベリングセールスマン問題 (TSP) に変換し,羊飼いの移動モードを非相互作用モードと相互作用モードに分類する。 さらに、適応的なスイッチングアプローチがフレームワークに統合され、障害物や羊の群れとの衝突を避けるためのリアルタイムパス計画が導かれる。 次に、ヒツジ亜群獲得のためのグループ化アプローチと、ヒツジ亜群集の最適プッシュシーケンスを決定する一般的なTSPソルバと、ヒツジとヒツジの最適パスを計算するオンラインパスプランナーとからなる、階層的なミッションプランニングシステムを提案する。 提案手法の有効性を定量的に示すため, 障害物の有無にかかわらず, 様々な環境における実験を行った。

Robotic shepherding is a bio-inspired approach to autonomously guiding a swarm of agents towards a desired location and has earned increasing research interest recently. However, shepherding a highly dispersed swarm in an obstructive environment remains challenging for the existing methods. To improve the shepherding efficacy in complex environments with obstacles and dispersed sheep, this paper proposes a planning-assisted autonomous shepherding framework with collision avoidance. The proposed approach transforms the swarm shepherding problem into a single Travelling Salesman Problem (TSP), with the sheepdog moving mode classified into non-interaction and interaction mode. Additionally, an adaptive switching approach is integrated into the framework to guide real-time path planning for avoiding collisions with obstacles and sometimes with sheep swarm. Then the overarching hierarchical mission planning system is presented, which consists of a grouping approach to obtain sheep sub-swarms, a general TSP solver for determining the optimal push sequence of sub-swarms, and an online path planner for calculating optimal paths for both sheepdogs and sheep. The experiments on a range of environments, both with and without obstacles, quantitatively demonstrate the effectiveness of the proposed shepherding framework and planning approaches.
翻訳日:2023-01-26 16:15:27 公開日:2023-01-25
# 集約的グラディエントを信頼する時--フェデレートラーニングにおける否定的クライアントサンプリングへの対応

When to Trust Aggregated Gradients: Addressing Negative Client Sampling in Federated Learning ( http://arxiv.org/abs/2301.10400v1 )

ライセンス: Link先を確認
Wenkai Yang, Yankai Lin, Guangxiang Zhao, Peng Li, Jie Zhou, Xu Sun(参考訳) フェデレートラーニング(Federated Learning)は、ローカルデータのプライバシ保護の条件下で、分散化されたローカルデータセットのグローバルモデル学習を可能にする、広く使用されているフレームワークである。 しかし、サンプルのトレーニングが独立かつ同一に分散されていない場合(非i.i.d.)、連合学習は厳しい最適化困難に直面している。 本稿では,上記の最適化課題において,クライアントサンプリングが決定的な役割を果たすことを指摘する。 負のクライアントサンプリングは、現在サンプリングされているクライアントのマージしたデータ分布を、利用可能なすべてのクライアントと大きく矛盾させ、さらに集約された勾配を信頼できないものにする。 そこで本研究では,各ラウンドにおける集約勾配に対するサーバの学習率を,現在のサンプルクライアントと利用可能な全クライアントの合計データ分布との整合性に応じて適応的に調整する,新たな学習率適応機構を提案する。 具体的には、最適サーバ学習率に正の相関があり、サンプルクライアントのマージデータ分布を効果的に反映できる有意義でロバストな指標を理論的に推論し、これをサーバ学習率適応に活用する。 複数の画像とテキストの分類タスクに関する大規模な実験により,本手法の有効性が検証された。

Federated Learning has become a widely-used framework which allows learning a global model on decentralized local datasets under the condition of protecting local data privacy. However, federated learning faces severe optimization difficulty when training samples are not independently and identically distributed (non-i.i.d.). In this paper, we point out that the client sampling practice plays a decisive role in the aforementioned optimization difficulty. We find that the negative client sampling will cause the merged data distribution of currently sampled clients heavily inconsistent with that of all available clients, and further make the aggregated gradient unreliable. To address this issue, we propose a novel learning rate adaptation mechanism to adaptively adjust the server learning rate for the aggregated gradient in each round, according to the consistency between the merged data distribution of currently sampled clients and that of all available clients. Specifically, we make theoretical deductions to find a meaningful and robust indicator that is positively related to the optimal server learning rate and can effectively reflect the merged data distribution of sampled clients, and we utilize it for the server learning rate adaptation. Extensive experiments on multiple image and text classification tasks validate the great effectiveness of our method.
翻訳日:2023-01-26 16:08:06 公開日:2023-01-25
# フェデレーション型長期学習における局所実データとグローバル・グラディエント・プロトタイプの統合

Integrating Local Real Data with Global Gradient Prototypes for Classifier Re-Balancing in Federated Long-Tailed Learning ( http://arxiv.org/abs/2301.10394v1 )

ライセンス: Link先を確認
Wenkai Yang, Deli Chen, Hao Zhao, Fandong Meng, Jie Zhou, Xu Sun(参考訳) フェデレートラーニング(FL)は、データプライバシ保護の方法でグローバルモデルを協調的にトレーニングする複数のクライアントを含む、人気のある分散学習パラダイムになっています。 しかし、データサンプルは通常、現実世界の長い尾の分布に追従し、分散データと長い尾のデータのFLは、訓練サンプルの大多数がヘッドクラスに偏っている、劣悪なグローバルモデルをもたらす。 この問題を緩和するために、最近FLに非結合型トレーニングが導入され、インスタンスバランストレーニング後にバイアス付き分類器を再バランスさせることにより、集中型長期学習において有望な結果を得た。 しかし,本研究は, FLにおけるグローバルバランスデータセットの不適切性のため, 擬似特徴集合に基づいて再学習した準最適分類器を用いて, 連合長尾学習における疎結合学習の能力を制限する。 本研究では,より効率的に分類器を再バランスさせるために,局所実データとグローバル勾配プロトタイプを統合し,局所バランスデータセットを作成し,局所トレーニング中に分類器を再バランスさせる。 さらに,グローバルなデータ分布のモデル化を支援するために,学習フェーズに余分な分類器を導入し,局所的に再分散を行うことによって生じる矛盾する最適化目標の問題に対処する。 広範な実験により,本手法は,既存の最先端手法を様々な設定で一貫して上回ることがわかった。

Federated Learning (FL) has become a popular distributed learning paradigm that involves multiple clients training a global model collaboratively in a data privacy-preserving manner. However, the data samples usually follow a long-tailed distribution in the real world, and FL on the decentralized and long-tailed data yields a poorly-behaved global model severely biased to the head classes with the majority of the training samples. To alleviate this issue, decoupled training has recently been introduced to FL, considering it has achieved promising results in centralized long-tailed learning by re-balancing the biased classifier after the instance-balanced training. However, the current study restricts the capacity of decoupled training in federated long-tailed learning with a sub-optimal classifier re-trained on a set of pseudo features, due to the unavailability of a global balanced dataset in FL. In this work, in order to re-balance the classifier more effectively, we integrate the local real data with the global gradient prototypes to form the local balanced datasets, and thus re-balance the classifier during the local training. Furthermore, we introduce an extra classifier in the training phase to help model the global data distribution, which addresses the problem of contradictory optimization goals caused by performing classifier re-balancing locally. Extensive experiments show that our method consistently outperforms the existing state-of-the-art methods in various settings.
翻訳日:2023-01-26 16:07:30 公開日:2023-01-25
# 順調に進化し、一貫して適合する: アドベクション支配系に対する滑らかな潜時ダイナミクスの学習

Evolve Smoothly, Fit Consistently: Learning Smooth Latent Dynamics For Advection-Dominated Systems ( http://arxiv.org/abs/2301.10391v1 )

ライセンス: Link先を確認
Zhong Yi Wan, Leonardo Zepeda-Nunez, Anudhyan Boral and Fei Sha(参考訳) 本稿では,複雑な物理系のサーロゲートモデルを学ぶためのデータ駆動,時空連続フレームワークを提案する。 これらのシステムはKolmogorovn-widthを遅く分解し、低次モデリングを含む標準的な手法を低コストで高忠実度シミュレーションから妨げている。 本研究では,コンパクト表現ネットワークのパラメータ空間上にハイパーネットワークに基づく潜在力学モデルを構築する。 ネットワークの表現力と特別に設計された整合性誘導正規化を利用して,低次元かつ滑らかな潜在軌道を得る。 これらのプロパティにより、推論時にsurrogateモデルが非常に効率的になります。 提案手法は,複数ステップの正確なロールアウト予測を,より高速な推論速度で生成するフレームワークバイ学習モデルの有効性を示す。

We present a data-driven, space-time continuous framework to learn surrogatemodels for complex physical systems described by advection-dominated partialdifferential equations. Those systems have slow-decaying Kolmogorovn-widththat hinders standard methods, including reduced order modeling, from producinghigh-fidelity simulations at low cost. In this work, we construct hypernetwork-based latent dynamical models directly on the parameter space of a compactrepresentation network. We leverage the expressive power of the network and aspecially designed consistency-inducing regularization to obtain latent trajectoriesthat are both low-dimensional and smooth. These properties render our surrogatemodels highly efficient at inference time. We show the efficacy of our frameworkby learning models that generate accurate multi-step rollout predictions at muchfaster inference speed compared to competitors, for several challenging examples.
翻訳日:2023-01-26 16:06:47 公開日:2023-01-25
# SGCN:Deep Graph Convolutional Network Acceleratorにおける圧縮スパース機能の爆発

SGCN: Exploiting Compressed-Sparse Features in Deep Graph Convolutional Network Accelerators ( http://arxiv.org/abs/2301.10388v1 )

ライセンス: Link先を確認
Mingi Yoo, Jaeyong Song, Jounghoo Lee, Namhyung Kim, Youngsok Kim, and Jinho Lee(参考訳) グラフ畳み込みネットワーク(GCN)は、従来のニューラルネットワークの適用範囲が限られているため、ますます人気が高まっている。 gcnは任意に構造化されたグラフを入力とし、グラフの構造を利用して出力特徴を計算する一連の層を実行する。 GCNの最近のトレンドの1つは、ディープネットワークアーキテクチャの利用である。 従来の2層から5層の深さしか持たないgcnとは対照的に、現代のgcnは残りの接続のために数十層から数百層を組み込んでいる。 このような深いGCNから、非常に高い中間的特徴の空間性を示す重要な特徴を見出した。 深い層と残りの接続では,中間特性の零点数が急激に増加することが観察された。 これにより、これまで存在していなかったGCN実行をアクセラレータが活用する新たな機会が明らかになる。 本稿では,現在のGCNのスパース中間特性をフル活用した高速かつエネルギー効率のGCN加速器であるSGCNを提案する。 SGCNは既存の加速器よりも高い性能とエネルギー効率を達成するためのいくつかの手法を提案する。 まず、SGCNはGCNフレンドリーな特徴圧縮フォーマットを採用している。 我々は、しばしばgcn実行のボトルネックとなるオフチップメモリトラフィックの削減にフォーカスしています。 次に,圧縮された特徴形式をシームレスに扱うマイクロアーキテクチャを提案する。 第三に、異なる空間の存在下での局所性をよりよく扱うために、SGCNは空間性に配慮した協力を採用している。 sparsity-awareコラボレーティブは、複数の再利用ウィンドウを示すパターンを作成し、キャッシュは、ワーキングセットのさまざまなサイズをキャプチャできるため、スパルサビリティのさまざまなレベルに対応できる。 sgcnは、既存の加速器に比べて1.71倍のスピードアップと43.9%のエネルギー効率を達成している。

Graph convolutional networks (GCNs) are becoming increasingly popular as they overcome the limited applicability of prior neural networks. A GCN takes as input an arbitrarily structured graph and executes a series of layers which exploit the graph's structure to calculate their output features. One recent trend in GCNs is the use of deep network architectures. As opposed to the traditional GCNs which only span around two to five layers deep, modern GCNs now incorporate tens to hundreds of layers with the help of residual connections. From such deep GCNs, we find an important characteristic that they exhibit very high intermediate feature sparsity. We observe that with deep layers and residual connections, the number of zeros in the intermediate features sharply increases. This reveals a new opportunity for accelerators to exploit in GCN executions that was previously not present. In this paper, we propose SGCN, a fast and energy-efficient GCN accelerator which fully exploits the sparse intermediate features of modern GCNs. SGCN suggests several techniques to achieve significantly higher performance and energy efficiency than the existing accelerators. First, SGCN employs a GCN-friendly feature compression format. We focus on reducing the off-chip memory traffic, which often is the bottleneck for GCN executions. Second, we propose microarchitectures for seamlessly handling the compressed feature format. Third, to better handle locality in the existence of the varying sparsity, SGCN employs sparsity-aware cooperation. Sparsity-aware cooperation creates a pattern that exhibits multiple reuse windows, such that the cache can capture diverse sizes of working sets and therefore adapt to the varying level of sparsity. We show that SGCN achieves 1.71x speedup and 43.9% higher energy efficiency compared to the existing accelerators.
翻訳日:2023-01-26 16:06:32 公開日:2023-01-25
# XNLI: NLIベースのビジュアルデータ分析の説明と診断

XNLI: Explaining and Diagnosing NLI-based Visual Data Analysis ( http://arxiv.org/abs/2301.10385v1 )

ライセンス: Link先を確認
Yingchaojie Feng, Xingbo Wang, Bo Pan, Kam Kwai Wong, Yi Ren, Shi Liu, Zihan Yan, Yuxin Ma, Huamin Qu, Wei Chen(参考訳) 自然言語インタフェース(NLI)は、ユーザがデータ視覚化における分析意図を柔軟に指定できるようにする。 しかし、基礎となる生成過程を理解せずに視覚化結果の診断は困難である。 本研究は,NLIの問題点の特定とクエリの修正を支援するための説明方法を探るものである。 視覚データ解析のための説明可能なNLIシステムであるXNLIを提案する。 このシステムでは、視覚変換の詳細なプロセスを明らかにするProvenance Generator、エラー調整をサポートするインタラクティブウィジェットスイート、ユーザクエリとインタラクションの分析に基づいてクエリリビジョンヒントを提供するHint Generatorを導入している。 XNLIとユーザスタディの2つの利用シナリオは、システムの有効性とユーザビリティを検証する。 xnliはnli解析プロセスを中断することなくタスク精度を大幅に向上できることが示唆された。

Natural language interfaces (NLIs) enable users to flexibly specify analytical intentions in data visualization. However, diagnosing the visualization results without understanding the underlying generation process is challenging. Our research explores how to provide explanations for NLIs to help users locate the problems and further revise the queries. We present XNLI, an explainable NLI system for visual data analysis. The system introduces a Provenance Generator to reveal the detailed process of visual transformations, a suite of interactive widgets to support error adjustments, and a Hint Generator to provide query revision hints based on the analysis of user queries and interactions. Two usage scenarios of XNLI and a user study verify the effectiveness and usability of the system. Results suggest that XNLI can significantly enhance task accuracy without interrupting the NLI-based analysis process.
翻訳日:2023-01-26 16:06:04 公開日:2023-01-25
# ハイブリッドシステムの探索に基づくタスクと動作計画: アジャイル自律走行車

Search-Based Task and Motion Planning for Hybrid Systems: Agile Autonomous Vehicles ( http://arxiv.org/abs/2301.10384v1 )

ライセンス: Link先を確認
Zlatan Ajanovi\'c, Enrico Regolin, Barys Shyrokau, Hana \'Cati\'c, Martin Horn, Antonella Ferrara(参考訳) 動的シナリオにおけるロボットの最適動作を実現するためには,複雑なダイナミクスを予測的に検討する必要がある。 車両動力学のコミュニティでは、低表面での時間最適運転を実現するためには、漂流を利用する必要があることがよく知られている。 したがって、多くの著者は回路を分割し、いくつかのセグメントでドリフトを使用する規則を考案した。 これらの規則は準最適であり、任意の回路形状(例えばs様曲線)に一般化しない。 では、"どのモードで運転するか"という質問は、まだ答えがないままです。 適切なモード(離散決定)を選択するには、アルゴリズムはそのモードにおける連続運動の可能性に関する情報を必要とする。 これはタスク・アンド・モーション・プランニング(TAMP)問題のクラスであり、リアルタイムで最適な解決が難しいことが知られている。 AI計画コミュニティでは、検索手法が一般的に使用されている。 しかし、それらは連続成分のため、タンプ問題に直接適用することはできない。 本稿では, この問題を効果的に解決し, 非線形かつ不安定なダイナミックスを持つ高次元状態空間を効率的に探索する探索法を提案する。 可能な軌道の空間は、探索によって導かれる運動プリミティブの異なる組み合わせをサンプリングすることで探索される。 本手法では,複数の局所近似モデルを用いて運動プリミティブ(例えばドリフトの学習モデル)を生成し,精度を損なうことなく問題を効果的に単純化する。 アルゴリズムの性能は、異なる曲率(左右)のセグメントを持つ混合トラック上でのシミュレーション運転で評価される。 私たちのコードはhttps://git.io/JenvBで利用可能です。

To achieve optimal robot behavior in dynamic scenarios we need to consider complex dynamics in a predictive manner. In the vehicle dynamics community, it is well know that to achieve time-optimal driving on low surface, the vehicle should utilize drifting. Hence many authors have devised rules to split circuits and employ drifting on some segments. These rules are suboptimal and do not generalize to arbitrary circuit shapes (e.g., S-like curves). So, the question "When to go into which mode and how to drive in it?" remains unanswered. To choose the suitable mode (discrete decision), the algorithm needs information about the feasibility of the continuous motion in that mode. This makes it a class of Task and Motion Planning (TAMP) problems, which are known to be hard to solve optimally in real-time. In the AI planning community, search methods are commonly used. However, they cannot be directly applied to TAMP problems due to the continuous component. Here, we present a search-based method that effectively solves this problem and efficiently searches in a highly dimensional state space with nonlinear and unstable dynamics. The space of the possible trajectories is explored by sampling different combinations of motion primitives guided by the search. Our approach allows to use multiple locally approximated models to generate motion primitives (e.g., learned models of drifting) and effectively simplify the problem without losing accuracy. The algorithm performance is evaluated in simulated driving on a mixed-track with segments of different curvatures (right and left). Our code is available at https://git.io/JenvB
翻訳日:2023-01-26 16:05:53 公開日:2023-01-25
# ダイヤモンド中の窒素$-$空孔中心における1E$一重項状態からの光イオン化の分光

Spectroscopy of photoionization from the $^1E$ singlet state in nitrogen$-$vacancy centers in diamond ( http://arxiv.org/abs/2301.10383v1 )

ライセンス: Link先を確認
Sean M. Blakley, Thuc T. Mai, Stephen J. Moxim, Jason T. Ryan, Adam J. Biacchi, Angela R. Hight Walker, Robert D. McMichael(参考訳) 負電荷の窒素空孔を持つダイヤモンドの中心の$^1E-^1A_1$シングルト多様体は、NV^-$中心の量子情報および量子センシングの応用において中心的な役割を果たす。 しかし、ダイヤモンドバンドギャップ内および$^3a_2-^3e$トリプレット多様体に関するこの多様体のエネルギーは直接測定されていない。 光ルミネッセンス(PL)スペクトルに対する電界加熱効果を用いて,高窒素ドープ試料の励起波長,出力,温度,印加磁場の関数として,$^1E-^1A_1$シングルト多様体と$^3A_2$および$^3E$グラウンドとNV^-$の励起三重項状態のエネルギーギャップを報告した。 印加磁場の存在下ではPLの増加とNV^0$からのゼロフォノン線幅の減少が観察され、長寿命の$^1E$シングルト状態からのイオン化が示唆された。 532nmから550nmの温度依存性イオン化しきい値が検出され、ダイヤモンドバンドギャップ内の一重項状態が同定された。

The $^1E-^1A_1$ singlet manifold of the negatively charged nitrogen vacancy $(NV^-)$ center in diamond plays a central role in the quantum information and quantum sensing applications of the $NV^-$ center. However, the energy of this manifold within the diamond bandgap and with respect to the $^3A_2-^3E$ triplet manifold has not been measured directly. Using field-quenching effects on photoluminescence (PL) spectra, we report on the energy gap between the $^1E-^1A_1$ singlet manifold and the $^3A_2$ and $^3E$ ground and excited triplet states of the $NV^-$ as a function of excitation wavelength and power, temperature, and applied magnetic field in a heavily nitrogen-doped sample. Increased PL and decreased zero-phonon line width from the $NV^0$ were observed in the presence of an applied magnetic field, indicating ionization from the long-lived $^1E$ singlet state. A temperature-dependent ionization threshold between 532 nm and 550 nm was found, locating the singlet states within the diamond band gap.
翻訳日:2023-01-26 16:05:27 公開日:2023-01-25
# 散逸ダイナミクスによるギャップ閉鎖の同定

Identification of gap closing with dissipative dynamics ( http://arxiv.org/abs/2301.10382v1 )

ライセンス: Link先を確認
Jian-Song Pan and Fan Wu(参考訳) 量子系における散逸は相転移や相転移に劇的な影響を与えるが、しばしば有害な結果をもたらす。 ここでは、エルミート量子系におけるギャップ閉遷移が散逸の存在下での動的進化と同一視できるスキームを示す。 非エルミート系の最近の実験的発展に触発されて、純粋に損失の大きい摂動はハミルトン系の小さなギャップ付近で仮想的なスペクトルバブルを生じさせることを示した。 ギャップ閉点からスペクトル気泡を通り抜けるランダウ・ツェナー・シュタッケルベルクのような進化過程は、同じ射影確率を示し、原ハミルトンのギャップ閉点と反交差点を区別するために用いられる。 このスキームでは、臨界点へのパラメータの微調整と初期状態の精密な準備が可能である。 この研究は、閉量子システムの重要な特徴が非エルミート摂動を通じて明らかにできる興味深い例を提供する。

Dissipation in a quantum system can have dramatic impact on its phases and phase transitions, but often with detrimental outcomes. Here we demonstrate a scheme where gap-closing transitions in an Hermitian quantum system can be identified with dynamical evolution in presence of dissipation. Inspired by the recent experimental progress in non-Hermitian systems, we show that a purely lossy perturbation gives rise to an imaginary spectral bubble at around the small gap regime of underlying Hamiltonian. A Landau-Zener-St\"uckelberg-like evolution process passing the spectral bubble arose from the gap-closing point shows equal projection probabilities, which can be employed to distinguish gap closing and anticrossing points in the original Hamiltonian. The fine tuning of parameters to the critical point and the precise preparation of initial state are dispensable in this scheme. Our work provides an interesting example where key features of a closed quantum system can be revealed through non-Hermitian perturbations.
翻訳日:2023-01-26 16:05:04 公開日:2023-01-25
# 見出し依存構文解析の弱さ

Weakly Supervised Headline Dependency Parsing ( http://arxiv.org/abs/2301.10371v1 )

ライセンス: Link先を確認
Adrian Benton, Tianze Shi, Ozan \.Irsoy, Igor Malioutov(参考訳) 英語のニュースの見出しは1930年代から言語学の文献で記録されている独特の構文特性を持つ登録簿を形成する。 しかし、見出しはNLP構文解析コミュニティから驚くほど注目を集めていない。 このギャップを埋めるために、ユニバーサル依存アノテーション付き構文依存ツリーの最初のニュース見出しコーパスを提供することにより、ニュース見出し上で既存の最先端依存性解析を評価できるようにする。 英語ニュース見出し解析の精度を向上させるために,未ラベルのニュース見出し-アーティクルリード文ペアから銀のトレーニングデータをブートストラップするプロジェクション手法を開発した。 silver headline parsesでトレーニングされたモデルは、金の注釈付きロングフォームテキストのみに基づいてトレーニングされたモデルよりも、パフォーマンスが大幅に向上している。 最終的に、予測された銀のトレーニングデータは、異なるニュースソース間のパーサ性能を改善するが、その改善は、コンセントに同調的な建設によって抑制されることがわかった。

English news headlines form a register with unique syntactic properties that have been documented in linguistics literature since the 1930s. However, headlines have received surprisingly little attention from the NLP syntactic parsing community. We aim to bridge this gap by providing the first news headline corpus of Universal Dependencies annotated syntactic dependency trees, which enables us to evaluate existing state-of-the-art dependency parsers on news headlines. To improve English news headline parsing accuracies, we develop a projection method to bootstrap silver training data from unlabeled news headline-article lead sentence pairs. Models trained on silver headline parses demonstrate significant improvements in performance over models trained solely on gold-annotated long-form texts. Ultimately, we find that, although projected silver training data improves parser performance across different news outlets, the improvement is moderated by constructions idiosyncratic to outlet.
翻訳日:2023-01-26 16:04:45 公開日:2023-01-25
# 木重み付き木と信念伝播アルゴリズムの再パラメータ化と補間による厳密な分数推定

Exact Fractional Inference via Re-Parametrization & Interpolation between Tree-Re-Weighted- and Belief Propagation- Algorithms ( http://arxiv.org/abs/2301.10369v1 )

ライセンス: Link先を確認
Hamidreza Behjoo, Michael Chertkov(参考訳) のグラフ上のIsingモデルのパーティション関数($Z$)を計算するのに必要な推論努力は、おそらく$N$で指数関数である。 Belief Propagation (BP) や Tree Re-Weighted (TRW) アルゴリズムのような効率的な変分法は、各(BP-またはTRW-)自由エネルギーをほぼ最小化する$Z$を計算する。 ここでは、$\lambda$-fractional-homotopy, $Z^{(\lambda)}$を構築し、$\lambda=0$と$\lambda=1$はそれぞれTRWおよびBP-approximationsに対応し、$Z^{(\lambda)}$は$\lambda$単調で減少する。 さらに、この分数的スキームは、魅力的な(強磁性)ケースにおいて、$Z^{(TRW)}\geq Z^{(\lambda)}\geq Z^{(BP)}$であり、$Z=Z^{(\lambda_*)}$であるようなユニークな(`exact)$\lambda_*$が存在することを保証している。 \cite{wainwright_tree-based_2002} の再パラメータ化アプローチと \cite{chertkov_loop_2006} のループ級数アプローチを一般化し、$z$ を積として表現する方法を示す:$\forall \lambda:\ z=z^{(\lambda)}{\cal z}^{(\lambda)}$ ここで、乗法補正 ${\cal z}^{(\lambda)}$ はノードごとの分数辺から構築されたノードに依存しない確率分布に対する期待である。 理論解析は,中・大規模の平面グラフとランダムグラフ上のイジングアンサンブルモデルを用いた大規模実験によって補完される。 経験的研究は、いくつかの興味深い観察をもたらす。 (a)${\cal Z}^{(\lambda)}$を$O(N^4)$分数サンプルで推定する能力。 (b)特定のランダムIsingアンサンブルのインスタンスに対する$N$の増加による$\lambda_*$ゆらぎの抑制。

Inference efforts -- required to compute partition function, $Z$, of an Ising model over a graph of $N$ ``spins" -- are most likely exponential in $N$. Efficient variational methods, such as Belief Propagation (BP) and Tree Re-Weighted (TRW) algorithms, compute $Z$ approximately minimizing respective (BP- or TRW-) free energy. We generalize the variational scheme building a $\lambda$-fractional-homotopy, $Z^{(\lambda)}$, where $\lambda=0$ and $\lambda=1$ correspond to TRW- and BP-approximations, respectively, and $Z^{(\lambda)}$ decreases with $\lambda$ monotonically. Moreover, this fractional scheme guarantees that in the attractive (ferromagnetic) case $Z^{(TRW)}\geq Z^{(\lambda)}\geq Z^{(BP)}$, and there exists a unique (``exact") $\lambda_*$ such that, $Z=Z^{(\lambda_*)}$. Generalizing the re-parametrization approach of \cite{wainwright_tree-based_2002} and the loop series approach of \cite{chertkov_loop_2006}, we show how to express $Z$ as a product, $\forall \lambda:\ Z=Z^{(\lambda)}{\cal Z}^{(\lambda)}$, where the multiplicative correction, ${\cal Z}^{(\lambda)}$, is an expectation over a node-independent probability distribution built from node-wise fractional marginals. Our theoretical analysis is complemented by extensive experiments with models from Ising ensembles over planar and random graphs of medium- and large- sizes. The empirical study yields a number of interesting observations, such as (a) ability to estimate ${\cal Z}^{(\lambda)}$ with $O(N^4)$ fractional samples; (b) suppression of $\lambda_*$ fluctuations with increase in $N$ for instances from a particular random Ising ensemble.
翻訳日:2023-01-26 16:04:29 公開日:2023-01-25
# 量子アニールにおける反交差緩和のためのイジング問題の固有値不変変換

Eigenvalue-invariant transformation of Ising problem for anti-crossing mitigation in quantum annealing ( http://arxiv.org/abs/2301.10427v1 )

ライセンス: Link先を確認
Toru Fujii, Koshi Komuro, Yosuke Okudaira, and Masayasu Sawada(参考訳) 我々はIsing問題(ELTIP)のエネルギーランドスケープ変換を提案し、元の固有値(arXiv:2202.05927)を変更せずに状態と固有値の組み合わせを変更する。 ELTIPが量子アニール中の2つのレベルと最初の励起状態の間の反交差にどのように影響するかを研究する。 5スピン最大重み付き独立集合を用いて反交差を数値的に検討する。 比較のために、通常の横磁場に反強磁性相互作用を加える非確率ハミルトニアンを導入する。 非stoquastic hamiltonianによるアニーリングは難しい問題に有効である。 非stoquastic hamiltonianは、基底状態と最終状態の最初の励起状態の間のエネルギーギャップが小さい場合にのみ反交差を緩和する。 ELTIPを使用すると、アンチクロスは消滅する。 本稿では,非確率的ハミルトニアンよりも断熱的な変化を保証するため,ALTIPはアニーリング時間を短縮する。

We have proposed the energy landscape transformation of Ising problems (ELTIP), which changes the combination of the state and eigenvalue without changing all the original eigenvalues [arXiv:2202.05927]. We study how the ELTIP affects the anti-crossing between two levels of the ground and first excited states during quantum annealing. We use a 5-spin maximum-weighted independent set for the problem to numerically investigate the anticrossing. For comparison, we introduce a non-stoquastic Hamiltonian that adds antiferromagnetic interaction to the normal transverse magnetic field. Annealing with the non-stoquastic Hamiltonian is effective for difficult problems. The non-stoquastic Hamiltonian mitigates the anti-crossing when only the energy gap between the ground state and the first excited state of the final state is small. When the ELTIP is used, the anti-crossing disappears. For the problems investigated in this paper, the ELTIP shortens the annealing time to guarantee adiabatic change more than the non-stoquastic Hamiltonian.
翻訳日:2023-01-26 15:58:15 公開日:2023-01-25
# スピン-マグノン-メカニカルハイブリッド系における三成分相互作用の強化

Enhanced tripartite interactions in spin-magnon-mechanical hybrid systems ( http://arxiv.org/abs/2301.10424v1 )

ライセンス: Link先を確認
Xin-Lei Hei, Peng-Bo Li, Xue-Feng Pan, and Franco Nori(参考訳) 完全に異なる性質の自由度間のコヒーレントな三部構造相互作用は、量子情報やシミュレーション技術に欠かせないが、一般には実現が困難であり、ほとんど未解明のままである。 ここでは, 単一NV中心とマイクロマグネットからなるハイブリッド装置における三部結合機構の予測を行う。 我々は,NV中心とマイクロマグネット間の相対運動を変調することにより,単一NVスピン,マグノン,フォノン間の直接的および強三部構造相互作用を実現することを提案する。 具体的には、パラメトリック駆動(2フォノン駆動)を導入して機械的運動(電気トラップに閉じ込められたダイヤモンド中におけるNVスピンの中心-質量運動や磁気トラップ中の浮遊マイクロマグネットなど)を変調することにより、三部体の結合強度を最大2桁まで高め、単一量子レベルで可変かつ強いスピン-マグノン-フォノンカップリングが得られる。 これにより、例えば、現実的な実験パラメータを持つ量子スピン-磁気力学における固体スピン、マグノン、機械運動の3部交絡が可能になる。 このプロトコルは、イオントラップや磁気トラップでよく開発された技術で容易に実装でき、直接結合された三部構造系に基づく量子シミュレーションや情報処理の一般的な応用の道を開くことができる。

Coherent tripartite interactions among degrees of freedom of completely different nature are instrumental for quantum information and simulation technologies, but they are generally difficult to realize and remain largely unexplored. Here, we predict a tripartite coupling mechanism in a hybrid setup comprising a single NV center and a micromagnet. We propose to realize direct and strong tripartite interactions among single NV spins, magnons and phonons via modulating the relative motion between the NV center and the micromagnet. Specifically, by introducing a parametric drive (two-phonon drive) to modulate the mechanical motion (such as the center-of-mass motion of a NV spin in diamond trapped in an electrical trap or a levitated micromagnet in a magnetic trap), we can obtain a tunable and strong spin-magnon-phonon coupling at the single quantum level, with up to two orders of magnitude enhancement for the tripartite coupling strength. This enables, for example, tripartite entanglement among solid-state spins, magnons, and mechanical motions in quantum spin-magnonics-mechanics with realistic experimental parameters. This protocol can be readily implemented with the well-developed techniques in ion traps or magnetic traps, and could pave the way for general applications in quantum simulations and information processing based on directly and strongly coupled tripartite systems.
翻訳日:2023-01-26 15:57:57 公開日:2023-01-25
# deja vu: unseenドメインの連続モデル一般化

DEJA VU: Continual Model Generalization For Unseen Domains ( http://arxiv.org/abs/2301.10418v1 )

ライセンス: Link先を確認
Chenxi Liu, Lixu Wang, Lingjuan Lyu, Chen Sun, Xiao Wang, Qi Zhu(参考訳) 現実世界のアプリケーションでは、ディープラーニングモデルは、ターゲットデータ分布が時間とともに継続的に変化する非定常環境で実行されることが多い。 ドメイン間の適応性を改善するために、オンラインモードとオフラインモードの両方に多数のドメイン適応(DA)手法がある。 しかしながら、これらのDAメソッドは、通常、長期の適応後にのみ優れたパフォーマンスを提供し、適応前後に新しいドメインで、特にドメインシフトが突然、そして大幅に起こる場合に、パフォーマンスが良くない。 一方、未適応領域におけるモデル一般化能力を改善するためにドメイン一般化(DG)法が提案されている。 しかし、既存のDGワークは、学習知識の破滅的な忘れ込みのために、ドメインの継続的な変更には効果がない。 連続的なドメインシフト中の不慣れな期間を扱う際のDAとDGのこれらの制限を克服するため、RaTPを提案する。RaTPはモデルのターゲットドメイン一般化(TDG)能力の向上に焦点を当て、特定のドメインでのトレーニング直後の効果的なターゲットドメイン適応(TDA)能力と過去のドメインでの緩和(FA)能力を忘れる。 RaTPには、TDGのためのデータを作成するトレーニングフリーデータ拡張モジュール、TDAのための信頼性の高い監視を提供する新しい擬似ラベル機構、TDG、TDA、FAを達成するために異なるドメインを整合させるプロトタイプのコントラストアライメントアルゴリズムが含まれている。 Digits、PACS、DomainNetに関する大規模な実験では、RaTPは連続DA、ソースフリーDA、テストタイム/オンラインDA、シングルDG、マルチDG、統一DA&DGのTDAとFAの機能を著しく上回っており、同等のTDAとFA機能を実現している。

In real-world applications, deep learning models often run in non-stationary environments where the target data distribution continually shifts over time. There have been numerous domain adaptation (DA) methods in both online and offline modes to improve cross-domain adaptation ability. However, these DA methods typically only provide good performance after a long period of adaptation, and perform poorly on new domains before and during adaptation - in what we call the "Unfamiliar Period", especially when domain shifts happen suddenly and significantly. On the other hand, domain generalization (DG) methods have been proposed to improve the model generalization ability on unadapted domains. However, existing DG works are ineffective for continually changing domains due to severe catastrophic forgetting of learned knowledge. To overcome these limitations of DA and DG in handling the Unfamiliar Period during continual domain shift, we propose RaTP, a framework that focuses on improving models' target domain generalization (TDG) capability, while also achieving effective target domain adaptation (TDA) capability right after training on certain domains and forgetting alleviation (FA) capability on past domains. RaTP includes a training-free data augmentation module to prepare data for TDG, a novel pseudo-labeling mechanism to provide reliable supervision for TDA, and a prototype contrastive alignment algorithm to align different domains for achieving TDG, TDA and FA. Extensive experiments on Digits, PACS, and DomainNet demonstrate that RaTP significantly outperforms state-of-the-art works from Continual DA, Source-Free DA, Test-Time/Online DA, Single DG, Multiple DG and Unified DA&DG in TDG, and achieves comparable TDA and FA capabilities.
翻訳日:2023-01-26 15:57:30 公開日:2023-01-25
# 特徴写像変換によるサリエント領域からの局所特徴抽出

Local Feature Extraction from Salient Regions by Feature Map Transformation ( http://arxiv.org/abs/2301.10413v1 )

ライセンス: Link先を確認
Yerim Jung, Nur Suriza Syazwany Binti Ahmad Nizam, Sang-Chul Lee(参考訳) 局所的な特徴マッチングは、ローカライゼーションや3d再構成など、多くのアプリケーションで不可欠である。 しかし、様々なカメラ視点や照明条件で特徴点を正確に一致させることは困難である。 本稿では,光や視点の変化にかかわらず,局所的な特徴を強く抽出し,記述する枠組みを提案する。 このフレームワークは照明の変動を抑制し、構造情報を光からのノイズを無視し、エッジに集中するように促す。 特徴共分散行列(暗黙的特徴マップ情報)の要素を2つの構成要素に分類する。 提案モデルでは,不一致の低減につながるサルエント領域から特徴点を抽出する。 提案手法は,HPatches,Aachen Day-Night,ETHなどの公開データセットの最先端手法よりも高精度で,特に高度に変動する視点と照明を示す。

Local feature matching is essential for many applications, such as localization and 3D reconstruction. However, it is challenging to match feature points accurately in various camera viewpoints and illumination conditions. In this paper, we propose a framework that robustly extracts and describes salient local features regardless of changing light and viewpoints. The framework suppresses illumination variations and encourages structural information to ignore the noise from light and to focus on edges. We classify the elements in the feature covariance matrix, an implicit feature map information, into two components. Our model extracts feature points from salient regions leading to reduced incorrect matches. In our experiments, the proposed method achieved higher accuracy than the state-of-the-art methods in the public dataset, such as HPatches, Aachen Day-Night, and ETH, which especially show highly variant viewpoints and illumination.
翻訳日:2023-01-26 15:56:25 公開日:2023-01-25
# BDMMT:モデル変異試験による言語モデルのバックドアサンプル検出

BDMMT: Backdoor Sample Detection for Language Models through Model Mutation Testing ( http://arxiv.org/abs/2301.10412v1 )

ライセンス: Link先を確認
Jiali Wei, Ming Fan, Wenjing Jiao, Wuxia Jin, Ting Liu(参考訳) ディープニューラルネットワーク(DNN)と自然言語処理(NLP)システムは急速に発展し、様々な現実世界で広く利用されている。 しかし、バックドア攻撃に弱いことが示されている。 具体的には、敵はトレーニングフェーズ中にモデルにバックドアを注入し、バックドアトリガーを持つ入力サンプルをターゲットクラスに分類する。 いくつかの攻撃は、訓練済み言語モデル(LM)に対して高い攻撃成功率を達成したが、効果的な防御方法はまだない。 本研究では,深層モデル変異試験に基づく防御法を提案する。 我々の主な正当性は、バックドアのサンプルは、lmsにランダムな突然変異を課すと、クリーンなサンプルよりもずっと頑健であり、バックドアが一般化可能であることである。 まず,バックドアサンプルの検出におけるモデル変異検査の有効性を確認し,最も適切な突然変異演算子を選択する。 次に、バックドアのサンプルを検出することで、広く研究された3つのバックドア攻撃レベル(charレベル、wordレベル、文レベル)に対して体系的に防御する。 私たちはまた、最新のスタイルレベルのバックドア攻撃を防御する最初の試みも行います。 我々は3つのベンチマークデータセット(IMDB、Yelp、AGニュース)と3つのスタイル転送データセット(SST-2、Hate-speech、AGニュース)に対するアプローチを評価した。 提案手法は,3つの最先端防衛手法よりも効率的かつ高精度にバックドアサンプルを検出できることを示す。

Deep neural networks (DNNs) and natural language processing (NLP) systems have developed rapidly and have been widely used in various real-world fields. However, they have been shown to be vulnerable to backdoor attacks. Specifically, the adversary injects a backdoor into the model during the training phase, so that input samples with backdoor triggers are classified as the target class. Some attacks have achieved high attack success rates on the pre-trained language models (LMs), but there have yet to be effective defense methods. In this work, we propose a defense method based on deep model mutation testing. Our main justification is that backdoor samples are much more robust than clean samples if we impose random mutations on the LMs and that backdoors are generalizable. We first confirm the effectiveness of model mutation testing in detecting backdoor samples and select the most appropriate mutation operators. We then systematically defend against three extensively studied backdoor attack levels (i.e., char-level, word-level, and sentence-level) by detecting backdoor samples. We also make the first attempt to defend against the latest style-level backdoor attacks. We evaluate our approach on three benchmark datasets (i.e., IMDB, Yelp, and AG news) and three style transfer datasets (i.e., SST-2, Hate-speech, and AG news). The extensive experimental results demonstrate that our approach can detect backdoor samples more efficiently and accurately than the three state-of-the-art defense approaches.
翻訳日:2023-01-26 15:56:10 公開日:2023-01-25
# すべてのドメインに対する1つのモデル:クロスドメインnerのためのコラボレーティブなドメインプリフィックスチューニング

One Model for All Domains: Collaborative Domain-Prefix Tuning for Cross-Domain NER ( http://arxiv.org/abs/2301.10410v1 )

ライセンス: Link先を確認
Xiang Chen, Lei Li, Qiaoshuo Fei, Ningyu Zhang, Chuanqi Tan, Yong Jiang, Fei Huang, Huajun Chen(参考訳) クロスドメインNERは、実践シナリオにおける低リソースの問題に対処する上で難しいタスクである。 従来の典型的なソリューションは主に、リッチリソースドメインのデータを持つ事前学習言語モデル(PLM)を用いてNERモデルを取得し、ターゲットドメインに適応する。 異なるドメインのエンティティタイプ間のミスマッチの問題のため、従来のアプローチは通常、PLMのすべてのパラメータをチューニングし、最終的に各ドメインに対して全く新しいNERモデルになる。 さらに、現在のモデルは、複数のソースからターゲットへの知識の転送に失敗しながら、単一のソースドメインにおける知識の活用にのみ焦点を当てている。 この問題に対処するために,テキスト対テキスト生成plmに基づくクロスドメインner(cp-ner)のための協調型ドメインプリフィックスチューニングを導入する。 具体的には、ドメイン関連インストラクターを対象に、構造変更なしに知識を新しいドメインNERタスクに転送するテキスト・ツー・テキスト生成を提案する。 凍結したPLMを利用して協調的なドメイン-プレフィックスチューニングを行い、PLMのポテンシャルを刺激し、NERタスクを様々なドメインで処理する。 Cross-NERベンチマークによる実験結果から,提案手法はフレキシブルトランスファー能力を有し,単一ソースと複数ソースのクロスドメインNERタスクにおいて優れた性能を発揮することが示された。 コードはhttps://github.com/zjunlp/DeepKE/tree/main/example/ner/crossで提供される。

Cross-domain NER is a challenging task to address the low-resource problem in practical scenarios. Previous typical solutions mainly obtain a NER model by pre-trained language models (PLMs) with data from a rich-resource domain and adapt it to the target domain. Owing to the mismatch issue among entity types in different domains, previous approaches normally tune all parameters of PLMs, ending up with an entirely new NER model for each domain. Moreover, current models only focus on leveraging knowledge in one general source domain while failing to successfully transfer knowledge from multiple sources to the target. To address these issues, we introduce Collaborative Domain-Prefix Tuning for cross-domain NER (CP-NER) based on text-to-text generative PLMs. Specifically, we present text-to-text generation grounding domain-related instructors to transfer knowledge to new domain NER tasks without structural modifications. We utilize frozen PLMs and conduct collaborative domain-prefix tuning to stimulate the potential of PLMs to handle NER tasks across various domains. Experimental results on the Cross-NER benchmark show that the proposed approach has flexible transfer ability and performs better on both one-source and multiple-source cross-domain NER tasks. Codes will be available in https://github.com/zjunlp/DeepKE/tree/main/example/ner/cross.
翻訳日:2023-01-26 15:55:46 公開日:2023-01-25
# 嘘をつくな:STEALTHで悪意ある説明を避ける

Don't Lie to Me: Avoiding Malicious Explanations with STEALTH ( http://arxiv.org/abs/2301.10407v1 )

ライセンス: Link先を確認
Lauren Alvarez and Tim Menzies(参考訳) STEALTHは、悪意のある攻撃(すなわち嘘)や関連する不正問題に苦しむことなく、AI生成モデルを使用する方法である。 再帰的にデータをクラスタリングした後、STEALTHシステムはAIモデルにクラスラベルに関するクエリを限定的に要求する。 STEALTHが悪意のあるアルゴリズムを問うクエリ(データクラスタあたり1)をほとんど求めない a)その動作を検出することができず (b)いつ嘘をつくかを知る。

STEALTH is a method for using some AI-generated model, without suffering from malicious attacks (i.e. lying) or associated unfairness issues. After recursively bi-clustering the data, STEALTH system asks the AI model a limited number of queries about class labels. STEALTH asks so few queries (1 per data cluster) that malicious algorithms (a) cannot detect its operation, nor (b) know when to lie.
翻訳日:2023-01-26 15:55:21 公開日:2023-01-25
# 言語モデルに基づく知識グラフ埋め込みの編集

Editing Language Model-based Knowledge Graph Embeddings ( http://arxiv.org/abs/2301.10405v1 )

ライセンス: Link先を確認
Siyuan Cheng, Ningyu Zhang, Bozhong Tian, Zelin Dai, Feiyu Xiong, Wei Guo, Huajun Chen(参考訳) 近年では言語モデルによる知識グラフ(kg)埋め込みが実証的に成功している。 しかし、言語モデルに基づくkg埋め込みは通常、静的アーティファクトとしてデプロイされる。 そこで本稿では,言語モデルに基づくKG埋め込みを編集する新しいタスクを提案する。 提案手法は,kg組込みの性能を損なうことなく,データ効率の高い高速更新を実現することを目的とする。 e-fb15k237,a-fb15k237,e-wn18rr,a-wn18rrの4つの新しいデータセットを構築し,提案課題に対処するための既存モデルの限られた能力を示す,いくつかの知識編集ベースラインを評価した。 さらに,ハイパーネットワークのパラメトリック層を追加して事実の編集・追加を行う,シンプルかつ強力なベースラインであるkgeditorを提案する。 総合的な実験結果から、KGEditorは、トレーニングリソースの少ない他の部分に影響を与えることなく、特定の事実を更新する際のパフォーマンスが向上することを示した。 コードとデータセットはhttps://github.com/zjunlp/PromptKG/tree/main/deltaKGで提供される。

Recently decades have witnessed the empirical success of framing Knowledge Graph (KG) embeddings via language models. However, language model-based KG embeddings are usually deployed as static artifacts, which are challenging to modify without re-training after deployment. To address this issue, we propose a new task of editing language model-based KG embeddings in this paper. The proposed task aims to enable data-efficient and fast updates to KG embeddings without damaging the performance of the rest. We build four new datasets: E-FB15k237, A-FB15k237, E-WN18RR, and A-WN18RR, and evaluate several knowledge editing baselines demonstrating the limited ability of previous models to handle the proposed challenging task. We further propose a simple yet strong baseline dubbed KGEditor, which utilizes additional parametric layers of the hyper network to edit/add facts. Comprehensive experimental results demonstrate that KGEditor can perform better when updating specific facts while not affecting the rest with low training resources. Code and datasets will be available in https://github.com/zjunlp/PromptKG/tree/main/deltaKG.
翻訳日:2023-01-26 15:55:14 公開日:2023-01-25
# 動的プログラミングによるネットワークの厳密かつ迅速な線形クラスタリング

Exact and rapid linear clustering of networks with dynamic programming ( http://arxiv.org/abs/2301.10403v1 )

ライセンス: Link先を確認
Alice Patania, Antoine Allard, Jean-Gabriel Young(参考訳) 本稿では,高次階層や双曲型埋め込みの類似性次元など,ノードが単一次元における暗示的あるいは物理的位置を持つクラスタリングネットワークの問題について検討する。 臨界ギャップ法や他の欲望戦略のような既存のアルゴリズムは近似解のみを提供する。 ここでは、幅広いクラスタリング対象に対して多項式時間(O(n^2)ステップ)で証明可能な最適解を返す動的プログラミング手法を提案する。 合成および経験的ネットワークへの応用を通してアルゴリズムを実証し、同様の実行時間で既存のヒューリスティックスよりも優れていることを示す。

We study the problem of clustering networks whose nodes have imputed or physical positions in a single dimension, such as prestige hierarchies or the similarity dimension of hyperbolic embeddings. Existing algorithms, such as the critical gap method and other greedy strategies, only offer approximate solutions. Here, we introduce a dynamic programming approach that returns provably optimal solutions in polynomial time -- O(n^2) steps -- for a broad class of clustering objectives. We demonstrate the algorithm through applications to synthetic and empirical networks, and show that it outperforms existing heuristics by a significant margin, with a similar execution time.
翻訳日:2023-01-26 15:54:51 公開日:2023-01-25
# HealthEdge: 統合IoT、エッジ、クラウドコンピューティングシステムにおける2型糖尿病の予測のための機械学習ベースのスマートヘルスケアフレームワーク

HealthEdge: A Machine Learning-Based Smart Healthcare Framework for Prediction of Type 2 Diabetes in an Integrated IoT, Edge, and Cloud Computing System ( http://arxiv.org/abs/2301.10450v1 )

ライセンス: Link先を確認
Alain Hennebelle, Huned Materwala, Leila Ismail(参考訳) 糖尿病は、現在まで永続的な治療法がなく、世界でも主要な死因の1つである。 糖尿病の深刻化は、糖尿病の発生を予防・予測するための予防措置を講じる必要性を訴えている。 本稿では,IoT-エッジクラウド統合コンピューティングシステムにおける2型糖尿病予測のための機械学習ベースのスマートヘルスケアフレームワークHealthEdgeを提案する。 文献において最も使われている2つの機械学習アルゴリズムであるランダムフォレスト(RF)とロジスティック回帰(LR)の2つのリアルタイム糖尿病データセットを用いて数値実験と比較分析を行った。 その結果,RFは平均6%の精度で糖尿病を予測できることがわかった。

Diabetes Mellitus has no permanent cure to date and is one of the leading causes of death globally. The alarming increase in diabetes calls for the need to take precautionary measures to avoid/predict the occurrence of diabetes. This paper proposes HealthEdge, a machine learning-based smart healthcare framework for type 2 diabetes prediction in an integrated IoT-edge-cloud computing system. Numerical experiments and comparative analysis were carried out between the two most used machine learning algorithms in the literature, Random Forest (RF) and Logistic Regression (LR), using two real-life diabetes datasets. The results show that RF predicts diabetes with 6% more accuracy on average compared to LR.
翻訳日:2023-01-26 15:49:15 公開日:2023-01-25
# プリ計算メモリかオンザフライエンコーディングか? 検索拡張のハイブリッドアプローチは、あなたの計算を最大限に活用する

Pre-computed memory or on-the-fly encoding? A hybrid approach to retrieval augmentation makes the most of your compute ( http://arxiv.org/abs/2301.10448v1 )

ライセンス: Link先を確認
Michiel de Jong, Yury Zemlyanskiy, Nicholas FitzGerald, Joshua Ainslie, Sumit Sanghai, Fei Sha, William Cohen(参考訳) fusion-in-decoderのような検索型言語モデルは強力であり、様々な知識集約的なタスクで技術の現状を設定する。 しかし、検索された大量のパスをエンコードする必要があるため、コストも高い。 テキストコーパスをメモリにプリエンコードし、密表現を直接検索することで、コストを回避する作業もある。 しかし、メモリ表現が現在の入力で条件付けされていないため、プリエンコーディングメモリは厳しい品質上のペナルティを負う。 提案するLUMENは,検索表現の大部分をプリコンプリートし,質問に対して条件付きかつタスクの微調整を行うライブエンコーダを用いて,ハエの符号化を完了させる。 LUMENは、FiDよりもはるかに安価で、複数の質問応答タスクにおいて純粋メモリを著しく上回り、任意の計算予算において両者を上回ります。 さらに、LUMENのFiDに対する優位性はモデルサイズとともに増大する。

Retrieval-augmented language models such as Fusion-in-Decoder are powerful, setting the state of the art on a variety of knowledge-intensive tasks. However, they are also expensive, due to the need to encode a large number of retrieved passages. Some work avoids this cost by pre-encoding a text corpus into a memory and retrieving dense representations directly. However, pre-encoding memory incurs a severe quality penalty as the memory representations are not conditioned on the current input. We propose LUMEN, a hybrid between these two extremes, pre-computing the majority of the retrieval representation and completing the encoding on the fly using a live encoder that is conditioned on the question and fine-tuned for the task. We show that LUMEN significantly outperforms pure memory on multiple question-answering tasks while being much cheaper than FiD, and outperforms both for any given compute budget. Moreover, the advantage of LUMEN over FiD increases with model size.
翻訳日:2023-01-26 15:49:03 公開日:2023-01-25
# ir用スクラッチ用予訓練変圧器に関する実験的検討

An Experimental Study on Pretraining Transformers from Scratch for IR ( http://arxiv.org/abs/2301.10444v1 )

ライセンス: Link先を確認
Carlos Lassance, Herv\'e D\'ejean, St\'ephane Clinchant(参考訳) 数年前から、IRのための訓練済み言語モデル(PLM)のファインタニングは、事実上標準のプラクティスとなっている。 しかし、このアプローチはよく理解されていますか? 本稿では,事前学習コレクションが最終的なIR効果に与える影響について検討する。 特に,PLMが十分に大規模な汎用コレクションで訓練されるという現在の仮説に挑戦し,関心の収集をゼロから事前学習することは,現在のアプローチと驚くほど競合することを示す。 我々は,msmarcoの一般通路検索,アラビア語,日本語,ロシア語のmr-tydi,特定のドメインのtripclickについて,第1段階のランク付けとクロスエンコーダの評価を行った。 一般に信じられているのとは対照的に,第1段階のランク付けを微調整する上で,事前学習したモデルが,より一般的なモデルと同等あるいは良好な効果を持つことを示す。 しかし、ターゲットコレクションでのみ事前学習されたリカウンタには、わずかな有効性低下がある。 全体として,本研究では,事前学習収集の役割に新たな光を当て,ゼロから事前学習を行うことで,特別なモデルの構築をコミュニティにより深く検討するべきである。 最後に重要なことは、IRコミュニティにとって重要な研究課題である効率性、データのバイアス、複製性の向上を可能にすることだ。

Finetuning Pretrained Language Models (PLM) for IR has been de facto the standard practice since their breakthrough effectiveness few years ago. But, is this approach well understood? In this paper, we study the impact of the pretraining collection on the final IR effectiveness. In particular, we challenge the current hypothesis that PLM shall be trained on a large enough generic collection and we show that pretraining from scratch on the collection of interest is surprisingly competitive with the current approach. We benchmark first-stage ranking rankers and cross-encoders for reranking on the task of general passage retrieval on MSMARCO, Mr-Tydi for Arabic, Japanese and Russian, and TripClick for specific domain. Contrary to popular belief, we show that, for finetuning first-stage rankers, models pretrained solely on their collection have equivalent or better effectiveness compared to more general models. However, there is a slight effectiveness drop for rerankers pretrained only on the target collection. Overall, our study sheds a new light on the role of the pretraining collection and should make our community ponder on building specialized models by pretraining from scratch. Last but not least, doing so could enable better control of efficiency, data bias and replicability, which are key research questions for the IR community.
翻訳日:2023-01-26 15:48:46 公開日:2023-01-25
# 微分可能ウィンドウ変換を用いた正規化エントロピー曲線のランク付け学習

Learning to Rank Normalized Entropy Curves with Differentiable Window Transformation ( http://arxiv.org/abs/2301.10443v1 )

ライセンス: Link先を確認
Hanyang Liu, Shuai Yang, Feng Qi, Shuaiwen Wang(参考訳) 最近の自動機械学習システムは、しばしば学習曲線を使用して、予測不能な試行をやめ、より良いモデル構成を識別するタイミングを判断する。 本稿では,オンライン広告やレコメンデーションシステムでよく用いられる正規化エントロピー(NE)学習曲線のランク付けに適した,新しい学習曲線ランキングモデルを提案する。 提案モデルである自己適応曲線変換拡張相対曲線ランキング (ACTR2) は、学習曲線上の位置と曲線のダイナミクスの両方に基づいて適応的に最適化されたウィンドウサイズを持つ、生のNE曲線を複合窓NE曲線に変換する適応曲線変換層を特徴とする。 また,提案した適応曲線変換のための新しい微分可能インデックス化手法を導入し,離散指標に対する勾配を曲線変換層に自由に流し,学習したウィンドウサイズを学習中に柔軟に更新できるようにする。 さらに,2つの学習曲線の差を直接モデル化し,各曲線を個別にモデル化する場合に明らかでないような相対的性能の微妙な変化を捉えるのに優れるペアワイズ曲線ランキングアーキテクチャを提案する。 実世界のNE曲線データセットに関する広範な実験により、ACTR2の各キーコンポーネントの有効性と最先端の性能向上が示された。

Recent automated machine learning systems often use learning curves ranking models to inform decisions about when to stop unpromising trials and identify better model configurations. In this paper, we present a novel learning curve ranking model specifically tailored for ranking normalized entropy (NE) learning curves, which are commonly used in online advertising and recommendation systems. Our proposed model, self-Adaptive Curve Transformation augmented Relative curve Ranking (ACTR2), features an adaptive curve transformation layer that transforms raw lifetime NE curves into composite window NE curves with the window sizes adaptively optimized based on both the position on the learning curve and the curve's dynamics. We also introduce a novel differentiable indexing method for the proposed adaptive curve transformation, which allows gradients with respect to the discrete indices to flow freely through the curve transformation layer, enabling the learned window sizes to be updated flexibly during training. Additionally, we propose a pairwise curve ranking architecture that directly models the difference between the two learning curves and is better at capturing subtle changes in relative performance that may not be evident when modeling each curve individually as the existing approaches did. Our extensive experiments on a real-world NE curve dataset demonstrate the effectiveness of each key component of ACTR2 and its improved performance over the state-of-the-art.
翻訳日:2023-01-26 15:48:20 公開日:2023-01-25
# 表面欠陥検出のための粗集合に基づく雑音ラベルからの信頼度モデル学習

Learning Trustworthy Model from Noisy Labels based on Rough Set for Surface Defect Detection ( http://arxiv.org/abs/2301.10441v1 )

ライセンス: Link先を確認
Tongzhi Niu, Bin Li, Kai Li, Yufeng Lin, Yuwei Li, Weifeng Li, Zhenrong Wang(参考訳) 表面欠陥検出では、異常または正常と一意に分類できない不審な領域がいくつか存在する。 疑わしい領域の注釈は、労働者の感情変動や判断基準などの要因に容易に影響され、ノイズのあるラベルとなり、その結果、欠陥や誤検出が生じ、最終的に製品品質の矛盾した判断につながる。 通常のノイズラベルとは異なり、表面欠陥検出に用いられるラベルは、誤記ではなく矛盾しているように見える。 ノイズはほとんど全てのラベルで発生し、修正や評価が難しい。 本稿では,ノイズラベルから信頼に値するモデルから表面欠陥を学習するフレームワークを提案する。 まず,ノイズラベルがモデルに悪影響を及ぼすのを避けるため,不審な領域をピクセルレベルで一貫性のある正確な要素で表現し,損失関数を再設計する。 第二に、ネットワーク構造を変更し、余分なラベルを加えることなく、プラグ可能な空間相関したベイズモジュールを提案する。 最後に,異常を欠陥として識別できる不確実性を測定するために,欠陥識別信頼度を提案する。 提案手法が雑音ラベルから学習する上での有効性だけでなく,頑健性や実時間性能も示唆した。

In the surface defect detection, there are some suspicious regions that cannot be uniquely classified as abnormal or normal. The annotating of suspicious regions is easily affected by factors such as workers' emotional fluctuations and judgment standard, resulting in noisy labels, which in turn leads to missing and false detections, and ultimately leads to inconsistent judgments of product quality. Unlike the usual noisy labels, the ones used for surface defect detection appear to be inconsistent rather than mislabeled. The noise occurs in almost every label and is difficult to correct or evaluate. In this paper, we proposed a framework that learns trustworthy models from noisy labels for surface defect defection. At first, to avoid the negative impact of noisy labels on the model, we represent the suspicious regions with consistent and precise elements at the pixel-level and redesign the loss function. Secondly, without changing network structure and adding any extra labels, pluggable spatially correlated Bayesian module is proposed. Finally, the defect discrimination confidence is proposed to measure the uncertainty, with which anomalies can be identified as defects. Our results indicate not only the effectiveness of the proposed method in learning from noisy labels, but also robustness and real-time performance.
翻訳日:2023-01-26 15:47:56 公開日:2023-01-25
# ViDeBERTa:ベトナムの強力な事前訓練型言語モデル

ViDeBERTa: A powerful pre-trained language model for Vietnamese ( http://arxiv.org/abs/2301.10439v1 )

ライセンス: Link先を確認
Cong Dao Tran, Nhut Huy Pham, Anh Nguyen, Truong Son Hy, Tu Vu(参考訳) 本稿では,ベトナム語用単言語モデルViDeBERTaを,ベトナム語用単言語モデルViDeBERTa_xsmall,ViDeBERTa_base,ViDeBERTa_largeの3つのバージョンで提案する。 Transformerをベースとした事前学習型言語モデルの多くは英語で広く提案されているが、ダウンストリームタスク、特に質問応答において良い結果をもたらすベトナム語のための事前学習型モデルはまだ少ない。 我々は,3つの重要な自然言語下流タスク,パート・オブ・音声タギング,名前付き親和性認識,質問応答を微調整し,評価する。 実験の結果,ViDeBERTaはベトナム固有の複数の自然言語理解タスクにおける従来の最先端モデルを上回るパラメータがはるかに少ないことがわかった。 注目すべきは、86Mパラメータを持つViDeBERTa_baseは、370Mパラメータを持つPhoBERT_largeの23%に過ぎないが、それでも以前の最先端モデルと同じあるいはより良い結果が得られることだ。 私たちのViDeBERTaモデルは、https://github.com/HySonLab/ViDeBERTaで利用可能です。

This paper presents ViDeBERTa, a new pre-trained monolingual language model for Vietnamese, with three versions - ViDeBERTa_xsmall, ViDeBERTa_base, and ViDeBERTa_large, which are pre-trained on a large-scale corpus of high-quality and diverse Vietnamese texts using DeBERTa architecture. Although many successful pre-trained language models based on Transformer have been widely proposed for the English language, there are still few pre-trained models for Vietnamese, a low-resource language, that perform good results on downstream tasks, especially Question answering. We fine-tune and evaluate our model on three important natural language downstream tasks, Part-of-speech tagging, Named-entity recognition, and Question answering. The empirical results demonstrate that ViDeBERTa with far fewer parameters surpasses the previous state-of-the-art models on multiple Vietnamese-specific natural language understanding tasks. Notably, ViDeBERTa_base with 86M parameters, which is only about 23% of PhoBERT_large with 370M parameters, still performs the same or better results than the previous state-of-the-art model. Our ViDeBERTa models are available at: https://github.com/HySonLab/ViDeBERTa.
翻訳日:2023-01-26 15:47:35 公開日:2023-01-25
# 磁気渦とナノメカニカル共振器の強磁性結合を有するハイブリッド量子システム

Hybrid quantum system with strong magnetic coupling of a magnetic vortex to a nanomechanical resonator ( http://arxiv.org/abs/2301.10438v1 )

ライセンス: Link先を確認
Bo-Long Wang, Xin-Lei Hei, Xing-Liang Dong, Xiao-Yu Yao, Jia-Qiang Chen, Yi-Fan Qiao, Fu-Li Li, and Peng-Bo Li(参考訳) 本稿では,磁気渦とナノメカニカル共振器からなるハイブリッド量子システムを提案する。 渦のジャイロトロピックモードは、磁気相互作用によって共振器の量子化機械的運動とコヒーレントに結合できることを示す。 ナノメカニカル共振器の優れたコヒーレント特性に加えて, トポロジカル保護特性と低減衰特性から, 適切なパラメータを選択することで, 強い結合性および超強結合性を実現することができる。 窒素空孔(NV)中心のような他の量子系と組み合わせることで、渦励起とスピンの間のコヒーレントな状態移動を実現することができる。 このセットアップは、量子情報処理と超強結合状態とマクロ量子物理学の研究のための潜在的プラットフォームを提供する。

We present a hybrid quantum system composed of a magnetic vortex and a nanomechanical resonator. We show that the gyrotropic mode of the vortex can coherently couple to the quantized mechanical motion of the resonator through magnetic interaction. Benefiting from the topologically protected properties and the low damping of vortices, as well as the excellent coherent features of nanomechanical resonators, the proposed system can achieve strong coupling and even the ultrastrong coupling regime by choosing appropriate parameters. In combination with other quantum systems, such as a nitrogen-vacancy (NV) center, coherent state transfer between the vortex excitation and the spin can be realized. This setup provides a potential platform for quantum information processing and investigations into the ultrastrong coupling regimes and macroscopic quantum physics.
翻訳日:2023-01-26 15:47:11 公開日:2023-01-25
# 量子準同型暗号に基づくデリゲート変分量子アルゴリズム

Delegated variational quantum algorithms based on quantum homomorphic encryption ( http://arxiv.org/abs/2301.10433v1 )

ライセンス: Link先を確認
Qin Li, Junyu Quan, Jinjing Shi, Shichao Zhang, Xuelong Li(参考訳) 変分量子アルゴリズム(VQA)は、ノイズの多い中間スケール量子(NISQ)時代に量子デバイス上で量子アドバンテージを達成する最も有望な候補の1つである。 画像処理や方程式の線形系解法など多くの用途で開発された。 VQAsの応用は、限られた量子能力を持つユーザーがリモートの強力な量子コンピュータ上でそれらを実行することができれば、大幅に拡大することができる。 しかし、クライアントのプライベートデータは、そのような量子クラウドモデルで量子サーバにリークされる可能性がある。 この問題を解決するために、クライアントフレンドリでVQAに適した新しい量子同相暗号(QHE)スキームを構築し、暗号化されたデータを計算する。 次に、サーバは、クライアントの実際の入力や出力を知らずに、クライアントのデータを用いて、アンザッツ回路をトレーニングできる、所定のQHEスキームに基づいてデリゲートVQAを提案する。 さらに、手書きの数字画像を特定するデリゲート変分量子分類器をデリゲートvqaの具体例とし、その実現可能性を示すために元の量子のクラウドプラットフォーム上でシミュレートする。

Variational quantum algorithms (VQAs) are considered as one of the most promising candidates for achieving quantum advantages on quantum devices in the noisy intermediate-scale quantum (NISQ) era. They have been developed for numerous applications such as image processing and solving linear systems of equations. The application of VQAs can be greatly enlarged if users with limited quantum capabilities can run them on remote powerful quantum computers. But the private data of clients may be leaked to quantum servers in such a quantum cloud model. To solve the problem, a novel quantum homomorphic encryption (QHE) scheme which is client-friendly and suitable for VQAs is constructed for quantum servers to calculate encrypted data. Then delegated VQAs are proposed based on the given QHE scheme, where the server can train the ansatz circuit using the client's data even without knowing the real input and the output of the client. Furthermore, a delegated variational quantum classifier to identify handwritten digit images is given as a specific example of delegated VQAs and simulated on the cloud platform of Original Quantum to show its feasibility.
翻訳日:2023-01-26 15:46:57 公開日:2023-01-25
# 姿勢推定のためのバイアス補償積分回帰

Bias-Compensated Integral Regression for Human Pose Estimation ( http://arxiv.org/abs/2301.10431v1 )

ライセンス: Link先を確認
Kerui Gu, Linlin Yang, Michael Bi Mi, Angela Yao(参考訳) 人間と手の位置推定では、ヒートマップは身体や手のキーポイントにとって重要な中間表現である。 ヒートマップを最終的なジョイント座標にデコードする2つの一般的な方法は、熱マップ検出で行うargmax、あるいは積分回帰で行うソフトマックスと期待によって行われる。 積分回帰はエンドツーエンドで学習できるが、検出よりも精度が低い。 本稿では,ソフトマックスと期待操作を組み合わせた積分回帰から誘導されるバイアスを明らかにする。 このバイアスは、しばしばネットワークに縮退した局所的な熱マップを学習させ、キーポイントの真の基盤分布を隠蔽し、より低い精度をもたらす。 学習側では,積分回帰の勾配を調べることにより,熱マップ更新のための積分回帰の暗黙的指導により,検出よりも収束が遅くなることを示す。 上記の2つの制限に対処するため、バイアスを補う統合回帰ベースのフレームワークであるバイアス補償積分回帰(BCIR)を提案する。 BCIRはまた、トレーニングをスピードアップし、予測精度を向上させるためにガウスの事前損失を組み込んでいる。 人体と手のベンチマークによる実験の結果、BCIRは元の積分回帰よりも訓練が速く、精度が高いことが示され、最先端の検出手法と競合する。

In human and hand pose estimation, heatmaps are a crucial intermediate representation for a body or hand keypoint. Two popular methods to decode the heatmap into a final joint coordinate are via an argmax, as done in heatmap detection, or via softmax and expectation, as done in integral regression. Integral regression is learnable end-to-end, but has lower accuracy than detection. This paper uncovers an induced bias from integral regression that results from combining the softmax and the expectation operation. This bias often forces the network to learn degenerately localized heatmaps, obscuring the keypoint's true underlying distribution and leads to lower accuracies. Training-wise, by investigating the gradients of integral regression, we show that the implicit guidance of integral regression to update the heatmap makes it slower to converge than detection. To counter the above two limitations, we propose Bias Compensated Integral Regression (BCIR), an integral regression-based framework that compensates for the bias. BCIR also incorporates a Gaussian prior loss to speed up training and improve prediction accuracy. Experimental results on both the human body and hand benchmarks show that BCIR is faster to train and more accurate than the original integral regression, making it competitive with state-of-the-art detection methods.
翻訳日:2023-01-26 15:46:35 公開日:2023-01-25
# 任意の量子測定からの期待値

Expectation values from any quantum measurement ( http://arxiv.org/abs/2301.10428v1 )

ライセンス: Link先を確認
Dominik \v{S}afr\'anek, Dario Rosa(参考訳) 本稿では,観測可能な任意の可観測値とその高次モーメントの平均値を,他の可観測値の測定により推定する手法を提案する。 この方法は一般であり、任意の量子系に適用できる。 孤立系の平均エネルギーを推定する場合、異なる時間で観測可能な他の観測値を測定することにより、推定をさらに改善することができる。 直感的には、測定値と推定可観測値とシステムの状態との間の相互作用と相関を用いる。 より緩く解析的に計算可能な境界と、より厳密だが非凸最適化問題を解く必要がある境界を与える。 この手法は、高度に絡み合った測定を行うのが困難なセットアップにおける温度や作業など、期待値や関連する量の推定に使用することができ、最先端の量子シミュレータでの使用が期待できる。 実演として, ハイゼンベルクおよびイジングにおいて, 2量子ビット計測を行う場合, 基底状態エネルギーを推定する場合のエネルギー範囲の97.5\%と96.7\%をそれぞれ除いたモデルを示す。

We present a method to estimate the mean value of any observable and its higher moments by measuring any other observable. This method is general and can be applied to any quantum system. In the case of estimating the mean energy of an isolated system, the estimate can be further improved by measuring the other observable at different times. Intuitively, this method uses interplay and correlations between the measured and the estimated observable, and the state of the system. We provide two bounds: one that is looser but analytically computable, and one that is tighter but requires solving a non-convex optimization problem. The method can be used to estimate expectation values and related quantities such as temperature and work in setups in which performing measurements in a highly entangled basis is difficult, finding use in state-of-the-art quantum simulators. As a demonstration, we show that in Heisenberg and Ising models of ten sites in the localized phase, performing two-qubit measurements excludes 97.5\% and 96.7\% of the possible range of energies, respectively, when estimating the ground state energy.
翻訳日:2023-01-26 15:46:13 公開日:2023-01-25
# SWING:対話要約のためのカバーと信仰のバランスをとる

SWING: Balancing Coverage and Faithfulness for Dialogue Summarization ( http://arxiv.org/abs/2301.10483v1 )

ライセンス: Link先を確認
Kung-Hsiang Huang, Siffi Singh, Xiaofei Ma, Wei Xiao, Feng Nan, Nicholas Dingwall, William Yang Wang and Kathleen McKeown(参考訳) 欠落情報は対話要約の一般的な問題であり、参照要約に含まれる情報の一部が生成された要約には含まれない。 この問題に対処するため,本研究では,事実矛盾を回避しつつ,自然言語推論(NLI)モデルを用いてカバレッジを改善することを提案する。 具体的には,nliを用いてきめ細かな学習信号の計算を行い,そのモデルがカバーされていない参照要約文の内容を生成するように促し,事実に一貫性のある文と一貫性のない文を区別する。 DialogSumデータセットとSAMSumデータセットの実験は、自動測定と人的評価で検証されたカバレッジと忠実性のバランスをとるための提案手法の有効性を確認した。 さらに,対話要約の評価に最も適した指標について,対象範囲と事実整合性の3つの異なる次元を用いて,一般的な自動測定値と人間の判断値との相関を計算した。

Missing information is a common issue of dialogue summarization where some information in the reference summaries is not covered in the generated summaries. To address this issue, we propose to utilize natural language inference (NLI) models to improve coverage while avoiding introducing factual inconsistencies. Specifically, we use NLI to compute fine-grained training signals to encourage the model to generate content in the reference summaries that have not been covered, as well as to distinguish between factually consistent and inconsistent generated sentences. Experiments on the DialogSum and SAMSum datasets confirm the effectiveness of the proposed approach in balancing coverage and faithfulness, validated with automatic metrics and human evaluations. Additionally, we compute the correlation between commonly used automatic metrics with human judgments in terms of three different dimensions regarding coverage and factual consistency to provide insight into the most suitable metric for evaluating dialogue summaries.
翻訳日:2023-01-26 15:39:34 公開日:2023-01-25
# FewShotTextGCN: K-hop neighborhood regularization for few-shot learning on graphs

FewShotTextGCN: K-hop neighborhood regularization for few-shot learning on graphs ( http://arxiv.org/abs/2301.10481v1 )

ライセンス: Link先を確認
Niels van der Heijden, Ekaterina Shutova and Helen Yannakoudakis(参考訳) FewShotTextGCNは,低リソース環境下での学習改善のために,単語文書グラフの特性を効果的に活用するための新しい手法である。 ヘテロジニアスグラフの正則化であるk-hop近傍正規化を導入し,少数のトレーニングサンプルしか利用できない場合の学習の安定化と改善を示す。 我々はさらに,グラフ構築法の単純化を提案する。その結果,$\sim$7 未満のグラフが,高リソース設定における技術と同等のパフォーマンスを保ちながら,少ないリソース設定でパフォーマンスが向上する。 最後に,単語文書グラフに適したAdaptive Pseudo-Labelingを提案する。 トレーニングに20個のサンプルを使用する場合、平均8つの言語で17%の絶対精度で、強いtextgcnベースラインを上回っています。 本手法は,多種多様な言語を事前学習することなく,大規模な事前学習言語モデルと同等の性能を示しながら,文書分類に適用できることを実証する。

We present FewShotTextGCN, a novel method designed to effectively utilize the properties of word-document graphs for improved learning in low-resource settings. We introduce K-hop Neighbourhood Regularization, a regularizer for heterogeneous graphs, and show that it stabilizes and improves learning when only a few training samples are available. We furthermore propose a simplification in the graph-construction method, which results in a graph that is $\sim$7 times less dense and yields better performance in little-resource settings while performing on par with the state of the art in high-resource settings. Finally, we introduce a new variant of Adaptive Pseudo-Labeling tailored for word-document graphs. When using as little as 20 samples for training, we outperform a strong TextGCN baseline with 17% in absolute accuracy on average over eight languages. We demonstrate that our method can be applied to document classification without any language model pretraining on a wide range of typologically diverse languages while performing on par with large pretrained language models.
翻訳日:2023-01-26 15:39:17 公開日:2023-01-25
# 航空機の皮膚検査 : デント評価の新しいモデルに向けて

Aircraft Skin Inspections: Towards a New Model for Dent Evaluation ( http://arxiv.org/abs/2301.10473v1 )

ライセンス: Link先を確認
Pasquale Lafiosca(参考訳) 航空機のメンテナンス、修理およびオーバーホール(MRO)産業は、徐々にデント検査のために3Dスキャンに切り替えつつある。 高精度なデバイスは、迅速かつ反復可能な測定を可能にし、効率的な報告とより客観的な損傷評価に繋がる。 しかし、3Dスキャナーの可能性は、決して悪用されない。 これは、構造修復マニュアル(SRM)がデントを扱う伝統的な方法、すなわち長さ、幅、深さを唯一関連する手段として考慮しているためである。 ボックス」と同様にデントを記述するのと等価であり、現在のアプローチは実際の形状に関する情報を破棄する。 これにより、非常に異なる形状(およびそれに対応する疲労寿命)を同一に分類した曖昧さが高まり、高精度な3dスキャナから大量の情報を取得する労力を省くことができる。 本稿では,実際のデント形状を記述するために7ドルのパラメータモデルを提案し,3dスキャナが生成する高忠実度データの活用を可能にした。 コンパクトな値集合は、同じモデルに基づいて歴史的データと構造的評価と比較することができる。

Aircraft maintenance, repair and overhaul (MRO) industry is gradually switching to 3D scanning for dent inspection. High-accuracy devices allow quick and repeatable measurements, which translate into efficient reporting and more objective damage evaluations. However, the potential of 3D scanners is far from being exploited. This is due to the traditional way in which the structural repair manual (SRM) deals with dents, that is, considering length, width and depth as the only relevant measures. Being equivalent to describing a dent similarly to a "box", the current approach discards any information about the actual shape. This causes high degrees of ambiguity, with very different shapes (and corresponding fatigue life) being classified as the same, and nullifies the effort of acquiring such great amount of information from high-accuracy 3D scanners. In this paper a $7$-parameter model is proposed to describe the actual dent shape, thus enabling the exploitation of the high fidelity data produced by 3D scanners. The compact set of values can then be compared against historical data and structural evaluations based on the same model.
翻訳日:2023-01-26 15:39:00 公開日:2023-01-25
# XLM-V:多言語マスク言語モデルにおける語彙ボトルネックの克服

XLM-V: Overcoming the Vocabulary Bottleneck in Multilingual Masked Language Models ( http://arxiv.org/abs/2301.10472v1 )

ライセンス: Link先を確認
Davis Liang, Hila Gonen, Yuning Mao, Rui Hou, Naman Goyal, Marjan Ghazvininejad, Luke Zettlemoyer, Madian Khabsa(参考訳) 大規模な多言語モデルは通常、100以上の言語で共有される単一の語彙に依存する。 これらのモデルがパラメータ数と深さを増加させるにつれて、語彙のサイズはほとんど変わっていない。 この語彙ボトルネックはXLM-Rのような多言語モデルの表現能力を制限する。 本稿では,語彙重複の少ない言語間でのトークン共有を非強調し,各言語に十分なカバレッジを達成するために語彙容量を割り当てることで,非常に大きな多言語語彙にスケールする新しい手法を提案する。 我々の語彙を用いたトークン化は、通常、XLM-Rよりも意味的に意味があり、短い。 この改良された語彙を活用して、100万のトークン語彙を持つ多言語言語モデルであるXLM-Vを訓練する。 XLM-Vは、自然言語推論(XNLI)、質問応答(MLQA, XQuAD, TyDiQA)、名前付きエンティティ認識(WikiAnn)から低リソースタスク(Americas NLI, MasakhaNER)まで、テスト対象のタスクでXLM-Rより優れています。

Large multilingual language models typically rely on a single vocabulary shared across 100+ languages. As these models have increased in parameter count and depth, vocabulary size has remained largely unchanged. This vocabulary bottleneck limits the representational capabilities of multilingual models like XLM-R. In this paper, we introduce a new approach for scaling to very large multilingual vocabularies by de-emphasizing token sharing between languages with little lexical overlap and assigning vocabulary capacity to achieve sufficient coverage for each individual language. Tokenizations using our vocabulary are typically more semantically meaningful and shorter compared to XLM-R. Leveraging this improved vocabulary, we train XLM-V, a multilingual language model with a one million token vocabulary. XLM-V outperforms XLM-R on every task we tested on ranging from natural language inference (XNLI), question answering (MLQA, XQuAD, TyDiQA), and named entity recognition (WikiAnn) to low-resource tasks (Americas NLI, MasakhaNER).
翻訳日:2023-01-26 15:38:43 公開日:2023-01-25
# hal3d: きめ細かい3d部分ラベリングのための階層型アクティブラーニング

HAL3D: Hierarchical Active Learning for Fine-Grained 3D Part Labeling ( http://arxiv.org/abs/2301.10460v1 )

ライセンス: Link先を確認
Fenggen Yu, Yiming Qian, Francisca Gil-Ureta, Brian Jackson, Eric Bennett, Hao Zhang(参考訳) 細粒度3Dパートラベリングのための最初の能動的学習ツールを提案する。これは,小部と複雑部の構造的な違いから,最も先進的な深層学習(DL)手法にも挑戦する問題である。 同じ理由から、必要なデータアノテーションの取り組みは、人間の関与を最小限に抑えるためのモチベーションの高いものです。 我々のラベル付けツールは、ディープニューラルネットワークによって予測される部分ラベルを反復的に検証または修正し、人間のフィードバックでネットワーク予測を継続的に改善する。 人間の努力を効果的に軽減するために,ツールに階層型と対称性対応のアクティブラベリングという2つの新しい特徴を開発した。 私たちのHAL3Dは、事前に定義された階層的な部分ラベルを持つテストセットに対して100%の精度(ヒューマンエラーの回避)を実現し、手作業よりも80%の時間を節約します。

We present the first active learning tool for fine-grained 3D part labeling, a problem which challenges even the most advanced deep learning (DL) methods due to the significant structural variations among the small and intricate parts. For the same reason, the necessary data annotation effort is tremendous, motivating approaches to minimize human involvement. Our labeling tool iteratively verifies or modifies part labels predicted by a deep neural network, with human feedback continually improving the network prediction. To effectively reduce human efforts, we develop two novel features in our tool, hierarchical and symmetry-aware active labeling. Our human-in-the-loop approach, coined HAL3D, achieves 100% accuracy (barring human errors) on any test set with pre-defined hierarchical part labels, with 80% time-saving over manual effort.
翻訳日:2023-01-26 15:38:20 公開日:2023-01-25
# 埋め込みとラベル平滑化に基づくニュース記事を用いた株価変動分類の改善

Improved Stock Price Movement Classification Using News Articles Based on Embeddings and Label Smoothing ( http://arxiv.org/abs/2301.10458v1 )

ライセンス: Link先を確認
Luis Villamil, Ryan Bausback, Shaeke Salman, Ting L. Liu, Conrad Horn, Xiuwen Liu(参考訳) 株価変動予測は金融において困難かつ不可欠な問題である。 現代の行動ファイナンスでは、関連株の株価が、投資家の反応や過剰反応を通じてニュースの公開後に動くことがしばしばあるが、価格変動とニュース記事との関係を定量的モデルで捉える方法は活発な分野研究であり、既存のモデルも変動度で成功を収めている。 本稿では,ディープラーニングから正規化と最適化手法を取り入れ,ニュース記事を用いた株価変動分類を改善することを提案する。 具体的には、最近のモデルのように、埋め込みや双方向のリカレントニューラルネットワークを通じて、ニュース記事と在庫間の依存関係をキャプチャする。 さらに,重みの減衰,バッチ正規化,ドロップアウト,ラベル平滑化を取り入れ,モデルの一般化を図る。 バッチ正規化の検証精度の高ゆらぎに対処するために,この改善を確実に実現するために,二相訓練を提案する。 一般的なデータセットに対する実験結果から,テストセットの平均精度は80.7%であり,既存のモデルよりも10.0%以上向上していることがわかった。 本研究はバッチ正規化とラベル平滑化が最も効果的であり,平均で6.0%と3.4%の絶対改善率を示した。

Stock price movement prediction is a challenging and essential problem in finance. While it is well established in modern behavioral finance that the share prices of related stocks often move after the release of news via reactions and overreactions of investors, how to capture the relationships between price movements and news articles via quantitative models is an active area research; existing models have achieved success with variable degrees. In this paper, we propose to improve stock price movement classification using news articles by incorporating regularization and optimization techniques from deep learning. More specifically, we capture the dependencies between news articles and stocks through embeddings and bidirectional recurrent neural networks as in recent models. We further incorporate weight decay, batch normalization, dropout, and label smoothing to improve the generalization of the trained models. To handle high fluctuations of validation accuracy of batch normalization, we propose dual-phase training to realize the improvements reliably. Our experimental results on a commonly used dataset show significant improvements, achieving average accuracy of 80.7% on the test set, which is more than 10.0% absolute improvement over existing models. Our ablation studies show batch normalization and label smoothing are most effective, leading to 6.0% and 3.4% absolute improvement, respectively on average.
翻訳日:2023-01-26 15:38:02 公開日:2023-01-25
# ビデオ符号化のためのレート知覚最適化前処理

Rate-Perception Optimized Preprocessing for Video Coding ( http://arxiv.org/abs/2301.10455v1 )

ライセンス: Link先を確認
Chengqian Ma, Zhiqiang Wu, Chunlei Cai, Pengwei Zhang, Yi Wang, Long Zheng, Chao Chen, Quan Zhou(参考訳) 過去数十年間、従来のビデオコーデックや学習ベースのビデオコーデックなど、ビデオ圧縮分野で多くの進歩を遂げてきた。 しかし,前処理技術を用いて速度分散性能を向上させる研究は少ない。 本稿では,レートパーセプション最適化前処理(RPP)手法を提案する。 まず適応型離散コサイン変換損失関数を導入し、ビットレートを節約し、必須の高周波成分を保持する。 さらに,高次劣化モデル,効率的な軽量ネットワーク設計,画質評価モデルなど,低レベルの視覚領域から最先端技術をいくつか組み合わせた。 これらの強力なテクニックを併用することで、当社のRCPアプローチは、AVC、HEVC、VVCなどの異なるビデオエンコーダで、平均16.27%のビットレートの節約を達成できます。 デプロイメント段階では、RPP手法は非常にシンプルで効率的であり、ビデオエンコーディング、ストリーミング、デコードの設定の変更は不要である。 各入力フレームは、ビデオエンコーダを送る前に、RCPを1回通すだけでよい。 さらに、当社の主観的視覚的品質テストでは、RPPビデオの87%がコーデックのみを使用して圧縮することで、RPPビデオの方が良いか等しいと考える一方、RPPビデオは平均で12%のビットレートを節約している。 当社のRCPフレームワークは,毎日数百万のユーザが利用しているビデオトランスコーディングサービスの生産環境に統合されています。

In the past decades, lots of progress have been done in the video compression field including traditional video codec and learning-based video codec. However, few studies focus on using preprocessing techniques to improve the rate-distortion performance. In this paper, we propose a rate-perception optimized preprocessing (RPP) method. We first introduce an adaptive Discrete Cosine Transform loss function which can save the bitrate and keep essential high frequency components as well. Furthermore, we also combine several state-of-the-art techniques from low-level vision fields into our approach, such as the high-order degradation model, efficient lightweight network design, and Image Quality Assessment model. By jointly using these powerful techniques, our RPP approach can achieve on average, 16.27% bitrate saving with different video encoders like AVC, HEVC, and VVC under multiple quality metrics. In the deployment stage, our RPP method is very simple and efficient which is not required any changes in the setting of video encoding, streaming, and decoding. Each input frame only needs to make a single pass through RPP before sending into video encoders. In addition, in our subjective visual quality test, 87% of users think videos with RPP are better or equal to videos by only using the codec to compress, while these videos with RPP save about 12% bitrate on average. Our RPP framework has been integrated into the production environment of our video transcoding services which serve millions of users every day.
翻訳日:2023-01-26 15:37:39 公開日:2023-01-25
# データ中心アプローチによるアウトオブディストリビューション検出レンズによる敵対的トレーニングの改善

A Data-Centric Approach for Improving Adversarial Training Through the Lens of Out-of-Distribution Detection ( http://arxiv.org/abs/2301.10454v1 )

ライセンス: Link先を確認
Mohammad Azizmalayeri, Arman Zarei, Alireza Isavand, Mohammad Taghi Manzuri, Mohammad Hossein Rohban(参考訳) 現在の機械学習モデルは、多くの現実世界のアプリケーションで超人的性能を達成する。 それでも、それらは不可避な逆境の摂動に影響を受けやすい。 この問題の最も効果的な解決策は、元のモデルではなく、逆摂動サンプルでモデルを訓練する敵の訓練である。 近年,データ強化やトレーニングアタックの修正など,敵の訓練を改善するための様々な手法が開発されている。 本研究では,データ中心の新たな視点から同じ問題を考察する。 この目的のために,既存のモデルに基づく手法が,より小さな摂動や最適化重みをハードトレーニングの例に適用できることを示した。 そこで本研究では,これらの硬いサンプルを学習手順から直接検出・除去し,その効果を緩和する複雑なアルゴリズムを適用することを提案する。 検出には, ハードサンプルをデータ分布全体の分布外サンプルとみなすことができるため, 分布外検出の有効な方法として, 最大ソフトマックス確率を用いる。 SVHN と CIFAR-10 データセットを用いた結果,計算コストの増大を伴わずに対角訓練の改善に本手法の有効性が示された。

Current machine learning models achieve super-human performance in many real-world applications. Still, they are susceptible against imperceptible adversarial perturbations. The most effective solution for this problem is adversarial training that trains the model with adversarially perturbed samples instead of original ones. Various methods have been developed over recent years to improve adversarial training such as data augmentation or modifying training attacks. In this work, we examine the same problem from a new data-centric perspective. For this purpose, we first demonstrate that the existing model-based methods can be equivalent to applying smaller perturbation or optimization weights to the hard training examples. By using this finding, we propose detecting and removing these hard samples directly from the training procedure rather than applying complicated algorithms to mitigate their effects. For detection, we use maximum softmax probability as an effective method in out-of-distribution detection since we can consider the hard samples as the out-of-distribution samples for the whole data distribution. Our results on SVHN and CIFAR-10 datasets show the effectiveness of this method in improving the adversarial training without adding too much computational cost.
翻訳日:2023-01-26 15:37:16 公開日:2023-01-25
# ソーシャルメディアを用いたメンタルヘルスの予測--今後の展開に向けて

Predicting mental health using social media: A roadmap for future development ( http://arxiv.org/abs/2301.10453v1 )

ライセンス: Link先を確認
Ramin Safa, S. A. Edalatpanah and Ali Sorourkhah(参考訳) 抑うつや自殺といった精神疾患は危険であり、世界中で3億人以上が影響を受ける。 しかしソーシャルメディアでは、精神障害の症状が観察され、自動化されたアプローチが検出できるようになる。 膨大な数のソーシャルメディアユーザーと膨大な量のソーシャルプラットフォーム上のユーザー生成データが、研究者がメンタルステータスと相関するパターンを区別するユニークな機会を提供する。 この研究は、精神状態検出を機械学習技術に基づいて行うことができる分析のロードマップを提供する。 ユーザ生成コンテンツを用いて障害を予測・識別するための一般的なアプローチについて述べる。 この研究は、データ収集、特徴抽出、予測アルゴリズムに基づいて組織される。 さらに, 候補プロファイルの異なる特徴と解析手法について検討した最近の研究について概説する。 続いて,障害のあるユーザを識別するための実験的自動検出フレームワークの開発に関する様々な側面について議論し,今後の動向について考察する。 導入した手法はスクリーニング手順を補完し、ソーシャルメディアによる大規模監視を通じてリスクの高い人々を識別し、将来的には障害を治療しやすくする。

Mental disorders such as depression and suicidal ideation are hazardous, affecting more than 300 million people over the world. However, on social media, mental disorder symptoms can be observed, and automated approaches are increasingly capable of detecting them. The considerable number of social media users and the tremendous quantity of user-generated data on social platforms provide a unique opportunity for researchers to distinguish patterns that correlate with mental status. This research offers a roadmap for analysis, where mental state detection can be based on machine learning techniques. We describe the common approaches for predicting and identifying the disorder using user-generated content. This research is organized according to the data collection, feature extraction, and prediction algorithms. Furthermore, we review several recent studies conducted to explore different features of candidate profiles and their analytical methods. Following, we debate various aspects of the development of experimental auto-detection frameworks for identifying users who suffer from disorders, and we conclude with a discussion of future trends. The introduced methods can help complement screening procedures, identify at-risk people through social media monitoring on a large scale, and make disorders easier to treat in the future.
翻訳日:2023-01-26 15:36:57 公開日:2023-01-25
# 逆薬物事象検出のための概念認識型知識強化グラフニューラルネットワーク

Knowledge-augmented Graph Neural Networks with Concept-aware Attention for Adverse Drug Event Detection ( http://arxiv.org/abs/2301.10451v1 )

ライセンス: Link先を確認
Shaoxiong Ji and Ya Gao and Pekka Marttinen(参考訳) 副作用(ADE)は薬物の安全性の重要な側面である。 バイオメディカル文学、薬物レビュー、ソーシャルメディアや医療フォーラムでのユーザー投稿など様々なテキストにはADEに関する情報が豊富に含まれている。 近年,テキストからのADE検出を自動化するために,単語埋め込みとディープラーニングに基づく自然言語処理を適用している。 しかし、薬物や副作用やそれに対応する特徴学習に関する明確な医学的知識を取り入れようとはしなかった。 本稿では, 文書, 単語, 概念間の関係を記述した異種テキストグラフを導入し, 統一医療言語システムから医療知識を付加し, グラフ内の異なる種類のノードの特徴を異なる形で学習する概念認識型注意機構を提案する。 さらに、事前訓練された言語モデルと畳み込みグラフニューラルネットワークの文脈的埋め込みを利用して、効率的な特徴表現と関係学習を行う。 4つの公開データセットの実験により、我々のモデルは最近の進歩と競合する性能を達成し、概念認識の注意は他の注意機構よりも一貫して優れていることが示された。

Adverse drug events (ADEs) are an important aspect of drug safety. Various texts such as biomedical literature, drug reviews, and user posts on social media and medical forums contain a wealth of information about ADEs. Recent studies have applied word embedding and deep learning -based natural language processing to automate ADE detection from text. However, they did not explore incorporating explicit medical knowledge about drugs and adverse reactions or the corresponding feature learning. This paper adopts the heterogenous text graph which describes relationships between documents, words and concepts, augments it with medical knowledge from the Unified Medical Language System, and proposes a concept-aware attention mechanism which learns features differently for the different types of nodes in the graph. We further utilize contextualized embeddings from pretrained language models and convolutional graph neural networks for effective feature representation and relational learning. Experiments on four public datasets show that our model achieves performance competitive to the recent advances and the concept-aware attention consistently outperforms other attention mechanisms.
翻訳日:2023-01-26 15:36:39 公開日:2023-01-25
# ExaRanker: Explanation-augmented Neural Ranker

ExaRanker: Explanation-Augmented Neural Ranker ( http://arxiv.org/abs/2301.10521v1 )

ライセンス: Link先を確認
Fernando Ferraretto, Thiago Laitz, Roberto Lotufo and Rodrigo Nogueira(参考訳) 近年の研究では,大規模言語モデル(LLM)の導入により,回答を出力する前に説明文を生成することが,幅広い推論タスクのパフォーマンス向上に有効な戦略であることが示されている。 本稿では,神経ランカが説明の恩恵を受けていることを示す。 gpt-3.5 のような llm を使用して,説明付き検索データセットの強化とシーケンス・ツー・シーケンスのランク付けモデルのトレーニングを行い,与えられたクエリ・ドキュメントペアに対して関連ラベルと説明文を出力する。 ExaRankerと呼ばれる私たちのモデルは、数千の例で微調整され、合成説明は、説明なしで3倍の例で微調整されたモデルと同等に実行される。 さらに、exarankerモデルは、ランキング中に追加の計算コストを発生せず、オンデマンドで説明を要求できる。

Recent work has shown that inducing a large language model (LLM) to generate explanations prior to outputting an answer is an effective strategy to improve performance on a wide range of reasoning tasks. In this work, we show that neural rankers also benefit from explanations. We use LLMs such as GPT-3.5 to augment retrieval datasets with explanations and train a sequence-to-sequence ranking model to output a relevance label and an explanation for a given query-document pair. Our model, dubbed ExaRanker, finetuned on a few thousand examples with synthetic explanations performs on par with models finetuned on 3x more examples without explanations. Furthermore, the ExaRanker model incurs no additional computational cost during ranking and allows explanations to be requested on demand.
翻訳日:2023-01-26 15:30:51 公開日:2023-01-25
# Ultra-NeRF: 超音波イメージングのためのニューラルラジアンス場

Ultra-NeRF: Neural Radiance Fields for Ultrasound Imaging ( http://arxiv.org/abs/2301.10520v1 )

ライセンス: Link先を確認
Magdalena Wysocki, Mohammad Farid Azampour, Christine Eilers, Benjamin Busam, Mehrdad Salehi, Nassir Navab(参考訳) 本稿では,超音波(us)イメージングのための物理的に強調された暗黙的神経表現(inr)について述べる。 提案手法は, レイトレーシングに基づくニューラルレンダリングを新しいビューUS合成に活用する。 最近の出版物は、INRモデルが2次元USフレームの集合から3次元シーンの表現を符号化できることを示した。 しかし,これらのモデルでは画像に固有の外観や形状の変化は考慮されていない。 本研究では,映像の方向依存的変化を議論し,物理に触発されたレンダリングが映像合成の忠実性を向上させることを示す。 特に,提案手法が,米国画像の視点依存性による曖昧な表現領域に対して,幾何学的に高精度なbモード画像を生成することを実験的に証明した。 シミュレーションしたBモードUSスイープを用いて実験を行い、ロボットアームで追跡した脊椎ファントムのUSスイープを取得しました。 実験により,従来は見つからなかったビューから一貫した体積合成が可能なUSフレームを生成することが確認された。 我々の知る限りでは、INRを用いたビュー依存US画像合成に最初に取り組む研究である。

We present a physics-enhanced implicit neural representation (INR) for ultrasound (US) imaging that learns tissue properties from overlapping US sweeps. Our proposed method leverages a ray-tracing-based neural rendering for novel view US synthesis. Recent publications demonstrated that INR models could encode a representation of a three-dimensional scene from a set of two-dimensional US frames. However, these models fail to consider the view-dependent changes in appearance and geometry intrinsic to US imaging. In our work, we discuss direction-dependent changes in the scene and show that a physics-inspired rendering improves the fidelity of US image synthesis. In particular, we demonstrate experimentally that our proposed method generates geometrically accurate B-mode images for regions with ambiguous representation owing to view-dependent differences of the US images. We conduct our experiments using simulated B-mode US sweeps of the liver and acquired US sweeps of a spine phantom tracked with a robotic arm. The experiments corroborate that our method generates US frames that enable consistent volume compounding from previously unseen views. To the best of our knowledge, the presented work is the first to address view-dependent US image synthesis using INR.
翻訳日:2023-01-26 15:30:38 公開日:2023-01-25
# タスク指向FAQ検索のためのマルチテナント最適化

Multi-Tenant Optimization For Few-Shot Task-Oriented FAQ Retrieval ( http://arxiv.org/abs/2301.10517v1 )

ライセンス: Link先を確認
Asha Vishwanathan, Rajeev Unnikrishnan Warrier, Gautham Vadakkekara Suresh and Chandra Shekhar Kandpal(参考訳) タスク指向ダイアログシステムにおけるビジネス特化頻繁質問(faq)の検索は、コミュニティベースのfaqに特有の課題をもたらす。 それぞれのfaq質問は、通常、関連する多くのユーザークエリの包括的用語であるインテントを表す。 我々は,クエリクエスト(q-Q)類似度と少数ショットインテント検出技術を用いた標準的なFAQ検索手法を用いて,このようなビジネスFAQの性能を評価する。 複数のテナント(faqセット)をサポートするために、faq検索の現実世界ソリューションを実装するには、スピード、精度、コストの最適化が必要となる。 文中の最後の層を対照的に微調整することで,マルチテナントFAQアプリケーションを現実のコンテキストでスケールする手法を提案する。

Business-specific Frequently Asked Questions (FAQ) retrieval in task-oriented dialog systems poses unique challenges vis-\`a-vis community based FAQs. Each FAQ question represents an intent which is usually an umbrella term for many related user queries. We evaluate performance for such Business FAQs both with standard FAQ retrieval techniques using query-Question (q-Q) similarity and few-shot intent detection techniques. Implementing a real world solution for FAQ retrieval in order to support multiple tenants (FAQ sets) entails optimizing speed, accuracy and cost. We propose a novel approach to scale multi-tenant FAQ applications in real-world context by contrastive fine-tuning of the last layer in sentence Bi-Encoders along with tenant-specific weight switching.
翻訳日:2023-01-26 15:30:20 公開日:2023-01-25
# Stack Exchangeで実践者が報告した機械学習のベストプラクティスは?

What are the Machine Learning best practices reported by practitioners on Stack Exchange? ( http://arxiv.org/abs/2301.10516v1 )

ライセンス: Link先を確認
Anamaria Mojica-Hanke and Andrea Bayona and Mario Linares-V\'asquez and Steffen Herbold and Fabio A. Gonz\'alez(参考訳) 機械学習(ml)は、データ内の関係を推論する能力があるため、複数の分野で使用されている。 特に、ソフトウェアエンジニアリング(SE)は、ソフトウェア分類、バグ予測、テストなど、MLが複数のタスクに使用されている分野のひとつです。 複数のMLアプリケーションに加えて、MLを使用する際の落とし穴や問題を検出し、理解するためにいくつかの研究がなされている。 しかしながら、私たちの知る限りでは、MLのベストプラクティスやガイドラインをさまざまな分野に適用することに注力する研究はごくわずかです。 さらに 前回の文献に提示された 実践や文学は (i)ドメイン特有(例えば、バイオメカニクスにおける具体的な実践) (二)実践の少ないこと、又は (iii)厳格な検証がなく、灰色文献で示される。 本稿では,14のStack Exchange (STE) サイトから242のポストを体系的にマイニングし,独立したML専門家4名による検証を行った。 プラクティスのリストは、ML対応システムの実装プロセスの異なる段階に関するカテゴリのセットで示され、それぞれのプラクティスには、説明と例が含まれています。 すべてのプラクティスにおいて、提供された例はseタスクにフォーカスします。 このプラクティスのリストは、実践者がプラクティスをよりよく理解し、より情報のある方法でMLを使用するのに役立つと期待しています。

Machine Learning (ML) is being used in multiple disciplines due to its powerful capability to infer relationships within data. In particular, Software Engineering (SE) is one of those disciplines in which ML has been used for multiple tasks, like software categorization, bugs prediction, and testing. In addition to the multiple ML applications, some studies have been conducted to detect and understand possible pitfalls and issues when using ML. However, to the best of our knowledge, only a few studies have focused on presenting ML best practices or guidelines for the application of ML in different domains. In addition, the practices and literature presented in previous literature (i) are domain-specific (e.g., concrete practices in biomechanics), (ii) describe few practices, or (iii) the practices lack rigorous validation and are presented in gray literature. In this paper, we present a study listing 127 ML best practices systematically mining 242 posts of 14 different Stack Exchange (STE) websites and validated by four independent ML experts. The list of practices is presented in a set of categories related to different stages of the implementation process of an ML-enabled system; for each practice, we include explanations and examples. In all the practices, the provided examples focus on SE tasks. We expect this list of practices could help practitioners to understand better the practices and use ML in a more informed way, in particular newcomers to this new area that sits at the intersection of software engineering and machine learning.
翻訳日:2023-01-26 15:30:07 公開日:2023-01-25
# 超ハイゼンベルク精度による弱場センシングの資源としてのスターク局在化

Stark localization as a resource for weak-field sensing with super-Heisenberg precision ( http://arxiv.org/abs/2301.10512v1 )

ライセンス: Link先を確認
Xingjian He, Rozhin Yousefjani, and Abolfazl Bayat(参考訳) 勾配場は格子内の粒子トンネルを効果的に抑制し、全てのエネルギースケールで単一粒子の波動関数を局在化することができる。 エネルギー依存のスターク局在化遷移点、すなわちモビリティエッジは、システムのサイズが大きくなるにつれて無限小の場への遷移が起こる傾向にある。 ここでは,単一粒子のスタークプローブが弱磁場検出のための量子エンハンシング感度を実現するだけでなく,スペクトル全体にわたって強力な超ハイゼンベルクスケールを実現することを示す。 この精度は既知の量子センシングスキームの多くよりも優れており、単純な位置測定によって達成することができる。 さらに,有限スケール解析により,スターク局在遷移の臨界指数を同定し,それらの関係性を確立した。 興味深いことに、有限温度では達成可能な精度はハイゼンベルクのスケーリングに還元される。 また,スタークプローブの温度と系の大きさに関して,熱平衡における普遍的な挙動を明らかにした。

Gradient fields can effectively suppress particle tunneling in a lattice and localize the wave function of a single particle at all energy scales, a phenomenon known as Stark localization. The energy-dependent Stark localization transition point, i.e. mobility edge, tends to a transition at infinitesimal fields as the system size increases, closely resembling the Anderson localization without disorder. Here, we show that in the extended phase, the single-particle Stark probe not only achieves quantum-enhanced sensitivity for weak-field sensing but also allows for strong super-Heisenberg scaling across its entire spectrum. This precision is well-beyond most of the known quantum sensing schemes and can be achieved by a simple position measurement. Moreover, through extensive finite-size scaling analysis, we have identified several critical exponents of the Stark localization transition and established their relationship. Interestingly, at finite temperatures, the achievable precision reduces to Heisenberg scaling, which is still well beyond the capability of classical sensors. We have also identified a universal behavior for Stark probes at thermal equilibrium with respect to their temperature and system size.
翻訳日:2023-01-26 15:29:45 公開日:2023-01-25
# 非破壊的読み出しによる2次元原子配列のランダム化ベンチマーク

Randomized Benchmarking using Non-Destructive Readout in a 2D Atom Array ( http://arxiv.org/abs/2301.10510v1 )

ライセンス: Link先を確認
B. Nikolov, E. Diamond-Hitchcock, J. Bass, N. L. R. Spong and J. D. Pritchard(参考訳) 中性原子はスケーラブルな量子コンピューティングの有望なプラットフォームであるが、以前は高忠実性ゲートや低損失読み出し手法の実証には制限された数の量子ビットが使用されている。 マイクロ波駆動単一量子ビットゲートのランダム化ベンチマークを用いて、225原子の8(2)\times10^{-5}$の単一量子ビットゲートエラーを従来の破壊的読み出しを用いて実証する。 これはフォールトトレランスのしきい値を超える。 さらに,49原子の低損失・非破壊・状態選択的読み出しによる測定誤差の抑制を実証する。 これにより、現在の設定におけるエラーの主な原因であるatomロスのポスト選択が可能になる。

Neutral atoms are a promising platform for scalable quantum computing, however prior demonstration of high fidelity gates or low-loss readout methods have employed restricted numbers of qubits. Using randomized benchmarking of microwave-driven single-qubit gates, we demonstrate single qubit gate errors of $8(2)\times10^{-5}$ on 225 atoms using conventional, destructive readout. This exceeds the threshold for fault-tolerance. We further demonstrate suppression of measurement errors via low-loss, non-destructive and state-selective readout on 49 atoms. This enables post-selection for atom loss, which is a primary source of errors in present setups.
翻訳日:2023-01-26 15:29:24 公開日:2023-01-25
# Banker Online Mirror Descent: 遅延オンラインバンド学習のためのユニバーサルアプローチ

Banker Online Mirror Descent: A Universal Approach for Delayed Online Bandit Learning ( http://arxiv.org/abs/2301.10500v1 )

ライセンス: Link先を確認
Jiatai Huang, Yan Dai, Longbo Huang(参考訳) 本稿では,オンライン学習文献における古典的オンラインミラー・ダイアンス(OMD)技法を一般化した新しいフレームワークであるBanker-OMDを提案する。 Banker-OMD"フレームワークは、フィードバック遅延処理とタスク固有のOMDアルゴリズム設計をほぼ完全に分離しているため、フィードバック遅延を容易にかつ堅牢に処理できる新しいアルゴリズムを簡単に設計できる。 具体的には、フィードバックが遅れたオンラインバンディット学習タスクにおける$\tilde{\mathcal O}(\sqrt{T} + \sqrt{D})$-style regret boundsを達成するための一般的な方法論を提供する。 遅延フィードバックを伴う2つの重要なバンディット学習シナリオに対して,mab (scale-free adversarial multi-armed bandit) と遅延線形バンディット (delayed adversarial linear bandit) を応用して, \texttt{banker-omd} のパワーを実証した。 バンクーomd は、最初の遅延スケールフリーな逆向き mab アルゴリズムが $\tilde{\mathcal o}(\sqrt{k(d+t)}l)$ を達成し、$\tilde{\mathcal o}(\text{poly}(n)(\sqrt{t} + \sqrt{d})$ regret となる。 結論として、最初の応用は、非遅延スケール自由逆数 MAB に対する $\tilde{\mathcal O}(\sqrt{KT}L)$ regret を意味し、これは $\Omega(\sqrt{KT}L)$ lower bound to logarithmic factors and can be independent interest である。

We propose `Banker-OMD`, a novel framework generalizing the classical Online Mirror Descent (OMD) technique in the online learning literature. The `Banker-OMD` framework almost completely decouples feedback delay handling and the task-specific OMD algorithm design, thus allowing the easy design of new algorithms capable of easily and robustly handling feedback delays. Specifically, it offers a general methodology for achieving $\tilde{\mathcal O}(\sqrt{T} + \sqrt{D})$-style regret bounds in online bandit learning tasks with delayed feedback, where $T$ is the number of rounds and $D$ is the total feedback delay. We demonstrate the power of \texttt{Banker-OMD} by applications to two important bandit learning scenarios with delayed feedback, including delayed scale-free adversarial Multi-Armed Bandits (MAB) and delayed adversarial linear bandits. `Banker-OMD` leads to the first delayed scale-free adversarial MAB algorithm achieving $\tilde{\mathcal O}(\sqrt{K(D+T)}L)$ regret and the first delayed adversarial linear bandit algorithm achieving $\tilde{\mathcal O}(\text{poly}(n)(\sqrt{T} + \sqrt{D}))$ regret. As a corollary, the first application also implies $\tilde{\mathcal O}(\sqrt{KT}L)$ regret for non-delayed scale-free adversarial MABs, which is the first to match the $\Omega(\sqrt{KT}L)$ lower bound up to logarithmic factors and can be of independent interest.
翻訳日:2023-01-26 15:29:12 公開日:2023-01-25
# 対称非負行列分解のための確率的分割法

A Provable Splitting Approach for Symmetric Nonnegative Matrix Factorization ( http://arxiv.org/abs/2301.10499v1 )

ライセンス: Link先を確認
Xiao Li, Zhihui Zhu, Qiuwei Li, Kai Liu(参考訳) 一般的なNMFの特殊だが重要なクラスである対称非負行列因子化(NMF)は、様々なクラスタリングタスクのようなデータ解析に多くの応用を見出した。 残念なことに、対称NMFの高速アルゴリズムの設計は非対称なアルゴリズムほど簡単ではない。 この問題を克服するために,まず決定変数を分割し,対称nmfをペナルティ化非対称に変換し,効率的な交互型アルゴリズムの設計方法を提案する。 次に、ペナルティ化非対称変換の解法が元の対称nmfに対する解を返すことを示す。 さらに、交互型アルゴリズムの族を設計し、それらすべてが強い収束を保証することを示す: 反復列の生成は収束し、少なくとも元の対称NMFの臨界点にサブ線形に収束する。 最後に,合成データと実画像クラスタリングの両方について実験を行い,理論結果をサポートし,交互型アルゴリズムの性能を示す。

The symmetric Nonnegative Matrix Factorization (NMF), a special but important class of the general NMF, has found numerous applications in data analysis such as various clustering tasks. Unfortunately, designing fast algorithms for the symmetric NMF is not as easy as for its nonsymmetric counterpart, since the latter admits the splitting property that allows state-of-the-art alternating-type algorithms. To overcome this issue, we first split the decision variable and transform the symmetric NMF to a penalized nonsymmetric one, paving the way for designing efficient alternating-type algorithms. We then show that solving the penalized nonsymmetric reformulation returns a solution to the original symmetric NMF. Moreover, we design a family of alternating-type algorithms and show that they all admit strong convergence guarantee: the generated sequence of iterates is convergent and converges at least sublinearly to a critical point of the original symmetric NMF. Finally, we conduct experiments on both synthetic data and real image clustering to support our theoretical results and demonstrate the performance of the alternating-type algorithms.
翻訳日:2023-01-26 15:28:32 公開日:2023-01-25
# e(n)-同変グラフニューラルセルオートマトン

E(n)-equivariant Graph Neural Cellular Automata ( http://arxiv.org/abs/2301.10497v1 )

ライセンス: Link先を確認
Gennaro Gala, Daniele Grattarola and Erik Quaeghebeur(参考訳) セルオートマトン(セルオートマトン、Cellular Automatica)は、通常の格子に配列された細胞の局所的相互作用から生じるリッチなダイナミクスを示す計算モデルである。 グラフCA(GCAs)は、グラフニューラルネットワーク(GNN)が畳み込みNNを一般化する方法と同様に、正規格子ではなく任意のグラフを許容することで標準CAを一般化する。 近年,任意のGCAの遷移規則を近似するためにトレーニング可能な標準GNN上に構築されたモデルとして,グラフニューラルCA(GNCA)が提案されている。 既存のGNCAは、それらの遷移規則がノードの空間的位置の翻訳、回転、反射に等しくないという意味で異方的である。 しかし、そのような変換によって関連づけられたインスタンスはモデルによって等しく扱われることが望ましい。 標準グラフの畳み込みをE(n)-同変グラフに置き換えることで、設計による異方性を避け、E(n)-GNCAsと呼ぶ等方的オートマトン群を提案する。 これらのモデルは軽量だが、それでも大きなグラフを扱い、複雑なダイナミクスを捉え、創発的な自己組織化行動を示すことができる。 3つの異なるタスクにおけるE(n)-GNCAの適用性について紹介する。 (i)パターン形成 (ii)グラフの自動エンコーディング、及び (iii) e(n)-同変力学系のシミュレーション

Cellular automata (CAs) are computational models exhibiting rich dynamics emerging from the local interaction of cells arranged in a regular lattice. Graph CAs (GCAs) generalise standard CAs by allowing for arbitrary graphs rather than regular lattices, similar to how Graph Neural Networks (GNNs) generalise Convolutional NNs. Recently, Graph Neural CAs (GNCAs) have been proposed as models built on top of standard GNNs that can be trained to approximate the transition rule of any arbitrary GCA. Existing GNCAs are anisotropic in the sense that their transition rules are not equivariant to translation, rotation, and reflection of the nodes' spatial locations. However, it is desirable for instances related by such transformations to be treated identically by the model. By replacing standard graph convolutions with E(n)-equivariant ones, we avoid anisotropy by design and propose a class of isotropic automata that we call E(n)-GNCAs. These models are lightweight, but can nevertheless handle large graphs, capture complex dynamics and exhibit emergent self-organising behaviours. We showcase the broad and successful applicability of E(n)-GNCAs on three different tasks: (i) pattern formation, (ii) graph auto-encoding, and (iii) simulation of E(n)-equivariant dynamical systems.
翻訳日:2023-01-26 15:28:12 公開日:2023-01-25
# フロー誘導型半教師付きビデオオブジェクトセグメンテーション

Flow-guided Semi-supervised Video Object Segmentation ( http://arxiv.org/abs/2301.10492v1 )

ライセンス: Link先を確認
Yushan Zhang, Andreas Robinson, Maria Magnusson, Michael Felsberg(参考訳) 半教師付き映像オブジェクトセグメンテーションのための光フロー誘導手法を提案する。 光フローは通常、教師なしのビデオオブジェクトセグメンテーションで追加のガイダンス情報として利用される。 しかし、半教師付きビデオオブジェクトのセグメンテーションにおけるその関連性は十分に検討されていない。 本研究では,セグメント化タスクに対処するエンコーダ-デコーダアプローチに従う。 対象モデルとデコーダネットワークへの入力として使用される光フローと画像から複合情報を抽出するモデルを提案する。 画像データとオプティカルフローからの情報を結合する従来の手法とは異なり,本研究では単純かつ効果的な注意機構が活用されている。 DAVIS 2017とYouTube-VOS 2019の実験では、光学フローから抽出した情報を元のイメージブランチに統合することにより、性能が向上し、我々の手法は最先端のパフォーマンスを達成する。

We propose an optical flow-guided approach for semi-supervised video object segmentation. Optical flow is usually exploited as additional guidance information in unsupervised video object segmentation. However, its relevance in semi-supervised video object segmentation has not been fully explored. In this work, we follow an encoder-decoder approach to address the segmentation task. A model to extract the combined information from optical flow and the image is proposed, which is then used as input to the target model and the decoder network. Unlike previous methods where concatenation is used to integrate information from image data and optical flow, a simple yet effective attention mechanism is exploited in our work. Experiments on DAVIS 2017 and YouTube-VOS 2019 show that by integrating the information extracted from optical flow into the original image branch results in a strong performance gain and our method achieves state-of-the-art performance.
翻訳日:2023-01-26 15:27:50 公開日:2023-01-25
# 時空間グラフニューラルネットワークに関する調査

Spatio-Temporal Graph Neural Networks: A Survey ( http://arxiv.org/abs/2301.10569v1 )

ライセンス: Link先を確認
Zahraa Al Sahili, Mariette Awad(参考訳) グラフニューラルネットワークはここ数年で大きな関心を集めている。 これらの強力なアルゴリズムは、ディープラーニングモデルを非ユークリッド空間に拡張し、レコメンダシステムやソーシャルネットワークを含む様々なアプリケーションでアートパフォーマンスの状態を達成した。 しかし、このパフォーマンスは、データが時間とともに変化する場合のグラフニューラルネットワークのパフォーマンスを制限する静的グラフ構造仮定に基づいている。 時間的グラフニューラルネットワークは、時間的要因を考慮したグラフニューラルネットワークの拡張である。 近年,時間依存型アプリケーションでは,様々な時間グラフニューラルネットワークアルゴリズムが提案され,他のディープラーニングアルゴリズムよりも優れた性能を実現している。 本稿では,アルゴリズム,アプリケーション,オープンチャレンジなど,時空間グラフニューラルネットワークに関連する興味深い話題について考察する。

Graph Neural Networks have gained huge interest in the past few years. These powerful algorithms expanded deep learning models to non-Euclidean space and were able to achieve state of art performance in various applications including recommender systems and social networks. However, this performance is based on static graph structures assumption which limits the Graph Neural Networks performance when the data varies with time. Temporal Graph Neural Networks are extension of Graph Neural Networks that takes the time factor into account. Recently, various Temporal Graph Neural Network algorithms were proposed and achieved superior performance compared to other deep learning algorithms in several time dependent applications. This survey discusses interesting topics related to Spatio temporal Graph Neural Networks, including algorithms, application, and open challenges.
翻訳日:2023-01-26 15:21:18 公開日:2023-01-25
# 集積型マルチ共振器量子メモリ

Integrated multiresonator quantum memory ( http://arxiv.org/abs/2301.10561v1 )

ライセンス: Link先を確認
N. S. Perminov, and S. A. Moiseev(参考訳) 共振器を介して外部導波路にスイッチング可能なカプラを介して結合された3つの相互作用共振器のシステムに基づく高効率マルチ共振器量子メモリ方式を開発した。 ステップバイステップ最適化に基づく高精度パラメータマッチングにより,信号場を効率よく保存し,所定時刻に信号のオンデマンド検索を行うことができることを示す。 提案する量子メモリ方式の実験的実装と実用化について述べる。

We develop the integrated efficient multiresonator quantum memory scheme based on a system of three interacting resonators coupled through a common resonator to an external waveguide via switchable coupler. It is shown that high-precision parameter matching based on the step-by-step optimization makes it possible to efficiently store the signal field and on demand retrieval the signal at specified time moments. Possible experimental implementations and practical applications of the proposed quantum memory scheme are discussed.
翻訳日:2023-01-26 15:21:08 公開日:2023-01-25
# 異なるアリ種を追跡する:マルチオブジェクト追跡のための教師なしドメイン適応フレームワークとデータセット

Tracking Different Ant Species: An Unsupervised Domain Adaptation Framework and a Dataset for Multi-object Tracking ( http://arxiv.org/abs/2301.10559v1 )

ライセンス: Link先を確認
Chamath Abeysinghe, Chris Reid, Hamid Rezatofighi and Bernd Meyer(参考訳) 個人を追跡することは集団行動を理解するために多くの実験の不可欠な部分である。 アリはこのような実験のパラダイムモデルシステムであるが、視覚の特徴と高いコロニー密度を個別に区別できないため、信頼性の高い追跡は極めて困難である。 さらに、その種の外観の幅広い多様性は、一般化されたアプローチをさらに難しくする。 本稿では,データ駆動型マルチオブジェクトトラッカーを提案する。 このアプローチは、トラッキング損失に加えて、敵対的トレーニング戦略を統合する一連のドメイン識別モジュールによって拡張された共同検出および追跡フレームワーク上に構築されている。 この新たなドメイン適応追跡フレームワークに加えて,新しいデータセットとant追跡問題のベンチマークを提案する。 データセットには57の動画シーケンスと完全な軌跡アノテーションが含まれており、異なる背景パターンで動く2つの異なるアリ種から取得された30kフレームが含まれている。 ソースドメインとターゲットドメインはそれぞれ33と24のシーケンスで構成される。 このデータセットを用いて、提案フレームワークを他のドメイン適応型および非ドメイン適応型マルチオブジェクトトラッキングベースラインと比較し、トラッキングパイプラインの複数のレベルにおけるドメイン適応の導入により、大幅な改善が得られたことを示す。 コードとデータセットはhttps://github.com/chamathabeysinghe/da-trackerで入手できる。

Tracking individuals is a vital part of many experiments conducted to understand collective behaviour. Ants are the paradigmatic model system for such experiments but their lack of individually distinguishing visual features and their high colony densities make it extremely difficult to perform reliable tracking automatically. Additionally, the wide diversity of their species' appearances makes a generalized approach even harder. In this paper, we propose a data-driven multi-object tracker that, for the first time, employs domain adaptation to achieve the required generalisation. This approach is built upon a joint-detection-and-tracking framework that is extended by a set of domain discriminator modules integrating an adversarial training strategy in addition to the tracking loss. In addition to this novel domain-adaptive tracking framework, we present a new dataset and a benchmark for the ant tracking problem. The dataset contains 57 video sequences with full trajectory annotation, including 30k frames captured from two different ant species moving on different background patterns. It comprises 33 and 24 sequences for source and target domains, respectively. We compare our proposed framework against other domain-adaptive and non-domain-adaptive multi-object tracking baselines using this dataset and show that incorporating domain adaptation at multiple levels of the tracking pipeline yields significant improvements. The code and the dataset are available at https://github.com/chamathabeysinghe/da-tracker.
翻訳日:2023-01-26 15:21:02 公開日:2023-01-25
# 明示的依存による合成

Synthesis with Explicit Dependencies ( http://arxiv.org/abs/2301.10556v1 )

ライセンス: Link先を確認
Priyanka Golia, Subhajit Roy, and Kuldeep S. Meel(参考訳) quantified boolean formulas (qbf) は命題論理を量子化 $\forall, \exists$ で拡張する。 QBF では、存在量化変数はその範囲内のすべての普遍量化変数に依存することが許される。 依存量子化ブール式(DQBF)は、存在量化変数の依存関係を制限する。 DQBF では、存在量化変数はヘンキン依存と呼ばれる普遍量化変数のサブセットに明示的な依存関係を持つ。 入力と出力の集合の間のブール仕様が与えられると、ヘンキン合成の問題は、それぞれの出力変数をそのヘンキン依存性の関数として合成し、その仕様が満たされることである。 ヘンキン合成は、部分回路の検証、コントローラ合成、回路実現可能性など幅広い応用がある。 本研究は、マンタン3と呼ばれるヘンキン合成のためのデータ駆動アプローチを提案する。 過去のDQBF解決コンペから発生した553以上のインスタンスを広範囲に評価し、Manthan3が最先端のツールと競合することを示した。 さらに、Manthan3は26のベンチマークでヘンキン関数を合成することができた。

Quantified Boolean Formulas (QBF) extend propositional logic with quantification $\forall, \exists$. In QBF, an existentially quantified variable is allowed to depend on all universally quantified variables in its scope. Dependency Quantified Boolean Formulas (DQBF) restrict the dependencies of existentially quantified variables. In DQBF, existentially quantified variables have explicit dependencies on a subset of universally quantified variables called Henkin dependencies. Given a Boolean specification between the set of inputs and outputs, the problem of Henkin synthesis is to synthesize each output variable as a function of its Henkin dependencies such that the specification is met. Henkin synthesis has wide-ranging applications, including verification of partial circuits, controller synthesis, and circuit realizability. This work proposes a data-driven approach for Henkin synthesis called Manthan3. On an extensive evaluation of over 563 instances arising from past DQBF solving competitions, we demonstrate that Manthan3 is competitive with state-of-the-art tools. Furthermore, Manthan3 could synthesize Henkin functions for 26 benchmarks for which none of the state-of-the-art techniques could synthesize.
翻訳日:2023-01-26 15:20:40 公開日:2023-01-25
# 変分対応セマンティック画像合成

Variation-Aware Semantic Image Synthesis ( http://arxiv.org/abs/2301.10551v1 )

ライセンス: Link先を確認
Mingle Xu and Jaehwan Lee and Sook Yoon and Hyongsuk Kim and Dong Sun Park(参考訳) セマンティクス画像合成(sis)は、条件付きセマンティクスレイアウトに適合したフォトリアリスティックな画像を作成することを目的としており、近年大きく改善されている。 画像レベルの多様性は議論されているが、現在のアルゴリズムではクラスレベルのモード崩壊が広く存在している。 そこで,本研究では,クラス間およびクラス内変異からなる,よりフォトリアリスティックな画像,変動認識を実現するためのSISの新しい要件を宣言する。 クラス間変異は異なるセマンティッククラス間の多様性であり、クラス内変異は1つのクラス内の多様性を強調する。 分析の結果,現在のアルゴリズムではクラス間変動は理解できないが,クラス内変動では不十分であることがわかった。 さらに,クラス内変動の増大を伴う変分認識意味画像合成(vasis)を実現するための2つの簡易手法,意味雑音と位置符号を導入する。 本手法を最先端アルゴリズムと組み合わせ,実験結果から,モデルが自然画像の生成量を増やし,それよりもわずかに優れたfidおよび/またはmiousを実現することを示す。 私たちのコードとモデルは公開されます。

Semantic image synthesis (SIS) aims to produce photorealistic images aligning to given conditional semantic layout and has witnessed a significant improvement in recent years. Although the diversity in image-level has been discussed heavily, class-level mode collapse widely exists in current algorithms. Therefore, we declare a new requirement for SIS to achieve more photorealistic images, variation-aware, which consists of inter- and intra-class variation. The inter-class variation is the diversity between different semantic classes while the intra-class variation stresses the diversity inside one class. Through analysis, we find that current algorithms elusively embrace the inter-class variation but the intra-class variation is still not enough. Further, we introduce two simple methods to achieve variation-aware semantic image synthesis (VASIS) with a higher intra-class variation, semantic noise and position code. We combine our method with several state-of-the-art algorithms and the experimental result shows that our models generate more natural images and achieves slightly better FIDs and/or mIoUs than the counterparts. Our codes and models will be publicly available.
翻訳日:2023-01-26 15:20:24 公開日:2023-01-25
# 重み補間によるデータ更新時の後方互換性

Backward Compatibility During Data Updates by Weight Interpolation ( http://arxiv.org/abs/2301.10546v1 )

ライセンス: Link先を確認
Raphael Schumann and Elman Mansimov and Yi-An Lai and Nikolaos Pappas and Xibin Gao and Yi Zhang(参考訳) モデル予測の後方互換性は、機械学習駆動アプリケーションの更新時に望ましい特性である。 回帰バグを導入することなく、基盤となるモデルをシームレスに改善することができる。 分類タスクでは、これらのバグは負のフリップという形で発生する。 これは、古いモデルによって正しく分類されたインスタンスが更新されたモデルによって誤って分類されることを意味する。 これはこのようなシステムのユーザエクスペリエンスに直接的な悪影響を及ぼす。例えば、頻繁に使われる音声アシスタントクエリが突然誤分類される。 モデルを更新する一般的な理由は、新しいトレーニングデータが利用可能になり、組み込む必要があるときである。 モデルを更新データで再トレーニングするだけで、望ましくない負のフリップが発生します。 データ更新時の回帰問題について検討し,BCWI(Backward Compatible Weight Interpolation)を提案する。 本手法は旧モデルの重みと新モデルの重みを補間し,新モデルの精度向上を犠牲にすることなく負のフリップを低減できることを示す。 BCWIは直接的に実装され、推論コストは上昇しない。 また, 補間における重み付けの重み付けについて検討し, 負のフリップを減らすために, 複数モデルの重み付けを平均化する。

Backward compatibility of model predictions is a desired property when updating a machine learning driven application. It allows to seamlessly improve the underlying model without introducing regression bugs. In classification tasks these bugs occur in the form of negative flips. This means an instance that was correctly classified by the old model is now classified incorrectly by the updated model. This has direct negative impact on the user experience of such systems e.g. a frequently used voice assistant query is suddenly misclassified. A common reason to update the model is when new training data becomes available and needs to be incorporated. Simply retraining the model with the updated data introduces the unwanted negative flips. We study the problem of regression during data updates and propose Backward Compatible Weight Interpolation (BCWI). This method interpolates between the weights of the old and new model and we show in extensive experiments that it reduces negative flips without sacrificing the improved accuracy of the new model. BCWI is straight forward to implement and does not increase inference cost. We also explore the use of importance weighting during interpolation and averaging the weights of multiple new models in order to further reduce negative flips.
翻訳日:2023-01-26 15:20:05 公開日:2023-01-25
# N-Dにおける長距離依存性のモデル化:タスク特化から汎用CNNへ

Modelling Long Range Dependencies in N-D: From Task-Specific to a General Purpose CNN ( http://arxiv.org/abs/2301.10540v1 )

ライセンス: Link先を確認
David M. Knigge, David W. Romero, Albert Gu, Efstratios Gavves, Erik J. Bekkers, Jakub M. Tomczak, Mark Hoogendoorn, Jan-Jakob Sonke(参考訳) 適応畳み込みニューラルネットワーク(CNN)アーキテクチャは、入力データの長さ、解像度、次元性を考慮するために、特定のタスクに合わせる必要がある。 本研究では,問題固有のCNNアーキテクチャの必要性に対処する。 連続畳み込みニューラルネットワーク(CCNN:Continuous Convolutional Neural Network)は、任意の解像度、次元、長さのデータを処理することができる単一のCNNである。 主要なコンポーネントは連続的な畳み込みカーネルで、各レイヤにおける長距離依存関係をモデル化し、タスク依存のダウンサンプリングと深さに対する現在のCNNアーキテクチャの必要性を取り除く。 我々は,同じアーキテクチャを用いて,逐次($1{\rm D}$),ビジュアル($2{\rm D}$)およびポイントクラウド($3{\rm D}$)上のタスクに対して,本手法の汎用性を示す。 私たちのCCNNは、検討されたすべてのタスクにおいて、現在の最先端よりも優れています。

Performant Convolutional Neural Network (CNN) architectures must be tailored to specific tasks in order to consider the length, resolution, and dimensionality of the input data. In this work, we tackle the need for problem-specific CNN architectures. We present the Continuous Convolutional Neural Network (CCNN): a single CNN able to process data of arbitrary resolution, dimensionality and length without any structural changes. Its key component are its continuous convolutional kernels which model long-range dependencies at every layer, and thus remove the need of current CNN architectures for task-dependent downsampling and depths. We showcase the generality of our method by using the same architecture for tasks on sequential ($1{\rm D}$), visual ($2{\rm D}$) and point-cloud ($3{\rm D}$) data. Our CCNN matches and often outperforms the current state-of-the-art across all tasks considered.
翻訳日:2023-01-26 15:19:50 公開日:2023-01-25
# ディープグラフニューラルネットワークの理解と改善:確率的グラフィカルモデルの観点から

Understanding and Improving Deep Graph Neural Networks: A Probabilistic Graphical Model Perspective ( http://arxiv.org/abs/2301.10536v1 )

ライセンス: Link先を確認
Jiayuan Chen, Xiang Zhang, Yinfei Xu, Tianli Zhao, Renjie Xie and Wei Xu(参考訳) 近年,下流タスク用に設計されたグラフベースモデルでは,グラフニューラルネットワーク(GNN)が大幅に進歩している。 GCNやGATといったニューラルメッセージパッシング機構に基づくGNNのベースラインは、ネットワークが深まるにつれて悪化する。 したがって、多くの深いGNNを含む多くのGNN変種がこの性能劣化問題に取り組むために提案されている。 しかし、これらの既存のモデルを接続し、それらの効果を高いレベルで解釈する統一されたフレームワークはまだ欠けている。 本研究では,深いGNNに着目し,その理解のための新しい視点を提案する。 確率的グラフィカルモデル上で推論によって理論的枠組みを確立する。 マルコフ確率場上の変分推論から導かれる固定点方程式(FPE)を考えると、JKNet、GCNII、DGCN、およびGCN、GAT、APPNPといった古典的なGNNを含む深いGNNは、FPEの異なる近似と見なすことができる。 さらに、このフレームワークを考えると、FPEのより正確な近似がもたらされ、より強力なGNNである結合グラフニューラルネットワーク(CoGNet)を設計する上で役立ちます。 引用ネットワークと自然言語処理のダウンストリームタスクで広範な実験が行われている。 その結果,CoGNetはSOTAモデルよりも優れていた。

Recently, graph-based models designed for downstream tasks have significantly advanced research on graph neural networks (GNNs). GNN baselines based on neural message-passing mechanisms such as GCN and GAT perform worse as the network deepens. Therefore, numerous GNN variants have been proposed to tackle this performance degradation problem, including many deep GNNs. However, a unified framework is still lacking to connect these existing models and interpret their effectiveness at a high level. In this work, we focus on deep GNNs and propose a novel view for understanding them. We establish a theoretical framework via inference on a probabilistic graphical model. Given the fixed point equation (FPE) derived from the variational inference on the Markov random fields, the deep GNNs, including JKNet, GCNII, DGCN, and the classical GNNs, such as GCN, GAT, and APPNP, can be regarded as different approximations of the FPE. Moreover, given this framework, more accurate approximations of FPE are brought, guiding us to design a more powerful GNN: coupling graph neural network (CoGNet). Extensive experiments are carried out on citation networks and natural language processing downstream tasks. The results demonstrate that the CoGNet outperforms the SOTA models.
翻訳日:2023-01-26 15:19:33 公開日:2023-01-25
# 簡易なメッシュセル表現による3次元メッシュセグメンテーション

3D Tooth Mesh Segmentation with Simplified Mesh Cell Representation ( http://arxiv.org/abs/2301.10531v1 )

ライセンス: Link先を確認
Ananya Jana, Hrebesh Molly Subhash, Dimitris N. Metaxas(参考訳) 3次元メッシュによる手動歯のセグメンテーションは面倒であり, 歯科医によって異なる。 %3次元メッシュのマニュアル歯注記は面倒な作業である。 自動歯列分割を行うための深層学習法が提案されている。 提案する歯のメッシュセグメンテーションアルゴリズムの多くは、メッシュセルを、細胞中心またはバリ中心、バリ中心の正常、細胞頂点の正常、細胞頂点の正常と要約している。 この方法でメッシュセル/トライアングルを要約すると、暗黙的な構造的制約が課され、多くのポイントクラウドベースのディープラーニングアルゴリズムで実行される複数の解像度を扱うのが難しくなる。 本稿では,メッシュセルのバリーセンタ情報において,バリーセンタと正規値のみを利用しながら,競合性能を実現する新しいセグメンテーション手法を提案する。 暗黙的な構造的制約を緩和し、より優れたセグメンテーション性能を達成できることを最初に示す。

Manual tooth segmentation of 3D tooth meshes is tedious and there is variations among dentists. %Manual tooth annotation of 3D tooth meshes is a tedious task. Several deep learning based methods have been proposed to perform automatic tooth mesh segmentation. Many of the proposed tooth mesh segmentation algorithms summarize the mesh cell as - the cell center or barycenter, the normal at barycenter, the cell vertices and the normals at the cell vertices. Summarizing of the mesh cell/triangle in this manner imposes an implicit structural constraint and makes it difficult to work with multiple resolutions which is done in many point cloud based deep learning algorithms. We propose a novel segmentation method which utilizes only the barycenter and the normal at the barycenter information of the mesh cell and yet achieves competitive performance. We are the first to demonstrate that it is possible to relax the implicit structural constraint and yet achieve superior segmentation performance
翻訳日:2023-01-26 15:18:59 公開日:2023-01-25
# 医療領域における言語間調音マイニング

Cross-lingual Argument Mining in the Medical Domain ( http://arxiv.org/abs/2301.10527v1 )

ライセンス: Link先を確認
Anar Yeginbergenova and Rodrigo Agerri(参考訳) 現在、医療領域は人工知能に関するアプリケーションでますます注目を集めている。 臨床医は、日常生活における患者の健康について結論を出すために、膨大な非構造化テキストデータを扱う必要がある。 引数マイニングは、テキスト中の議論的コンポーネントを検出し、それらの関係を分類することで、そのようなデータの構造を提供するのに役立つ。 しかし、一般には自然言語処理、特に医学テキスト処理において多くのタスクが行なわれているため、計算論証に関する作業の大部分は英語のみで行われている。 これはまた、医学領域における議論のために利用可能な唯一のデータセット、すなわち、MEDLINEデータベースからのランダム化比較試験(RCT)の抽象化の注釈付き医療データである。 本研究は,他の言語に対する注釈データ不足を軽減するために,注釈データがない言語に対して,医学テキストにおける議論マイニングと分類を行うためのいくつかの戦略を実証的に検討する。 このプロジェクトは、手動による介入なしに注釈付きデータを生成する効果的な方法として、自動で英語からターゲット言語(スペイン語)にアノテーションを翻訳し、プロジェクトすることを示す。 さらに, 大規模マスキング多言語モデルを用いて, 翻訳・投影手法がゼロショット言語アプローチよりも優れていることを示す。 最後に、スペイン語で自動生成したデータを用いて、元の英語評価設定の結果を改善する方法を示す。

Nowadays the medical domain is receiving more and more attention in applications involving Artificial Intelligence. Clinicians have to deal with an enormous amount of unstructured textual data to make a conclusion about patients' health in their everyday life. Argument mining helps to provide a structure to such data by detecting argumentative components in the text and classifying the relations between them. However, as it is the case for many tasks in Natural Language Processing in general and in medical text processing in particular, the large majority of the work on computational argumentation has been done only for English. This is also the case with the only dataset available for argumentation in the medical domain, namely, the annotated medical data of abstracts of Randomized Controlled Trials (RCT) from the MEDLINE database. In order to mitigate the lack of annotated data for other languages, we empirically investigate several strategies to perform argument mining and classification in medical texts for a language for which no annotated data is available. This project shows that automatically translating and project annotations from English to a target language (Spanish) is an effective way to generate annotated data without manual intervention. Furthermore, our experiments demonstrate that the translation and projection approach outperforms zero-shot cross-lingual approaches using a large masked multilingual language model. Finally, we show how the automatically generated data in Spanish can also be used to improve results in the original English evaluation setting.
翻訳日:2023-01-26 15:18:35 公開日:2023-01-25
# テキストを回路に蒸留する

Distilling Text into Circuits ( http://arxiv.org/abs/2301.10595v1 )

ライセンス: Link先を確認
Vincent Wang-Mascianica, Jonathon Liu, Bob Coecke(参考訳) 本稿では自然言語における意味の構造について述べる。 以前、discocirc というフレームワークは、(1) は構成的かつ分布的(すなわちベクトル的)であり、(2) は一般のテキストに適用され、(3) 意味(文法)間の言語的「接続」をキャプチャする、(4) 単語の意味をテキストの進行に応じて更新する、(5) 構造文型は曖昧性に対応している、というスケッチがなされた。 ここでは、DisCoCircに相当量の英語の断片があることに気付きます。 DisCoCircのテキスト回路に渡すと、いくつかの「文法官僚主義」が排除される。 例えば、言語によって異なる単語順の慣習からの独立性や、多くの短い文のような選択からの独立性などです。 この言語間独立性は、分類文法の言語固有の型付けとは異なり、テキスト回路を他の言語に継承することを意味する。 したがって、テキスト回路は「テキストの実際の実体」のリーン構造であり、表現力のある複数の層(単語、文、テキスト)にまたがるテキスト内の意味の内部作業であり、文法の下で真に普遍的であることを捉えることができる。 文法官僚主義の排除はまた、DisCoCirc: (8) 言語を超えて、例えば空間、視覚、その他の認知モードに適用する理由を説明している。 人間はテキスト回路で口頭でコミュニケーションすることができないが、機械はできる。 まず、英語の断片に対して「ハイブリッド文法」を定義する。すなわち、テキスト回路を得るのに必要な目的の最小限の文法形式である。 次に、この文法によって生成されたすべてのテキストがテキスト回路を生成するように翻訳プロセスの詳細を示す。 逆に、生成器を自由に構成して得られる任意のテキスト回路に対して、それを引き起こすテキスト(ハイブリッド文法)が存在する。 したがって、 (9)テキスト回路はテキストに対して生成される。

This paper concerns the structure of meanings within natural language. Earlier, a framework named DisCoCirc was sketched that (1) is compositional and distributional (a.k.a. vectorial); (2) applies to general text; (3) captures linguistic `connections' between meanings (cf. grammar) (4) updates word meanings as text progresses; (5) structures sentence types; (6) accommodates ambiguity. Here, we realise DisCoCirc for a substantial fragment of English. When passing to DisCoCirc's text circuits, some `grammatical bureaucracy' is eliminated, that is, DisCoCirc displays a significant degree of (7) inter- and intra-language independence. That is, e.g., independence from word-order conventions that differ across languages, and independence from choices like many short sentences vs. few long sentences. This inter-language independence means our text circuits should carry over to other languages, unlike the language-specific typings of categorial grammars. Hence, text circuits are a lean structure for the `actual substance of text', that is, the inner-workings of meanings within text across several layers of expressiveness (cf. words, sentences, text), and may capture that what is truly universal beneath grammar. The elimination of grammatical bureaucracy also explains why DisCoCirc: (8) applies beyond language, e.g. to spatial, visual and other cognitive modes. While humans could not verbally communicate in terms of text circuits, machines can. We first define a `hybrid grammar' for a fragment of English, i.e. a purpose-built, minimal grammatical formalism needed to obtain text circuits. We then detail a translation process such that all text generated by this grammar yields a text circuit. Conversely, for any text circuit obtained by freely composing the generators, there exists a text (with hybrid grammar) that gives rise to it. Hence: (9) text circuits are generative for text.
翻訳日:2023-01-26 15:12:19 公開日:2023-01-25
# Faster DAN: エンドツーエンド手書き文書認識のための文書位置エンコーディングによるマルチターゲットクエリ

Faster DAN: Multi-target Queries with Document Positional Encoding for End-to-end Handwritten Document Recognition ( http://arxiv.org/abs/2301.10593v1 )

ライセンス: Link先を確認
Denis Coquenet and Cl\'ement Chatelain and Thierry Paquet(参考訳) 文書注意ネットワーク(DAN)は、文書の最後に到達するまで、注意に基づく予測プロセスを通じて、文字を次々と認識する。 しかし、この自己回帰プロセスは並列化最適化の恩恵を受けない推論につながる。 本稿では,予測時の認識プロセスを高速化する2段階の手法であるfaster danを提案する。このモデルでは,文書中の各テキスト行の最初の文字を予測し,マルチターゲットクエリと特定の文書位置符号化方式により,すべてのテキスト行を並列に補完する。 より高速なDANは、標準のDANと比較して競争的な結果に達する一方で、RIMES 2009とREAD 2016とMAURDORデータセットのシングルページとダブルページのイメージ全体の少なくとも4倍高速である。 ソースコードとトレーニングされたモデルウェイトはhttps://github.com/FactoDeepLearning/FasterDAN.comで入手できる。

Recent advances in handwritten text recognition enabled to recognize whole documents in an end-to-end way: the Document Attention Network (DAN) recognizes the characters one after the other through an attention-based prediction process until reaching the end of the document. However, this autoregressive process leads to inference that cannot benefit from any parallelization optimization. In this paper, we propose Faster DAN, a two-step strategy to speed up the recognition process at prediction time: the model predicts the first character of each text line in the document, and then completes all the text lines in parallel through multi-target queries and a specific document positional encoding scheme. Faster DAN reaches competitive results compared to standard DAN, while being at least 4 times faster on whole single-page and double-page images of the RIMES 2009, READ 2016 and MAURDOR datasets. Source code and trained model weights are available at https://github.com/FactoDeepLearning/FasterDAN.
翻訳日:2023-01-26 15:11:42 公開日:2023-01-25
# エンドツーエンド音声強調システムのバッチサイズ入力について

On Batching Variable Size Inputs for Training End-to-End Speech Enhancement Systems ( http://arxiv.org/abs/2301.10587v1 )

ライセンス: Link先を確認
Philippe Gonzalez, Tommy Sonne Alstr{\o}m, Tobias May(参考訳) ニューラルネットワークに基づく音声強調システムの性能はモデルアーキテクチャの影響が主であるが、トレーニング時間や計算資源の利用は主にバッチサイズなどのトレーニングパラメータに影響されている。 雑音と残響音声の混合時間は異なるため、特に最先端のエンドツーエンドシステムでは、訓練中に可変サイズ入力を処理するバッチ処理戦略が必要となる。 このような戦略は通常、ゼロパディングとデータランダム化の妥協を試み、各バッチでより一貫した量のデータを動的バッチサイズと組み合わせることができる。 しかしながら、これらのプラクティスがリソースの利用やネットワークパフォーマンスに与える影響は、十分に文書化されていない。 本稿では,一致条件と一致条件の両方で評価されたConv-TasNetの訓練統計と音声強調性能に及ぼすバッチ処理戦略とバッチサイズの影響を実証的に検討する。 トレーニング中に小さなバッチサイズを使用することで、バッチ戦略全体の両方の条件でパフォーマンスが向上することが分かりました。 さらに、動的バッチサイズでソートまたはバケットバッチを使用することで、バッチサイズが固定されたランダムバッチと同等の性能を達成しながら、トレーニング時間とgpuメモリ使用量を削減できる。

The performance of neural network-based speech enhancement systems is primarily influenced by the model architecture, whereas training times and computational resource utilization are primarily affected by training parameters such as the batch size. Since noisy and reverberant speech mixtures can have different duration, a batching strategy is required to handle variable size inputs during training, in particular for state-of-the-art end-to-end systems. Such strategies usually strive a compromise between zero-padding and data randomization, and can be combined with a dynamic batch size for a more consistent amount of data in each batch. However, the effect of these practices on resource utilization and more importantly network performance is not well documented. This paper is an empirical study of the effect of different batching strategies and batch sizes on the training statistics and speech enhancement performance of a Conv-TasNet, evaluated in both matched and mismatched conditions. We find that using a small batch size during training improves performance in both conditions for all batching strategies. Moreover, using sorted or bucket batching with a dynamic batch size allows for reduced training time and GPU memory usage while achieving similar performance compared to random batching with a fixed batch size.
翻訳日:2023-01-26 15:11:27 公開日:2023-01-25
# 分類問題の解を用いた音声リハビリテーションにおける音節発音品質の評価

Evaluation of the syllables pronunciation quality in speech rehabilitation through the solution of the classification problem ( http://arxiv.org/abs/2301.10585v1 )

ライセンス: Link先を確認
Evgeny Kostyuchenko(参考訳) 本研究は, 発声器の腫瘍性疾患に対する外科的治療後の音声リハビリテーションにおける音節発音の質評価の問題点について考察した。 この評価は、音節を外科治療前後の2つのクラスに分類する問題を解くことによって行われる。 分類器は、lstmニューラルネットワークに基づいて構築され、音声リハビリの開始前に、手術前およびその直後の記録に基づいて訓練される。 リハビリテーションの過程における音節発音の質を評価する尺度は、手術前のクラスに属する指標である。 ある研究は、問題のある音素、患者の性別、彼の個人的特徴が、結果として生じる発音の質の推定に与える影響を考慮に入れている。 既存の音節発音品質評価との比較を行い、得られた新しい発音品質評価のクラスを実践するために推奨する。

The solution of the problem of assessing the quality of the pronunciation of syllables during speech rehabilitation after surgical treatment of oncological diseases of the organs of the speech-forming tract is considered in the work. The assessment is carried out by solving the problem of classifying syllables into two classes: before and immediately after surgical treatment. A classifier is built on the basis of the LSTM neural network and trained on the records before the operation and immediately after it, before the start of speech rehabilitation. The measure of assessing the quality of syllables pronunciation in the process of rehabilitation is the metric of belonging to the class before the operation. A study is being made of the influence of taking into account problematic phonemes, the gender of the patient, his individual characteristics on the resulting estimates of the quality of pronunciation. A comparison with existing types of syllable pronunciation quality assessments is carried out, recommendations are given for the practical application of the resulting new class of pronunciation quality assessments.
翻訳日:2023-01-26 15:11:06 公開日:2023-01-25
# 自己エンコーダ再構成画像における輪郭誤差の除去法

A Method For Eliminating Contour Errors In Self-Encoder Reconstructed Images ( http://arxiv.org/abs/2301.10584v1 )

ライセンス: Link先を確認
Yonggang Li, Hao Zhang(参考訳) 本稿では,これに基づく自己教師型ツインネットワーク手法を提案する。 ディレートアルゴリズムにより、画像の近似10エッジ情報を生成し、再構成画像におけるエッジエラー11を差分除去する方法。 これは、復元された画像の12の精度を向上させ、元の画像13から異物とノイズを分離するために使用され、より実用的なシーンで可視化できる。

In this paper, we propose a self-supervised twin network approach based on this a priori. The method of generating the approximate10 edge information of an image and then differentially eliminating the edge errors11 in the reconstructed image with a dilate algorithm. This is used to improve the12 accuracy of the reconstructed image and to separate foreign matter and noise from13 the original image, so that it can be visualized in a more practical scene
翻訳日:2023-01-26 15:10:50 公開日:2023-01-25
# オンライン畳み込み辞書学習のための効率的な近似手法

An Efficient Approximate Method for Online Convolutional Dictionary Learning ( http://arxiv.org/abs/2301.10583v1 )

ライセンス: Link先を確認
Farshad G. Veshki and Sergiy A. Vorobyov(参考訳) 既存の畳み込み辞書学習(cdl)アルゴリズムのほとんどはバッチ学習に基づいており、辞書フィルタと畳み込みスパース表現をトレーニングデータセットを用いて交互に最適化している。 大規模なトレーニングデータセットを使用すると、バッチCDLアルゴリズムはメモリ集約的になる。 オンライン学習技術は、各トレーニングサンプルのスパース表現を検出した後、辞書を漸進的に最適化することにより、CDLのメモリ要求を低減させる。 それでも、既存のオンラインCDL(OCDL)アルゴリズムを用いて大規模な辞書を学習することは、計算コストが高いままである。 本稿では,トレーニングサンプルのスパース分解を組み込んだ近似ocdl法を提案する。 得られた最適化問題は乗算器の交互方向法を用いて解決する。 複数の画像データセットを用いた大規模な実験結果から,提案手法は最先端OCDLアルゴリズムの有効性を保ちながら,計算コストを大幅に削減することを示した。

Most existing convolutional dictionary learning (CDL) algorithms are based on batch learning, where the dictionary filters and the convolutional sparse representations are optimized in an alternating manner using a training dataset. When large training datasets are used, batch CDL algorithms become prohibitively memory-intensive. An online-learning technique is used to reduce the memory requirements of CDL by optimizing the dictionary incrementally after finding the sparse representations of each training sample. Nevertheless, learning large dictionaries using the existing online CDL (OCDL) algorithms remains highly computationally expensive. In this paper, we present a novel approximate OCDL method that incorporates sparse decomposition of the training samples. The resulting optimization problems are addressed using the alternating direction method of multipliers. Extensive experimental evaluations using several image datasets show that the proposed method substantially reduces computational costs while preserving the effectiveness of the state-of-the-art OCDL algorithms.
翻訳日:2023-01-26 15:10:43 公開日:2023-01-25
# ARDIAS:AIによる研究管理・発見・諮問システム

ARDIAS: AI-Enhanced Research Management, Discovery, and Advisory System ( http://arxiv.org/abs/2301.10577v1 )

ライセンス: Link先を確認
Debayan Banerjee, Seid Muhie Yimam, Sushil Awale and Chris Biemann(参考訳) 本研究では、研究者に完全な発見とコラボレーションツールを提供することを目的とした、WebベースのアプリケーションであるARDIASを紹介する。 ARDIASは現在、著者や論文を名前で検索し、特定の研究者の研究トピックに関する洞察を得ることができる。 AIベースのツールの助けを借りて、ARDIASは潜在的な協力者やトピックを研究者に推奨することを目指している。 近い将来、研究者が相互にコミュニケーションし、新しいプロジェクトを始めるためのツールを追加することを目指しています。

In this work, we present ARDIAS, a web-based application that aims to provide researchers with a full suite of discovery and collaboration tools. ARDIAS currently allows searching for authors and articles by name and gaining insights into the research topics of a particular researcher. With the aid of AI-based tools, ARDIAS aims to recommend potential collaborators and topics to researchers. In the near future, we aim to add tools that allow researchers to communicate with each other and start new projects.
翻訳日:2023-01-26 15:10:29 公開日:2023-01-25
# ニューラル検索のためのFGSM逆行訓練に関する研究

A Study on FGSM Adversarial Training for Neural Retrieval ( http://arxiv.org/abs/2301.10576v1 )

ライセンス: Link先を確認
Simon Lupart and St\'ephane Clinchant(参考訳) ニューラル検索モデルは、項ベースの手法と比較して、ここ数年で顕著な効果を得た。 それでも、これらのモデルは、タイプミスや配布シフトに直面したり、悪意のある攻撃に対して脆弱である可能性がある。 例えば、最近のいくつかの論文では、このようなバリエーションがモデルのパフォーマンスに重大な影響を与え、さらに弾力性のあるモデルをトレーニングしようとした。 一般的なアプローチとしては、データ提供としてのシノニム置換やタイプポインジェクション、より堅牢なトークン化(characterbert、bpe-dropout)の使用などがある。 この文献をさらに補完するため,本論文では,この頑健性問題に対する別の解決策として,敵対的訓練について検討する。 我々の比較対象は、BERTをベースとした2つのニューラルレトリバー、すなわち、蒸留技術と非蒸留技術による密度とスパースである。 そして、最も単純な敵対的訓練手法であるfast gradient sign method(fgsm)の1つが、第1段階のランチャーの堅牢性と有効性を向上できることを実証する。 特に、FGSMは、複数のニューラルレトリバーに対して、ドメイン内およびドメイン外の両方でのモデル性能を向上する。

Neural retrieval models have acquired significant effectiveness gains over the last few years compared to term-based methods. Nevertheless, those models may be brittle when faced to typos, distribution shifts or vulnerable to malicious attacks. For instance, several recent papers demonstrated that such variations severely impacted models performances, and then tried to train more resilient models. Usual approaches include synonyms replacements or typos injections -- as data-augmentation -- and the use of more robust tokenizers (characterBERT, BPE-dropout). To further complement the literature, we investigate in this paper adversarial training as another possible solution to this robustness issue. Our comparison includes the two main families of BERT-based neural retrievers, i.e. dense and sparse, with and without distillation techniques. We then demonstrate that one of the most simple adversarial training techniques -- the Fast Gradient Sign Method (FGSM) -- can improve first stage rankers robustness and effectiveness. In particular, FGSM increases models performances on both in-domain and out-of-domain distributions, and also on queries with typos, for multiple neural retrievers.
翻訳日:2023-01-26 15:10:22 公開日:2023-01-25
# 超解像におけるトレーニング可能な損失重量

Trainable Loss Weights in Super-Resolution ( http://arxiv.org/abs/2301.10575v1 )

ライセンス: Link先を確認
Arash Chaichi Mellatshahi, Shohreh Kasaei(参考訳) 近年,スーパーレゾリューションの研究は主に教師なしモデル,ブラインドネットワーク,非盲目的モデルにおける最適化手法の利用に焦点が当てられている。 しかし、限定的な研究により、超解像過程における損失関数が議論されている。 これらの研究の大半は、従来の方法で知覚的類似性のみを用いている。 これは、適切な損失の開発は、他の方法の品質も改善できる一方である。 本稿では,画素単位の損失に対する新たな重み付け法を提案する。 この方法の助けを借りて、画像の一般構造とその知覚的特徴に基づくトレーニング可能な重みを、画素単位での損失の利点を保ちながら使用することが可能である。 また、この基準を用いて畳み込みニューラルネットワークにより直接重みを推定できるように、損失の重みを比較する基準を導入する。 また,本論文では,超解像ネットワークと重み付けネットワークの同時推定に期待最大化法を適用した。 さらに、「fixedsum」と呼ばれる新しいアクティベーション関数が導入され、出力成分を0と1の間に保ちながら、ベクトル定数のすべての成分の和を保持することができる。 実験結果セクションで示されるように,提案手法による重み付き損失は,信号対雑音感覚と知覚的類似性感覚の両方において,重み付き損失よりも優れた結果をもたらす。

In recent years, research on super-resolution has primarily focused on the development of unsupervised models, blind networks, and the use of optimization methods in non-blind models. But, limited research has discussed the loss function in the super-resolution process. The majority of those studies have only used perceptual similarity in a conventional way. This is while the development of appropriate loss can improve the quality of other methods as well. In this article, a new weighting method for pixel-wise loss is proposed. With the help of this method, it is possible to use trainable weights based on the general structure of the image and its perceptual features while maintaining the advantages of pixel-wise loss. Also, a criterion for comparing weights of loss is introduced so that the weights can be estimated directly by a convolutional neural network using this criterion. In addition, in this article, the expectation-maximization method is used for the simultaneous estimation super-resolution network and weighting network. In addition, a new activation function, called "FixedSum", is introduced which can keep the sum of all components of vector constants while keeping the output components between zero and one. As shown in the experimental results section, weighted loss by the proposed method leads to better results than the unweighted loss in both signal-to-noise and perceptual similarity senses.
翻訳日:2023-01-26 15:10:00 公開日:2023-01-25
# ハイブリッドオンラインゴール認識のためのプランニングランドマークの活用

Leveraging Planning Landmarks for Hybrid Online Goal Recognition ( http://arxiv.org/abs/2301.10571v1 )

ライセンス: Link先を確認
Nils Wilken, Lea Cohausz, Johannes Schaum, Stefan L\"udtke, Christian Bartelt and Heiner Stuckenschmidt(参考訳) ゴール認識は多くのアプリケーション領域(例えば、広範コンピューティング、侵入検出、コンピュータゲームなど)において重要な問題である。 多くのアプリケーションシナリオにおいて、ゴール認識アルゴリズムは観測対象の目標をできるだけ早く、最小限のドメイン知識で認識できることが重要である。 そこで本研究では,象徴的な計画的ランドマークに基づくアプローチとデータ駆動型目標認識アプローチを組み合わせたオンライン目標認識のハイブリッド手法を提案し,実際の調理シナリオで評価する。 実験結果から,提案手法は最先端技術よりも計算時間を効率よくするだけでなく,目標認識性能も向上することが示された。 さらに,これまで人工ベンチマークドメインでのみ評価された計画的ランドマークに基づく手法は,実世界の調理シナリオに適用した場合の認識性能も良好であることを示す。

Goal recognition is an important problem in many application domains (e.g., pervasive computing, intrusion detection, computer games, etc.). In many application scenarios it is important that goal recognition algorithms can recognize goals of an observed agent as fast as possible and with minimal domain knowledge. Hence, in this paper, we propose a hybrid method for online goal recognition that combines a symbolic planning landmark based approach and a data-driven goal recognition approach and evaluate it in a real-world cooking scenario. The empirical results show that the proposed method is not only significantly more efficient in terms of computation time than the state-of-the-art but also improves goal recognition performance. Furthermore, we show that the utilized planning landmark based approach, which was so far only evaluated on artificial benchmark domains, achieves also good recognition performance when applied to a real-world cooking scenario.
翻訳日:2023-01-26 15:09:39 公開日:2023-01-25
# 倉本モデルに基づく自己進化型貯水池コンピュータ

Self-Evolutionary Reservoir Computer Based on Kuramoto Model ( http://arxiv.org/abs/2301.10654v1 )

ライセンス: Link先を確認
Zhihao Zuo, Zhongxue Gan, Yuchuan Fan, Vjaceslavs Bobrovs, Xiaodan Pang, Oskars Ozolins(参考訳) ヒトの脳のシナプスは、活動に依存した可塑性を持ち、ニューロンの接続パターンが劇的に変化し、ニューロンの活動に依存する。 生物学的にインスパイアされたニューラルネットワークとして、貯水池コンピューティング(RC)は時空間情報の処理にユニークな利点がある。 しかし、典型的な貯水池アーキテクチャは静的なランダムネットワークのみを考慮に入れ、ニューロンと接続のダイナミクスを別々に考慮する。 本稿では,人間の知識を必要とせず,手元の特定の問題に適応できる構造的自律型開発貯水池計算モデル(sad-rc)を提案する。 具体的には,生体ニューラルネットワークのシナプス可塑性モデルである位相発振器の適応ネットワークを用いて貯留層を実装した。 この共進化力学系では、ノードのダイナミクスと貯水池内の結合重みは、外部入力によって乱されるとき常に相互に相互作用し、進化する。

The human brain's synapses have remarkable activity-dependent plasticity, where the connectivity patterns of neurons change dramatically, relying on neuronal activities. As a biologically inspired neural network, reservoir computing (RC) has unique advantages in processing spatiotemporal information. However, typical reservoir architectures only take static random networks into account or consider the dynamics of neurons and connectivity separately. In this paper, we propose a structural autonomous development reservoir computing model (sad-RC), which structure can adapt to the specific problem at hand without any human expert knowledge. Specifically, we implement the reservoir by adaptive networks of phase oscillators, a commonly used model for synaptic plasticity in biological neural networks. In this co-evolving dynamic system, the dynamics of nodes and coupling weights in the reservoir constantly interact and evolve together when disturbed by external inputs.
翻訳日:2023-01-26 15:02:57 公開日:2023-01-25
# オンライン学習における事前ミススペクテーションの克服

Overcoming Prior Misspecification in Online Learning to Rank ( http://arxiv.org/abs/2301.10651v1 )

ライセンス: Link先を確認
Javad Azizi, Ofer Meshi, Masrour Zoghi, Maryam Karimzadehgan(参考訳) オンライン・ラーニング・トゥ・ランク(LTR)に関する最近の文献は、ベイジアン・ランキング・バンディットアルゴリズムの事前知識の有効性を確立している。 しかし、既存の作業の大きな制限は、アルゴリズムが真に一致させる前に使用する事前の要件である。 本稿では,この問題に対処する適応アルゴリズムの提案と解析を行い,これらの結果を線形および一般化線形モデルに拡張する。 クリックフィードバックに加えてスカラー関連フィードバックも検討する。 さらに, 合成実験と実世界実験の両方を用いて, アルゴリズムの有効性を示す。

The recent literature on online learning to rank (LTR) has established the utility of prior knowledge to Bayesian ranking bandit algorithms. However, a major limitation of existing work is the requirement for the prior used by the algorithm to match the true prior. In this paper, we propose and analyze adaptive algorithms that address this issue and additionally extend these results to the linear and generalized linear models. We also consider scalar relevance feedback on top of click feedback. Moreover, we demonstrate the efficacy of our algorithms using both synthetic and real-world experiments.
翻訳日:2023-01-26 15:02:42 公開日:2023-01-25
# MLPGradientFlow:多層パーセプトロンの流れを伴って(そしてミニマを素早く正確に見つける)

MLPGradientFlow: going with the flow of multilayer perceptrons (and finding minima fast and accurately) ( http://arxiv.org/abs/2301.10638v1 )

ライセンス: Link先を確認
Johanni Brea, Flavio Martinelli, Berfin \c{S}im\c{s}ek, Wulfram Gerstner(参考訳) mlpgradientflow は勾配流微分方程式 $\dot \theta = -\nabla \mathcal l(\theta; \mathcal d)$ を数値的に解くソフトウェアパッケージであり、$\theta$ は多層パーセプトロンのパラメータ、$\mathcal d$ はデータセット、$\nabla \mathcal l$ は損失関数の勾配である。 ランゲ・クッタスキームに基づく適応的な一階あるいは高階積分法は、アダム最適化器による勾配降下よりも精度と収束速度が良いことを示す。 しかし、BFGSのようなニュートンの手法や近似は、固定点(局所および大域最小値$\mathcal L$)を効率よく正確に見つけるのが好ましい。 小さなネットワークやデータセットの場合、勾配は通常ピトルチよりも速く計算され、ヘッセンは少なくとも5\times$速く計算される。 さらに、このパッケージは、標準ガウス入力で訓練されたバイアスのない2層ネットワークを無限のデータに制限した教師学生向けインテグレータを備えている。 コードはhttps://github.com/jbrea/MLPGradientFlow.jlでアクセスできる。

MLPGradientFlow is a software package to solve numerically the gradient flow differential equation $\dot \theta = -\nabla \mathcal L(\theta; \mathcal D)$, where $\theta$ are the parameters of a multi-layer perceptron, $\mathcal D$ is some data set, and $\nabla \mathcal L$ is the gradient of a loss function. We show numerically that adaptive first- or higher-order integration methods based on Runge-Kutta schemes have better accuracy and convergence speed than gradient descent with the Adam optimizer. However, we find Newton's method and approximations like BFGS preferable to find fixed points (local and global minima of $\mathcal L$) efficiently and accurately. For small networks and data sets, gradients are usually computed faster than in pytorch and Hessian are computed at least $5\times$ faster. Additionally, the package features an integrator for a teacher-student setup with bias-free, two-layer networks trained with standard Gaussian input in the limit of infinite data. The code is accessible at https://github.com/jbrea/MLPGradientFlow.jl.
翻訳日:2023-01-26 15:02:34 公開日:2023-01-25
# 画像分類における深層能動学習アルゴリズムの現実的評価に向けて

Toward Realistic Evaluation of Deep Active Learning Algorithms in Image Classification ( http://arxiv.org/abs/2301.10625v1 )

ライセンス: Link先を確認
Carsten T. L\"uth, Till J. Bungert, Lukas Klein, Paul F. Jaeger(参考訳) active learning(al)は、データプールから最も有意義な観察をインタラクティブにクエリすることで、ラベリングの負担を軽減することを目的としている。 近年のALクエリ手法の改良に関する広範な研究にもかかわらず、最近の研究はALの利点に疑問を投げかけており、特に半教師付き(Semi-SL)や自己教師型学習(Self-SL)といった新たな訓練パラダイムが注目されている。 したがって、今日のアル文学は一貫性のない絵を描いており、実践者たちはアルを自分の仕事にどう使うかと疑問を抱いている。 この異質な景観は、複雑なデータセットや不均衡なデータセット、現実的なラベリングシナリオ、体系的なメソッド構成、Semi-SLとSelf-SLの統合といった重要なパラメータを含む、ALアルゴリズムの体系的および現実的な評価の欠如によって引き起こされる。 この目的のために私たちは,ALベンチマークスイートを紹介し,質問に光を当てる5つのデータセットに関する広範な実験を実施している。

Active Learning (AL) aims to reduce the labeling burden by interactively querying the most informative observations from a data pool. Despite extensive research on improving AL query methods in the past years, recent studies have questioned the advantages of AL, especially in the light of emerging alternative training paradigms such as semi-supervised (Semi-SL) and self-supervised learning (Self-SL). Thus, today's AL literature paints an inconsistent picture and leaves practitioners wondering whether and how to employ AL in their tasks. We argue that this heterogeneous landscape is caused by a lack of a systematic and realistic evaluation of AL algorithms, including key parameters such as complex and imbalanced datasets, realistic labeling scenarios, systematic method configuration, and integration of Semi-SL and Self-SL. To this end, we present an AL benchmarking suite and run extensive experiments on five datasets shedding light on the questions: when and how to apply AL?
翻訳日:2023-01-26 15:02:09 公開日:2023-01-25
# 多変量データ駆動型ディープラーニングモデルを用いた変異型によるcovid-19の予測

Prediction of COVID-19 by Its Variants using Multivariate Data-driven Deep Learning Models ( http://arxiv.org/abs/2301.10616v1 )

ライセンス: Link先を確認
Akhmad Dimitri Baihaqi, Novanto Yudistira, Edy Santoso(参考訳) 2019年12月に中国武漢で最初の症例が発見されて以来、新型コロナウイルス(COVID-19)のパンデミックが世界中のほぼ全域で発生している。 世界中の新型コロナウイルス感染者の増加に伴い、SARS-CoV-2は様々な変種に変化している。 新型コロナウイルスの感染拡大が懸念されていることから、新型コロナウイルスの感染がいつ止まるかを知ることが重要である。 そのため、多くの研究は、Deep Learning法、すなわちLSTMを用いて進行中のパンデミックを克服するケーススタディとして、合理的に正確な結果と小さなエラー値を持つCOVID-19を提起している。 LSTMトレーニングは、欧州30カ国で確認された新型コロナウイルスの症例を含むCDCのCOVID-19データセットを用いて特定された変異に基づいて、新型コロナウイルスの確認症例を予測するために使用される。 実験はlstmモデルとbilstmモデルを用いて実施し,隠れたサイズと層サイズの比較としてrnnを付加した。 その結果, 隠れサイズ25, 50, 75〜100の試験において, RNNモデルは最小MSE値0.01, RMSE値0.012, 隠れサイズ100のB.1.427/B.1.429が得られた。 さらに層径2,3,4,5を試験した結果,b.1.427/b.1.429型と層径2の最小mse値0.01,rmse 0.01のbilstmモデルの方が良好な結果を得た。

The Coronavirus Disease 2019 or the COVID-19 pandemic has swept almost all parts of the world since the first case was found in Wuhan, China, in December 2019. With the increasing number of COVID-19 cases in the world, SARS-CoV-2 has mutated into various variants. Given the increasingly dangerous conditions of the pandemic, it is crucial to know when the pandemic will stop by predicting confirmed cases of COVID-19. Therefore, many studies have raised COVID-19 as a case study to overcome the ongoing pandemic using the Deep Learning method, namely LSTM, with reasonably accurate results and small error values. LSTM training is used to predict confirmed cases of COVID-19 based on variants that have been identified using ECDC's COVID-19 dataset containing confirmed cases of COVID-19 that have been identified from 30 countries in Europe. Tests were conducted using the LSTM and BiLSTM models with the addition of RNN as comparisons on hidden size and layer size. The obtained result showed that in testing hidden sizes 25, 50, 75 to 100, the RNN model provided better results, with the minimum MSE value of 0.01 and the RMSE value of 0.012 for B.1.427/B.1.429 variant with hidden size 100. In further testing of layer sizes 2, 3, 4, and 5, the result shows that the BiLSTM model provided better results, with minimum MSE value of 0.01 and the RMSE of 0.01 for the B.1.427/B.1.429 variant with hidden size 100 and layer size 2.
翻訳日:2023-01-26 15:01:49 公開日:2023-01-25
# マルチラベル画像分類のための識別器非教師なし領域適応

Discriminator-free Unsupervised Domain Adaptation for Multi-label Image Classification ( http://arxiv.org/abs/2301.10611v1 )

ライセンス: Link先を確認
Indel Pal Singh, Enjie Ghorbel, Anis Kacem, Arunkumar Rathinam and Djamila Aouada(参考訳) 本稿では、DDA-MLICと呼ばれるマルチラベル画像分類(MLIC)のための識別器のない非教師付きドメイン適応(UDA)を提案する。 過去2年間で、MLICの文脈で、敵対的な UDA メソッドを導入する試みがいくつか行われた。 しかし, 新たな識別器サブネットに依存するこれらの手法には, 欠点が2つある。 第一に、ドメイン不変の特徴の学習は、分類と識別タスクが分離されるため、タスク固有の識別力を傷つける可能性がある。 さらに、追加の判別器の使用は、通常、ネットワークサイズの増加を引き起こす。 そこで本稿では,タスク固有分類器から直接推論される新たな逆批判を導入することで,これらの問題を解決することを提案する。 具体的には、ソースとターゲット予測に2成分のガウス混合モデル(GMM)を取り付けて、2つのクラスタを区別する。 これにより各成分に対してガウス分布を抽出できる。 結果のガウス分布は、フレシェ距離に基づいて逆損失を定式化するために用いられる。 提案手法は3つのマルチラベル画像データセット上で評価される。 その結果,DDA-MLICは,パラメータの少ない既存手法よりも高い性能を示した。

In this paper, a discriminator-free adversarial-based Unsupervised Domain Adaptation (UDA) for Multi-Label Image Classification (MLIC) referred to as DDA-MLIC is proposed. Over the last two years, some attempts have been made for introducing adversarial-based UDA methods in the context of MLIC. However, these methods which rely on an additional discriminator subnet present two shortcomings. First, the learning of domain-invariant features may harm their task-specific discriminative power, since the classification and discrimination tasks are decoupled. Moreover, the use of an additional discriminator usually induces an increase of the network size. Herein, we propose to overcome these issues by introducing a novel adversarial critic that is directly deduced from the task-specific classifier. Specifically, a two-component Gaussian Mixture Model (GMM) is fitted on the source and target predictions, allowing the distinction of two clusters. This allows extracting a Gaussian distribution for each component. The resulting Gaussian distributions are then used for formulating an adversarial loss based on a Frechet distance. The proposed method is evaluated on three multi-label image datasets. The obtained results demonstrate that DDA-MLIC outperforms existing state-of-the-art methods while requiring a lower number of parameters.
翻訳日:2023-01-26 15:01:19 公開日:2023-01-25
# 量子保護下での4万キロメーター

Forty Thousand Kilometers Under Quantum Protection ( http://arxiv.org/abs/2301.10610v1 )

ライセンス: Link先を確認
N. S. Kirsanov, V. A. Pastushenko, A. D. Kodukhov, M. V. Yarovikov, A. B. Sagingalieva, D. A. Kronberg, M. Pflitsch, and V. M. Vinokur(参考訳) 量子鍵分布 (QKD) は、量子コンピューティングによって引き起こされるサイバー攻撃の脅威に対する革命的な暗号応答である。 しかし、セキュアな量子通信の広大な拡張を制限するブロックは、送信された量子信号が距離で指数関数的に崩壊することである。 今日の量子暗号は、量子リピータに注目してこの問題を解決しようとしている。 しかし、十分な距離で効率よく安全な量子反復は、現代技術にはまだ及ばない。 ここでは、このパラダイムをシフトさせ、伝送された光量子状態に対する第2熱力学法則の量子基盤とエンドツーエンドの物理的監視に基づいて、QKDの長距離セキュリティを構築する。 この手法により、状態の波動特性と位相コヒーレンスを保持する光学増幅器により量子状態の繰り返しを実現することができる。 我々のアプローチによって達成できる前例のない安全な距離範囲は、将来のスケーラブルな量子耐性通信ネットワークの開発の扉を開く。

The quantum key distribution (QKD) is a revolutionary cryptography response to the rapidly growing cyberattacks threat posed by quantum computing. Yet, the roadblock limiting the vast expanse of secure quantum communication is the exponential decay of the transmitted quantum signal with the distance. Today's quantum cryptography is trying to solve this problem by focusing on quantum repeaters. However, efficient and secure quantum repetition at sufficient distances is still far beyond modern technology. Here, we shift the paradigm and build the long-distance security of the QKD upon the quantum foundations of the Second Law of Thermodynamics and end-to-end physical oversight over the transmitted optical quantum states. Our approach enables us to realize quantum states' repetition by optical amplifiers keeping states' wave properties and phase coherence. The unprecedented secure distance range attainable through our approach opens the door for the development of scalable quantum-resistant communication networks of the future.
翻訳日:2023-01-26 15:01:01 公開日:2023-01-25
# コンピュータビジョンにおける形状・テクスチャ知識の接続

Connecting metrics for shape-texture knowledge in computer vision ( http://arxiv.org/abs/2301.10608v1 )

ライセンス: Link先を確認
Tiago Oliveira, Tiago Marques, Arlindo L. Oliveira(参考訳) 畳み込みニューラルネットワークや視覚トランスフォーマーを含む現代の人工ニューラルネットワークは、オブジェクト認識を含むいくつかのコンピュータビジョンタスクを習得している。 しかしながら、これらのシステムと人間の視覚系の挙動と堅牢性には、多くの有意な違いがある。 深層ニューラルネットワークは、人間が画像の分類ミスを起こさないような多くの画像の変化の影響を受けやすいままである。 この異なる行動の一部は、人間とディープニューラルネットワークが視覚タスクで使用する機能の種類によって説明できる。 人間は形に応じて物体を分類する傾向があり、深いニューラルネットワークは主にテクスチャに依存しているように見える。 この疑問を探求することは、ニューラルネットワークアーキテクチャのパフォーマンスを向上し、霊長類の視覚システムの動作をよりよく理解するために重要である。 本研究では,この現象の理解において,従来の分析結果をより広範な深層ニューラルネットワークアーキテクチャに拡張することにより,その技術の現状を推し進める。 その結果,画像分類作業におけるモデルの性能は,出力層と鉛直層で測定された形状バイアスと大きく相関していることがわかった。 さらに, 形状とテクスチャを表すニューロンの数が強い抗相関性を示し, これら2つの特徴の競合が存在することを示唆した。 最後に、一般的にはパフォーマンスと形状バイアスの間に相関があるが、アーキテクチャファミリの間には大きな差異があることを観察した。

Modern artificial neural networks, including convolutional neural networks and vision transformers, have mastered several computer vision tasks, including object recognition. However, there are many significant differences between the behavior and robustness of these systems and of the human visual system. Deep neural networks remain brittle and susceptible to many changes in the image that do not cause humans to misclassify images. Part of this different behavior may be explained by the type of features humans and deep neural networks use in vision tasks. Humans tend to classify objects according to their shape while deep neural networks seem to rely mostly on texture. Exploring this question is relevant, since it may lead to better performing neural network architectures and to a better understanding of the workings of the vision system of primates. In this work, we advance the state of the art in our understanding of this phenomenon, by extending previous analyses to a much larger set of deep neural network architectures. We found that the performance of models in image classification tasks is highly correlated with their shape bias measured at the output and penultimate layer. Furthermore, our results showed that the number of neurons that represent shape and texture are strongly anti-correlated, thus providing evidence that there is competition between these two types of features. Finally, we observed that while in general there is a correlation between performance and shape bias, there are significant variations between architecture families.
翻訳日:2023-01-26 15:00:50 公開日:2023-01-25
# 表現型音声対音声翻訳のための包括的カスケードシステム、ベンチマークおよびヒューマン評価プロトコル

A Holistic Cascade System, benchmark, and Human Evaluation Protocol for Expressive Speech-to-Speech Translation ( http://arxiv.org/abs/2301.10606v1 )

ライセンス: Link先を確認
Wen-Chin Huang, Benjamin Peloquin, Justine Kao, Changhan Wang, Hongyu Gong, Elizabeth Salesky, Yossi Adi, Ann Lee, Peng-Jen Chen(参考訳) expressive speech-to-speech translation (s2st) は、翻訳精度を維持しつつ、ソース音声の韻律的属性をターゲット音声に転送することを目的としている。 既存のS2STの研究は限定的であり、通常は一度に1つの表現性に焦点をあてる。 同様に、この研究領域には、標準評価プロトコルとよく計算されたベンチマークデータセットが欠けている。 本研究では,これまで単独でしか考えられなかった複数の韻律伝達手法を組み合わせた表現型s2stのための包括的カスケードシステムを提案する。 テレビシリーズドメインのベンチマーク表現性テストセットをキュレートし,オーディオブックドメインの2番目のデータセットについて検討した。 最後に,音声対にまたがる複数の表現次元を評価するためのヒューマン評価プロトコルを提案する。 実験の結果,二言語アノテータはs2stシステムにおける表現的保存の質を評価できることがわかった。 オーディオサンプルはデモwebページからアクセスできます。 https://facebookresearch.github.io/speech_translation/cascade_expressive_s2st。

Expressive speech-to-speech translation (S2ST) aims to transfer prosodic attributes of source speech to target speech while maintaining translation accuracy. Existing research in expressive S2ST is limited, typically focusing on a single expressivity aspect at a time. Likewise, this research area lacks standard evaluation protocols and well-curated benchmark datasets. In this work, we propose a holistic cascade system for expressive S2ST, combining multiple prosody transfer techniques previously considered only in isolation. We curate a benchmark expressivity test set in the TV series domain and explored a second dataset in the audiobook domain. Finally, we present a human evaluation protocol to assess multiple expressive dimensions across speech pairs. Experimental results indicate that bi-lingual annotators can assess the quality of expressive preservation in S2ST systems, and the holistic modeling approach outperforms single-aspect systems. Audio samples can be accessed through our demo webpage: https://facebookresearch.github.io/speech_translation/cascade_expressive_s2st.
翻訳日:2023-01-26 15:00:30 公開日:2023-01-25
# 新聞・テレグラム投稿におけるプロクレムリンプロパガンダの自動多言語検出

Automated multilingual detection of Pro-Kremlin propaganda in newspapers and Telegram posts ( http://arxiv.org/abs/2301.10604v1 )

ライセンス: Link先を確認
Veronika Solopova, Oana-Iuliana Popescu, Christoph Benzm\"uller and Tim Landgraf(参考訳) ロシア連邦とウクライナの大規模な紛争は、反イデオロギーや物語を反映した前例のない量のニュース記事やソーシャルメディアデータを生み出した。 これらの二極化キャンペーンは、相互に誤った情報と偽ニュースの告発をもたらし、世界中の読者にとって混乱と不信の雰囲気を生み出した。 本研究は、ウクライナ、ロシア、ルーマニア、および英語のニュース記事と電報ニュースチャンネルを用いて、メディアが戦争初月における世論にどのような影響を与えたかを分析した。 我々はトランスフォーマーと言語特徴に基づく多言語自動プロパガンダ識別の2つの手法を提案し,比較する。 両手法の長所と短所,新しいジャンルや言語への適応性,コンテンツモデレーションにおける使用の倫理的考察について分析した。 本研究は、現在の紛争に合わせたモデレーションツールのさらなる開発の基礎を築くことを目的としている。

The full-scale conflict between the Russian Federation and Ukraine generated an unprecedented amount of news articles and social media data reflecting opposing ideologies and narratives. These polarized campaigns have led to mutual accusations of misinformation and fake news, shaping an atmosphere of confusion and mistrust for readers worldwide. This study analyses how the media affected and mirrored public opinion during the first month of the war using news articles and Telegram news channels in Ukrainian, Russian, Romanian and English. We propose and compare two methods of multilingual automated pro-Kremlin propaganda identification, based on Transformers and linguistic features. We analyse the advantages and disadvantages of both methods, their adaptability to new genres and languages, and ethical considerations of their usage for content moderation. With this work, we aim to lay the foundation for further development of moderation tools tailored to the current conflict.
翻訳日:2023-01-26 15:00:09 公開日:2023-01-25
# 胸部X線画像分類のための自己教師付きカリキュラム深層学習

Self-Supervised Curricular Deep Learning for Chest X-Ray Image Classification ( http://arxiv.org/abs/2301.10687v1 )

ライセンス: Link先を確認
Iv\'an de Andr\'es Tam\'e, Kirill Sirotkin, Pablo Carballeira, Marcos Escudero-Vi\~nolo(参考訳) ディープラーニング技術はすでに、Chest X-Ray画像のような医療画像データから診断支援システムを構築する可能性を示している。 しかしながら、医療分野におけるラベル付きデータの不足は、他の画像領域のアプリケーションに対するパフォーマンスギャップを狭めるための重要な障害である。 本研究では,Covid-19 患者の胸部X線画像における肺炎認識のための完全教師付きトレーニング体制について,カリキュラム型自己監視学習(SSL)事前訓練の利点について検討した。 我々は、ラベルのないデータを活用し、スクラッチからトレーニングされたモデルやImageNetで事前トレーニングされたモデルよりも優れており、大規模なラベルのないデータセット上でSSL事前トレーニングを行うことによるパフォーマンス向上の可能性を示している。 最後に,トップパフォーマンスのSSLpretrainedモデルが肺領域に高い注意を払っていることを示し,トレーニングデータセットの外部共起要因に対してより堅牢なモデルを具現化した。

Deep learning technologies have already demonstrated a high potential to build diagnosis support systems from medical imaging data, such as Chest X-Ray images. However, the shortage of labeled data in the medical field represents one key obstacle to narrow down the performance gap with respect to applications in other image domains. In this work, we investigate the benefits of a curricular Self-Supervised Learning (SSL) pretraining scheme with respect to fully-supervised training regimes for pneumonia recognition on Chest X-Ray images of Covid-19 patients. We show that curricular SSL pretraining, which leverages unlabeled data, outperforms models trained from scratch, or pretrained on ImageNet, indicating the potential of performance gains by SSL pretraining on massive unlabeled datasets. Finally, we demonstrate that top-performing SSLpretrained models show a higher degree of attention in the lung regions, embodying models that may be more robust to possible external confounding factors in the training datasets, identified by previous works.
翻訳日:2023-01-26 14:53:48 公開日:2023-01-25
# 一貫性が鍵 自然言語処理におけるラベル変動とアノテーション内合意

Consistency is Key: Disentangling Label Variation in Natural Language Processing with Intra-Annotator Agreement ( http://arxiv.org/abs/2301.10684v1 )

ライセンス: Link先を確認
Gavin Abercrombie and Verena Rieser and Dirk Hovy(参考訳) 我々は、自然言語処理(nlp)タスクにおける人間の注釈者による判断の有用性を評価するために、合意尺度を用いる。 アノテーション間合意は,アノテーション間の一貫性を計測することでラベル信頼性の指標としてよく用いられるが,ラベルの安定性を経時的に測定するためのアノテーション間合意の付加的利用については議論する。 しかし、体系的なレビューでは、後者がこの分野で報告されることはめったにない。 これらの尺度の計算は、重要な品質管理として機能し、アノテーションが反対する理由に関する洞察を与えることができる。 本研究では,これらの尺度とテキスト項目の主観性と曖昧さの認識との関係を探索的アノテーション実験により検討する。

We commonly use agreement measures to assess the utility of judgements made by human annotators in Natural Language Processing (NLP) tasks. While inter-annotator agreement is frequently used as an indication of label reliability by measuring consistency between annotators, we argue for the additional use of intra-annotator agreement to measure label stability over time. However, in a systematic review, we find that the latter is rarely reported in this field. Calculating these measures can act as important quality control and provide insights into why annotators disagree. We propose exploratory annotation experiments to investigate the relationships between these measures and perceptions of subjectivity and ambiguity in text items.
翻訳日:2023-01-26 14:53:32 公開日:2023-01-25
# PULL:反復PU学習に基づくリアクティブログ異常検出

PULL: Reactive Log Anomaly Detection Based On Iterative PU Learning ( http://arxiv.org/abs/2301.10681v1 )

ライセンス: Link先を確認
Thorsten Wittkopp, Dominik Scheinert, Philipp Wiesner, Alexander Acker, Odej Kao(参考訳) 現代のITサービスの複雑さのため、障害は多様体になり、どの段階でも発生し、検出が難しい。 そのため、ログなどのデータ監視に適用される異常検出は、ITサービスの改善と障害の根絶に関連性のある洞察を得ることを可能にします。 しかし、精度の高い既存の異常検出方法は、実際に取得するのに時間がかかるラベル付きトレーニングデータに依存することが多い。 そこで本研究では,ラベル付きデータの代わりに監視システムが提供する推定故障時間ウィンドウに基づいて,リアクティブ異常検出のための反復ログ解析手法PULLを提案する。 注意に基づくモデルは,不均衡データを考慮した弱い監視深層学習のための新しい客観的関数を使用し,異常なログを識別するために,肯定的および未知的なサンプル(pu学習)に対して反復学習戦略を適用する。 PULLは3つの異なるデータセットでベンチマークベースラインを一貫して上回り、不正確な障害時間ウィンドウでも0.99以上のF1スコアで異常なログメッセージを検出する。

Due to the complexity of modern IT services, failures can be manifold, occur at any stage, and are hard to detect. For this reason, anomaly detection applied to monitoring data such as logs allows gaining relevant insights to improve IT services steadily and eradicate failures. However, existing anomaly detection methods that provide high accuracy often rely on labeled training data, which are time-consuming to obtain in practice. Therefore, we propose PULL, an iterative log analysis method for reactive anomaly detection based on estimated failure time windows provided by monitoring systems instead of labeled data. Our attention-based model uses a novel objective function for weak supervision deep learning that accounts for imbalanced data and applies an iterative learning strategy for positive and unknown samples (PU learning) to identify anomalous logs. Our evaluation shows that PULL consistently outperforms ten benchmark baselines across three different datasets and detects anomalous log messages with an F1-score of more than 0.99 even within imprecise failure time windows.
翻訳日:2023-01-26 14:53:15 公開日:2023-01-25
# 行列代数上の$k$-(super)正の写像に対するシェーンベルク対応

Schoenberg Correspondence for $k$-(super)Positive Maps on Matrix Algebras ( http://arxiv.org/abs/2301.10679v1 )

ライセンス: Link先を確認
B. V. Rajarama Bhat and Purbayan Chakraborty and Uwe Franz(参考訳) michael sch\"urmann によって証明されたユニタリ半群の類似の結果を一般化する非ユニタリ半群に対するシェーンベルク型対応を証明する。 線型写像の半群の生成元を $m_n(\mathbb{c})$ で特徴づけるが、これらは $k$-positive, $k$-superpositive, $k$-entanglement breaking である。 仲間として、lindblad氏、gorini氏、kossakowski氏、sudarshan氏の定理を再証明します。 半群の作用素の具体例を示し,その正値性が時間とともにどのように改善されるかを検討する。

We prove a Schoenberg-type correspondence for non-unital semigroups which generalizes an analogous result for unital semigroup proved by Michael Sch\"urmann. It characterizes the generators of semigroups of linear maps on $M_n(\mathbb{C})$ which are $k$-positive, $k$-superpositive, or $k$-entanglement breaking. As a corollary we reprove Lindblad, Gorini, Kossakowski, Sudarshan's theorem. We present some concrete examples of semigroup of operators and study how their positivity properties can improve with time.
翻訳日:2023-01-26 14:52:58 公開日:2023-01-25
# 拡散モデルによる人間の行動の模倣

Imitating Human Behaviour with Diffusion Models ( http://arxiv.org/abs/2301.10677v1 )

ライセンス: Link先を確認
Tim Pearce, Tabish Rashid, Anssi Kanervisto, Dave Bignell, Mingfei Sun, Raluca Georgescu, Sergio Valcarcel Macua, Shan Zheng Tan, Ida Momennejad, Katja Hofmann, Sam Devlin(参考訳) 拡散モデルはテキスト・ツー・イメージ領域において強力な生成モデルとして登場した。 本稿では,逐次環境における人間の行動の模倣に対する観察行動モデルとしての利用について検討する。 人間の行動は確率的かつ多様であり、行動次元間の構造的相関を持つ。 一方、行動クローニングにおける標準的なモデリング選択は表現力に制限があり、クローン化されたポリシーにバイアスをもたらす可能性がある。 まず、これらの選択の限界を指摘します。 そこで我々は,拡散モデルが協調行動空間上の表現的分布を学習するため,人間の行動の模倣に適していることを示す。 本稿では,逐次的環境に適した拡散モデルの構築,適切なアーキテクチャの設計,ガイダンスの役割の調査,信頼性の高いサンプリング戦略の開発について紹介する。 実験的に、拡散モデルは、シミュレーションロボット制御タスクと現代の3dゲーム環境における人間のデモと密接に一致する。

Diffusion models have emerged as powerful generative models in the text-to-image domain. This paper studies their application as observation-to-action models for imitating human behaviour in sequential environments. Human behaviour is stochastic and multimodal, with structured correlations between action dimensions. Meanwhile, standard modelling choices in behaviour cloning are limited in their expressiveness and may introduce bias into the cloned policy. We begin by pointing out the limitations of these choices. We then propose that diffusion models are an excellent fit for imitating human behaviour, since they learn an expressive distribution over the joint action space. We introduce several innovations to make diffusion models suitable for sequential environments; designing suitable architectures, investigating the role of guidance, and developing reliable sampling strategies. Experimentally, diffusion models closely match human demonstrations in a simulated robotic control task and a modern 3D gaming environment.
翻訳日:2023-01-26 14:52:47 公開日:2023-01-25
# 空間アライメントによる任意テキスト駆動画像操作に向けて

Towards Arbitrary Text-driven Image Manipulation via Space Alignment ( http://arxiv.org/abs/2301.10670v1 )

ライセンス: Link先を確認
Yunpeng Bai, Zihan Zhong, Chao Dong, Weichen Zhang, Guowei Xu, Chun Yuan(参考訳) 最近のGANインバージョン法は、StyleGANの対応する編集可能な潜在コードに実際の画像入力を反転させることに成功した。 言語ビジョンモデル(CLIP)と組み合わせることで,テキストによる画像操作手法を提案する。 しかし、これらの方法は特定の画像や新しい属性編集モードの最適化に余分なコストを必要とする。 より効率的な編集手法を実現するために,スペースアライメント (TMSA) を用いたテキスト駆動型画像マニピュレーションフレームワークを提案する。 Space Alignmentモジュールは、CLIPとStyleGAN空間で同じセマンティック領域を調整することを目的としている。 そして、テキスト入力をスタイルガン空間に直接アクセスし、テキスト記述に従って意味的シフトを見つけるために使用できる。 このフレームワークは、追加コストなしで任意の画像編集モードをサポートできる。 本研究は,画像の属性をテキスト入力に応じて制御し,結果をリアルタイムで取得するインタフェースをユーザに提供する。 過剰な実験は、これまでの作業よりも優れたパフォーマンスを示します。

The recent GAN inversion methods have been able to successfully invert the real image input to the corresponding editable latent code in StyleGAN. By combining with the language-vision model (CLIP), some text-driven image manipulation methods are proposed. However, these methods require extra costs to perform optimization for a certain image or a new attribute editing mode. To achieve a more efficient editing method, we propose a new Text-driven image Manipulation framework via Space Alignment (TMSA). The Space Alignment module aims to align the same semantic regions in CLIP and StyleGAN spaces. Then, the text input can be directly accessed into the StyleGAN space and be used to find the semantic shift according to the text description. The framework can support arbitrary image editing mode without additional cost. Our work provides the user with an interface to control the attributes of a given image according to text input and get the result in real time. Ex tensive experiments demonstrate our superior performance over prior works.
翻訳日:2023-01-26 14:52:35 公開日:2023-01-25
# 建築負荷予測のための深層学習モデルにおける伝達学習--限られたデータの場合

Transfer Learning in Deep Learning Models for Building Load Forecasting: Case of Limited Data ( http://arxiv.org/abs/2301.10663v1 )

ライセンス: Link先を確認
Menna Nawar, Moustafa Shomer, Samy Faddel, and Huangjie Gong(参考訳) 建物の正確な負荷予測は、節減可能性を高め、発電計画の最適化戦略を促進する可能性がある。 コンピュータ科学の急速な進化により、特にディープラーニングモデルにおけるデータ駆動技術は、負荷予測問題に対する有望な解決策となっている。 これらのモデルは正確な予測結果を示しているが、性能を維持するには大量の履歴データが必要である。 新しい建物や低分解能の計測装置を備えた建物を考えると、それらから十分な履歴データを得ることは困難であり、予測性能が低下する。 本稿では,限られたデータと少ないデータを持つ建物にディープラーニングモデルを適用するために,その問題を克服し,ディープラーニングモデルの性能を向上させるビルディング・ツー・ビルディング・トランスファー・ラーニング・フレームワークを提案する。 転送学習手法をTransformerモデルと呼ばれる新しい手法に適用した。 アルゴリズムの性能は限られたデータを持つ大規模商業ビルでテストされた。 その結果,提案手法は,スクラッチからトレーニングを行う従来の深層学習と比較して,予測精度を56.8%向上させた。 また,提案モデルとLong-Short Term Memory(LSTM)やRecurrent Neural Network(RNN)といった他の逐次ディープラーニングモデルとの比較を行った。 変圧器モデルの精度は, 0.011のlstmと0.051のrnnと比較して, 根平均二乗誤差を0.009に下げることで他のモデルよりも優れていた。

Precise load forecasting in buildings could increase the bill savings potential and facilitate optimized strategies for power generation planning. With the rapid evolution of computer science, data-driven techniques, in particular the Deep Learning models, have become a promising solution for the load forecasting problem. These models have showed accurate forecasting results; however, they need abundance amount of historical data to maintain the performance. Considering the new buildings and buildings with low resolution measuring equipment, it is difficult to get enough historical data from them, leading to poor forecasting performance. In order to adapt Deep Learning models for buildings with limited and scarce data, this paper proposes a Building-to-Building Transfer Learning framework to overcome the problem and enhance the performance of Deep Learning models. The transfer learning approach was applied to a new technique known as Transformer model due to its efficacy in capturing data trends. The performance of the algorithm was tested on a large commercial building with limited data. The result showed that the proposed approach improved the forecasting accuracy by 56.8% compared to the case of conventional deep learning where training from scratch is used. The paper also compared the proposed Transformer model to other sequential deep learning models such as Long-short Term Memory (LSTM) and Recurrent Neural Network (RNN). The accuracy of the transformer model outperformed other models by reducing the root mean square error to 0.009, compared to LSTM with 0.011 and RNN with 0.051.
翻訳日:2023-01-26 14:52:20 公開日:2023-01-25
# フェルミオンフォック空間上の超決定式

A hyperdeterminant on Fermionic Fock Space ( http://arxiv.org/abs/2301.10660v1 )

ライセンス: Link先を確認
Fr\'ed\'eric Holweck, Luke Oeding(参考訳) 20年前、ケイリーの超行列式である次数 4 の多項式環 $\mathbb{C}[\mathbb{C}^2\otimes\mathbb{C}^2\otimes \mathbb{C}^2]^{{\text{SL}_2(\mathbb{C})}^{\times 3}}$ は、現代物理学において、3つのクビットヒルベルト空間における真の絡み合いクラスを分離して一般化され、ブラックホールの特殊解のエントロピー公式に結びついている。 ここでは、フェルミオンフォック空間上の類似不変量(英語版)を4つの異なる位置を持つスピン粒子に対して$N=8$で計算し、量子情報の他のよく知られた不変量にどのように射影するかを示す。 また、これらの式を組み合わせて解釈する。

Twenty years ago Cayley's hyperdeterminant, the degree four invariant of the polynomial ring $\mathbb{C}[\mathbb{C}^2\otimes\mathbb{C}^2\otimes \mathbb{C}^2]^{{\text{SL}_2(\mathbb{C})}^{\times 3}}$, was popularized in modern physics as separates genuine entanglement classes in the three qubit Hilbert space and is connected to entropy formulas for special solutions of black holes. In this note we compute the analogous invariant on the fermionic Fock space for $N=8$, i.e. spin particles with four different locations, and show how this invariant projects to other well-known invariants in quantum information. We also give combinatorial interpretations of these formulas.
翻訳日:2023-01-26 14:51:55 公開日:2023-01-25
# 分類情報のための分類学・テーマ埋め込みの提案

Probing Taxonomic and Thematic Embeddings for Taxonomic Information ( http://arxiv.org/abs/2301.10656v1 )

ライセンス: Link先を確認
Filip Klubi\v{c}ka and John D. Kelleher(参考訳) 分類学と主題的関連性のモデリングは、包括的な自然言語理解を持つaiを構築する上で重要である。 本研究の目的は,組込み構造における分類情報のエンコード方法についてより深く知ることである。 これを実現するために,ハイパーニム・ハイプニム探索タスクを新たに設計し,分類学と主題的sgnsとグローブ埋め込みの比較調査を行う。 本実験は, 両種類の埋め込みがいくつかの分類情報を符号化していることを示しているが, エンコーダアーキテクチャと埋め込み訓練データとは独立して関係している。 具体的には, 分類学的埋入量のみ, 分類学的情報のみを標準として, 基礎となるデータ分布によって決定されることがわかった。

Modelling taxonomic and thematic relatedness is important for building AI with comprehensive natural language understanding. The goal of this paper is to learn more about how taxonomic information is structurally encoded in embeddings. To do this, we design a new hypernym-hyponym probing task and perform a comparative probing study of taxonomic and thematic SGNS and GloVe embeddings. Our experiments indicate that both types of embeddings encode some taxonomic information, but the amount, as well as the geometric properties of the encodings, are independently related to both the encoder architecture, as well as the embedding training data. Specifically, we find that only taxonomic embeddings carry taxonomic information in their norm, which is determined by the underlying distribution in the data.
翻訳日:2023-01-26 14:51:30 公開日:2023-01-25
# 強磁性量子ガスの励起状態相図

Excited-state phase diagram of a ferromagnetic quantum gas ( http://arxiv.org/abs/2301.10655v1 )

ライセンス: Link先を確認
Bernd Meyer-Hoppe, Fabian Anders, Polina Feldmann, Luis Santos, Carsten Klempt(参考訳) 量子多体系の基底状態相は、外部制御パラメータが変化すると量子相遷移時に突然変化する順序パラメータによって特徴づけられる。 興味深いことに、これらの概念は励起状態にまで拡張され、等価な励起状態量子相転移を定義することができる。 しかし、励起量子状態の位相図の実験的なマッピングはまだ証明されていない。 ここでは、原子強磁性量子ガスの励起状態相図の実験的な決定を行い、そこでは、励起エネルギーが制御パラメータの1つである。 得られた位相図は、よく定義された順序パラメータの測定によって量子多体系のヒルベルト状態がどのように構成されるかを示す。

The ground-state phases of a quantum many-body system are characterized by an order parameter, which changes abruptly at quantum phase transitions when an external control parameter is varied. Interestingly, these concepts may be extended to excited states, for which it is possible to define equivalent excited-state quantum phase transitions. However, the experimental mapping of a phase diagram of excited quantum states has not yet been demonstrated. Here we present the experimental determination of the excited-state phase diagram of an atomic ferromagnetic quantum gas, where, crucially, the excitation energy is one of the control parameters. The obtained phase diagram exemplifies how the extensive Hilbert state of quantum many-body systems can be structured by the measurement of well-defined order parameters.
翻訳日:2023-01-26 14:51:16 公開日:2023-01-25
# 畳み込み強化学習による偏微分方程式の分散制御

Distributed Control of Partial Differential Equations Using Convolutional Reinforcement Learning ( http://arxiv.org/abs/2301.10737v1 )

ライセンス: Link先を確認
Sebastian Peitz, Jan Stenner, Vikas Chidananda, Oliver Wallscheid, Steven L. Brunton, Kunihiko Taira(参考訳) 本稿では,偏微分方程式(pdes)によって制御される力学系の分散強化学習制御のための計算労力を著しく削減する畳み込みフレームワークを提案する。 高次元分散制御問題は, 同一の非結合エージェントが多数存在する多エージェント制御問題に変換できる。 さらに、多くの場合、情報が有限速度で輸送されるという事実を用いて、pdeの状態空間上の畳み込み演算を用いてエージェントの環境の次元を劇的に削減することができる。 この設定では、複雑度はカーネル幅を介して柔軟に調整するか、ストライドを1より大きくすることで調整することができる。 さらに、小さなシステムから大きなシステムへのスケーリング -- あるいは異なるドメイン間の転送 -- は、ほんの少しの労力で簡単なタスクになります。 低次元の深部決定論的ポリシー勾配エージェントを最小の計算資源で訓練することにより安定化を実現するため,いくつかのpde例を用いて,提案フレームワークの性能を示す。

We present a convolutional framework which significantly reduces the complexity and thus, the computational effort for distributed reinforcement learning control of dynamical systems governed by partial differential equations (PDEs). Exploiting translational invariances, the high-dimensional distributed control problem can be transformed into a multi-agent control problem with many identical, uncoupled agents. Furthermore, using the fact that information is transported with finite velocity in many cases, the dimension of the agents' environment can be drastically reduced using a convolution operation over the state space of the PDE. In this setting, the complexity can be flexibly adjusted via the kernel width or by using a stride greater than one. Moreover, scaling from smaller to larger systems -- or the transfer between different domains -- becomes a straightforward task requiring little effort. We demonstrate the performance of the proposed framework using several PDE examples with increasing complexity, where stabilization is achieved by training a low-dimensional deep deterministic policy gradient agent using minimal computing resources.
翻訳日:2023-01-26 14:44:44 公開日:2023-01-25
# インフラLiDARアノテーションのための効率的な半自動スキーム

An Efficient Semi-Automated Scheme for Infrastructure LiDAR Annotation ( http://arxiv.org/abs/2301.10732v1 )

ライセンス: Link先を確認
Aotian Wu, Pan He, Xiao Li, Ke Chen, Sanjay Ranka, Anand Rangarajan(参考訳) 既存の知覚システムはカメラから取得したセンサーデータに依存しており、低照度や悪天候環境では性能が悪い。 この制限を解決するために、自動運転アプリケーションにおける認識タスクにおいて、高度なLiDARセンサが普及するのを目撃した。 それでも、交通監視システムにおける彼らの利用は、あまり普及していない。 低コストかつ効率的なLiDARベースの交通監視システム開発における2つの重要な障害を特定した。 i)公共のLiDARデータセットは、インフラシステムの認識タスクを支援するには不十分であり、 (ii)LiDARポイントクラウド上の3Dアノテーションは、時間と費用がかかります。 このギャップを埋めるために、私たちは、完全な注釈付きインフラストラクチャLiDARデータセット -- FLORIDA (Florida LiDARベースのObject RecognitionとIntelligent Data Annotation) -- を提供しながら、トラッキングアルゴリズムでLiDARシーケンスを自動的にアノテーションする効率的な半自動アノテーションツールを紹介します。 我々の高度なアノテーションツールは、マルチオブジェクト追跡(MOT)、シングルオブジェクト追跡(SOT)、適切な軌跡後処理技術をシームレスに統合する。 具体的には、アノテータがツールによって予測されたアノテーションを再帰的に修正し、洗練し、トレーニングデータセットにインクリメンタルに追加し、より良いSOTとMOTモデルを得る。 このプロセスを繰り返して、アノテーション全体の速度を3~4倍に向上させ、最先端のアノテーションツールよりも質的なアノテーションを得る。 ヒトのアノテーション実験は、アノテーションツールの有効性を検証する。 さらに、交通交差点における知覚タスクのベンチマークとして、データセットの詳細な統計とオブジェクト検出評価結果を提供する。

Most existing perception systems rely on sensory data acquired from cameras, which perform poorly in low light and adverse weather conditions. To resolve this limitation, we have witnessed advanced LiDAR sensors become popular in perception tasks in autonomous driving applications. Nevertheless, their usage in traffic monitoring systems is less ubiquitous. We identify two significant obstacles in cost-effectively and efficiently developing such a LiDAR-based traffic monitoring system: (i) public LiDAR datasets are insufficient for supporting perception tasks in infrastructure systems, and (ii) 3D annotations on LiDAR point clouds are time-consuming and expensive. To fill this gap, we present an efficient semi-automated annotation tool that automatically annotates LiDAR sequences with tracking algorithms while offering a fully annotated infrastructure LiDAR dataset -- FLORIDA (Florida LiDAR-based Object Recognition and Intelligent Data Annotation) -- which will be made publicly available. Our advanced annotation tool seamlessly integrates multi-object tracking (MOT), single-object tracking (SOT), and suitable trajectory post-processing techniques. Specifically, we introduce a human-in-the-loop schema in which annotators recursively fix and refine annotations imperfectly predicted by our tool and incrementally add them to the training dataset to obtain better SOT and MOT models. By repeating the process, we significantly increase the overall annotation speed by three to four times and obtain better qualitative annotations than a state-of-the-art annotation tool. The human annotation experiments verify the effectiveness of our annotation tool. In addition, we provide detailed statistics and object detection evaluation results for our dataset in serving as a benchmark for perception tasks at traffic intersections.
翻訳日:2023-01-26 14:44:27 公開日:2023-01-25
# 量子コンピューティングデバイスのキャラクタリゼーション、制御、校正、検証のための数学的アプローチ

Mathematical approaches for characterization, control, calibration and validation of a quantum computing device ( http://arxiv.org/abs/2301.10712v1 )

ライセンス: Link先を確認
Zhichao Peng, Daniel Appelo, N. Anders Petersson, Fortino Garcia and Yujin Cho(参考訳) 量子コンピューティングはここ数年、多くの異なる研究コミュニティからかなりの関心を集めてきた。 量子コンピューティングのアルゴリズム的な部分に焦点を当てた入門テキストは数多く存在するが、現在の量子コンピューティングデバイスのモデリング、キャリブレーション、動作を記述する出版物が多数存在する。 本報告の目的は,ローレンス・リバモア国立研究所 (LLNL) のキュディット装置の特性と最適制御から,結果の検証まで,全手順を通したケーススタディを提供することで,その空白を埋めることである。 この報告書の目的は、学生や研究者、特に量子コンピューティングに興味があるが新しい計算数学者に紹介を提供することである。 この手順の実験的および数学的側面について論じる。 本稿では、LLNL QuDITテストベッド、それを記述するために使用される数学的モデル、最適制御の設計に使用される数値的手法について述べる。 また,量子デバイスの特徴化に使用できる実験および計算手法を提案する。 最後に, 最適制御パルスの実験的検証を行い, キャラクタリゼーションの精度と最適制御手法に依拠する。

Quantum computing has received significant amounts of interest from many different research communities over the last few years. Although there are many introductory texts that focus on the algorithmic parts of quantum computing, there is a dearth of publications that describe the modeling, calibration and operation of current quantum computing devices. One aim of this report is to fill that void by providing a case study that walks through the entire procedure from the characterization and optimal control of a qudit device at Lawrence Livermore National Laboratory (LLNL) to the validation of the results. A goal of the report is to provide an introduction for students and researchers, especially computational mathematicians, who are interested in but new to quantum computing. Both experimental and mathematical aspects of this procedure are discussed. We present a description of the LLNL QuDIT testbed, the mathematical models that are used to describe it, and the numerical methods that are used to to design optimal controls. We also present experimental and computational methods that can be used to characterize a quantum device. Finally, an experimental validation of an optimized control pulse is presented, which relies on the accuracy of the characterization and the optimal control methodologies.
翻訳日:2023-01-26 14:43:31 公開日:2023-01-25
# サンプル混合整数最適化問題に対する逐次ディープラーニングアルゴリズム

A Sequential Deep Learning Algorithm for Sampled Mixed-integer Optimisation Problems ( http://arxiv.org/abs/2301.10703v1 )

ライセンス: Link先を確認
Mohammadreza Chamanbaz, Roland Bouffanais(参考訳) 混合整数最適化問題は計算的に困難である。 本稿では,このクラス内のサンプル問題に対処することを目的とした,特定の逐次設計による2つの効率的なアルゴリズムの導入と解析を行う。 両アルゴリズムの繰り返しステップにおいて、まず、サンプル最適化に関連する各制約に対して、与えられたテストソリューションの実現可能性をテストすると同時に、違反した制約を特定する。 その後、最適化問題は、現在のベース(すなわち、現在のテストソリューションを完全に指定した最小の制約セット)と、特定された違反サンプルの限られた数に関する制約からなる制約セットで構築される。 両アルゴリズムが最適解に対して有限時間収束を示すことを示す。 アルゴリズム2は、アルゴリズム1と比較して計算性能が著しく向上するニューラルネットワーク分類器を備えている。 これらのアルゴリズムの有効性を,ロバスト最適潮流,ロバスト単位コミットメント,ロバストランダム混合整数線形プログラムという3つの数値実験により定量的に確立した。

Mixed-integer optimisation problems can be computationally challenging. Here, we introduce and analyse two efficient algorithms with a specific sequential design that are aimed at dealing with sampled problems within this class. At each iteration step of both algorithms, we first test the feasibility of a given test solution for each and every constraint associated with the sampled optimisation at hand, while also identifying those constraints that are violated. Subsequently, an optimisation problem is constructed with a constraint set consisting of the current basis -- namely the smallest set of constraints that fully specifies the current test solution -- as well as constraints related to a limited number of the identified violating samples. We show that both algorithms exhibit finite-time convergence towards the optimal solution. Algorithm 2 features a neural network classifier that notably improves the computational performance compared to Algorithm 1. We establish quantitatively the efficacy of these algorithms by means of three numerical tests: robust optimal power flow, robust unit commitment, and robust random mixed-integer linear program.
翻訳日:2023-01-26 14:43:14 公開日:2023-01-25
# 零光子減算による変換光子統計

Transforming photon statistics through zero-photon subtraction ( http://arxiv.org/abs/2301.10702v1 )

ライセンス: Link先を確認
C. M. Nunn, S. U. Shringarpure, and T. B. Pittman(参考訳) ゼロ光子減算 (zero-photon subtraction, zps) は、光子を物理的に取り除くことなく、量子光状態の平均光子数を減少させる条件付き測定過程である。 ここでは、ZPSがある種の超ポアソン状態から準ポアソン状態へ変換するのにも使えることを示す。 条件測定に関するよく知られた"no-go"定理と組み合わせることで、この効果はZPS測定によって実験的にテストできる新しい非古典性基準をもたらす。

Zero-photon subtraction (ZPS) is a conditional measurement process that can reduce the mean photon number of quantum optical states without physically removing any photons. Here we show that ZPS can also be used to transform certain super-Poissonian states into sub-Poissonian states, and vice versa. Combined with a well-known "no-go" theorem on conditional measurements, this effect leads to a new set of non-classicality criteria that can be experimentally tested through ZPS measurements.
翻訳日:2023-01-26 14:42:57 公開日:2023-01-25
# 量子充足可能性のテスト

Testing quantum satisfiability ( http://arxiv.org/abs/2301.10699v1 )

ライセンス: Link先を確認
Ashley Montanaro, Changpeng Shao, Dominic Verdon(参考訳) 量子k-sat(k-局所ハミルトニアンがフラストレーションフリーであるかどうかを判定する問題)は、k >= 3 に対して qma_1-完全であることが知られている。 alon と shapira の古典的な結果に基づいて、量子 k-sat がランダム化された多項式時間で解くことができることを示した。'property testing' は、インスタンスが(任意の状態によって)満足可能であるか、あるいは製品状態によって満足できないことを約束している。 証明には2つのステップがある: まず、量子 k-SAT の満足できるインスタンスに対して、定数数の量子ビット上のほとんどの部分プロブレムは積状態によって満足できることを示す。 次に、製品状態が満足できない量子k-satの例では、ほとんどのサブプロブレムは製品状態では満足できないことを示す。 したがって、量子k-SATは、一定の大きさのランダムに選択されたサブシステム上の積状態によって満足度をチェックすることで解決することができる。

Quantum k-SAT (the problem of determining whether a k-local Hamiltonian is frustration-free) is known to be QMA_1-complete for k >= 3, and hence likely hard for quantum computers to solve. Building on a classical result of Alon and Shapira, we show that quantum k-SAT can be solved in randomised polynomial time given the `property testing' promise that the instance is either satisfiable (by any state) or far from satisfiable by a product state; by `far from satisfiable by a product state' we mean that \epsilon n^k constraints must be removed before a product state solution exists, for some fixed \epsilon > 0. The proof has two steps: we first show that for a satisfiable instance of quantum k-SAT, most subproblems on a constant number of qubits are satisfiable by a product state. We then show that for an instance of quantum k-SAT which is far from satisfiable by a product state, most subproblems are unsatisfiable by a product state. Given the promise, quantum k-SAT may therefore be solved by checking satisfiability by a product state on randomly chosen subsystems of constant size.
翻訳日:2023-01-26 14:42:45 公開日:2023-01-25
# 紫外発散を有する多スピンボソンモデルの自己共役性

Self-adjointness of a class of multi-spin-boson models with ultraviolet divergences ( http://arxiv.org/abs/2301.10694v1 )

ライセンス: Link先を確認
Davide Lonigro(参考訳) 構造ボソン場と結合したN$2レベル系(スピン)の族を記述する量子ハミルトニアンモデルのクラスを、紫外偏光を示す可能性のある形状因子(従って非正規化不可能)によって媒介される回転波結合を用いて研究する。 励起の総数を変化させないスピンスピン相互作用も含む。 単スピンの場合の以前の結果を一般化し、自己共役領域とそのようなモデルの分解作用素に対して明示的な表現を提供し、どちらも連結プロパゲータ群を介してスピン場とスピンスピンのカップリングに複雑な依存を持つ。 この構造は、例えば紫外線遮断のような正規化可能なものによる形状因子の近似の下で、標準分解剤の意味で安定であることが示される。

We study a class of quantum Hamiltonian models describing a family of $N$ two-level systems (spins) coupled with a structured boson field, with a rotating-wave coupling mediated by form factors possibly exhibiting ultraviolet divergences (hence, non-normalizable). Spin-spin interactions which do not modify the total number of excitations are also included. Generalizing previous results in the single-spin case, we provide explicit expressions for the self-adjointness domain and the resolvent operator of such models, both of them carrying an intricate dependence on both the spin-field and spin-spin coupling via a family of concatenated propagators. This construction is also shown to be stable, in the norm resolvent sense, under approximations of the form factors via normalizable ones, for example an ultraviolet cutoff.
翻訳日:2023-01-26 14:42:23 公開日:2023-01-25
# 大規模反復量子結合クラスター計算のための反可換パウリ発電機のインボロータリー線形結合の効率的な構成

Efficient construction of involutory linear combinations of anti-commuting Pauli generators for large-scale iterative qubit coupled cluster calculations ( http://arxiv.org/abs/2301.10690v1 )

ライセンス: Link先を確認
Ilya G. Ryabinkin, Andrew J. Jena, and Scott N. Genin(参考訳) 本稿では,pauli$\hat x_i$演算子(純x生成器)からのみ構成され,絶対エネルギー勾配などの関連する数値測度によってソートされる可換作用素の集合から,パウリ生成器(パウリ群の元)の完全な反可換集合を構成する効率的な方法を提案する。 本手法では,xジェネレータの集合をエンコードしたバイナリ行列に適用したgauss-jordan除去法を用いて,xジェネレータを縮小列エケロン形式に変換し,修正ヨルダン・ウィグナー変換を用いて標準ベースで反可換系を構築し,元の基底に戻る。 アルゴリズムの複雑性は X 集合のサイズでは線型であり、キュービット数では二次である。 結果として生じる反可換集合は、[J. Chem. Theory Comput. 2021, 17, 1, 66-78] で提案された反可換なPaulis (QCC-ILCAP) のインボリュート線型結合を持つ量子連結クラスタ Ansatz を構成するために用いられる。 本研究では,QCC-ILCAPアンサッツを用いた繰り返し量子結合クラスタ法を適用し,水分子の対称伸長(36 qubits)とN$2$(56 qubits)の解離に対する基底状態ポテンシャルエネルギー曲線の計算を行った。

We present an efficient method for construction of a fully anti-commutative set of Pauli generators (elements of the Pauli group) from a commutative set of operators that are composed exclusively from Pauli $\hat x_i$ operators (purely X generators) and sorted by an associated numerical measure, such as absolute energy gradients. Our approach uses the Gauss-Jordan elimination applied to a binary matrix that encodes the set of X generators to bring it to the reduced row echelon form, followed by the construction of an anti-commutative system in a standard basis by means of a modified Jordan-Wigner transformation and returning to the original basis. The algorithm complexity is linear in the size of the X set and quadratic in the number of qubits. The resulting anti-commutative sets are used to construct the qubit coupled cluster Ansatz with involutory linear combinations of anti-commuting Paulis (QCC-ILCAP) proposed in [J. Chem. Theory Comput. 2021, 17, 1, 66-78]. We applied the iterative qubit coupled cluster method with the QCC-ILCAP Ansatz to calculations of ground-state potential energy curves for symmetric stretching of the water molecule (36 qubits) and dissociation of N$_2$ (56 qubits).
翻訳日:2023-01-26 14:42:09 公開日:2023-01-25
# 不完全なタイムキーピングが量子制御に及ぼす影響

The Impact of Imperfect Timekeeping on Quantum Control ( http://arxiv.org/abs/2301.10767v1 )

ライセンス: Link先を確認
Jake Xuereb, Paul Erker, Florian Meier, Mark T. Mitchison and Marcus Huber(参考訳) 量子システムを一元的に進化させるためには、エージェントは時間に関する知識を必要とする。 本稿では,時間知識の獲得に関する制限が,異なるパラダイムにおける制御量子演算にどのように影響するかを考察する。 エージェントの時間保存の質は、回路ベースの量子計算で達成できるゲートの複雑さを制限することができることを示した。 また、測定に基づく量子計算のための状態準備にも指数関数的に影響する。 量子制御が関連する別の領域は、量子熱力学である。 その文脈において、量子ビットの冷却は任意の品質のタイマで達成できることを示す: タイムキーピングエラーは冷却速度にのみ影響し、達成可能な温度には影響しない。 本解析は,自律的量子時計の研究と量子チャネルの理論を組み合わせることで,制御された量子ダイナミクスに対する不完全なタイムキーピングの効果を理解する。

In order to unitarily evolve a quantum system, an agent requires knowledge of time, a parameter which no physical clock can ever perfectly characterise. In this letter, we study how limitations on acquiring knowledge of time impact controlled quantum operations in different paradigms. We show that the quality of timekeeping an agent has access to limits the gate complexity they are able to achieve within circuit-based quantum computation. It also exponentially impacts state preparation for measurement-based quantum computation. Another area where quantum control is relevant is quantum thermodynamics. In that context, we show that cooling a qubit can be achieved using a timer of arbitrary quality for control: timekeeping error only impacts the rate of cooling and not the achievable temperature. Our analysis combines techniques from the study of autonomous quantum clocks and the theory of quantum channels to understand the effect of imperfect timekeeping on controlled quantum dynamics.
翻訳日:2023-01-26 14:36:06 公開日:2023-01-25
# カメラによる3次元物体検出の逆ロバスト性について

On the Adversarial Robustness of Camera-based 3D Object Detection ( http://arxiv.org/abs/2301.10766v1 )

ライセンス: Link先を確認
Shaoyuan Xie, Zichao Li, Zeyu Wang, Cihang Xie(参考訳) 近年,低計算コストで高性能な3d物体検出技術が注目されている。 しかし,これらの手法の敵攻撃に対する堅牢性は十分に検証されていない。 本研究では,種々の対向条件下での先行カメラを用いた3次元物体検出手法の堅牢性に関する総合的研究を行った。 我々の実験で5つの興味深い発見が明らかになりました a) 正確な深さ推定を使用することで、堅牢性が効果的に向上する。 b) 深さ推定のないアプローチは、優れたロバスト性を示しない。 (c)鳥眼ビューに基づく表現は、局所攻撃に対する強い堅牢性を示す。 (d)多枠良性入力を組み込むことで、対向攻撃を効果的に軽減することができる。 (e)ロングテール問題に対処することはロバスト性を高めることができる。 我々は,今後のカメラによる物体検出モジュールの設計のガイダンスを,対向性の向上とともに提供できることを願っている。

In recent years, camera-based 3D object detection has gained widespread attention for its ability to achieve high performance with low computational cost. However, the robustness of these methods to adversarial attacks has not been thoroughly examined. In this study, we conduct the first comprehensive investigation of the robustness of leading camera-based 3D object detection methods under various adversarial conditions. Our experiments reveal five interesting findings: (a) the use of accurate depth estimation effectively improves robustness; (b) depth-estimation-free approaches do not show superior robustness; (c) bird's-eye-view-based representations exhibit greater robustness against localization attacks; (d) incorporating multi-frame benign inputs can effectively mitigate adversarial attacks; and (e) addressing long-tail problems can enhance robustness. We hope our work can provide guidance for the design of future camera-based object detection modules with improved adversarial robustness.
翻訳日:2023-01-26 14:35:51 公開日:2023-01-25
# 音声言語理解におけるファイラー : 計算的・心理的視点

Fillers in Spoken Language Understanding: Computational and Psycholinguistic Perspectives ( http://arxiv.org/abs/2301.10761v1 )

ライセンス: Link先を確認
Tanvi Dinkar, Chlo\'e Clavel, Ioana Vasilescu(参考訳) 発話の通常の流れにおける中断(disfluencies)は、話し言葉に対してユビキタスである。 フィラー("uh", "um")は、他の種類の不均衡と比較して最も頻繁に発生する不規則である。 しかし、私たちの知る限りでは、これらのスピーチイベントにおいてSpoken Language Understanding(SLU)に影響を与える研究の視点をまとめるリソースは存在しない。 本論文の目的は,基本(心理学)言語理論の考察から,自動音声認識(asr)とsluシステムにおける注釈と考察から,世代的観点からの研究まで,全体論的に幅広い視点を合成することである。 この記事では、SLUと会話型AIコミュニティにアプローチ可能な方法で視点を提示し、前進、各分野のトレンドと課題を議論することを目的としています。

Disfluencies (i.e. interruptions in the regular flow of speech), are ubiquitous to spoken discourse. Fillers ("uh", "um") are disfluencies that occur the most frequently compared to other kinds of disfluencies. Yet, to the best of our knowledge, there isn't a resource that brings together the research perspectives influencing Spoken Language Understanding (SLU) on these speech events. This aim of this article is to synthesise a breadth of perspectives in a holistic way; i.e. from considering underlying (psycho)linguistic theory, to their annotation and consideration in Automatic Speech Recognition (ASR) and SLU systems, to lastly, their study from a generation standpoint. This article aims to present the perspectives in an approachable way to the SLU and Conversational AI community, and discuss moving forward, what we believe are the trends and challenges in each area.
翻訳日:2023-01-26 14:35:41 公開日:2023-01-25
# 効率的なフロー誘導マルチフレームデフェンシング

Efficient Flow-Guided Multi-frame De-fencing ( http://arxiv.org/abs/2301.10759v1 )

ライセンス: Link先を確認
Stavros Tsogkas, Fengjia Zhang, Allan Jepson, Alex Levinshtein(参考訳) 「地中」の撮影は、カメラの利用者と関心の場の間に立ち、避けがたい、あるいは避けられないフェンスの障害によって、しばしば妨げられる。 デフェンシング(de-fencing)は、画像からそのような障害を自動的に取り除き、シーンの見えない部分を明らかにするアルゴリズムのプロセスである。 この問題は、フェンスのセグメンテーションと画像のインペイントの組み合わせとして定式化できるが、しばしば閉鎖された領域の不可解な幻覚を引き起こす。 既存のマルチフレームアプローチは、その時間的隣人から選択されたキーフレームに情報を伝達することに頼っているが、それらはしばしば非効率であり、ひどい妨害されたイメージのアライメントに苦労する。 本研究は,映像補完文献からインスピレーションを得て,ブロックされたフレームから直接高品質なフローマップを計算し,フレームを正確に整列させるマルチフレームデフェンシングのための簡易フレームワークを開発する。 私たちのアルゴリズムへの入力は、短い画像バースト(5フレーム)で、現代のスマートフォンで一般的なデータモダリティです。 我々の手法は単純だが効果的なCNNモジュールを活用し、注意深く生成された合成データに基づいて訓練し、リアルタイムに実行しながら、量的にも質的にも、より複雑な代替手段よりも優れている。

Taking photographs ''in-the-wild'' is often hindered by fence obstructions that stand between the camera user and the scene of interest, and which are hard or impossible to avoid. De-fencing is the algorithmic process of automatically removing such obstructions from images, revealing the invisible parts of the scene. While this problem can be formulated as a combination of fence segmentation and image inpainting, this often leads to implausible hallucinations of the occluded regions. Existing multi-frame approaches rely on propagating information to a selected keyframe from its temporal neighbors, but they are often inefficient and struggle with alignment of severely obstructed images. In this work we draw inspiration from the video completion literature and develop a simplified framework for multi-frame de-fencing that computes high quality flow maps directly from obstructed frames and uses them to accurately align frames. Our primary focus is efficiency and practicality in a real-world setting: the input to our algorithm is a short image burst (5 frames) - a data modality commonly available in modern smartphones - and the output is a single reconstructed keyframe, with the fence removed. Our approach leverages simple yet effective CNN modules, trained on carefully generated synthetic data, and outperforms more complicated alternatives real bursts, both quantitatively and qualitatively, while running real-time.
翻訳日:2023-01-26 14:35:26 公開日:2023-01-25
# フェルミオン量子近似最適化アルゴリズム

Fermionic Quantum Approximate Optimization Algorithm ( http://arxiv.org/abs/2301.10756v1 )

ライセンス: Link先を確認
Takuya Yoshioka, Keita Sasada, Yuichiro Nakano, and Keisuke Fujii(参考訳) 量子コンピュータは、グロバー適応探索や量子近似最適化アルゴリズム(QAOA)などのアルゴリズムを含む組合せ最適化問題を解くことを期待されている。 しかし、多くの組合せ最適化問題には、コスト関数にソフト制約として課される場合、最適化アルゴリズムの性能に悪影響を及ぼす制約が伴う。 本稿では,制約付き組合せ最適化問題を解くためのフェルミオン量子近似最適化アルゴリズム(fqaoa)を提案する。 特に、FQAOAは、フェルミオン粒子数保存を用いて、QAOA全体を通して本質的にそれらを強制する制約に対処する。 制約のある問題ハミルトニアンに対してドライバハミルトニアンを設計するための体系的なガイドラインを提供する。 初期状態は、ドライバーハミルトニアンの制約と基底状態を満たす状態の重ね合わせとして選択することができる。 この性質は、fqaoaが回路深度pの限界で量子断熱計算に還元され、トロッタ化量子断熱進化によって決定される固定角からパラメータを最適化した浅い回路でも性能が向上するため重要である。 本稿では,FQAOAがポートフォリオ最適化問題における既存手法に対して大きな性能上の優位性をもたらすことを示す。 さらに、ハミルトニアン設計ガイドラインはqaoaだけでなくグローバー適応探索や量子位相推定にも有用であり、制約付き組合せ最適化問題を解く。 フェミオン系のためのソフトウェアツールは、ノイズの多い中間量子コンピュータとフォールトトレラント量子コンピュータの両方で量子計算化学において開発されたため、FQAOAはこれらのツールを制約付き組合せ最適化問題に適用することができる。

Quantum computers are expected to accelerate solving combinatorial optimization problems, including algorithms such as Grover adaptive search and quantum approximate optimization algorithm (QAOA). However, many combinatorial optimization problems involve constraints which, when imposed as soft constraints in the cost function, can negatively impact the performance of the optimization algorithm. In this paper, we propose fermionic quantum approximate optimization algorithm (FQAOA) for solving combinatorial optimization problems with constraints. Specifically FQAOA tackle the constrains issue by using fermion particle number preservation to intrinsically impose them throughout QAOA. We provide a systematic guideline for designing the driver Hamiltonian for a given problem Hamiltonian with constraints. The initial state can be chosen to be a superposition of states satisfying the constraint and the ground state of the driver Hamiltonian. This property is important since FQAOA reduced to quantum adiabatic computation in the large limit of circuit depth p and improved performance, even for shallow circuits with optimizing the parameters starting from the fixed-angle determined by Trotterized quantum adiabatic evolution. We perform an extensive numerical simulation and demonstrates that proposed FQAOA provides substantial performance advantage against existing approaches in portfolio optimization problems. Furthermore, the Hamiltonian design guideline is useful not only for QAOA, but also Grover adaptive search and quantum phase estimation to solve combinatorial optimization problems with constraints. Since software tools for fermionic systems have been developed in quantum computational chemistry both for noisy intermediate-scale quantum computers and fault-tolerant quantum computers, FQAOA allows us to apply these tools for constrained combinatorial optimization problems.
翻訳日:2023-01-26 14:34:59 公開日:2023-01-25
# 分離と拡散:ソース分離を改善するための事前学習拡散モデル

Separate And Diffuse: Using a Pretrained Diffusion Model for Improving Source Separation ( http://arxiv.org/abs/2301.10752v1 )

ライセンス: Link先を確認
Shahar Lutati and Eliya Nachmani and Lior Wolf(参考訳) カクテルパーティー問題(カクテルパーティー問題、英: cocktail party problem)は、音声信号の混合から1つの音声信号を分離する課題である。 ソース分離に関する以前の研究は、人間の発話領域におけるソース分離タスクの上限を導いた。 この境界は決定論的モデルのために導かれる。 生成モデルの最近の進歩はこの限界に挑戦している。 本稿では、上界がランダム生成モデルの場合にどのように一般化できるかを示す。 定性分離モデルの出力に単一話者音声をモデル化するために事前訓練された拡散モデルVocoderを適用すると、最先端の分離結果が得られる。 これは分離モデルの出力と拡散モデルの出力を組み合わせる必要があることを示している。 本手法では,学習モデルによって推定される重みを用いて,周波数領域において線形結合を行う。 複数のベンチマークで2, 3, 5, 10, 20人の話者に最新の結果を示す。 特に2つの話者に対して,提案手法は従来上層性能境界と考えられていたものを上回ることができる。

The problem of speech separation, also known as the cocktail party problem, refers to the task of isolating a single speech signal from a mixture of speech signals. Previous work on source separation derived an upper bound for the source separation task in the domain of human speech. This bound is derived for deterministic models. Recent advancements in generative models challenge this bound. We show how the upper bound can be generalized to the case of random generative models. Applying a diffusion model Vocoder that was pretrained to model single-speaker voices on the output of a deterministic separation model leads to state-of-the-art separation results. It is shown that this requires one to combine the output of the separation model with that of the diffusion model. In our method, a linear combination is performed, in the frequency domain, using weights that are inferred by a learned model. We show state-of-the-art results on 2, 3, 5, 10, and 20 speakers on multiple benchmarks. In particular, for two speakers, our method is able to surpass what was previously considered the upper performance bound.
翻訳日:2023-01-26 14:34:29 公開日:2023-01-25
# state of art visionモデルにおける分散性能の欠如

Out of Distribution Performance of State of Art Vision Model ( http://arxiv.org/abs/2301.10750v1 )

ライセンス: Link先を確認
Md Salman Rahman and Wonkwon Lee(参考訳) 視覚変換器(ViT)は、視覚認識タスクの最先端に進歩した。 最新の研究によると、トランスフォーマーはCNNよりも堅牢だ。 ViTの自己保持機構は、CNNよりも堅牢である。 それにもかかわらず、これらの結論は不公平な実験条件に基づいており、いくつかのモデルを比較するだけで、ロバストネス性能の全シナリオを表現できないことがわかった。 本研究では,注意と畳み込みのメカニズムだけでなく,畳み込みと注意の機構,シーケンスベースモデル,補足探索,ネットワークベース手法を組み合わせたニューラルネットワークによる統一学習環境において,58種類の最先端コンピュータビジョンモデルの性能について検討する。 本研究は,ロバスト性がトレーニング設定とモデルタイプに依存し,分散型によって性能が異なることを実証する。 私たちの研究は、コンピュータビジョンモデルの堅牢性をよりよく理解し、ベンチマークするのに役立ちます。

The vision transformer (ViT) has advanced to the cutting edge in the visual recognition task. Transformers are more robust than CNN, according to the latest research. ViT's self-attention mechanism, according to the claim, makes it more robust than CNN. Even with this, we discover that these conclusions are based on unfair experimental conditions and just comparing a few models, which did not allow us to depict the entire scenario of robustness performance. In this study, we investigate the performance of 58 state-of-the-art computer vision models in a unified training setup based not only on attention and convolution mechanisms but also on neural networks based on a combination of convolution and attention mechanisms, sequence-based model, complementary search, and network-based method. Our research demonstrates that robustness depends on the training setup and model types, and performance varies based on out-of-distribution type. Our research will aid the community in better understanding and benchmarking the robustness of computer vision models.
翻訳日:2023-01-26 14:34:12 公開日:2023-01-25
# 行列領域における固有値を持つベクトル代数固有状態$h(1) \oplus su(2)$

$h(1) \oplus su(2)$ vector algebra eigenstates with eigenvalues in the matrix domain ( http://arxiv.org/abs/2301.10747v1 )

ライセンス: Link先を確認
Nibaldo-Edmundo Alvarez-Moraga(参考訳) h(1) \oplus su(2)$ vector algebra eigenstates on the matrix domain の新たな集合は、正方形複素正規行列の要素として固有値が分布するこの代数のジェネレータの線形結合から生成される一般化消滅作用素の固有状態としてそれらを定義することによって得られる。 これらの固有状態、すなわち指数作用素の方法と一階線型微分方程式の系を計算するために、結合法が用いられる。 生成子の可能なすべての組み合わせについてこれらの状態を計算し、一般化された可換関係と $su(2)$代数学固有値に関連する特性パラメータの値に基づいて異なるカテゴリに分類する。 このようにして、行列領域において一般化されたベクトルコヒーレント状態のサブセットを発見し、これはシュリンガー=ロバートソン最小知能状態の一般集合から容易に分離できる。 特に、行列固有値パラメータの特別な選択のために、ハイゼンベルク・ワイル群に関連付けられた行列を持ついわゆるベクトルコヒーレント状態とそれらの一般化版、および四元数のコヒーレント状態の量子化との直接関係を発見した。

A new set of $ h(1) \oplus su(2)$ vector algebra eigenstates on the matrix domain is obtained by defining them as eigenstates of a generalized annihilation operator formed from a linear combination of the generators of this algebra which eigenvalues are distributed as the elements of a square complex normal matrix. A combined method is used to compute these eigenstates, namely, the method of exponential operators and that of a system of first-order linear differential equations. We compute these states for all possible combination of generators and classify them in different categories according to a generalized commutation relation as well as according to the value of a characteristic parameter related to the $su(2)$ algebra eigenvalues. Proceeding in this way, we found a subset of generalized vector coherent states in the matrix domain which can be easily separated from the general set of Schr\"odinger-Robertson minimum uncertainty intelligent states. In particular, for a special choice of the matrix eigenvalue parameters we found the so-called vector coherent states with matrices associated to the Heisenberg-Weyl group as well as a generalized version of them, and also a direct connection with the coherent state quantization of quaternions.
翻訳日:2023-01-26 14:33:55 公開日:2023-01-25
# 変圧器エンコーダの表現性に関するタイタ境界

Tighter Bounds on the Expressivity of Transformer Encoders ( http://arxiv.org/abs/2301.10743v1 )

ライセンス: Link先を確認
David Chiang and Peter Cholak and Anand Pillay(参考訳) より理解された形式システムの観点からニューラルネットワークを特徴付けることは、これらのネットワークのパワーと制限に対する新たな洞察をもたらす可能性がある。 変圧器の研究は現在も活発に行われている。 bhattamishraらはトランスフォーマーエンコーダがある種のカウンターマシンと同じくらい表現力があることを示したが、merrill と sabharwal は固定精度トランスフォーマーエンコーダは一様$tc^0$の言語のみを認識することを示した。 我々は,固定精度トランスコーダの上限とトランスコーダの下位境界を同時に計数する量化器を用いて,一階述語論理の変種を同定し,これらの結果の接続と強化を行う。 これにより、トランスフォーマーエンコーダが認識する言語の正確なキャラクタリゼーションに、これまでよりもずっと近いものになります。

Characterizing neural networks in terms of better-understood formal systems has the potential to yield new insights into the power and limitations of these networks. Doing so for transformers remains an active area of research. Bhattamishra and others have shown that transformer encoders are at least as expressive as a certain kind of counter machine, while Merrill and Sabharwal have shown that fixed-precision transformer encoders recognize only languages in uniform $TC^0$. We connect and strengthen these results by identifying a variant of first-order logic with counting quantifiers that is simultaneously an upper bound for fixed-precision transformer encoders and a lower bound for transformer encoders. This brings us much closer than before to an exact characterization of the languages that transformer encoders recognize.
翻訳日:2023-01-26 14:33:11 公開日:2023-01-25
# 木組プルーニングのためのロバスト仮説テスト

A Robust Hypothesis Test for Tree Ensemble Pruning ( http://arxiv.org/abs/2301.10115v2 )

ライセンス: Link先を確認
Daniel de Marchi, Matthew Welch, Michael Kosorok(参考訳) グラディエント強化決定木は、応用機械学習において最も一般的なアルゴリズムの一つである。 柔軟性と強力なツールで、スケーラブルで計算効率のよい方法で、任意の表データセットに堅牢に適合する。 これらのモデルに合わせて調整する最も重要なパラメータの1つは、信号と現在のモデルのノイズを区別するために使われる様々なペナルティ項である。 これらの罰則は実際は有効であるが、堅牢な理論的正当化に欠ける。 本稿では,勾配強化木アンサンブルの分割品質を理論的に正当化する新しい仮説を考案し,本手法を共通のペナルティ項に代えて使用することで,試料損失の大幅な低減をもたらすことを実証する。 さらに,本手法は木成長アルゴリズムの理論的に適正な停止条件を提供する。 また,本手法の革新的拡張をいくつか提示し,多種多様な新規木刈りアルゴリズムの扉を開く。

Gradient boosted decision trees are some of the most popular algorithms in applied machine learning. They are a flexible and powerful tool that can robustly fit to any tabular dataset in a scalable and computationally efficient way. One of the most critical parameters to tune when fitting these models are the various penalty terms used to distinguish signal from noise in the current model. These penalties are effective in practice, but are lacking in robust theoretical justifications. In this paper we develop and present a novel theoretically justified hypothesis test of split quality for gradient boosted tree ensembles and demonstrate that using this method instead of the common penalty terms leads to a significant reduction in out of sample loss. Additionally, this method provides a theoretically well-justified stopping condition for the tree growing algorithm. We also present several innovative extensions to the method, opening the door for a wide variety of novel tree pruning algorithms.
翻訳日:2023-01-26 12:00:58 公開日:2023-01-25
# ニューラルネットワークを用いた離散ボルツマン輸送方程式の解法:中性子輸送への応用

Solving the Discretised Boltzmann Transport Equations using Neural Networks: Applications in Neutron Transport ( http://arxiv.org/abs/2301.09991v2 )

ライセンス: Link先を確認
T. R. F. Phillips, C. E. Heaney, C. Boyang, A. G. Buchan, C. C. Pain(参考訳) 本稿では,AIライブラリを用いたボルツマン輸送方程式を解く。 これが魅力的な理由は、AIライブラリ内で高度に最適化されたソフトウェアを使用することができ、異なるコンピュータアーキテクチャ上で実行でき、AIとMLアプリケーションのために開発された膨大な数のコミュニティベースのソフトウェア(例えば混合算術精度やモデル並列性)を利用できるためである。 ここではボルツマン輸送方程式のこのアプローチ開発に向けての第一歩を踏み出し、これを効果的に行うために必要な方法を開発する。 以下を含む。 1)GPUや新しいAIコンピュータ上で効率的に動作させるのに必要な並列性のレベルを抽出できる空間角多重グリッド解法。 2) 高階有限要素(例えばクインティックに量子)の実装を大幅に単純化する新しい畳み込み有限要素法(convfem)。 3) 散逸を異方的に導入する新しい非線形ペトロフ・ガレルキン法

In this paper we solve the Boltzmann transport equation using AI libraries. The reason why this is attractive is because it enables one to use the highly optimised software within AI libraries, enabling one to run on different computer architectures and enables one to tap into the vast quantity of community based software that has been developed for AI and ML applications e.g. mixed arithmetic precision or model parallelism. Here we take the first steps towards developing this approach for the Boltzmann transport equation and develop the necessary methods in order to do that effectively. This includes: 1) A space-angle multigrid solution method that can extract the level of parallelism necessary to run efficiently on GPUs or new AI computers. 2) A new Convolutional Finite Element Method (ConvFEM) that greatly simplifies the implementation of high order finite elements (quadratic to quintic, say). 3) A new non-linear Petrov-Galerkin method that introduces dissipation anisotropically.
翻訳日:2023-01-26 12:00:43 公開日:2023-01-25
# パラメトリック時間依存問題のモデル削減のための2段階ディープラーニングアーキテクチャ

A two stages Deep Learning Architecture for Model Reduction of Parametric Time-Dependent Problems ( http://arxiv.org/abs/2301.09926v2 )

ライセンス: Link先を確認
Isabella Carla Gonnella, Martin W. Hess, Giovanni Stabile, Gianluigi Rozza(参考訳) パラメトリックな時間依存系は実現象のモデル化において重要であり、しばしば非線形な振る舞いによって特徴づけられる。 これらの解は通常、利用可能な限られた計算資源を数えながら十分に広いパラメータ空間で一般化することが困難である。 そこで本研究では,低計算時間でその一般化を実現できる2段階の一般ディープラーニングフレームワークを提案する。 2つのパイプライン予測モデルの分離トレーニングで構成されている。 最初は、特定の数の独立したニューラルネットワークが、パラメータ空間の異なるサブセットから取られたデータセットで訓練される。 続いて、第2の予測モデルは、第1段階の推測を適切に組み合わせ、正しい予測を計算するために特化される。 この枠組みをキャビティ(レイリー・バーナードキャビティ)内の非圧縮性ナビエ・ストークス方程式に適用し、計算時間を97%削減し、グラショフ数の新たな値を求める数値解と比較する有望な結果を得た。

Parametric time-dependent systems are of a crucial importance in modeling real phenomena, often characterized by non-linear behaviors too. Those solutions are typically difficult to generalize in a sufficiently wide parameter space while counting on limited computational resources available. As such, we present a general two-stages deep learning framework able to perform that generalization with low computational effort in time. It consists in a separated training of two pipe-lined predictive models. At first, a certain number of independent neural networks are trained with data-sets taken from different subsets of the parameter space. Successively, a second predictive model is specialized to properly combine the first-stage guesses and compute the right predictions. Promising results are obtained applying the framework to incompressible Navier-Stokes equations in a cavity (Rayleigh-Bernard cavity), obtaining a 97% reduction in the computational time comparing with its numerical resolution for a new value of the Grashof number.
翻訳日:2023-01-26 12:00:27 公開日:2023-01-25
# 数学、単語問題、常識、人工知能

Mathematics, word problems, common sense, and artificial intelligence ( http://arxiv.org/abs/2301.09723v2 )

ライセンス: Link先を確認
Ernest Davis(参考訳) 本稿では,基本知識とコモンセンス推論を組み合わせた単語問題を解くために,現在の人工知能(AI)技術の能力と限界について論じる。 既存のAIシステムは、これらを確実に解決できない。 我々は、ai自然言語技術を用いて開発された3つのアプローチをレビューする: 解を直接出力し、問題を解くコンピュータプログラムを出力し、自動定理検証器に入力可能な形式化された表現を出力する。 これらのシステムを評価するために開発されたベンチマークと実験的研究についてレビューする。 このような問題を解決する上で、既存の技術の限界について論じる。 我々は、これらの制限が純粋に数学研究のためのai技術を開発する上で重要であるかどうかは明らかでないが、数学の応用において重要であり、人間が書いた数学的内容を読み書きできるプログラムを開発する上で重要であると論じている。

The paper discusses the capacities and limitations of current artificial intelligence (AI) technology to solve word problems that combine elementary knowledge with commonsense reasoning. No existing AI systems can solve these reliably. We review three approaches that have been developed, using AI natural language technology: outputting the answer directly, outputting a computer program that solves the problem, and outputting a formalized representation that can be input to an automated theorem verifier. We review some benchmarks that have been developed to evaluate these systems and some experimental studies. We discuss the limitations of the existing technology at solving these kinds of problems. We argue that it is not clear whether these kinds of limitations will be important in developing AI technology for pure mathematical research, but that they will be important in applications of mathematics, and may well be important in developing programs capable of reading and understanding mathematical content written by humans.
翻訳日:2023-01-26 12:00:10 公開日:2023-01-25
# PrimeQA: 最先端多言語質問応答研究と開発のためのプライムリポジトリ

PrimeQA: The Prime Repository for State-of-the-Art Multilingual Question Answering Research and Development ( http://arxiv.org/abs/2301.09715v2 )

ライセンス: Link先を確認
Avirup Sil, Jaydeep Sen, Bhavani Iyer, Martin Franz, Kshitij Fadnis, Mihaela Bornea, Sara Rosenthal, Scott McCarley, Rong Zhang, Vishwajeet Kumar, Yulong Li, Md Arafat Sultan, Riyaz Bhat, Radu Florian, Salim Roukos(参考訳) 質問回答(QA)の分野は、大規模な事前学習言語モデルの出現、リーダーボードによる新しいリアルなベンチマークデータセット、レトリバーや読者のような重要なコンポーネントのための新しいアルゴリズムのおかげで、近年顕著な進歩を遂げている。 本稿では,1ストップでオープンソースのQAレポジトリであるPRIMEQAを紹介し,QAの再検討を民主化し,最先端(SOTA)QAメソッドの複製を容易にすることを目的とする。 PRIMEQAは、検索や読解といったコアQA機能と、質問生成などの補助機能をサポートし、フロントエンドアプリケーションの構築、pub-licベンチマーク上のSOTAメソッドの複製、既存のメソッドの拡張など、さまざまなユースケースのためのエンドツーエンドツールキットとして設計されている。 PRIMEQAはhttps://github.com/primeqa.comで入手できる。

The field of Question Answering (QA) has made remarkable progress in recent years, thanks to the advent of large pre-trained language models, newer realistic benchmark datasets with leaderboards, and novel algorithms for key components such as retrievers and readers. In this paper, we introduce PRIMEQA: a one-stop and open-source QA repository with an aim to democratize QA re-search and facilitate easy replication of state-of-the-art (SOTA) QA methods. PRIMEQA supports core QA functionalities like retrieval and reading comprehension as well as auxiliary capabilities such as question generation.It has been designed as an end-to-end toolkit for various use cases: building front-end applications, replicating SOTA methods on pub-lic benchmarks, and expanding pre-existing methods. PRIMEQA is available at : https://github.com/primeqa.
翻訳日:2023-01-26 11:59:55 公開日:2023-01-25
# Nested Monte Carlo SearchによるHPモデルの解法

Solving the HP model with Nested Monte Carlo Search ( http://arxiv.org/abs/2301.09533v2 )

ライセンス: Link先を確認
Milo Roucairol and Tristan Cazenave(参考訳) 本稿では,hpモデルにおけるタンパク質の基底状態エネルギーを求めるモンテカルロ探索(mcs)アルゴリズムを提案する。 また、HPモデルでは通常使われていない他のMCSアルゴリズムと比較し、HPモデルで使用されるアルゴリズムの概要を提供する。 本論文で提示されたアルゴリズムは,perm (hsu and grassberger 2011), remc (thachuk, shmygelska, hoos 2007) や wlre (w\"ust and landau 2012) など,最先端のアルゴリズムには勝っていない。 H、H。 -P。 and grassberger, p. 2011年。 PERMによる高分子のモンテカルロシミュレーションの概観 journal of statistical physics, 144 (3): 597 - 637。 タチュク c. とShmygelska, A。 とHoos, H. H. 2007。 HPモデルにおけるタンパク質折り畳みのためのモンテカルロの複製交換アルゴリズム bmcバイオインフォマティクス, 8(1): 342。 略称は「T」。 とLandau, D. P. 2012。 格子ポリマーの最適化Wang-Landauサンプリング:HPモデルタンパク質の基底状態探索と折り畳み熱力学 the journal of chemical physics, 137(6): 064903。

In this paper we present a new Monte Carlo Search (MCS) algorithm for finding the ground state energy of proteins in the HP-model. We also compare it briefly to other MCS algorithms not usually used on the HP-model and provide an overview of the algorithms used on HP-model. The algorithm presented in this paper does not beat state of the art algorithms, see PERM (Hsu and Grassberger 2011), REMC (Thachuk, Shmygelska, and Hoos 2007) or WLRE (W\"ust and Landau 2012) for better results. Hsu, H.-P.; and Grassberger, P. 2011. A review of Monte Carlo simulations of polymers with PERM. Journal of Statistical Physics, 144 (3): 597 to 637. Thachuk, C.; Shmygelska, A.; and Hoos, H. H. 2007. A replica exchange Monte Carlo algorithm for protein folding in the HP model. BMC Bioinformatics, 8(1): 342. W\"ust, T.; and Landau, D. P. 2012. Optimized Wang-Landau sampling of lattice polymers: Ground state search and folding thermodynamics of HP model proteins. The Journal of Chemical Physics, 137(6): 064903.
翻訳日:2023-01-26 11:59:39 公開日:2023-01-25
# 微分的辺縁に基づくデータ合成アルゴリズムの統計理論

Statistical Theory of Differentially Private Marginal-based Data Synthesis Algorithms ( http://arxiv.org/abs/2301.08844v2 )

ライセンス: Link先を確認
Ximing Li, Chendi Wang, Guang Cheng(参考訳) NIST(National Institute of Standards and Technology)が主催する合成データコンペティションで有望なパフォーマンスを達成する。 高次元データを扱うために、合成データの分布は確率的グラフィカルモデル(ベイズネットワークなど)で表され、生データの分布は低次元の辺縁の集合によって近似される。 差分プライバシー(DP)は、各低次元境界分布にランダムノイズを導入することで保証される。 実際には有望な性能にもかかわらず、境界に基づく手法の統計的性質は文献ではほとんど研究されていない。 本稿では,統計的観点から,ベイズネットワーク(BN)に基づくDPデータ合成アルゴリズムについて検討する。 BNアルゴリズムに対する厳密な精度保証を確立し、誤差は総変動(TV)距離または$L^2$距離で測定する。 下流機械学習タスクに関連して,DP合成データのユーティリティエラーに対する上限も導出する。 この画像を完成させるために、$\epsilon$-dp の合成データ生成器ごとに保持されるテレビの精度を低く設定する。

Marginal-based methods achieve promising performance in the synthetic data competition hosted by the National Institute of Standards and Technology (NIST). To deal with high-dimensional data, the distribution of synthetic data is represented by a probabilistic graphical model (e.g., a Bayesian network), while the raw data distribution is approximated by a collection of low-dimensional marginals. Differential privacy (DP) is guaranteed by introducing random noise to each low-dimensional marginal distribution. Despite its promising performance in practice, the statistical properties of marginal-based methods are rarely studied in the literature. In this paper, we study DP data synthesis algorithms based on Bayesian networks (BN) from a statistical perspective. We establish a rigorous accuracy guarantee for BN-based algorithms, where the errors are measured by the total variation (TV) distance or the $L^2$ distance. Related to downstream machine learning tasks, an upper bound for the utility error of the DP synthetic data is also derived. To complete the picture, we establish a lower bound for TV accuracy that holds for every $\epsilon$-DP synthetic data generator.
翻訳日:2023-01-26 11:59:18 公開日:2023-01-25