このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20220119となっている論文です。

PDF登録状況(公開日: 20220119)

TitleAuthorsAbstract論文公表日・翻訳日
# 完全X線ビームスプリッタとその自由電子レーザーを利用した時間領域干渉法および量子光学への応用

A perfect X-ray beam splitter and its applications to time-domain interferometry and quantum optics exploiting free-electron lasers ( http://arxiv.org/abs/2010.00230v2 )

ライセンス: Link先を確認
S. Reiche, G. Knopp, B. Pedrini, E. Prat, G. Aeppli and S. Gerber(参考訳) X線自由電子レーザー(FEL)は超明るいX線パルスを放出するが、時間領域干渉と量子状態の制御に必要な位相コヒーレントパルスのシーケンスは提供しない。 このような配列を生成するための従来の分割・遅延方式では、最も小さな経路長の違いが位相ジッタをもたらすアングストローム波長ビームを分割する際の極端な安定性要件に起因する。 加速器内での選択的電子束劣化と横ビーム整形に基づくFELモードと自己シード光子放出方式を組み合わせたFELモードについて述べる。 FELによる生成後に光子パルスを分割する代わりに、光子発生前に加速器内の電子束を分割し、フェムト秒以下の位相同期X線パルスを得る。 時間領域干渉法が可能となり、x線による古典および量子光学実験の合同プログラムが可能になる。 この手法は、フーリエ変換赤外分光のX線アナログから損傷のない測定まで、アト秒または/または高繰り返しの能力を持つ最先端のFELの新たな科学的利点をもたらす。

X-ray free-electron lasers (FEL) deliver ultrabright X-ray pulses, but not the sequences of phase-coherent pulses required for time-domain interferometry and control of quantum states. For conventional split-and-delay schemes to produce such sequences the challenge stems from extreme stability requirements when splitting Angstrom wavelength beams where tiniest path length differences introduce phase jitter. We describe an FEL mode based on selective electron bunch degradation and transverse beam shaping in the accelerator, combined with a self-seeded photon emission scheme. Instead of splitting the photon pulses after their generation by the FEL, we split the electron bunch in the accelerator, prior to photon generation, to obtain phase-locked X-ray pulses with sub-femtosecond duration. Time-domain interferometry becomes possible, enabling the concomitant program of classical and quantum optics experiments with X-rays. The scheme leads to new scientific benefits of cutting-edge FELs with attosecond and/or high-repetition rate capabilities, ranging from the X-ray analog of Fourier transform infrared spectroscopy to damage-free measurements.
翻訳日:2023-04-30 12:06:43 公開日:2022-01-19
# 単一光子によるkochen-specker型量子コンテキスト性の検証

Verification of Kochen-Specker-type quantum contextuality with a single photon ( http://arxiv.org/abs/2010.05266v2 )

ライセンス: Link先を確認
Shihao Ru, Weidong Tang, Yunlong Wang, Feiran Wang, Pei Zhang and Fuli li(参考訳) 文脈性は量子現象の基本的な特性の1つを提供し、多くの量子情報処理でリソースとして使用できる。 本稿では,グリーンベルガー・ホルン・ザイリンガー状態に基づくコッチェン・スペクターの定理の証明の異なる非コンテキストモデルから,等価な非コンテキスト不等式を要約し,導出する。 これらの非コンテキスト的不等式は、非コンテキスト的隠れ変数理論と量子力学の両方に対して保持するいくつかの相関項目に等しい。 したがって、スピン、パス、軌道角運動量によってコードされる単光子ハイパーエンタングルグリーンバーガー・ホーン・サイレンジャー状態を用いて、非常に単純なメルミン様不等式をテストし、コッチェン・スペックの証明のいくつかの状態依存非文脈モデルを検証する。

Contextuality provides one of the fundamental characterizations of quantum phenomena, and can be used as a resource in lots of quantum information processing. In this paper, we summarize and derive some equivalent noncontextual inequalities from different noncontextual models of the proofs for Kochen-Specker theorem based on Greenberger-Horne-Zeilinger states. These noncontextual inequalities are equivalent up to some correlation items which hold both for noncontextual hidden variable theories and quantum mechanics. Therefore, using single-photon hyperentangled Greenberger-Horne-Zeilinger states encoded by spin, path and orbital angular momentum, we experimentally verify several state-dependent noncontextual models of the proofs for the Kochen-Specker theorem by testing an extreme simplest Mermin-like inequality.
翻訳日:2023-04-29 11:14:45 公開日:2022-01-19
# ボース・アインシュタイン凝縮体とのフォン・ノイマン型相互作用からの射影仮説

Projection Hypothesis from the von Neumann-type Interaction with a Bose-Einstein Condensate ( http://arxiv.org/abs/2012.01886v5 )

ライセンス: Link先を確認
Eiji Konishi(参考訳) 可観測物の集合を制限することにより、射影量子測定における射影仮説を導出する。 この投影仮説は、測定対象のメータ変数を持つ量子力学系からなるフォン・ノイマン型相互作用と、量子場理論において時空間的に不均質なボース=アインシュタイン凝縮である量子場拡張対象、すなわち自発的に崩壊した大域的空間変換対称性のゼロエネルギーゴールドストーンモードからなる二成分系と付随する。 導出の重要なステップは、この量子座標の対称性変換を、場の量子論におけるc数空間座標の逆変換に戻すことと、超選択規則によるゴールドストーンモード(s)に関する古典的ゆらぎへの量子ゆらぎの減少である。

We derive the projection hypothesis in projective quantum measurement by restricting the set of observables. This projection hypothesis accompanies a bipartite system with the von Neumann-type interaction, which consists of a quantum mechanical system, with a meter variable to be measured, and a quantum field theoretically macroscopic extended object, that is, a spatiotemporally inhomogeneous Bose-Einstein condensate in quantum field theory with the quantum coordinate, that is, the zero-energy Goldstone mode(s) of the spontaneously broken global spatial translational symmetry. The key steps in the derivation are the return of the symmetry translation of this quantum coordinate to the inverse translation of the c-number spatial coordinate in quantum field theory and the reduction of quantum fluctuations to classical fluctuations with respect to the Goldstone mode(s) due to a superselection rule.
翻訳日:2023-04-22 05:25:12 公開日:2022-01-19
# 炭化ケイ素の三角形断面ナノデバイスにおける量子フォトニクス

Quantum photonics in triangular-cross-section nanodevices in silicon carbide ( http://arxiv.org/abs/2012.02350v3 )

ライセンス: Link先を確認
Sridhar Majety, Victoria A. Norman, Liang Li, Miranda Bell, Pranta Saha, Marina Radulaski(参考訳) シリコン炭化物は量子情報処理ハードウェアの実現のための著名な固体プラットフォームとして進化している。 アングルエッチングされたナノデバイスは、色中心が最適に定義されたバルク基板におけるフォトニック統合の解決策として登場している。 差分時間領域と差分固有解法を用いた三角断面導波路とフォトニック結晶空洞をモデル化した。 これらのデバイスのモード内における色中心配置の最適解析を行い、量子通信への応用により、ナノキャビティにおけるパーセルの高機能化を推定する。 オープン量子システムモデリングを用いて,SiCの単一空洞とフォトニック結晶分子に結合した複数の非同一色中心のエミッタ・キャビティ相互作用を探索する。 量子シミュレーションに適用可能なキャビティ量子電磁力学のキャビティ保護領域におけるポーラリトンおよびサブラジアント状態の形成を観察する。

Silicon carbide is evolving as a prominent solid-state platform for the realization of quantum information processing hardware. Angle-etched nanodevices are emerging as a solution to photonic integration in bulk substrates where color centers are best defined. We model triangular cross-section waveguides and photonic crystal cavities using Finite-Difference Time-Domain and Finite-Difference Eigensolver approaches. We analyze optimal color center positioning within the modes of these devices and provide estimates on achievable Purcell enhancement in nanocavities with applications in quantum communications. Using open quantum system modeling, we explore emitter-cavity interactions of multiple non-identical color centers coupled to both a single cavity and a photonic crystal molecule in SiC. We observe polariton and subradiant state formation in the cavity-protected regime of cavity quantum electrodynamics applicable in quantum simulation.
翻訳日:2023-04-22 03:11:54 公開日:2022-01-19
# 有機マイクロキャビティにおける超吸収:量子電池に向けて

Superabsorption in an organic microcavity: towards a quantum battery ( http://arxiv.org/abs/2012.06026v2 )

ライセンス: Link先を確認
J. Q. Quach, K. E. McGhee, L. Ganzer, D. M. Rouse, B. W. Lovett, E. M. Gauger, J. Keeling, G. Cerullo, D. G. Lidzey, T. Virgili(参考訳) 物質が光を放出または吸収する速度は、その環境によって変化することができる。 逆過程、超吸収は超高速過程の探索の難しさから証明が困難であり、少数の原子でしか見られていない。 その中心となる考え方は、吸収の超過度なスケーリング、すなわちより大きなシステムがより速く吸収するという考え方である。 ここでは,分子染料を包含するマイクロキャビティからなる量子電池のパラダイムモデルを実験的に実装する。 超高速光学分光法により、フェムト秒分解能の帯電ダイナミクスを観測し、理論モデルと一致して超拡張帯電速度と貯蔵容量を示すことができる。 エネルギー貯蔵の安定化にはデコヒーレンスが重要な役割を果たしている。 我々の研究は、ナノスケールエネルギー捕獲、貯蔵、輸送技術における光物質結合の集団的効果を利用する新たな機会を開く。

The rate at which matter emits or absorbs light can be modified by its environment, as dramatically exemplified by the widely-studied phenomenon of superradiance. The reverse process, superabsorption, is harder to demonstrate due to the challenges of probing ultrafast processes, and has only been seen for small numbers of atoms. Its central idea - superextensive scaling of absorption meaning larger systems absorb faster - is also the key idea underpinning quantum batteries. Here we implement experimentally a paradigmatic model of a quantum battery, constructed of a microcavity enclosing a molecular dye. Ultrafast optical spectroscopy allows us to observe charging dynamics at femtosecond resolution to demonstrate superextensive charging rates and storage capacity, in agreement with our theoretical modelling. We find that decoherence plays an important role in stabilising energy storage. Our work opens new opportunities for harnessing collective effects in light-matter coupling for nanoscale energy capture, storage, and transport technologies.
翻訳日:2023-04-21 05:25:48 公開日:2022-01-19
# インフレーションにおける非自明音速の複雑さ

Complexity of non-trivial sound speed in inflation ( http://arxiv.org/abs/2102.12014v3 )

ライセンス: Link先を確認
Lei-Hua Liu, Ai-Chen Li(参考訳) 本稿では,非自明な音がインフレ期における宇宙複雑性の進化に与える影響について検討する。 曲率摂動の真空状態は2つのモードを持つ圧縮状態として扱うことができ、最も必須のパラメータであるアングルパラメータ $\phi_k$ とスクイーズパラメータ $r_k$ が特徴である。 schr\ddot{o}dinger$ 方程式により、対応する発展方程式 $\phi_k$ と $r_k$ が得られる。 その後、スカラー曲率摂動において、圧縮真空状態と圧縮状態との間の量子回路の複雑さを非自明な音速で評価する。 この結果から, 初期の複雑性の進化は, 共振音速を$\xi$の値で実装した$c_S=1$と比較し, 迅速な解法を示すことがわかった。 これらの場合、スクランブル時間は、消滅しない$\xi$でタグ付けされることが示される。 さらに, この手法は, 様々な宇宙モデルを見分ける新しい方法である。

In this paper, we study the impact of non-trivial sound on the evolution of cosmological complexity in inflationary period. The vacuum state of curvature perturbation could be treated as squeezed states with two modes, characterized by the two most essential parameters: angle parameter $\phi_k$ and squeezing parameter $r_k$. Through $Schr\ddot{o}dinger$ equation, one can obtain the corresponding evolution equation of $\phi_k$ and $r_k$. Subsequently, the quantum circuit complexity between a squeezed vacuum state and squeezed states are evaluated in scalar curvature perturbation with a type of non-trivial sound speed. Our results reveal that the evolution of complexity at early times shows the rapid solution comparing with $c_S=1$, in which we implement the resonant sound speed with various values of $\xi$. In these cases, it shows that the scrambling time will be lagged with non-vanishing $\xi$. Further, our methodology sheds a new way of distinguishing various cosmological models.
翻訳日:2023-04-10 01:21:11 公開日:2022-01-19
# 量子熱力学における非可換電荷を運ぶハミルトニアンの作り方

How to build Hamiltonians that transport noncommuting charges in quantum thermodynamics ( http://arxiv.org/abs/2103.14041v2 )

ライセンス: Link先を確認
Nicole Yunger Halpern and Shayan Majidy(参考訳) 非可換保存量は最近、量子熱力学のサブフィールドを立ち上げた。 従来の熱力学では、エネルギー、粒子、電荷など、関心のシステムと環境交換量(エネルギー、粒子、電荷など)は世界的に保存され、エルミート作用素によって表される。 これらのオペレータは、数年前まで暗黙的に相互に通勤することになっていた。 オペレーターを通勤に失敗させることは、参照フレーム、エントロピー生成、リソース理論モデルなど、多くの理論的発見を可能にした。 抽象理論から実験現実へとこれらの結果を橋渡しする研究はほとんどない。 本稿では,この橋を体系的に構築するための手法について述べる。我々は,非可換量を局所的に輸送しながらグローバルに保存するハミルトニアンの処方法を提案する。 ハミルトニアンは任意に多数のサブシステムを結合することができ、可積分あるいは非可積分である。 我々のハミルトニアンは超伝導クロイト、超低温原子、捕獲されたイオンによって物理的に実現されるかもしれない。

Noncommuting conserved quantities have recently launched a subfield of quantum thermodynamics. In conventional thermodynamics, a system of interest and an environment exchange quantities -- energy, particles, electric charge, etc. -- that are globally conserved and are represented by Hermitian operators. These operators were implicitly assumed to commute with each other, until a few years ago. Freeing the operators to fail to commute has enabled many theoretical discoveries -- about reference frames, entropy production, resource-theory models, etc. Little work has bridged these results from abstract theory to experimental reality. This paper provides a methodology for building this bridge systematically: We present a prescription for constructing Hamiltonians that conserve noncommuting quantities globally while transporting the quantities locally. The Hamiltonians can couple arbitrarily many subsystems together and can be integrable or nonintegrable. Our Hamiltonians may be realized physically with superconducting qudits, with ultracold atoms, and with trapped ions.
翻訳日:2023-04-06 21:24:23 公開日:2022-01-19
# 量子力学と量子重力における時間の問題--最近の発展と展望-

On the Problem of Time(s) in Quantum Mechanics and Quantum Gravity: recent integrating developments and outlook ( http://arxiv.org/abs/2104.10151v3 )

ライセンス: Link先を確認
M. Bauer and C.A. Aguill\'on(参考訳) 閉系に適用される正準量子化は、静的方程式、量子重力におけるウィーラー・ドウィット方程式、量子力学における時間独立シュル=オディンガー方程式に繋がる。 時間をどのように復元するかは、時間の問題である。 開発を統合することは a) 顕微鏡系の古典的環境との絡み合いは、時間進化の記述、時間依存のシュリンガー方程式(tが時計によって測定される実験室時間)と一致する。 b) 特殊相対性理論の正準量子化は、ディラックハミルトニアンと自己随伴「時間」作用素の両方を生じさせ、相対論的量子力学においてエネルギーと運動量に一致する等価な足場の位置と時間に復元する。 系の質量に付随する固有時間特性 {\tau} と、通常の配置、運動量、エネルギー基底に追加される基底を導入する。 運動量変位の生成とエネルギーの結果として、パウリの時間作用素の存在に対する反対を無効にする。 さらに、QG の条件解釈において、他の可観測変数を条件付ける要求に準拠する。 パウリの反対は、現在のQMとQGのほとんどの発展において明示的または暗黙的に示されるので、その無効化は、この新しい2倍の視点がそのような発展に与える影響を研究するために開かれた。

Canonical quantization applied to closed systems leads to static equations, the Wheeler-deWitt equation in Quantum Gravity and the time independent Schr\"odinger equation in Quantum Mechanics. How to restore time is the Problem of Time(s). Integrating developments are: a) entanglement of a microscopic system with its classical environment accords it a time evolution description, the time dependent Schr\"odinger equation, where t is the laboratory time measured by clocks; b) canonical quantization of Special Relativity yields both the Dirac Hamiltonian and a self adjoint "time" operator, restoring to position and time the equivalent footing accorded to energy and momentum in Relativistic Quantum Mechanics. It introduces an intrinsic time property {\tau} associated with the mass of the system, and a basis additional to the usual configuration, momentum and energy basis. As a generator of momentum displacements and consequently of energy, it invalidates Pauli's objection to the existence of a time operator. It furthermore complies with the requirements to condition the other observables in the conditional interpretation of QG. As Pauli's objection figures explicit or implicitly in most current developments of QM and QG, its invalidation opens to research the effect of this new two times perspective on such developments.
翻訳日:2023-04-03 02:31:50 公開日:2022-01-19
# deep memoryのアップデート

Deep Memory Update ( http://arxiv.org/abs/2105.14092v5 )

ライセンス: Link先を確認
{\L}ukasz Neumann, {\L}ukasz Lepak, Pawe{\l} Wawrzy\'nski(参考訳) リカレントニューラルネットワークは、シーケンシャルデータ処理の重要なツールである。 しかし、彼らは訓練に関する問題で悪名高い。 課題には、連続した状態と安定性とトレーニングの効率性の間の複雑な関係の取得が含まれる。 本稿では,Deep Memory Update (DMU) と呼ばれるリカレントニューラルネットワークを提案する。 これは、ラグ状態とネットワーク入力の深い変換により、前のメモリ状態を更新することに基づいている。 このアーキテクチャは、任意の非線形関数を用いて内部状態の変換を学ぶことができる。 学習速度をモジュールのサイズに関連付けるため、トレーニングは安定して高速である。 DMUは標準コンポーネントをベースとしていますが、実験結果から、Long Short-Term Memory、Gated Recurrent Units、Recurrent Highway Networksといった最先端アーキテクチャと競合し、しばしば性能を向上できることが確認できます。

Recurrent neural networks are important tools for sequential data processing. However, they are notorious for problems regarding their training. Challenges include capturing complex relations between consecutive states and stability and efficiency of training. In this paper, we introduce a recurrent neural architecture called Deep Memory Update (DMU). It is based on updating the previous memory state with a deep transformation of the lagged state and the network input. The architecture is able to learn to transform its internal state using any nonlinear function. Its training is stable and fast due to relating its learning rate to the size of the module. Even though DMU is based on standard components, experimental results presented here confirm that it can compete with and often outperform state-of-the-art architectures such as Long Short-Term Memory, Gated Recurrent Units, and Recurrent Highway Networks.
翻訳日:2023-03-29 04:19:02 公開日:2022-01-19
# 超伝導量子系のためのマイクロ波-赤外ノイズ光子フラックスの工学

Engineering the microwave to infrared noise photon flux for superconducting quantum systems ( http://arxiv.org/abs/2107.09331v4 )

ライセンス: Link先を確認
Sergey Danilin, Jo\~ao Barbosa, Michael Farage, Zimo Zhao, Xiaobang Shang, Jonathan Burnett, Nick Ridler, Chong Li, Martin Weides(参考訳) 電磁フィルタは、ミリケルビン温度における超伝導量子回路のコヒーレント制御、動作、読み出しに不可欠である。 数GHzの遷移周波数に関するスプリアスモードの抑制は、オンチップとパッケージの考慮によってよく理解され、主に達成される。 高周波数のノイズ光子(ペア破壊エネルギーを超える)は、パッケージ化された量子チップに到達する前にデコヒーレンスとスペクトル工学を必要とするためである。 冷蔵庫に通って量子回路に下る外部配線は、これらの光子の直接的な経路を提供する。 本稿では,同軸フィルタ配線によるノイズ光子フラックスの定量的解析と実験データを含む。 室温における同軸ケーブルの減衰と、典型的な配線構成におけるノイズフォトンフラックス推定を提供する。 CR-110およびEsorb-230吸収誘電体充填を用いた小型低温マイクロ波ローパスフィルタを室内実験データと70GHzまでの低温温度で提示した。 フィルタ長により、1〜10GHzの遮断周波数が設定され、ロールオフは物質依存となる。 ペアブレーキング周波数範囲75〜110GHzにおけるEsorb-230材料の相対誘電率と磁気透過率を測定し、この周波数範囲におけるフィルタ特性を算出する。 フィルタによるノイズフォトンフラックスの劇的な抑制は、超伝導量子系実験に有用であることが証明されている。

Electromagnetic filtering is essential for the coherent control, operation and readout of superconducting quantum circuits at milliKelvin temperatures. The suppression of spurious modes around transition frequencies of a few GHz is well understood and mainly achieved by on-chip and package considerations. Noise photons of higher frequencies -- beyond the pair-breaking energies -- cause decoherence and require spectral engineering before reaching the packaged quantum chip. The external wires that pass into the refrigerator and go down to the quantum circuit provide a direct path for these photons. This article contains quantitative analysis and experimental data for the noise photon flux through coaxial, filtered wiring. The attenuation of the coaxial cable at room temperature and the noise photon flux estimates for typical wiring configurations are provided. Compact cryogenic microwave low-pass filters with CR-110 and Esorb-230 absorptive dielectric fillings are presented along with experimental data at room and cryogenic temperatures up to 70 GHz. Filter cut-off frequencies between 1 to 10 GHz are set by the filter length, and the roll-off is material dependent. The relative dielectric permittivity and magnetic permeability for the Esorb-230 material in the pair-breaking frequency range of 75 to 110 GHz are measured, and the filter properties in this frequency range are calculated. The estimated dramatic suppression of the noise photon flux due to the filter proves its usefulness for experiments with superconducting quantum systems.
翻訳日:2023-03-21 12:18:55 公開日:2022-01-19
# ポストセレクションメトロロジーにおける量子アドバンテージ

Bounding Quantum Advantages in Postselected Metrology ( http://arxiv.org/abs/2108.09220v2 )

ライセンス: Link先を確認
Sourav Das, Subhrajit Modak, and Manabendra Nath Bera(参考訳) 弱値増幅やその他のポストセレクションに基づくメロジカルプロトコルは、小さなパラメータを推定しながら精度を高め、ポストセレクションフリープロトコルより優れている。 一般に、これらの拡張は、高い精度のプロトコルがポストセレクションが成功する確率が低いため、ほとんど得られないため、大きく制約されている。 この精度は、準確率分布における絡み合いや負性といった量子資源の助けを借りてさらに改善できる。 しかし、大きな精度でかなりの成功確率を達成する上での量子的な利点は、アクセス可能な量子リソースに関係なく境界づけられる。 ここで、これらの利点の束縛は、ポスト選択されたメトロロジーにおいて導き出され、後者が幾何学的位相の観点で理解できる弱い値最適化とのつながりが確立される。 我々は,境界を飽和させ,異常に大きな精度をもたらすスキームを導入する。 通常、負の準確率は、選択後の精度を標準の最適化値を超えて高めるために不可欠であると考えられている。 対照的に、これらの利点は正の準確率分布で実際に達成できることを証明できる。 また, 3レベル非退化量子システムを用いた最適メトロロジースキームを提案する。

Weak value amplification and other postselection-based metrological protocols can enhance precision while estimating small parameters, outperforming postselection-free protocols. In general, these enhancements are largely constrained because the protocols yielding higher precision are rarely obtained due to a lower probability of successful postselection. It is shown that this precision can further be improved with the help of quantum resources like entanglement and negativity in the quasiprobability distribution. However, these quantum advantages in attaining considerable success probability with large precision are bounded irrespective of any accessible quantum resources. Here we derive a bound of these advantages in postselected metrology, establishing a connection with weak value optimization where the latter can be understood in terms of geometric phase. We introduce a scheme that saturates the bound, yielding anomalously large precision. Usually, negative quasiprobabilities are considered essential in enabling postselection to increase precision beyond standard optimized values. In contrast, we prove that these advantages can indeed be achieved with positive quasiprobability distribution. We also provide an optimal metrological scheme using three level non-degenerate quantum system.
翻訳日:2023-03-17 23:03:12 公開日:2022-01-19
# M\"Bius strip上でのマッチングによる三角形カラーコードのデコーダ

A decoder for the triangular color code by matching on a M\"obius strip ( http://arxiv.org/abs/2108.11395v3 )

ライセンス: Link先を確認
Kaavya Sahay and Benjamin J. Brown(参考訳) カラーコードはフォールトトレラント論理ゲートを実行する能力で注目に値する。 これはカラーコード量子計算のリソースコストを最小化する実用的なデコーダの設計を動機付ける。 ここでは、M\"{o}bius ストリップの位相を持つ非自明な多様体上のシンドローム欠陥と一致する三角形境界を持つ平面カラーコードのデコーダを提案する。 ヘキサゴナル格子幾何のカラーコードで使用するデコーダの基本的な実装は、表面コードの最適性能である$\sim p^{\alpha \sqrt{n}}$と競合する論理的な故障率を示しており、$\alpha \approx 6 / 7 \sqrt{3} \approx 0.5$、エラーレート$p$、$n$である。 さらに、50億以上のエラー構成を徹底的にテストすることで、不等価なリカバリ演算子を手動で比較するデコーダの修正によって、距離が$d \le 13$のコードに対して$\le (d-1) /2$のエラーを修正できることがわかった。 このデコーダは格子境界における地球環境保全法則を保存する安定化器間の関係を利用して導出される。 本手法は,マヨラナ面符号,高次元カラー符号,単発誤り訂正と同様に,ノイズや耐故障誤差の補正を除極する手法である。

The color code is remarkable for its ability to perform fault-tolerant logic gates. This motivates the design of practical decoders that minimise the resource cost of color-code quantum computation. Here we propose a decoder for the planar color code with a triangular boundary where we match syndrome defects on a nontrivial manifold that has the topology of a M\"{o}bius strip. A basic implementation of our decoder used on the color code with hexagonal lattice geometry demonstrates a logical failure rate that is competitive with the optimal performance of the surface code, $\sim p^{\alpha \sqrt{n}}$, with $\alpha \approx 6 / 7 \sqrt{3} \approx 0.5$, error rate $p$, and $n$ the code length. Furthermore, by exhaustively testing over five billion error configurations, we find that a modification of our decoder that manually compares inequivalent recovery operators can correct all errors of weight $\le (d-1) /2$ for codes with distance $d \le 13$. Our decoder is derived using relations among the stabilizers that preserve global conservation laws at the lattice boundary. We present generalisations of our method to depolarising noise and fault-tolerant error correction, as well as to Majorana surface codes, higher-dimensional color codes and single-shot error correction.
翻訳日:2023-03-17 05:13:12 公開日:2022-01-19
# 非エルミート系における終端グリーン函数の厳密な公式

Exact formulas of the end-to-end Green's functions in non-Hermitian systems ( http://arxiv.org/abs/2109.03045v3 )

ライセンス: Link先を確認
Haoshu Li, Shaolong Wan(参考訳) 非エルミート系におけるグリーン関数は、近年、方向増幅が可能であることが判明している。 終端グリーン関数の正確な公式は、非エルミート系とその応用の研究において非常に重要である。 本研究では,widom の公式に基づいて,単純代数方程式の根元に依存する単バンド系のエンド・ツー・エンド・グリーン関数の完全公式を導出する。 これらの正確な公式は、理論結果と実験的に測定された量との直接的かつ正確な比較を可能にする。 さらに,バルク領域において既定の積分公式を検証し,その結果に合致する。 また,バルク領域におけるグリーン関数が既定積分式に近づく速度は,系の大きさが大きくなるにつれて指数的減衰よりも遅くないことがわかった。 信号増幅と非エルミート皮膚効果との対応を確認した。

Green's function in non-Hermitian systems has recently been revealed to be capable of directional amplification in some cases. The exact formulas for end-to-end Green's functions are significantly important for studies of both non-Hermitian systems and their applications. In this work, based on the Widom's formula, we derive exact formulas for the end-to-end Green's functions of single-band systems which depend on the roots of a simple algebraic equation. These exact formulas allow direct and accurate comparisons between theoretical results and experimentally measured quantities. In addition, we verify the prior established integral formula in the bulk region to agree with the result in our framework. We also find that the speed at which the Green's functions in the bulk region approach the prior established integral formula is not slower than an exponential decay as the system size increases. The correspondence between the signal amplification and the non-Hermitian skin effect is confirmed.
翻訳日:2023-03-15 22:53:30 公開日:2022-01-19
# スピン軌道誘起平衡スピン電流

Spin-orbit induced equilibrium spin currents in materials ( http://arxiv.org/abs/2109.03790v2 )

ライセンス: Link先を確認
Andrea Droghetti, Ivan Rungger, Angel Rubio, Ilya V. Tokatly(参考訳) 駆動する外部場がない場合のスピン電流の存在は、位相絶縁体のような量子材料にのみ現れるエキゾチックな現象と見なされる。 代わりに、平衡スピン電流は非無視スピン軌道結合(soc)を持つ材料の比較的一般的な性質であることを示す。 平衡スピン電流はスラブの表面に存在する。 しかし, 本論文では, 物質の結晶方向に沿ったバルクスピン電流である大域平衡スピン電流の存在も提案する。 平衡スピン電流は、ジャイロトロピック点群を持つ非常に広い種類の系の対称性によって許容される。 平衡スピン電流の背後にある物理学は、SOCを持つ電子系と非アベリアゲージ理論を類似させて発見される。 電子スピンは自由度と平衡スピン電流の類似と見なすことができ、SOCによって生成される有効非アベリア磁場に対する応答として現れる反磁性カラー電流と同一視することができる。 平衡スピン電流はスピン輸送や蓄積とは関係しないが、輸送スピン電流を計算する際に慎重に考慮すべきである。 本研究では,いくつかの系,特にラシュバ様表面状態を示す金属表面,窒化物半導体ナノ構造,および原型異方性媒質テルルなどのバルク材料について平衡スピン電流の定量的評価を行った。 また,モデルアプローチの限界を指摘するとともに,信頼できる予測を得るために第一原理計算が必要であることを示す。 したがって、平衡電流、電子構造、結晶点群との関係を理解するための強力なツールであるいわゆるボンド電流を計算する密度汎関数理論を用いる。

The existence of spin-currents in absence of any driving external fields is commonly considered an exotic phenomenon appearing only in quantum materials, such as topological insulators. We demonstrate instead that equilibrium spin currents are a rather general property of materials with non negligible spin-orbit coupling (SOC). Equilibrium spin currents can be present at the surfaces of a slab. Yet, we also propose the existence of global equilibrium spin currents, which are net bulk spin-currents along specific crystallographic directions of materials. Equilibrium spin currents are allowed by symmetry in a very broad class of systems having gyrotropic point groups. The physics behind equilibrium spin currents is uncovered by making an analogy between electronic systems with SOC and non-Abelian gauge theories. The electron spin can be seen as the analogous of the color degree of freedom and equilibrium spin currents can then be identified with diamagnetic color currents appearing as the response to an effective non-Abelian magnetic field generated by SOC. Equilibrium spin currents are not associated with spin transport and accumulation, but they should nonetheless be carefully taken into account when computing transport spin currents. We provide quantitative estimates of equilibrium spin currents for several systems, specifically metallic surfaces presenting Rashba-like surface states, nitride semiconducting nanostructures and bulk materials, such as the prototypical gyrotropic medium tellurium. In doing so, we also point out the limitations of model approaches showing that first-principles calculations are needed to obtain reliable predictions. We therefore use Density Functional Theory computing the so-called bond currents, which represent a powerful tool to understand the relation between equilibrium currents, electronic structure and crystal point group.
翻訳日:2023-03-15 20:23:41 公開日:2022-01-19
# 量子ダイヤモンド顕微鏡と有限要素解析を用いた555タイマー集積回路からの磁場測定とシミュレーション

Measurement and Simulation of the Magnetic Fields from a 555 Timer Integrated Circuit using a Quantum Diamond Microscope and Finite Element Analysis ( http://arxiv.org/abs/2109.11473v2 )

ライセンス: Link先を確認
P. Kehayias, E. V. Levine, L. Basso, J. Henshaw, M. Saleh Ziabari, M. Titze, R. Haltli, J. Okoro, D. R. Tibbetts, D. M. Udoni, E. Bielejec, M. P. Lilly, T.M. Lu, P. D. D. Schwindt, and A. M. Mounce(参考訳) 量子ダイヤモンド顕微鏡(qdm) 磁場イメージングは、集積回路(ic)のための新たな尋問および診断技術である。 現在まで、QDMで測定されたICは、期待する磁場を予測し、QDM性能をベンチマークするには複雑すぎるか、ICコミュニティに関連付けるには単純すぎるかのいずれかであった。 本稿では,QDM計測の実装,ベンチマーク性能,ICデバイス機能評価を最適化するための555タイマICを「モデルシステム」として確立する。 QDMを用いて撮像した磁場画像を検証するため,SPICE電子回路シミュレータと有限要素解析(FEA)を用いて,555ダイの磁場を2つの機能状態にモデル化した。 本稿では,3つのicダイアモンド計測手法の利点と結果を比較し,計測とシミュレーションによる磁気画像の一貫性を確認し,デバイス内の電流経路の磁気シグネチャを同定し,このモデルシステムを用いてic診断ツールとしてqdm磁気イメージングを前進させる方法について検討する。

Quantum Diamond Microscope (QDM) magnetic field imaging is an emerging interrogation and diagnostic technique for integrated circuits (ICs). To date, the ICs measured with a QDM were either too complex for us to predict the expected magnetic fields and benchmark the QDM performance, or were too simple to be relevant to the IC community. In this paper, we establish a 555 timer IC as a "model system" to optimize QDM measurement implementation, benchmark performance, and assess IC device functionality. To validate the magnetic field images taken with a QDM, we used a SPICE electronic circuit simulator and Finite Element Analysis (FEA) to model the magnetic fields from the 555 die for two functional states. We compare the advantages and the results of three IC-diamond measurement methods, confirm that the measured and simulated magnetic images are consistent, identify the magnetic signatures of current paths within the device, and discuss using this model system to advance QDM magnetic imaging as an IC diagnostic tool.
翻訳日:2023-03-13 23:01:57 公開日:2022-01-19
# dmとksea相互作用を有する2スピン1/2ハイゼンベルク鎖における量子ディスコード、局所量子不確かさ、局所量子フィッシャー情報の挙動

Behavior of quantum discord, local quantum uncertainty, and local quantum Fisher information in two-spin-1/2 Heisenberg chain with DM and KSEA interactions ( http://arxiv.org/abs/2109.13791v2 )

ライセンス: Link先を確認
Anna V. Fedorova and M. A. Yurischev(参考訳) Dzyaloshinsky-Moriya (DM) とKaplan-Shekhtman-Entin-Wohlman--Aharony (KSEA) 相互作用を持つ2量子ハイゼンベルクXYZモデルが熱平衡で検討されている。 分析式は、局所量子不確実性(LQU)と局所量子フィッシャー情報(LQFI)のために導出される。 エントロピー量子ディスコードに対する利用可能な表現を用いて、これらの非古典的相関尺度の比較研究を行う。 量子相関の3つの尺度はいずれも、システムパラメータの異なる値に対する温度の質的および定量的な挙動を持ち、パラメータ空間には、温度の増加に伴う相関の局所的な増加に対応する領域があり、量子相関の挙動の突然の変化は、相互作用パラメータの特定の値で起こる。

A two-qubit Heisenberg XYZ model with Dzyaloshinsky-Moriya (DM) and Kaplan-Shekhtman-Entin-Wohlman--Aharony (KSEA) interactions is considered at thermal equilibrium. Analytical formulas are derived for the local quantum uncertainty (LQU) and local quantum Fisher information (LQFI). Using the available expressions for the entropic quantum discord, we perform a comparative study of these measures of nonclassical correlation. Our analysis showed the following: all three measures of quantum correlation have similar qualitative and even quantitative behavior on temperature for different values of system parameters, there are regions in the parameter space which correspondent to a local increase of correlations with increasing temperature, and sudden changes in the behavior of quantum correlations occur at certain values of the interaction parameters.
翻訳日:2023-03-13 07:26:47 公開日:2022-01-19
# 固定経路, 半フレキシブルトランジット, オンデマンドマイクロトランジットシステム設計の比較のためのシミュレーションサンドボックス

A simulation sandbox to compare fixed-route, semi-flexible-transit, and on-demand microtransit system designs ( http://arxiv.org/abs/2109.14138v2 )

ライセンス: Link先を確認
Gyugeun Yoon, Joseph Y. J. Chow, Srushti Rath(参考訳) 新興技術の進歩により、公共交通機関の運行オプションは、従来の固定ルートサービスから半フレキシブルサービス、オンデマンドのマイクロトランジットへと拡大した。 それでも、これらのサービス間の決定に関するガイドラインは、実際の実装ではまだ限られている。 各種公共交通機関の運用状況を評価するために, 実例と実例を比較したオープンソースのシミュレーションサンドボックスを開発した。 半フレキシブル・サービスの場合、モビリティ・アローランス・シャトル・トランジット(MAST)システムは乗客の逸脱を含むように拡張される。 ケーススタディでは、ニューヨークのブルックリンで既存のB63バスルートを評価し、その性能を3つの異なる需要シナリオのために3つのサービスタイプにまたがる他の4つのシステム設計と比較する。

With advances in emerging technologies, options for operating public transit services have broadened from conventional fixed-route service through semi-flexible service to on-demand microtransit. Nevertheless, guidelines for deciding between these services remain limited in the real implementation. An open-source simulation sandbox is developed that can compare state-of-the-practice methods for evaluating between the different types of public transit operations. For the case of the semi-flexible service, the Mobility Allowance Shuttle Transit (MAST) system is extended to include passenger deviations. A case study demonstrates the sandbox to evaluate and existing B63 bus route in Brooklyn, NY and compares its performance with the four other system designs spanning across the three service types for three different demand scenarios.
翻訳日:2023-03-13 05:26:24 公開日:2022-01-19
# 開量子系ダイナミクスと平均力ギブス状態

Open quantum system dynamics and the mean force Gibbs state ( http://arxiv.org/abs/2110.01671v2 )

ライセンス: Link先を確認
A. S. Trushechkin, M. Merkli, J. D. Cresser and J. Anders(参考訳) 系の熱分布(ギブス状態)への動的収束は、すべての物理科学において標準的な仮定である。 ギブス状態は、温度と系のエネルギーだけで決定される。 しかし、ナノスケールや量子システムのようなシステムサイズの縮小では、環境との相互作用は無視できない。 システムの定常状態はまだギブス状態なのか? もしそうでなければ、定常状態はどのように相互作用の詳細に依存するのか? ここでは、これらの質問に答える最近の進歩の概要を紹介する。 まず、いわゆる平均力ギブス状態を示す静的な視点を取ります。 この考え方は、熱力学と非平衡揺らぎ関係の修正法則が、この修正状態に基づいて確立される強結合熱力学の分野で広く採用されている。 第二に、2つのパラダイムにおける時間漸近定常状態を調べるオープン量子系の分野を起源とする動的視点を考察する。 平衡への回帰、すなわち平均力ギブス状態への収束を証明する数学的パラダイムを記述し、いくつかの微視的物理的方法、特にマスター方程式について論じる。 最後に静的と平衡ダイナミクスの間の確立されたリンクを要約し、オープン問題の広範なリストを提供する。 この包括的概要は、量子熱力学、オープン量子システム、メソスコピック物理学、統計物理学、量子光学の幅広い分野の研究者にとって興味を持ち、量子化学や生物学から磁気学やナノスケールの熱管理まで、ナノスケールでエネルギーが交換されるたびに応用が見つかる。

The dynamical convergence of a system to the thermal distribution, or Gibbs state, is a standard assumption across all of the physical sciences. The Gibbs state is determined just by temperature and the system's energies alone. But at decreasing system sizes, i.e. for nanoscale and quantum systems, the interaction with their environments is not negligible. The question then arises: Is the system's steady state still the Gibbs state? And if not, how may the steady state depend on the interaction details? Here we provide an overview of recent progress on answering these questions. We expand on the state-of-the-art along two general avenues: First we take the static point-of-view which postulates the so-called mean force Gibbs state. This view is commonly adopted in the field of strong coupling thermodynamics, where modified laws of thermodynamics and non-equilibrium fluctuation relations are established on the basis of this modified state. Second, we take the dynamical point-of-view, originating from the field of open quantum systems, which examines the time-asymptotic steady state within two paradigms. We describe the mathematical paradigm which proves return to equilibrium, i.e. convergence to the mean force Gibbs state, and then discuss a number of microscopic physical methods, particularly master equations. We conclude with a summary of established links between statics and equilibration dynamics, and provide an extensive list of open problems. This comprehensive overview will be of interest to researchers in the wider fields of quantum thermodynamics, open quantum systems, mesoscopic physics, statistical physics and quantum optics, and will find applications whenever energy is exchanged on the nanoscale, from quantum chemistry and biology, to magnetism and nanoscale heat management.
翻訳日:2023-03-12 13:59:54 公開日:2022-01-19
# 量子コンピューティングにおけるユニタリ変換のコルモゴロフ複雑性

Kolmogorov complexity of unitary transformations in quantum computing ( http://arxiv.org/abs/2110.05937v6 )

ライセンス: Link先を確認
Alexei Kaltchenko(参考訳) 与えられた有限ユニタリ変換の完全な記述と再構築に必要な情報の最小量として(ほぼ)理解することができるユニタリ変換のコルモゴロフ複雑性の概念を導入する。 量子コンピューティングの文脈では、量子回路または量子コンピュータプログラムを定義し記述するための最小限のデータ量に対応する。 ユニタリ変換の我々のコルモゴロフ複雑性は、ユニタリ変換から正の作用素へのマッピングを通して、ベルトーメ、w・ヴァン・ダム、s・ラプランテのコルモゴロフの「キュービット複雑性」に基づいている。 広義にコルモゴロフ複雑性の概念の最適性について議論し、簡単な複雑性境界を得る。

We introduce a notion of Kolmogorov complexity of unitary transformation, which can (roughly) be understood as the least possible amount of information required to fully describe and reconstruct a given finite unitary transformation. In the context of quantum computing, it corresponds to the least possible amount of data to define and describe a quantum circuit or quantum computer program. Our Kolmogorov complexity of unitary transformation is built upon Kolmogorov "qubit complexity" of Berthiaume, W. Van Dam and S. Laplante via mapping from unitary transformations to positive operators, which are subsequently "purified". We discuss the optimality of our notion of Kolmogorov complexity in a broad sense and obtain a simple complexity bound.
翻訳日:2023-03-11 21:19:54 公開日:2022-01-19
# 測定結果の客観性について

On the objectivity of measurement outcomes ( http://arxiv.org/abs/2110.07743v2 )

ライセンス: Link先を確認
Elias Okon(参考訳) ウィグナーの友人配置によって共有される絡み合ったシステムに関する最近の議論は、友人が行った実験が一定の結果をもたらすという仮定が量子予測と矛盾していることを示していると言われている。 この結果から、測定結果が現実的あるいは客観的であると考えることはできないと結論づけた。 ここで、これらの議論は、友人の結果と「ウィグナー」の結果の「混合」相関に関する誤った仮定に依存しており、それが無効な予測に繋がることを示している。 したがって、明確な結果の仮定がトラブルにつながるのではなく、そのような仮定から導かれる結果が、誤った予測と対比される。 次に、Frauchiger と Renner のより有名なno-go定理と Brukner の定理について調べます。 最初の例では、異なる形でキャストされているが、"混合"相関に関する誤った仮定にも依存している、ということを示します。 ブルークナーの定理に関して、これは局所性の非常に難解な仮定、すなわちその力が完全に減少する事実に依存することを指摘した。 全体としては、パイロット波理論における明示的な計算で私の主張を説明します。

Recent arguments, involving entangled systems shared by sets of Wigner's friend arrangements, allegedly show that the assumption that the experiments performed by the friends yield definite outcomes, is incompatible with quantum predictions. From this, it is concluded that the results of measurements cannot be thought of as being actual or objective. Here, I show that these arguments depend upon a mistaken assumption, regarding the ("mixed") correlations between the results of the friends and those of "the Wigners", which leads to invalid predictions. It is not, then, that the assumption of definite outcomes leads to trouble, but that the results derived with such an assumption are contrasted with faulty predictions. Next, I explore the more famous no-go theorems by Frauchiger and Renner and by Brukner, on which these recent arguments are motivated. Regarding the first, I show that, although it is cast in a different form, it also rests on the mistaken assumption regarding "mixed" correlations--rendering it invalid. Regarding Brukner's theorem, I point out that it depends on the quite unattractive assumption of locality, a fact that fully diminishes its force. Throughout, I illustrate my claims with explicit calculations within pilot-wave theory.
翻訳日:2023-03-11 11:59:57 公開日:2022-01-19
# スターク多体局在における動的lビット

Dynamical l-bits in Stark many-body localization ( http://arxiv.org/abs/2110.13135v2 )

ライセンス: Link先を確認
Thivan Gunawardana, Berislav Bu\v{c}a(参考訳) スターク多体ローカライズド(SMBL)システムは、Bloch多体振動、量子多体傷、および大きな磁場傾斜限界における断片化を数値的にも実験的にも示している。 同様に、MBLに類似した局在を示すと考えられている。 時間的に指数的に安定な新しい代数構造の存在を厳密に示すことで、これらの観測をすべて説明し、解析的に証明する。 さらに,多体ブロッホ振動は指数的に長時間,無限温度でも持続することを示した。 我々は、傾斜したxxzスピンチェーンのスタークmblモデルを用いて、この結果の数値的検証を行った。 我々の研究は、最近の2次元傾斜実験で熱化が観測された理由を説明する。 動的l-ビットは安定で局所的で量子コヒーレント励起であるため、スタークMBLシステムにおける量子情報処理の新しい可能性を開く。

Stark many-body localized (SMBL) systems have been shown both numerically and experimentally to have Bloch many-body oscillations, quantum many-body scars, and fragmentation in the large field tilt limit. Likewise, they are believed to show localization similar to disordered MBL. We explain and analytically prove all these observations by rigorously showing the existence of novel algebraic structures that are exponentially stable in time, which we call dynamical l-bits. Moreover, we show that many-body Bloch oscillations persist even at infinite temperature for exponentially long-times. We numerically confirm our results by studying the prototypical Stark MBL model of a tilted XXZ spin chain. Our work explains why thermalization was observed in a recent 2D tilted experiment. As dynamical l-bits are stable, localized and quantum coherent excitations, our work opens new possibilities for quantum information processing in Stark MBL systems.
翻訳日:2023-03-10 07:43:30 公開日:2022-01-19
# 大きな面内磁場中における窒素空孔中心磁力測定

Scanning nitrogen-vacancy center magnetometry in large in-plane magnetic fields ( http://arxiv.org/abs/2201.06450v2 )

ライセンス: Link先を確認
P. Welter, J. Rhensius, A. Morales, M. S. W\"ornle, C.-H. Lambert, G. Puebla-Hellmann, P. Gambardella, and C. L. Degen(参考訳) ダイヤモンド中の窒素空孔(NV)中心を走査する磁力計は、ナノメートル分解能で弱い磁場パターンを研究するための強力な顕微鏡として登場した。 しかし、スピン欠陥の内部結晶異方性のため、外部バイアス場(磁性物質の研究に欠かせない)は特定の空間方向に沿って適用する必要がある。 特に、{100}カットダイヤモンドから作られる最も一般的なダイヤモンドプローブは、表面の正常値から$\theta = 55^\circ$の角度でしか支持できない。 本稿では,スピン異方性軸が走査面(\theta=90^\circ$)にある{110}カットダイヤモンドの走査ダイヤモンドプローブの作製について報告する。 これらのプローブは大きな面内磁場における感度を保ち、40mTまでの印加場におけるCo-NiO薄膜の磁区パターンの走査磁気学を実証し、我々は、NV磁気学を大きな面内磁場を必要とする重要な種類の材料に拡張した。

Scanning magnetometry with nitrogen-vacancy (NV) centers in diamond has emerged as a powerful microscopy for studying weak stray field patterns with nanometer resolution. Due to the internal crystal anisotropy of the spin defect, however, external bias fields -- critical for the study of magnetic materials -- must be applied along specific spatial directions. In particular, the most common diamond probes made from {100}-cut diamond only support fields at an angle of $\theta = 55^\circ$ from the surface normal. In this paper, we report fabrication of scanning diamond probes from {110}-cut diamond where the spin anisotropy axis lies in the scan plane ($\theta=90^\circ$). We show that these probes retain their sensitivity in large in-plane fields and demonstrate scanning magnetometry of the domain pattern of Co-NiO films in applied fields up to 40 mT. Our work extends scanning NV magnetometry to the important class of materials that require large in-plane fields.
翻訳日:2023-02-28 22:45:11 公開日:2022-01-19
# フラットチームによる科学革新

Flat Teams Drive Scientific Innovation ( http://arxiv.org/abs/2201.06726v2 )

ライセンス: Link先を確認
Fengli Xu, Lingfei Wu, James Evans(参考訳) チームは科学的および学術的な研究のあらゆる領域で成長し、チーム構造と彼らが生み出す知識の性格の関係を調査します。 研究成果を基礎としたチームメンバー研究活動の89,575件について,研究の方向性と提示,データ収集,分析,議論による支援などを通じて,各活動が(1)リーダーシップの幅広い役割にどのように組み合わされるかを示す。 科学チームの隠れた階層構造は、リーダーの役割を全チーム規模で担うメンバーのリード(またはl)比によって特徴づけられる。 L比は、特定の論文や科学全体への重要な貢献と相関して検証され、16,397,750の論文でL比を効果的に外挿するために用いられる。 平凡で平等主義的なチームと比較すると、身長の高い階層的なチームは目新しさが少なく、既存のアイデアを多く開発し、その上にいる人たちの生産性を高め、下の人たちの生産性を下げ、短期的な引用を増加させ、長期的な影響を減少させます。 同じ規模のチームの同じ人物が、フラットで高いL比のチームで働いていると、科学が破壊的に革新する可能性がずっと高い。 これらの結果は、フラットチームが持続可能な科学的進歩と科学者の訓練と進歩に果たす重要な役割を示唆している。

With teams growing in all areas of scientific and scholarly research, we explore the relationship between team structure and the character of knowledge they produce. Drawing on 89,575 self-reports of team member research activity underlying scientific publications, we show how individual activities cohere into broad roles of (1) leadership through the direction and presentation of research and (2) support through data collection, analysis and discussion. The hidden hierarchy of a scientific team is characterized by its lead (or L)-ratio of members playing leadership roles to total team size. The L-ratio is validated through correlation with imputed contributions to the specific paper and to science as a whole, which we use to effectively extrapolate the L-ratio for 16,397,750 papers where roles are not explicit. We find that relative to flat, egalitarian teams, tall, hierarchical teams produce less novelty and more often develop existing ideas; increase productivity for those on top and decrease it for those beneath; increase short-term citations but decrease long-term influence. These effects hold within-person -- the same person on the same-sized team produces science much more likely to disruptively innovate if they work on a flat, high L-ratio team. These results suggest the critical role flat teams play for sustainable scientific advance and the training and advancement of scientists.
翻訳日:2023-02-28 20:55:43 公開日:2022-01-19
# ゼロ磁場及び弱磁場におけるダイヤモンドのnv色中心における光検出レベルアンチクロス信号の高周波応答

Radiofrequency response of the optically detected level anti-crossing signal in NV color centers in diamond in zero and weak magnetic fields ( http://arxiv.org/abs/2201.07118v2 )

ライセンス: Link先を確認
Alexander K. Dmitriev and Anton K. Vershovskii(参考訳) ダイヤモンド中のNV色中心のゼロ磁場に現れる準共鳴電波周波数場に対するレベル反クロス信号の応答について検討した。 この反応の複素構造は Autler-Townes 分割によって説明できることが示されている。 レベルアンチクロス信号のパラメータを制御する可能性を検討する。 外部磁場の低周波変調に伴うこの構造に記録された中心共鳴の傾きは、RF磁場がない場合に記録された共鳴の傾きよりも2.3倍高いことが示されている。 ダイヤモンド中のnv色中心のゼロフィールドに生じるレベル反交差効果の性質について考察した。

The response of the level anti-crossing signal to a quasi-resonant radio-frequency field, which appears in a zero magnetic field at NV color centers in diamond, is investigated. It is shown that the complex structure of this response can be explained by the Autler-Townes splitting. The possibility of controlling the parameters of the level anti-crossing signal is considered. It is shown that the slope of the central resonance recorded in this structure upon low-frequency modulation of the external magnetic field can be 2.3 times higher than the slope of the resonance recorded in the absence of an RF field. Conclusions are drawn about the nature of the level anti-crossing effect arising in zero field in NV color centers in diamond.
翻訳日:2023-02-28 20:39:01 公開日:2022-01-19
# ヒューリスティックモデル, 推定, パラメータについて

On Heuristic Models, Assumptions, and Parameters ( http://arxiv.org/abs/2201.07413v1 )

ライセンス: Link先を確認
Samuel Judson and Joan Feigenbaum(参考訳) 計算と社会の相互作用の研究は、問題を特定し解決策を提案するために、研究者が社会的・物理的システムをいかにモデル化するかにしばしば焦点をあてる。 しかし、コンピューティングの社会的影響は、曖昧で不透明な技術的注意事項、選択、および資格者に依存する。 これらのアーティファクトは、一度モデル化されると問題を解決するために適用される特定のアルゴリズム技術と理論の産物であり、それらの性質は、それらを管理するためにしばしばなされる決定についての徹底的な社会技術的精査を妨げうる。 これらの選択と修飾子(ヒューリスティックモデル、仮定、パラメータ)をエンコードするために使われるオブジェクトの3つのクラスについて記述し、微分プライバシーのための最後の選択を例示として論じる。 我々は、これらの物体がコンピュータの包括的解析に有害である6つの理由を提起し、研究者が科学的研究を説明するときに慎重に考慮すべきであると主張する。

Study of the interaction between computation and society often focuses on how researchers model social and physical systems in order to specify problems and propose solutions. However, the social effects of computing can depend just as much on obscure and opaque technical caveats, choices, and qualifiers. These artifacts are products of the particular algorithmic techniques and theory applied to solve a problem once it has been modeled, and their nature can imperil thorough sociotechnical scrutiny of the often discretionary decisions made to manage them. We describe three classes of objects used to encode these choices and qualifiers: heuristic models, assumptions, and parameters, and discuss selection of the last for differential privacy as an illustrative example. We raise six reasons these objects may be hazardous to comprehensive analysis of computing and argue they deserve deliberate consideration as researchers explain scientific work.
翻訳日:2023-02-28 12:32:49 公開日:2022-01-19
# 相互作用ボソンのボース・アインシュタイン凝縮, ラムダ遷移, 超流動性

Bose-Einstein Condensation, the Lambda Transition, and Superfluidity for Interacting Bosons ( http://arxiv.org/abs/2201.07382v1 )

ライセンス: Link先を確認
Phil Attard(参考訳) bose-einstein condensation と $\lambda$-transition は、対ポテンシャルと相互作用するボソンの分子的詳細として記述される。 通常の理想気体処理に欠如している新しい現象が同定される。 レナード・ジョーンズヘリウム4のモンテカルロシミュレーションでは、基底運動量状態のボソンを無視することで、遷移に近づく熱容量が変化する。 純粋な置換ループは、基底運動量状態の占有において連続的な成長をもたらす。 混合基底と励起運動量状態置換ループは凝縮相に不連続な遷移を与える。 $\lambda$-遷移の連続した潜熱は全エネルギーの3\%である。 超流動流の予測臨界速度は、細孔径の3桁以上の測定値の3倍以内である。

Bose-Einstein condensation and the $\lambda$-transition are described in molecular detail for bosons interacting with a pair potential. New phenomena are identified that are absent in the usual ideal gas treatment. Monte Carlo simulations of Lennard-Jones helium-4 neglecting ground momentum state bosons give a diverging heat capacity approaching the transition. Pure permutation loops give continuous growth in the occupancy of the ground momentum state. Mixed ground and excited momentum state permutation loops give a discontinuous transition to the condensed phase. The consequent latent heat for the $\lambda$-transition is 3\% of the total energy. The predicted critical velocity for superfluid flow is within a factor of three of the measured values over three orders of magnitude in pore diameter.
翻訳日:2023-02-28 12:32:32 公開日:2022-01-19
# LU下における3つの量子ビットの分割GHZ SLOCCクラス

Partition GHZ SLOCC class of three qubits into ten families under LU ( http://arxiv.org/abs/2201.07377v1 )

ライセンス: Link先を確認
Dafa Li(参考訳) A. Acin et al., Phys. Lett. 85, 1560 (2000)] では、一般のシュミットによる3つの量子ビットの分解により、3つの量子ビットの純状態がLUの下で5つのタイプに分割された。 根本的な結果はQICに大きな影響を与えた。 本稿では,LBPSの数が異なる2つのタイプに分割された3つの量子ビットの2つのLU等価状態を求める。 これは LBPS の数は LU 不変ではないことを意味する。 したがって、3つのキュービットの純状態を5つのタイプに分割することは不可能である。 J.I. de Vicente et al., Phys. Lett. Lett. 108, 060501 (2012)] では、二部演算量$% E_{1}$を介して、それらの複素共役に等価な純三ビット状態が4つのクラスに分割され、クラス1はW SLOCCクラスに含まれ、クラス2,3とクラス4はGHZ SLOCCクラスに含まれている。 本稿では,3量子ビットのGHZ SLOCCクラスに対するLU不変量,および3量子ビットのGHZ SLOCCクラスの分割状態について述べる。

In [A. Acin et al., Phys. Rev. Lett. 85, 1560 (2000)], via the general Schmidt decomposition of three qubits, pure states of three qubits were partitioned into five types under LU, where the type-number indicates how many of the five Local Bases Product States (LBPS) characterize the states of that type. The fundamental result has had a significant impact on QIC. In this paper, we find two LU equivalent states of three qubits which are partitioned into two types with different numbers of LBPS. It means that the number of LBPS is not LU invariant. Thus, it is impossible to partition pure states of three qubits into the five types. In [J.I. de Vicente et al., Phys. Rev. Lett. 108, 060501 (2012)], via the bipartite operational measure $% E_{1}$, pure three-qubit states being LU equivalent to their complex conjugates were partitioned into four classes, of which Class 1 is contained in the W SLOCC class and Classes 2,3 and 4 are contained in the GHZ SLOCC class. In this paper, we present a LU invariant and an entanglement measures for the GHZ SLOCC class of three qubits, and partition states of the GHZ SLOCC class of three qubits into ten families and each family into two subfamilies under LU.
翻訳日:2023-02-28 12:32:23 公開日:2022-01-19
# RunnerDNA:人間の行動パターンと個人差を特徴づける解釈可能な指標とモデル

RunnerDNA: Interpretable indicators and model to characterize human activity pattern and individual difference ( http://arxiv.org/abs/2201.07370v1 )

ライセンス: Link先を確認
Yao Yao, Zhuolun Wang, Peng Luo, Hanyu Yin, Ziqi Liu, Jiaqi Zhang, Nengjing Guo, Qingfeng Guan(参考訳) センサデータに基づく人間活動分析は、行動センシング、人間と機械の相互作用、医療などにおいて重要な役割を果たす。 現在の研究は、活動パターンレベルでの人間の活動と姿勢の認識、マルチセンサーデータの効果的な融合を無視し、個人レベルでの異なる動きのスタイルを評価することに焦点を当て、同じ動きの個人を識別する課題を導入する。 本研究では,5つの解釈可能な指標,バランス,ストライド,ステアリング,安定性,振幅からなるRunnerDNAの概念を,個人レベルでの人間の活動を記述するために提案した。 歩行,ランニング,自転車などの身体活動に従事するボランティア33名のスマートフォンマルチセンサデータを収集し,そのデータをRunnerDNAの5つの指標に算出した。 インジケータはランダムな森林モデルを構築し、運動活動とユーザのアイデンティティを認識するために使用される。 その結果,提案モデルではアクティビティの同定に精度が高く(精度0.679),実行中のユーザの同一性を予測する上でも有効であることがわかった。 さらに、人間の行動認識モデルの精度は、RunnerDNAと2つの運動特徴指標、速度、加速度を組み合わせることで大幅に向上した。 その結果、RunnerDNAは個人の身体活動を記述する効果的な方法であり、スポーツスタイルの個人差を理解するのに役立ち、男女間のバランスと振幅の顕著な違いが発見された。

Human activity analysis based on sensor data plays a significant role in behavior sensing, human-machine interaction, health care, and so on. The current research focused on recognizing human activity and posture at the activity pattern level, neglecting the effective fusion of multi-sensor data and assessing different movement styles at the individual level, thus introducing the challenge to distinguish individuals in the same movement. In this study, the concept of RunnerDNA, consisting of five interpretable indicators, balance, stride, steering, stability, and amplitude, was proposed to describe human activity at the individual level. We collected smartphone multi-sensor data from 33 volunteers who engaged in physical activities such as walking, running, and bicycling and calculated the data into five indicators of RunnerDNA. The indicators were then used to build random forest models and recognize movement activities and the identity of users. The results show that the proposed model has high accuracy in identifying activities (accuracy of 0.679) and is also effective in predicting the identity of running users. Furthermore, the accuracy of the human activity recognition model has significant improved by combing RunnerDNA and two motion feature indicators, velocity, and acceleration. Results demonstrate that RunnerDNA is an effective way to describe an individual's physical activity and helps us understand individual differences in sports style, and the significant differences in balance and amplitude between men and women were found.
翻訳日:2023-02-28 12:31:45 公開日:2022-01-19
# 変調kerrあるいは高次非線形性によるキャシミール効果

Dynamical Casimir effect via modulated Kerr or higher nonlinearities ( http://arxiv.org/abs/2201.07625v1 )

ライセンス: Link先を確認
A V Dodonov and V V Dodonov(参考訳) 本研究では,ケラあるいは高次非線形性を変調することで動的カシミール効果を実現できる2つの例を示す。 第一の場合、キャビティ場は双極子相互作用を介して任意の数の量子ビットまたは調和振動子に結合される。 第2のケースでは、非線形性の変調は共振器周波数の非共鳴変調を伴う。 本稿では,この現象の解析的説明と数値シミュレーションによる補足を行い,真空から光子を生成可能であることを示す。

We show two examples in which the dynamical Casimir effect can be achieved by modulating the Kerr or higher order nonlinearities. In the first case the cavity field is coupled to an arbitrary number of qubits or an harmonic oscillator via the dipole interaction. In the second case, the modulation of the nonlinearities is accompanied by the off-resonance modulation of the cavity frequency. We present the analytic description of the phenomenon and supplement it with numeric simulations, demonstrating that photons can be created from vacuum and the resulting hyper-Poissonian photon statistics is very different from the squeezed vacuum state.
翻訳日:2023-02-28 12:27:45 公開日:2022-01-19
# FRA-LSTM:フォワードとリバースサブネットワークの融合に基づく容器軌道予測手法

FRA-LSTM: A Vessel Trajectory Prediction Method Based on Fusion of the Forward and Reverse Sub-Network ( http://arxiv.org/abs/2201.07606v1 )

ライセンス: Link先を確認
Jin Chen, Xingchen Li, Ye Xiao, Hao Chen, and Yong Zhao(参考訳) 船舶の能力を改善し、海上交通の安全を確保するため、船舶のスマートナビゲーションとインテリジェント衝突回避システムにおいて、船舶のインテリジェントな軌道予測が重要な役割を果たす。 しかし、現在の研究者は、短期的または長期の船舶軌道予測にのみ焦点を合わせており、軌道予測の精度が不十分であり、総合的歴史軌道データの詳細なマイニングが欠如している。 本稿では,前方サブネットワークと逆サブネットワーク(fra-lstm)の融合に基づく自動識別システム(ais)データ駆動型長期短期記憶(lstm)法を提案する。 本手法におけるフォワードサブネットワークは,LSTMとアテンション機構を組み合わせて,フォワード履歴データの特徴を抽出する。 同時に、逆サブネットワークは、双方向LSTM(BiLSTM)とアテンション機構を組み合わせて、後方履歴データの特徴をマイニングする。 最後に、前方および逆サブネットワークの出力特徴を融合して最終予測軌道を生成する。 提案手法の精度は BiLSTM や Seq2seq と比較して96.8% と 86.5% に向上した。 さらに,BLSTMとSeq2seqを比較し,長期軌跡予測における平均精度は90.1%であった。

In order to improve the vessel's capacity and ensure maritime traffic safety, vessel intelligent trajectory prediction plays an essential role in the vessel's smart navigation and intelligent collision avoidance system. However, current researchers only focus on short-term or long-term vessel trajectory prediction, which leads to insufficient accuracy of trajectory prediction and lack of in-depth mining of comprehensive historical trajectory data. This paper proposes an Automatic Identification System (AIS) data-driven long short-term memory (LSTM) method based on the fusion of the forward sub-network and the reverse sub-network (termed as FRA-LSTM) to predict the vessel trajectory. The forward sub-network in our method combines LSTM and attention mechanism to mine features of forward historical trajectory data. Simultaneously, the reverse sub-network combines bi-directional LSTM (BiLSTM) and attention mechanism to mine features of backward historical trajectory data. Finally, the final predicted trajectory is generated by fusing output features of the forward and reverse sub-network. Based on plenty of experiments, we prove that the accuracy of our proposed method in predicting short-term and mid-term trajectories has increased by 96.8% and 86.5% on average compared with the BiLSTM and Seq2seq. Furthermore, the average accuracy of our method is 90.1% higher than that of compared the BiLSTM and Seq2seq in predicting long-term trajectories.
翻訳日:2023-02-28 12:27:23 公開日:2022-01-19
# 超短パルスレーザーのトンネルイオン化:エッジ効果と治療

Tunneling ionization in ultrashort laser pulses: edge-effect and remedy ( http://arxiv.org/abs/2201.07589v1 )

ライセンス: Link先を確認
M. Klaiber and Q. Z. Lv and K. Z. Hatsagortsyan and C. H. Keitel(参考訳) 超短パルスレーザーにおける原子のトンネルイオン化について考察した。 駆動レーザパルスをスイッチオンして急勾配でオフすると、光電子運動量分布(pmd)はパルスの時間スリットによる光電子回折によりエッジ効果を示す。 端効果の自明な回折パターンは、光電子力学に由来するスペクトルの物理的により興味深い特徴として、深部アナディバティックな状態におけるPMDの高速な振動からなる。 このシナリオを実験的に回避する正確な条件を指摘し,理論上避けられない場合は,pmdのエッジ効果を除去する効率的な方法を提案する。 これにより、複雑な計算要求シナリオのさらなる研究に不可欠であるPMDの非可逆的動的特徴を強調することができる。 本手法は,まず1次元問題に対して実演し,さらに1時3次元問題に適用する。 この手法は強場近似による解析結果と時間依存schr\"odinger方程式の数値解の比較によって検証される。

Tunneling ionization of an atom in ultrashort laser pulses is considered. When the driving laser pulse is switched-on and -off with a steep slope, the photoelectron momentum distribution (PMD) shows an edge-effect because of the photoelectron diffraction by the time-slit of the pulse. The trivial diffraction pattern of the edge effect consisting of fast oscillations in the PMD disguises in the deep nonadiabatic regime the physically more interesting features in the spectrum which originate from the photoelectron dynamics. We point out the precise conditions how to avoid this scenario experimentally and if unavoidable in theory we put forward an efficient method to remove the edge-effect in the PMD. This allows to highlight the nonadiabatic dynamical features of the PMD, which is indispensable for their further investigation in complex computationally demanding scenarios. The method is firstly demonstrated on a one-dimensional problem, and further applied in three-dimensions for the attoclock. The method is validated by a comparison of analytical results via the strong-field approximation with numerical solutions of the time-dependent Schr\"odinger equation.
翻訳日:2023-02-28 12:26:58 公開日:2022-01-19
# 衝突を伴うウィグナー分布関数は完全肯定性とエネルギー保存を満たすか?

Can Wigner distribution functions with collisions satisfy complete positivity and energy conservation? ( http://arxiv.org/abs/2201.07574v1 )

ライセンス: Link先を確認
Matteo Villani, Xavier Oriols(参考訳) 多体量子シミュレーションの計算負荷を避けるために、電子とフォノン(フォノン)との相互作用は、光子(フォノン)の自由度の明示的なシミュレーションを無視し、電子力学への影響をモデル化することによって説明される。 (還元された)密度行列またはそのウィグナー・ワイル変換から発展した量子モデルに対して、衝突のモデル化は完全な肯定性に反する可能性がある(典型的な確率論的解釈を除く)。 本稿では,このような量子輸送モデルが電子-フォノン相互作用のエネルギー保存に強く違反する可能性があることを示す。 衝突モデルと光子と相互作用する電子の正確な結果を比較すると、(還元された)密度行列やウィグナー形式内で発達した衝突モデルが同時に完全正の正とエネルギー保存を満足するのを防ぐ基本的な制限は存在しないと結論付ける。 しかし、実用レベルでは、そのような十分な衝突モデルの開発は非常に複雑に思える。 それぞれの電子に記述された顕微鏡状態の明確な知識を持つ衝突モデルは、それぞれの電子の衝突を、両方の条件を満たす制御された方法でモデル化できるため、推奨される。

To avoid the computational burden of many-body quantum simulation, the interaction of an electron with a photon (phonon) is typically accounted for by disregarding the explicit simulation of the photon (phonon) degree of freedom and just modelling its effect on the electron dynamics. For quantum models developed from the (reduced) density matrix or its Wigner-Weyl transformation, the modelling of collisions may violate complete positivity (precluding the typical probabilistic interpretation). In this paper, we show that such quantum transport models can also strongly violate the energy conservation in the electron-photon (electron-phonon) interactions. After comparing collisions models to exact results for an electron interacting with a photon, we conclude that there is no fundamental restriction that prevents a collision model developed within the (reduced) density matrix or Wigner formalisms to satisfy simultaneously complete positivity and energy conservation. However, at the practical level, the development of such satisfactory collision model seems very complicated. Collision models with an explicit knowledge of the microscopic state ascribed to each electron seems recommendable, since they allow to model collisions of each electron individually in a controlled way satisfying both conditions.
翻訳日:2023-02-28 12:26:42 公開日:2022-01-19
# 振動摂動に対してロバストな高速イオン遮断

Fast ion shuttling which is robust versus oscillatory perturbations ( http://arxiv.org/abs/2201.07555v1 )

ライセンス: Link先を確認
Hilario Espin\'os, Javier Echanobe, Xiao-Jing Lu and Juan Gonzalo Muga(参考訳) 近距離から断熱までの手法で設計されたシャットリングプロトコルは摂動と不完全な実装に苦しむことがある。 本研究では,高調波トラップ内の単一イオンの運動励起と,パラメータの周囲の「系統的」振動摂動について検討した。 これらの初等摂動は重ね合わせによって他の何れも形成することができる。 ロバストなシャットリング戦略を提案し、比較し、最適化を行う。

Shuttling protocols designed by shortcut-to-adiabaticity techniques may suffer from perturbations and imperfect implementations. We study the motional excitation of a single ion shuttled in harmonic traps with time-dependent, "systematic" oscillatory perturbations around the nominal parameters. These elementary perturbations could form any other by superposition. Robust shuttling strategies are proposed and compared, and optimizations are performed.
翻訳日:2023-02-28 12:26:20 公開日:2022-01-19
# てんかん患者の小さなコホート、突然の死亡前にFacebook上での活動が増加

Small Cohort of Epilepsy Patients Showed Increased Activity on Facebook before Sudden Unexpected Death ( http://arxiv.org/abs/2201.07552v1 )

ライセンス: Link先を確認
Ian B. Wood and Rion Brattig Correia and Wendy R. Miller and Luis M. Rocha(参考訳) てんかんにおける突然の予期せぬ死(sudep)は、てんかん患者にとって主要な死因である。 患者や家族への遺族への遺族に対するリスクは絶え間なくあるものの、SUDEPの生理的メカニズムはいまだに不明である。 本稿では、テキストと感情分析を用いて、オンラインデジタル行動データからSUDEPの仮定的予測信号を特定する可能性を探る。 具体的には、SUDEPにより死亡した6人のてんかん患者のFacebookタイムラインを分析し、生き残った家族に寄付した。 テキストや感情分析ツールで検出可能な行動変化の予備的証拠を見いだす。 すなわち、SUDEPイベントに先立つ数ヶ月の間に、ソーシャルメディアのタイムラインが示す。 i) 冗長性の増加 二 機能語の使用量の増加、及び 三 異なる感情分析ツールによって測定された感情変化 これらの結果から,ソーシャルメディアの関与とその感情は,てんかん患者のsudepに対する早期警戒信号として機能する可能性が示唆された。 本研究で分析された患者タイムラインのサンプルは一般化を阻害するが,本研究の予備研究は,sudepとてんかんのより大きな研究において,ソーシャルメディアデータの補足データとしての可能性を示すものである。

Sudden Unexpected Death in Epilepsy (SUDEP) remains a leading cause of death in people with epilepsy. Despite the constant risk for patients and bereavement to family members, to date the physiological mechanisms of SUDEP remain unknown. Here we explore the potential to identify putative predictive signals of SUDEP from online digital behavioral data using text and sentiment analysis. Specifically, we analyze Facebook timelines of six epilepsy patients deceased due to SUDEP, donated by surviving family members. We find preliminary evidence for behavioral changes detectable by text and sentiment analysis tools. Namely, in the months preceding their SUDEP event patient social media timelines show: i) increase in verbosity; ii) increased use of functional words; and iii) sentiment shifts as measured by different sentiment analysis tools. Combined, these results suggest that social media engagement, as well as its sentiment, may serve as possible early-warning signals for SUDEP in people with epilepsy. While the small sample of patient timelines analyzed in this study prevents generalization, our preliminary investigation demonstrates the potential of social media data as complementary data in larger studies of SUDEP and epilepsy.
翻訳日:2023-02-28 12:26:00 公開日:2022-01-19
# 代替入力を用いたクラスター状態量子回路の効率的古典シミュレーション

Efficient classical simulation of cluster state quantum circuits with alternative inputs ( http://arxiv.org/abs/2201.07655v1 )

ライセンス: Link先を確認
Sahar Atallah, Michael Garn, Sania Jevtic, Yukuan Tao, Shashank Virmani(参考訳) 本稿では,クラスター状態量子計算に関連する純粋に絡み合ったシステムの新しい例を示し,古典的シミュレーションを効率的に行う。 クラスタ状態の量子計算入力キュービットはブロッホ球の「赤道」で初期化され、$CZ$ゲートが適用され、最終的に$Z$測定または$\cos(\theta)X + \sin(\theta)Y$演算子を用いて適応的に測定される。 初期化ステップが修正されたときに何が起こるかを考えると、有限次$D$の格子に対して定数$\lambda \approx 2.06$が存在し、もし量子ビットが計算ベースで対角的な状態のトレース距離において$\lambda^{-D}$内にある状態に準備されているなら、所望の総変分距離における出力分布からのサンプリングを古典的に効率的にシミュレートできる。 例えば、$D=4$の正方格子では、$\lambda^{-D} \approx 0.056$である。 古典的効率のよい領域のサイズを増加させる,粗粒度バージョンの引数を開発した。 量子ビットの平方格子の場合、古典的にシミュラタブルな領域のサイズは少なくとも$\approx 0.070$に増加し、実際は$\approx 0.1$に増加する。 結果は、相互作用が計算ベースで対角的であり、測定が計算ベースで、あるいはそれに対して偏りのないクーディシステムに一般化される。 短いバージョンだけを欲しがる読者は、図1から図3までの直感を多く得ることができる。

We provide new examples of pure entangled systems related to cluster state quantum computation that can be efficiently simulated classically. In cluster state quantum computation input qubits are initialised in the `equator' of the Bloch sphere, $CZ$ gates are applied, and finally the qubits are measured adaptively using $Z$ measurements or measurements of $\cos(\theta)X + \sin(\theta)Y$ operators. We consider what happens when the initialisation step is modified, and show that for lattices of finite degree $D$, there is a constant $\lambda \approx 2.06$ such that if the qubits are prepared in a state that is within $\lambda^{-D}$ in trace distance of a state that is diagonal in the computational basis, then the system can be efficiently simulated classically in the sense of sampling from the output distribution within a desired total variation distance. In the square lattice with $D=4$ for instance, $\lambda^{-D} \approx 0.056$. We develop a coarse grained version of the argument which increases the size of the classically efficient region. In the case of the square lattice of qubits, the size of the classically simulatable region increases in size to at least around $\approx 0.070$, and in fact probably increases to around $\approx 0.1$. The results generalise to qudit systems where the interaction is diagonal in the computational basis and the measurements are either in the computational basis or unbiased to it. Potential readers who only want the short version can get much of the intuition from figures 1 to 3.
翻訳日:2023-02-28 12:16:31 公開日:2022-01-19
# szを用いたnmr量子プロセッサ上でのオープン量子ダイナミクスのシミュレーション -Nagy Dilationアルゴリズム

Simulating open quantum dynamics on an NMR quantum processor using the Sz.-Nagy dilation algorithm ( http://arxiv.org/abs/2201.07687v1 )

ライセンス: Link先を確認
Akshay Gaikwad and Arvind and Kavita Dorai(参考訳) 我々はszを実験的に実装する。 -核磁気共鳴(NMR)量子プロセッサ上でのオープン量子力学をシミュレートするエネルギー拡張アルゴリズム。 szだ -Nagyアルゴリズムは1つのアシラ量子ビットのみを用いて任意の次元開量子系の力学シミュレーションを可能にする。 2つの核スピン-1/2粒子のアンサンブルに作用する磁場勾配パルス(MFGP)と2つの量子ビットに独立に作用する位相減衰チャネル(位相減衰チャネル)の作用を実験的にシミュレーションした。 実験によりシミュレーションした量子プロセスの品質を評価するために,実験データから量子プロセスを再構成し,シミュレーション対象の量子プロセスと比較するために,凸最適化に基づく全量子プロセストモグラフィーを行う。

We experimentally implement the Sz.-Nagy dilation algorithm to simulate open quantum dynamics on an nuclear magnetic resonance (NMR) quantum processor. The Sz.-Nagy algorithm enables the simulation of the dynamics of arbitrary-dimensional open quantum systems, using only a single ancilla qubit. We experimentally simulate the action of two non-unitary processes, namely, a phase damping channel acting independently on two qubits and a magnetic field gradient pulse (MFGP) acting on an ensemble of two coupled nuclear spin-1/2 particles. To evaluate the quality of the experimentally simulated quantum process, we perform convex optimization-based full quantum process tomography to reconstruct the quantum process from the experimental data and compare it with the target quantum process to be simulated.
翻訳日:2023-02-28 12:10:23 公開日:2022-01-19
# 強結合状態におけるマルコフ系から非マルコフ系への動的交叉

Dynamical Crossover from Markovian to Non-Markovian dynamics in the strong coupling regime ( http://arxiv.org/abs/2201.07680v1 )

ライセンス: Link先を確認
Md. Manirul Ali and Chandrashekar Radhakrishnan(参考訳) ガウス状態の量子コヒーレンスの過渡ダイナミクスについて検討した。 状態はファノアンダーソン型ハミルトニアンによって記述できる外部環境と結合される。 量子ランジュバン方程式を解こうとすると、二次作用素の第一モーメントと第二モーメントの時間を計算するのに使われるグリーン関数が得られる。 二次作用素モーメントから、システムのコヒーレンスを測定するために用いられる共分散行列を構成する。 コヒーレンス測定はコヒーレンス測定の相対エントロピーを用いて測定される。 viz,ohmic,sub-ohmic,super-ohmicの3種類のスペクトル密度について検討した。 本研究では,コヒーレント状態,圧縮状態,変位状態のダイナミクスについて検討した。 これらの全ての状態において、システムと環境との結合が弱ければ、コヒーレンスが単調に減少し、最終的には長い時間で消滅する。 したがって、全ての状態は弱結合極限においてマルコフ進化を示す。 強結合極限では、初期周期のダイナミクスはマルコフ的であり、ある期間の後、システムの環境的反作用を観測する非マルコフ的になる。 したがって、強い結合極限において、マルコフの性質から非マルコフ挙動への動的交叉を観察する。 この交叉は、いくつかの環境条件と量子状態のパラメータに対して非常に急激である。 量子マスター方程式を用いて、散逸パラメータとゆらぎパラメータのダイナミクスからのクロスオーバーを検証し、コヒーレンスダイナミクスから得られたものを検証した。

The transient dynamics of quantum coherence of Gaussian states are investigated. The state is coupled to an external environment which can be described by a Fano-Anderson type Hamiltonian. Solving the quantum Langevin equation, we obtain the Greens functions which are used to compute the time evolved first and second moments of the quadrature operators. From the quadrature operator moments, we construct the covariance matrix which is used to measure the coherence in the system. The coherence is measured using the relative entropy of coherence measure. We consider three different classes of spectral densities in our analysis viz, the Ohmic, the sub-Ohmic, and the super-Ohmic densities. In our work, we study the dynamics of the coherent state, squeezed state, and displaced squeezed state. For all these states we observe that when the coupling with the system and the environment is weak, the coherence monotonically decreases and eventually vanishes in a long time. Thus all the states exhibit Markovian evolution in the weak coupling limit. In the strong coupling limit, the dynamics for the initial period is Markovian and after a certain period, it becomes non-Markovian where we observe an environmental backaction on the system. Thus in the strong coupling limit, we observe a dynamical crossover from Markovian nature to non-Markovian behavior. This crossover is very abrupt under some environmental conditions and for some parameters of the quantum state. Using a quantum master equation approach we verify the crossover from the dynamics of the dissipation and fluctuation parameters and the results endorse those obtained from coherence dynamics.
翻訳日:2023-02-28 12:10:09 公開日:2022-01-19
# カラーコードによる低オーバーヘッド量子コンピューティング

Low-overhead quantum computing with the color code ( http://arxiv.org/abs/2201.07806v1 )

ライセンス: Link先を確認
Felix Thomsen, Markus S. Kesselring, Stephen D. Bartlett and Benjamin J. Brown(参考訳) 大量の物理量子ビットは、ノイズの存在下で論理ゲートが実装されているため、量子データを保護するために繰り返しエラーをチェックする必要がある。 カラーコードに基づくアプローチは,2次元レイアウトとの互換性を維持しながら,従来の手法に比べて資源オーバーヘッドを大幅に削減できることを示す。 本研究では,カラーコードのリッチな構造を利用して,空間コストを低く抑えつつ任意の対の可換論理ポーリ計測を並列に行う格子手術法を提案する。 同じコード距離の表層コードに基づく格子手術法と比較すると,我々のアプローチは,時空オーバーヘッドが約3\times$向上する。 現在のデコーダを使用して、カラーコードのエラーしきい値が低い場合であっても、オーバーヘッドは、物理的エラー率10^{-3}$で10\%$、そして10^{-4}$で50\%$になる。

Fault-tolerant quantum computation demands significant resources: large numbers of physical qubits must be checked for errors repeatedly to protect quantum data as logic gates are implemented in the presence of noise. We demonstrate that an approach based on the color code can lead to considerable reductions in the resource overheads compared with conventional methods, while remaining compatible with a two-dimensional layout. We propose a lattice surgery scheme that exploits the color code's rich structure to perform arbitrary pairs of commuting logical Pauli measurements in parallel while keeping the space cost low. Compared to lattice surgery schemes based on the surface code with the same code distance, our approach yields about a $3\times$ improvement in the space-time overhead. Even when taking into account the color code's lower error threshold using current decoders, the overhead is reduced by $10\%$ at a physical error rate of $10^{-3}$ and by $50\%$ at $10^{-4}$.
翻訳日:2023-02-28 10:14:01 公開日:2022-01-19
# クリフォード変形表面符号

Clifford-deformed Surface Codes ( http://arxiv.org/abs/2201.07802v1 )

ライセンス: Link先を確認
Arpit Dua, Aleksander Kubica, Liang Jiang, Steven T. Flammia, Michael J. Gullans(参考訳) 北エフの表面符号の様々な実現は、偏りのあるパウリ雑音に対して驚くほどよく機能する。 これらのポテンシャルゲインを応用して,単一ビットクリフォード演算子を用いた表面符号から得られるクリフォード変形曲面符号(CDSC)の性能について検討した。 まず,3-\times 3$ square 格子上でcdscを解析し,ノイズバイアスによって論理誤差率が桁違いに変化することを確認した。 観測された振る舞いを説明するために,非バイアス雑音の標準距離を下げる実効距離$d'$を導入する。 熱力学的限界におけるCDSC性能を調べるため,ランダムCDSCに着目した。 量子符号の統計力学的マッピングを用いて、無限バイアスで50\%の閾値を持つランダムCDSCを記述した位相図を明らかにする。 高閾値領域では、有限バイアスの典型的コード実現が、最もよく知られた翻訳不変符号のしきい値およびサブスレッショルド論理誤差率より優れていることを示す。

Various realizations of Kitaev's surface code perform surprisingly well for biased Pauli noise. Attracted by these potential gains, we study the performance of Clifford-deformed surface codes (CDSCs) obtained from the surface code by the application of single-qubit Clifford operators. We first analyze CDSCs on the $3\times 3$ square lattice and find that depending on the noise bias, their logical error rates can differ by orders of magnitude. To explain the observed behavior, we introduce the effective distance $d'$, which reduces to the standard distance for unbiased noise. To study CDSC performance in the thermodynamic limit, we focus on random CDSCs. Using the statistical mechanical mapping for quantum codes, we uncover a phase diagram that describes random CDSCs with $50\%$ threshold at infinite bias. In the high-threshold region, we further demonstrate that typical code realizations at finite bias outperform the thresholds and subthreshold logical error rates of the best known translationally invariant codes.
翻訳日:2023-02-28 10:13:43 公開日:2022-01-19
# 絡み合う表面の創発的秩序による混合状態における長距離絡み合いの特性

Characterizing Long-Range Entanglement in a Mixed State Through an Emergent Order on the Entangling Surface ( http://arxiv.org/abs/2201.07792v1 )

ライセンス: Link先を確認
Tsung-Cheng Lu and Sagar Vijay(参考訳) 非零温度における物質の位相秩序相は、絡み合いネガティビティとして知られる混合状態絡み合い測度によって検出される長距離絡み合いの普遍的なパターンを示すと推測される。 特定の位相次数の絡み合いネガティリティは、絡み合い二分割上に局在する創発的対称性保護位相(spt)順序の性質を通して理解できることを示す。 この接続は、有限温度の位相秩序を診断する絡み合いネガティクスに対する(i$)普遍的な貢献、および(ii$)ある相転移における絡み合いネガティクスの挙動を理解し、熱的揺らぎが最終的に2部面の長距離の絡み合いを破壊する。 この対応の中で、有限温度トポロジカル秩序における絡み合いの普遍パターンは、対称性を破る場に対する創発的 SPT 秩序の安定性に関連している。 例えば、$\mathbb{Z}_{2}${d=4$ 空間次元における位相的順序の絡み合いの負性の記述において、高次対称性によって保護されるSPT順序は、弱い対称性を破る摂動の存在下でも頑健であり、ある位相的順序に対する非零温度での長距離の絡み合いをもたらす。

Topologically-ordered phases of matter at non-zero temperature are conjectured to exhibit universal patterns of long-range entanglement which may be detected by a mixed-state entanglement measure known as entanglement negativity. We show that the entanglement negativity in certain topological orders can be understood through the properties of an emergent symmetry-protected topological (SPT) order which is localized on the entanglement bipartition. This connection leads to an understanding of ($i$) universal contributions to the entanglement negativity which diagnose finite-temperature topological order, and ($ii$) the behavior of the entanglement negativity across certain phase transitions in which thermal fluctuations eventually destroy long-range entanglement across the bipartition surface. Within this correspondence, the universal patterns of entanglement in the finite-temperature topological order are related to the stability of an emergent SPT order against a symmetry-breaking field. SPT orders protected by higher-form symmetries -- which arise, for example, in the description of the entanglement negativity for $\mathbb{Z}_{2}$ topological order in $d=4$ spatial dimensions -- remain robust even in the presence of a weak symmetry-breaking perturbation, leading to long-range entanglement at non-zero temperature for certain topological orders.
翻訳日:2023-02-28 10:13:27 公開日:2022-01-19
# 古典的および量子的状態における軌道角運動状態の高度検出技術

Enhanced detection techniques of Orbital Angular Momentum states in the classical and quantum regimes ( http://arxiv.org/abs/2201.07785v1 )

ライセンス: Link先を確認
Alessia Suprano, Danilo Zia, Emanuele Polino, Taira Giordani, Luca Innocenti, Mauro Paternostro, Alessandro Ferraro, Nicol\`o Spagnolo and Fabio Sciarrino(参考訳) 光の軌道角運動量(oam)は、イメージング、情報処理、通信のためのいくつかの古典的および量子的な応用の中心にある。 しかし、OAM状態に固有の複雑な構造は、多くの状況においてその検出と分類を非自明にする。 現在の検出方式のほとんどは、ラゲール・ガウスモードを用いて構築されたOAM状態のモデルに基づいている。 しかし、これは一般的に生成された状態の完全な情報を取得するのに十分ではないかもしれない。 本稿では,Laguerre-Gaussの仮定を超越し,高幾何-ガウスモードを,特定のシナリオにおいて,洗練されたモデルの基礎状態として利用し,OAM検出技術の改善を図る。 OAM検出の性能向上は,空間光変調器と単一モードファイバの組み合わせによるホログラム投影や,機械学習手法による分類技術に有効であることを示す。 さらに,ラゲール・ガウス法に関してハイパージオメトリック・ガウシアンモデルを用いた場合,ホログラフィック法において,単モードファイバカップリング効率の3倍向上が得られた。 この改良により、OAM符号化単一光子検出システムの全体的な効率が大幅に向上する。 OAM状態を用いた実験の多くは、ハイパージオメトリ・ガウスモードの生成を効果的に基礎としているので、量子通信、暗号、シミュレーションにおけるOAMベースのプロトコルの実験ツールボックスに関連性がある。

The Orbital Angular Momentum (OAM) of light has been at the center of several classical and quantum applications for imaging, information processing and communication. However, the complex structure inherent in OAM states makes their detection and classification nontrivial in many circumstances. Most of the current detection schemes are based on models of the OAM states built upon the use of Laguerre-Gauss modes. However, this may not in general be sufficient to capture full information on the generated states. In this paper, we go beyond the Laguerre-Gauss assumption, and employ Hypergeometric-Gaussian modes as the basis states of a refined model that can be used -- in certain scenarios -- to better tailor OAM detection techniques. We show that enhanced performances in OAM detection are obtained for holographic projection via spatial light modulators in combination with single-mode fibers, and for classification techniques based on a machine learning approach. Furthermore, a three-fold enhancement in the single-mode fiber coupling efficiency is obtained for the holographic technique, when using the Hypergeometric-Gaussian model with respect to the Laguerre-Gauss one. This improvement provides a significant boost in the overall efficiency of OAM-encoded single-photon detection systems. Given that most of the experimental works using OAM states are effectively based on the generation of Hypergeometric-Gauss modes, our findings thus represent a relevant addition to experimental toolboxes for OAM-based protocols in quantum communication, cryptography and simulation.
翻訳日:2023-02-28 10:12:27 公開日:2022-01-19
# 一時的コンピュータ組織

Temporal Computer Organization ( http://arxiv.org/abs/2201.07742v1 )

ライセンス: Link先を確認
James E. Smith(参考訳) この文書は、一時的なトランジェントと通信し、計算する技術に実装されたコンピューティングシステムに焦点を当てている。 一般に説明されているが、スパイクニューラルネットワークの実装が主な関心事である。 背景として、時間ネットワークを構築するための代数を要約する。 次に、同期セグメントからなるシステム構成について述べる。 セグメントは内部的にセグメント間のフィードバックでフィードフォワードされる。 同期クロックは、各計算ステップまたはサイクルの最後にネットワークセグメントをリセットする。 基本形式では、同期クロックは単にリセット関数を実行するだけである。 ニューラルネットワークの文脈では、これは生物学的確率を満たす。 しかし、機能完全性は制限されている。 この制限は、同期クロックを時間基準値として機能する追加関数入力として使用することで取り除かれる。

This document is focused on computing systems implemented in technologies that communicate and compute with temporal transients. Although described in general terms, implementations of spiking neural networks are of primary interest. As background, an algebra for constructing temporal networks is summarized. Then, a system organization consisting of synchronized segments is described. The segments are feedforward internally with feedback between segments. A synchronizing clock resets network segments at the end of each computation step or cycle. In its basic form, the synchronizing clock merely performs a reset function. In the context of neural networks, this satisfies biological plausibility. However, functional completeness is restricted. This restriction is removed by allowing use of the synchronizing clock as an additional function input that acts as a temporal reference value.
翻訳日:2023-02-28 10:11:25 公開日:2022-01-19
# 「covid-19の事実を知らしめる」―tiktokビデオにおける警告ラベルの使用分析

"Learn the Facts About COVID-19": Analyzing the Use of Warning Labels on TikTok Videos ( http://arxiv.org/abs/2201.07726v1 )

ライセンス: Link先を確認
Chen Ling and Krishna P. Gummadi and Savvas Zannettou(参考訳) 新型コロナウイルス(COVID-19)パンデミックの間、健康関連の誤報や有害なコンテンツをオンラインで共有することは社会に重大な影響を及ぼした。 この悪影響を和らげるために、主流のソーシャルメディアプラットフォームは、潜在的に有害なポストにソフトモデレーション(警告ラベル)を施した。 これらのモデレーション介入が最近人気になったにもかかわらず、特に新型コロナウイルス(COVID-19)のパンデミックのような困難な時期に、これらの警告ラベルが野生でどのように使われているかを明らかにするための実証的な分析は欠如している。 本研究では、TikTok上での警告ラベルの使用状況を分析し、COVID-19ビデオに焦点を当てる。 まず、26のcovid-19関連ハッシュタグのセットを構築し、それからそれらのハッシュタグを含む4kビデオを集めます。 第2に、TikTok上の警告ラベルの使用を理解するために、データセット全体を定量的に分析する。 次に,222種類のcovid-19関連ビデオについて,テーマ分析を用いて詳細な質的研究を行い,内容と警告ラベルの関連について検討した。 われわれの分析によると、TikTokはTikTokビデオの警告ラベルを広く適用している。 さらに心配なのは、実際のコンテンツがcovid-19とは無関係なビデオにcovid-19警告ラベルを追加することだ(covid-19とは無関係な143の英語ビデオのサンプルの23%)。 最後に、222本の動画のサンプルの質的分析から、ビデオの7.7%が誤情報/有害なコンテンツを共有し、警告ラベルを含まないこと、37.3%が良質な情報を共有し、警告ラベルを含まないこと、誤情報/有害なコンテンツを共有している動画の35%が楽しむこと(警告ラベルが必要)が示されている。 本研究は,特にTikTokのようなプラットフォーム上で,より正確で正確なソフトモデレーションシステムの開発の必要性を実証するものである。

During the COVID-19 pandemic, health-related misinformation and harmful content shared online had a significant adverse effect on society. To mitigate this adverse effect, mainstream social media platforms employed soft moderation interventions (i.e., warning labels) on potentially harmful posts. Despite the recent popularity of these moderation interventions, we lack empirical analyses aiming to uncover how these warning labels are used in the wild, particularly during challenging times like the COVID-19 pandemic. In this work, we analyze the use of warning labels on TikTok, focusing on COVID-19 videos. First, we construct a set of 26 COVID-19 related hashtags, then we collect 41K videos that include those hashtags in their description. Second, we perform a quantitative analysis on the entire dataset to understand the use of warning labels on TikTok. Then, we perform an in-depth qualitative study, using thematic analysis, on 222 COVID-19 related videos to assess the content and the connection between the content and the warning labels. Our analysis shows that TikTok broadly applies warning labels on TikTok videos, likely based on hashtags included in the description. More worrying is the addition of COVID-19 warning labels on videos where their actual content is not related to COVID-19 (23% of the cases in a sample of 143 English videos that are not related to COVID-19). Finally, our qualitative analysis on a sample of 222 videos shows that 7.7% of the videos share misinformation/harmful content and do not include warning labels, 37.3% share benign information and include warning labels, and that 35% of the videos that share misinformation/harmful content (and need a warning label) are made for fun. Our study demonstrates the need to develop more accurate and precise soft moderation systems, especially on a platform like TikTok that is extremely popular among people of younger age.
翻訳日:2023-02-28 10:11:17 公開日:2022-01-19
# 新しい移動戦略を用いたバトルロイヤルオプティマイザ

Battle royale optimizer with a new movement strategy ( http://arxiv.org/abs/2203.09889v1 )

ライセンス: Link先を確認
Sara Akan, Taymaz Akan(参考訳) Gamed-basedは、伝統的なゲームジャンルやデジタルゲームジャンルにインスパイアされた、新しい確率的メタヒューリスティックス最適化カテゴリである。 SIベースのアルゴリズムとは異なり、個人は他の個人を倒してゲームに勝つという目標と協力しない。 バトルロワイヤル最適化 (Battle Royale Optimizationr, BRO) はGamedをベースとしたメタヒューリスティック最適化アルゴリズムである。 本稿では,探索と利用のバランスを改善するため,改良型BRO(M-BRO)を提案する。 このために、運動戦略に新たな運動演算子が使用されている。 さらに,提案するap-proachには余分なパラメータは不要である。 さらに、この修正アルゴリズムの複雑さは元のアルゴリズムと同じである。 実験は19のベンチマーク関数(CEC 2010)で実施される。 提案手法は,最近提案されている6つの最適化アルゴリズムとともに,元のbroと比較された。 その結果,移動演算子を付加したBROは,元のBROや他の競合に比べて複雑な数値最適化問題を解くことができることがわかった。

Gamed-based is a new stochastic metaheuristics optimization category that is inspired by traditional or digital game genres. Unlike SI-based algorithms, in-dividuals do not work together with the goal of defeating other individuals and winning the game. Battle royale optimizer (BRO) is a Gamed-based me-taheuristic optimization algorithm that has been recently proposed for the task of continuous problems. This paper proposes a modified BRO (M-BRO) in order to improve balance between exploration and exploitation. For this matter, an additional movement operator has been used in the movement strategy. Moreover, no extra parameters are required for the proposed ap-proach. Furthermore, the complexity of this modified algorithm is the same as the original one. Experiments are performed on a set of 19 (unimodal and multimodal) benchmark functions (CEC 2010). The proposed method has been compared with the original BRO alongside six well-known/recently proposed optimization algorithms. The results show that BRO with additional movement operator performs well to solve complex numerical optimization problems compared to the original BRO and other competitors.
翻訳日:2023-02-28 10:04:47 公開日:2022-01-19
# マイクロモビリティーの共有シミュレーションについて知っておくべきことすべて

All one needs to know about shared micromobility simulation: a complete survey ( http://arxiv.org/abs/2203.03707v1 )

ライセンス: Link先を確認
Yixuan Liu and Yuhan Tang and Yati Liu(参考訳) 共有マイクロモビリティーが私たちの日常生活や環境の一部となるにつれ、ファースト・ラスト・マイル・トリップの低速モードの数が急速に増加すると予想している。 共有された運動能力は何十億もの人間に役立ち、大きな利点をもたらすと期待されている。 この成長により、ドッキングステーションベースの共有自転車、ドッキングレス共有自転車、eスクーターなどの共有マイクロモビリティシミュレーションは、多くの最初のマイル旅行に対処するための有望な解決策と考えられている。 本稿では,まず,共有マイクロモビリティシミュレーションとその検証指標について概観する。 次に,共有マイクロモビリティシミュレーションの研究トピックを分類し,既存の作品を要約し,分類する。 最後に、さらなる研究のために課題と今後の方向性を提供する。

As the shared micromobility becomes a part of our daily life and environment, we expect the number of low-speed modes for first-and-last mile trips to grow rapidly. The shared micomobility is expected to serve billions of humans, bringing us considerable advantages. With this growth, shared micromobility simulation such as docked stations based shared bikes, dockless shared bikes and e-scooters, are regarded as promising solutions to deal with a large number of first-and-last mile trips. In this paper, we first provide a comprehensive overview of shared micromobility simulation and its related validation metrics. Next, we classify the research topics of shared micromobility simulation, summarize, and classify the existing works. Finally, challenges and future directions are provided for further research.
翻訳日:2023-02-28 10:04:32 公開日:2022-01-19
# 一般化不確実性原理に従う量子系の非コヒーレンス限界: tsallis熱統計の新しいパラダイム

Decoherence limit of quantum systems obeying generalized uncertainty principle: new paradigm for Tsallis thermostatistics ( http://arxiv.org/abs/2201.07919v1 )

ライセンス: Link先を確認
Petr Jizba, Gaetano Lambiase, Giuseppe Gaetano Luciano and Luciano Petruzziello(参考訳) 一般化不確実性原理(GUP)は、量子系における最小長スケール(プランクスケールまたは量子記述における特性逆質量スケール)を考慮に入れた現象論的モデルである。 本稿では,gupシステムのデコヒーレンス領域における観測効果について検討する。 まず, gup に関連するコヒーレント状態を導出し, 運動量表現において tsallis の確率振幅と一致し, 非拡張パラメータ $q$ は gup 変形パラメータ $\beta$ で単調に増加することを明らかにした。 第二に、$\beta < 0$ (つまり$q < 1$) の場合、ベクナー・バベンコの不等式のため、GUP はツァリリスエントロピー力に基づく情報理論の不確実性関係と完全に等しいことを示す。 最後に、推定理論から知られている最大エントロピー原理を使い、gup関連量子論の準古典的(デコヒーレンス)極限と tsallis の非拡張的熱統計学の間の関係を明らかにする。 これは量子論からアナログ重力まで幅広い分野においてエキサイティングなパラダイムをもたらすかもしれない。 例えば、等角重力のようないくつかの量子重力理論では、前述の準古典的状態が関連する観測結果をもたらす。 我々はいくつかの意味について議論する。

The generalized uncertainty principle (GUP) is a phenomenological model whose purpose is to account for a minimal length scale (e.g., Planck scale or characteristic inverse-mass scale in effective quantum description) in quantum systems. In this Letter, we study possible observational effects of GUP systems in their decoherence domain. We first derive coherent states associated to GUP and unveil that in the momentum representation they coincide with Tsallis' probability amplitudes, whose non-extensivity parameter $q$ monotonically increases with the GUP deformation parameter $\beta$. Secondly, for $\beta < 0$ (i.e., $q < 1$), we show that, due to Bekner-Babenko inequality, the GUP is fully equivalent to information-theoretic uncertainty relations based on Tsallis-entropy-power. Finally, we invoke the Maximal Entropy principle known from estimation theory to reveal connection between the quasi-classical (decoherence) limit of GUP-related quantum theory and non-extensive thermostatistics of Tsallis. This might provide an exciting paradigm in a range of fields from quantum theory to analog gravity. For instance, in some quantum gravity theories, such as conformal gravity, aforementioned quasi-classical regime has relevant observational consequences. We discuss some of the implications.
翻訳日:2023-02-28 10:03:39 公開日:2022-01-19
# カーボンナノチューブおよびグラフェン被覆ワイヤにおける絡み合った2プラズモン生成

Entangled two-plasmon generation in carbon nanotubes and graphene coated wires ( http://arxiv.org/abs/2201.07914v1 )

ライセンス: Link先を確認
Y. Muniz, P. P. Abrantes, L. Mart\'in Moreno, F. A. Pinheiro, C. Farina, W. J. M. Kort-Kamp(参考訳) 単層カーボンナノチューブ (SWCNT) およびグラフェン被覆ワイヤ (GCWs) 近傍の量子エミッタの2つのプラズモン自然崩壊について検討した。 SWCNTにおいて、可変誘導プラズモンと量子エミッタの強い結合により、2つのプラズモンの絡み合った状態が効率的かつ高められることを示す。 我々は、2つのプラズモン放出速度をフリースペースよりも12桁以上高く予測し、平均寿命は数十ナノ秒である。 それらの低次元を考えると、これらのシステムは拡張グラフェンと比較して、絡み合ったプラズモンの生成と検出をより効率的に行うことができる。 実際、我々はgcwsにおいて波長可変な放射スペクトルを実現し、鋭い共鳴はプラズモンの最小励起周波数で正確に起こる。 我々は,GCWの誘電体コアの材料特性を変化させることで,崩壊速度を自由空間よりも10桁高く保ちながら,放出される絡み合ったプラズモンの支配モードと周波数を調整できることを示した。 低次元炭素系ナノ材料の存在下での2-プラズモン自発的放出過程の特異性を明らかにすることで、オンチップ量子情報技術への応用を含む新しい材料プラットフォームの基礎となった。

We investigate the two-plasmon spontaneous decay of a quantum emitter near single-walled carbon nanotubes (SWCNT) and graphene-coated wires (GCWs). We demonstrate efficient, enhanced generation of two-plasmon entangled states in SWCNTs due to the strong coupling between tunable guided plasmons and the quantum emitter. We predict two-plasmon emission rates more than twelve orders of magnitude higher than in free-space, with average lifetimes of a few dozens of nanoseconds. Given their low dimensionality, these systems could be more efficient for generating and detecting entangled plasmons in comparison to extended graphene. Indeed, we achieve tunable spectrum of emission in GCWs, where sharp resonances occur precisely at the plasmons' minimum excitation frequencies. We show that, by changing the material properties of the GCW's dielectric core, one could tailor the dominant modes and frequencies of the emitted entangled plasmons while keeping the decay rate ten orders of magnitude higher than in free-space. By unveiling the unique properties of two-plasmon spontaneous emission processes in the presence of low dimensional carbon-based nanomaterials, our findings set the basis for a novel material platform with applications to on-chip quantum information technologies.
翻訳日:2023-02-28 10:02:58 公開日:2022-01-19
# ボース粒子の無限系における空間崩壊条件について

About conditions of spatial collapse in an infinite system of Bose particles ( http://arxiv.org/abs/2201.07900v1 )

ライセンス: Link先を確認
B.E. Grinyuk and K.A. Bugaev(参考訳) 変分原理を用いて, 粒子間の相互作用電位の散乱長が負の散乱長で崩壊すべきグロス・ピタエフスキー方程式に従えば, 粒子間の相互作用電位の散乱長の値によって, ボースガス中の空間的崩壊条件が決定されないことを示した。

Using the variational principle, we show that the condition of spatial collapse in a Bose gas is not determined by the value of the scattering length of the interaction potential between particles contrary to the result following from the Gross--Pitaevskii equation, where the collapse should take place at a negative scattering length.
翻訳日:2023-02-28 10:02:36 公開日:2022-01-19
# Taurus: パケット単位のMLのためのデータプレーンアーキテクチャ

Taurus: A Data Plane Architecture for Per-Packet ML ( http://arxiv.org/abs/2002.08987v2 )

ライセンス: Link先を確認
Tushar Swamy, Alexander Rucker, Muhammad Shahbaz, Ishan Gaur, and Kunle Olukotun(参考訳) 新しいアプリケーション -- クラウドコンピューティング、物のインターネット、拡張現実/仮想現実 -- は、応答性、セキュア、スケーラブルなデータセンターネットワークを要求する。 これらのネットワークは現在、データ駆動性能とセキュリティポリシーを実行するミリ秒遅延制御プレーンの下で、単純な、パッケージごとのデータプレーンヒューリスティック(ECMPやスケッチなど)を実装している。 しかし、現代のデータセンターにおけるアプリケーションのサービスレベル目標(SLO)を満たすためには、ネットワークはラインレート、パッケージごとの実行、複雑な意思決定のギャップを埋めなければならない。 本稿では,ラインレート推定のためのデータプレーンであるtaurusの設計と実装について述べる。 Taurusは、スイッチやNICなどのプログラマブルネットワークデバイスに、フレキシブルで並列パターン(MapReduce)の抽象化に基づいたカスタムハードウェアを追加する。 いくつかの実世界のモデルをサポートするTaurusスイッチASICの評価は、Taurusがサーバベースコントロールプレーンよりも桁違いに高速に動作し、面積が3.8%増加し、ラインレートMLモデルのレイテンシが最大221 ns向上したことを示している。 さらに、我々のTaurus FPGAプロトタイプは完全なモデル精度を実現し、最先端の制御面異常検出システムよりも2桁のイベントを検出する。

Emerging applications -- cloud computing, the internet of things, and augmented/virtual reality -- demand responsive, secure, and scalable datacenter networks. These networks currently implement simple, per-packet, data-plane heuristics (e.g., ECMP and sketches) under a slow, millisecond-latency control plane that runs data-driven performance and security policies. However, to meet applications' service-level objectives (SLOs) in a modern data center, networks must bridge the gap between line-rate, per-packet execution and complex decision making. In this work, we present the design and implementation of Taurus, a data plane for line-rate inference. Taurus adds custom hardware based on a flexible, parallel-patterns (MapReduce) abstraction to programmable network devices, such as switches and NICs; this new hardware uses pipelined SIMD parallelism to enable per-packet MapReduce operations (e.g., inference). Our evaluation of a Taurus switch ASIC -- supporting several real-world models -- shows that Taurus operates orders of magnitude faster than a server-based control plane while increasing area by 3.8% and latency for line-rate ML models by up to 221 ns. Furthermore, our Taurus FPGA prototype achieves full model accuracy and detects two orders of magnitude more events than a state-of-the-art control-plane anomaly-detection system.
翻訳日:2023-01-01 20:45:47 公開日:2022-01-19
# ニューラルネットワーク検出器の攻撃

Attacking Neural Text Detectors ( http://arxiv.org/abs/2002.11768v4 )

ライセンス: Link先を確認
Max Wolff, Stuart Wolff(参考訳) 機械学習ベースの言語モデルは最近大きな進歩を遂げており、誤った情報を広める危険をもたらしている。 この危険性に対処するために、これらの言語モデルによって書かれたテキストを検出するいくつかの方法が提案されている。 本稿では,これらの検出器に対するブラックボックス攻撃の2つのクラスについて述べる。1つはランダムに文字をホモグリフに置き換え,もう1つは故意に単語をミスペールする単純なスキームである。 ホモグリフとミススペル攻撃により、ニューラルテキストのリコールは97.44%から0.26%、22.68%へと減少する。 結果は、攻撃が他の神経テキスト検出器に転送可能であることも示している。

Machine learning based language models have recently made significant progress, which introduces a danger to spread misinformation. To combat this potential danger, several methods have been proposed for detecting text written by these language models. This paper presents two classes of black-box attacks on these detectors, one which randomly replaces characters with homoglyphs, and the other a simple scheme to purposefully misspell words. The homoglyph and misspelling attacks decrease a popular neural text detector's recall on neural text from 97.44% to 0.26% and 22.68%, respectively. Results also indicate that the attacks are transferable to other neural text detectors.
翻訳日:2022-12-30 14:21:27 公開日:2022-01-19
# 不安定ltiシステムの規則化可能性とそのオンライン制御への応用

On Regularizability and its Application to Online Control of Unstable LTI Systems ( http://arxiv.org/abs/2006.00125v3 )

ライセンス: Link先を確認
Shahriar Talebi, Siavash Alemzadeh, Niyousha Rahimi and Mehran Mesbahi(参考訳) 直接ポリシー更新を通じて学ぶには、初期ポリシー(gain)が安定化しているか、あるいは持続的にエキサイティングな(pe)入力出力データがあることを事前に知るといった仮定が必要となる。 本稿では,初期安定化制御器やPE入力出力データへの事前アクセスのない(不安定な)部分未知の線形システムのオンライン制御について検討し,その代わりに入力行列の知識をオンライン制御に活用する。 まず,線形系に対する「正規化可能性」の概念を導入し,その漸近的挙動(一般に安定化性/制御性によって特徴づけられる)と対照的に,系が有限時間で制御できる範囲を測る。 次に、入力行列にのみアクセス可能なデータガイドレギュレーション(DGR)合成手順を提案し、データ駆動安定化やシステム識別に使用可能な情報データを生成する。 さらに,ランクワンアップデートによりdgrの計算性能をさらに向上させ,x-29航空機のオンライン制御における有用性を示す。

Learning, say through direct policy updates, often requires assumptions such as knowing a priori that the initial policy (gain) is stabilizing, or persistently exciting (PE) input-output data, is available. In this paper, we examine online regulation of (possibly unstable) partially unknown linear systems with no prior access to an initial stabilizing controller nor PE input-output data; we instead leverage the knowledge of the input matrix for online regulation. First, we introduce and characterize the notion of "regularizability" for linear systems that gauges the extent by which a system can be regulated in finite-time in contrast to its asymptotic behavior (commonly characterized by stabilizability/controllability). Next, having access only to the input matrix, we propose the Data-Guided Regulation (DGR) synthesis procedure that -- as its name suggests -- regulates the underlying state while also generating informative data that can subsequently be used for data-driven stabilization or system identification. We further improve the computational performance of DGR via a rank-one update and demonstrate its utility in online regulation of the X-29 aircraft.
翻訳日:2022-11-27 00:06:32 公開日:2022-01-19
# 意味的画像分割のための側方抑制による拡張畳み込み

Dilated Convolutions with Lateral Inhibitions for Semantic Image Segmentation ( http://arxiv.org/abs/2006.03708v5 )

ライセンス: Link先を確認
Yujiang Wang, Mingzhi Dong, Jie Shen, Yiming Lin, Maja Pantic(参考訳) 拡張畳み込みは深いセマンティックセグメンテーションモデルで広く使われており、フィルターの受容領域を増量したり、空間分解能を犠牲にすることなく拡大することができる。 しかし、拡張畳み込みフィルタは意味的に意味のある輪郭上のピクセルの位置的知識を持っていないため、オブジェクト境界の曖昧な予測につながる可能性がある。 加えて、フィルタの拡張は受容野を拡大することができるが、サンプリングされた画素の総数は変わらず残っており、通常は受容野の総面積のごく一部を占める。 ヒトの視覚系における側方抑制(LI)機構に触発されて、これらの制限を克服するために、側方抑制(LI-Convs)を伴う拡張畳み込みを提案する。 LI機構の導入により、畳み込みフィルタのセマンティックオブジェクト境界に対する感度が向上する。 さらに、LI-Convsは、横に抑制されたゾーンの画素も暗黙的に考慮するので、より密集したスケールで特徴を抽出することもできる。 本稿では,li-conv を deeplabv3+ アーキテクチャに組み込むことにより,横型阻害atrous spatial pyramid pooling (li-aspp),横型抑制mobilenet-v2 (li-mnv2) および横型抑制型resnet (li-resnet) を提案する。 3つのベンチマークデータセット(pascal voc 2012, celebamask-hq, ade20k)における実験結果から, liベースのセグメンテーションモデルは, 提案するli-convの有効性と汎用性を検証することができる。

Dilated convolutions are widely used in deep semantic segmentation models as they can enlarge the filters' receptive field without adding additional weights nor sacrificing spatial resolution. However, as dilated convolutional filters do not possess positional knowledge about the pixels on semantically meaningful contours, they could lead to ambiguous predictions on object boundaries. In addition, although dilating the filter can expand its receptive field, the total number of sampled pixels remains unchanged, which usually comprises a small fraction of the receptive field's total area. Inspired by the Lateral Inhibition (LI) mechanisms in human visual systems, we propose the dilated convolution with lateral inhibitions (LI-Convs) to overcome these limitations. Introducing LI mechanisms improves the convolutional filter's sensitivity to semantic object boundaries. Moreover, since LI-Convs also implicitly take the pixels from the laterally inhibited zones into consideration, they can also extract features at a denser scale. By integrating LI-Convs into the Deeplabv3+ architecture, we propose the Lateral Inhibited Atrous Spatial Pyramid Pooling (LI-ASPP), the Lateral Inhibited MobileNet-V2 (LI-MNV2) and the Lateral Inhibited ResNet (LI-ResNet). Experimental results on three benchmark datasets (PASCAL VOC 2012, CelebAMask-HQ and ADE20K) show that our LI-based segmentation models outperform the baseline on all of them, thus verify the effectiveness and generality of the proposed LI-Convs.
翻訳日:2022-11-25 04:12:05 公開日:2022-01-19
# フリーハンドスケッチによる3次元形状復元

3D Shape Reconstruction from Free-Hand Sketches ( http://arxiv.org/abs/2006.09694v2 )

ライセンス: Link先を確認
Jiayun Wang, Jierui Lin, Qian Yu, Runtao Liu, Yubei Chen, Stella X. Yu(参考訳) スケッチは現実世界のオブジェクトの最も抽象的な2D表現である。 スケッチは通常幾何学的歪みがあり、視覚的な手がかりが欠けているが、人間は3dオブジェクトを無力に想像することができる。 これは,スケッチが3次元形状の再構築に必要な情報を符号化することを示唆している。 CADやエッジマップのような歪みのない線図からの3次元再構成では大きな進歩があったが、フリーハンドスケッチから3次元形状を再構築する試みはほとんど行われていない。 本課題は,インタラクティブデザインやVR/ARゲームといった3Dアプリケーションにおけるスケッチのパワー向上を目的としている。 歪みのない線図を主に研究している従来の作品とは異なり、我々の3D形状復元はフリーハンドスケッチに基づいている。 フリーハンドスケッチ3d再構成の大きな課題は、トレーニングデータ不足とフリーハンドスケッチの多様性、例えば個別化されたスケッチスタイルからのものである。 そこで我々は,データ生成と標準化機構を提案する。 歪みのない線画の代わりに、合成スケッチを入力訓練データとして採用する。 さらに,異なるスケッチ歪みやスタイルを扱うためのスケッチ標準化モジュールを提案する。 広範囲な実験により、我々のモデルの有効性と様々なフリーハンドスケッチに対する強力な一般化性を示す。 私たちのコードはhttps://github.com/samaonline/3D-Shape-Reconstruction-from-Free-Hand-Sketchesで公開されています。

Sketches are the most abstract 2D representations of real-world objects. Although a sketch usually has geometrical distortion and lacks visual cues, humans can effortlessly envision a 3D object from it. This suggests that sketches encode the information necessary for reconstructing 3D shapes. Despite great progress achieved in 3D reconstruction from distortion-free line drawings, such as CAD and edge maps, little effort has been made to reconstruct 3D shapes from free-hand sketches. We study this task and aim to enhance the power of sketches in 3D-related applications such as interactive design and VR/AR games. Unlike previous works, which mostly study distortion-free line drawings, our 3D shape reconstruction is based on free-hand sketches. A major challenge for free-hand sketch 3D reconstruction comes from the insufficient training data and free-hand sketch diversity, e.g. individualized sketching styles. We thus propose data generation and standardization mechanisms. Instead of distortion-free line drawings, synthesized sketches are adopted as input training data. Additionally, we propose a sketch standardization module to handle different sketch distortions and styles. Extensive experiments demonstrate the effectiveness of our model and its strong generalizability to various free-hand sketches. Our code is publicly available at https://github.com/samaonline/3D-Shape-Reconstruction-from-Free-Hand-Sketches.
翻訳日:2022-11-19 21:03:32 公開日:2022-01-19
# パラメータ化MDPと強化学習問題-最大エントロピー原理に基づくフレームワーク

Parameterized MDPs and Reinforcement Learning Problems -- A Maximum Entropy Principle Based Framework ( http://arxiv.org/abs/2006.09646v3 )

ライセンス: Link先を確認
Amber Srivastava and Srinivasa M Salapaka(参考訳) 本稿では,一連の意思決定問題に対処する枠組みを提案する。 本フレームワークは,ノイズの多いデータに対するロバストな制御ポリシの学習,未知の状態と動作パラメータの決定,および問題パラメータに対する感度解析を行う。 無限水平マルコフ決定過程(MDP)と吸収状態(および非吸収状態)をモデル化した逐次決定問題の2つのカテゴリを考察する。 我々の枠組みの根底にある中心的な考え方は、mdpの下での軌道のシャノンエントロピーの観点で探索を定量化し、軌道に沿って期待されるコストの低い値を確保しながら、それを最大化する確率的政策を決定することである。 その結果、学習プロセスの初期段階における探索の質が向上し、q-learning、double q-learning、entropy regularized soft q-learningなどの一般的なアルゴリズムとの比較で示されているようなノイズデータが存在する場合でも、より高速な収束率と堅牢な解が得られる。 このフレームワークは、状態と動作がパラメータ依存であるパラメータ化されたMDPとRLの問題のクラスに拡張され、目的は、対応する最適ポリシーとともに最適なパラメータを決定することである。 ここでは、関連するコスト関数は、複数のローカルなミニマを持つ非凸である可能性がある。 5G小セルネットワーク問題に適用したシミュレーションの結果,通信経路と小セル位置の判定が成功した。 また,問題パラメータに対する感度尺度と雑音環境データに対するロバスト性も求めた。

We present a framework to address a class of sequential decision making problems. Our framework features learning the optimal control policy with robustness to noisy data, determining the unknown state and action parameters, and performing sensitivity analysis with respect to problem parameters. We consider two broad categories of sequential decision making problems modelled as infinite horizon Markov Decision Processes (MDPs) with (and without) an absorbing state. The central idea underlying our framework is to quantify exploration in terms of the Shannon Entropy of the trajectories under the MDP and determine the stochastic policy that maximizes it while guaranteeing a low value of the expected cost along a trajectory. This resulting policy enhances the quality of exploration early on in the learning process, and consequently allows faster convergence rates and robust solutions even in the presence of noisy data as demonstrated in our comparisons to popular algorithms such as Q-learning, Double Q-learning and entropy regularized Soft Q-learning. The framework extends to the class of parameterized MDP and RL problems, where states and actions are parameter dependent, and the objective is to determine the optimal parameters along with the corresponding optimal policy. Here, the associated cost function can possibly be non-convex with multiple poor local minima. Simulation results applied to a 5G small cell network problem demonstrate successful determination of communication routes and the small cell locations. We also obtain sensitivity measures to problem parameters and robustness to noisy environment data.
翻訳日:2022-11-19 19:25:25 公開日:2022-01-19
# リプシッツネスは、政界外の敵対的模倣学習を遅らせるために必要なもの

Lipschitzness Is All You Need To Tame Off-policy Generative Adversarial Imitation Learning ( http://arxiv.org/abs/2006.16785v3 )

ライセンス: Link先を確認
Lionel Blond\'e, Pablo Strasser, Alexandros Kalousis(参考訳) 近年、様々な領域で強化学習が成功しているにもかかわらず、これらのアプローチはほとんどの場合、極度に過度なパラメータに敏感である。 本稿では,非政治的生成的対人模倣学習の事例を考察し,その方法の詳細な検証,質的,定量的な検証を行う。 学習報酬関数を局所的なリプシッツ連続に強制することは,その方法がうまく機能する正弦量子非条件であることを示す。 次に, この条件の効果を考察し, 状態値関数の局所リプシッツ性に関するいくつかの理論的結果を提供する。 我々はこれらの保証を、報酬に対するリプシッツ性制約の一貫した満足度が模倣性能に与える影響を証明した実証的な証拠で補完する。 最後に,いくつかの理論的な保証で示されるように,汎用的なペシミスティック報酬プリコンディショニングアドオンに対処し,多数の報酬シェーピング法を発生させる。 その後、細かなレンズでこれらを議論し、洞察を共有します。 重要なことに、この研究で導かれ、報告された保証は、リプシッツの条件を満たす報酬に対して有効であり、模倣に特有なものではない。 したがって、これらは独立した関心事である。

Despite the recent success of reinforcement learning in various domains, these approaches remain, for the most part, deterringly sensitive to hyper-parameters and are often riddled with essential engineering feats allowing their success. We consider the case of off-policy generative adversarial imitation learning, and perform an in-depth review, qualitative and quantitative, of the method. We show that forcing the learned reward function to be local Lipschitz-continuous is a sine qua non condition for the method to perform well. We then study the effects of this necessary condition and provide several theoretical results involving the local Lipschitzness of the state-value function. We complement these guarantees with empirical evidence attesting to the strong positive effect that the consistent satisfaction of the Lipschitzness constraint on the reward has on imitation performance. Finally, we tackle a generic pessimistic reward preconditioning add-on spawning a large class of reward shaping methods, which makes the base method it is plugged into provably more robust, as shown in several additional theoretical guarantees. We then discuss these through a fine-grained lens and share our insights. Crucially, the guarantees derived and reported in this work are valid for any reward satisfying the Lipschitzness condition, nothing is specific to imitation. As such, these may be of independent interest.
翻訳日:2022-11-16 02:07:04 公開日:2022-01-19
# シュタイン変分ガウス過程

Stein Variational Gaussian Processes ( http://arxiv.org/abs/2009.12141v3 )

ライセンス: Link先を確認
Thomas Pinder, Christopher Nemeth, David Leslie(参考訳) svgd(stein variational gradient descent)を用いてガウス過程(gp)モデルにおける非ガウス的可能性と大規模データボリュームの推論を行う方法を示す。 マルコフ連鎖モンテカルロ (mcmc) はこれらの状況において極めて計算量が多いが、効率的な変分推論 (vi) に必要なパラメトリックな仮定は、そのようなモデルに共通するマルチモーダルな後続分布に遭遇すると不正確な推論となる。 SVGDは、MCMCよりもかなり高速な変分推論に代わる非パラメトリックな代替手段を提供する。 リプシッツ勾配を持つGPモデルの場合、SVGDアルゴリズムはサンプリング分布から真の後部へのKulback-Leibler分散を単調に減少させる。 提案手法は, 回帰, 分類, 多モード後部, 550,134 時空間観測による空気品質の例において, MCMC と VI との比較で有意な性能改善を示した。

We show how to use Stein variational gradient descent (SVGD) to carry out inference in Gaussian process (GP) models with non-Gaussian likelihoods and large data volumes. Markov chain Monte Carlo (MCMC) is extremely computationally intensive for these situations, but the parametric assumptions required for efficient variational inference (VI) result in incorrect inference when they encounter the multi-modal posterior distributions that are common for such models. SVGD provides a non-parametric alternative to variational inference which is substantially faster than MCMC. We prove that for GP models with Lipschitz gradients the SVGD algorithm monotonically decreases the Kullback-Leibler divergence from the sampling distribution to the true posterior. Our method is demonstrated on benchmark problems in both regression and classification, a multimodal posterior, and an air quality example with 550,134 spatiotemporal observations, showing substantial performance improvements over MCMC and VI.
翻訳日:2022-10-14 22:32:40 公開日:2022-01-19
# 幾何学散乱注意ネットワーク

Geometric Scattering Attention Networks ( http://arxiv.org/abs/2010.15010v2 )

ライセンス: Link先を確認
Yimeng Min, Frederik Wenkel, Guy Wolf(参考訳) 幾何散乱は近年,グラフ表現学習において認識され,近年の研究では,グラフ畳み込みネットワーク(GCN)における散乱特徴の統合により,ノード表現学習における特徴の過度な過剰化を軽減できることが示されている。 しかし、散乱はしばしば手作りの設計に依拠し、ウェーブレット変換のカスケードによる周波数帯域の慎重な選択と、低域と帯域通過情報を結合する効果的な重みの共有が必要となる。 本稿では,ネットワーク内の多重散乱とGCNチャネルを組み合わせたノードの重み付けを暗黙的に学習することにより,適応的なタスク駆動ノード表現を生成する新しいアテンションベースアーキテクチャを提案する。 結果として得られた幾何散乱注意ネットワーク (gsan) は, 半教師付きノード分類において従来のネットワークを上回り, ノード毎の注意重みを調べることにより抽出情報のスペクトル分析を可能にしている。

Geometric scattering has recently gained recognition in graph representation learning, and recent work has shown that integrating scattering features in graph convolution networks (GCNs) can alleviate the typical oversmoothing of features in node representation learning. However, scattering often relies on handcrafted design, requiring careful selection of frequency bands via a cascade of wavelet transforms, as well as an effective weight sharing scheme to combine low- and band-pass information. Here, we introduce a new attention-based architecture to produce adaptive task-driven node representations by implicitly learning node-wise weights for combining multiple scattering and GCN channels in the network. We show the resulting geometric scattering attention network (GSAN) outperforms previous networks in semi-supervised node classification, while also enabling a spectral study of extracted information by examining node-wise attention weights.
翻訳日:2022-10-02 04:55:14 公開日:2022-01-19
# KST-GCN:交通予測のための知識駆動型時空間グラフ畳み込みネットワーク

KST-GCN: A Knowledge-Driven Spatial-Temporal Graph Convolutional Network for Traffic Forecasting ( http://arxiv.org/abs/2011.14992v2 )

ライセンス: Link先を確認
Jiawei Zhu, Xin Han, Hanhan Deng, Chao Tao, Ling Zhao, Pu Wang, Lin Tao, Haifeng Li(参考訳) 交通の空間的・時間的特徴を考慮すると,交通予測の正確な達成に向けては,様々な外部要因の影響を捉えることが不可欠である。 しかし、既存の研究では、外部要因間の複雑な相関が交通に与える影響をほとんど考慮していない。 直感的には、知識グラフはこれらの相関を自然に記述することができる。 知識グラフとトラフィックネットワークは本質的に異種ネットワークであるため、両方のネットワークに情報を統合することは困難である。 そこで本研究では,時空間グラフ畳み込みネットワークに基づく知識表現型交通予測手法を提案する。 まず,交通予測のための知識グラフを構築し,KR-EARという知識表現学習手法を用いて知識表現を導出する。 次に,空間-時間グラフ畳み込みバックボーンネットワークの入力として,知識と交通特性を組み合わせた知識融合セル(kf-cell)を提案する。 実世界のデータセットにおける実験結果は、様々な予測地平線におけるバックボーンの予測性能を高めることを示しています。 アブレーションと摂動解析により,提案手法の有効性とロバスト性をさらに検証した。 本研究は,交通予測のための知識グラフを構築し,活用する最初の研究であり,交通予測のための外部情報と空間時空間情報の統合に向けた有望な方向性を提供する。 ソースコードはhttps://github.com/lehaifeng/T-GCN/tree/master/KST-GCNで入手できる。

While considering the spatial and temporal features of traffic, capturing the impacts of various external factors on travel is an essential step towards achieving accurate traffic forecasting. However, existing studies seldom consider external factors or neglect the effect of the complex correlations among external factors on traffic. Intuitively, knowledge graphs can naturally describe these correlations. Since knowledge graphs and traffic networks are essentially heterogeneous networks, it is challenging to integrate the information in both networks. On this background, this study presents a knowledge representation-driven traffic forecasting method based on spatial-temporal graph convolutional networks. We first construct a knowledge graph for traffic forecasting and derive knowledge representations by a knowledge representation learning method named KR-EAR. Then, we propose the Knowledge Fusion Cell (KF-Cell) to combine the knowledge and traffic features as the input of a spatial-temporal graph convolutional backbone network. Experimental results on the real-world dataset show that our strategy enhances the forecasting performances of backbones at various prediction horizons. The ablation and perturbation analysis further verify the effectiveness and robustness of the proposed method. To the best of our knowledge, this is the first study that constructs and utilizes a knowledge graph to facilitate traffic forecasting; it also offers a promising direction to integrate external information and spatial-temporal information for traffic forecasting. The source code is available at https://github.com/lehaifeng/T-GCN/tree/master/KST-GCN.
翻訳日:2022-09-20 12:06:50 公開日:2022-01-19
# 人工知能を利用した材料検索エンジン

Artificial Intelligence Powered Material Search Engine ( http://arxiv.org/abs/2202.01916v1 )

ライセンス: Link先を確認
Mohendra Roy(参考訳) 近年の人工知能(AI)の進歩により、物質科学における多くのデータ駆動型応用が可能となった。 物質工学におけるAIの利用は、X線回折、様々な分光法、顕微鏡データなどの材料データの数が増加するにつれて、ますます現実的になりつつある。 本研究では,X線回折の原子間空間(d値)を用いて物質情報を提供する物質検索エンジンについて報告する。 x線回折データを用いた予測材料予測手法の検討を行った。 我々はランダムフォレスト、ネイブベイズ(ガウシアン)、ニューラルネットワークアルゴリズムを用いてこれを実現した。 これらのアルゴリズムの平均精度は88.50\%、100.0\%、88.89\%である。 最後に、これらのテクニックをアンサンブルアプローチと組み合わせて、予測をより一般的なものにした。 このアンサンブル法は精度が約100\%である。 さらに,解釈性と精度を向上させるために,グラフニューラルネットワーク(gnn)ベースのアーキテクチャを設計する。 そこで我々は,従来の辞書ベース・メタデータベース・マテリアル検索エンジンの計算と時間の複雑さを解消し,より汎用的な予測を行う。

Many data-driven applications in material science have been made possible because of recent breakthroughs in artificial intelligence(AI). The use of AI in material engineering is becoming more viable as the number of material data such as X-Ray diffraction, various spectroscopy, and microscope data grows. In this work, we have reported a material search engine that uses the interatomic space (d value) from X-ray diffraction to provide material information. We have investigated various techniques for predicting prospective material using X-ray diffraction data. We used the Random Forest, Naive Bayes (Gaussian), and Neural Network algorithms to achieve this. These algorithms have an average accuracy of 88.50\%, 100.0\%, and 88.89\%, respectively. Finally, we combined all these techniques into an ensemble approach to make the prediction more generic. This ensemble method has a ~100\% accuracy rate. Furthermore, we are designing a graph neural network (GNN)-based architecture to improve interpretability and accuracy. Thus, we want to solve the computational and time complexity of traditional dictionary-based and metadata-based material search engines and to provide a more generic prediction.
翻訳日:2022-02-13 14:53:34 公開日:2022-01-19
# ニュースセンチメント分析とSparkにおける技術指標を用いた株価動向予測

Predicting The Stock Trend Using News Sentiment Analysis and Technical Indicators in Spark ( http://arxiv.org/abs/2201.12283v1 )

ライセンス: Link先を確認
Taylan Kabbani (1 and 2), Fatih Enes Usta (3) ((1) Ozyegin University, (2) Huawei Turkey R&D Center, (3) Marmara University)(参考訳) 株式市場の動向を予測することは、その動きが多くの要因に影響されて以来、常に困難だった。 ここでは,明日_trend機能をラベルとして作成することにより,今後のトレンド予測問題を機械学習分類問題としてアプローチする。 機械学習モデルは、その日のラベルを予測するのに役立つように、異なる特徴が与えられている。 さらに、金融ニュースが投資家の行動を変える上で重要な役割を果たすため、その日のすべてのニュースから、その日の総合的な感情スコアが作成され、別の機能としてモデルに追加される。 Spark(ビッグデータコンピューティングプラットフォーム)、Logistic Regression、Random Forest、Gradient Boosting Machineの3つの異なる機械学習モデルがテストされている。 ランダムフォレストが63.58%の精度でベストパフォーマンスモデルであった。

Predicting the stock market trend has always been challenging since its movement is affected by many factors. Here, we approach the future trend prediction problem as a machine learning classification problem by creating tomorrow_trend feature as our label to be predicted. Different features are given to help the machine learning model predict the label of a given day; whether it is an uptrend or downtrend, those features are technical indicators generated from the stock's price history. In addition, as financial news plays a vital role in changing the investor's behavior, the overall sentiment score on a given day is created from all news released on that day and added to the model as another feature. Three different machine learning models are tested in Spark (big-data computing platform), Logistic Regression, Random Forest, and Gradient Boosting Machine. Random Forest was the best performing model with a 63.58% test accuracy.
翻訳日:2022-02-06 09:00:14 公開日:2022-01-19
# ダイナミックピックアップとデリバリ問題ベンチマークの紹介 -ICAPS 2021 コンペティション

Introduction to The Dynamic Pickup and Delivery Problem Benchmark -- ICAPS 2021 Competition ( http://arxiv.org/abs/2202.01256v1 )

ライセンス: Link先を確認
Jianye Hao, Jiawen Lu, Xijun Li, Xialiang Tong, Xiang Xiang, Mingxuan Yuan and Hankz Hankui Zhuo(参考訳) 動的ピックアップ・デリバリ問題(DPDP)は物流領域において不可欠な問題である。 これまでのところ、この問題の研究は主に実世界の問題の複雑さを反映しない人工データの利用に焦点を当てている。 このドラフトでは、実際のビジネスシナリオからの新しいベンチマークと、動的評価をサポートするシミュレータを導入したいと思います。 ベンチマークとシミュレータは152チームによるicps 2021のダイナミックピックアップとデリバリの問題コンペティションを成功裏にサポートした。

The Dynamic Pickup and Delivery Problem (DPDP) is an essential problem within the logistics domain. So far, research on this problem has mainly focused on using artificial data which fails to reflect the complexity of real-world problems. In this draft, we would like to introduce a new benchmark from real business scenarios as well as a simulator supporting the dynamic evaluation. The benchmark and simulator have been published and successfully supported the ICAPS 2021 Dynamic Pickup and Delivery Problem competition participated by 152 teams.
翻訳日:2022-02-06 08:32:28 公開日:2022-01-19
# (参考訳) CNNと教師なし学習を用いた南アメリカの山火事のマルチスペクトル衛星画像解析

Analyzing Multispectral Satellite Imagery of South American Wildfires Using CNNs and Unsupervised Learning ( http://arxiv.org/abs/2201.09671v1 )

ライセンス: CC BY 4.0
Christopher Sun(参考訳) アマゾン熱帯雨林では深刻な干ばつが頻繁に発生し乾季が長くなるため、活発な山火事に迅速に対応し、消火不能になる前に予測することが重要である。 コンピュータビジョンの研究者は、大規模なデータベースにアルゴリズムを適用して山火事を自動的に検出したが、現在のモデルは計算コストが高く、南米の低技術環境に十分適用できない。 この総合的なディープラーニングの研究は、まず、エクアドルとガラパゴスのマルチスペクトルランドサット8画像にスキップ接続を持つ完全畳み込みニューラルネットワークを訓練する。 このモデルは、緑と短波の赤外線帯域を入力として、各画像の対応するピクセルレベルの2値火炎マスクを予測する。 このモデルは、ガイアナとスリナムのテストデータで0.962バリデーションf2スコアと0.932f2スコアを達成する。 その後、K-Means Clusteringを用いてCirrus Cloudバンド上で画像セグメンテーションを行い、連続画素値をシラス雲汚染度を表す3つの離散クラスに単純化する。 さらに2つの畳み込みニューラルネットワークを訓練して、これらの分割されたサイラス画像を用いて、土地のパッチ内の野火の存在を分類する。 セグメンテーション入力で訓練された「実験」モデルは、96.5%の精度を達成し、セグメンテーション入力が与えられない「制御モデル」よりも滑らかな学習曲線を持つ。 この概念実証は、機能単純化によってワイルドファイア検出モデルの性能が向上することを示している。 この研究で開発されたソフトウェアは、南アメリカの山火事の早期かつ正確な検出に有用である。

Since severe droughts are occurring more frequently and lengthening the dry season in the Amazon Rainforest, it is important to respond to active wildfires promptly and to forecast them before they become inextinguishable. Though computer vision researchers have applied algorithms on large databases to automatically detect wildfires, current models are computationally expensive and are not versatile enough for the low technology conditions of regions in South America. This comprehensive deep learning study first trains a Fully Convolutional Neural Network with skip connections on multispectral Landsat 8 images of Ecuador and the Galapagos. The model uses Green and Short-wave Infrared bands as inputs to predict each image's corresponding pixel-level binary fire mask. This model achieves a 0.962 validation F2 score and a 0.932 F2 score on test data from Guyana and Suriname. Afterward, image segmentation is conducted on the Cirrus Cloud band using K-Means Clustering to simplify continuous pixel values into three discrete classes representing the degree of cirrus cloud contamination. Two additional Convolutional Neural Networks are trained to classify the presence of a wildfire in a patch of land using these segmented cirrus images. The "experimental" model trained on the segmented inputs achieves 96.5% binary accuracy and has smoother learning curves than the "control model" that is not given the segmented inputs. This proof of concept reveals that feature simplification can improve the performance of wildfire detection models. Overall, the software built in this study is useful for early and accurate detection of wildfires in South America.
翻訳日:2022-01-30 12:26:40 公開日:2022-01-19
# (参考訳) 顔のライブネス検出のためのアンサンブルモデル

An Ensemble Model for Face Liveness Detection ( http://arxiv.org/abs/2201.08901v1 )

ライセンス: CC BY 4.0
Shashank Shekhar, Avinash Patel, Mrinal Haloi, Asif Salim(参考訳) 本稿では,アンサンブル深層学習技術を用いて,顔提示攻撃,すなわち顔の生存度を検出する受動的手法を提案する。 顔のライブ性検出は、オンラインのオンボーディング/トランザクションプロセスにおける顧客のユーザアイデンティティ検証に関わる重要なステップの1つだ。 例えば、ソーシャルメディアからユーザ写真をキャプチャして、ユーザの顔のプリントアウトを使ったインポスタ攻撃や、モバイルデバイスからのデジタル写真の使用、さらにはビデオ再生攻撃のようなより高度な攻撃などを行うことができる。 さまざまな攻撃方法を理解しようと試み、堅牢なディープラーニングモデルをトレーニングするために、あらゆる種類の攻撃をカバーする社内の大規模データセットを作成しました。 本研究では,顔領域と背景領域の複数の特徴を学習し,ユーザがボナフィドか攻撃者かを予測するアンサンブル手法を提案する。

In this paper, we present a passive method to detect face presentation attack a.k.a face liveness detection using an ensemble deep learning technique. Face liveness detection is one of the key steps involved in user identity verification of customers during the online onboarding/transaction processes. During identity verification, an unauthenticated user tries to bypass the verification system by several means, for example, they can capture a user photo from social media and do an imposter attack using printouts of users faces or using a digital photo from a mobile device and even create a more sophisticated attack like video replay attack. We have tried to understand the different methods of attack and created an in-house large-scale dataset covering all the kinds of attacks to train a robust deep learning model. We propose an ensemble method where multiple features of the face and background regions are learned to predict whether the user is a bonafide or an attacker.
翻訳日:2022-01-30 12:15:26 公開日:2022-01-19
# 深層伝達学習の展望と最近の進歩

A Review of Deep Transfer Learning and Recent Advancements ( http://arxiv.org/abs/2201.09679v1 )

ライセンス: Link先を確認
Mohammadreza Iman, Khaled Rasheed, Hamid R. Arabnia(参考訳) ディープラーニングモデルの成功は、広範なトレーニングデータと処理能力と時間(トレーニングコストとして知られる)に依存する。 ディープラーニングモデルをトレーニングするのに十分な数のラベル付きデータがないタスクは数多く存在する。 さらに、処理能力とトレーニング時間を制限したエッジデバイス上でのディープラーニングモデルの実行に対する需要も高まっている。 例えば、大規模な半関連データセット上で事前学習されたモデルを微調整することは、多くの問題に対してシンプルで効果的な方法であることが証明された。 DTLは限られた対象データを扱うと同時に、トレーニングコストを大幅に削減します。 本稿では,Deep Transfer Learningの定義と分類について概説する。 そして、ネットワークベースのDTLのサブカテゴリに焦点を当てる。これは、過去10年間に様々なアプリケーションに適用されてきた、最も一般的なタイプのDTLである。

A successful deep learning model is dependent on extensive training data and processing power and time (known as training costs). There exist many tasks without enough number of labeled data to train a deep learning model. Further, the demand is rising for running deep learning models on edge devices with limited processing capacity and training time. Deep transfer learning (DTL) methods are the answer to tackle such limitations, e.g., fine-tuning a pre-trained model on a massive semi-related dataset proved to be a simple and effective method for many problems. DTLs handle limited target data concerns as well as drastically reduce the training costs. In this paper, the definition and taxonomy of deep transfer learning is reviewed. Then we focus on the sub-category of network-based DTLs since it is the most common types of DTLs that have been applied to various applications in the last decade.
翻訳日:2022-01-30 11:24:22 公開日:2022-01-19
# CNN画像分類器における信号強度とノイズ駆動特性

Signal Strength and Noise Drive Feature Preference in CNN Image Classifiers ( http://arxiv.org/abs/2201.08893v1 )

ライセンス: Link先を確認
Max Wolff and Stuart Wolff(参考訳) 畳み込みニューラルネットワーク(CNN)画像分類器の特徴選好は意思決定プロセスに不可欠であり、そのトピックは十分に研究されているが、基本的なレベルでは理解されていない。 合成データセットを用いて高度に制御されたCNN画像分類実験において, 特徴属性(形状, テクスチャ, 色など)を信号や雑音の度合いの異なる範囲で検証し, 特徴嗜好を決定する。 CNNは、その特徴がテクスチャ、形状、色に関わらず、より強い信号強度と低いノイズを持つ特徴を好む。 本研究は,タスク関連機能選好の予測モデルに関するガイダンスを提供するとともに,実験的な設定に対する注意深い制御で回避できるマシンモデルにおけるバイアスの経路を示すとともに,視覚分類タスクにおけるタスク関連機能をどのように好むかを比較することを提案する。 実験を再現するコードは \url{https://github.com/mwolff31/signal_preference} にある。

Feature preference in Convolutional Neural Network (CNN) image classifiers is integral to their decision making process, and while the topic has been well studied, it is still not understood at a fundamental level. We test a range of task relevant feature attributes (including shape, texture, and color) with varying degrees of signal and noise in highly controlled CNN image classification experiments using synthetic datasets to determine feature preferences. We find that CNNs will prefer features with stronger signal strength and lower noise irrespective of whether the feature is texture, shape, or color. This provides guidance for a predictive model for task relevant feature preferences, demonstrates pathways for bias in machine models that can be avoided with careful controls on experimental setup, and suggests that comparisons between how humans and machines prefer task relevant features in vision classification tasks should be revisited. Code to reproduce experiments in this paper can be found at \url{https://github.com/mwolff31/signal_preference}.
翻訳日:2022-01-30 11:24:06 公開日:2022-01-19
# 強化学習教科書

Reinforcement Learning Textbook ( http://arxiv.org/abs/2201.09746v1 )

ライセンス: Link先を確認
Sergey Ivanov(参考訳) この教科書は、ゲームaiからロボティクスまで、多くの領域でブレークスルーを達成した主要な現代的深層強化学習アルゴリズムの背後にある原則を扱っている。 要求される全ての理論は統一的表記法を用いた証明で説明され、異なる種類のアルゴリズムの違いとそれらがどのように構築されるのかを強調する。

This textbook covers principles behind main modern deep reinforcement learning algorithms that achieved breakthrough results in many domains from game AI to robotics. All required theory is explained with proofs using unified notation and emphasize on the differences between different types of algorithms and the reasons why they are constructed the way they are.
翻訳日:2022-01-30 11:23:47 公開日:2022-01-19
# 自動運転車におけるサイバーセキュリティのロードマップ

Roadmap for Cybersecurity in Autonomous Vehicles ( http://arxiv.org/abs/2201.10349v1 )

ライセンス: Link先を確認
Vipin Kumar Kukkala, Sooryaa Vignesh Thiruloga, Sudeep Pasricha(参考訳) 自動運転車は今後、交通安全と快適性を変えていくだろう。 これらの車両は様々な外部システムに接続し、高度な組み込みシステムを使用して環境を認識し、インテリジェントな意思決定を行う。 しかし、この接続性が高まり、これらの車両は壊滅的な効果をもたらす様々なサイバー攻撃に対して脆弱になった。 自動車システムへの攻撃はすでに増加しており、将来の自動運転車ではより一般的なものになるだろう。 したがって、将来の自動運転車ではサイバーセキュリティを強化する必要がある。 本稿では,過去10年間の自動車サイバー攻撃と,人工知能(ai)を活用した最先端ソリューションについて述べる。 我々は、安全な自動運転車を構築するためのロードマップを提案し、対処すべき重要なオープン課題を強調する。

Autonomous vehicles are on the horizon and will be transforming transportation safety and comfort. These vehicles will be connected to various external systems and utilize advanced embedded systems to perceive their environment and make intelligent decisions. However, this increased connectivity makes these vehicles vulnerable to various cyber-attacks that can have catastrophic effects. Attacks on automotive systems are already on the rise in today's vehicles and are expected to become more commonplace in future autonomous vehicles. Thus, there is a need to strengthen cybersecurity in future autonomous vehicles. In this article, we discuss major automotive cyber-attacks over the past decade and present state-of-the-art solutions that leverage artificial intelligence (AI). We propose a roadmap towards building secure autonomous vehicles and highlight key open challenges that need to be addressed.
翻訳日:2022-01-30 11:23:42 公開日:2022-01-19
# オンラインPOIレコメンデーション: ストリームにおける動的ジオヒューマンインタラクションの学習

Online POI Recommendation: Learning Dynamic Geo-Human Interactions in Streams ( http://arxiv.org/abs/2201.10983v1 )

ライセンス: Link先を確認
Dongjie Wang, Kunpeng Liu, Hui Xiong, Yanjie Fu(参考訳) 本稿では,オンラインPOIレコメンデーションのためのストリーム中の動的ジオヒューマンインタラクションをモデル化する問題に焦点を当てる。 具体的には, エージェントがレコメンダであり, アクションが次のpoiとなる新しい深層対話型強化学習フレームワークとして, ストリーム内ジオ-ヒューマンインタラクションモデリング問題を定式化する。 我々は,強化学習環境を,ユーザと地理空間的コンテキスト(POI,POIカテゴリ,機能ゾーン)の結合・連結構成として一意にモデル化する。 ユーザがストリームでPOIを訪問するイベントは、ユーザと地理空間コンテキストの両方の状態を更新し、エージェントは更新された環境状態を認識してオンラインレコメンデーションを行う。 具体的には、人間-人間-地球-地球相互作用をモデル化するために、ユーザ、訪問、地理空間コンテキストを動的知識グラフストリームとして統一することで、混合ユーザイベントストリームをモデル化する。 本稿では,期限切れ情報課題に対処するための出口機構を設計,推薦候補生成課題に対処するメタパス手法を考案し,さまざまなアクションスペース課題に対処するための新しい深層ポリシーネットワーク構造を開発し,最後に,最適化のための効果的な敵意訓練手法を提案する。 最後に,提案手法の性能向上を実証するための実験を行った。

In this paper, we focus on the problem of modeling dynamic geo-human interactions in streams for online POI recommendations. Specifically, we formulate the in-stream geo-human interaction modeling problem into a novel deep interactive reinforcement learning framework, where an agent is a recommender and an action is a next POI to visit. We uniquely model the reinforcement learning environment as a joint and connected composition of users and geospatial contexts (POIs, POI categories, functional zones). An event that a user visits a POI in stream updates the states of both users and geospatial contexts; the agent perceives the updated environment state to make online recommendations. Specifically, we model a mixed-user event stream by unifying all users, visits, and geospatial contexts as a dynamic knowledge graph stream, in order to model human-human, geo-human, geo-geo interactions. We design an exit mechanism to address the expired information challenge, devise a meta-path method to address the recommendation candidate generation challenge, and develop a new deep policy network structure to address the varying action space challenge, and, finally, propose an effective adversarial training method for optimization. Finally, we present extensive experiments to demonstrate the enhanced performance of our method.
翻訳日:2022-01-30 11:23:32 公開日:2022-01-19
# 非線形生成モデルによるベイズ推論:セキュア学習へのコメント

Bayesian Inference with Nonlinear Generative Models: Comments on Secure Learning ( http://arxiv.org/abs/2201.09986v1 )

ライセンス: Link先を確認
Ali Bereyhi and Bruno Loureiro and Florent Krzakala and Ralf R. M\"uller and Hermann Schulz-Baldes(参考訳) 古典的線形モデルとは異なり、非線形生成モデルは文学においてわずかに扱われている。 この研究は、これらのモデルとその秘密性に注意を向けることを目的としている。 この目的のために, 一般化共分散関数を持つガウス確率場により生成モデルを記述する逆確率問題において, 漸近正規化クロスエントロピーを導出するレプリカ法を導出する。 この導出はベイズ推論アルゴリズムの漸近的統計的デカップリングを示し、与えられた非線形モデルのデカップリング設定を指定する。 レプリカの解は、厳密な非線形モデルが全てまたはなしの相転移を確立することを描いている: 最適なベイズ推論が完全から非相関学習に変化する重要な負荷が存在する。 この発見は、盗聴チャネルの機密性を実現するための新しいセキュアな符号化方式の設計につながる。 提案した符号化は、Wynerのランダムな符号化方式に比べて、コードブックサイズがかなり小さい。 この興味深い結果は、厳密な非線形生成モデルはセキュアな符号化なしに完全に安全であることを示している。 後者のステートメントは、完全に安全で信頼できる推論のための説明モデルの分析を通じて正当化します。

Unlike the classical linear model, nonlinear generative models have been addressed sparsely in the literature. This work aims to bring attention to these models and their secrecy potential. To this end, we invoke the replica method to derive the asymptotic normalized cross entropy in an inverse probability problem whose generative model is described by a Gaussian random field with a generic covariance function. Our derivations further demonstrate the asymptotic statistical decoupling of Bayesian inference algorithms and specify the decoupled setting for a given nonlinear model. The replica solution depicts that strictly nonlinear models establish an all-or-nothing phase transition: There exists a critical load at which the optimal Bayesian inference changes from being perfect to an uncorrelated learning. This finding leads to design of a new secure coding scheme which achieves the secrecy capacity of the wiretap channel. The proposed coding has a significantly smaller codebook size compared to the random coding scheme of Wyner. This interesting result implies that strictly nonlinear generative models are perfectly secured without any secure coding. We justify this latter statement through the analysis of an illustrative model for perfectly secure and reliable inference.
翻訳日:2022-01-30 11:23:00 公開日:2022-01-19
# (参考訳) GAP-Gen: ガイド付きPythonコード生成

GAP-Gen: Guided Automatic Python Code Generation ( http://arxiv.org/abs/2201.08810v1 )

ライセンス: CC BY-SA 4.0
Junchen Zhao, Yurun Song, Junlin Wang, Ian G. Harris(参考訳) 自然言語記述からの自動コード生成は、ソフトウェア開発の過程で非常に有益である。 本稿では,pythonの構文的制約と意味的制約による自動コード生成手法であるgap-genを提案する。 我々はまず、抽象構文木(AST)の簡易版であるSyntax-Flowという形でPython構文制約を導入し、抽象構文木のサイズと複雑さを低減しつつ、Pythonコードの重要な構文情報を維持する。 Syntax-Flowに加えて、変数と関数名を一貫したコードで抽象化する可変フローを導入します。 我々の研究は、事前学習ではなく、計算要求を減らし、Pythonの自動コード生成タスクにおけるハイジェネレーション性能を維持する微調整プロセスの変更に重点を置いている。 GAP-Genは、CodeSearchNet、CodeSearchNet AdvTest、EdinburghNLPのCode-Docstring-Corpusを使って、トランスフォーマーベースの言語モデルT5とCodeT5を微調整する。 実験の結果,GAP-GenはPythonの自動コード生成タスクにおいて,従来の作業よりも優れた結果が得られることがわかった。

Automatic code generation from natural language descriptions can be highly beneficial during the process of software development. In this work, we propose GAP-Gen, an automatic code generation method guided by Python syntactic constraints and semantic constraints. We first introduce Python syntactic constraints in the form of Syntax-Flow, which is a simplified version of Abstract Syntax Tree (AST) reducing the size and high complexity of Abstract Syntax Tree but maintaining the crucial syn-tactic information of Python code. In addition to Syntax-Flow, we introduce Variable-Flow which abstracts variable and function names consistently throughout the code. In our work, rather than pre-training, we focus on modifying the fine-tuning process which reduces computational requirements but retains high generation performance on automatic Python code generation task. GAP-Gen fine-tunes the transformer-based language models T5 and CodeT5 using the Code-to-Docstring datasets CodeSearchNet, CodeSearchNet AdvTest, and Code-Docstring-Corpus from EdinburghNLP. Our experiments show that GAP-Gen achieves better results on automatic Python code generation task than previous works
翻訳日:2022-01-24 23:30:28 公開日:2022-01-19
# (参考訳) 自動因果推論による無作為化臨床試験への応用

Automated causal inference in application to randomized controlled clinical trials ( http://arxiv.org/abs/2201.05773v2 )

ライセンス: CC BY 4.0
Jiqing Wu, Nanda Horeweg, Marco de Bruyn, Remi A. Nout, Ina M. J\"urgenliemk-Schulz, Ludy C.H.W. Lutgens, Jan J. Jobsen, Elzbieta M. van der Steen-Banasik, Hans W. Nijman, Vincent T.H.B.M. Smit, Tjalling Bosse, Carien L. Creutzberg, Viktor H. Koelzer(参考訳) ランダム化制御試験(RCTs)は、臨床領域における因果仮説をテストするための金の標準であると考えられている。 しかし, 標準的な統計学的手法では, 患者予後の予測変数を仮説として検討することは不可能である。 本稿では,臨床試験データの因果的再解釈のための不変因果予測(ICP)フレームワーク上に構築された新しい自動因果推論手法を提案する。 既存の方法と比較すると, 子宮内膜癌患者2例において, 臨床病理学的, 分子遺伝学的に有意な差がみられ, 因果変数を効率的に決定できることがわかった。 これは非因果変数の因果確率を広いマージンで抑制することで達成される。 アブレーション研究では,AutoCIによる因果確率の割り当てが,共同創設者の存在下で一貫していることがさらに実証された。 結論として, これらの結果は, 現実臨床分析におけるAutoCIの堅牢性と将来性を示すものである。

Randomized controlled trials (RCTs) are considered as the gold standard for testing causal hypotheses in the clinical domain. However, the investigation of prognostic variables of patient outcome in a hypothesized cause-effect route is not feasible using standard statistical methods. Here, we propose a new automated causal inference method (AutoCI) built upon the invariant causal prediction (ICP) framework for the causal re-interpretation of clinical trial data. Compared to existing methods, we show that the proposed AutoCI allows to efficiently determine the causal variables with a clear differentiation on two real-world RCTs of endometrial cancer patients with mature outcome and extensive clinicopathological and molecular data. This is achieved via suppressing the causal probability of non-causal variables by a wide margin. In ablation studies, we further demonstrate that the assignment of causal probabilities by AutoCI remain consistent in the presence of confounders. In conclusion, these results confirm the robustness and feasibility of AutoCI for future applications in real-world clinical analysis.
翻訳日:2022-01-22 13:30:26 公開日:2022-01-19
# (参考訳) TaxoCom:新しいトピッククラスタの階層的発見によるトピック分類の完成

TaxoCom: Topic Taxonomy Completion with Hierarchical Discovery of Novel Topic Clusters ( http://arxiv.org/abs/2201.06771v2 )

ライセンス: CC BY 4.0
Dongha Lee, Jiaming Shen, SeongKu Kang, Susik Yoon, Jiawei Han, Hwanjo Yu(参考訳) 文書コレクションの潜在トピック(またはカテゴリ)構造を表すトピック分類は、web検索や情報フィルタリングといった多くのアプリケーションにおいて、コンテンツの貴重な知識を提供する。 近年,テキストコーパスからトピック分類を自動的に構築するための教師なし手法がいくつか開発されているが,事前の知識がなくても望ましい分類を生成することは困難である。 本稿では,トピック構造に関する部分的(あるいは不完全な)情報をどのように活用し,トピック分類の完全性を見出すかを検討する。 本稿では,トピック分類の完全化のための新しい枠組みであるtaxocomを提案し,用語と文書の新たなサブトピック・クラスターの発見により,トピック分類体系を再帰的に拡張する。 階層的なトピック構造の中で、新しいトピックを効果的に識別するために、TaxoComは、その埋め込みとクラスタリングテクニックを互いに密接にリンクするように考案した。 (i)局所的判別的埋め込みは、既知の(すなわち与えられた)サブトピック間で識別可能なテキスト埋め込み空間を最適化し、 (ii)新規適応クラスタリングは、既知のサブトピックまたは新しいサブトピックのいずれかに用語を割り当てる。 2つの実世界のデータセットに関する総合的な実験により、TaxoComは、用語の一貫性とトピックカバレッジの観点から高品質なトピック分類を生成するだけでなく、下流タスクにおける他のすべてのベースラインよりも優れています。

Topic taxonomies, which represent the latent topic (or category) structure of document collections, provide valuable knowledge of contents in many applications such as web search and information filtering. Recently, several unsupervised methods have been developed to automatically construct the topic taxonomy from a text corpus, but it is challenging to generate the desired taxonomy without any prior knowledge. In this paper, we study how to leverage the partial (or incomplete) information about the topic structure as guidance to find out the complete topic taxonomy. We propose a novel framework for topic taxonomy completion, named TaxoCom, which recursively expands the topic taxonomy by discovering novel sub-topic clusters of terms and documents. To effectively identify novel topics within a hierarchical topic structure, TaxoCom devises its embedding and clustering techniques to be closely-linked with each other: (i) locally discriminative embedding optimizes the text embedding space to be discriminative among known (i.e., given) sub-topics, and (ii) novelty adaptive clustering assigns terms into either one of the known sub-topics or novel sub-topics. Our comprehensive experiments on two real-world datasets demonstrate that TaxoCom not only generates the high-quality topic taxonomy in terms of term coherency and topic coverage but also outperforms all other baselines for a downstream task.
翻訳日:2022-01-22 05:46:29 公開日:2022-01-19
# (参考訳) 医学的概念に基づくグラフニューラルネットワークの認知的説明

Cognitive Explainers of Graph Neural Networks Based on Medical Concepts ( http://arxiv.org/abs/2201.07798v1 )

ライセンス: CC BY 4.0
Yingni Wang, Kehong Yuan(参考訳) ディープ・ニューラル・ネットワーク(dnn)は様々な分野で最先端のパフォーマンスを達成しているが、いくつかの予期せぬエラーは、高い信頼性と高いセキュリティを必要とするいくつかのタスクにとって非常に危険であるニューラルネットワークでしばしば見られる。 Despite current studies that have been committed to visualizing the decision process of DNN, most of these methods focus on the low level and do not take into account the prior knowledge of medicine.In this work, we propose an interpretable framework based on key medical concepts, enabling CNN to explain from the perspective of doctors' cognition.We propose an interpretable automatic recognition framework for the ultrasonic standard plane, which uses a concept-based graph convolutional neural network to construct the relationships between key medical concepts, to obtain an interpretation consistent with a doctor's cognition.

Although deep neural networks (DNN) have achieved state-of-the-art performance in various fields, some unexpected errors are often found in the neural network, which is very dangerous for some tasks requiring high reliability and high security.The non-transparency and unexplainably of CNN still limit its application in many fields, such as medical care and finance. Despite current studies that have been committed to visualizing the decision process of DNN, most of these methods focus on the low level and do not take into account the prior knowledge of medicine.In this work, we propose an interpretable framework based on key medical concepts, enabling CNN to explain from the perspective of doctors' cognition.We propose an interpretable automatic recognition framework for the ultrasonic standard plane, which uses a concept-based graph convolutional neural network to construct the relationships between key medical concepts, to obtain an interpretation consistent with a doctor's cognition.
翻訳日:2022-01-22 04:57:30 公開日:2022-01-19
# (参考訳) GPUを用いたディープラーニング推薦モデルトレーニングのパフォーマンスモデルの構築

Building a Performance Model for Deep Learning Recommendation Model Training on GPUs ( http://arxiv.org/abs/2201.07821v1 )

ライセンス: CC BY 4.0
Zhongyi Lin and Louis Feng and Ehsan K. Ardestani and Jaewon Lee and John Lundell and Changkyu Kim and Arun Kejariwal and John D. Owens(参考訳) 我々は、他のよく最適化されたCVやNLPモデルと比較してGPU利用率が低いDLRM(Deep Learning Recommendation Models)のGPUトレーニングのパフォーマンスモデルを作成する。 デバイスアクティブタイム(カーネルランタイムの合計)とデバイスアイドルタイムの両方が、デバイス全体のタイムの重要なコンポーネントであることを示す。 そこで我々は,(1)デバイスアクティブタイムを支配するオペレータに対して,ヒューリスティックベースおよびmlベースのカーネルパフォーマンスモデルを柔軟に適用し,(2)オペレーターのオーバーヘッドを5つのタイプに分類し,デバイスアクティブタイムへの貢献度を定量的に決定する。 これら2つの部分を組み合わせることで,実行グラフをトラバースすることでDLRMのバッチごとのトレーニング時間を予測できるクリティカルパスベースのアルゴリズムを提案する。 我々は,すべてのカーネル性能モデルにおいて,幾何平均誤差(GMAE)の10%未満を達成し,GPUのアクティブ時間に対する5.23%と7.96%のジオ平均誤差と,バッチ毎のトレーニング時間全体のエンドツーエンド予測を実現した。 提案手法は,構成が高度にカスタマイズされ,複数の要因が支配されるDLRM上での予測誤差を低く抑えるだけでなく,従来の手法に照らされた他の計算バウンドMLモデルと同等の精度が得られることを示す。 この性能モデルとグラフレベルのデータとタスク依存性分析を用いて,従来の手法よりも汎用的なモデルシステム設計を提供できることを示す。

We devise a performance model for GPU training of Deep Learning Recommendation Models (DLRM), whose GPU utilization is low compared to other well-optimized CV and NLP models. We show that both the device active time (the sum of kernel runtimes) and the device idle time are important components of the overall device time. We therefore tackle them separately by (1) flexibly adopting heuristic-based and ML-based kernel performance models for operators that dominate the device active time, and (2) categorizing operator overheads into five types to determine quantitatively their contribution to the device active time. Combining these two parts, we propose a critical-path-based algorithm to predict the per-batch training time of DLRM by traversing its execution graph. We achieve less than 10% geometric mean average error (GMAE) in all kernel performance modeling, and 5.23% and 7.96% geomean errors for GPU active time and overall end-to-end per-batch training time prediction, respectively. We show that our general performance model not only achieves low prediction error on DLRM, which has highly customized configurations and is dominated by multiple factors, but also yields comparable accuracy on other compute-bound ML models targeted by most previous methods. Using this performance model and graph-level data and task dependency analyses, we show our system can provide more general model-system co-design than previous methods.
翻訳日:2022-01-22 04:42:41 公開日:2022-01-19
# (参考訳) blinc:低複雑さvvcイントラコーディングのための軽量バイモーダル学習

BLINC: Lightweight Bimodal Learning for Low-Complexity VVC Intra Coding ( http://arxiv.org/abs/2201.07823v1 )

ライセンス: CC BY 4.0
Farhad Pakdaman, Mohammad Ali Adelimanesh, Mahmoud Reza Hashemi(参考訳) 最新のビデオコーディング標準であるVersatile Video Coding (VVC)は、前機種であるHEVC(High Efficiency Video Coding)と比較して、コーディング効率をほぼ2倍に向上させる。 しかし、この効率(イントラコーディング)を達成するにはHEVCに比べて31倍の計算量を必要とするため、低消費電力およびリアルタイムアプリケーションでは困難である。 本稿では,2つの特徴を共同で個別に活用し,イントラコーディング決定を簡素化する,新しい機械学習手法を提案する。 まず、VVCの既存のDCTコアを用いて、テクスチャ特性を評価し、データの最初のモダリティを形成する一連の特徴を抽出する。 これにより、ほとんどオーバーヘッドなく高品質な機能が得られる。 隣接するブロックにおけるイントラモードの分布は、フレームに関する統計情報を提供するデータの第2のモダリティを形成するためにも用いられる。 第二に、モード内決定タスクの学習に限られたパラメータの軽量モデルを使用することができるように、特徴セットのサイズを小さくする2段階の特徴量削減法が設計されている。 第3に,1)データの第1(シングル)モダリティを用いたオフライントレーニング戦略,(2)第2(シングル)モダリティを用いたオンライントレーニング戦略,(3)バイモーダル学習を用いた混合オンラインオフライン戦略の3つの異なるトレーニング戦略を提案する。 最後に,提案手法に基づく低複雑さ符号化アルゴリズムを提案する。 広範な実験結果から,提案手法では符号化時間の最大24%削減が可能となり,符号化効率が低下することが判明した。 さらに,バイモーダル学習戦略によって学習性能が向上することを示す。 最後に,提案手法は計算オーバーヘッドが非常に低く(0.2%),VVCエンコーダの既存コンポーネントを使用するため,競合するソリューションに比べてはるかに実用的である。

The latest video coding standard, Versatile Video Coding (VVC), achieves almost twice coding efficiency compared to its predecessor, the High Efficiency Video Coding (HEVC). However, achieving this efficiency (for intra coding) requires 31x computational complexity compared to HEVC, making it challenging for low power and real-time applications. This paper, proposes a novel machine learning approach that jointly and separately employs two modalities of features, to simplify the intra coding decision. First a set of features are extracted that use the existing DCT core of VVC, to assess the texture characteristics, and forms the first modality of data. This produces high quality features with almost no overhead. The distribution of intra modes at the neighboring blocks is also used to form the second modality of data, which provides statistical information about the frame. Second, a two-step feature reduction method is designed that reduces the size of feature set, such that a lightweight model with a limited number of parameters can be used to learn the intra mode decision task. Third, three separate training strategies are proposed (1) an offline training strategy using the first (single) modality of data, (2) an online training strategy that uses the second (single) modality, and (3) a mixed online-offline strategy that uses bimodal learning. Finally, a low-complexity encoding algorithms is proposed based on the proposed learning strategies. Extensive experimental results show that the proposed methods can reduce up to 24% of encoding time, with a negligible loss of coding efficiency. Moreover, it is demonstrated how a bimodal learning strategy can boost the performance of learning. Lastly, the proposed method has a very low computational overhead (0.2%), and uses existing components of a VVC encoder, which makes it much more practical compared to competing solutions.
翻訳日:2022-01-22 04:18:32 公開日:2022-01-19
# (参考訳) 協調ネットワークを用いた批判アルゴリズム

Critic Algorithms using Cooperative Networks ( http://arxiv.org/abs/2201.07839v1 )

ライセンス: CC BY 4.0
Debangshu Banerjee and Kavita Wagh(参考訳) マルコフ決定過程において、収束率に関して良好な経験的結果を与える政策評価のためのアルゴリズムを提案する。 このアルゴリズムは、射影ベルマン誤差を追跡し、真の勾配に基づくアルゴリズムとして実装されている。 この点において、このアルゴリズムはTD($\lambda$)アルゴリズムのクラスとは異なる。 このアルゴリズムは、射影ベルマンアルゴリズムを追跡し、従って残留アルゴリズムのクラスとは異なる。 さらに、このアルゴリズムの収束は、予測されたベルマン誤差を追跡することを目的としたgtd2クラスのアルゴリズムよりもはるかに高速である。 提案アルゴリズムをDQNとDDPGフレームワークで実装し,両実験で同等の結果が得られた。

An algorithm is proposed for policy evaluation in Markov Decision Processes which gives good empirical results with respect to convergence rates. The algorithm tracks the Projected Bellman Error and is implemented as a true gradient based algorithm. In this respect this algorithm differs from TD($\lambda$) class of algorithms. This algorithm tracks the Projected Bellman Algorithm and is therefore different from the class of residual algorithms. Further the convergence of this algorithm is empirically much faster than GTD2 class of algorithms which aim at tracking the Projected Bellman Error. We implemented proposed algorithm in DQN and DDPG framework and found that our algorithm achieves comparable results in both of these experiments
翻訳日:2022-01-22 03:57:22 公開日:2022-01-19
# (参考訳) Learning-From-Disagreement: モデル比較とビジュアル分析フレームワーク

Learning-From-Disagreement: A Model Comparison and Visual Analytics Framework ( http://arxiv.org/abs/2201.07849v1 )

ライセンス: CC BY 4.0
Junpeng Wang, Liang Wang, Yan Zheng, Chin-Chia Michael Yeh, Shubham Jain, Wei Zhang(参考訳) 毎日生産される分類モデルの数は急速に増加しており、多くのモデル解釈と比較ソリューションも導入されている。 例えば、LIMEとSHAPは、分類器の出力予測にどのような入力機能が寄与するかを解釈できる。 異なる数値測度(例えば精度)を使って2つの分類器を簡単に比較することができる。 しかし、別の分類器への貢献と比較して、データ特徴の分類器への貢献を解釈できる研究はほとんどない。 この比較解釈は、2つの分類器の基本的な違い、異なる特徴条件における分類器の選択、より優れた2つの分類器のアンサンブルを開示するのに役立つ。 そこで我々は2つの分類モデルを視覚的に比較するLFDフレームワークを提案する。 具体的には、lfdは2つの比較分類器から不一致の予測を持つデータインスタンスを特定し、不一致のインスタンスから学習するために判別器を訓練する。 2つの分類器の訓練機能は利用できないため、分類器の特定の仮説に基づいて提案された一連のメタ特徴を通して識別器を訓練し、その行動を調査する。 訓練された判別器を異なるメタ特徴のSHAP値で解釈し、比較分類器に対する実用的な洞察を提供する。 また、異なる視点からメタ機能の重要性をプロファイルするために、複数のメトリクスを導入する。 これらのメトリクスにより、2つの分類器において最も相補的な振る舞いを持つメタフィーチャを容易に識別でき、それらをよりよく分類器をアレンジするために使うことができる。 我々は,金融サービスおよび広告業界におけるバイナリ分類モデルに着目し,提案手法と可視化の有効性を実証する。

With the fast-growing number of classification models being produced every day, numerous model interpretation and comparison solutions have also been introduced. For example, LIME and SHAP can interpret what input features contribute more to a classifier's output predictions. Different numerical metrics (e.g., accuracy) can be used to easily compare two classifiers. However, few works can interpret the contribution of a data feature to a classifier in comparison with its contribution to another classifier. This comparative interpretation can help to disclose the fundamental difference between two classifiers, select classifiers in different feature conditions, and better ensemble two classifiers. To accomplish it, we propose a learning-from-disagreement (LFD) framework to visually compare two classification models. Specifically, LFD identifies data instances with disagreed predictions from two compared classifiers and trains a discriminator to learn from the disagreed instances. As the two classifiers' training features may not be available, we train the discriminator through a set of meta-features proposed based on certain hypotheses of the classifiers to probe their behaviors. Interpreting the trained discriminator with the SHAP values of different meta-features, we provide actionable insights into the compared classifiers. Also, we introduce multiple metrics to profile the importance of meta-features from different perspectives. With these metrics, one can easily identify meta-features with the most complementary behaviors in two classifiers, and use them to better ensemble the classifiers. We focus on binary classification models in the financial services and advertising industry to demonstrate the efficacy of our proposed framework and visualizations.
翻訳日:2022-01-22 03:48:43 公開日:2022-01-19
# (参考訳) グラフニューラルネットワークの深さとスコープの分離

Decoupling the Depth and Scope of Graph Neural Networks ( http://arxiv.org/abs/2201.07858v1 )

ライセンス: CC BY 4.0
Hanqing Zeng, Muhan Zhang, Yinglong Xia, Ajitesh Srivastava, Andrey Malevich, Rajgopal Kannan, Viktor Prasanna, Long Jin, Ren Chen(参考訳) 最先端グラフニューラルネットワーク(gnn)は、グラフとモデルサイズに関してスケーラビリティに制限がある。 大きなグラフでは、モデル深度を増やすことはスコープ(つまり受容場)の指数的拡大を意味することが多い。 ほんのいくつかのレイヤを越えて、2つの根本的な課題が生まれます。 1.過密による表現力の低下、及び 2.近所の爆発による高価な計算 本稿では,GNNの深さと範囲を分離し,対象エンティティ(ノードやエッジなど)の表現を生成する設計原理を提案し,まず,境界サイズの範囲として局所化された部分グラフを抽出し,その部分グラフの上部に任意の深さのGNNを適用する。 適切に抽出された部分グラフは少数の臨界近傍で構成され、無関係な部分を除く。 GNNは、どんなに深くても、グローバルグラフを「ホワイトノイズ」に過度にスムースにするのではなく、地域住民を情報表現に滑らかにする。 理論的には、グラフ信号処理(GCN)、関数近似(GraphSAGE)、トポロジカル学習(GIN)の観点から、GNN表現力を改善する。 実証的に,7つのグラフ(最大110万ノード)と6つのバックボーンGNNアーキテクチャ上では,計算処理とハードウェアコストの桁数削減による大幅な精度向上を実現している。

State-of-the-art Graph Neural Networks (GNNs) have limited scalability with respect to the graph and model sizes. On large graphs, increasing the model depth often means exponential expansion of the scope (i.e., receptive field). Beyond just a few layers, two fundamental challenges emerge: 1. degraded expressivity due to oversmoothing, and 2. expensive computation due to neighborhood explosion. We propose a design principle to decouple the depth and scope of GNNs -- to generate representation of a target entity (i.e., a node or an edge), we first extract a localized subgraph as the bounded-size scope, and then apply a GNN of arbitrary depth on top of the subgraph. A properly extracted subgraph consists of a small number of critical neighbors, while excluding irrelevant ones. The GNN, no matter how deep it is, smooths the local neighborhood into informative representation rather than oversmoothing the global graph into "white noise". Theoretically, decoupling improves the GNN expressive power from the perspectives of graph signal processing (GCN), function approximation (GraphSAGE) and topological learning (GIN). Empirically, on seven graphs (with up to 110M nodes) and six backbone GNN architectures, our design achieves significant accuracy improvement with orders of magnitude reduction in computation and hardware cost.
翻訳日:2022-01-22 03:11:15 公開日:2022-01-19
# (参考訳) pdeに基づくオンライン学習の最適戦略

PDE-Based Optimal Strategy for Unconstrained Online Learning ( http://arxiv.org/abs/2201.07877v1 )

ライセンス: CC BY 4.0
Zhiyu Zhang, Ashok Cutkosky, Ioannis Paschalidis(参考訳) unconstrained online linear optimization(olo)は、機械学習モデルのトレーニングを研究するための実用的な問題設定である。 既存の研究はいくつかの潜在的なアルゴリズムを提案しているが、一般にそのようなポテンシャル関数の設計はアドホックであり、推測に大きく依存している。 本稿では,PDE(Partial Differential Equation)を解くことにより,時間変化ポテンシャル関数を生成するフレームワークを提案する。 我々のフレームワークは、いくつかの古典的なポテンシャルを回復し、より重要なことは、新しいものを設計するための体系的なアプローチを提供する。 私たちのフレームワークのパワーは、具体例で示されています。 損失が 1-Lipschitz である場合、我々は新しい OLO アルゴリズムを設計し、いつでも後悔する上界 $C\sqrt{T}+||||\sqrt{2T}[\sqrt{\log(1+||||||/C)}+2]$ を設計する。 一致する下界を構成することによって、定数乗算器 $\sqrt{2}$ を含む主順序項が密であることを示す。 我々の知る限り、これは最適なリード定数を持つ最初のパラメータフリーアルゴリズムである。 得られた理論的利点は実験によって検証される。

Unconstrained Online Linear Optimization (OLO) is a practical problem setting to study the training of machine learning models. Existing works proposed a number of potential-based algorithms, but in general the design of such potential functions is ad hoc and heavily relies on guessing. In this paper, we present a framework that generates time-varying potential functions by solving a Partial Differential Equation (PDE). Our framework recovers some classical potentials, and more importantly provides a systematic approach to design new ones. The power of our framework is demonstrated through a concrete example. When losses are 1-Lipschitz, we design a novel OLO algorithm with anytime regret upper bound $C\sqrt{T}+||u||\sqrt{2T}[\sqrt{\log(1+||u||/C)}+2]$, where $C$ is a user-specified constant and $u$ is any comparator whose norm is unknown and unbounded a priori. By constructing a matching lower bound, we further show that the leading order term, including the constant multiplier $\sqrt{2}$, is tight. To our knowledge, this is the first parameter-free algorithm with optimal leading constant. The obtained theoretical benefits are validated by experiments.
翻訳日:2022-01-22 02:40:07 公開日:2022-01-19
# (参考訳) マッチング強化分布による事前学習ネットワークの性能向上

Enhanced Performance of Pre-Trained Networks by Matched Augmentation Distributions ( http://arxiv.org/abs/2201.07894v1 )

ライセンス: CC BY 4.0
Touqeer Ahmad, Mohsen Jafarzadeh, Akshay Raj Dhamija, Ryan Rabinowitz, Steve Cruz, Chunchun Li, Terrance E. Boult(参考訳) 画像が現代のcnnに供給されるように、トレーニングとテストの間には分布の相違がある。 最近の研究は、異なる解像度でネットワークを微調整または再訓練することで、このギャップを埋めようとした。 しかし、ネットワークの再トレーニングはめったに安く、必ずしも実現できない。 この目的のために、私たちは、列車-テストの分散シフトに対処し、事前訓練されたモデルの性能を高めるための簡単なソリューションを提案します。 具体的には,画像のセンタクロップ上での推論が必ずしも重要な判別情報が切り落とされるため,必ずしも最善ではないことを示す。 代わりに、テスト画像に対する複数のランダムな作物の結果を組み合わせることを提案する。 これは列車の時間拡張と一致するだけでなく、入力画像の完全なカバレッジも提供する。 我々は,異なるレベルの平均化,深い機能レベル,ロジットレベル,ソフトマックスレベルを用いてランダム作物の表現を組み合わせることを検討する。 本研究では,現代の深層ネットワークの様々なファミリーにおいて,その平均化による検証精度が,画像当たりの中央作物1本よりも高いことを実証する。 softmax平均化は、再トレーニングや微調整をまったく必要とせずに、さまざまな事前学習されたネットワークで最高のパフォーマンスをもたらす。 バッチ処理を備えた最新のGPUでは、プリトレーニング済みネットワークの推論に対する論文のアプローチは、バッチ内のすべてのイメージを一度に処理できるため、基本的に無料である。

There exists a distribution discrepancy between training and testing, in the way images are fed to modern CNNs. Recent work tried to bridge this gap either by fine-tuning or re-training the network at different resolutions. However re-training a network is rarely cheap and not always viable. To this end, we propose a simple solution to address the train-test distributional shift and enhance the performance of pre-trained models -- which commonly ship as a package with deep learning platforms \eg, PyTorch. Specifically, we demonstrate that running inference on the center crop of an image is not always the best as important discriminatory information may be cropped-off. Instead we propose to combine results for multiple random crops for a test image. This not only matches the train time augmentation but also provides the full coverage of the input image. We explore combining representation of random crops through averaging at different levels \ie, deep feature level, logit level, and softmax level. We demonstrate that, for various families of modern deep networks, such averaging results in better validation accuracy compared to using a single central crop per image. The softmax averaging results in the best performance for various pre-trained networks without requiring any re-training or fine-tuning whatsoever. On modern GPUs with batch processing, the paper's approach to inference of pre-trained networks, is essentially free as all images in a batch can all be processed at once.
翻訳日:2022-01-22 02:38:35 公開日:2022-01-19
# (参考訳) cptam:構成型パースツリーアグリゲーション方法

CPTAM: Constituency Parse Tree Aggregation Method ( http://arxiv.org/abs/2201.07905v1 )

ライセンス: CC BY 4.0
Adithya Kulkarni, Nasim Sabetpour, Alexey Markin, Oliver Eulenstein, Qi Li(参考訳) 自然言語処理タスクは、句構造文法に従って文の構文構造を理解するために、構成構文解析を用いる。 多くの最先端の選挙区パーサーが提案されているが、同じ文に対して異なる結果が得られるかもしれない。 本論文は, 真理の欠如による信頼性を推定することにより, 異なるパーサから選択構文木を集約する真理発見の考え方を採用する。 私たちの目標は、一貫して高品質な集計構成構文解析木を得ることです。 本稿では,構造集約と構成ラベル集約という2つのステップで,構成解析木集約問題を定式化する。 具体的には,二つの木の間の古典的な対称距離であるrobinson-foulds距離(rf)の重み付き和を最小化することにより,木構造に対する最初の真理発見法を提案する。 さまざまな言語やドメインのベンチマークデータセットで広範な実験が行われている。 実験の結果,CPTAM法は最先端の集約ベースラインよりも優れていた。 また, cptamが推定する重み付けは, 基底真理を欠いた構成パーサを適切に評価できることを実証する。

Diverse Natural Language Processing tasks employ constituency parsing to understand the syntactic structure of a sentence according to a phrase structure grammar. Many state-of-the-art constituency parsers are proposed, but they may provide different results for the same sentences, especially for corpora outside their training domains. This paper adopts the truth discovery idea to aggregate constituency parse trees from different parsers by estimating their reliability in the absence of ground truth. Our goal is to consistently obtain high-quality aggregated constituency parse trees. We formulate the constituency parse tree aggregation problem in two steps, structure aggregation and constituent label aggregation. Specifically, we propose the first truth discovery solution for tree structures by minimizing the weighted sum of Robinson-Foulds (RF) distances, a classic symmetric distance metric between two trees. Extensive experiments are conducted on benchmark datasets in different languages and domains. The experimental results show that our method, CPTAM, outperforms the state-of-the-art aggregation baselines. We also demonstrate that the weights estimated by CPTAM can adequately evaluate constituency parsers in the absence of ground truth.
翻訳日:2022-01-22 02:20:16 公開日:2022-01-19
# シグナライズド交差点におけるハイブリッド強化学習に基づくコネクテッドおよびオートマチック車両のエコ運転戦略

Hybrid Reinforcement Learning-Based Eco-Driving Strategy for Connected and Automated Vehicles at Signalized Intersections ( http://arxiv.org/abs/2201.07833v1 )

ライセンス: Link先を確認
Zhengwei Bai, Peng Hao, Wei Shangguan, Baigen Cai, Matthew Barth(参考訳) 車両間通信(v2x)と自動運転技術の両方を利用して、コネクテッドカーとオートマチックカーは、多くの交通問題に対する変革的な解決策の1つになっている。 しかし,信号交差点における混合交通環境では,交通システムの複雑さや不確実性を考慮した総合的なスループットとエネルギー効率の向上が課題となっている。 本研究では,複合交通における信号交差点におけるコネクテッド・エコドライブを支援するために,ルールベース戦略と深部強化学習を組み合わせたハイブリッド強化学習(HRL)フレームワークを提案する。 視覚知覚手法は車両間通信(V2I)と統合され、混在交通における移動性とエネルギー効率を高める。 HRLフレームワークには、ルールベースのポリシーとRLポリシの協調を運用するルールベースのドライブマネージャ、視覚とV2I情報の隠れた特徴を抽出するマルチストリームニューラルネットワーク、縦方向と横方向の両方のエコドライブアクションを生成する深いRLベースのポリシーネットワークの3つのコンポーネントがある。 このアプローチを評価するために,unityベースのシミュレータを開発し,混合トラフィック交差点シナリオを設計した。 さらに,新しい設計と比較するためにいくつかのベースラインを実装し,HRLモデルの性能評価のための数値実験を行った。 実験の結果, HRL法ではエネルギー消費を12.70%削減し, 11.75%の移動時間を節約できることがわかった。

Taking advantage of both vehicle-to-everything (V2X) communication and automated driving technology, connected and automated vehicles are quickly becoming one of the transformative solutions to many transportation problems. However, in a mixed traffic environment at signalized intersections, it is still a challenging task to improve overall throughput and energy efficiency considering the complexity and uncertainty in the traffic system. In this study, we proposed a hybrid reinforcement learning (HRL) framework which combines the rule-based strategy and the deep reinforcement learning (deep RL) to support connected eco-driving at signalized intersections in mixed traffic. Vision-perceptive methods are integrated with vehicle-to-infrastructure (V2I) communications to achieve higher mobility and energy efficiency in mixed connected traffic. The HRL framework has three components: a rule-based driving manager that operates the collaboration between the rule-based policies and the RL policy; a multi-stream neural network that extracts the hidden features of vision and V2I information; and a deep RL-based policy network that generate both longitudinal and lateral eco-driving actions. In order to evaluate our approach, we developed a Unity-based simulator and designed a mixed-traffic intersection scenario. Moreover, several baselines were implemented to compare with our new design, and numerical experiments were conducted to test the performance of the HRL model. The experiments show that our HRL method can reduce energy consumption by 12.70% and save 11.75% travel time when compared with a state-of-the-art model-based Eco-Driving approach.
翻訳日:2022-01-21 15:00:19 公開日:2022-01-19
# PROMPT:エッジネットワークアプリケーションのための動的リソース割り当てポリシーの学習

PROMPT: Learning Dynamic Resource Allocation Policies for Edge-Network Applications ( http://arxiv.org/abs/2201.07916v1 )

ライセンス: Link先を確認
Drew Penney, Bin Li, Jaroslaw Sydir, Charlie Tai, Eoin Walsh, Thomas Long, Stefan Lee, Lizhong Chen(参考訳) サーバの利用を改善し、消費電力を削減し、高優先度のレイテンシクリティカルなワークロードとベストエフォートなワークロードを共同でスケジュールすることで、総所有コストを削減する方法を模索しているサービスプロバイダが増えている。 このプラクティスでは、リソース競合を低減し、Quality of Service(QoS)の保証を維持するために、ワークロード間のリソース割り当てを厳格に行う必要があります。 事前のリソース割当作業は理想的な状況下でサーバの利用を改善することが示されているが、よりダイナミックな運用環境でqosの保証を破ったり、有効なリソース割当を見つけられなかったりすることが多い。 さらに、先行研究はQoS測定に基本的に依存しており、実際にかなりの過渡的な変動を示すことができるため、安定した制御挙動は確実に達成できない。 本稿では,アクティブなqos予測に基づく動的資源割当のための新しいフレームワークを提案する。 これらの予測は、ワークロードの変動による一時的なQoS違反を避けながら、強化学習ベースのリソースコントローラを最適なリソース割り当てへと導くのに役立つ。 評価の結果,提案手法はQoS違反を4.3倍減らし,QoS違反の深刻度を3.7倍に低減し,作業負荷性能を向上し,従来よりも全体的な電力効率を向上させる。

A growing number of service providers are exploring methods to improve server utilization, reduce power consumption, and reduce total cost of ownership by co-scheduling high-priority latency-critical workloads with best-effort workloads. This practice requires strict resource allocation between workloads to reduce resource contention and maintain Quality of Service (QoS) guarantees. Prior resource allocation works have been shown to improve server utilization under ideal circumstances, yet often compromise QoS guarantees or fail to find valid resource allocations in more dynamic operating environments. Further, prior works are fundamentally reliant upon QoS measurements that can, in practice, exhibit significant transient fluctuations, thus stable control behavior cannot be reliably achieved. In this paper, we propose a novel framework for dynamic resource allocation based on proactive QoS prediction. These predictions help guide a reinforcement-learning-based resource controller towards optimal resource allocations while avoiding transient QoS violations due to fluctuating workload demands. Evaluation shows that the proposed method incurs 4.3x fewer QoS violations, reduces severity of QoS violations by 3.7x, improves best-effort workload performance, and improves overall power efficiency compared with prior work.
翻訳日:2022-01-21 14:59:49 公開日:2022-01-19
# エネルギー効率のよい6gネットワーク用分散フェデレート学習に向けて

Towards Energy Efficient Distributed Federated Learning for 6G Networks ( http://arxiv.org/abs/2201.08270v1 )

ライセンス: Link先を確認
Sunder Ali Khowaja, Kapal Dev, Parus Khuwaja, Paolo Bellavista(参考訳) 5g/6gネットワークで実現すべき重要な概念は,無線基地局などの携帯・移動機器による通信サービスの提供である。 従来iot/edgeデバイスは、機械学習技術を使ってモデルをトレーニングするために、データをベースステーションに直接送信する必要がある。 データ転送はプライバシーの問題をもたらし、セキュリティの懸念と金銭的損失につながる可能性がある。 近年,ベースステーションとのモデル共有によるプライバシー問題を部分的に解決するために,連合学習が提案されている。 しかし、連合学習の中央集権性は、ベースステーション付近のデバイスがトレーニングされたモデルを共有することのみを許している。 さらに、長距離通信はデバイスを補完して送信電力を増大させ、エネルギー効率の懸念を生じさせる。 本研究では,遠隔デバイスにおける接続性とエネルギー効率の問題を克服する分散連合学習(DBFL)フレームワークを提案する。 DBFLフレームワークは、クラスタリングプロトコルを使用してデバイスを分散的に接続するモバイルエッジコンピューティングアーキテクチャと互換性がある。 実験結果から,従来のフェデレーション学習と比較して分類性能が7.4\%向上し,省エネルギー化が図られた。

The provision of communication services via portable and mobile devices, such as aerial base stations, is a crucial concept to be realized in 5G/6G networks. Conventionally, IoT/edge devices need to transmit the data directly to the base station for training the model using machine learning techniques. The data transmission introduces privacy issues that might lead to security concerns and monetary losses. Recently, Federated learning was proposed to partially solve privacy issues via model-sharing with base station. However, the centralized nature of federated learning only allow the devices within the vicinity of base stations to share the trained models. Furthermore, the long-range communication compels the devices to increase transmission power, which raises the energy efficiency concerns. In this work, we propose distributed federated learning (DBFL) framework that overcomes the connectivity and energy efficiency issues for distant devices. The DBFL framework is compatible with mobile edge computing architecture that connects the devices in a distributed manner using clustering protocols. Experimental results show that the framework increases the classification performance by 7.4\% in comparison to conventional federated learning while reducing the energy consumption.
翻訳日:2022-01-21 14:57:33 公開日:2022-01-19
# ROSジオレジゲーション:ロボット・オペレーティング・システムのための空中マルチスペクトル画像シミュレータ

ROS georegistration: Aerial Multi-spectral Image Simulator for the Robot Operating System ( http://arxiv.org/abs/2201.07863v1 )

ライセンス: Link先を確認
Andrew R. Willis, Kevin Brink, and Kathleen Dipple(参考訳) 本稿では,ロボット・オペレーティング・システム(ROS)とガゼボ3Dシミュレーション環境を用いたROSジオレジゲーションというソフトウェアパッケージについて述べる。 rosgeoregistrationは航空地理登録アルゴリズムのシミュレーション、テスト、デプロイのためのツールを提供し、論文に提供されているリンクで利用可能である。 Google Earth Engineデータベースからマルチスペクトル画像をダウンロードし、必要に応じて、これらの画像を単一の、おそらく非常に大きな参照イメージに組み込むモデル作成パッケージが提供される。 また、リアルタイムセンサポーズと画像形成モデルを用いて、特定基準画像を用いたシミュレーション画像を生成するGazeboプラグインと、UAV関連データの関連プラグインが提供される。 The novelty of this work is threefold: (1) this is the first system to link the massive multi-spectral imaging database of Google's Earth Engine to the Gazebo simulator, (2) this is the first example of a system that can simulate geospatially and radiometrically accurate imagery from multiple sensor views of the same terrain region, and (3) integration with other UAS tools creates a new holistic UAS simulation environment to support UAS system and subsystem development where real-world testing would generally be prohibitive. imu、gps/gnss、バロメーター、風速センサデータなど、他のペイロードセンサからのテレメトリと同期して画像を受け取ることができるクライアントアプリケーションに対して、センシングされた画像と地上の真理登録情報を公開する。 機能強調のために,Electro-Optical (EO) とSAR (Synthetic Aperture Radar) の画像センサをシミュレートするためのROSgeoregistrationと,画像ベースのUAS位置フィードバック,すなわち画像ベースの誘導ナビゲーション制御 (GNC) アプリケーションの開発と評価のためのユースケースを示す。

This article describes a software package called ROS georegistration intended for use with the Robot Operating System (ROS) and the Gazebo 3D simulation environment. ROSgeoregistration provides tools for the simulation, test and deployment of aerial georegistration algorithms and is made available with a link provided in the paper. A model creation package is provided which downloads multi-spectral images from the Google Earth Engine database and, if necessary, incorporates these images into a single, possibly very large, reference image. Additionally a Gazebo plugin which uses the real-time sensor pose and image formation model to generate simulated imagery using the specified reference image is provided along with related plugins for UAV relevant data. The novelty of this work is threefold: (1) this is the first system to link the massive multi-spectral imaging database of Google's Earth Engine to the Gazebo simulator, (2) this is the first example of a system that can simulate geospatially and radiometrically accurate imagery from multiple sensor views of the same terrain region, and (3) integration with other UAS tools creates a new holistic UAS simulation environment to support UAS system and subsystem development where real-world testing would generally be prohibitive. Sensed imagery and ground truth registration information is published to client applications which can receive imagery synchronously with telemetry from other payload sensors, e.g., IMU, GPS/GNSS, barometer, and windspeed sensor data. To highlight functionality, we demonstrate ROSgeoregistration for simulating Electro-Optical (EO) and Synthetic Aperture Radar (SAR) image sensors and an example use case for developing and evaluating image-based UAS position feedback, i.e., pose for image-based Guidance Navigation and Control (GNC) applications.
翻訳日:2022-01-21 14:55:42 公開日:2022-01-19
# Degree-Corrected Tensor Block Modelによるマルチウェイ球面クラスタリング

Multiway Spherical Clustering via Degree-Corrected Tensor Block Models ( http://arxiv.org/abs/2201.07401v1 )

ライセンス: Link先を確認
Jiaxin Hu, Miaoyan Wang(参考訳) 未知の次数不均一性の存在下でのマルチウェイクラスタリングの問題点を考察する。 このようなデータ問題は、リコメンデーションシステム、ニューロイメージング、コミュニティ検出、ソーシャルネットワークにおけるハイパーグラフ分割などのアプリケーションで一般的に発生する。 次数の不均一性の許容はクラスタリングモデルにおいて大きな柔軟性をもたらすが、余分な複雑さは統計と計算の両方において重大な課題をもたらす。 本稿では,推定精度を保証した次数補正テンソルブロックモデルを開発した。 本稿では,角度分離性の概念に基づくクラスタリング性能の位相遷移について述べるとともに,異なる統計計算行動に対応する3つの信号対雑音レジームを特徴付ける。 特に,3次以上のテンソルに対してのみ,本質的な統計的-計算的ギャップが生じることを示す。 さらに,軽度信号条件下で正確なクラスタリングを実現する効率的な多項式時間アルゴリズムを開発した。 本手法の有効性は,ヒト脳コネクトームプロジェクトとペルー立法ネットワークデータセットの2つのデータアプリケーションを用いて実証した。

We consider the problem of multiway clustering in the presence of unknown degree heterogeneity. Such data problems arise commonly in applications such as recommendation system, neuroimaging, community detection, and hypergraph partitions in social networks. The allowance of degree heterogeneity provides great flexibility in clustering models, but the extra complexity poses significant challenges in both statistics and computation. Here, we develop a degree-corrected tensor block model with estimation accuracy guarantees. We present the phase transition of clustering performance based on the notion of angle separability, and we characterize three signal-to-noise regimes corresponding to different statistical-computational behaviors. In particular, we demonstrate that an intrinsic statistical-to-computational gap emerges only for tensors of order three or greater. Further, we develop an efficient polynomial-time algorithm that provably achieves exact clustering under mild signal conditions. The efficacy of our procedure is demonstrated through two data applications, one on human brain connectome project, and another on Peru Legislation network dataset.
翻訳日:2022-01-21 14:52:21 公開日:2022-01-19
# ハイパーパラメータ最適化に基づく自動パレート最適性能と最小品質設定による近隣グラフの類似性探索

Similarity search on neighbor's graphs with automatic Pareto optimal performance and minimum expected quality setups based on hyperparameter optimization ( http://arxiv.org/abs/2201.07917v1 )

ライセンス: Link先を確認
Eric S. Tellez and Guillermo Ruiz(参考訳) 本書では,隣接グラフに基づいて最寄りの近傍を探索する自動調整アルゴリズムを導入し,最適化メタヒューリスティックスを用いて,品質と探索速度を自動的にパレート最適化探索する。 提案手法は,他の最先端の類似性検索手法と併用し,利便性と競争性を示す。

This manuscript introduces an autotuned algorithm for searching nearest neighbors based on neighbor graphs and optimization metaheuristics to produce Pareto-optimal searches for quality and search speed automatically; the same strategy is also used to produce indexes that achieve a minimum quality. Our approach is described and benchmarked with other state-of-the-art similarity search methods, showing convenience and competitiveness.
翻訳日:2022-01-21 14:32:09 公開日:2022-01-19
# 感情認識システムの教師なしパーソナライゼーション--音声における妥当性の外部化の特異性

Unsupervised Personalization of an Emotion Recognition System: The Unique Properties of the Externalization of Valence in Speech ( http://arxiv.org/abs/2201.07876v1 )

ライセンス: Link先を確認
Kusha Sridhar and Carlos Busso(参考訳) 発話の原子価の予測は重要であるが、難しい問題である。 音声におけるヴァレンスの外部化は話者に依存した手がかりを持ち、覚醒や支配といった他の感情的属性の予測よりもかなり低いパフォーマンスに寄与する。 音声からヴァレンス予測を改善するための実用的なアプローチは、テストセットのターゲット話者にモデルを適用することである。 音声感情認識(ser)システムを特定の話者に適応させることは、特にディープニューラルネットワーク(dnn)では、数百万のパラメータを最適化する必要があるため、難しい問題である。 本研究は,テストセットの話者と同じような音響パターンを持つ列車の話者を探索することにより,この問題に対処するための教師なしアプローチを提案する。 選択した話者の音声サンプルを用いて適応セットを作成する。 この手法は,これらの音声サンプルに適応した事前学習モデルを用いた伝達学習を利用する。 そこで我々は,ユニークな話者,過剰サンプリング,重み付けアプローチという3つの適応戦略を提案する。 これらの方法は、ヴァレンスモデルのパーソナライズにおける適応セットの使用によって異なる。 その結果, 精度予測モデルは, 教師なしアプローチで効率的にパーソナライズでき, 相対的な改善が13.52%に達することがわかった。

The prediction of valence from speech is an important, but challenging problem. The externalization of valence in speech has speaker-dependent cues, which contribute to performances that are often significantly lower than the prediction of other emotional attributes such as arousal and dominance. A practical approach to improve valence prediction from speech is to adapt the models to the target speakers in the test set. Adapting a speech emotion recognition (SER) system to a particular speaker is a hard problem, especially with deep neural networks (DNNs), since it requires optimizing millions of parameters. This study proposes an unsupervised approach to address this problem by searching for speakers in the train set with similar acoustic patterns as the speaker in the test set. Speech samples from the selected speakers are used to create the adaptation set. This approach leverages transfer learning using pre-trained models, which are adapted with these speech samples. We propose three alternative adaptation strategies: unique speaker, oversampling and weighting approaches. These methods differ on the use of the adaptation set in the personalization of the valence models. The results demonstrate that a valence prediction model can be efficiently personalized with these unsupervised approaches, leading to relative improvements as high as 13.52%.
翻訳日:2022-01-21 14:31:09 公開日:2022-01-19
# ASLにおける表情と感情の役割

The Role of Facial Expressions and Emotion in ASL ( http://arxiv.org/abs/2201.07906v1 )

ライセンス: Link先を確認
Lee Kezar, Pei Zhou(参考訳) アメリカ手話における表情と感情の関係の定量化に関する先行研究はほとんどない。 本報告では,これらの関係を確率と予測を通じて研究するための2つの方法を提案する。 語彙的感情データセットと組み合わせた顔特徴を手作業でアノテートした自然署名の大規模なコーパスを用いて,感情と顔の間には多くの関係性があり,単純な分類器は,顔を見るだけで,広い感情カテゴリの観点で誰かが何を言っているのかを予測できることがわかった。

There is little prior work on quantifying the relationships between facial expressions and emotionality in American Sign Language. In this final report, we provide two methods for studying these relationships through probability and prediction. Using a large corpus of natural signing manually annotated with facial features paired with lexical emotion datasets, we find that there exist many relationships between emotionality and the face, and that a simple classifier can predict what someone is saying in terms of broad emotional categories only by looking at the face.
翻訳日:2022-01-21 14:27:06 公開日:2022-01-19
# correlationd-informed neural networks: マイクロチャネルの圧力降下を予測する新しい機械学習フレームワーク

Correlated-informed neural networks: a new machine learning framework to predict pressure drop in micro-channels ( http://arxiv.org/abs/2201.07835v1 )

ライセンス: Link先を確認
J.A. Montanez-Barrera, J.M. Barroso-Maldonado, A.F. Bedoya-Santacruz, Adrian Mota-Babiloni(参考訳) 高温熱交換器の熱解析と幾何設計において, 強制沸騰現象の高精度圧力降下推定が重要である。 しかし、現在の圧力降下予測法には、精度の欠如と異なる状況への一般化の2つの問題がある。 本研究では, 人工ニューラルネットワーク(ANN)技術の適用における新たなパラダイムである相関情報ニューラルネットワーク(CoINN)と, マイクロチャネル内のゼオトロピック混合物の圧力降下を予測するためのマッピングツールとしての圧力降下相関について述べる。 提案手法は,データセットの削減を伴う深層学習問題によく用いられる転送学習に着想を得たものである。 提案手法は, 降圧に対する太陽・三島相関の知識をANNに伝達することにより, ANNの性能を向上させる。 マイクロチャネルの圧力降下に物理的および現象学的に影響を及ぼす相関は、ANNの性能と一般化能力を大幅に向上させる。 最終アーキテクチャは、混合蒸気の品質、マイクロチャネル内径、利用可能な圧力降下相関の3つの入力で構成されている。 その結果,訓練に使用する実験データと平均相対誤差 (mre) が6%, 太陽・三島相関 (13%) よりも低い後方試験で得られる利点が得られた。 さらに、このアプローチは他の混合物や実験的な設定にも拡張できるが、これは熱伝達への応用にANNを使用して相関関係をマッピングする他の手法に欠けている特徴である。

Accurate pressure drop estimation in forced boiling phenomena is important during the thermal analysis and the geometric design of cryogenic heat exchangers. However, current methods to predict the pressure drop have one of two problems: lack of accuracy or generalization to different situations. In this work, we present the correlated-informed neural networks (CoINN), a new paradigm in applying the artificial neural network (ANN) technique combined with a successful pressure drop correlation as a mapping tool to predict the pressure drop of zeotropic mixtures in micro-channels. The proposed approach is inspired by Transfer Learning, highly used in deep learning problems with reduced datasets. Our method improves the ANN performance by transferring the knowledge of the Sun & Mishima correlation for the pressure drop to the ANN. The correlation having physical and phenomenological implications for the pressure drop in micro-channels considerably improves the performance and generalization capabilities of the ANN. The final architecture consists of three inputs: the mixture vapor quality, the micro-channel inner diameter, and the available pressure drop correlation. The results show the benefits gained using the correlated-informed approach predicting experimental data used for training and a posterior test with a mean relative error (mre) of 6%, lower than the Sun & Mishima correlation of 13%. Additionally, this approach can be extended to other mixtures and experimental settings, a missing feature in other approaches for mapping correlations using ANNs for heat transfer applications.
翻訳日:2022-01-21 14:02:55 公開日:2022-01-19
# 確率的最適化を用いた連合学習のための通信効率の高いデバイススケジューリング

Communication-Efficient Device Scheduling for Federated Learning Using Stochastic Optimization ( http://arxiv.org/abs/2201.07912v1 )

ライセンス: Link先を確認
Jake Perazzone, Shiqiang Wang, Mingyue Ji, Kevin Chan(参考訳) フェデレートラーニング(FL)は、ユーザのローカルデータセットをプライバシ保護の方法で活用する分散機械学習において有用なツールである。 しかし、FLを制約された無線環境にデプロイする場合、デバイス間の断続接続、異種接続品質、および非i.d.データにより、トレーニングモデルを時間効率で行うことは難しい課題である。 本稿では,各ラウンド毎に任意のデバイス選択確率を持つ i.i.d. および non-i.d. データセット上で fl を用いた非凸損失関数の新しい収束解析を行う。 次に、導出収束境界を用いて確率的最適化を行い、伝送電力制約下での収束境界と平均通信時間の関数を最小化する新しいクライアント選択と電力割当アルゴリズムを開発する。 最小化問題に対する分析的な解決策を見つける。 このアルゴリズムの重要な特徴の1つは、チャネル統計の知識は不要であり、瞬時チャネル状態情報のみを知る必要があることである。 FEMNIST と CIFAR-10 のデータセットを用いて,本アルゴリズムを用いて,一様ランダムな参加よりも通信時間を大幅に削減できることを示す。

Federated learning (FL) is a useful tool in distributed machine learning that utilizes users' local datasets in a privacy-preserving manner. When deploying FL in a constrained wireless environment; however, training models in a time-efficient manner can be a challenging task due to intermittent connectivity of devices, heterogeneous connection quality, and non-i.i.d. data. In this paper, we provide a novel convergence analysis of non-convex loss functions using FL on both i.i.d. and non-i.i.d. datasets with arbitrary device selection probabilities for each round. Then, using the derived convergence bound, we use stochastic optimization to develop a new client selection and power allocation algorithm that minimizes a function of the convergence bound and the average communication time under a transmit power constraint. We find an analytical solution to the minimization problem. One key feature of the algorithm is that knowledge of the channel statistics is not required and only the instantaneous channel state information needs to be known. Using the FEMNIST and CIFAR-10 datasets, we show through simulations that the communication time can be significantly decreased using our algorithm, compared to uniformly random participation.
翻訳日:2022-01-21 13:57:30 公開日:2022-01-19
# クローズテストによる機械共通感覚の評価

Evaluating Machine Common Sense via Cloze Testing ( http://arxiv.org/abs/2201.07902v1 )

ライセンス: Link先を確認
Ehsan Qasemi, Lee Kezar, Jay Pujara, Pedro Szekely(参考訳) 言語モデル (LM) は, CS の質問応答における技術性能の状態を示すが, この能力がCS の人間レベルの熟達を示唆するかどうかは未解決のままである。 LMの限界と強みを理解することは、研究者がこれらのモデルを改善するのに役立つ。 我々は, cs の異なる側面における性能を体系的に定量化するために, 一連のテストと測定を考案する。 本研究では,単語埋め込みと組み合わせたクローゼテストを用いて,lmの堅牢性と信頼性を測定する。 その結果,言語モデルでは人間のような精度が得られやすいが,信頼性は低いことがわかった。 将来の作業では、この情報を利用して、シンボリック知識と分散知識の集合のような、より複雑なシステムを構築することができる。

Language models (LMs) show state of the art performance for common sense (CS) question answering, but whether this ability implies a human-level mastery of CS remains an open question. Understanding the limitations and strengths of LMs can help researchers improve these models, potentially by developing novel ways of integrating external CS knowledge. We devise a series of tests and measurements to systematically quantify their performance on different aspects of CS. We propose the use of cloze testing combined with word embeddings to measure the LM's robustness and confidence. Our results show than although language models tend to achieve human-like accuracy, their confidence is subpar. Future work can leverage this information to build more complex systems, such as an ensemble of symbolic and distributed knowledge.
翻訳日:2022-01-21 13:55:55 公開日:2022-01-19
# asl video corpora & sign bank: resources available via the american sign language language research project (asllrp)

ASL Video Corpora & Sign Bank: Resources Available through the American Sign Language Linguistic Research Project (ASLLRP) ( http://arxiv.org/abs/2201.07899v1 )

ライセンス: Link先を確認
Carol Neidle, Augustine Opoku, Dimitris Metaxas(参考訳) American Sign Language Linguistic Research Project (ASLLRP)は、高品質のASLビデオデータへのインターネットアクセスを提供する。 署名のマニュアルおよび非マニュアルコンポーネントはSignStream(R)を使用して言語的に注釈付けされている。 最近拡張されたビデオコーパスは、私たちが設計したデータアクセスインターフェース(dai2)を通じて閲覧および検索することができます。 私たちのコーパスからのデータもダウンロードできます。アノテーションはXMLエクスポートフォーマットで利用可能です。 ASLLRP Sign Bank も開発しており, 約6,000 個の語彙記号のサインエントリと, 英語をベースとしたグルースと, 合計41,830 個の語彙記号(約300ジェスチャー, 1,000 個の指先記号, 475 個の分類器の例)が組み込まれている。 Sign Bankもインターネット上でアクセス可能で検索可能であり、SignStream(R)内(言語アノテーションや視覚言語データの分析を容易にするソフトウェア)からアクセスして、アノテーションをより正確かつ効率的にすることができる。 ここで利用可能なリソースについて説明する。 これらのデータは、言語学やビデオによるコンピュータベースの手話認識において、様々な種類の研究に使われてきました。

The American Sign Language Linguistic Research Project (ASLLRP) provides Internet access to high-quality ASL video data, generally including front and side views and a close-up of the face. The manual and non-manual components of the signing have been linguistically annotated using SignStream(R). The recently expanded video corpora can be browsed and searched through the Data Access Interface (DAI 2) we have designed; it is possible to carry out complex searches. The data from our corpora can also be downloaded; annotations are available in an XML export format. We have also developed the ASLLRP Sign Bank, which contains almost 6,000 sign entries for lexical signs, with distinct English-based glosses, with a total of 41,830 examples of lexical signs (in addition to about 300 gestures, over 1,000 fingerspelled signs, and 475 classifier examples). The Sign Bank is likewise accessible and searchable on the Internet; it can also be accessed from within SignStream(R) (software to facilitate linguistic annotation and analysis of visual language data) to make annotations more accurate and efficient. Here we describe the available resources. These data have been used for many types of research in linguistics and in computer-based sign language recognition from video; examples of such research are provided in the latter part of this article.
翻訳日:2022-01-21 13:33:53 公開日:2022-01-19
# データセットバイアスの複数の源が存在する場合のAIアルゴリズムの下位診断の検討

Investigating underdiagnosis of AI algorithms in the presence of multiple sources of dataset bias ( http://arxiv.org/abs/2201.07856v1 )

ライセンス: Link先を確認
Melanie Bernhardt, Charles Jones, Ben Glocker(参考訳) 深層学習モデルは、臨床意思決定を支援する画像ベースの診断に大きな可能性を示している。 同時に、多くのレポートが、トレーニングデータに埋め込まれた人間のバイアスによって、機械学習が既存の健康格差を増幅する可能性があるという潜在的なリスクを提起している。 公平な人工知能システムを構築したいのであれば、バイアスの再現や増幅の程度を慎重に検討することが非常に重要です。 seyyed-kalantariらはこの会話を進め、集団における病原体分類器の性能を分析した。 この分析から,下垂体症に関連するパフォーマンスの格差が指摘され,さらなる注意を払わなければならないと考えられる領域が特定される。 具体的には、トレーニングデータと同じバイアス分布から引き出されたデータ、特に情報源やバイアス量が不明な場合に、モデルフェアネスを評価することに関連する理論的、実践的な困難を強調したい。

Deep learning models have shown great potential for image-based diagnosis assisting clinical decision making. At the same time, an increasing number of reports raise concerns about the potential risk that machine learning could amplify existing health disparities due to human biases that are embedded in the training data. It is of great importance to carefully investigate the extent to which biases may be reproduced or even amplified if we wish to build fair artificial intelligence systems. Seyyed-Kalantari et al. advance this conversation by analysing the performance of a disease classifier across population subgroups. They raise performance disparities related to underdiagnosis as a point of concern; we identify areas from this analysis which we believe deserve additional attention. Specifically, we wish to highlight some theoretical and practical difficulties associated with assessing model fairness through testing on data drawn from the same biased distribution as the training data, especially when the sources and amount of biases are unknown.
翻訳日:2022-01-21 13:30:45 公開日:2022-01-19
# (参考訳) 言語モデル駆動型会話推薦における意図しないバイアス

Unintended Bias in Language Model-driven Conversational Recommendation ( http://arxiv.org/abs/2201.06224v2 )

ライセンス: CC BY 4.0
Tianshu Shen, Jiaru Li, Mohamed Reda Bouadjenek, Zheda Mai, Scott Sanner(参考訳) Conversational Recommendation Systems (CRSs) は、最近、様々な好み文のバリエーションを意味論的に解釈できるBERTのような事前訓練された言語モデル (LM) を活用し始めている。 しかし、事前学習されたLMは、トレーニングデータに固有のバイアスが伴うことがよく知られており、これは、CRSのための微調整に使用されるドメイン固有の言語データ(例えば、ユーザレビュー)に埋め込まれたバイアスによって悪化する可能性がある。 本研究では,最近導入したcrsのlm-driven recommendation backbone (lmrec) について検討し,レストランの推薦価格やカテゴリー分布が著しく変化した際に,リコメンデーションに影響を与えない名前や性的指向の間接的指標といった意図しないバイアスや位置など,意図しないバイアスについて検討した。 その結果,lmrecは有害なステレオタイプを推奨することで強化できることが強く示唆された。 例えば、黒人コミュニティに関連する名前のオフハンド言及は推奨レストランの価格分布を著しく下げる一方、男性関連の名前のオフハンド言及は推奨アルコール飲食施設の増加につながっている。 LM駆動CRSの言語処理能力が向上する赤旗は、将来のデプロイされたCRSアシスタントにおける意図しないバイアスを軽減し、数十万のエンドユーザにリーチできるという重大な課題を伴わない。

Conversational Recommendation Systems (CRSs) have recently started to leverage pretrained language models (LM) such as BERT for their ability to semantically interpret a wide range of preference statement variations. However, pretrained LMs are well-known to be prone to intrinsic biases in their training data, which may be exacerbated by biases embedded in domain-specific language data(e.g., user reviews) used to fine-tune LMs for CRSs. We study a recently introduced LM-driven recommendation backbone (termed LMRec) of a CRS to investigate how unintended bias i.e., language variations such as name references or indirect indicators of sexual orientation or location that should not affect recommendations manifests in significantly shifted price and category distributions of restaurant recommendations. The alarming results we observe strongly indicate that LMRec has learned to reinforce harmful stereotypes through its recommendations. For example, offhand mention of names associated with the black community significantly lowers the price distribution of recommended restaurants, while offhand mentions of common male-associated names lead to an increase in recommended alcohol-serving establishments. These and many related results presented in this work raise a red flag that advances in the language handling capability of LM-drivenCRSs do not come without significant challenges related to mitigating unintended bias in future deployed CRS assistants with a potential reach of hundreds of millions of end-users.
翻訳日:2022-01-21 07:01:20 公開日:2022-01-19
# (参考訳) Deep $\Delta$-Interpolator によるモーションインベント

Motion Inbetweening via Deep $\Delta$-Interpolator ( http://arxiv.org/abs/2201.06701v2 )

ライセンス: CC BY 4.0
Boris N. Oreshkin, Antonios Valkanas, F\'elix G. Harvey, Louis-Simon M\'enard, Florent Bocquelet, Mark J. Coates(参考訳) アニメーション業界で一般的にはモーションインベンションとして知られる中間フレームを合成するタスクは、球状線形補間器をベースラインとしてデルタモードで深層学習補間器が動作した場合、より正確かつ効果的に解決できることを示す。 公開されているLaFAN1データセット上で実証的な結果を示す。 我々は、この結果をさらに一般化し、最後の既知のフレーム(ゼロ速度モデルとしても知られる)の参照に関して$\Delta$-regimeが実現可能であることを示す。 これは、入力フレームに局所的な参照フレームの深いインベントワイニングが、以前の研究で提唱されたグローバル(世界)参照フレームのインベントワイニングよりも正確で堅牢である、というより一般的な結論を支持する。 私たちのコードはhttps://github.com/boreshkinai/delta-interpolatorで公開しています。

We show that the task of synthesizing missing middle frames, commonly known as motion inbetweening in the animation industry, can be solved more accurately and effectively if a deep learning interpolator operates in the delta mode, using the spherical linear interpolator as a baseline. We demonstrate our empirical findings on the publicly available LaFAN1 dataset. We further generalize this result by showing that the $\Delta$-regime is viable with respect to the reference of the last known frame (also known as the zero-velocity model). This supports the more general conclusion that deep inbetweening in the reference frame local to input frames is more accurate and robust than inbetweening in the global (world) reference frame advocated in previous work. Our code is publicly available at https://github.com/boreshkinai/delta-interpolator.
翻訳日:2022-01-21 02:37:11 公開日:2022-01-19
# (参考訳) COPA-SSE:Commonsense Reasoningのための半構造化説明

COPA-SSE: Semi-structured Explanations for Commonsense Reasoning ( http://arxiv.org/abs/2201.06777v2 )

ライセンス: CC BY 4.0
Ana Brassard, Benjamin Heinzerling, Pride Kavumba, Kentaro Inui(参考訳) 我々は,COPA質問に対する英語の半構造化・常識的説明をクラウドソーシングした新しいデータセットであるCOPA-SSE(Semi-Structured Explanations for COPA)を提案する。 これらの説明は、概念ネットの関係を持つが自由に書かれた三重類似の常識文の集合として形式化されている。 この半構造化フォーマットは、構造化データの高品質だが低いカバレッジと低い品質と自由形式のクラウドソーシングとのバランスをとる。 それぞれの説明には、人間による品質評価も含まれている。 慣れ親しんだ形式で、これらの説明は知識グラフを操作する常識的推論者に向けられ、そのようなシステムを改善するための継続的な取り組みの出発点となる。

We present Semi-Structured Explanations for COPA (COPA-SSE), a new crowdsourced dataset of 9,747 semi-structured, English common sense explanations for COPA questions. The explanations are formatted as a set of triple-like common sense statements with ConceptNet relations but freely written concepts. This semi-structured format strikes a balance between the high quality but low coverage of structured data and the lower quality but high coverage of free-form crowdsourcing. Each explanation also includes a set of human-given quality ratings. With their familiar format, the explanations are geared towards commonsense reasoners operating on knowledge graphs and serve as a starting point for ongoing work on improving such systems.
翻訳日:2022-01-21 02:20:07 公開日:2022-01-19
# (参考訳) Denoising Trainingによるニューラルマシン翻訳の改善

Improving Neural Machine Translation by Denoising Training ( http://arxiv.org/abs/2201.07365v1 )

ライセンス: CC0 1.0
Liang Ding, Keqin Peng and Dacheng Tao(参考訳) 本稿では,ニューラルネットワーク翻訳のための簡易かつ効果的な事前学習戦略 {D}en{o}ising {T}raining DoTを提案する。 具体的には、モデルパラメータを初期段階でソースおよびターゲットサイドのデノイジングタスクで更新し、モデルを正常にチューニングします。 特に、我々のアプローチはパラメータやトレーニングステップを増やさず、単に並列データを必要とします。 実験によると、dotは12のバイリンガルと16の多言語方向(データサイズは80kから20m)で一貫してニューラルネットワークの翻訳性能を向上させる。 さらに,dotが既存のデータ操作戦略,すなわちカリキュラム学習,知識蒸留,データの多様化,双方向トレーニング,バックトランスレーションを補完できることも示す。 その結果,DoTは高リソース環境での事前学習モデルmBARTよりも優れていることがわかった。 分析によるとdotは、新しいドメイン内クロスリンガル事前学習戦略であり、タスク関連の自己スーパービジョンによりさらなる改善を提供する可能性がある。

We present a simple and effective pretraining strategy {D}en{o}ising {T}raining DoT for neural machine translation. Specifically, we update the model parameters with source- and target-side denoising tasks at the early stage and then tune the model normally. Notably, our approach does not increase any parameters or training steps, requiring the parallel data merely. Experiments show that DoT consistently improves the neural machine translation performance across 12 bilingual and 16 multilingual directions (data size ranges from 80K to 20M). In addition, we show that DoT can complement existing data manipulation strategies, i.e. curriculum learning, knowledge distillation, data diversification, bidirectional training, and back-translation. Encouragingly, we found that DoT outperforms costly pretrained model mBART in high-resource settings. Analyses show DoT is a novel in-domain cross-lingual pretraining strategy and could offer further improvements with task-relevant self-supervisions.
翻訳日:2022-01-21 00:00:53 公開日:2022-01-19
# (参考訳) 先見的な学習: 未来への回帰

Prospective Learning: Back to the Future ( http://arxiv.org/abs/2201.07372v1 )

ライセンス: CC BY 4.0
Joshua T. Vogelstein, Timothy Verstynen, Konrad P. Kording, Leyla Isik, John W. Krakauer, Ralph Etienne-Cummings, Elizabeth L. Ogburn, Carey E. Priebe, Randal Burns, Kwame Kutten, James J. Knierim, James B. Potash, Thomas Hartung, Lena Smirnova, Paul Worley, Alena Savonenko, Ian Phillips, Michael I. Miller, Rene Vidal, Jeremias Sulam, Adam Charles, Noah J. Cowan, Maxim Bichuch, Archana Venkataraman, Chen Li, Nitish Thakor, Justus M Kebschull, Marilyn Albert, Jinchong Xu, Marshall Hussain Shuler, Brian Caffo, Tilak Ratnanather, Ali Geisa, Seung-Eon Roh, Eva Yezerets, Meghana Madhyastha, Javier J. How, Tyler M. Tomita, Jayanta Dey, Ningyuan (Teresa) Huang, Jong M. Shin, Kaleab Alemayehu Kinfu, Pratik Chaudhari, Ben Baker, Anna Schapiro, Dinesh Jayaraman, Eric Eaton, Michael Platt, Lyle Ungar, Leila Wehbe, Adam Kepecs, Amy Christensen, Onyema Osuagwu, Bing Brunton, Brett Mensh, Alysson R. Muotri, Gabriel Silva, Francesca Puppo, Florian Engert, Elizabeth Hillman, Julia Brown, Chris White, Weiwei Yang(参考訳) ナチュラル・インテリジェンス(NI)と人工知能(AI)の両方の研究は、未来は過去のものと似ていると一般的に仮定している。 これを「振り返り学習」と呼ぶ。 例えば、知性は、オブジェクトの一連の写真とそれらの名前を見て、それらを命名することを学ぶかもしれない。 振り返り学習インテリジェンスは、単に同じオブジェクトのより多くの写真に名前を付けることができる。 これは真の知性ではない、と私たちは主張する。 多くの現実世界の問題では、NIとAIの両方が不確実な未来について学ぶ必要がある。 どちらも、基本的な新しいオブジェクトの命名や、これらのオブジェクトを新しいコンテキストで効果的に使用したり、これまで管理されていなかった目標を達成するなど、将来のタスクに役立つように内部モデルを更新する必要がある。 私たちが「プロスペクティブ・ラーニング」と呼ぶ未来のために学ぶ能力。 予測学習を共同で定義する4つの関連要因を述べる。 継続的学習は、知性が将来最も役に立つと信じている過去のこれらの側面を思い出せるようにする。 先進的な制約(バイアスや事前を含む)は、将来の問題に適用可能な一般的な解を見つけるインテリジェンスを促進する。 好奇心は将来の意思決定を知らせる行動を取る動機となる。 因果推定(Causal Estimation)は、特定の結果に対する選択行動のガイドとなる関係構造を学習することを可能にする。 ふりかえりから前向きな学習へのパラダイムシフトは、知性を研究するコミュニティが既存のボトルネックを統一し、克服し、より効果的に説明し、拡張し、エンジニアの知性を高めることを可能にします。

Research on both natural intelligence (NI) and artificial intelligence (AI) generally assumes that the future resembles the past: intelligent agents or systems (what we call 'intelligence') observe and act on the world, then use this experience to act on future experiences of the same kind. We call this 'retrospective learning'. For example, an intelligence may see a set of pictures of objects, along with their names, and learn to name them. A retrospective learning intelligence would merely be able to name more pictures of the same objects. We argue that this is not what true intelligence is about. In many real world problems, both NIs and AIs will have to learn for an uncertain future. Both must update their internal models to be useful for future tasks, such as naming fundamentally new objects and using these objects effectively in a new context or to achieve previously unencountered goals. This ability to learn for the future we call 'prospective learning'. We articulate four relevant factors that jointly define prospective learning. Continual learning enables intelligences to remember those aspects of the past which it believes will be most useful in the future. Prospective constraints (including biases and priors) facilitate the intelligence finding general solutions that will be applicable to future problems. Curiosity motivates taking actions that inform future decision making, including in previously unmet situations. Causal estimation enables learning the structure of relations that guide choosing actions for specific outcomes, even when the specific action-outcome contingencies have never been observed before. We argue that a paradigm shift from retrospective to prospective learning will enable the communities that study intelligence to unite and overcome existing bottlenecks to more effectively explain, augment, and engineer intelligences.
翻訳日:2022-01-20 23:48:19 公開日:2022-01-19
# (参考訳) ニューラルコードモデルにおけるProject-Specific Biasの展開

Unveiling Project-Specific Bias in Neural Code Models ( http://arxiv.org/abs/2201.07381v1 )

ライセンス: CC BY 4.0
Zhiming Li, Yanzhou Li, Tianlin Li, Mengnan Du, Bozhi Wu, Yushi Cao, Xiaofei Xie, Yi Li, Yang Liu(参考訳) ニューラルコードモデルは、型推論や脆弱性検出など、多くのソフトウェア分析タスクに対して大幅に改善されている。 プロジェクト内独立かつ同一分散(IID)トレーニングおよび検証設定下では,このようなモデルの性能は良好であるにもかかわらず,実際のプロジェクト間アウトオブディストリビューション(OOD)設定に一般化できないことが多い。 本研究では,プロジェクト固有の,自己定義変数や関数名などの一般化不可能なトークンを下流予測に頼り,プロジェクト固有のバイアス学習行動として定式化することで,そのような現象が引き起こされることを示す。 本研究では,共起確率と逆文書頻度を組み合わせ,トークンとラベルの関連度とそのプロジェクト固有性を測定することで,このような振る舞いをCond-Idfと呼ぶ。 この近似は、事前の知識と適切な正規化がなければ、モデルは予測に急激な統計的手がかりを利用する傾向があることを示している。 そこで本研究では, サンプル間の潜在論理関係を活用し, 適切な行動に基づいて推論するモデルを定式化するバイアス緩和機構バッチ分割正則化(bpr)を提案する。 2つのディープコードベンチマークの実験結果は、bprがiidデータの精度を犠牲にすることなく、プロジェクト間oodの一般化と敵対的ロバスト性の両方を改善できることを示している。

Neural code models have introduced significant improvements over many software analysis tasks like type inference, vulnerability detection, etc. Despite the good performance of such models under the common intra-project independent and identically distributed (IID) training and validation setting, we observe that they usually fail to generalize to real-world inter-project out-of-distribution (OOD) setting. In this work, we show that such phenomenon is caused by model heavily relying on project-specific, ungeneralizable tokens like self-defined variable and function names for downstream prediction, and we formulate it as the project-specific bias learning behavior. We propose a measurement to interpret such behavior, termed as Cond-Idf, which combines co-occurrence probability and inverse document frequency to measure the level of relatedness of token with label and its project-specificness. The approximation indicates that without proper regularization with prior knowledge, model tends to leverage spurious statistical cues for prediction. Equipped with these observations, we propose a bias mitigation mechanism Batch Partition Regularization (BPR) that regularizes model to infer based on proper behavior by leveraging latent logic relations among samples. Experimental results on two deep code benchmarks indicate that BPR can improve both inter-project OOD generalization and adversarial robustness while not sacrificing accuracy on IID data.
翻訳日:2022-01-20 23:14:14 公開日:2022-01-19
# (参考訳) オートエンコーダに基づくオンラインディープラーニング

Online Deep Learning based on Auto-Encoder ( http://arxiv.org/abs/2201.07383v1 )

ライセンス: CC BY 4.0
Si-si Zhang, Jian-wei Liu, Xin Zuo, Run-kun Lu, Si-ming Lian(参考訳) オンライン学習は、大量のリアルタイムおよび高速データをスケッチする重要な技術手段である。 この方向性に注目が集まっているが,本分野の文献の多くは,(1)抽象的階層的潜在情報のうち,たとえこれらの抽象的階層的潜在表現を抽出しても,例のクラスラベルをよりよく予測するのに有用であったとしても,その基礎となる抽象的階層的潜在情報はほとんど考えていない,(2)未確認データポイントの事前割り当てモデルは,確率分布の進化を伴うストリーミングデータのモデリングには適さない,という3つの問題を無視している。 この課題はモデルの柔軟性と呼ばれる。 したがって、このことを念頭に置いて、私たちが設計する必要があるオンラインディープラーニングモデルは、可変な基盤構造を持つべきである。(3)さらに、データ分散が変化するデータストリーミングを扱う際に、これらの抽象階層的潜在表現を融合して、より優れた分類性能を達成することは最も重要である。 そこで本研究では,auto-encoder (odlae) に基づく2段階のオンライン深層学習を提案する。 自己エンコーダに基づいて,レコンストラクション損失を考慮し,インスタンスの抽象階層的潜在表現を抽出する。予測損失に基づいて,エンコーダの各隠れレイヤの分類結果を融合して得られる出力レベル融合戦略と,すべての隠れレイヤ出力を融合するために自己アテンション機構を活用した特徴レベル融合戦略と,2つの融合戦略を考案する。 最後に,アルゴリズムのロバスト性を向上させるため,階層的潜在表現を生成するために,雑音化オートエンコーダも活用する。 提案アルゴリズム (ODLAE) の有効性を検証するために, 異なるデータセットに対する実験結果を示す。

Online learning is an important technical means for sketching massive real-time and high-speed data. Although this direction has attracted intensive attention, most of the literature in this area ignore the following three issues: (1) they think little of the underlying abstract hierarchical latent information existing in examples, even if extracting these abstract hierarchical latent representations is useful to better predict the class labels of examples; (2) the idea of preassigned model on unseen datapoints is not suitable for modeling streaming data with evolving probability distribution. This challenge is referred as model flexibility. And so, with this in minds, the online deep learning model we need to design should have a variable underlying structure; (3) moreover, it is of utmost importance to fusion these abstract hierarchical latent representations to achieve better classification performance, and we should give different weights to different levels of implicit representation information when dealing with the data streaming where the data distribution changes. To address these issues, we propose a two-phase Online Deep Learning based on Auto-Encoder (ODLAE). Based on auto-encoder, considering reconstruction loss, we extract abstract hierarchical latent representations of instances; Based on predictive loss, we devise two fusion strategies: the output-level fusion strategy, which is obtained by fusing the classification results of encoder each hidden layer; and feature-level fusion strategy, which is leveraged self-attention mechanism to fusion every hidden layer output. Finally, in order to improve the robustness of the algorithm, we also try to utilize the denoising auto-encoder to yield hierarchical latent representations. Experimental results on different datasets are presented to verify the validity of our proposed algorithm (ODLAE) outperforms several baselines.
翻訳日:2022-01-20 22:58:54 公開日:2022-01-19
# (参考訳) 通常の因果発見

Ordinal Causal Discovery ( http://arxiv.org/abs/2201.07396v1 )

ライセンス: CC BY 4.0
Yang Ni and Bani Mallick(参考訳) 純粋に観察的で分類的なデータの因果発見は、長年の課題である。 連続データとは異なり、分類データの既存のほとんどの方法はマルコフ同値類のみを推論することに集中しており、因果関係の方向は決定されていない。 本稿では,実世界の多くのアプリケーションに含まれる順序情報を利用して因果構造を一意に識別する,同定可能な順序因果発見手法を提案する。 構造学習のための単純なスコア・アンド・サーチアルゴリズムを開発した。 提案手法は, 順序データを超えたデータ離散化に適用できる。 実世界および合成実験により,提案手法は,順序的分類と非カテゴリー的データの両方において,最先端の代替法と比較して良好かつロバストな性能を示すことを実証した。

Causal discovery for purely observational, categorical data is a long-standing challenging problem. Unlike continuous data, the vast majority of existing methods for categorical data focus on inferring the Markov equivalence class only, which leaves the direction of some causal relationships undetermined. This paper proposes an identifiable ordinal causal discovery method that exploits the ordinal information contained in many real-world applications to uniquely identify the causal structure. Simple score-and-search algorithms are developed for structure learning. The proposed method is applicable beyond ordinal data via data discretization. Through real-world and synthetic experiments, we demonstrate that the proposed ordinal causal discovery method has favorable and robust performance compared to state-of-the-art alternative methods in both ordinal categorical and non-categorical data.
翻訳日:2022-01-20 22:42:56 公開日:2022-01-19
# (参考訳) ニューラルネットワークモデルは効果的なプラジャリストである

Neural Language Models are Effective Plagiarists ( http://arxiv.org/abs/2201.07406v1 )

ライセンス: CC BY 4.0
Stella Biderman and Edward Raff(参考訳) 人工知能(AI)技術が社会においてますます強力で顕著になるにつれて、その誤用が懸念されている。 教育環境では、AI技術は学生が課題や試験で不正に利用することができる。 本稿では、一般的なaiツールを用いて盗作を検知しながら、導入レベルのプログラミング課題を解決するためにトランスフォーマーが使用できるかどうかを考察する。 我々は, GPT-J (Wang and Komatsuzaki, 2021) を用いた学生が, MOSS (Aiken, 2000) から疑念を生じさせることなく, 導入レベルのプログラミング課題を完了できることを発見した。 これは、GPT-Jが問題に関するトレーニングを受けておらず、そこから動くサンプルが提供されていないにもかかわらず、成り立っている。 さらに、GPT-Jで書かれたコードは構造的に多様であり、将来の盗作検出技術がアルゴリズムによって生成されたコードを特定するために使われる可能性があることを特に示していない。 本稿では,大規模言語モデルと今後の研究の方向性の倫理的・教育的意味について論じる。

As artificial intelligence (AI) technologies become increasingly powerful and prominent in society, their misuse is a growing concern. In educational settings, AI technologies could be used by students to cheat on assignments and exams. In this paper we explore whether transformers can be used to solve introductory level programming assignments while bypassing commonly used AI tools to detect plagiarism. We find that a student using GPT-J [Wang and Komatsuzaki, 2021] can complete introductory level programming assignments without triggering suspicion from MOSS [Aiken, 2000], a widely used plagiarism detection tool. This holds despite the fact that GPT-J was not trained on the problems in question and is not provided with any examples to work from. We further find that the code written by GPT-J is diverse in structure, lacking any particular tells that future plagiarism detection techniques may use to try to identify algorithmically generated code. We conclude with a discussion of the ethical and educational implications of large language models and directions for future research.
翻訳日:2022-01-20 22:22:44 公開日:2022-01-19
# (参考訳) 孤独な多くの方法--「孤独」の微粒化と新型コロナウイルスの潜在的変化-

Many Ways to be Lonely: Fine-grained Characterization of Loneliness and its Potential Changes in COVID-19 ( http://arxiv.org/abs/2201.07423v1 )

ライセンス: CC BY 4.0
Yueyi Jiang, Yunfan Jiang, Leqi Liu, Piotr Winkielman(参考訳) 孤独は身体的および精神的な健康に対する否定的な結果に結びついている。 さまざまな孤独の表現や対処方法を理解することは、特に若い大人のような脆弱なグループにおいて、孤独を減らすための早期スクリーニングや目標とした介入に不可欠である。 孤独な自己開示において、孤独と対処戦略の異なる形態がどのように現れるかを調べるために、さまざまな年齢グループで構成される2つの若者向けフォーラムと2つの孤独関連フォーラムでReddit投稿を使用することにより、FIG-Loneliness(Fine-Grained Loneliness)というデータセットを構築した。 ポストの2値および細粒度の寂しさ分類のための,訓練された人間アノテーションによるアノテーションを提供する。 FIG-Lonelinessに基づいてトレーニングされた2つのBERTベースのモデルは、これらのフォーラムにおける孤独な形式と著者の対処戦略を理解するために使用された。 我々のバイナリ孤独分類は97%以上の精度でアーカイブされ、細粒度の孤独分類はすべてのラベル付きカテゴリーで平均77%の精度に達した。 FIG-Lonelinessとモデル予測により,若年者関連フォーラムにおける孤独表現は他のフォーラムと異なることがわかった。 若者向けフォーラムの参加者は、相互関係に関わる懸念を表明する可能性が高く、新型コロナウイルス(covid-19)のパンデミックによる地理的孤立に敏感になる可能性がある。 また,異なる孤独形態が対処戦略において異なる利用法を持つことを示す。

Loneliness has been associated with negative outcomes for physical and mental health. Understanding how people express and cope with various forms of loneliness is critical for early screening and targeted interventions to reduce loneliness, particularly among vulnerable groups such as young adults. To examine how different forms of loneliness and coping strategies manifest in loneliness self-disclosure, we built a dataset, FIG-Loneliness (FIne-Grained Loneliness) by using Reddit posts in two young adult-focused forums and two loneliness related forums consisting of a diverse age group. We provide annotations by trained human annotators for binary and fine-grained loneliness classifications of the posts. Trained on FIG-Loneliness, two BERT-based models were used to understand loneliness forms and authors' coping strategies in these forums. Our binary loneliness classification archived an accuracy above 97%, and fine-grained loneliness category classification reached an average accuracy of 77% across all labeled categories. With FIG-Loneliness and model predictions, we found that loneliness expressions in the young adult related forums are distinct from other forums. Those in young adult-focused forums are more likely to express concerns pertaining to peer relationship, and are potentially more sensitive to geographical isolation impacted by the COVID-19 pandemic lockdown. Also, we show that different forms of loneliness have differential use in coping strategies.
翻訳日:2022-01-20 22:21:40 公開日:2022-01-19
# (参考訳) WebUAV-3M: 数百万ものUAV追跡のパワーを示すベンチマーク

WebUAV-3M: A Benchmark Unveiling the Power of Million-Scale Deep UAV Tracking ( http://arxiv.org/abs/2201.07425v1 )

ライセンス: CC BY 4.0
Chunhui Zhang, Guanjie Huang, Li Liu, Shan Huang, Yinan Yang, Yuxuan Zhang, Xiang Wan, Shiming Ge(参考訳) 本研究は,WebUAV-3M(Unmanned Aerial Vehicle (UAV)) と呼ばれる新しい100万台の無人航空機の追跡ベンチマークに貢献する。 まず、インターネットから3Mフレーム以上の4,485本のビデオを収集します。 次に,SATA(Semi-Automatic Target Annotation)パイプラインを設計し,各フレームに巨大なWebUAV-3Mをラベル付けする。 我々の知る限りでは、密接なバウンディングボックスのWebUAV-3Mは、UAV追跡ベンチマークで最大のものである。 幅広い対象カテゴリをカバーする100万規模のアノテートベンチマークを確立することで、UAV追跡におけるフォローアップ研究の道を開くことを期待する。 さらに,視覚的外観,自然言語,音声の密接な関係を考慮し,自然言語仕様と音声記述を提供することでWebUAV-3Mを充実させ,UAV追跡のための自然言語特徴と音声の探索を奨励する。 このベンチマークと合わせて、100万件のUAV追跡問題を掘り下げ、深いUAVトラッカーをトレーニングし、UAV追跡アプローチを評価するための大規模なベンチマークをコミュニティに提供することを目的としています。 WebUAV-3Mの大規模な実験は、依然として強力なUAV追跡の改善の余地があることを実証している。 データセット、ツールキット、ベースラインの結果は \url{https://github.com/983632847/webuav-3m} で入手できる。

In this work, we contribute a new million-scale Unmanned Aerial Vehicle (UAV) tracking benchmark, called WebUAV-3M. Firstly, we collect 4,485 videos with more than 3M frames from the Internet. Then, an efficient and scalable Semi-Automatic Target Annotation (SATA) pipeline is devised to label the tremendous WebUAV-3M in every frame. To the best of our knowledge, the densely bounding box annotated WebUAV-3M is by far the largest public UAV tracking benchmark. We expect to pave the way for the follow-up study in the UAV tracking by establishing a million-scale annotated benchmark covering a wide range of target categories. Moreover, considering the close connections among visual appearance, natural language and audio, we enrich WebUAV-3M by providing natural language specification and audio description, encouraging the exploration of natural language features and audio cues for UAV tracking. Equipped with this benchmark, we delve into million-scale deep UAV tracking problems, aiming to provide the community with a dedicated large-scale benchmark for training deep UAV trackers and evaluating UAV tracking approaches. Extensive experiments on WebUAV-3M demonstrate that there is still a big room for robust deep UAV tracking improvements. The dataset, toolkits and baseline results will be available at \url{https://github.com/983632847/WebUAV-3M}.
翻訳日:2022-01-20 21:59:49 公開日:2022-01-19
# (参考訳) アラビア語トランスフォーマーモデルの解釈

Interpreting Arabic Transformer Models ( http://arxiv.org/abs/2201.07434v1 )

ライセンス: CC BY 4.0
Ahmed Abdelali, Nadir Durrani, Fahim Dalvi, and Hassan Sajjad(参考訳) アラビア語はセム語であり、多くの方言で広く話されている。 事前訓練された言語モデルの成功を踏まえ、アラビア語とその方言で訓練された多くのトランスフォーマーモデルが浮上した。 これらのモデルは下流のnlpタスクについて比較されてきたが、内部表現を直接比較する評価は行われていない。 アラビア語の異なる種類で訓練されたアラビア語の事前学習モデルにおいて, 言語情報がどのようにエンコードされているかを調べる。 本研究は,msa(現代標準アラビア語)に基づく2つの形態的タギングタスクと,方言的posタグと弁別識別タスクを用いて,モデルにおける層およびニューロンの解析を行う。 私たちの分析は、次のような興味深い発見を啓蒙する。 一 下層及び中層で語の形態について学ぶこと 二 方言の識別は、より多くの知識を必要とし、従って最終層でも保存する。 三 語彙の重複が大きいにもかかわらず、MSAベースのモデルは、アラビア語方言のニュアンスを捉えない。 iv) 埋め込み層内のニューロンは自然界において多義的であるのに対し, 中間層内のニューロンは特定の性質に限定していることがわかった。

Arabic is a Semitic language which is widely spoken with many dialects. Given the success of pre-trained language models, many transformer models trained on Arabic and its dialects have surfaced. While these models have been compared with respect to downstream NLP tasks, no evaluation has been carried out to directly compare the internal representations. We probe how linguistic information is encoded in Arabic pretrained models, trained on different varieties of Arabic language. We perform a layer and neuron analysis on the models using three intrinsic tasks: two morphological tagging tasks based on MSA (modern standard Arabic) and dialectal POS-tagging and a dialectal identification task. Our analysis enlightens interesting findings such as: i) word morphology is learned at the lower and middle layers ii) dialectal identification necessitate more knowledge and hence preserved even in the final layers, iii) despite a large overlap in their vocabulary, the MSA-based models fail to capture the nuances of Arabic dialects, iv) we found that neurons in embedding layers are polysemous in nature, while the neurons in middle layers are exclusive to specific properties.
翻訳日:2022-01-20 21:18:43 公開日:2022-01-19
# (参考訳) 垂直切削深さを用いた単眼深度推定のためのグローバルローカルパスネットワーク

Global-Local Path Networks for Monocular Depth Estimation with Vertical CutDepth ( http://arxiv.org/abs/2201.07436v1 )

ライセンス: CC BY 4.0
Doyeon Kim, Woonghyun Ga, Pyungwhan Ahn, Donggyu Joo, Sehwan Chun, and Junmo Kim(参考訳) 単一画像からの深さ推定はコンピュータビジョンの様々な分野に適用可能な重要なタスクであり、畳み込みニューラルネットワークの開発によって急速に成長してきた。 本稿では,ネットワークの予測精度をさらに向上させるために,単眼深度推定のための新しい構造と訓練戦略を提案する。 グローバルなコンテキストを捕捉し伝達するための階層型トランスフォーマーエンコーダをデプロイし、ローカル接続性を考慮して推定深度マップを生成する軽量で強力なデコーダを設計する。 提案する選択的機能融合モジュールにより,マルチスケールな局所的特徴とグローバルデコードストリーム間の接続経路を構築することにより,ネットワークは表現の統合と詳細の復元が可能となる。 さらに,提案するデコーダは,従来提案していたデコーダよりも性能が良く,計算量もかなり少ない。 さらに、深度推定における重要な観測を利用して、深度比増大法を改善し、モデルを強化する。 我々のネットワークは、挑戦的な深度データセットNYU Depth V2に対して最先端の性能を達成する。 提案手法の有効性を検証するため,広範囲にわたる実験を行った。 最後に、我々のモデルは、他の比較モデルよりも優れた一般化能力と堅牢性を示す。

Depth estimation from a single image is an important task that can be applied to various fields in computer vision, and has grown rapidly with the development of convolutional neural networks. In this paper, we propose a novel structure and training strategy for monocular depth estimation to further improve the prediction accuracy of the network. We deploy a hierarchical transformer encoder to capture and convey the global context, and design a lightweight yet powerful decoder to generate an estimated depth map while considering local connectivity. By constructing connected paths between multi-scale local features and the global decoding stream with our proposed selective feature fusion module, the network can integrate both representations and recover fine details. In addition, the proposed decoder shows better performance than the previously proposed decoders, with considerably less computational complexity. Furthermore, we improve the depth-specific augmentation method by utilizing an important observation in depth estimation to enhance the model. Our network achieves state-of-the-art performance over the challenging depth dataset NYU Depth V2. Extensive experiments have been conducted to validate and show the effectiveness of the proposed approach. Finally, our model shows better generalisation ability and robustness than other comparative models.
翻訳日:2022-01-20 21:06:16 公開日:2022-01-19
# (参考訳) カラーデータの保持:条件付き可逆ニューラルネットワークによるセキュアでロスレスなディープ・イメージ・ステガノグラフィ

Hiding Data in Colors: Secure and Lossless Deep Image Steganography via Conditional Invertible Neural Networks ( http://arxiv.org/abs/2201.07444v1 )

ライセンス: CC BY 4.0
Yanzhen Ren, Ting Liu, Liming Zhai, Lina Wang(参考訳) 深層画像ステガノグラフィ(deep image steganography)は、深層ニューラルネットワークを介してデジタル画像にデータを隠蔽するデータ隠蔽技術である。 しかし、既存のディープイメージステガノグラフィー手法は、コンテナイメージのホストイメージに対する視覚的類似性のみを考慮し、コンテナイメージの統計的セキュリティ(ステガノグラフィー)を無視する。 さらに、通常、イメージタイプに限定されたデータを隠すため、ロスレス抽出の制約を緩和する。 本稿では,上記の課題を統一的に解決し,任意の型を持つデータを画像に埋め込み,安全なデータ隠蔽とロスレスデータ顕在化を可能にする深部画像ステガノグラフィを提案する。 まず、画像のカラー化問題として隠れたデータを定式化し、そのデータを二項化してさらにグレースケールのホスト画像の色情報にマッピングする。 第2に,カラー生成のガイドとしてグレースケール画像を用いた条件付きインバータブルニューラルネットワークを設計し,安全な方法でデータを隠蔽する。 最後に,損失のないデータの露見を実現するために,隠蔽過程と露見過程の丸め誤差によるデータ損失を管理する多段階学習方式を提案する。 広範な実験により,本手法は実色画像を生成し,ステグアナリシスの検出に有効であることを示す。 さらに,実世界のステガノグラフィーの実用性を示すために,異なるシナリオで100%の精度を達成できることを示す。

Deep image steganography is a data hiding technology that conceal data in digital images via deep neural networks. However, existing deep image steganography methods only consider the visual similarity of container images to host images, and neglect the statistical security (stealthiness) of container images. Besides, they usually hides data limited to image type and thus relax the constraint of lossless extraction. In this paper, we address the above issues in a unified manner, and propose deep image steganography that can embed data with arbitrary types into images for secure data hiding and lossless data revealing. First, we formulate the data hiding as an image colorization problem, in which the data is binarized and further mapped into the color information for a gray-scale host image. Second, we design a conditional invertible neural network which uses gray-scale image as prior to guide the color generation and perform data hiding in a secure way. Finally, to achieve lossless data revealing, we present a multi-stage training scheme to manage the data loss due to rounding errors between hiding and revealing processes. Extensive experiments demonstrate that the proposed method can perform secure data hiding by generating realism color images and successfully resisting the detection of steganalysis. Moreover, we can achieve 100% revealing accuracy in different scenarios, indicating the practical utility of our steganography in the real-world.
翻訳日:2022-01-20 20:53:23 公開日:2022-01-19
# (参考訳) TourBERT:観光産業のための事前訓練型言語モデル

TourBERT: A pretrained language model for the tourism industry ( http://arxiv.org/abs/2201.07449v1 )

ライセンス: CC BY 4.0
Veronika Arefieva and Roman Egger(参考訳) Bidirectional Encoder Representations from Transformers (BERT) は現在、自然言語の最も重要かつ最先端のモデルの一つである。 しかし、ドメイン固有のタスクでは、BERTをドメイン固有のコーパスで事前訓練するのに役立つことが示されている。 本稿では,観光のための事前学習型言語モデルであるTourBERTを紹介する。 TourBERTの開発と評価について述べる。 評価の結果, TourBERT は観光特化タスクにおいて BERT を上回っていることがわかった。

The Bidirectional Encoder Representations from Transformers (BERT) is currently one of the most important and state-of-the-art models for natural language. However, it has also been shown that for domain-specific tasks it is helpful to pretrain BERT on a domain-specific corpus. In this paper, we present TourBERT, a pretrained language model for tourism. We describe how TourBERT was developed and evaluated. The evaluations show that TourBERT is outperforming BERT in all tourism-specific tasks.
翻訳日:2022-01-20 20:40:46 公開日:2022-01-19
# (参考訳) インフォーマティブ・創発的コミュニケーションの制御のための一貫性スパース離散法

The Enforcers: Consistent Sparse-Discrete Methods for Constraining Informative Emergent Communication ( http://arxiv.org/abs/2201.07452v1 )

ライセンス: CC BY 4.0
Seth Karten, Siddharth Agrawal, Mycal Tucker, Dana Hughes, Michael Lewis, Julie Shah, Katia Sycara(参考訳) コミュニケーションは、エージェントが目標を達成するために協力することを可能にする。 スパース通信(sparse communication)と呼ばれるコミュニケーションの学習は、人間とエージェントが対話する状況や、エージェントが他人に情報を伝達しなければならない部分観察可能なシナリオ、エージェントが情報を隠蔽して競争上の優位性を得る非協力的なシナリオにおいて、特に重要である。 しかし、コミュニケーションの疎通を学ぶ最近の研究は、コミュニケーションを減少させるコストが特に協調作業において報酬を減少させる高分散トレーニングに苦しめられている。 スパース通信は、エージェント通信を限られた人間の帯域幅に合わせるために必要である。 人間は個別の言語トークンを介してコミュニケーションするが、以前は連続的なコミュニケーションベクトルと比較してタスク性能が低下することが示されていた。 本研究は、コミュニケーションの減少による報酬の損失を抑え、差別に対するペナルティを排除し、上記の課題に対処する。 本研究では, 学習ゲートを用いた学習訓練を成功させ, 部分可観測性のある協調作業のためのコミュニケーションを反映した個別プロトタイプを用いて, コミュニケーションのタイミングを調節する。 ハード予算とソフト予算の制約に対する2種類の「強制力」を提供し,異なる予算下でのコミュニケーションの結果を示す。 提案手法は制約を満たしながら,同等の制約のない手法と同じ性能が得られることを示す。

Communication enables agents to cooperate to achieve their goals. Learning when to communicate, i.e. sparse communication, is particularly important where bandwidth is limited, in situations where agents interact with humans, in partially observable scenarios where agents must convey information unavailable to others, and in non-cooperative scenarios where agents may hide information to gain a competitive advantage. Recent work in learning sparse communication, however, suffers from high variance training where, the price of decreasing communication is a decrease in reward, particularly in cooperative tasks. Sparse communications are necessary to match agent communication to limited human bandwidth. Humans additionally communicate via discrete linguistic tokens, previously shown to decrease task performance when compared to continuous communication vectors. This research addresses the above issues by limiting the loss in reward of decreasing communication and eliminating the penalty for discretization. In this work, we successfully constrain training using a learned gate to regulate when to communicate while using discrete prototypes that reflect what to communicate for cooperative tasks with partial observability. We provide two types of "Enforcers" for hard and soft budget constraints and present results of communication under different budgets. We show that our method satisfies constraints while yielding the same performance as comparable, unconstrained methods.
翻訳日:2022-01-20 20:33:03 公開日:2022-01-19
# (参考訳) 能動学習におけるセルフ・スーパーバイザード・プレテキスト・タスクの利用

Using Self-Supervised Pretext Tasks for Active Learning ( http://arxiv.org/abs/2201.07459v1 )

ライセンス: CC BY 4.0
John Seon Keun Yi, Minseok Seo, Jongchan Park, Dong-Geol Choi(参考訳) 大量のデータのラベル付けは高価です。 アクティブラーニングは、ラベルなし集合から最も情報性の高いデータのみに注釈を付けることでこの問題に対処することを目的としている。 本稿では,自己教師付きプリテキストタスクとユニークなデータサンプルラを用いて,難易度と代表性を兼ね備えたデータを選択する新しいアクティブラーニング手法を提案する。 回転予測などの単純な自己教師付き述語タスクの損失は,下流タスクの損失と密接に関連していることがわかった。 プリテキストタスク学習者は、ラベルなしのセットでトレーニングされ、ラベルなしのデータは、プリテキストタスクの損失によってソートされ、バッチにグループ化される。 各イテレーションでは、メインタスクモデルを使用して、アノテートされるバッチ内の最も不確実なデータをサンプリングする。 CIFAR10, Caltech-101, ImageNet, CityScapesにおいて, 画像分類とセグメンテーションのベンチマークを行い, 性能評価を行った。

Labeling a large set of data is expensive. Active learning aims to tackle this problem by asking to annotate only the most informative data from the unlabeled set. We propose a novel active learning approach that utilizes self-supervised pretext tasks and a unique data sampler to select data that are both difficult and representative. We discover that the loss of a simple self-supervised pretext task, such as rotation prediction, is closely correlated to the downstream task loss. The pretext task learner is trained on the unlabeled set, and the unlabeled data are sorted and grouped into batches by their pretext task losses. In each iteration, the main task model is used to sample the most uncertain data in a batch to be annotated. We evaluate our method on various image classification and segmentation benchmarks and achieve compelling performances on CIFAR10, Caltech-101, ImageNet, and CityScapes.
翻訳日:2022-01-20 20:22:13 公開日:2022-01-19
# (参考訳) POPPINS : Integer Quadratic Integrate-and-Fire Neuronsを用いた人口ベースデジタルスパイキングニューロモルフィックプロセッサ

POPPINS : A Population-Based Digital Spiking Neuromorphic Processor with Integer Quadratic Integrate-and-Fire Neurons ( http://arxiv.org/abs/2201.07490v1 )

ライセンス: CC BY 4.0
Zuo-Wei Yeh, Chia-Hua Hsu, Alexander White, Chen-Fu Yeh, Wen-Chieh Wu, Cheng-Te Wang, Chung-Chuan Lo, Kea-Tiong Tang(参考訳) 生物学的処理システムとしての人間の脳の内部操作は、ほとんど謎のままである。 ヒト脳の機能にインスパイアされ、ショウジョウバエなどの他の種における単純なニューラルネットワークシステムの解析に基づいて、ニューロモルフィックコンピューティングシステムはかなりの関心を集めている。 細胞レベルでのコネクトミクス研究では、ネットワーク内でのリカレント完全接続だけでなく、各ニューロンにおける外部刺激や自己結合を構成する、集団と呼ばれる生物学的ニューラルネットワークの特性を同定することができる。 ネットワークおよび入力データにおけるスパイク伝送の低データ帯域幅に依存するスパイクニューラルネットワークは、低遅延かつ低電力設計を示す。 本研究では,2つの階層を持つ180nmプロセス技術において,構成可能な人口ベースのデジタルスパイキングニューロモルフィックプロセッサを提案する。 また、プロセッサ内のこれらのニューロンは、符号なしの8ビット膜電位値を含む整数二次積分・ファイアニューロンモデルとして構成することができる。 プロセッサは、リアルタイムに回避のためのインテリジェントな意思決定を実装できる。 さらに,本提案手法により,生体模倣型ニューロモルフィックシステムと各種低消費電力,低遅延推論処理アプリケーションの開発が可能となる。

The inner operations of the human brain as a biological processing system remain largely a mystery. Inspired by the function of the human brain and based on the analysis of simple neural network systems in other species, such as Drosophila, neuromorphic computing systems have attracted considerable interest. In cellular-level connectomics research, we can identify the characteristics of biological neural network, called population, which constitute not only recurrent fullyconnection in network, also an external-stimulus and selfconnection in each neuron. Relying on low data bandwidth of spike transmission in network and input data, Spiking Neural Networks exhibit low-latency and low-power design. In this study, we proposed a configurable population-based digital spiking neuromorphic processor in 180nm process technology with two configurable hierarchy populations. Also, these neurons in the processor can be configured as novel models, integer quadratic integrate-and-fire neuron models, which contain an unsigned 8-bit membrane potential value. The processor can implement intelligent decision making for avoidance in real-time. Moreover, the proposed approach enables the developments of biomimetic neuromorphic system and various low-power, and low-latency inference processing applications.
翻訳日:2022-01-20 20:15:34 公開日:2022-01-19
# (参考訳) 説明法に基づく樹木分類のためのリモートセンシング画像の弱教師付きセマンティックセマンティックセグメンテーション

Weakly Supervised Semantic Segmentation of Remote Sensing Images for Tree Species Classification Based on Explanation Methods ( http://arxiv.org/abs/2201.07495v1 )

ライセンス: CC BY 4.0
Steve Ahlswede, Nimisha Thekke-Madam, Christian Schulz, Birgit Kleinschmit, Beg\"um Demir(参考訳) 木種識別のための大量のピクセルベースのラベル付きトレーニングサンプルの収集は、運用林業への応用に時間と費用がかかる。 本稿では,画像レベルのラベルのみを用いて,弱い教師付きセマンティックセマンティックセグメンテーションを行う際のディープニューラルネットワークの説明手法の有効性を検討する。 具体的には、以下の4つの方法を考える:i)クラスアクティベーションマップ(cam) 二 勾配に基づくCAM 三 画素相関モジュール、及び iv)自己啓発マップ(sem)。 我々はこれらの手法を,その分節精度の定量的および定性的な測定値と計算要求値を用いて比較する。 航空画像アーカイブで得られた実験結果から, 説明手法は, 監督の弱い樹木種の識別に極めて重要であることが明らかとなった。 ii) semは、他の検討方法に勝る。 この論文のコードはhttps://git.tu-berlin.de/rsim/rs_wsssで公開されている。

The collection of a high number of pixel-based labeled training samples for tree species identification is time consuming and costly in operational forestry applications. To address this problem, in this paper we investigate the effectiveness of explanation methods for deep neural networks in performing weakly supervised semantic segmentation using only image-level labels. Specifically, we consider four methods:i) class activation maps (CAM); ii) gradient-based CAM; iii) pixel correlation module; and iv) self-enhancing maps (SEM). We compare these methods with each other using both quantitative and qualitative measures of their segmentation accuracy, as well as their computational requirements. Experimental results obtained on an aerial image archive show that:i) considered explanation techniques are highly relevant for the identification of tree species with weak supervision; and ii) the SEM outperforms the other considered methods. The code for this paper is publicly available at https://git.tu-berlin.de/rsim/rs_wsss.
翻訳日:2022-01-20 20:01:17 公開日:2022-01-19
# (参考訳) 盗めないの? コントステール! 画像エンコーダに対するコントラスト盗み攻撃

Can't Steal? Cont-Steal! Contrastive Stealing Attacks Against Image Encoders ( http://arxiv.org/abs/2201.07513v1 )

ライセンス: CC BY 4.0
Zeyang Sha and Xinlei He and Ning Yu and Michael Backes and Yang Zhang(参考訳) 教師なし表現学習技術はラベルなしの画像をフル活用するために急速に開発されている。 イメージを下流のタスクに不利なリッチな機能にエンコードする。 その革命的な表現力の背後にあるのは、専用モデル設計の要件と大量の計算リソースが、イメージエンコーダを潜在的なモデル盗難攻撃のリスクにさらしていることだ。 しかし、従来の攻撃は、予測されたラベルと/または後方を考慮し、教師なしエンコーダの脆弱性を残している教師付き分類器のみを標的とする。 本稿では,まず,エンコーダに対する従来の盗難攻撃をインスタンス化し,下流の分類器と比較して深刻な脆弱性を示す。 エンコーダのリッチな表現をよりよく活用するために、コントラスト学習に基づく攻撃であるcont-stealを提案し、様々な実験環境での盗みの有効性を検証する。 そこで我々は,表現学習技術の知的財産保護,特に我々のような攻撃をエンコーダが盗むことに対する防御に,コミュニティの注意を喚起する。

Unsupervised representation learning techniques have been developing rapidly to make full use of unlabeled images. They encode images into rich features that are oblivious to downstream tasks. Behind its revolutionary representation power, the requirements for dedicated model designs and a massive amount of computation resources expose image encoders to the risks of potential model stealing attacks -- a cheap way to mimic the well-trained encoder performance while circumventing the demanding requirements. Yet conventional attacks only target supervised classifiers given their predicted labels and/or posteriors, which leaves the vulnerability of unsupervised encoders unexplored. In this paper, we first instantiate the conventional stealing attacks against encoders and demonstrate their severer vulnerability compared with downstream classifiers. To better leverage the rich representation of encoders, we further propose Cont-Steal, a contrastive-learning-based attack, and validate its improved stealing effectiveness in various experiment settings. As a takeaway, we appeal to our community's attention to the intellectual property protection of representation learning techniques, especially to the defenses against encoder stealing attacks like ours.
翻訳日:2022-01-20 19:54:23 公開日:2022-01-19
# (参考訳) 対向ネットワークによるプライバシを意識したヒューマンモビリティ予測

Privacy-Aware Human Mobility Prediction via Adversarial Networks ( http://arxiv.org/abs/2201.07519v1 )

ライセンス: CC BY 4.0
Yuting Zhan, Alex Kyllo, Afra Mashhadi, Hamed Haddadi(参考訳) さまざまなモバイルデバイスやロケーションベースのサービスが,さまざまなスマートシティシナリオやアプリケーションで開発されるようになっているため,位置情報収集や共有によって,予期せぬプライバシリークが数多く発生している。 これらの位置情報データは、人間の移動パターンを深く理解し、様々な社会的研究課題に対処する可能性があるが、ユーザーの機密情報に対するプライバシー上の懸念は利用を制限している。 本稿では,従来の位置情報データ(移動データ)のプライバシ保護特徴表現を共有目的に達成するための表現学習を備えたLSTMベースの新しい逆数機構の設計と実装を行う。 我々は,軌道再構成リスク,ユーザ再識別リスク,移動予測可能性の観点から,移動データセットのユーティリティプライバシトレードオフを定量化する。 提案するアーキテクチャは,ラグランジアン損失重みパラメータの関数として,ユーザがこのトレードオフを評価できるパレートフロンティア解析を行う。 4つの代表的モビリティデータセットの比較結果から,提案するアーキテクチャの優位性と,提案するプライバシ保存機能抽出器の効率が示された。 その結果,paretoの最適設定を探索することで,プライバシ(45%)とユーティリティ(32%)を同時に向上できることがわかった。

As various mobile devices and location-based services are increasingly developed in different smart city scenarios and applications, many unexpected privacy leakages have arisen due to geolocated data collection and sharing. While these geolocated data could provide a rich understanding of human mobility patterns and address various societal research questions, privacy concerns for users' sensitive information have limited their utilization. In this paper, we design and implement a novel LSTM-based adversarial mechanism with representation learning to attain a privacy-preserving feature representation of the original geolocated data (mobility data) for a sharing purpose. We quantify the utility-privacy trade-off of mobility datasets in terms of trajectory reconstruction risk, user re-identification risk, and mobility predictability. Our proposed architecture reports a Pareto Frontier analysis that enables the user to assess this trade-off as a function of Lagrangian loss weight parameters. The extensive comparison results on four representative mobility datasets demonstrate the superiority of our proposed architecture and the efficiency of the proposed privacy-preserving features extractor. Our results show that by exploring Pareto optimal setting, we can simultaneously increase both privacy (45%) and utility (32%).
翻訳日:2022-01-20 19:29:05 公開日:2022-01-19
# (参考訳) cm3: 因果マスキングによるインターネットのマルチモーダルモデル

CM3: A Causal Masked Multimodal Model of the Internet ( http://arxiv.org/abs/2201.07520v1 )

ライセンス: CC BY 4.0
Armen Aghajanyan, Bernie Huang, Candace Ross, Vladimir Karpukhin, Hu Xu, Naman Goyal, Dmytro Okhonko, Mandar Joshi, Gargi Ghosh, Mike Lewis, Luke Zettlemoyer(参考訳) CM3は,テキストおよび画像トークンの両方を格納可能な構造化マルチモーダル文書の大規模コーパス上でトレーニングされた因果マスク付き生成モデルのファミリーである。 我々の新しい因果的にマスクされたアプローチは、左から右にトークンを生成し、同時に元の位置ではなく、文字列の最後に生成される少数の長いトークンスパンをマスクする。 カジュアルなマスキングオブジェクトは、マスキングスパンを生成する際に双方向コンテキストを提供しながら完全な生成モデリングを可能にすることで、より一般的な因果およびマスキング言語モデルのハイブリッドを提供する。 ドキュメントには、テキスト、ハイパーテキストマークアップ、ハイパーリンク、画像トークン(vqvae-ganから)のすべてが含まれており、元のhtmlソース(マスキングの前に)に表示される順番で提供される。 結果として得られたcm3モデルは、任意のマスクされたドキュメントコンテキストを条件付けしながら、リッチな構造化されたマルチモーダル出力を生成し、暗黙的に幅広いテキスト、イメージ、クロスモーダルタスクを学習することができる。 ゼロショットで、DALL-E、GENRE、HTLMなどのモデルの機能を回復するよう促すことができる。 我々は,ゼロショット要約,エンティティリンク,エンティティ曖昧さの新たな状態を設定しながら,微調整環境での競争力を維持した。 イメージを無条件に生成し、テキスト(dall-eなど)で条件付けし、ゼロショット設定でキャプションを1つのモデルで実行できます。

We introduce CM3, a family of causally masked generative models trained over a large corpus of structured multi-modal documents that can contain both text and image tokens. Our new causally masked approach generates tokens left to right while also masking out a small number of long token spans that are generated at the end of the string, instead of their original positions. The casual masking object provides a type of hybrid of the more common causal and masked language models, by enabling full generative modeling while also providing bidirectional context when generating the masked spans. We train causally masked language-image models on large-scale web and Wikipedia articles, where each document contains all of the text, hypertext markup, hyperlinks, and image tokens (from a VQVAE-GAN), provided in the order they appear in the original HTML source (before masking). The resulting CM3 models can generate rich structured, multi-modal outputs while conditioning on arbitrary masked document contexts, and thereby implicitly learn a wide range of text, image, and cross modal tasks. They can be prompted to recover, in a zero-shot fashion, the functionality of models such as DALL-E, GENRE, and HTLM. We set the new state-of-the-art in zero-shot summarization, entity linking, and entity disambiguation while maintaining competitive performance in the fine-tuning setting. We can generate images unconditionally, conditioned on text (like DALL-E) and do captioning all in a zero-shot setting with a single model.
翻訳日:2022-01-20 19:08:30 公開日:2022-01-19
# (参考訳) ジャンプ知識を用いたGNNベースのAndroidマルウェア検出

GNN-based Android Malware Detection with Jumping Knowledge ( http://arxiv.org/abs/2201.07537v1 )

ライセンス: CC BY-SA 4.0
Wai Weng Lo, Siamak Layeghy, Mohanad Sarhan, Marcus Gallagher, Marius Portmann(参考訳) 本稿では,Jumping-Knowledge(JK)を用いたグラフニューラルネットワーク(GNN)に基づく新しいAndroidマルウェア検出手法を提案する。 android function call graphs (fcgs) は一連のプログラム関数とその手続き間呼び出しで構成される。 そこで本研究では,有意義な手続き内コールパスパターンを捉えたgnnに基づくandroidマルウェア検出手法を提案する。 また,GNNでは一般的であるオーバースムーシング問題の影響を最小限に抑えるために,Jumping-Knowledge手法を適用した。 提案手法は2つのベンチマークデータセットを用いて広範に評価されている。 その結果,Android マルウェア検出における GNN の可能性を示す主要な分類基準の基準法と比較して,本手法の優位性を示した。

This paper presents a new Android malware detection method based on Graph Neural Networks (GNNs) with Jumping-Knowledge (JK). Android function call graphs (FCGs) consist of a set of program functions and their inter-procedural calls. Thus, this paper proposes a GNN-based method for Android malware detection by capturing meaningful intra-procedural call path patterns. In addition, a Jumping-Knowledge technique is applied to minimize the effect of the over-smoothing problem, which is common in GNNs. The proposed method has been extensively evaluated using two benchmark datasets. The results demonstrate the superiority of our approach compared to baseline methods in terms of key classification metrics, which demonstrates the potential of GNNs in Android malware detection.
翻訳日:2022-01-20 18:46:40 公開日:2022-01-19
# (参考訳) 新型コロナウイルス(covid-19)ワクチンに関する執筆: 感情的プロファイリングは、アストラゼネカやファイザー、予防接種キャンペーンの主流や代替メディアの枠組みを解明する

Writing about COVID-19 vaccines: Emotional profiling unravels how mainstream and alternative press framed AstraZeneca, Pfizer and vaccination campaigns ( http://arxiv.org/abs/2201.07538v1 )

ライセンス: CC BY 4.0
Alfonso Semeraro, Salvatore Vilella, Giancarlo Ruffo and Massimo Stella(参考訳) 2020年11月の発表以来、新型コロナウイルスワクチンはメディアやソーシャルメディアで大々的に議論された。 ソーシャルメディアにおける新型コロナウイルスの偽情報に焦点を当てた研究は多いが、主流のニュースメディアがcovid-19の物語を他の情報源と比較した場合、ほとんど注目されていない。 このギャップを埋めるために、私たちはコグニティブネットワーク科学と自然言語処理を使って、5745のイタリアニュースの時間進化する意味と感情のフレームを再構築します。 主流のソースが"ワクチン/ワクチン"という一般的な考え方を形作る方法において、私たちは一貫して高いレベルの信頼/期待と嫌悪感を見出しました。 これらの感情は、covid-19ワクチンの枠組化方法において極めて欠落していた。 ワクチンの特定の例でより多くの違いが見られた。 別のニュースとしては、アストラゼネカワクチンに強い悲しみを抱かせるタイトルがあり、主流のタイトルには存在しなかった。 メインストリーム・ニュースは当初、「アスタラゼネカ」よりも副作用との負の関連で「ファイザー」を枠組にした。 2021年3月15日,「アストラゼネカ」(AstraZeneca)の題名でさえ,副作用と負の関係において意味的に富み,「ファイザー」(Pfizer)は高い効力に大きく関連し,正の値変化を経験した。 恐怖的な概念的結社とともに「恐怖症」がワクチンの枠組みに入り、「死」は代替のタイトルに対する恐怖に傾倒し、主流のタイトルにおける希望的な意味を失った。 今回の調査結果は、報道機関が採用した新型コロナウイルスワクチンに関する感情的な物語の重要な側面を浮き彫りにし、代替手段や主流メディアが予防接種ニュースをどう報告するかを理解する必要性を強調した。

Since their announcement in November 2020, COVID-19 vaccines were largely debated by the press and social media. With most studies focusing on COVID-19 disinformation in social media, little attention has been paid to how mainstream news outlets framed COVID-19 narratives compared to alternative sources. To fill this gap, we use cognitive network science and natural language processing to reconstruct time-evolving semantic and emotional frames of 5745 Italian news, that were massively re-shared on Facebook and Twitter, about COVID-19 vaccines. We found consistently high levels of trust/anticipation and less disgust in the way mainstream sources framed the general idea of "vaccine/vaccino". These emotions were crucially missing in the ways alternative sources framed COVID-19 vaccines. More differences were found within specific instances of vaccines. Alternative news included titles framing the AstraZeneca vaccine with strong levels of sadness, absent in mainstream titles. Mainstream news initially framed "Pfizer" along more negative associations with side effects than "AstraZeneca". With the temporary suspension of the latter, on March 15th 2021, we identified a semantic/emotional shift: Even mainstream article titles framed "AstraZeneca" as semantically richer in negative associations with side effects, while "Pfizer" underwent a positive shift in valence, mostly related to its higher efficacy. "Thrombosis" entered the frame of vaccines together with fearful conceptual associations, while "death" underwent an emotional shift, steering towards fear in alternative titles and losing its hopeful connotation in mainstream titles. Our findings expose crucial aspects of the emotional narratives around COVID-19 vaccines adopted by the press, highlighting the need to understand how alternative and mainstream media report vaccination news.
翻訳日:2022-01-20 18:31:06 公開日:2022-01-19
# (参考訳) ニューラル正規微分方程式を用いた学習コーンビームCT再構成

Learned Cone-Beam CT Reconstruction Using Neural Ordinary Differential Equations ( http://arxiv.org/abs/2201.07562v1 )

ライセンス: CC BY 4.0
Mareike Thies, Fabian Wagner, Mingxuan Gu, Lukas Folle, Lina Felsner, Andreas Maier(参考訳) 逆問題に対する反復的再構成アルゴリズムは、問題に関する解析的知識とデータから学んだモジュールを組み合わせる柔軟性を提供する。 これにより、測定データとの一貫性を確保しつつ、高い復元性能を実現する。 計算トモグラフィでは、そのようなアプローチを2Dファンビームから3Dコーンビームデータに拡張することは、そのようなモデルをトレーニングするのに必要となる、極めて高いGPUメモリのために困難である。 本稿では,ニューラルネットワークを用いた数値積分による残差定式化における再構成問題の解法を提案する。 トレーニングでは、複数の未ロールネットワークブロックをバックプロパゲートしたり、ソルバの内部を経由する必要はない。 代わりに、勾配はニューラルネットワークode設定で非常にメモリ効率良く取得され、単一のコンシューマのグラフィックカードでトレーニングできる。 本手法は,古典的反復再構成アルゴリズムと比較して根平均2乗誤差を30%以上削減し,スパースビューシナリオにおいても高品質なコーンビーム再構成を実現できる。

Learned iterative reconstruction algorithms for inverse problems offer the flexibility to combine analytical knowledge about the problem with modules learned from data. This way, they achieve high reconstruction performance while ensuring consistency with the measured data. In computed tomography, extending such approaches from 2D fan-beam to 3D cone-beam data is challenging due to the prohibitively high GPU memory that would be needed to train such models. This paper proposes to use neural ordinary differential equations to solve the reconstruction problem in a residual formulation via numerical integration. For training, there is no need to backpropagate through several unrolled network blocks nor through the internals of the solver. Instead, the gradients are obtained very memory-efficiently in the neural ODE setting allowing for training on a single consumer graphics card. The method is able to reduce the root mean squared error by over 30% compared to the best performing classical iterative reconstruction algorithm and produces high quality cone-beam reconstructions even in a sparse view scenario.
翻訳日:2022-01-20 18:10:14 公開日:2022-01-19
# (参考訳) 推薦システムにおけるバッチ対逐次アクティブラーニング

Batch versus Sequential Active Learning for Recommender Systems ( http://arxiv.org/abs/2201.07571v1 )

ライセンス: CC BY 4.0
Toon De Pessemier, Sander Vanhove, Luc Martens(参考訳) もっとも正確なレコメンデーションを生成することを目的として、長年にわたってレコメンデーションシステムが調査されてきた。 しかし、新ユーザーに関するデータは不十分な場合が多く、不正確なレコメンデーション(コールドスタート問題として知られる問題)が発生する。 解決策は積極的学習である。 アクティブな学習戦略は積極的にアイテムを選択し、ユーザに評価を依頼する。 これにより、詳細なユーザの好みを取得することができ、その結果、より正確なレコメンデーションをユーザに提供できる。 本研究では,5つの能動学習アルゴリズムと3つの予測アルゴリズムを組み合わせて,質問された項目をどの程度の確率で評価するかを推定する。 さらに、バッチモード(全てのアイテムを一度に)とシーケンシャルモード(各アイテムを1つずつ)の2つのモードがテストされている。 評価予測,意思決定支援,項目のランク付けの観点からの推薦者の評価は,逐次モードが高密度データセットに対して最も正確なレコメンデーションを生成することを示した。 アクティブな学習アルゴリズムの違いは小さい。 ほとんどのアクティブな学習者にとって、最良の予測器はシーケンシャルモードと組み合わせてFunkSVDであることが判明した。

Recommender systems have been investigated for many years, with the aim of generating the most accurate recommendations possible. However, available data about new users is often insufficient, leading to inaccurate recommendations; an issue that is known as the cold-start problem. A solution can be active learning. Active learning strategies proactively select items and ask users to rate these. This way, detailed user preferences can be acquired and as a result, more accurate recommendations can be offered to the user. In this study, we compare five active learning algorithms, combined with three different predictor algorithms, which are used to estimate to what extent the user would like the item that is asked to rate. In addition, two modes are tested for selecting the items: batch mode (all items at once), and sequential mode (the items one by one). Evaluation of the recommender in terms of rating prediction, decision support, and the ranking of items, showed that sequential mode produces the most accurate recommendations for dense data sets. Differences between the active learning algorithms are small. For most active learners, the best predictor turned out to be FunkSVD in combination with sequential mode.
翻訳日:2022-01-20 18:02:51 公開日:2022-01-19
# (参考訳) 非線形未知入力可観測性と未知入力再構成:一般解析解

Nonlinear Unknown Input Observability and Unknown Input Reconstruction: The General Analytical Solution ( http://arxiv.org/abs/2201.07610v1 )

ライセンス: CC BY 4.0
Agostino Martinelli(参考訳) 可観測性は任意の動的システムの基本的な構造特性であり、入力や出力を観測することからシステムの特徴を特徴づける状態を再構築する可能性を記述する。 この特性を調査し、動的システムがこの特性を満たすかどうかを確認できる解析基準を導入するという大きな努力にもかかわらず、未知の入力によって動的も駆動される場合、状態の可観測性を自動的にチェックする一般的な分析基準は存在しない。 本稿では, 未知入力可観測性問題と呼ばれる, この基本問題の一般解析解を提案する。 本論文は, この問題の一般的な解析解, すなわち, 自動計算(微分および行列ランク決定)に基づく体系的手順を提供し, 未知の入力が存在する場合でも, 状態の可観測性を自動的にチェックできるようにする。 この問題の第一の解は、本書の第2部で「可観測性:不変性群に基づく新しい理論」として提示された [45]。 この論文で提示された解決策は[45]で前のソリューションを完成させます。 特に、新しい解法は、未知の入力に関して正準系に属するシステムのカテゴリに属さないシステムを徹底的に説明する。 新しい解法はまた、新しいアルゴリズムの形で提供される。 45] に与えられたアルゴリズムに関するさらなる新規性は、すべてのケースで保持される新しい収束基準からなる([45] に与えられたアルゴリズムの収束基準は、いくつかのケースで失敗する可能性がある)。 最後に、状態可観測性の問題と密接に関連している未知の入力再構成問題に対する回答を提供する。 本稿では,視覚・慣性センサー融合の枠組みにおける非線形システムの研究による新しいアルゴリズムの実装について述べる。

Observability is a fundamental structural property of any dynamic system and describes the possibility of reconstructing the state that characterizes the system from observing its inputs and outputs. Despite the huge effort made to study this property and to introduce analytical criteria able to check whether a dynamic system satisfies this property or not, there is no general analytical criterion to automatically check the state observability when the dynamics are also driven by unknown inputs. Here, we introduce the general analytical solution of this fundamental problem, often called the unknown input observability problem. This paper provides the general analytical solution of this problem, namely, it provides the systematic procedure, based on automatic computation (differentiation and matrix rank determination), that allows us to automatically check the state observability even in the presence of unknown inputs. A first solution of this problem was presented in the second part of the book: "Observability: A New Theory Based on the Group of Invariance" [45]. The solution presented by this paper completes the previous solution in [45]. In particular, the new solution exhaustively accounts for the systems that do not belong to the category of the systems that are canonic with respect to their unknown inputs. The new solution is also provided in the form of a new algorithm. A further novelty with respect to the algorithm provided in [45] consists of a new convergence criterion that holds in all the cases (the convergence criterion of the algorithm provided in [45] can fail in some cases). Finally, we also provide the answer to the problem of unknown input reconstruction which is intimately related to the problem of state observability. We illustrate the implementation of the new algorithm by studying a nonlinear system in the framework of visual-inertial sensor fusion.
翻訳日:2022-01-20 17:52:56 公開日:2022-01-19
# (参考訳) CAST: トラッキングによる自己監督によるアニメーションの文字ラベリング

CAST: Character labeling in Animation using Self-supervision by Tracking ( http://arxiv.org/abs/2201.07619v1 )

ライセンス: CC BY-SA 4.0
Oron Nir, Gal Rapoport, Ariel Shamir(参考訳) 漫画やアニメーションのドメインビデオは、実際の画像やビデオとは全く異なる特徴を持っている。 さらに、このドメインはスタイルに大きな可変性を持っている。 現在のコンピュータビジョンとディープラーニングソリューションは、自然画像で訓練されたため、アニメーションコンテンツでは失敗することが多い。 本稿では,特定のアニメーションコンテンツに適した意味表現を洗練する手法を提案する。 まず、大規模なアニメーションビデオセットでニューラルネットワークをトレーニングし、深層機能へのマッピングを埋め込み空間として使用します。 次に、マルチオブジェクトトラッキングを用いて、このスタイルでアニメーションキャラクターの多くの例を収集することにより、特定のアニメーションスタイルの表現を洗練するために自己スーパービジョンを使用する。 これらの例は、コントラスト損失トレーニングのための三重項を定義するために使われる。 洗練された意味空間は、多様な表現を持つ場合でも、アニメーションキャラクタのクラスタリングを改善する。 この空間を使用することで、アニメーションビデオに文字の辞書を作成し、特定のスタイル的コンテンツ(例えば、特定のアニメーションシリーズの文字)の特殊分類器を定義することができる。 これらの分類器はアニメーションビデオ中の文字を自動的にラベリングする基礎である。 本稿では,様々なアニメーションスタイルのキャラクターの集合について報告する。

Cartoons and animation domain videos have very different characteristics compared to real-life images and videos. In addition, this domain carries a large variability in styles. Current computer vision and deep-learning solutions often fail on animated content because they were trained on natural images. In this paper we present a method to refine a semantic representation suitable for specific animated content. We first train a neural network on a large-scale set of animation videos and use the mapping to deep features as an embedding space. Next, we use self-supervision to refine the representation for any specific animation style by gathering many examples of animated characters in this style, using a multi-object tracking. These examples are used to define triplets for contrastive loss training. The refined semantic space allows better clustering of animated characters even when they have diverse manifestations. Using this space we can build dictionaries of characters in an animation videos, and define specialized classifiers for specific stylistic content (e.g., characters in a specific animation series) with very little user effort. These classifiers are the basis for automatically labeling characters in animation videos. We present results on a collection of characters in a variety of animation styles.
翻訳日:2022-01-20 17:51:30 公開日:2022-01-19
# (参考訳) 非線形結合制約をもつ非平滑非凸最適化のためのマルチブロックADMM

Multiblock ADMM for nonsmooth nonconvex optimization with nonlinear coupling constraints ( http://arxiv.org/abs/2201.07657v1 )

ライセンス: CC BY 4.0
Le Thi Khanh Hien, Dimitri Papadimitriou(参考訳) 本稿では,非線形結合制約を持つマルチブロック非滑らかな非凸最適化問題を考える。 J. Bolte, S. Sabach and M. Teboulle, Nonconvex Lagrangian-based optimization: Monitoring schemes and global convergence, Operations Research, 43: 1210--1232, 2018] で提案された情報ゾーンと適応型レギュレーションを利用するアイデアを開発することにより、この問題を解決するための乗算器の多重ブロック交互方向法を提案する。 各ブロック更新において,最大化最小化手順を用いることで,プリミティブ変数の更新を規定する。 独立収束解析は、拡張ラグランジアンの臨界点への生成列の大域収束と同様に後続性を証明するために行われる。 また, 反復複雑性を確立し, 提案アルゴリズムの予備的な数値計算結果を提供する。

This paper considers a multiblock nonsmooth nonconvex optimization problem with nonlinear coupling constraints. By developing the idea of using the information zone and adaptive regime proposed in [J. Bolte, S. Sabach and M. Teboulle, Nonconvex Lagrangian-based optimization: Monitoring schemes and global convergence, Mathematics of Operations Research, 43: 1210--1232, 2018], we propose a multiblock alternating direction method of multipliers for solving this problem. We specify the update of the primal variables by employing a majorization minimization procedure in each block update. An independent convergence analysis is conducted to prove subsequential as well as global convergence of the generated sequence to a critical point of the augmented Lagrangian. We also establish iteration complexity and provide preliminary numerical results for the proposed algorithm.
翻訳日:2022-01-20 17:30:17 公開日:2022-01-19
# (参考訳) 混合モデルと文書特色ファインタニングを用いた中世写本のオープンソース手書き文字認識

Open Source Handwritten Text Recognition on Medieval Manuscripts using Mixed Models and Document-Specific Finetuning ( http://arxiv.org/abs/2201.07661v1 )

ライセンス: CC BY 4.0
Christian Reul, Stefan Tomasek, Florian Langhanki, Uwe Springmann(参考訳) 本稿では,ドイツの中世写本における実践的かつオープンソースの手書き文字認識(HTR)の課題を扱う。 本報告では,文書固有の訓練を一切行わず,かつ数ページの書き起こしテキスト(地下真実)に新たなモデルをトレーニングすることで,微調整の出発点として機能する混在認識モデルの構築について述べる。 混合モデルをトレーニングするために、35の原稿とcaのコーパスを集めました。 ゴシック文字とバスターダ文字の2種類の筆跡用の12.5kテキスト行。 4つの未確認原稿の混合モデルの評価の結果、平均的な文字誤り率(CER)は6.22%となった。 2、4ページ、32ページのトレーニングを経て、CERはそれぞれ3.27%、2.58%、1.65%に低下した。 ドメイン内におけるモデル認識とトレーニング(bastarda model to bastarda material, gothic to gothic)は、当然ながら最高の結果をもたらしたが、ドメイン外モデルから見えないスクリプトへの微調整は、いまだにスクラッチからトレーニングよりも優れていることが示されている。 私たちの新しい混合モデルは、コミュニティに公開されています。

This paper deals with the task of practical and open source Handwritten Text Recognition (HTR) on German medieval manuscripts. We report on our efforts to construct mixed recognition models which can be applied out-of-the-box without any further document-specific training but also serve as a starting point for finetuning by training a new model on a few pages of transcribed text (ground truth). To train the mixed models we collected a corpus of 35 manuscripts and ca. 12.5k text lines for two widely used handwriting styles, Gothic and Bastarda cursives. Evaluating the mixed models out-of-the-box on four unseen manuscripts resulted in an average Character Error Rate (CER) of 6.22%. After training on 2, 4 and eventually 32 pages the CER dropped to 3.27%, 2.58%, and 1.65%, respectively. While the in-domain recognition and training of models (Bastarda model to Bastarda material, Gothic to Gothic) unsurprisingly yielded the best results, finetuning out-of-domain models to unseen scripts was still shown to be superior to training from scratch. Our new mixed models have been made openly available to the community.
翻訳日:2022-01-20 17:29:10 公開日:2022-01-19
# (参考訳) 半自動的3dオブジェクトキーポイントアノテーションとマス検出

Semi-automatic 3D Object Keypoint Annotation and Detection for the Masses ( http://arxiv.org/abs/2201.07665v1 )

ライセンス: CC BY 4.0
Kenneth Blomqvist, Jen Jen Chung, Lionel Ott, Roland Siegwart(参考訳) コンピュータビジョンデータセットの作成には、慎重な計画と多くの時間と労力が必要です。 ロボット工学研究において、オブジェクト追跡、ポーズ推定、把握、操作などのタスクには、YCBオブジェクトセットのような標準化されたオブジェクトを使う必要があることが多い。 学習ベースのコンピュータビジョン手法は、既存のデータセットでサポートされているシナリオでのみ使用できるため、この研究の影響は限定されます。 本研究では,データ収集,ラベル付け,モデル学習,評価からプロセス全体を包含する,完全なオブジェクトキーポイント追跡ツールキットを提案する。 本稿では,手首装着型カメラを標準ロボットアームに装着し,データセットの収集とラベル付けを行う半自動的な手法を提案する。 当社のツールキットとメソッドを使えば,動作する3dオブジェクトキーポイント検出器を入手して,データ収集,アノテーション,学習のプロセス全体を,わずか数時間のアクティブな時間で実行することが可能です。

Creating computer vision datasets requires careful planning and lots of time and effort. In robotics research, we often have to use standardized objects, such as the YCB object set, for tasks such as object tracking, pose estimation, grasping and manipulation, as there are datasets and pre-learned methods available for these objects. This limits the impact of our research since learning-based computer vision methods can only be used in scenarios that are supported by existing datasets. In this work, we present a full object keypoint tracking toolkit, encompassing the entire process from data collection, labeling, model learning and evaluation. We present a semi-automatic way of collecting and labeling datasets using a wrist mounted camera on a standard robotic arm. Using our toolkit and method, we are able to obtain a working 3D object keypoint detector and go through the whole process of data collection, annotation and learning in just a couple hours of active time.
翻訳日:2022-01-20 17:16:24 公開日:2022-01-19
# (参考訳) コードの洗練: コードレコメンデーションからロジックレコメンデーションへ

Code Sophistication: From Code Recommendation to Logic Recommendation ( http://arxiv.org/abs/2201.07674v1 )

ライセンス: CC BY 4.0
Jessie Galasso, Michalis Famelis, Houari Sahraoui(参考訳) プログラミングの典型的なアプローチは、まずメインの実行シナリオをコーディングし、次に代替の振る舞いやコーナーケースを埋めることに集中することである。 しかし、ほとんど常に、プログラム仕様では予測が難しい非定型的な振る舞いを誘発する異常な条件が存在するため、しばしばコード化されない。 本稿では,コードの高度化(code sophistication)と呼ばれる,そのような欠落した行動の検出と推奨の問題について考察する。 コーディングアシスタントに関するこれまでの研究は、通常、意図した振る舞いの仕様に基づいてコードフラグメントを推奨することに焦点を当てている。 対照的に、コードの洗練は仕様がないときに起こり、開発者が不明確で特定されていない振る舞いでプログラムのロジックを完成させるのを助けることを目的としている。 本稿では,本問題に対する研究課題を概説し,コード構造と入力パラメータの使用状況に関する情報を利用してプログラム論理の完成方法を示す。

A typical approach to programming is to first code the main execution scenario, and then focus on filling out alternative behaviors and corner cases. But, almost always, there exist unusual conditions that trigger atypical behaviors, which are hard to predict in program specifications, and are thus often not coded. In this paper, we consider the problem of detecting and recommending such missing behaviors, a task that we call code sophistication. Previous research on coding assistants usually focuses on recommending code fragments based on specifications of the intended behavior. In contrast, code sophistication happens in the absence of a specification, aiming to help developers complete the logic of their programs with missing and unspecified behaviors. We outline the research challenges to this problem and present early results showing how program logic can be completed by leveraging code structure and information about the usage of input parameters.
翻訳日:2022-01-20 17:01:53 公開日:2022-01-19
# (参考訳) Tiny, always-on, fragile: デバイス上の機械学習ワークフローの設計選択によるバイアス伝搬

Tiny, always-on and fragile: Bias propagation through design choices in on-device machine learning workflows ( http://arxiv.org/abs/2201.07677v1 )

ライセンス: CC BY 4.0
Wiebke Toussaint, Akhil Mathur, Aaron Yi Ding, Fahim Kawsar(参考訳) 何十億もの分散、異質、リソースに制約のあるスマートコンシューマデバイスがデバイス上で機械学習(ML)をデプロイし、個人データに対してプライベート、高速、オフラインの推論を提供する。 オンデバイスMLシステムは、コンテキスト依存性が高く、ユーザ、使用状況、ハードウェア、環境属性に敏感である。 この感度とMLのバイアスに対する妥当性にもかかわらず、オンデバイスMLのバイアスは研究されていない。 本稿では、デバイス上でのML開発ワークフローにおける設計選択によるバイアスの伝播について検討する。 我々は、デバイス上のML設定における不公平性の源として、人口集団間で異なるデバイス障害から生じる「emph{reliablity bias}」を位置づけ、メトリクスを評価して評価する。 次に、ユーザグループ間で異なるパフォーマンスをもたらすことができるオンデバイスMLワークフローにおける、複雑で対話的な技術設計の選択を特定します。 最後に,音声キーワードスポッティング開発ワークフローを通じて,データサンプル率,入力特徴の構築に使用される前処理パラメータ,ハイパーパラメータのpruningなど,一見無作為な設計選択が<emph{reliability bias} を伝搬することを示す。 私たちは洞察を活用して、開発者がデバイス上でより公平なMLを開発するための戦略を提案します。

Billions of distributed, heterogeneous and resource constrained smart consumer devices deploy on-device machine learning (ML) to deliver private, fast and offline inference on personal data. On-device ML systems are highly context dependent, and sensitive to user, usage, hardware and environmental attributes. Despite this sensitivity and the propensity towards bias in ML, bias in on-device ML has not been studied. This paper studies the propagation of bias through design choices in on-device ML development workflows. We position \emph{reliablity bias}, which arises from disparate device failures across demographic groups, as a source of unfairness in on-device ML settings and quantify metrics to evaluate it. We then identify complex and interacting technical design choices in the on-device ML workflow that can lead to disparate performance across user groups, and thus \emph{reliability bias}. Finally, we show with an empirical case study that seemingly innocuous design choices such as the data sample rate, pre-processing parameters used to construct input features and pruning hyperparameters propagate \emph{reliability bias} through an audio keyword spotting development workflow. We leverage our insights to suggest strategies for developers to develop fairer on-device ML.
翻訳日:2022-01-20 16:51:40 公開日:2022-01-19
# (参考訳) ラベル選択バイアスを伴わない偏差グラフニューラルネットワーク

Debiased Graph Neural Networks with Agnostic Label Selection Bias ( http://arxiv.org/abs/2201.07708v1 )

ライセンス: CC BY 4.0
Shaohua Fan, Xiao Wang, Chuan Shi, Kun Kuang, Nian Liu, Bai Wang(参考訳) 既存のグラフニューラルネットワーク(GNN)のほとんどは、データの選択バイアス、すなわちテストセットによるトレーニングセット間の不整合分布を考慮せずに提案されている。 実際には、トレーニングプロセス中にテストデータが利用できないため、選択バイアスが非依存になる。 バイアスのある選択ノードによるGNNのトレーニングは、重要なパラメータ推定バイアスをもたらし、テストノードの一般化能力に大きな影響を及ぼす。 本稿では,まず,選択バイアスがGNNの一般化能力を著しく阻害することを示す実験を行い,選択バイアスがGNNパラメータに対するバイアス推定を引き起こすことを理論的に証明する。 そして、GNN推定におけるバイアスを取り除くために、微分デコリレーション正則化を用いた新しいデバイアスドグラフニューラルネットワーク(DGNN)を提案する。 差分デコリレーション正則化器は各ラベル付きノードの標本重量を推定し、学習した埋め込みの急激な相関を排除できる。 因果的視点で正規化子を分析し,それらの共起バイアスに対する寄与に基づいて変数の重みを区別する動機付けを行う。 そして、これらのサンプル重みをGNNの重み付けに用いて推定バイアスを排除し、未知のテストノードでの予測の安定性を向上させる。 2種類のラベル選択バイアスを持ついくつかの挑戦グラフデータセットに対して総合的な実験を行った。 その結果,提案モデルが最先端の手法より優れており,DGNNは既存のGNNを強化する柔軟なフレームワークであることがわかった。

Most existing Graph Neural Networks (GNNs) are proposed without considering the selection bias in data, i.e., the inconsistent distribution between the training set with test set. In reality, the test data is not even available during the training process, making selection bias agnostic. Training GNNs with biased selected nodes leads to significant parameter estimation bias and greatly impacts the generalization ability on test nodes. In this paper, we first present an experimental investigation, which clearly shows that the selection bias drastically hinders the generalization ability of GNNs, and theoretically prove that the selection bias will cause the biased estimation on GNN parameters. Then to remove the bias in GNN estimation, we propose a novel Debiased Graph Neural Networks (DGNN) with a differentiated decorrelation regularizer. The differentiated decorrelation regularizer estimates a sample weight for each labeled node such that the spurious correlation of learned embeddings could be eliminated. We analyze the regularizer in causal view and it motivates us to differentiate the weights of the variables based on their contribution on the confounding bias. Then, these sample weights are used for reweighting GNNs to eliminate the estimation bias, thus help to improve the stability of prediction on unknown test nodes. Comprehensive experiments are conducted on several challenging graph datasets with two kinds of label selection biases. The results well verify that our proposed model outperforms the state-of-the-art methods and DGNN is a flexible framework to enhance existing GNNs.
翻訳日:2022-01-20 16:27:20 公開日:2022-01-19
# (参考訳) human-driven dynamic dataset augmentationによる行動クローニングの改善

Improving Behavioural Cloning with Human-Driven Dynamic Dataset Augmentation ( http://arxiv.org/abs/2201.07719v1 )

ライセンス: CC BY 4.0
Federico Malato, Joona Jehkonen, Ville Hautam\"aki(参考訳) 行動クローニングはエージェントの訓練に広く使われており、専門家の軌跡に基づく一般的な行動を教えるための高速で堅固なアプローチとして認識されている。 このような手法は教師付き学習パラダイムに従っており、データの分布に強く依存する。 本稿では,ループ内トレーニングと行動のクローニングを組み合わせることで,その欠点のいくつかを解消し,訓練時間を短縮し,必要なリソースを削減しつつ,厄介な状況を克服するためのエージェントタスク固有の修正を行う。 そこで,我々は,専門家がシミュレーション中にエージェントをいつでも制御し,問題のある状況に対して最適な解決策を提供するための新しい手法を提案する。 我々の実験は、このアプローチが定量的評価と人間の類似性の両方においてより良い政策をもたらすことを示している。

Behavioural cloning has been extensively used to train agents and is recognized as a fast and solid approach to teach general behaviours based on expert trajectories. Such method follows the supervised learning paradigm and it strongly depends on the distribution of the data. In our paper, we show how combining behavioural cloning with human-in-the-loop training solves some of its flaws and provides an agent task-specific corrections to overcome tricky situations while speeding up the training time and lowering the required resources. To do this, we introduce a novel approach that allows an expert to take control of the agent at any moment during a simulation and provide optimal solutions to its problematic situations. Our experiments show that this approach leads to better policies both in terms of quantitative evaluation and in human-likeliness.
翻訳日:2022-01-20 15:50:48 公開日:2022-01-19
# (参考訳) Scotch: セキュア集約のための効率的なセキュア計算フレームワーク

Scotch: An Efficient Secure Computation Framework for Secure Aggregation ( http://arxiv.org/abs/2201.07730v1 )

ライセンス: CC BY 4.0
Arup Mondal, Yash More, Prashanthi Ramachandran, Priyam Panda, Harpreet Virk, Debayan Gupta(参考訳) フェデレーション学習は、複数のデータ所有者がプライベートデータセットを公開せずに、機械学習モデルを共同でトレーニングすることを可能にする。 しかし、悪意のあるアグリゲーションサーバは、モデルパラメータを使用して、使用するトレーニングデータセットに関する機密情報を導き出すことができる。 このような漏洩に対処するために、ディファレンシャルプライバシと暗号化技術が先行研究で研究されてきたが、これは大きな通信オーバーヘッドやモデルパフォーマンスへの影響をもたらすことが多い。 この中央集権化を緩和するため,我々は,分散型 \textit{m-party} secure-computation frameworkである \textit{secret sharing} という mpc プリミティブをデプロイするフェデレートアグリゲーションのための \textsc{scotch} を提案する。 私たちのプロトコルはシンプルで効率的で、興味のあるアグリゲータに対する厳格なプライバシー保証や、通信オーバーヘッドを最小限に抑えるデータ所有者とのコラボレーションを提供する。 我々は,有望な結果を得た複数のデータセットに対して広範な実験を行うことで,我々のフレームワークを評価する。 \textsc{Scotch} は、トレーニングデータセットを3人の参加ユーザと3つの集約サーバに分割し、MNISTで96.57\%、拡張MNIST(digits)データセットで98.40\%の精度でトレーニングすることができる。

Federated learning enables multiple data owners to jointly train a machine learning model without revealing their private datasets. However, a malicious aggregation server might use the model parameters to derive sensitive information about the training dataset used. To address such leakage, differential privacy and cryptographic techniques have been investigated in prior work, but these often result in large communication overheads or impact model performance. To mitigate this centralization of power, we propose \textsc{Scotch}, a decentralized \textit{m-party} secure-computation framework for federated aggregation that deploys MPC primitives, such as \textit{secret sharing}. Our protocol is simple, efficient, and provides strict privacy guarantees against curious aggregators or colluding data-owners with minimal communication overheads compared to other existing \textit{state-of-the-art} privacy-preserving federated learning frameworks. We evaluate our framework by performing extensive experiments on multiple datasets with promising results. \textsc{Scotch} can train the standard MLP NN with the training dataset split amongst 3 participating users and 3 aggregating servers with 96.57\% accuracy on MNIST, and 98.40\% accuracy on the Extended MNIST (digits) dataset, while providing various optimizations.
翻訳日:2022-01-20 15:41:42 公開日:2022-01-19
# 分散ディープラーニングのための準最適スパースallreduce

Near-Optimal Sparse Allreduce for Distributed Deep Learning ( http://arxiv.org/abs/2201.07598v1 )

ライセンス: Link先を確認
Shigang Li, Torsten Hoefler(参考訳) 大規模なディープラーニングモデルをトレーニングする上で,コミュニケーションのオーバーヘッドは大きな障害のひとつだ。 勾配スパーシフィケーションは通信量を減らすための有望な技術である。 しかし,(1)スケーラブルで効率的なsparse allreduceアルゴリズムの達成が困難で,(2)スパース化オーバーヘッドの低減が困難であることから,実性能の向上は困難である。 本稿では,分散勾配を持つ分散学習のためのスキームであるo$k$-top$k$を提案する。 O$k$-Top$k$は、分散並列SGD(Stochastic Gradient Descent)オプティマイザと新しいスパースアレーダアルゴリズム(漸近的に最適である6$k$以下の通信量)を統合し、その収束性を証明する。 スパーシフィケーションオーバーヘッドを低減するため、o$k$-top$k$は推定しきい値に応じてトップ$k$勾配値を効率的に選択する。 異なるディープラーニング領域のニューラルネットワークモデルを用いたpiz daintスーパーコンピュータ上で評価を行う。 実験の結果、o$k$-top$k$ は密集したallreduceと類似のモデル精度が得られることがわかった。 最適化されたsparse allreduceと最先端のsparse allreduceと比較して、o$k$-top$k$はよりスケーラブルで、トレーニングスループットが大幅に向上している(256gpuでのbertの3.29x-12.95倍の改善など)。

Communication overhead is one of the major obstacles to train large deep learning models at scale. Gradient sparsification is a promising technique to reduce the communication volume. However, it is very challenging to obtain real performance improvement because of (1) the difficulty of achieving an scalable and efficient sparse allreduce algorithm and (2) the sparsification overhead. This paper proposes O$k$-Top$k$, a scheme for distributed training with sparse gradients. O$k$-Top$k$ integrates a novel sparse allreduce algorithm (less than 6$k$ communication volume which is asymptotically optimal) with the decentralized parallel Stochastic Gradient Descent (SGD) optimizer, and its convergence is proved. To reduce the sparsification overhead, O$k$-Top$k$ efficiently selects the top-$k$ gradient values according to an estimated threshold. Evaluations are conducted on the Piz Daint supercomputer with neural network models from different deep learning domains. Empirical results show that O$k$-Top$k$ achieves similar model accuracy to dense allreduce. Compared with the optimized dense and the state-of-the-art sparse allreduces, O$k$-Top$k$ is more scalable and significantly improves training throughput (e.g., 3.29x-12.95x improvement for BERT on 256 GPUs).
翻訳日:2022-01-20 15:28:27 公開日:2022-01-19
# Pairwise expecteded Regret を用いたプッシュ通知のランク付け学習

Learning to Rank For Push Notifications Using Pairwise Expected Regret ( http://arxiv.org/abs/2201.07681v1 )

ライセンス: Link先を確認
Yuguang Yue, Yuanpu Xie, Huasen Wu, Haofeng Jia, Shaodan Zhai, Wenzhe Shi, Jonathan J Hunt(参考訳) ランキングの損失は推薦システムで広く研究されている。 しかし,コンテンツ消費の新しいパラダイムは,ランキング手法に新たな課題をもたらす。 本研究では,パーソナライズされたモバイルプッシュ通知に対してランク付けを行うための学習の分析を行い,従来のランキング問題と比較して,提示するユニークな課題について論じる。 これらの課題に対処するため,提案手法では,候補間の対数損失の重み付けに基づく新しいランキング損失について紹介する。 提案手法は,シミュレーション環境および主要ソーシャルネットワーク上での運用実験において,先行手法を上回ることができることを示す。

Listwise ranking losses have been widely studied in recommender systems. However, new paradigms of content consumption present new challenges for ranking methods. In this work we contribute an analysis of learning to rank for personalized mobile push notifications and discuss the unique challenges this presents compared to traditional ranking problems. To address these challenges, we introduce a novel ranking loss based on weighting the pairwise loss between candidates by the expected regret incurred for misordering the pair. We demonstrate that the proposed method can outperform prior methods both in a simulated environment and in a production experiment on a major social network.
翻訳日:2022-01-20 15:28:00 公開日:2022-01-19
# スマートホームにおける合成データ生成のための変分オートエンコーダ生成逆ネットワーク

Variational Autoencoder Generative Adversarial Network for Synthetic Data Generation in Smart Home ( http://arxiv.org/abs/2201.07387v1 )

ライセンス: Link先を確認
Mina Razghandi, Hao Zhou, Melike Erol-Kantarci, and Damla Turgut(参考訳) データは、他の多くの分野と同様、スマートグリッドアプリケーションのためのデータサイエンスおよび機械学習技術の燃料である。 しかし、プライバシの懸念やデータサイズ、データ品質などによって、データの可用性が問題になる可能性がある。 To this end, in this paper, we propose a Variational AutoEncoder Generative Adversarial Network (VAE-GAN) as a smart grid data generative model which is capable of learning various types of data distributions and generating plausible samples from the same distribution without performing any prior analysis on the data before the training phase.We compared the Kullback-Leibler (KL) divergence, maximum mean discrepancy (MMD), and Wasserstein distance between the synthetic data (electrical load and PV production) distribution generated by the proposed model, vanilla GAN network, and the real data distribution, to evaluate the performance of our model. さらに,スマートグリッドデータ分布を記述するために5つの重要な統計パラメータを用い,モデルと実データの両方から生成された合成データと比較した。 実験により,提案した合成データ生成モデルは,バニラGANネットワークより優れていることが示された。 vae-gan合成データの分布は、実データと最もよく似ている。

Data is the fuel of data science and machine learning techniques for smart grid applications, similar to many other fields. However, the availability of data can be an issue due to privacy concerns, data size, data quality, and so on. To this end, in this paper, we propose a Variational AutoEncoder Generative Adversarial Network (VAE-GAN) as a smart grid data generative model which is capable of learning various types of data distributions and generating plausible samples from the same distribution without performing any prior analysis on the data before the training phase.We compared the Kullback-Leibler (KL) divergence, maximum mean discrepancy (MMD), and Wasserstein distance between the synthetic data (electrical load and PV production) distribution generated by the proposed model, vanilla GAN network, and the real data distribution, to evaluate the performance of our model. Furthermore, we used five key statistical parameters to describe the smart grid data distribution and compared them between synthetic data generated by both models and real data. Experiments indicate that the proposed synthetic data generative model outperforms the vanilla GAN network. The distribution of VAE-GAN synthetic data is the most comparable to that of real data.
翻訳日:2022-01-20 15:25:05 公開日:2022-01-19
# 離散的粗経路によるディープニューラルネットワークの安定性

Stability of Deep Neural Networks via discrete rough paths ( http://arxiv.org/abs/2201.07566v1 )

ライセンス: Link先を確認
Christian Bayer, Peter K. Friz, Nikolas Tapia(参考訳) 粗い経路法を用いて、入力データと(訓練された)ネットワーク重みの双方の観点から、ディープ残留ニューラルネットワークの出力に対する事前推定を行う。 トレーニングされたネットワーク重みは、通常、層の関数と見なすと非常に粗いので、任意の$p\in[1,3]$に対してトレーニングされた重みの合計$p$-variationという観点から、安定性境界を求める。 axiv:2105.12245] で示唆されるようなブラウン運動のように振る舞う重みの制限ケースにおいても、神経ode の文献の基礎となる $c^1$-理論とは異なり、推定値には限界がある。 数学的には、残留ニューラルネットワークを(粗)差分方程式の解として解釈し、離散時間シグネチャと粗経路理論の最近の結果に基づいて解析する。

Using rough path techniques, we provide a priori estimates for the output of Deep Residual Neural Networks in terms of both the input data and the (trained) network weights. As trained network weights are typically very rough when seen as functions of the layer, we propose to derive stability bounds in terms of the total $p$-variation of trained weights for any $p\in[1,3]$. Unlike the $C^1$-theory underlying the neural ODE literature, our estimates remain bounded even in the limiting case of weights behaving like Brownian motions, as suggested in [arXiv:2105.12245]. Mathematically, we interpret residual neural network as solutions to (rough) difference equations, and analyse them based on recent results of discrete time signatures and rough path theory.
翻訳日:2022-01-20 15:24:50 公開日:2022-01-19
# ツープレイヤーゼロサムゲームにおける任意のPSRO

Anytime Optimal PSRO for Two-Player Zero-Sum Games ( http://arxiv.org/abs/2201.07700v1 )

ライセンス: Link先を確認
Stephen McAleer, Kevin Wang, Marc Lanctot, John Lanier, Pierre Baldi, Roy Fox(参考訳) ポリシー空間応答オラクル(psro: policy space response oracles)は、連続したアクションを処理できるゲームのためのマルチエージェント強化学習アルゴリズムであり、大規模なゲームで経験的にナッシュ平衡が発見された。 PSROは、Nash平衡に収束することが保証されるが、あるイテレーションから次のイテレーションへのエクスプロイザビリティを高めることができる、表形式のDouble Oracle(DO)メソッドに基づいている。 我々は,繰り返しから繰り返しへの悪用性を低減しつつ,ナッシュ平衡に収束することを保証した2プレイヤゼロサムゲームのための表型二重オラクルアルゴリズムであるAnytime Optimal Double Oracle (AODO)を提案する。 メタストラテジーが各プレイヤーの戦略セットによって形成された制限されたゲームに基づいているdoとは異なり、aodoは、すべての制限のないゲームにおけるポリシーに対する利用性を最小化する各プレイヤーのメタストラテジーを見つける。 また, rm-br doと呼ばれる連続的に学習されるベスト応答に対して更新されるno-regretアルゴリズムを用いて, このメタストラテジーを求める手法を提案する。 最後に,強化学習によるベスト応答を計算するaodoのバージョンであるanytime optimal psroを提案する。 Leduc ポーカーとランダムな正規形式ゲームの実験では、我々の手法は DO や PSRO よりもはるかに低いエクスプロイラビリティを実現し、エクスプロイラビリティは向上しない。

Policy Space Response Oracles (PSRO) is a multi-agent reinforcement learning algorithm for games that can handle continuous actions and has empirically found approximate Nash equilibria in large games. PSRO is based on the tabular Double Oracle (DO) method, an algorithm that is guaranteed to converge to a Nash equilibrium, but may increase exploitability from one iteration to the next. We propose Anytime Optimal Double Oracle (AODO), a tabular double oracle algorithm for 2-player zero-sum games that is guaranteed to converge to a Nash equilibrium while decreasing exploitability from iteration to iteration. Unlike DO, in which the meta-strategy is based on the restricted game formed by each player's strategy sets, AODO finds the meta-strategy for each player that minimizes its exploitability against any policy in the full, unrestricted game. We also propose a method of finding this meta-strategy via a no-regret algorithm updated against a continually-trained best response, called RM-BR DO. Finally, we propose Anytime Optimal PSRO, a version of AODO that calculates best responses via reinforcement learning. In experiments on Leduc poker and random normal form games, we show that our methods achieve far lower exploitability than DO and PSRO and never increase exploitability.
翻訳日:2022-01-20 15:24:31 公開日:2022-01-19
# ウェアラブル・ブレイン・コンピュータ・インタフェースのセキュリティとプライバシーの強化

Enhancing the Security & Privacy of Wearable Brain-Computer Interfaces ( http://arxiv.org/abs/2201.07711v1 )

ライセンス: Link先を確認
Zahra Tarkhani, Lorena Qendro, Malachy O'Connor Brown, Oscar Hill, Cecilia Mascolo, Anil Madhavapeddy(参考訳) ブレインコンピューティングインターフェース(BCI)は、医療からスマートコミュニケーション、制御に至るまで、安全/プライバシクリティカルな多くのアプリケーションで使用されている。 ウェアラブルなBCIセットアップは通常、ヘッドマウントセンサーをモバイルデバイスに接続し、MLベースのデータ処理と組み合わせる。 そのため、ハードウェア、ソフトウェア、ネットワークスタックにまたがる攻撃が多様になり、ユーザーの脳波データを漏洩したり、最悪の場合、bci支援デバイスの制御を遠隔攻撃者に放棄したりすることができる。 本稿では, (i)オペレーティングシステムと機械学習の観点から、既存のウェアラブルbci製品に対するシステム全体のセキュリティとプライバシーの脅威を分析する。 (ii)これらの攻撃を緩和するウェアラブルbciアプリケーションのための最初の情報フロー制御システムであるargusを紹介する。 Argusのドメイン固有の設計は、既存のBCIユースケースに適したLinux ARMプラットフォームに軽量な実装をもたらす。 実世界のBCIデバイス(Muse、NeuroSky、OpenBCI)に対する概念攻撃の証明は、6つの主要な攻撃ベクトルのスタックに300以上の脆弱性を発見しました。 評価の結果,Argusは機密データフローの追跡に極めて有効であり,これらの攻撃を許容メモリと性能上のオーバーヘッド(15%)で抑制できることがわかった。

Brain computing interfaces (BCI) are used in a plethora of safety/privacy-critical applications, ranging from healthcare to smart communication and control. Wearable BCI setups typically involve a head-mounted sensor connected to a mobile device, combined with ML-based data processing. Consequently, they are susceptible to a multiplicity of attacks across the hardware, software, and networking stacks used that can leak users' brainwave data or at worst relinquish control of BCI-assisted devices to remote attackers. In this paper, we: (i) analyse the whole-system security and privacy threats to existing wearable BCI products from an operating system and adversarial machine learning perspective; and (ii) introduce Argus, the first information flow control system for wearable BCI applications that mitigates these attacks. Argus' domain-specific design leads to a lightweight implementation on Linux ARM platforms suitable for existing BCI use-cases. Our proof of concept attacks on real-world BCI devices (Muse, NeuroSky, and OpenBCI) led us to discover more than 300 vulnerabilities across the stacks of six major attack vectors. Our evaluation shows Argus is highly effective in tracking sensitive dataflows and restricting these attacks with an acceptable memory and performance overhead (<15%).
翻訳日:2022-01-20 15:24:03 公開日:2022-01-19
# グラフ上での情報伝達モデル

Models for information propagation on graphs ( http://arxiv.org/abs/2201.07577v1 )

ライセンス: Link先を確認
Oliver R. A. Dunbar, Charles M. Elliott and Lisa Maria Kreusser(参考訳) 本研究では,グラフ上の情報伝達のための異なるモデルのクラスを提案し,統一する。 第1のクラスでは、情報波前線がノードに到達した時刻によって決定された順序で、初期時刻に既知のノードの集合からその後のすべての未知のノードへ伝播する波としてモデル化される。 モデルの第2のクラスは、ノード間の経路に沿った移動時間の概念に基づいている。 初期既知のノードの集合からノードへの情報伝達時間は、全ての許容パスのサブセットに対する一般化された移動時間の最小値として定義される。 最終クラスは、既知のノードの境界条件を持つ未知の各ノードに固有形式の局所方程式を付与することによって与えられる。 ノードにおける局所方程式の解値は、隣接するノードをより小さな解値で結合する。 このグラフ設定において、モデルクラスの正確な定式化を提供し、それらの同値性を証明する。 連続体設定における最初の到着時間モデルと固有方程式の接続により、あるグラフモデルの格子洗練の下でユークリッド空間平均場限界の特定の形式の格子のグラフに対して、ハミルトン・ヤコビ PDE が導かれることを示す。 特定のパラメータの設定では、格子上の解がユークリッド距離に近似することを示す。

In this work we propose and unify classes of different models for information propagation over graphs. In a first class, propagation is modeled as a wave which emanates from a set of known nodes at an initial time, to all other unknown nodes at later times with an ordering determined by the time at which the information wave front reaches nodes. A second class of models is based on the notion of a travel time along paths between nodes. The time of information propagation from an initial known set of nodes to a node is defined as the minimum of a generalized travel time over subsets of all admissible paths. A final class is given by imposing a local equation of an eikonal form at each unknown node, with boundary conditions at the known nodes. The solution value of the local equation at a node is coupled the neighbouring nodes with smaller solution values. We provide precise formulations of the model classes in this graph setting, and prove equivalences between them. Motivated by the connection between first arrival time model and the eikonal equation in the continuum setting, we demonstrate that for graphs in the particular form of grids in Euclidean space mean field limits under grid refinement of certain graph models lead to Hamilton-Jacobi PDEs. For a specific parameter setting, we demonstrate that the solution on the grid approximates the Euclidean distance.
翻訳日:2022-01-20 15:23:30 公開日:2022-01-19
# 意味認識によるニューラルオーディオ駆動映像画像生成

Semantic-Aware Implicit Neural Audio-Driven Video Portrait Generation ( http://arxiv.org/abs/2201.07786v1 )

ライセンス: Link先を確認
Xian Liu, Yinghao Xu, Qianyi Wu, Hang Zhou, Wayne Wu, Bolei Zhou(参考訳) バーチャルリアリティーとデジタルエンターテイメントにとって、高忠実度ビデオポートレートを音声でアニメーションすることは不可欠である。 これまでのほとんどの研究は、正確な明示的な構造情報に依存しているが、最近の研究は、現実的な生成のための神経放射場(nerf)の暗黙的なシーン表現を探求している。 不整合運動と人間の頭と胴体の間の意味的差異を捉えるために、いくつかの研究は2つの個別のNeRFを通してそれらをモデル化し、不自然な結果をもたらす。 本稿では,一組のnerfを用いて繊細な音声駆動ポートレートを生成する意味認識型スポーキング・ポートレート・nerf(ssp-nerf)を提案する。 提案モデルは,2つのセマンティクス・アウェアモジュールを通じて,詳細な局所的セマンティクスとグローバルヘッド・トーソ関係を処理できる。 具体的には,音響駆動ボリュームレンダリングを容易にする構文解析ブランチを付加した,意味認識型動的レイサンプリングモジュールを提案する。 さらに、1つの統合神経放射場におけるポートレートレンダリングを可能にするため、Torso変形モジュールは大規模な非剛性胴体運動を安定させるように設計されている。 提案手法は,従来の手法に比べてよりリアルな映像を再現できることを示す。 プロジェクトページ:https://alvinliu0.github.io/projects/SSP-NeRF

Animating high-fidelity video portrait with speech audio is crucial for virtual reality and digital entertainment. While most previous studies rely on accurate explicit structural information, recent works explore the implicit scene representation of Neural Radiance Fields (NeRF) for realistic generation. In order to capture the inconsistent motions as well as the semantic difference between human head and torso, some work models them via two individual sets of NeRF, leading to unnatural results. In this work, we propose Semantic-aware Speaking Portrait NeRF (SSP-NeRF), which creates delicate audio-driven portraits using one unified set of NeRF. The proposed model can handle the detailed local facial semantics and the global head-torso relationship through two semantic-aware modules. Specifically, we first propose a Semantic-Aware Dynamic Ray Sampling module with an additional parsing branch that facilitates audio-driven volume rendering. Moreover, to enable portrait rendering in one unified neural radiance field, a Torso Deformation module is designed to stabilize the large-scale non-rigid torso motions. Extensive evaluations demonstrate that our proposed approach renders more realistic video portraits compared to previous methods. Project page: https://alvinliu0.github.io/projects/SSP-NeRF
翻訳日:2022-01-20 15:23:09 公開日:2022-01-19
# (参考訳) コロナKH-4(1962-1972)ステレオ画像の自動処理パイプライン

A pipeline for automated processing of Corona KH-4 (1962-1972) stereo imagery ( http://arxiv.org/abs/2201.07756v1 )

ライセンス: CC BY 4.0
Sajid Ghuffar, Tobias Bolch, Ewelina Rupnik, Atanu Bhattacharya(参考訳) 1962-1972年のコロナKH-4偵察衛星ミッションは、空間解像度1.8-7.5mのパノラマステレオ画像を獲得した。 800,000以上の非分類コロナ画像のポテンシャルは、パノラマ画像の幾何処理、フィルムの歪み、コロナ画像のジオ参照に必要なメタデータの入手が限られているため、利用されていない。 本稿では,コロナkh-4ステレオパノラマ画像の処理パイプラインであるcorona stereo pipeline (cosp)を提案する。 CoSPは、ディープラーニングベースの機能マーカSuperGlueを利用して、Corona KH-4イメージと最近の衛星画像との間の特徴点を自動的にマッチングし、グラウンドコントロールポイント(GCP)を生成する。 パノラマKH-4カメラの撮影形状と走査運動をモデル化するために、時間依存の外部配向パラメータを持つ修正コリニアリティ方程式からなる厳密なカメラモデルを用いる。 その結果、コロナ画像のフレーム全体を用いて、よく分散したGCPを用いたバンドル調整により、平均標準偏差(SD)は2ピクセル未満であることが判明した。 エピポラリサンプリング画像におけるgcpとyパララックスの画像残差の歪みパターンは、長期保存によるフィルムの歪みが系統的偏差の原因であることを示唆している。 SRTM DEMと比較すると、CoSPを用いて計算されたコロナDEMは、通常の中性絶対偏差(NMAD)を近似領域で約4mの高度差で達成した。 4000$km^2$。 提案したパイプラインは, 高いレリーフと氷河化地形を含む複雑な景観のシーケンスに適用可能であり, 結果として得られるDEMは, 広範囲にわたる長期の氷河標高変化を計算できることを示す。

The Corona KH-4 reconnaissance satellite missions from 1962-1972 acquired panoramic stereo imagery with high spatial resolution of 1.8-7.5 m. The potential of 800,000+ declassified Corona images has not been leveraged due to the complexities arising from handling of panoramic imaging geometry, film distortions and limited availability of the metadata required for georeferencing of the Corona imagery. This paper presents Corona Stereo Pipeline (CoSP): A pipeline for processing of Corona KH-4 stereo panoramic imagery. CoSP utlizes a deep learning based feature matcher SuperGlue to automatically match features point between Corona KH-4 images and recent satellite imagery to generate Ground Control Points (GCPs). To model the imaging geometry and the scanning motion of the panoramic KH-4 cameras, a rigorous camera model consisting of modified collinearity equations with time dependent exterior orientation parameters is employed. The results show that using the entire frame of the Corona image, bundle adjustment using well-distributed GCPs results in an average standard deviation (SD) of less than 2 pixels. The distortion pattern of image residuals of GCPs and y-parallax in epipolar resampled images suggest that film distortions due to long term storage as likely cause of systematic deviations. Compared to the SRTM DEM, the Corona DEM computed using CoSP achieved a Normalized Median Absolute Deviation (NMAD) of elevation differences of ~4 m over an area of approx. 4000 $km^2$. We show that the proposed pipeline can be applied to sequence of complex scenes involving high relief and glacierized terrain and that the resulting DEMs can be used to compute long term glacier elevation changes over large areas.
翻訳日:2022-01-20 15:21:38 公開日:2022-01-19
# (参考訳) 規則を破ることはいつ受け入れられますか。 経験的データに基づく道徳的判断の知識表現

When Is It Acceptable to Break the Rules? Knowledge Representation of Moral Judgement Based on Empirical Data ( http://arxiv.org/abs/2201.07763v1 )

ライセンス: CC BY 4.0
Edmond Awad, Sydney Levine, Andrea Loreggia, Nicholas Mattei, Iyad Rahwan, Francesca Rossi, Kartik Talamadupula, Joshua Tenenbaum, Max Kleiman-Weiner(参考訳) 人間の道徳心の最も注目すべき点は、その柔軟性です。 これまでに見たことのない事件について 道徳的判断をすることができる 確立済みのルールは破られるべきだと判断できます。 私たちはすぐに新しいルールを発明できる。 この柔軟性の獲得は、人間のような道徳的判断を解釈し、生み出すことができるAIシステムの開発における中心的な課題の1つだ。 本稿では,確立された規範を破ることが許容できるかどうかを判断する実世界の意思決定者の調査結果について詳述する。 様々なシナリオにおいて、人間の参加者がラインカットの受理性を判断する方法についてのデータを集めます。 そこで,これらの推論能力を機械に効果的に組み込むために,モラル判断の標準「二重過程」理論の新たな修正を捉えた選好ベースの構造を用いてモデル化する手法を提案する。

One of the most remarkable things about the human moral mind is its flexibility. We can make moral judgments about cases we have never seen before. We can decide that pre-established rules should be broken. We can invent novel rules on the fly. Capturing this flexibility is one of the central challenges in developing AI systems that can interpret and produce human-like moral judgment. This paper details the results of a study of real-world decision makers who judge whether it is acceptable to break a well-established norm: ``no cutting in line.'' We gather data on how human participants judge the acceptability of line-cutting in a range of scenarios. Then, in order to effectively embed these reasoning capabilities into a machine, we propose a method for modeling them using a preference-based structure, which captures a novel modification to standard ``dual process'' theories of moral judgment.
翻訳日:2022-01-20 14:59:13 公開日:2022-01-19
# Data-to-Value: 自然言語プロジェクトの評価ファースト方法論

Data-to-Value: An Evaluation-First Methodology for Natural Language Projects ( http://arxiv.org/abs/2201.07725v1 )

ライセンス: Link先を確認
Jochen L. Leidner(参考訳) ビッグデータ、すなわち大規模なデータの収集、保存、処理は、HDFS/Hadoop/Sparkのようなアプリケーションレベルの分散並列オペレーティングシステムをベースとするコモディティコンピュータのクラスタが登場し、そのようなインフラストラクチャが大規模なデータマイニングに革命をもたらしたため、最近可能になった。 データマイニングプロジェクトがより一貫して成功するためには、いくつかの方法論(CRISP-DM、SEMMA、KDDなど)が開発されたが、これは(1)非常に大規模な処理、(2)テキスト(非構造化)データ(NLP、テキスト分析)、(3)非技術的考察(法的、倫理的、プロジェクト管理的側面など)を考慮に入れていない。 これらの欠点に対処するために、ビッグデータテキスト分析プロジェクトチームが方法論に共通する抽象的なボックス・アンド・アローダイアグラムに直面した際に、トピックとの切り離しを避けるために、詳細な質問カタログによってガイドされる"data to value"(d2v)と呼ばれる新しい方法論が導入されている。

Big data, i.e. collecting, storing and processing of data at scale, has recently been possible due to the arrival of clusters of commodity computers powered by application-level distributed parallel operating systems like HDFS/Hadoop/Spark, and such infrastructures have revolutionized data mining at scale. For data mining project to succeed more consistently, some methodologies were developed (e.g. CRISP-DM, SEMMA, KDD), but these do not account for (1) very large scales of processing, (2) dealing with textual (unstructured) data (i.e. Natural Language Processing (NLP, "text analytics"), and (3) non-technical considerations (e.g. legal, ethical, project managerial aspects). To address these shortcomings, a new methodology, called "Data to Value" (D2V), is introduced, which is guided by a detailed catalog of questions in order to avoid a disconnect of big data text analytics project team with the topic when facing rather abstract box-and-arrow diagrams commonly associated with methodologies.
翻訳日:2022-01-20 14:57:57 公開日:2022-01-19
# 肺超音波AIにおけるPleuraとAdiposeの役割

The Role of Pleura and Adipose in Lung Ultrasound AI ( http://arxiv.org/abs/2201.07368v1 )

ライセンス: Link先を確認
Gautam Rajendrakumar Gare, Wanwen Chen, Alex Ling Yu Hung, Edward Chen, Hai V. Tran, Tom Fox, Pete Lowery, Kevin Zamora, Bennett P deBoisblanc, Ricardo Luis Rodriguez, John Michael Galeotti(参考訳) 本稿では,肺超音波AI解析における胸膜および脂肪組織の重要性について検討する。 曲線型超音波プローブの代わりに高周波リニア(hfl)を使用する場合,より顕著に現れることを示し,より詳細な胸膜像を示す。 hfl超音波プローブを用いて胸膜組織と脂肪組織の診断的有用性を比較した。 トレーニングと推論中に脂肪組織をマスキングする(胸腔線とA線やB線のようなメルリンの空間アーティファクトを保持する)ことで、AIモデルの診断精度が向上した。

In this paper, we study the significance of the pleura and adipose tissue in lung ultrasound AI analysis. We highlight their more prominent appearance when using high-frequency linear (HFL) instead of curvilinear ultrasound probes, showing HFL reveals better pleura detail. We compare the diagnostic utility of the pleura and adipose tissue using an HFL ultrasound probe. Masking the adipose tissue during training and inference (while retaining the pleural line and Merlin's space artifacts such as A-lines and B-lines) improved the AI model's diagnostic accuracy.
翻訳日:2022-01-20 14:57:35 公開日:2022-01-19
# 非可逆MRコイル圧縮のための可変拡張ネットワーク

Variable Augmented Network for Invertible MR Coil Compression ( http://arxiv.org/abs/2201.07428v1 )

ライセンス: Link先を確認
Xianghao Liao, Shanshan Wang, Lanlan Tu, Yuhao Wang, Dong Liang, Qiegen Liu(参考訳) 多数のコイルは、信号対雑音比を高め、並列撮像における撮像性能を向上させることができる。 しかし、コイル数の増加に伴い、特に反復的な再構築において、データストレージと再構築速度の欠点を同時に増大させる。 コイル圧縮は仮想コイルが少ないことでこれらの問題に対処する。 本研究では, 正規化フローモデルの固有可逆性を利用し, 圧縮性および可逆性回復性を向上させるために, インバータブルコイル圧縮のための可変拡張ネットワーク(van-icc)を提案する。 van-iccは、元の画像を圧縮画像にマッピングできる可逆かつ単射関数を見つけることで、可逆ネットワークを訓練する。 実験では,完全サンプリング画像とアンダーサンプリング画像の両方を用いて,モデルの有効性を検証した。 広範に定量的および定性的評価を行った結果、SCCとGCCと比較すると、VAN-ICCは仮想コイルの数に等しい圧縮効果を発揮できることがわかった。 さらに、その性能は異なる仮想コイルの数値バーに影響を受けない。

A large number of coils are able to provide enhanced signal-to-noise ratio and improve imaging performance in parallel imaging. As the increasingly grow of coil number, however, it simultaneously aggravates the drawbacks of data storage and reconstruction speed, especially in some iterative reconstructions. Coil compression addresses these issues by generating fewer virtual coils. In this work, a novel variable augmented network for invertible coil compression (VAN-ICC) is presented, which utilizes inherent reversibility of normalizing-flow-based models, for better compression and invertible recovery. VAN-ICC trains invertible network by finding an invertible and bijective function, which can map the original image to the compression image. In the experiments, both fully-sampled images and under-sampled images were used to verify the effectiveness of the model. Extensive quantitative and qualitative evaluations demonstrated that, in comparison with SCC and GCC, VAN-ICC can carry through better compression effect with equal number of virtual coils. Additionally, its performance is not susceptible to different num-ber of virtual coils.
翻訳日:2022-01-20 14:57:23 公開日:2022-01-19
# 新型コロナウイルス患者のウェアラブル健康データの可視化と分析

Visualization and Analysis of Wearable Health Data From COVID-19 Patients ( http://arxiv.org/abs/2201.07698v1 )

ライセンス: Link先を確認
Susanne K. Suter and Georg R. Spinner and Bianca Hoelz and Sofia Rey and Sujeanthraa Thanabalasingam and Jens Eckstein and Sven Hirsch(参考訳) 新型コロナウイルスの入院患者からバイタルサインが記録されたマルチセンサーリアルタイムウェアラブルデバイスから、関連する健康パターンを明らかにするために、効果的な視覚化が評価された。 さらに、コンプライアンス問題によるデータ品質の変動、デバイスの充電に要する時間、技術的な問題など、ウェアラブルの健康データ可視化に関連する具体的な課題について述べる。 主なユースケースとして,本技術が取得したバイタルサインで見る健康パターンの検出とコミュニケーションについて検討した。 カスタマイズされたヒートマップとバーチャートは、医療関連パターンを重要な兆候として強調するために使用された。 2名の医師、1名の臨床プロジェクトマネージャー、7名の健康データサイエンス研究者による可視化手法の評価を行った。 入院した84人の患者のデータセットから、典型的な1つのCOVID-19患者履歴を抽出し、2人の注目すべき患者の健康史を視覚化した。 ビジュアライゼーションは,患者の健康状態を推定する上で効果的で,シンプルで,直感的であった。 時間に制約され、多くの患者に責任がある臨床スタッフにとって、このような可視化手法は患者の健康状態の継続的な獲得と監視を可能にする効果的なツールとなる。

Effective visualizations were evaluated to reveal relevant health patterns from multi-sensor real-time wearable devices that recorded vital signs from patients admitted to hospital with COVID-19. Furthermore, specific challenges associated with wearable health data visualizations, such as fluctuating data quality resulting from compliance problems, time needed to charge the device and technical problems are described. As a primary use case, we examined the detection and communication of relevant health patterns visible in the vital signs acquired by the technology. Customized heat maps and bar charts were used to specifically highlight medically relevant patterns in vital signs. A survey of two medical doctors, one clinical project manager and seven health data science researchers was conducted to evaluate the visualization methods. From a dataset of 84 hospitalized COVID-19 patients, we extracted one typical COVID-19 patient history and based on the visualizations showcased the health history of two noteworthy patients. The visualizations were shown to be effective, simple and intuitive in deducing the health status of patients. For clinical staff who are time-constrained and responsible for numerous patients, such visualization methods can be an effective tool to enable continuous acquisition and monitoring of patients' health statuses even remotely.
翻訳日:2022-01-20 14:57:06 公開日:2022-01-19
# ramanmetrix:ramanのスペクトルを分析する楽しい方法

RAMANMETRIX: a delightful way to analyze Raman spectra ( http://arxiv.org/abs/2201.07586v1 )

ライセンス: Link先を確認
Darina Storozhuk, Oleg Ryabchykov, Juergen Popp, Thomas Bocklitz(参考訳) ラマン分光法は生物医学的サンプルの調査に広く用いられており、臨床応用での利用の可能性も高いが、臨床ルーチンでは一般的ではない。 Raman分光ツールを臨床ルーチンに統合することを妨げる要因の1つは、データ処理ワークフローの複雑さである。 分光データハンドリングを簡素化するソフトウェアツールは、臨床専門家とラマン分光法の利点を親しむことによって、そのような統合を促進する。 そこでRAMANMETRIXは、生データ前処理から機械学習モデルの堅牢な検証に至るまで、Ramanスペクトルの化学分析のための完全なワークフローを組み込んだ、直感的なWebベースのグラフィカルユーザインタフェース(GUI)を備えたユーザフレンドリーなソフトウェアとして紹介されている。 このソフトウェアは、モデルトレーニングと、新しいデータセットへの事前トレーニングされたモデルの適用の両方に使用できる。 ユーザはモデルトレーニング中にパラメータを完全にコントロールするが、データフローのテストは凍結され、追加のユーザ入力は必要ない。 RAMANMETRIXはスタンドアロンソフトウェアとWebアプリケーションという2つのバージョンで利用可能である。 現代のソフトウェアアーキテクチャのため、計算バックエンド部分はguiとは別々に実行でき、計測データに事前構築されたモデルを適用するためのアプリケーションプログラミングインタフェース(api)を介してアクセスすることができる。 これにより、リアルタイムで測定装置のデータ処理バックエンドとしてソフトウェアを使用する可能性が開ける。 より経験豊富なユーザによって構築されたモデルは、簡単なワンクリックデータ前処理と予測のためにエクスポートおよび再利用することができる。 このような予測と異なるデータ処理ステップのグラフィカル出力の結果をエクスポートして保存することができる。

Although Raman spectroscopy is widely used for the investigation of biomedical samples and has a high potential for use in clinical applications, it is not common in clinical routines. One of the factors that obstruct the integration of Raman spectroscopic tools into clinical routines is the complexity of the data processing workflow. Software tools that simplify spectroscopic data handling may facilitate such integration by familiarizing clinical experts with the advantages of Raman spectroscopy. Here, RAMANMETRIX is introduced as a user-friendly software with an intuitive web-based graphical user interface (GUI) that incorporates a complete workflow for chemometric analysis of Raman spectra, from raw data pretreatment to a robust validation of machine learning models. The software can be used both for model training and for the application of the pretrained models onto new data sets. Users have full control of the parameters during model training, but the testing data flow is frozen and does not require additional user input. RAMANMETRIX is available in two versions: as standalone software and web application. Due to the modern software architecture, the computational backend part can be executed separately from the GUI and accessed through an application programming interface (API) for applying a preconstructed model to the measured data. This opens up possibilities for using the software as a data processing backend for the measurement devices in real-time. The models preconstructed by more experienced users can be exported and reused for easy one-click data preprocessing and prediction, which requires minimal interaction between the user and the software. The results of such prediction and graphical outputs of the different data processing steps can be exported and saved.
翻訳日:2022-01-20 14:56:47 公開日:2022-01-19
# (参考訳) 科学機械学習における不確かさの定量化:方法,メトリクス,比較

Uncertainty Quantification in Scientific Machine Learning: Methods, Metrics, and Comparisons ( http://arxiv.org/abs/2201.07766v1 )

ライセンス: CC BY 4.0
Apostolos F Psaros, Xuhui Meng, Zongren Zou, Ling Guo, George Em Karniadakis(参考訳) ニューラルネットワーク(nns)は現在、物理学と工学における数学的法則とデータをどのように結合するかという計算パラダイムを変えており、従来の方法では解決できない逆問題や不適切な問題に取り組んでいる。 しかし、nnに基づく推論の誤りや不確かさの定量化は従来の手法よりも複雑である。 これは、ノイズデータに関連するアレータティック不確実性に加えて、限られたデータによる不確実性もあるが、NNハイパーパラメータ、過度なパラメータ化、最適化、サンプリングエラー、モデル誤特定などによる。 nns における不確かさ量子化(uq)に関する最近の研究はいくつかあるが、関数近似においても不確かさを効果的かつ効率的に定量化するための適切な方法に関する体系的な調査はなく、偏微分方程式の解法や nns を用いた無限次元関数空間間の学習作用素写像の解法も少ない。 本研究では,不確実性モデリング,新しい解法,既存解法,評価指標,ポストホック改善アプローチを含む包括的フレームワークを提案する。 本研究では,本フレームワークの適用性と信頼性を示すために,混合入力出力データにおける問題や高次元確率問題など,プロトタイプ問題に対する様々な手法のテストを行った。 付録には、採用されているすべてのuqメソッドの包括的な説明が含まれており、このフレームワークに含まれるすべてのコードのオープンソースライブラリとして利用可能になります。

Neural networks (NNs) are currently changing the computational paradigm on how to combine data with mathematical laws in physics and engineering in a profound way, tackling challenging inverse and ill-posed problems not solvable with traditional methods. However, quantifying errors and uncertainties in NN-based inference is more complicated than in traditional methods. This is because in addition to aleatoric uncertainty associated with noisy data, there is also uncertainty due to limited data, but also due to NN hyperparameters, overparametrization, optimization and sampling errors as well as model misspecification. Although there are some recent works on uncertainty quantification (UQ) in NNs, there is no systematic investigation of suitable methods towards quantifying the total uncertainty effectively and efficiently even for function approximation, and there is even less work on solving partial differential equations and learning operator mappings between infinite-dimensional function spaces using NNs. In this work, we present a comprehensive framework that includes uncertainty modeling, new and existing solution methods, as well as evaluation metrics and post-hoc improvement approaches. To demonstrate the applicability and reliability of our framework, we present an extensive comparative study in which various methods are tested on prototype problems, including problems with mixed input-output data, and stochastic problems in high dimensions. In the Appendix, we include a comprehensive description of all the UQ methods employed, which we will make available as open-source library of all codes included in this framework.
翻訳日:2022-01-20 14:54:15 公開日:2022-01-19
# エッジシナリオにおける柔軟な並列学習:コミュニケーション,計算,エネルギーコスト

Flexible Parallel Learning in Edge Scenarios: Communication, Computational and Energy Cost ( http://arxiv.org/abs/2201.07402v1 )

ライセンス: Link先を確認
Francesco Malandrino and Carla Fabiana Chiasserini(参考訳) 伝統的に、分散機械学習はヒントを取り入れる (i)同一モデルを訓練する異なるノード(連合学習の場合のように)、又は (II)複数のノードに分割された1つのモデル(分散確率勾配勾配)。 本稿では,フォグおよびiotベースのシナリオにおいて,それぞれのアプローチを組み合わせる必要がある場合が多いことに注目し,フレキシブル並列学習(fpl)のためのフレームワークを提案する。 さらに,各ノード間での学習タスクの分散と並列化が,計算,通信,エネルギーコストの異なる結果をもたらすかを検討する。 我々の実験は、最先端のディープネットワークアーキテクチャと大規模データセットを用いて行われ、FPLが計算コスト、通信オーバーヘッド、学習性能に優れたトレードオフを実現することを確認した。

Traditionally, distributed machine learning takes the guise of (i) different nodes training the same model (as in federated learning), or (ii) one model being split among multiple nodes (as in distributed stochastic gradient descent). In this work, we highlight how fog- and IoT-based scenarios often require combining both approaches, and we present a framework for flexible parallel learning (FPL), achieving both data and model parallelism. Further, we investigate how different ways of distributing and parallelizing learning tasks across the participating nodes result in different computation, communication, and energy costs. Our experiments, carried out using state-of-the-art deep-network architectures and large-scale datasets, confirm that FPL allows for an excellent trade-off among computational (hence energy) cost, communication overhead, and learning performance.
翻訳日:2022-01-20 14:53:36 公開日:2022-01-19
# 圧縮滑らかなスパース分解

Compressed Smooth Sparse Decomposition ( http://arxiv.org/abs/2201.07404v1 )

ライセンス: Link先を確認
Shancong Mou and Jianjun Shi(参考訳) 画像に基づく異常検出システムは、様々な製造用途において極めて重要である。 近年,画像センシング技術の急速な発展に伴い,このようなシステムの解像度と取得率が大きく向上している。 これにより、小さな欠陥をリアルタイムで検出できる。 しかし、画像データの高解像度化と取得率により、画像処理アルゴリズムの速度が低下するだけでなく、データストレージや送信コストも増大する。 そこで本研究では,背景の滑らかな画像(スムース+スムース信号)におけるスムース異常検出に適した,高速でデータ効率の良い理論性能保証手法を提案する。 提案手法は圧縮滑らかなスパース分解 (cssd) と呼ばれ, 圧縮的画像取得と分解に基づく画像処理技術を統合する一段階の手法である。 高次元シナリオにおいて、さらにその性能を向上させるために、クロネッカー圧縮滑らかなスパース分解(kroncssd)法が提案されている。 従来のスムーズかつスパースな分解アルゴリズムと比較して、伝送コストの大幅な削減と計算速度の向上は無視できる性能損失で達成できる。 各種応用におけるシミュレーション例といくつかのケーススタディは,提案手法の有効性を示す。

Image-based anomaly detection systems are of vital importance in various manufacturing applications. The resolution and acquisition rate of such systems is increasing significantly in recent years under the fast development of image sensing technology. This enables the detection of tiny defects in real-time. However, such a high resolution and acquisition rate of image data not only slows down the speed of image processing algorithms but also increases data storage and transmission cost. To tackle this problem, we propose a fast and data-efficient method with theoretical performance guarantee that is suitable for sparse anomaly detection in images with a smooth background (smooth plus sparse signal). The proposed method, named Compressed Smooth Sparse Decomposition (CSSD), is a one-step method that unifies the compressive image acquisition and decomposition-based image processing techniques. To further enhance its performance in a high-dimensional scenario, a Kronecker Compressed Smooth Sparse Decomposition (KronCSSD) method is proposed. Compared to traditional smooth and sparse decomposition algorithms, significant transmission cost reduction and computational speed boost can be achieved with negligible performance loss. Simulation examples and several case studies in various applications illustrate the effectiveness of the proposed framework.
翻訳日:2022-01-20 14:53:23 公開日:2022-01-19
# 双対空間グラフの対比学習

Dual Space Graph Contrastive Learning ( http://arxiv.org/abs/2201.07409v1 )

ライセンス: Link先を確認
Haoran Yang, Hongxu Chen, Shirui Pan, Lin Li, Philip S. Yu, Guandong Xu(参考訳) 教師なしグラフ表現学習は、現実世界の問題を解決する強力なツールとして登場し、グラフ学習領域で大きな成功を収めている。 グラフコントラスト学習は教師なしグラフ表現学習手法の1つであり、近年研究者の注目を集め、様々なタスクで最先端のパフォーマンスを達成した。 グラフコントラスト学習の成功の鍵は、グラフの構造的意味論を取得するために適切なコントラストペアを構築することである。 しかし、このキー部分は現時点では完全には探索されておらず、コントラストペアを生成するほとんどの方法は、入力グラフの異なるビューを得るためにグラフ構造を拡大または摂動することに焦点を当てている。 しかし、このような戦略は、グラフにノイズを追加することによってパフォーマンスを低下させ、グラフコントラスト学習の応用分野を狭める可能性がある。 本稿では,双曲空間やユークリッド空間を含む異なる空間で生成されたビュー間でグラフコントラスト学習を行うために,新しいグラフコントラスト学習法,すなわち \textbf{D}ual \textbf{S}pace \textbf{G}raph \textbf{C}ontrastive (DSGC)学習を提案する。 両空間にはグラフデータを埋め込み空間に表現する独自の利点があるので、グラフコントラスト学習を用いて空間をブリッジし、双方の利点を活用することを期待する。 比較実験の結果,DSGCは全データセットの競合的あるいはより良い性能を達成することが示された。 さらに,dsgcに対する異なるグラフエンコーダの影響を分析するための広範な実験を行い,異なる空間間のコントラスト学習の利点をより活用するための洞察を与える。

Unsupervised graph representation learning has emerged as a powerful tool to address real-world problems and achieves huge success in the graph learning domain. Graph contrastive learning is one of the unsupervised graph representation learning methods, which recently attracts attention from researchers and has achieved state-of-the-art performances on various tasks. The key to the success of graph contrastive learning is to construct proper contrasting pairs to acquire the underlying structural semantics of the graph. However, this key part is not fully explored currently, most of the ways generating contrasting pairs focus on augmenting or perturbating graph structures to obtain different views of the input graph. But such strategies could degrade the performances via adding noise into the graph, which may narrow down the field of the applications of graph contrastive learning. In this paper, we propose a novel graph contrastive learning method, namely \textbf{D}ual \textbf{S}pace \textbf{G}raph \textbf{C}ontrastive (DSGC) Learning, to conduct graph contrastive learning among views generated in different spaces including the hyperbolic space and the Euclidean space. Since both spaces have their own advantages to represent graph data in the embedding spaces, we hope to utilize graph contrastive learning to bridge the spaces and leverage advantages from both sides. The comparison experiment results show that DSGC achieves competitive or better performances among all the datasets. In addition, we conduct extensive experiments to analyze the impact of different graph encoders on DSGC, giving insights about how to better leverage the advantages of contrastive learning between different spaces.
翻訳日:2022-01-20 14:53:06 公開日:2022-01-19
# 政策勾配法の収束率について

On the Convergence Rates of Policy Gradient Methods ( http://arxiv.org/abs/2201.07443v1 )

ライセンス: Link先を確認
Lin Xiao(参考訳) 有限状態および作用空間を持つ無限水平割引マルコフ決定問題を考える。 政策空間における直接パラメトリゼーションでは、重み付き値関数は一般には非凸であるが、準凸と準凸の両方であることが示される。 準凸性は、政策勾配法のグローバルオプティマへの収束を説明するのに役立つが、準凸性は、値関数の滑らかさを特徴付けるリプシッツ定数によって引き起こされない任意の大きなステップサイズを用いて、それらの収束保証を示唆する。 特に, 幾何的に増加するステップサイズ, 自然方針勾配法, 投影Q-descent法などの一般的な方針ミラー降下法を用いることで, エントロピーや凸正則化に頼らずに収束率の線形化を享受できることが示される。 さらに,弱勾配行列支配理論を開発し,それを用いて予測された政策勾配法のよりシャープなサブ線形収束率を示す。 最後に,不正確なポリシーミラー降下法の収束率を解析し,そのサンプル複雑性を単純な生成モデルで推定する。

We consider infinite-horizon discounted Markov decision problems with finite state and action spaces. We show that with direct parametrization in the policy space, the weighted value function, although non-convex in general, is both quasi-convex and quasi-concave. While quasi-convexity helps explain the convergence of policy gradient methods to global optima, quasi-concavity hints at their convergence guarantees using arbitrarily large step sizes that are not dictated by the Lipschitz constant charactering smoothness of the value function. In particular, we show that when using geometrically increasing step sizes, a general class of policy mirror descent methods, including the natural policy gradient method and a projected Q-descent method, all enjoy a linear rate of convergence without relying on entropy or other strongly convex regularization. In addition, we develop a theory of weak gradient-mapping dominance and use it to prove sharper sublinear convergence rate of the projected policy gradient method. Finally, we also analyze the convergence rate of an inexact policy mirror descent method and estimate its sample complexity under a simple generative model.
翻訳日:2022-01-20 14:52:36 公開日:2022-01-19
# 多発性硬化症における皮質病変, 中心静脈徴候, 常磁性リム病変 : 新しい機械学習技術と今後の道

Cortical lesions, central vein sign, and paramagnetic rim lesions in multiple sclerosis: emerging machine learning techniques and future avenues ( http://arxiv.org/abs/2201.07463v1 )

ライセンス: Link先を確認
Francesco La Rosa, Maxence Wynen, Omar Al-Louzi, Erin S Beck, Till Huelnhagen, Pietro Maggi, Jean-Philippe Thiran, Tobias Kober, Russell T Shinohara, Pascal Sati, Daniel S Reich, Cristina Granziera, Martina Absinta, Meritxell Bach Cuadra(参考訳) 現在の多発性硬化症 (MS) の診断基準には特異性が欠如しており, 誤診につながる可能性がある。 加えて、従来のバイオマーカーはMS病の進行と適度に相関している。 近年,mri(特殊磁気共鳴画像法)で観察される皮質病変(cl),中枢静脈徴候(cvs),常磁性リム病変(prl)などの高度なms病変画像バイオマーカーが鑑別診断において高い特異性を示した。 さらに、CLとPRLは潜在的な予後を示すバイオマーカーであり、前者は認知障害、後者は早期障害の進行に関連する。 機械学習に基づく手法は、白質病変のセグメンテーションなどの従来の画像バイオマーカーの評価において異常な性能を達成しているため、CL、CVS、PRLにもいくつかの自動または半自動手法が提案されている。 本稿では,これらの高度msイメージングバイオマーカーとそのイメージング手法について紹介する。 続いて,これらの臨床的疑問に対処した機械学習ベースの手法について述べるとともに,mriプロトコルの標準化やデータセットの制限,適度なレート間変動など,現在直面している課題について文脈的に考察する。 結論として,より広範な展開を妨げる現在の制限を提示し,今後の研究方向性を示唆する。

The current multiple sclerosis (MS) diagnostic criteria lack specificity, and this may lead to misdiagnosis, which remains an issue in present-day clinical practice. In addition, conventional biomarkers only moderately correlate with MS disease progression. Recently, advanced MS lesional imaging biomarkers such as cortical lesions (CL), the central vein sign (CVS), and paramagnetic rim lesions (PRL), visible in specialized magnetic resonance imaging (MRI) sequences, have shown higher specificity in differential diagnosis. Moreover, studies have shown that CL and PRL are potential prognostic biomarkers, the former correlating with cognitive impairments and the latter with early disability progression. As machine learning-based methods have achieved extraordinary performance in the assessment of conventional imaging biomarkers, such as white matter lesion segmentation, several automated or semi-automated methods have been proposed for CL, CVS, and PRL as well. In the present review, we first introduce these advanced MS imaging biomarkers and their imaging methods. Subsequently, we describe the corresponding machine learning-based methods that were used to tackle these clinical questions, putting them into context with respect to the challenges they are still facing, including non-standardized MRI protocols, limited datasets, and moderate inter-rater variability. We conclude by presenting the current limitations that prevent their broader deployment and suggesting future research directions.
翻訳日:2022-01-20 14:52:14 公開日:2022-01-19
# TriCoLo: 微細なテキストと形状検索のための3モーダルコントラスト損失

TriCoLo: Trimodal Contrastive Loss for Fine-grained Text to Shape Retrieval ( http://arxiv.org/abs/2201.07366v1 )

ライセンス: Link先を確認
Yue Ruan, Han-Hung Lee, Ke Zhang, Angel X. Chang(参考訳) マルチモーダルデータに対する統合埋め込み学習のためのコントラスト損失に関する最近の研究は、検索や分類などの下流タスクで成功している。 一方,3次元形状とテキストに対する共同表現学習の研究は,表現間の複雑な注意のモデリングやマルチタスク学習による埋め込みの改善に重点を置いている。 大規模なバッチコントラスト学習では,複雑な注意機構や損失を伴わずに,テキスト形状検索においてSoTAを実現できることを示す。 3dおよびテキスト表現の先行研究は、voxelまたはテキストによるマルチビュー画像を用いたバイモーダル表現学習にも重点を置いている。 そこで本研究では,すべてのモダリティに対して,さらに高いパフォーマンスとより良い表現を実現するための三角学習方式を提案する。

Recent work on contrastive losses for learning joint embeddings over multimodal data has been successful at downstream tasks such as retrieval and classification. On the other hand, work on joint representation learning for 3D shapes and text has thus far mostly focused on improving embeddings through modeling of complex attention between representations , or multi-task learning . We show that with large batch contrastive learning we achieve SoTA on text-shape retrieval without complex attention mechanisms or losses. Prior work in 3D and text representations has also focused on bimodal representation learning using either voxels or multi-view images with text. To this end, we propose a trimodal learning scheme to achieve even higher performance and better representations for all modalities.
翻訳日:2022-01-20 14:49:38 公開日:2022-01-19
# Swin-Pose:スイム・トランスフォーマーによる人文推定

Swin-Pose: Swin Transformer Based Human Pose Estimation ( http://arxiv.org/abs/2201.07384v1 )

ライセンス: Link先を確認
Zinan Xiong, Chenxi Wang, Ying Li, Yan Luo, Yu Cao(参考訳) 畳み込みニューラルネットワーク(cnns)は多くのコンピュータビジョンタスクで広く使われている。 しかし、CNNは一定の受信場を持ち、人間のポーズ推定に不可欠である長距離知覚能力に欠ける。 画素間の長距離依存関係をキャプチャできるため、最近のコンピュータビジョンアプリケーションではトランスフォーマーアーキテクチャが採用されており、非常に効果的なアーキテクチャであることが証明されている。 我々は,人間のポーズ推定におけるその能力を探ることに興味を持ち,特徴ピラミッド融合構造により拡張されたトランスフォーマーアーキテクチャに基づく新しいモデルを提案する。 具体的には、トレーニング済みのSwin Transformerをバックボーンとして使用し、入力画像から特徴を抽出し、特徴ピラミッド構造を利用して異なるステージから特徴マップを抽出する。 機能を融合することで,キーポイントヒートマップを予測できる。 本研究では,提案するトランスフォーマーモデルが最先端cnnモデルよりも優れた性能を実現することを実証した。

Convolutional neural networks (CNNs) have been widely utilized in many computer vision tasks. However, CNNs have a fixed reception field and lack the ability of long-range perception, which is crucial to human pose estimation. Due to its capability to capture long-range dependencies between pixels, transformer architecture has been adopted to computer vision applications recently and is proven to be a highly effective architecture. We are interested in exploring its capability in human pose estimation, and thus propose a novel model based on transformer architecture, enhanced with a feature pyramid fusion structure. More specifically, we use pre-trained Swin Transformer as our backbone and extract features from input images, we leverage a feature pyramid structure to extract feature maps from different stages. By fusing the features together, our model predicts the keypoint heatmap. The experiment results of our study have demonstrated that the proposed transformer-based model can achieve better performance compared to the state-of-the-art CNN-based models.
翻訳日:2022-01-20 14:49:27 公開日:2022-01-19
# KappaFace: ディープラーニングのための適応的な付加的なAngular Margin損失

KappaFace: Adaptive Additive Angular Margin Loss for Deep Face Recognition ( http://arxiv.org/abs/2201.07394v1 )

ライセンス: Link先を確認
Chingis Oinar, Binh M. Le, Simon S. Woo(参考訳) 機能学習は大規模顔認識に広く用いられている手法である。 近年,大きなマージンソフトマックス損失法が深部顔認識において大幅に改善されている。 これらの手法はクラス内コンパクト性とクラス間多様性を強制するために固定正のマージンを提案する。 しかし,提案手法の大部分は,深層顔認識モデルを開発する上で大きな課題であるクラス不均衡問題を考慮していない。 深層面モデルの一般化能力に大きな影響を与えると仮定する。 この観察に触発されて,クラス難しさと不均衡に基づく相対的重要性を変調するkappafaceと呼ばれる新しい適応戦略を導入した。 von mises-fisher分布のサポートにより,提案するkappaface損失は,ハードラーニングクラスや低濃度クラスではマージンの大きさを増大させ,カウンタークラスでは緩和する。 一般的な顔のベンチマーク実験により,提案手法は最先端技術よりも優れた性能を示すことが示された。

Feature learning is a widely used method employed for large-scale face recognition. Recently, large-margin softmax loss methods have demonstrated significant enhancements on deep face recognition. These methods propose fixed positive margins in order to enforce intra-class compactness and inter-class diversity. However, the majority of the proposed methods do not consider the class imbalance issue, which is a major challenge in practice for developing deep face recognition models. We hypothesize that it significantly affects the generalization ability of the deep face models. Inspired by this observation, we introduce a novel adaptive strategy, called KappaFace, to modulate the relative importance based on class difficultness and imbalance. With the support of the von Mises-Fisher distribution, our proposed KappaFace loss can intensify the margin's magnitude for hard learning or low concentration classes while relaxing it for counter classes. Experiments conducted on popular facial benchmarks demonstrate that our proposed method achieves superior performance to the state-of-the-art.
翻訳日:2022-01-20 14:49:12 公開日:2022-01-19
# Poseur: トランスフォーマーによる直接の人間姿勢回帰

Poseur: Direct Human Pose Regression with Transformers ( http://arxiv.org/abs/2201.07412v1 )

ライセンス: Link先を確認
Weian Mao and Yongtao Ge and Chunhua Shen and Zhi Tian and Xinlong Wang and Zhibin Wang and Anton van den Hengel(参考訳) 単一画像からの2次元人間のポーズ推定に対する直接回帰に基づくアプローチを提案する。 この問題をシーケンス予測タスクとして定式化し、トランスフォーマーネットワークを用いて解決する。 このネットワークは、熱マップのような中間表現に頼ることなく、画像からキーポイント座標への回帰マッピングを直接学習する。 このアプローチは、ヒートマップベースのアプローチに関連する複雑さの多くを回避する。 従来の回帰型手法の特徴的不一致を克服するために,ターゲットキーポイントに最も関係のある特徴に適応して対応し,精度を大幅に向上する注意機構を提案する。 重要なことは、私たちのフレームワークはエンドツーエンドの差別化可能であり、キーポイント間の依存関係を自然に活用することを学びます。 2つの主要なポーズ推定データセットであるMS-COCOとMPIIの実験は、回帰に基づくポーズ推定における最先端の手法を著しく改善することを示した。 さらに注目すべきは、最も優れたヒートマップベースのポーズ推定手法と比較して、回帰に基づく最初のアプローチである。

We propose a direct, regression-based approach to 2D human pose estimation from single images. We formulate the problem as a sequence prediction task, which we solve using a Transformer network. This network directly learns a regression mapping from images to the keypoint coordinates, without resorting to intermediate representations such as heatmaps. This approach avoids much of the complexity associated with heatmap-based approaches. To overcome the feature misalignment issues of previous regression-based methods, we propose an attention mechanism that adaptively attends to the features that are most relevant to the target keypoints, considerably improving the accuracy. Importantly, our framework is end-to-end differentiable, and naturally learns to exploit the dependencies between keypoints. Experiments on MS-COCO and MPII, two predominant pose-estimation datasets, demonstrate that our method significantly improves upon the state-of-the-art in regression-based pose estimation. More notably, ours is the first regression-based approach to perform favorably compared to the best heatmap-based pose estimation methods.
翻訳日:2022-01-20 14:48:57 公開日:2022-01-19
# 自己監督型深層ブラインドビデオスーパーリゾリューション

Self-Supervised Deep Blind Video Super-Resolution ( http://arxiv.org/abs/2201.07422v1 )

ライセンス: Link先を確認
Haoran Bai and Jinshan Pan(参考訳) 既存のディープラーニングベースのビデオ超解像法(SR)は、通常、教師付き学習アプローチに依存し、トレーニングデータは、既知のまたは定義されたカーネル(例えば、ビクビックカーネル)でぼやけた操作と、デシメーション操作によって生成される。 しかし、分解過程が複雑であり、これらのアイデアのケースで近似できないため、これは実際の応用には当てはまらない。 さらに,現実シナリオにおける高解像度(HR)ビデオとそれに対応する低解像度(LR)ビデオの取得も困難である。 これらの問題を解決するために,視線ビデオSR問題に対する自己教師付き学習手法を提案し,LRビデオからぼやけたカーネルとHRビデオを同時に推定する。 LRビデオを直接監督として使用すると、通常、自明な解決につながるため、ビデオSRの画像形成に応じて、元のLRビデオから補助的なペア化データを生成するための簡易かつ効率的な方法を開発し、カーネル推定と潜時HRビデオ復元の両方において、生成されたペア化データにより、ネットワークがよりよく制約されるようにした。 さらに、隣接するフレームからの情報を利用してHRビデオの復元を行うための光フロー推定モジュールを導入する。 実験の結果,本手法はベンチマークや実世界ビデオにおいて最先端の手法に対して好適に機能することが示された。

Existing deep learning-based video super-resolution (SR) methods usually depend on the supervised learning approach, where the training data is usually generated by the blurring operation with known or predefined kernels (e.g., Bicubic kernel) followed by a decimation operation. However, this does not hold for real applications as the degradation process is complex and cannot be approximated by these idea cases well. Moreover, obtaining high-resolution (HR) videos and the corresponding low-resolution (LR) ones in real-world scenarios is difficult. To overcome these problems, we propose a self-supervised learning method to solve the blind video SR problem, which simultaneously estimates blur kernels and HR videos from the LR videos. As directly using LR videos as supervision usually leads to trivial solutions, we develop a simple and effective method to generate auxiliary paired data from original LR videos according to the image formation of video SR, so that the networks can be better constrained by the generated paired data for both blur kernel estimation and latent HR video restoration. In addition, we introduce an optical flow estimation module to exploit the information from adjacent frames for HR video restoration. Experiments show that our method performs favorably against state-of-the-art ones on benchmarks and real-world videos.
翻訳日:2022-01-20 14:48:40 公開日:2022-01-19
# TransFuse: 自己教師型学習を用いた統一型トランスフォーマーベース画像融合フレームワーク

TransFuse: A Unified Transformer-based Image Fusion Framework using Self-supervised Learning ( http://arxiv.org/abs/2201.07451v1 )

ライセンス: Link先を確認
Linhao Qu, Shaolei Liu, Manning Wang, Shiman Li, Siqi Yin, Qin Qiao, Zhijian Song(参考訳) image fusionは、複数のソースイメージからの情報と補完的な情報を統合する技術であり、単一の画像の豊かさを向上させる。 タスク固有のトレーニングデータ不足とそれに対応する基礎的事実のため、既存の画像融合手法のほとんどは、過度に適合したり、面倒なパラメータ最適化プロセスに陥りやすい。 2段階の手法では,大規模な自然画像データセット上でエンコーダ・デコーダネットワークをトレーニングし,抽出した特徴を融合に利用することにより,タスク固有の大量のトレーニングデータの必要性を回避することができる。 本研究では,新しいエンコーダ・デコーダに基づく画像融合フレームワークを設計し,タスク固有の特徴を学習するための破壊再構成に基づく自己教師型トレーニングスキームを提案する。 具体的には、画素強度非直線変換、輝度変換、雑音変換に基づくマルチモーダル画像融合、マルチ露光画像融合、マルチフォーカス画像融合の3つの破壊再構成支援タスクを提案する。 異なる融合タスクが互いに促進し、訓練されたネットワークの一般化可能性を高めるために、モデルトレーニングにおいて自然像をランダムに選択して3つの自己教師付き補助タスクを統合する。 さらに,cnnとtransformerを組み合わせた特徴抽出のための新しいエンコーダの設計を行った。 マルチモーダル画像融合,マルチ露光画像融合,マルチフォーカス画像融合タスクの広範な実験により,提案手法が主観的,客観的両評価において最先端の性能を達成することを示す。 コードは近々公開される予定だ。

Image fusion is a technique to integrate information from multiple source images with complementary information to improve the richness of a single image. Due to insufficient task-specific training data and corresponding ground truth, most existing end-to-end image fusion methods easily fall into overfitting or tedious parameter optimization processes. Two-stage methods avoid the need of large amount of task-specific training data by training encoder-decoder network on large natural image datasets and utilizing the extracted features for fusion, but the domain gap between natural images and different fusion tasks results in limited performance. In this study, we design a novel encoder-decoder based image fusion framework and propose a destruction-reconstruction based self-supervised training scheme to encourage the network to learn task-specific features. Specifically, we propose three destruction-reconstruction self-supervised auxiliary tasks for multi-modal image fusion, multi-exposure image fusion and multi-focus image fusion based on pixel intensity non-linear transformation, brightness transformation and noise transformation, respectively. In order to encourage different fusion tasks to promote each other and increase the generalizability of the trained network, we integrate the three self-supervised auxiliary tasks by randomly choosing one of them to destroy a natural image in model training. In addition, we design a new encoder that combines CNN and Transformer for feature extraction, so that the trained model can exploit both local and global information. Extensive experiments on multi-modal image fusion, multi-exposure image fusion and multi-focus image fusion tasks demonstrate that our proposed method achieves the state-of-the-art performance in both subjective and objective evaluations. The code will be publicly available soon.
翻訳日:2022-01-20 14:48:18 公開日:2022-01-19
# キー球面に基づく高忠実度3次元モデル圧縮

High-fidelity 3D Model Compression based on Key Spheres ( http://arxiv.org/abs/2201.07486v1 )

ライセンス: Link先を確認
Yuanzhan Li, Yuqi Liu, Yujie Lu, Siyu Zhang, Shen Cai and Yanting Zhang(参考訳) 近年, ニューラルサイン距離関数 (SDF) は3次元モデルにおいて最も効果的な表現法の一つである。 3D空間で連続的なSDFを学習することにより、ニューラルネットワークは、与えられたクエリ空間ポイントから最も近いオブジェクト表面までの距離を予測し、各オブジェクトの内外を示す正と負の符号をそれぞれ予測し、個々の3Dモデルに対して特定のネットワークを設計し、その形状を個別に埋め込み、より少ないネットワーク(おそらくは潜在)パラメータを格納することで、オブジェクトの圧縮表現を実現できる。 これにより、ネットワーク推論と表面復元による再構成が可能となる。 本稿では,明示的なキースフィアを入力として用いたSDF予測ネットワークを提案する。 キー球面は物体の内部空間から抽出され、中心は比較的大きなsdf値(球面半径)を持つか、本質的な位置に位置する。 局所的な形状の異なる複数の球体の空間情報を入力することにより,その再現精度を大幅に向上させることができる。 従来の手法と比較して,高忠実度および高圧縮性3次元オブジェクトの符号化と再構成を実現する。 3つのデータセットによる実験により,本手法の優れた性能が検証された。

In recent years, neural signed distance function (SDF) has become one of the most effectiverepresentation methods for 3D models. By learning continuous SDFs in 3D space, neuralnetworks can predict the distance from a given query space point to its closest object surface,whose positive and negative signs denote inside and outside of the object, respectively.Training a specific network for each 3D model, which individually embeds its shape, canrealize compressed representation of objects by storing fewer network (and possibly latent)parameters. Consequently, reconstruction through network inference and surface recoverycan be achieved. In this paper, we propose an SDF prediction network using explicit keyspheres as input. Key spheres are extracted from the internal space of objects, whosecenters either have relatively larger SDF values (sphere radii), or are located at essentialpositions. By inputting the spatial information of multiple spheres which imply differentlocal shapes, the proposed method can significantly improve the reconstruction accuracywith a negligible storage cost. Compared to previous works, our method achieves the high-fidelity and high-compression 3D object coding and reconstruction. Experiments conductedon three datasets verify the superior performance of our method.
翻訳日:2022-01-20 14:46:50 公開日:2022-01-19
# 深層学習によるMRI用仮想コイル拡張技術

Virtual Coil Augmentation Technology for MRI via Deep Learning ( http://arxiv.org/abs/2201.07540v1 )

ライセンス: Link先を確認
Cailian Yang, Xianghao Liao, Yuhao Wang, Minghui Zhang, Qiegen Liu(参考訳) 磁気共鳴イメージング(MRI)は医用画像モダリティとして広く用いられている。 しかしながら、ハードウェア、スキャン時間、スループットの制限のため、高品質のmr画像を得るのが臨床的に困難であることが多い。 本稿では,仮想コイルの増加効果を達成するために,人工知能を用いてチャネルを拡張する手法を提案する。 我々の研究の主な特徴は、ダミー可変技術を利用して、画像領域とk空間領域の両方でチャネルを拡張することである。 パラレルイメージングの先行情報としてチャネル展開により形成される高次元情報を用い、パラレルイメージングの再構成効果を向上させる。 2つの特徴、すなわち変数拡張と平方(SOS)目的関数の和が導入された。 可変引数は、ネットワークにより高次元の事前情報を提供し、ネットワークが画像の深い特徴インフォーメーションを抽出するのに役立つ。 SOSの目的関数は、収束速度を高速化しながらk空間データのトレーニングが難しいという問題を解決するために用いられる。 アブレーション実験と実験の結果,現在の技術よりも画像再構成性能が有意に高いことがわかった。

Magnetic resonance imaging (MRI) is a widely used medical imaging modality. However, due to the limitations in hardware, scan time, and throughput, it is often clinically challenging to obtain high-quality MR images. In this article, we propose a method of using artificial intelligence to expand the channel to achieve the effect of increasing the virtual coil. The main feature of our work is utilizing dummy variable technology to expand the channel in both the image and k-space domains. The high-dimensional information formed by channel expansion is used as the prior information of parallel imaging to improve the reconstruction effect of parallel imaging. Two features are introduced, namely variable enhancement and sum of squares (SOS) objective function. Variable argumentation provides the network with more high-dimensional prior information, which is helpful for the network to extract the deep feature in-formation of the image. The SOS objective function is employed to solve the problem that k-space data is difficult to train while speeding up the convergence speed. Ablation studies and experimental results demonstrate that our method achieves significantly higher image reconstruction performance than current state-of-the-art techniques.
翻訳日:2022-01-20 14:46:28 公開日:2022-01-19
# dmf-net:アンチカウンタフェイトqrコードのコピー偽造識別のためのデュアルブランチマルチスケール機能融合ネットワーク

DMF-Net: Dual-Branch Multi-Scale Feature Fusion Network for copy forgery identification of anti-counterfeiting QR code ( http://arxiv.org/abs/2201.07583v1 )

ライセンス: Link先を確認
Zhongyuan Guo, Hong Zheng, Changhui You, Tianyu Wang, Chang Liu(参考訳) 反偽造QRコードは人々の仕事や生活、特に製品の包装に広く使われている。 しかし、偽造防止QRコードは、流通過程で複製され偽造されるリスクがある。 実際には、コピーは通常、本物の偽造防止qrコードに基づいているが、コピーメーカーのブランドやモデルは多様であり、偽造防止コードの中からどのコピーが派生するかを判断するのは極めて困難である。 そこで本稿では,これらの問題に対して,ディープラーニングに基づくアンチカウンタフェイトqrコードのコピー偽造識別法を提案する。 まず、QRコードの偽造防止の原則を分析し、コピーフォージェリの識別をデバイスカテゴリーの鑑定に変換し、次いでデュアルブランチマルチスケール機能融合ネットワークを提案する。 ネットワークの設計において,データ前処理層,単一ブランチ設計等について詳細な解析を行い,実験と組み合わせて,デュアルブランチマルチスケール機能融合ネットワークの具体的構造を決定した。 実験の結果,提案手法は画像鑑定の分野における現在の一連の手法を超越した,コピー偽造識別の精度が高いことがわかった。

Anti-counterfeiting QR codes are widely used in people's work and life, especially in product packaging. However, the anti-counterfeiting QR code has the risk of being copied and forged in the circulation process. In reality, copying is usually based on genuine anti-counterfeiting QR codes, but the brands and models of copiers are diverse, and it is extremely difficult to determine which individual copier the forged anti-counterfeiting code come from. In response to the above problems, this paper proposes a method for copy forgery identification of anti-counterfeiting QR code based on deep learning. We first analyze the production principle of anti-counterfeiting QR code, and convert the identification of copy forgery to device category forensics, and then a Dual-Branch Multi-Scale Feature Fusion network is proposed. During the design of the network, we conducted a detailed analysis of the data preprocessing layer, single-branch design, etc., combined with experiments, the specific structure of the dual-branch multi-scale feature fusion network is determined. The experimental results show that the proposed method has achieved a high accuracy of copy forgery identification, which exceeds the current series of methods in the field of image forensics.
翻訳日:2022-01-20 14:46:11 公開日:2022-01-19
# スマートヘルスケアのためのコンピュータビジョンを用いたヨガのリアルタイム認識

Real-time Recognition of Yoga Poses using computer Vision for Smart Health Care ( http://arxiv.org/abs/2201.07594v1 )

ライセンス: Link先を確認
Abhishek Sharma, Yash Shah, Yash Agrawal, Prateek Jain(参考訳) 現在、ヨガは多くの人々の生活の一部となっている。 ヨガのポーズ識別には運動とスポーツの技術援助が取り入れられている。 そこで本研究では,ユーザがリアルタイムに修正機能を用いてヨガを行うための自己支援型ヨガ姿勢識別技術を開発した。 また、ヨガハンドマッドラ(手振り)の識別も行っている。 ヨギデータセットは、各ポーズの約400~900画像を含む10のヨガ姿勢を含むとともに、マダラス姿勢の識別のための5つのマダラを含む。 それぞれ約500枚の像がある。 この特徴は、体にヨガのポーズ用の骨格と、マダラのポーズ用の手を作ることで抽出されている。 2つの異なるアルゴリズムがヨガポーズのスケルトンとハンドマドラの2つのスケルトンを作成するのに使われている。 関節の角度は、異なる機械学習とディープラーニングモデルの特徴として抽出されている。 RandomSearch CVのXGBoostはすべてのモデルの中で最も正確であり、99.2\%の精度である。 本論文では, 完全な設計枠組みについて述べる。

Nowadays, yoga has become a part of life for many people. Exercises and sports technological assistance is implemented in yoga pose identification. In this work, a self-assistance based yoga posture identification technique is developed, which helps users to perform Yoga with the correction feature in Real-time. The work also presents Yoga-hand mudra (hand gestures) identification. The YOGI dataset has been developed which include 10 Yoga postures with around 400-900 images of each pose and also contain 5 mudras for identification of mudras postures. It contains around 500 images of each mudra. The feature has been extracted by making a skeleton on the body for yoga poses and hand for mudra poses. Two different algorithms have been used for creating a skeleton one for yoga poses and the second for hand mudras. Angles of the joints have been extracted as a features for different machine learning and deep learning models. among all the models XGBoost with RandomSearch CV is most accurate and gives 99.2\% accuracy. The complete design framework is described in the present paper.
翻訳日:2022-01-20 14:45:50 公開日:2022-01-19
# 深層多視点ステレオのための深部・表面の信頼度に基づく反復解法

A Confidence-based Iterative Solver of Depths and Surface Normals for Deep Multi-view Stereo ( http://arxiv.org/abs/2201.07609v1 )

ライセンス: Link先を確認
Wang Zhao, Shaohui Liu, Yi Wei, Hengkai Guo, Yong-Jin Liu(参考訳) 本稿では,深度,表面正規値,ビュー毎の信頼度マップを共同で予測する深層マルチビューステレオ(mvs)システムを提案する。 このアプローチの鍵となるのは,局所平面仮定に基づくエネルギーポテンシャルを最適化することで,ビュー毎の深度マップと正規マップを反復的に解く,新しい解法である。 具体的には, 隣接する画素から傾斜面を伝播して深度マップを更新し, 局所確率平面フィッティングで正規写像を更新する。 2つのステップは、カスタマイズされた信頼マップによって監視される。 この解法は、平面ベースの深度精錬と完成のための後処理ツールとして有効であるだけでなく、ディープラーニングパイプラインに効率的に組み込むことが可能である。 マルチビューステレオシステムは,深度と表面正規値の初期予測よりも,ソルバの複数の最適化ステップを用いる。 システム全体はエンドツーエンドでトレーニングでき、コストボリュームベースのニューラルネットワークから、粗悪なテクスチャ領域内のピクセルマッチングの問題を切り離すことができる。 スキャネットとrgb-dシーンv2の実験結果は,多視点深度推定において提案する深部mvsシステムの最先端性能を示し,従来型と深部学習型mvsパイプラインの双方の奥行き品質を一貫して向上させる。 コードはhttps://github.com/thuzhaowang/idn-solverで入手できる。

In this paper, we introduce a deep multi-view stereo (MVS) system that jointly predicts depths, surface normals and per-view confidence maps. The key to our approach is a novel solver that iteratively solves for per-view depth map and normal map by optimizing an energy potential based on the locally planar assumption. Specifically, the algorithm updates depth map by propagating from neighboring pixels with slanted planes, and updates normal map with local probabilistic plane fitting. Both two steps are monitored by a customized confidence map. This solver is not only effective as a post-processing tool for plane-based depth refinement and completion, but also differentiable such that it can be efficiently integrated into deep learning pipelines. Our multi-view stereo system employs multiple optimization steps of the solver over the initial prediction of depths and surface normals. The whole system can be trained end-to-end, decoupling the challenging problem of matching pixels within poorly textured regions from the cost-volume based neural network. Experimental results on ScanNet and RGB-D Scenes V2 demonstrate state-of-the-art performance of the proposed deep MVS system on multi-view depth estimation, with our proposed solver consistently improving the depth quality over both conventional and deep learning based MVS pipelines. Code is available at https://github.com/thuzhaowang/idn-solver.
翻訳日:2022-01-20 14:45:34 公開日:2022-01-19
# groupgazer: 参加者1人あたりの視線を計算するツールで、オンラインの視線を画面やビームの投影にマッピングするキャリブレーションを統合

GroupGazer: A Tool to Compute the Gaze per Participant in Groups with integrated Calibration to Map the Gaze Online to a Screen or Beamer Projection ( http://arxiv.org/abs/2201.07692v1 )

ライセンス: Link先を確認
Wolfgang Fuhl(参考訳) 本稿では,GroupGazeを紹介する。 集団全体の視線方向と視線位置を計算するための道具である。 GroupGazerは画像内のすべての人の視線方向を計算し、これらの視線ベクトルをプロジェクターのような投影にマッピングすることができる。 人固有の視線方向に加えて、画像内の位置に基づいて、各視線ベクトルの人関連を記憶する。 また、キャリブレーション後のグループ注意を省くこともできる。 このソフトウェアは無料で使用でき、単純なウェブカメラとNVIDIA GPU、オペレーティングシステムのWindowsやLinuxを必要とする。

In this paper we present GroupGaze. It is a tool that can be used to calculate the gaze direction and the gaze position of whole groups. GroupGazer calculates the gaze direction of every single person in the image and allows to map these gaze vectors to a projection like a projector. In addition to the person-specific gaze direction, the person affiliation of each gaze vector is stored based on the position in the image. Also, it is possible to save the group attention after a calibration. The software is free to use and requires a simple webcam as well as an NVIDIA GPU and the operating system Windows or Linux.
翻訳日:2022-01-20 14:45:04 公開日:2022-01-19
# Q-ViT:視覚変換器の完全微分可能量子化

Q-ViT: Fully Differentiable Quantization for Vision Transformer ( http://arxiv.org/abs/2201.07703v1 )

ライセンス: Link先を確認
Zhexin Li, Tong Yang, Peisong Wang, Jian Cheng(参考訳) 本稿では、量子化スケールとビット幅の両方が学習可能なパラメータであるQ-ViTと呼ばれる視覚変換器(ViT)の完全微分可能量子化法を提案する。 具体的には、vitのヘッドが異なる量子化堅牢性を示すという観測に基づいて、ヘッドワイズビット幅を利用して、パフォーマンスを維持しながらq-vitのサイズを絞り込む。 さらに,量子化スケールとビット幅のジョイントトレーニングにおける収束問題を解くために,スイッチブルスケールという新しい手法を提案する。 このようにして、Q-ViTはViT量子化の限界を3ビットまで押し下げる。 さらに,ViTのすべてのアーキテクチャコンポーネントの量子化ロバスト性を解析し,マルチヘッド自己注意(MSA)とガウス誤差線形ユニット(GELU)がViT量子化の重要な側面であることを示す。 この研究は、ViT量子化に関するさらなる研究のための洞察を与える。 DeiT や Swin Transformer などの様々な ViT モデルに対する実験により,量子化法の有効性が示された。 特に,DeiT-Tinyでは,最先端の一様量子化法を1.5%向上させる。

In this paper, we propose a fully differentiable quantization method for vision transformer (ViT) named as Q-ViT, in which both of the quantization scales and bit-widths are learnable parameters. Specifically, based on our observation that heads in ViT display different quantization robustness, we leverage head-wise bit-width to squeeze the size of Q-ViT while preserving performance. In addition, we propose a novel technique named switchable scale to resolve the convergence problem in the joint training of quantization scales and bit-widths. In this way, Q-ViT pushes the limits of ViT quantization to 3-bit without heavy performance drop. Moreover, we analyze the quantization robustness of every architecture component of ViT and show that the Multi-head Self-Attention (MSA) and the Gaussian Error Linear Units (GELU) are the key aspects for ViT quantization. This study provides some insights for further research about ViT quantization. Extensive experiments on different ViT models, such as DeiT and Swin Transformer show the effectiveness of our quantization method. In particular, our method outperforms the state-of-the-art uniform quantization method by 1.5% on DeiT-Tiny.
翻訳日:2022-01-20 14:43:42 公開日:2022-01-19
# ニューラルネットワークによる生体情報検索の改善

Improving Biomedical Information Retrieval with Neural Retrievers ( http://arxiv.org/abs/2201.07745v1 )

ライセンス: Link先を確認
Man Luo, Arindam Mitra, Tejas Gokhale, Chitta Baral(参考訳) 情報検索(IR)は,オープンドメイン質問応答などの自然言語処理だけでなく,検索エンジンや対話システムにも不可欠である。 IRは、科学知識の内容や源が急速に進化する生物医学領域において重要な役割を果たす。 ニューラルレトリバーは、標準のオープンドメイン質問応答タスクにおいてTF-IDFやBM25のような伝統的なIRアプローチを上回っているが、バイオメディカルドメインにはまだ欠けている。 本稿では,生物医学領域におけるニューラルレトリバー(nr)を用いた情報検索(ir)の改善を図り,その目的を3段階のアプローチで達成する。 まず, 生体医学領域におけるデータの相対的欠如に対処するために, ニューラルレトリバーモデルの学習に利用できるテンプレートベースの質問生成法を提案する。 第2に,情報検索の下流タスクと密接に連携した2つの新しい事前学習タスクを開発する。 第三に、各コンテキストを複数のコンテキストベクトルにエンコードする ``Poly-DPR'' モデルを導入する。 bioasqチャレンジに関する広範な実験と分析は、提案手法が既存の神経アプローチを大きく上回り、小体でbm25を打ち負かすことを示唆している。 bm25と提案手法が相互補完できることを示すとともに,単純なハイブリッドモデルによってコーパスの大規模化が促進されることを示す。

Information retrieval (IR) is essential in search engines and dialogue systems as well as natural language processing tasks such as open-domain question answering. IR serve an important function in the biomedical domain, where content and sources of scientific knowledge may evolve rapidly. Although neural retrievers have surpassed traditional IR approaches such as TF-IDF and BM25 in standard open-domain question answering tasks, they are still found lacking in the biomedical domain. In this paper, we seek to improve information retrieval (IR) using neural retrievers (NR) in the biomedical domain, and achieve this goal using a three-pronged approach. First, to tackle the relative lack of data in the biomedical domain, we propose a template-based question generation method that can be leveraged to train neural retriever models. Second, we develop two novel pre-training tasks that are closely aligned to the downstream task of information retrieval. Third, we introduce the ``Poly-DPR'' model which encodes each context into multiple context vectors. Extensive experiments and analysis on the BioASQ challenge suggest that our proposed method leads to large gains over existing neural approaches and beats BM25 in the small-corpus setting. We show that BM25 and our method can complement each other, and a simple hybrid model leads to further gains in the large corpus setting.
翻訳日:2022-01-20 14:43:24 公開日:2022-01-19
# 深層学習における周波数原理/スペクトルバイアスの概観

Overview frequency principle/spectral bias in deep learning ( http://arxiv.org/abs/2201.07395v1 )

ライセンス: Link先を確認
Zhi-Qin John Xu, Yaoyu Zhang, Tao Luo(参考訳) 深層学習の理解は、ますます産業や科学に浸透してきている。 近年、フーリエ分析による研究ラインでは、ディープニューラルネットワーク(DNN)のトレーニング行動の周波数原理(F-Principleまたはスペクトルバイアス)を示すことで、この魔法の「ブラックボックス」に光を当てている。 F-原則は1次元の合成データで最初に実証され、続いて高次元の実際のデータセットで検証される。 一連の著作はその後、f原理の妥当性を高める。 この低周波バイアスは、低周波関数の学習におけるニューラルネットワークの強みと、高周波関数の学習におけるその欠如を明らかにする。 このような理解はDNNベースのアルゴリズムを実践的に設計し、様々なシナリオに現れる実験的な現象を説明し、周波数の観点から深層学習の研究をさらに進める。 不完全ではあるが、F-原則の概要を提供し、今後の研究のためにいくつかのオープンな問題を提案する。

Understanding deep learning is increasingly emergent as it penetrates more and more into industry and science. In recent years, a research line from Fourier analysis sheds lights into this magical "black box" by showing a Frequency Principle (F-Principle or spectral bias) of the training behavior of deep neural networks (DNNs) -- DNNs often fit functions from low to high frequency during the training. The F-Principle is first demonstrated by one-dimensional synthetic data followed by the verification in high-dimensional real datasets. A series of works subsequently enhance the validity of the F-Principle. This low-frequency implicit bias reveals the strength of neural network in learning low-frequency functions as well as its deficiency in learning high-frequency functions. Such understanding inspires the design of DNN-based algorithms in practical problems, explains experimental phenomena emerging in various scenarios, and further advances the study of deep learning from the frequency perspective. Although incomplete, we provide an overview of F-Principle and propose some open problems for future research.
翻訳日:2022-01-20 14:43:02 公開日:2022-01-19
# ReGNL:夜光を用いたディスラプティブイベント中のGDPの迅速予測

ReGNL: Rapid Prediction of GDP during Disruptive Events using Nightlights ( http://arxiv.org/abs/2201.07612v1 )

ライセンス: Link先を確認
Rushabh Musthyala, Rudrajit Kargupta, Hritish Jain, Dipanjan Chakraborty(参考訳) 政策立案者は、しばしばgdp、失業率、工業生産などのパラメータに基づいて決定を下す。 このような情報を入手または推定する主要な方法は資源集約的で時間を要する。 適時かつ熟知した意思決定を行うためには,これらのパラメータのプロキシを,特にcovid-19パンデミックのような破壊的なイベントにおいて,迅速かつ効率的にサンプリングできることが不可欠である。 近年,リモートセンシングデータの利用に注目が集まっている。 データは調査に比べて収集コストが安くなり、リアルタイムで入手できるようになった。 そこで本研究では,地域gdpナイトライト(regnl)について述べる。地域gdpナイトライト(regnl)は,過去のナイトライトとgdpデータのカスタムデータセットと場所の地理的座標に基づいて学習し,他のパラメータを考慮し,その場所のgdpを推定するニューラルネットベースモデルである。 米国50州を例にとると、ReGNLはディスラプティブに依存しず、通常の年(2019年)と、ディスラプティブイベント(2020年)の両方でGDPを予測することができる。 ReGNLは、パンデミックの間でさえ、予測のためのARIMAメソッドのタイムリーを上回ります。 以上の結果から,特に資源の乏しい地理において,インフラの構築が利用可能な粒度データを収集・作成し,破壊的なイベントにおける政策立案に活用できるようにする。

Policy makers often make decisions based on parameters such as GDP, unemployment rate, industrial output, etc. The primary methods to obtain or even estimate such information are resource intensive and time consuming. In order to make timely and well-informed decisions, it is imperative to be able to come up with proxies for these parameters which can be sampled quickly and efficiently, especially during disruptive events, like the COVID-19 pandemic. Recently, there has been a lot of focus on using remote sensing data for this purpose. The data has become cheaper to collect compared to surveys, and can be available in real time. In this work, we present Regional GDP NightLight (ReGNL), a neural network based model which is trained on a custom dataset of historical nightlights and GDP data along with the geographical coordinates of a place, and estimates the GDP of the place, given the other parameters. Taking the case of 50 US states, we find that ReGNL is disruption-agnostic and is able to predict the GDP for both normal years (2019) and for years with a disruptive event (2020). ReGNL outperforms timeseries ARIMA methods for prediction, even during the pandemic. Following from our findings, we make a case for building infrastructures to collect and make available granular data, especially in resource-poor geographies, so that these can be leveraged for policy making during disruptive events.
翻訳日:2022-01-20 14:42:45 公開日:2022-01-19
# 中間表現を用いたクロスランゲージバイナリソース符号マッチング

Cross-Language Binary-Source Code Matching with Intermediate Representations ( http://arxiv.org/abs/2201.07420v1 )

ライセンス: Link先を確認
Yi Gui, Yao Wan, Hongyu Zhang, Huifang Huang, Yulei Sui, Guandong Xu, Zhiyuan Shao, Hai Jin(参考訳) バイナリソースコードマッチングは,マルウェア検出やリバースエンジニアリング,脆弱性評価など,セキュリティやソフトウェアエンジニアリングに関連する多くのタスクにおいて重要な役割を果たす。 現在、バイナリコードとソースコードの共通ベクトル空間への埋め込みを共同で学習することで、バイナリソースコードマッチングにいくつかのアプローチが提案されている。 多くの努力にもかかわらず、既存のアプローチは単一のプログラミング言語で書かれたバイナリコードとソースコードのマッチングを目標としている。 しかし実際には、ソフトウェアアプリケーションは様々な要件やコンピューティングプラットフォームに対応するために、しばしば異なるプログラミング言語で書かれています。 プログラミング言語にまたがるバイナリとソースコードのマッチングは、マルチ言語とマルチプラットフォームアプリケーションのメンテナンスにおいて、さらなる課題をもたらす。 そこで本稿では,言語間バイナリソースコードマッチングの問題を定式化し,新しい問題のための新しいデータセットを開発する。 本稿では,バイナリとソースコードの中間表現を学習し,トランスフォーマーに基づくニューラルネットワークであるXLIRを提案する。 XLIRの有効性を検証するために、我々の収集したデータセットの上に、クロス言語バイナリソースコードマッチングとクロス言語ソースコードマッチングの2つのタスクに関する総合的な実験を行った。 実験結果と解析結果から,中間表現を持つXLIRは両タスクにおいて他の最先端モデルよりも優れていた。

Binary-source code matching plays an important role in many security and software engineering related tasks such as malware detection, reverse engineering and vulnerability assessment. Currently, several approaches have been proposed for binary-source code matching by jointly learning the embeddings of binary code and source code in a common vector space. Despite much effort, existing approaches target on matching the binary code and source code written in a single programming language. However, in practice, software applications are often written in different programming languages to cater for different requirements and computing platforms. Matching binary and source code across programming languages introduces additional challenges when maintaining multi-language and multi-platform applications. To this end, this paper formulates the problem of cross-language binary-source code matching, and develops a new dataset for this new problem. We present a novel approach XLIR, which is a Transformer-based neural network by learning the intermediate representations for both binary and source code. To validate the effectiveness of XLIR, comprehensive experiments are conducted on two tasks of cross-language binary-source code matching, and cross-language source-source code matching, on top of our curated dataset. Experimental results and analysis show that our proposed XLIR with intermediate representations significantly outperforms other state-of-the-art models in both of the two tasks.
翻訳日:2022-01-20 14:39:58 公開日:2022-01-19
# 教育のタイムタブル:問題、ベンチマーク、そして現状の成果

Educational Timetabling: Problems, Benchmarks, and State-of-the-Art Results ( http://arxiv.org/abs/2201.07525v1 )

ライセンス: Link先を確認
Sara Ceschia, Luca Di Gaspero, Andrea Schaerf(参考訳) 本研究は,「標準」定式化とそれに対応するベンチマークインスタンスに着目した教育タイムタリングの分野での研究貢献度に関する調査である。 これら6つの定式化を識別し,その妥当性とユーザビリティを指摘しながら,それらの特徴について論じる。 他の利用可能な定式化やデータセットもレビューされ、簡単に議論される。 続いて,選択したベンチマークにおいて,ソリューションの品質(上および下限),検索技術,実行時間,統計分布,その他の側面設定の観点から,最先端の成果を報告する。

We propose a survey of the research contributions on the field of Educational Timetabling with a specific focus on "standard" formulations and the corresponding benchmark instances. We identify six of such formulations and we discuss their features, pointing out their relevance and usability. Other available formulations and datasets are also reviewed and briefly discussed. Subsequently, we report the main state-of-the-art results on the selected benchmarks, in terms of solution quality (upper and lower bounds), search techniques, running times, statistical distributions, and other side settings.
翻訳日:2022-01-20 14:39:39 公開日:2022-01-19
# FAT: 3次重みニューラルネットワークのための高速付加型インメモリ加速器

FAT: An In-Memory Accelerator with Fast Addition for Ternary Weight Neural Networks ( http://arxiv.org/abs/2201.07634v1 )

ライセンス: Link先を確認
Shien Zhu, Luan H.K. Duong, Hui Chen, Di Liu, Weichen Liu(参考訳) 畳み込みニューラルネットワーク(cnns)は、様々なアプリケーションで優れた性能を示すが、計算複雑性が高い。 量子化はcnnのレイテンシとストレージコストを削減するために適用される。 量子化法のうち、BWNとTWNは8ビットと4ビットの量子化に対して独自の優位性を持つ。 CNNの乗算操作を、In-Memory-Computing (IMC)デバイスで好まれる追加で置き換える。 BWNのICC加速は広く研究されている。 しかし、TWNsは精度が高く、親和性も優れているが、TWNsのIMC加速は限定的な研究である。 既存のIMCデバイス上のTWNは、空間が十分に利用されておらず、追加操作が効率的でないため、非効率である。 本稿では,TWNのための新しいMCアクセラレータとしてFATを提案する。 まず,twnのスパース性を利用してゼロウェイトのヌル演算をスキップするスパース加算制御部を提案する。 第2に,メモリセルへの搬送と搬送の時間オーバーヘッドを回避するため,メモリセンス増幅器に基づく高速加算方式を提案する。 第3に,アクティベーションと重みの双方のデータ移動を低減し,メモリ列の並列性を向上させるために,静止データマッピングを提案する。 シミュレーションの結果,Sense Amplifier レベルでの追加動作では,FAT は State-Of-The-Art IMC アクセラレータParaPIM と比較して2.00X の高速化, 1.22X の電力効率, 1.22X の面積効率を実現している。 FATは10.02倍の高速化と12.19倍のエネルギー効率を達成する

Convolutional Neural Networks (CNNs) demonstrate great performance in various applications but have high computational complexity. Quantization is applied to reduce the latency and storage cost of CNNs. Among the quantization methods, Binary and Ternary Weight Networks (BWNs and TWNs) have a unique advantage over 8-bit and 4-bit quantization. They replace the multiplication operations in CNNs with additions, which are favoured on In-Memory-Computing (IMC) devices. IMC acceleration for BWNs has been widely studied. However, though TWNs have higher accuracy and better sparsity, IMC acceleration for TWNs has limited research. TWNs on existing IMC devices are inefficient because the sparsity is not well utilized, and the addition operation is not efficient. In this paper, we propose FAT as a novel IMC accelerator for TWNs. First, we propose a Sparse Addition Control Unit, which utilizes the sparsity of TWNs to skip the null operations on zero weights. Second, we propose a fast addition scheme based on the memory Sense Amplifier to avoid the time overhead of both carry propagation and writing back the carry to the memory cells. Third, we further propose a Combined-Stationary data mapping to reduce the data movement of both activations and weights and increase the parallelism of memory columns. Simulation results show that for addition operations at the Sense Amplifier level, FAT achieves 2.00X speedup, 1.22X power efficiency and 1.22X area efficiency compared with State-Of-The-Art IMC accelerator ParaPIM. FAT achieves 10.02X speedup and 12.19X energy efficiency compared with ParaPIM on networks with 80% sparsity
翻訳日:2022-01-20 14:39:30 公開日:2022-01-19
# GEMEL:エッジでのメモリ効率の良いリアルタイムビデオ分析のためのモデルマージ

GEMEL: Model Merging for Memory-Efficient, Real-Time Video Analytics at the Edge ( http://arxiv.org/abs/2201.07705v1 )

ライセンス: Link先を確認
Arthi Padmanabhan, Neil Agarwal, Anand Iyer, Ganesh Ananthanarayanan, Yuanchao Shu, Nikolaos Karianakis, Guoqing Harry Xu, Ravi Netravali(参考訳) ビデオ分析のパイプラインは、帯域幅のオーバーヘッドとプライバシ侵害を減らすために、エッジデプロイメントに着実に移行してきた。 最も注目すべきは、エッジボックスGPUは、リアルタイム推論のために増加する(複雑化する)モデルを同時に格納するために必要なメモリを欠いていることだ。 残念ながら、GPUリソースの時間/空間共有に依存する既存のソリューションは、必要なスワップ遅延が許容できないフレームドロップと精度違反をもたらすため不十分である。 本稿では,エッジビジョンモデル間のアーキテクチャ的類似性を利用した新たなメモリ管理手法であるモデルマージを提案する。 本システムであるGEMELは,(1)モデル単位のメモリ使用量と層間依存関係に関するいくつかの指針的観察を活用して,実効性と精度の高いマージ構成を迅速に同定し,(2)エッジ推論スケジュールを変更してマージメリットを最大化する。 さまざまなワークロードを対象とした実験の結果、gemelはメモリ使用量を最大60.7%削減し、時間/空間の共有だけで全体の精度を8~39%向上させることがわかった。

Video analytics pipelines have steadily shifted to edge deployments to reduce bandwidth overheads and privacy violations, but in doing so, face an ever-growing resource tension. Most notably, edge-box GPUs lack the memory needed to concurrently house the growing number of (increasingly complex) models for real-time inference. Unfortunately, existing solutions that rely on time/space sharing of GPU resources are insufficient as the required swapping delays result in unacceptable frame drops and accuracy violations. We present model merging, a new memory management technique that exploits architectural similarities between edge vision models by judiciously sharing their layers (including weights) to reduce workload memory costs and swapping delays. Our system, GEMEL, efficiently integrates merging into existing pipelines by (1) leveraging several guiding observations about per-model memory usage and inter-layer dependencies to quickly identify fruitful and accuracy-preserving merging configurations, and (2) altering edge inference schedules to maximize merging benefits. Experiments across diverse workloads reveal that GEMEL reduces memory usage by up to 60.7%, and improves overall accuracy by 8-39% relative to time/space sharing alone.
翻訳日:2022-01-20 14:39:02 公開日:2022-01-19
# (参考訳) 階層型サロゲートルールセットを用いた機械学習モデル行動の視覚的探索

Visual Exploration of Machine Learning Model Behavior with Hierarchical Surrogate Rule Sets ( http://arxiv.org/abs/2201.07724v1 )

ライセンス: CC BY 4.0
Jun Yuan, Brian Barr, Kyle Overton, Enrico Bertini(参考訳) モデル解釈の潜在的な解決策の1つは代理モデルを訓練することであり、説明すべきモデルの振る舞いを近似するより透明なモデルである。 典型的には、分類規則や決定木は論理に基づく表現の理解性のために用いられる。 しかし、決定木は深く成長しすぎ、規則集合は複雑なモデルを近似するには大きすぎる。 祖先ノード(条件)を共有しなければならない決定ツリー上のパスとは異なり、ルールはより柔軟である。 しかし、ルールの非構造的な視覚表現は、ルール間の推論を難しくする。 これらの問題に対処するために,新しいアルゴリズムとインタラクティブなソリューションを含むワークフローを提案する。 まず,ユーザ定義パラメータに基づいて階層ルールを生成するアルゴリズムである階層型サーロゲートルール(hsr)を提案する。 我々はまた、HSRと対話型代理ルール可視化を統合した視覚分析(VA)システムSuREにも貢献する。 特に,既存のルール視覚化の欠点を克服する新しい特徴整列木を提案する。 パラメータ感度,時間性能,サロゲート決定木との比較によりアルゴリズムの評価を行い,多くの点で合理的にスケールし,決定木よりも優れることを示した。 また,24名のボランティアによるユーザビリティスタディと7名のドメインエキスパートによる観察研究により,可視化とvaシステムを評価する。 本研究は,特徴に合わせた木を用いて,極めて高い精度で非自明なタスクを遂行できることを示す。 また,ルールベースのVAシステムの設計における今後の研究に役立つ興味深い観測点についても論じる。

One of the potential solutions for model interpretation is to train a surrogate model: a more transparent model that approximates the behavior of the model to be explained. Typically, classification rules or decision trees are used due to the intelligibility of their logic-based expressions. However, decision trees can grow too deep and rule sets can become too large to approximate a complex model. Unlike paths on a decision tree that must share ancestor nodes (conditions), rules are more flexible. However, the unstructured visual representation of rules makes it hard to make inferences across rules. To address these issues, we present a workflow that includes novel algorithmic and interactive solutions. First, we present Hierarchical Surrogate Rules (HSR), an algorithm that generates hierarchical rules based on user-defined parameters. We also contribute SuRE, a visual analytics (VA) system that integrates HSR and interactive surrogate rule visualizations. Particularly, we present a novel feature-aligned tree to overcome the shortcomings of existing rule visualizations. We evaluate the algorithm in terms of parameter sensitivity, time performance, and comparison with surrogate decision trees and find that it scales reasonably well and outperforms decision trees in many respects. We also evaluate the visualization and the VA system by a usability study with 24 volunteers and an observational study with 7 domain experts. Our investigation shows that the participants can use feature-aligned trees to perform non-trivial tasks with very high accuracy. We also discuss many interesting observations that can be useful for future research on designing effective rule-based VA systems.
翻訳日:2022-01-20 14:35:56 公開日:2022-01-19
# トップダウンの影響? 音声文からのCEOの性格とリスク影響の予測

Top-Down Influence? Predicting CEO Personality and Risk Impact from Speech Transcripts ( http://arxiv.org/abs/2201.07670v1 )

ライセンス: Link先を確認
Kilian Theil, Dirk Hovy, Heiner Stuckenschmidt(参考訳) CEOの個性は会社のパフォーマンスにどの程度影響しますか? マネジメント理論は大きな影響を与えるが、経験的に示すのは難しい -- トップマネージャの自己報告されたパーソナリティデータが公開されていない。 代わりに、クラウドソースのMyers--Briggs Type Indicator (MBTI)アセスメントを用いたテキストベースの人格回帰器を提案する。 評価は内部的および外部的妥当性が高く、4次元のうち3次元に対して中程度から強い相関で予測できる。 上層エキロン理論の証拠として、予測されたCEOの個人性が金融リスクの説明力を持っていることを示す。

How much does a CEO's personality impact the performance of their company? Management theory posits a great influence, but it is difficult to show empirically -- there is a lack of publicly available self-reported personality data of top managers. Instead, we propose a text-based personality regressor using crowd-sourced Myers--Briggs Type Indicator (MBTI) assessments. The ratings have a high internal and external validity and can be predicted with moderate to strong correlations for three out of four dimensions. Providing evidence for the upper echelons theory, we demonstrate that the predicted CEO personalities have explanatory power of financial risk.
翻訳日:2022-01-20 14:02:56 公開日:2022-01-19
# 双線形結合スムース最小最適化のためのリフテッドプリマル双対法

Lifted Primal-Dual Method for Bilinearly Coupled Smooth Minimax Optimization ( http://arxiv.org/abs/2201.07427v1 )

ライセンス: Link先を確認
Kiran Koshy Thekumparampil, Niao He, Sewoong Oh(参考訳) 双線型結合ミニマックス問題:$\min_{x} \max_{y} f について検討する。 (x) + y^\top A x - h (y)$ の場合、$f$ と $h$ は共に強い凸滑らかな函数であり、一階勾配オラクルを許容する。 驚くべきことに、既知の一階法アルゴリズムでは、この問題を解決するために$\omega((\sqrt{\frac{l_x}{\mu_x}} + \frac{\|a\|}{\sqrt{\mu_x \mu_y}} + \sqrt{\frac{l_y}{\mu_y}}) \log(\frac1{\varepsilon})) $\varepsilon$primal-dual gap という一般パラメータ系において、$l_x, l_y,\mu_x,\mu_y$ は対応する滑らか性と強い凸定数である。 最初の最適化アルゴリズムであるLifted Primal-Dual (LPD) を考案することで、このギャップを埋める。 提案手法は目的を拡張形式に引き上げ,スムーズな項と双線形項の両方を同じ原始双対の枠組みで最適かつシームレスに扱えるようにした。 最適性に加えて、この手法は1イテレーションあたりの勾配oracle呼び出しのみを使用する、望ましくは単純なシングルループアルゴリズムをもたらす。 さらに、$f$ がちょうど凸であるとき、滑らかな目的に適用される同じアルゴリズムは、ほぼ最適な反復複雑性を達成する。 また、LPD法を用いて直接単ループアルゴリズムを提供し、$O(\sqrt {\frac{L_x}{\varepsilon}} + \frac{\|A\|}{\sqrt{\mu_y \varepsilon}} + \sqrt{\frac{L_y}{\varepsilon}})$の反復複雑性を実現する。 二次ミニマックス問題と政策評価問題に関する数値実験により,本アルゴリズムの高速化が実証された。

We study the bilinearly coupled minimax problem: $\min_{x} \max_{y} f(x) + y^\top A x - h(y)$, where $f$ and $h$ are both strongly convex smooth functions and admit first-order gradient oracles. Surprisingly, no known first-order algorithms have hitherto achieved the lower complexity bound of $\Omega((\sqrt{\frac{L_x}{\mu_x}} + \frac{\|A\|}{\sqrt{\mu_x \mu_y}} + \sqrt{\frac{L_y}{\mu_y}}) \log(\frac1{\varepsilon}))$ for solving this problem up to an $\varepsilon$ primal-dual gap in the general parameter regime, where $L_x, L_y,\mu_x,\mu_y$ are the corresponding smoothness and strongly convexity constants. We close this gap by devising the first optimal algorithm, the Lifted Primal-Dual (LPD) method. Our method lifts the objective into an extended form that allows both the smooth terms and the bilinear term to be handled optimally and seamlessly with the same primal-dual framework. Besides optimality, our method yields a desirably simple single-loop algorithm that uses only one gradient oracle call per iteration. Moreover, when $f$ is just convex, the same algorithm applied to a smoothed objective achieves the nearly optimal iteration complexity. We also provide a direct single-loop algorithm, using the LPD method, that achieves the iteration complexity of $O(\sqrt{\frac{L_x}{\varepsilon}} + \frac{\|A\|}{\sqrt{\mu_y \varepsilon}} + \sqrt{\frac{L_y}{\varepsilon}})$. Numerical experiments on quadratic minimax problems and policy evaluation problems further demonstrate the fast convergence of our algorithm in practice.
翻訳日:2022-01-20 14:01:46 公開日:2022-01-19
# マルチモーダルニューロイメージングデータのための結合支持テンソルマシン分類

Coupled Support Tensor Machine Classification for Multimodal Neuroimaging Data ( http://arxiv.org/abs/2201.07683v1 )

ライセンス: Link先を確認
Li Peide, Seyyid Emre Sofuoglu, Tapabrata Maiti, Selin Aviyente(参考訳) マルチモーダルデータは、同じ現象に関する情報を複数のセンサーから取得し、異なる画像モダリティで取得する様々なアプリケーションで発生する。 マルチモーダルデータからの学習は、モーダル間の補完的な情報を取得する可能性を提供するため、機械学習と統計研究に大きな関心がある。 マルチモーダルモデリングは、異種データソース間の相互依存を説明するのに役立ち、単一のモダリティから利用できない新しい洞察を発見し、意思決定を改善する。 近年,マルチモーダルデータ融合において,潜伏因子を共同推定し,潜伏因子間の複雑な相互依存性を同定するための結合行列-テンソル因子化が導入された。 しかし,マトリックス・テンソル要素の結合に関する先行研究のほとんどは教師なし学習に焦点を合わせており,共同で見積もった潜在因子を用いた教師あり学習に関する研究はほとんどない。 本稿では,マルチモーダルテンソルデータ分類問題を考える。 AMTF(Advanced Coupled Matrix Tensor Factorization)から推定される潜在因子に基づく結合支援テンソルマシン(C-STM)を提案する。 C-STMは、個別および共有潜在因子と複数のカーネルを結合し、結合行列テンソルデータに対する最大マージン分類器を推定する。 C-STMの分類リスクは最適なベイズリスクに収束し、統計的に一貫した規則となる。 C-STMは脳波とfMRIの同時解析と同様にシミュレーション研究によって検証される。 実証的な証拠は、C-STMが複数の情報源からの情報を利用することができ、従来のシングルモード分類器よりも優れた分類性能を提供できることを示している。

Multimodal data arise in various applications where information about the same phenomenon is acquired from multiple sensors and across different imaging modalities. Learning from multimodal data is of great interest in machine learning and statistics research as this offers the possibility of capturing complementary information among modalities. Multimodal modeling helps to explain the interdependence between heterogeneous data sources, discovers new insights that may not be available from a single modality, and improves decision-making. Recently, coupled matrix-tensor factorization has been introduced for multimodal data fusion to jointly estimate latent factors and identify complex interdependence among the latent factors. However, most of the prior work on coupled matrix-tensor factors focuses on unsupervised learning and there is little work on supervised learning using the jointly estimated latent factors. This paper considers the multimodal tensor data classification problem. A Coupled Support Tensor Machine (C-STM) built upon the latent factors jointly estimated from the Advanced Coupled Matrix Tensor Factorization (ACMTF) is proposed. C-STM combines individual and shared latent factors with multiple kernels and estimates a maximal-margin classifier for coupled matrix tensor data. The classification risk of C-STM is shown to converge to the optimal Bayes risk, making it a statistically consistent rule. C-STM is validated through simulation studies as well as a simultaneous EEG-fMRI analysis. The empirical evidence shows that C-STM can utilize information from multiple sources and provide a better classification performance than traditional single-mode classifiers.
翻訳日:2022-01-20 14:00:56 公開日:2022-01-19
# 実用的2次元座標法の複雑さについて

On the Complexity of a Practical Primal-Dual Coordinate Method ( http://arxiv.org/abs/2201.07684v1 )

ライセンス: Link先を確認
Ahmet Alacaoglu, Volkan Cevher, Stephen J. Wright(参考訳) 両線形カップリングによる凸凹最小値問題の解法として, ランダムな外挿・座標降下法(PURE-CD)を応用した原始双対アルゴリズムの複雑性境界を証明した。 我々の複雑性は、密度と疎度(強く)凸-(強く)凹凸問題の両方の文献において最もよく知られた結果に一致するか改善される。

We prove complexity bounds for the primal-dual algorithm with random extrapolation and coordinate descent (PURE-CD), which has been shown to obtain good practical performance for solving convex-concave min-max problems with bilinear coupling. Our complexity bounds either match or improve the best-known results in the literature for both dense and sparse (strongly)-convex-(strongly)-concave problems.
翻訳日:2022-01-20 14:00:31 公開日:2022-01-19
# ロボット操作のためのトランスフォーマーでエゴセントリックとパーソナライズを橋渡し

Look Closer: Bridging Egocentric and Third-Person Views with Transformers for Robotic Manipulation ( http://arxiv.org/abs/2201.07779v1 )

ライセンス: Link先を確認
Rishabh Jangir, Nicklas Hansen, Sambaral Ghosal, Mohit Jain, Xiaolong Wang(参考訳) 強化学習(rl)を用いた視覚フィードバックによる精度に基づく操作課題の解法は、従来のロボットシステムに必要な工学的労力を大幅に削減することができる。 しかし、視覚入力だけできめ細かい運動制御を行うことは、特に以前の作業でよく使われる静的な3人称カメラでは困難である。 本稿では,エージェントがロボットの手首に装着した自己中心カメラと第三者カメラの両方から視覚フィードバックを受けるロボット操作のための設定を提案する。 3人称カメラは静的だが、エゴセントリックカメラはロボットが視覚を積極的に制御し、正確な操作を支援する。 また,両カメラからの視覚情報を効果的に融合するために,空間的注意を一つの視点から他の視点へモデル化し,学習した特徴をrlポリシーの入力として利用するクロスビュー注意機構を備えたトランスフォーマを提案する。 本手法は,単視点および多視点のベースライン上での学習を向上し,非対応カメラを用いた実ロボット上での課題操作タスクのセットへの転送,状態情報へのアクセスの不要,タスク変動度の向上を実現した。 ハンマー操作タスクでは,実験の75%で成功し,マルチビューベースラインでは38%,シングルビューベースラインでは13%であった。

Learning to solve precision-based manipulation tasks from visual feedback using Reinforcement Learning (RL) could drastically reduce the engineering efforts required by traditional robot systems. However, performing fine-grained motor control from visual inputs alone is challenging, especially with a static third-person camera as often used in previous work. We propose a setting for robotic manipulation in which the agent receives visual feedback from both a third-person camera and an egocentric camera mounted on the robot's wrist. While the third-person camera is static, the egocentric camera enables the robot to actively control its vision to aid in precise manipulation. To fuse visual information from both cameras effectively, we additionally propose to use Transformers with a cross-view attention mechanism that models spatial attention from one view to another (and vice-versa), and use the learned features as input to an RL policy. Our method improves learning over strong single-view and multi-view baselines, and successfully transfers to a set of challenging manipulation tasks on a real robot with uncalibrated cameras, no access to state information, and a high degree of task variability. In a hammer manipulation task, our method succeeds in 75% of trials versus 38% and 13% for multi-view and single-view baselines, respectively.
翻訳日:2022-01-20 13:59:07 公開日:2022-01-19
# 混合非決定論的確率的オートマタ:非決定論的図形確率モデル

Mixed Nondeterministic-Probabilistic Automata: Blending graphical probabilistic models with nondeterminism ( http://arxiv.org/abs/2201.07474v1 )

ライセンス: Link先を確認
Albert Benveniste, Jean-Baptiste Raclet(参考訳) 確率と統計のグラフモデルは確率論的推論の領域における中核的な概念であり、確率論的プログラミング-グラフィックモデルはベイズネットワークや因子グラフを含む。 本稿では,非決定論的オートマトンとグラフィカル確率モデルの両方を仮定する混合(非決定的/確率的)オートマトンモデルを開発する。 混合オートマトンは、並列合成、シミュレーション関係、およびグラフィカル確率モデルから継承されるメッセージパッシングアルゴリズムを備える。 セガラの確率的オートマトンは混合オートマトンにマッピングされる。

Graphical models in probability and statistics are a core concept in the area of probabilistic reasoning and probabilistic programming-graphical models include Bayesian networks and factor graphs. In this paper we develop a new model of mixed (nondeterministic/probabilistic) automata that subsumes both nondeterministic automata and graphical probabilistic models. Mixed Automata are equipped with parallel composition, simulation relation, and support message passing algorithms inherited from graphical probabilistic models. Segala's Probabilistic Automatacan be mapped to Mixed Automata.
翻訳日:2022-01-20 13:57:57 公開日:2022-01-19
# 製品設計におけるAI手法の問題点

Problem examination for AI methods in product design ( http://arxiv.org/abs/2201.07642v1 )

ライセンス: Link先を確認
Philipp Rosenthal and Oliver Niggemann(参考訳) AIは製品に関する技術的および非技術的制約をチェックでき、新しい製品バリアントの迅速な設計をサポートし、新しいAIメソッドは創造性もサポートする。 しかし、現在プロダクトデザインとAIは、異なる用語と理論を育む別々のコミュニティです。 これにより、AIアプローチの製品設計へのマッピングが難しくなり、新しいソリューションが防止される。 本稿ではまず,製品設計におけるAI手法の学際的領域に関する重要な用語と概念を明らかにする。 本論文の重要な貢献は, 4つの特徴分解性, 相互依存, 革新, 創造性を用いた設計問題の新たな分類である。 これらの概念の定義は、それらが不足している場所で与えられる。 これらの概念のaiソリューションへの初期のマッピングは、設計例を使ってスケッチされ、検証される。 製品設計における創造性の重要性とAIにおけるそれに対応するギャップは、今後の研究のために指摘されている。

Artificial Intelligence (AI) has significant potential for product design: AI can check technical and non-technical constraints on products, it can support a quick design of new product variants and new AI methods may also support creativity. But currently product design and AI are separate communities fostering different terms and theories. This makes a mapping of AI approaches to product design needs difficult and prevents new solutions. As a solution, this paper first clarifies important terms and concepts for the interdisciplinary domain of AI methods in product design. A key contribution of this paper is a new classification of design problems using the four characteristics decomposability, inter-dependencies, innovation and creativity. Definitions of these concepts are given where they are lacking. Early mappings of these concepts to AI solutions are sketched and verified using design examples. The importance of creativity in product design and a corresponding gap in AI is pointed out for future research.
翻訳日:2022-01-20 13:57:48 公開日:2022-01-19
# (参考訳) 表情認識のための汎用的深層特徴抽出器を目指して

Towards a General Deep Feature Extractor for Facial Expression Recognition ( http://arxiv.org/abs/2201.07781v1 )

ライセンス: CC BY-SA 4.0
Liam Schoneveld, Alice Othmani(参考訳) 人間の顔はかなりの量の情報を伝達する。 表情を通じて、顔は言語化を必要とせずに多数の感情を伝えることができる。 視覚的感情認識の研究が盛んである。 近年,この課題に対して,エンドツーエンドの深層ニューラルネットワークがいくつか提案されている。 しかし、そのようなモデルはデータセット間の一般化能力に欠けることが多い。 本稿では,他の顔感情認識タスクやデータセットに適用できるほど汎用的な視覚特徴抽出法を学習する,ディープラーニングに基づく新しいアプローチであるdeep face expression vector extractor (deepfever)を提案する。 DeepFEVERは、AffectNetとGoogle Facial Expression Comparisonデータセットで最先端の結果を上回っている。 DeepFEVERの抽出された機能は、トレーニング中に目に見えないデータセット、すなわちReal-World Affective Faces (RAF)データセットに対しても、非常にうまく一般化されている。

The human face conveys a significant amount of information. Through facial expressions, the face is able to communicate numerous sentiments without the need for verbalisation. Visual emotion recognition has been extensively studied. Recently several end-to-end trained deep neural networks have been proposed for this task. However, such models often lack generalisation ability across datasets. In this paper, we propose the Deep Facial Expression Vector ExtractoR (DeepFEVER), a new deep learning-based approach that learns a visual feature extractor general enough to be applied to any other facial emotion recognition task or dataset. DeepFEVER outperforms state-of-the-art results on the AffectNet and Google Facial Expression Comparison datasets. DeepFEVER's extracted features also generalise extremely well to other datasets -- even those unseen during training -- namely, the Real-World Affective Faces (RAF) dataset.
翻訳日:2022-01-20 13:55:41 公開日:2022-01-19
# サーロゲートモデリングと不確実性定量化のためのディープカプセルエンコーダデコーダネットワーク

Deep Capsule Encoder-Decoder Network for Surrogate Modeling and Uncertainty Quantification ( http://arxiv.org/abs/2201.07753v1 )

ライセンス: Link先を確認
Akshay Thakur and Souvik Chakraborty(参考訳) スパースデータからメカニクスにおけるシステムのサロゲートモデリングと不確実性定量化を行うために,新しい \textit{capsule} ベースのディープエンコーダデコーダモデルを提案する。 提案手法はcapsnet(capsnet)アーキテクチャを画像から画像への回帰エンコーダ・デコーダネットワークに適用して開発された。 具体的には、コンボリューションニューラルネットワーク(CNN)に対するCapsNetのメリットを活用することを目的としている。 提案手法の性能は楕円確率偏微分方程式 (SPDE) を解くことにより説明され, 定常熱伝導, 地下水流, その他の拡散過程などの力学系を, 入力次元が1024$の不確実性定量化問題に基づいて制御する。 しかし、問題定義はランダム拡散場を特定の共分散構造に制限せず、任意の拡散場に対する応答予測のより厳密なタスクが解決される。 性能評価の結果,提案手法は正確で効率的で頑健であることが示唆された。

We propose a novel \textit{capsule} based deep encoder-decoder model for surrogate modeling and uncertainty quantification of systems in mechanics from sparse data. The proposed framework is developed by adapting Capsule Network (CapsNet) architecture into image-to-image regression encoder-decoder network. Specifically, the aim is to exploit the benefits of CapsNet over convolution neural network (CNN) $-$ retaining pose and position information related to an entity to name a few. The performance of proposed approach is illustrated by solving an elliptic stochastic partial differential equation (SPDE), which also governs systems in mechanics such as steady heat conduction, ground water flow or other diffusion processes, based uncertainty quantification problem with an input dimensionality of $1024$. However, the problem definition does not the restrict the random diffusion field to a particular covariance structure, and the more strenuous task of response prediction for an arbitrary diffusion field is solved. The obtained results from performance evaluation indicate that the proposed approach is accurate, efficient, and robust.
翻訳日:2022-01-20 13:46:24 公開日:2022-01-19
# より簡単:変分オートエンコーダのスペクトル正規化とアップサンプリング技術

Simpler is better: spectral regularization and up-sampling techniques for variational autoencoders ( http://arxiv.org/abs/2201.07544v1 )

ライセンス: Link先を確認
Sara Bj\"ork, Jonas Nordhaug Myhre and Thomas Haugland Johansen(参考訳) ニューラルネットワークに基づく生成モデルのスペクトル挙動の完全な評価は未解決のままである。 最近の研究は、生成的対向ネットワークと、実画像と生成画像の高周波の相違に重点を置いている。 これを回避する現在の解決策は、変換された畳み込みをバイリニアアップサンプリングに置き換えるか、ジェネレータにスペクトル正規化項を追加するかである。 変分オートエンコーダ(VAE)もこれらの問題に悩まされていることはよく知られている。 本研究では,VAEの2次元フーリエ変換に基づくスペクトル正規化損失を簡易に提案し,生成モデルにおける周波数認識損失の現況と同等かそれ以上の結果が得られることを示す。 さらに,ジェネレータネットワークにおけるアップサンプリング手法の変更を試み,それがモデルのスペクトル性能に与える影響について検討した。 結果を示すために、合成および実データ集合の実験を含む。

Full characterization of the spectral behavior of generative models based on neural networks remains an open issue. Recent research has focused heavily on generative adversarial networks and the high-frequency discrepancies between real and generated images. The current solution to avoid this is to either replace transposed convolutions with bilinear up-sampling or add a spectral regularization term in the generator. It is well known that Variational Autoencoders (VAEs) also suffer from these issues. In this work, we propose a simple 2D Fourier transform-based spectral regularization loss for the VAE and show that it can achieve results equal to, or better than, the current state-of-the-art in frequency-aware losses for generative models. In addition, we experiment with altering the up-sampling procedure in the generator network and investigate how it influences the spectral performance of the model. We include experiments on synthetic and real data sets to demonstrate our results.
翻訳日:2022-01-20 13:46:03 公開日:2022-01-19
# 生物医用画像解析のための生成型adversarial networkの訓練課題に関する調査研究

A Survey on Training Challenges in Generative Adversarial Networks for Biomedical Image Analysis ( http://arxiv.org/abs/2201.07646v1 )

ライセンス: Link先を確認
Muhammad Muneeb Saad, Ruairi O'Reilly, and Mubashir Husain Rehmani(参考訳) 生体画像解析において、深層学習法の適用性は、利用可能な画像データ量によって直接影響を受ける。 これは、大規模な画像データセットを必要とするディープラーニングモデルがハイレベルなパフォーマンスを提供するためである。 generative adversarial networks (gans) は合成バイオメディカル画像の生成を通じてデータ制限に対処するために広く利用されている。 GANは2つのモデルで構成される。 ジェネレータは、受信したフィードバックに基づいて合成画像を生成する方法を学ぶモデルである。 判別器(discriminator)は、画像を合成またはリアルに分類し、ジェネレータにフィードバックを提供するモデルである。 トレーニングプロセスを通じて、GANは適切な合成画像の生成を妨げるいくつかの技術的課題を経験することができる。 まず、生成装置が同一の画像を生成するか、異なる入力特徴から一様画像を生成するモード崩壊問題である。 第二に、勾配降下最適化器がナッシュ平衡に達することができない非収束問題である。 第三に、最適分類性能を達成した判別器による不安定な訓練行動が発生し、発電機に有意なフィードバックが得られない、消滅する勾配問題である。 これらの問題は、ぼやけた、非現実的で、多様性の低い合成画像を生み出す。 これまでのところ、バイオメディカル画像領域におけるこれらの技術的課題の影響を概説した調査記事は存在していない。 本研究は, バイオメディカルイメージング領域におけるGANのトレーニング問題に対する解決策に基づくレビューと分類について述べる。 本調査では, バイオメディカルイメージの領域におけるGANの育成について, 今後の研究の方向性を概説する。

In biomedical image analysis, the applicability of deep learning methods is directly impacted by the quantity of image data available. This is due to deep learning models requiring large image datasets to provide high-level performance. Generative Adversarial Networks (GANs) have been widely utilized to address data limitations through the generation of synthetic biomedical images. GANs consist of two models. The generator, a model that learns how to produce synthetic images based on the feedback it receives. The discriminator, a model that classifies an image as synthetic or real and provides feedback to the generator. Throughout the training process, a GAN can experience several technical challenges that impede the generation of suitable synthetic imagery. First, the mode collapse problem whereby the generator either produces an identical image or produces a uniform image from distinct input features. Second, the non-convergence problem whereby the gradient descent optimizer fails to reach a Nash equilibrium. Thirdly, the vanishing gradient problem whereby unstable training behavior occurs due to the discriminator achieving optimal classification performance resulting in no meaningful feedback being provided to the generator. These problems result in the production of synthetic imagery that is blurry, unrealistic, and less diverse. To date, there has been no survey article outlining the impact of these technical challenges in the context of the biomedical imagery domain. This work presents a review and taxonomy based on solutions to the training problems of GANs in the biomedical imaging domain. This survey highlights important challenges and outlines future research directions about the training of GANs in the domain of biomedical imagery.
翻訳日:2022-01-20 13:45:49 公開日:2022-01-19
# (参考訳) 自然言語処理による機械学習を用いた偽ニュースモデルの開発

Development of Fake News Model using Machine Learning through Natural Language Processing ( http://arxiv.org/abs/2201.07489v1 )

ライセンス: CC BY 4.0
Sajjad Ahmed, Knut Hinkelmann, Flavio Corradini(参考訳) フェイクニュース検知の研究はまだ初期段階にあり、これは社会が関心を寄せる比較的新しい現象である。 機械学習は複雑な問題を解決するのに役立ち、近年ではAIシステムの構築に役立ちます。 我々は機械学習アルゴリズムと偽ニュースの識別にPassive Aggressive, Na\"ive Bayes, Support Vector Machineの3つの分類器を適用した。 フェイクニュース検出では、分類方法がフェイクニュースに特化していないため、単純な分類が完全に正しいわけではない。 機械学習とテキストベースの処理の統合により、偽ニュースを検出し、ニュースデータを分類できる分類器を構築することができる。 テキスト分類は主にテキストの様々な特徴の抽出に焦点を合わせ、その後これらの特徴を分類に組み込む。 この分野での大きな課題は、コーパスが利用できないために偽物と偽物とを区別する効率的な方法がないことである。 2つの公開データセットに3つの異なる機械学習分類器を適用した。 既存のデータセットに基づいた実験的分析は、非常に励ましく改善されたパフォーマンスを示している。

Fake news detection research is still in the early stage as this is a relatively new phenomenon in the interest raised by society. Machine learning helps to solve complex problems and to build AI systems nowadays and especially in those cases where we have tacit knowledge or the knowledge that is not known. We used machine learning algorithms and for identification of fake news; we applied three classifiers; Passive Aggressive, Na\"ive Bayes, and Support Vector Machine. Simple classification is not completely correct in fake news detection because classification methods are not specialized for fake news. With the integration of machine learning and text-based processing, we can detect fake news and build classifiers that can classify the news data. Text classification mainly focuses on extracting various features of text and after that incorporating those features into classification. The big challenge in this area is the lack of an efficient way to differentiate between fake and non-fake due to the unavailability of corpora. We applied three different machine learning classifiers on two publicly available datasets. Experimental analysis based on the existing dataset indicates a very encouraging and improved performance.
翻訳日:2022-01-20 13:42:19 公開日:2022-01-19
# 効率的なアノテーションのためのHER2スライドのスーパーピクセルプレセグメンテーション

Superpixel Pre-Segmentation of HER2 Slides for Efficient Annotation ( http://arxiv.org/abs/2201.07572v1 )

ライセンス: Link先を確認
Mathias \"Ottl, Jana M\"onius, Christian Marzahl, Matthias R\"ubner, Carol I. Geppert, Arndt Hartmann, Matthias W. Beckmann, Peter Fasching, Andreas Maier, Ramona Erber, Katharina Breininger(参考訳) 教師付き深層学習は、病理組織学や癌研究など、さまざまな分野の医療画像セグメンテーションにおける最先端のパフォーマンスを示しているが、そのようなデータの手動アノテーションは非常に困難である。 本研究では, 乳がん診断におけるHER2染色画像のプリセグメンテーションに対するスーパーピクセルアプローチの利用について検討し, より高速な手動アノテーションと修正を第2ステップで行う。 ベースラインとしての標準単純線形反復クラスタリング(slic)、プリトレーニングされたresnet-50とデノージングオートエンコーダの機能埋め込みに基づくドメイン適合型slic、スーパーピクセルの4つの方法を比較した。 オーバーセグメンテーションに取り組むために,各特徴空間のコンテンツに基づいて,スーパーピクセルを階層的にマージすることを提案する。 完全手動でアノテートされた画像に対するアプローチを評価する際、オートエンコーダベースのスーパーピクセルは、ベースラインのSLICスーパーピクセルに比べて境界F1スコアが23%増加することが観察された。 さらに、適応SLICとオートエンコーダベースのスーパーピクセルに階層クラスタリングを適用すると、境界F1スコアが73%増加する。 これらの評価は、注釈付きトレーニングデータの初期セットを必要とせず、効率的な手作業による洗練のための事前セグメンテーションの最初の結果を奨励する。

Supervised deep learning has shown state-of-the-art performance for medical image segmentation across different applications, including histopathology and cancer research; however, the manual annotation of such data is extremely laborious. In this work, we explore the use of superpixel approaches to compute a pre-segmentation of HER2 stained images for breast cancer diagnosis that facilitates faster manual annotation and correction in a second step. Four methods are compared: Standard Simple Linear Iterative Clustering (SLIC) as a baseline, a domain adapted SLIC, and superpixels based on feature embeddings of a pretrained ResNet-50 and a denoising autoencoder. To tackle oversegmentation, we propose to hierarchically merge superpixels, based on their content in the respective feature space. When evaluating the approaches on fully manually annotated images, we observe that the autoencoder-based superpixels achieve a 23% increase in boundary F1 score compared to the baseline SLIC superpixels. Furthermore, the boundary F1 score increases by 73% when hierarchical clustering is applied on the adapted SLIC and the autoencoder-based superpixels. These evaluations show encouraging first results for a pre-segmentation for efficient manual refinement without the need for an initial set of annotated training data.
翻訳日:2022-01-20 13:32:01 公開日:2022-01-19
# 自動運転車における物体検出の現状と課題

Object Detection in Autonomous Vehicles: Status and Open Challenges ( http://arxiv.org/abs/2201.07706v1 )

ライセンス: Link先を確認
Abhishek Balasubramaniam, Sudeep Pasricha(参考訳) オブジェクト検出は、監視およびセキュリティシステム、モバイルテキスト認識、mri/ctスキャンによる疾患の診断など、今日の多くの消費者アプリケーションにおいて不可欠な部分となっているコンピュータビジョンタスクである。 オブジェクト検出は、自動運転をサポートする重要なコンポーネントの1つである。 自動運転車は安全で堅牢な運転性能を確保するために周囲の認識に依存している。 この認識システムは、物体検出アルゴリズムを使用して、歩行者、車両、交通標識、車両近傍の障壁などの物体を正確に判定する。 ディープラーニングベースのオブジェクト検出器は、これらのオブジェクトをリアルタイムで見つけてローカライズするのに重要な役割を果たす。 本稿では,物体検出における最先端の課題と,その自律走行車への統合に向けた課題について述べる。

Object detection is a computer vision task that has become an integral part of many consumer applications today such as surveillance and security systems, mobile text recognition, and diagnosing diseases from MRI/CT scans. Object detection is also one of the critical components to support autonomous driving. Autonomous vehicles rely on the perception of their surroundings to ensure safe and robust driving performance. This perception system uses object detection algorithms to accurately determine objects such as pedestrians, vehicles, traffic signs, and barriers in the vehicle's vicinity. Deep learning-based object detectors play a vital role in finding and localizing these objects in real-time. This article discusses the state-of-the-art in object detectors and open challenges for their integration into autonomous vehicles.
翻訳日:2022-01-20 13:31:37 公開日:2022-01-19
# ConDor: 部分形状のための3Dポッドの自己監督型正準化

ConDor: Self-Supervised Canonicalization of 3D Pose for Partial Shapes ( http://arxiv.org/abs/2201.07788v1 )

ライセンス: Link先を確認
Rahul Sajnani, Adrien Poulenard, Jivitesh Jain, Radhika Dua, Leonidas J. Guibas, Srinath Sridhar(参考訳) 3Dオブジェクト理解の進歩は、一貫した位置と向きを持つインスタンスを含む手動の標準化された形状データセット(3Dポーズ)に依存している。 これにより、これらの手法を野生の形状に一般化することは困難になった。 画像はインターネット・モデル・コレクションや深度センサーから。 ConDorは、完全および部分的な3次元点雲の3次元配向と位置を正準化する自己教師型手法である。 我々は、置換および回転同変のクラスであるTensor Field Networks (TFNs) と翻訳不変の3Dネットワーク上に構築する。 推測中,本手法は任意のポーズで完全あるいは部分的な3次元点の雲を取り,同変正則のポーズを出力する。 トレーニング中、このネットワークは自己超越損失を使用して、完全な3D点雲と部分的な3D点雲の非正準化集合から標準的ポーズを学習する。 ConDorは、一貫したオブジェクト部品の分離を、監督なしに学べる。 4つの新しい指標を総合的に測定した結果,提案手法は既存の手法よりも優れており,深度画像の操作やアノテーション転送などの新しい応用が可能であった。

Progress in 3D object understanding has relied on manually canonicalized shape datasets that contain instances with consistent position and orientation (3D pose). This has made it hard to generalize these methods to in-the-wild shapes, eg., from internet model collections or depth sensors. ConDor is a self-supervised method that learns to Canonicalize the 3D orientation and position for full and partial 3D point clouds. We build on top of Tensor Field Networks (TFNs), a class of permutation- and rotation-equivariant, and translation-invariant 3D networks. During inference, our method takes an unseen full or partial 3D point cloud at an arbitrary pose and outputs an equivariant canonical pose. During training, this network uses self-supervision losses to learn the canonical pose from an un-canonicalized collection of full and partial 3D point clouds. ConDor can also learn to consistently co-segment object parts without any supervision. Extensive quantitative results on four new metrics show that our approach outperforms existing methods while enabling new applications such as operation on depth images and annotation transfer.
翻訳日:2022-01-20 13:30:53 公開日:2022-01-19
# より浅いヒューリスティックスを明らかにする:音節パターンを用いたトランスフォーマー型事前学習言語モデルの自然言語推論能力の探索

Uncovering More Shallow Heuristics: Probing the Natural Language Inference Capacities of Transformer-Based Pre-Trained Language Models Using Syllogistic Patterns ( http://arxiv.org/abs/2201.07614v1 )

ライセンス: Link先を確認
Reto Gubelmann and Siegfried Handschuh(参考訳) 本稿では,自然言語推論(NLI)のために微調整されたトランスフォーマーベース事前学習言語モデル(PLM)が使用する浅層ヒューリスティックスについて検討する。 そのために私たちは,syllogisticに基づくデータセットを構築ないし独自に構築し,当社のデータセット上で多数のモデルのパフォーマンスを評価する。 モデルが特定の浅いヒューリスティックに重きを置き、前提と仮説の間の対称性と非対称性を拾い上げる証拠を見つける。 我々は,本研究における一般化の欠如が,この分野における活発な議論のトピックとなっていることから,PLMが現在NLIを学ばず,むしろ刺激的なヒューリスティックスを学んでいることを示唆している。

In this article, we explore the shallow heuristics used by transformer-based pre-trained language models (PLMs) that are fine-tuned for natural language inference (NLI). To do so, we construct or own dataset based on syllogistic, and we evaluate a number of models' performance on our dataset. We find evidence that the models rely heavily on certain shallow heuristics, picking up on symmetries and asymmetries between premise and hypothesis. We suggest that the lack of generalization observable in our study, which is becoming a topic of lively debate in the field, means that the PLMs are currently not learning NLI, but rather spurious heuristics.
翻訳日:2022-01-20 13:30:13 公開日:2022-01-19
# (参考訳) Repre: 再構成前トレーニングによる自己監督型視覚変換器の改良

RePre: Improving Self-Supervised Vision Transformer with Reconstructive Pre-training ( http://arxiv.org/abs/2201.06857v2 )

ライセンス: CC BY 4.0
Luya Wang, Feng Liang, Yangguang Li, Honggang Zhang, Wanli Ouyang, Jing Shao(参考訳) 近年、自己監督型視覚変換器は印象的な表現学習能力で前例のない注目を集めている。 しかし、コントラスト学習という支配的な手法は、主に画像のグローバルな理解を学習するインスタンス識別プレテキストタスクに依存している。 本稿では,Reconstructive Pre-Training(RePre)を用いて,局所特徴学習を自己教師型視覚変換器に組み込む。 私たちのrepreは、既存のコントラスト目的と並行して生のピクセルを再構築するブランチを追加することで、コントラストフレームワークを拡張します。 RePreは軽量な畳み込みベースのデコーダを備えており、トランスフォーマーエンコーダのマルチ階層機能を融合している。 マルチ階層機能は、低レベルから高レベルのセマンティック情報まで、豊富な監視を提供します。 私たちのRePreは、異なるビジョントランスフォーマーアーキテクチャを持つさまざまなコントラストフレームワークに対して、適切な改善を提供します。 下流タスクにおける転送性能は、教師付き事前訓練およびSOTA(State-of-the-art)自己監督タスクよりも優れる。

Recently, self-supervised vision transformers have attracted unprecedented attention for their impressive representation learning ability. However, the dominant method, contrastive learning, mainly relies on an instance discrimination pretext task, which learns a global understanding of the image. This paper incorporates local feature learning into self-supervised vision transformers via Reconstructive Pre-training (RePre). Our RePre extends contrastive frameworks by adding a branch for reconstructing raw image pixels in parallel with the existing contrastive objective. RePre is equipped with a lightweight convolution-based decoder that fuses the multi-hierarchy features from the transformer encoder. The multi-hierarchy features provide rich supervisions from low to high semantic information, which are crucial for our RePre. Our RePre brings decent improvements on various contrastive frameworks with different vision transformer architectures. Transfer performance in downstream tasks outperforms supervised pre-training and state-of-the-art (SOTA) self-supervised counterparts.
翻訳日:2022-01-20 13:28:28 公開日:2022-01-19
# (参考訳) 個人化フェデレーション学習におけるバックドアハイパーネットワークへのモデル転送攻撃

Model Transferring Attacks to Backdoor HyperNetwork in Personalized Federated Learning ( http://arxiv.org/abs/2201.07063v2 )

ライセンス: CC BY 4.0
Phung Lai, NhatHai Phan, Abdallah Khreishah, Issa Khalil, Xintao Wu(参考訳) 本稿では,HyperNetをベースとしたパーソナライズド・フェデレーション・ラーニング(HyperNetFL)における毒性攻撃によるバックドアリスクについて検討する。 そこで本研究では,hypernetflモデルが生成する正統かつパーソナライズされたすべてのローカルモデルに対して,そのトレーニングプロセス全体において,漏洩したすべてのクライアント間で算出された,一貫性と効果的な局所勾配を通じて,ローカルバックドア感染モデルを転送する,新たなモデルであるhntroj(hntroj)を提案する。 その結果、HNTROJは攻撃を成功させるのに必要な妥協されたクライアントの数を減らし、攻撃をステルスにする正統なデータサンプルのモデルユーティリティに関する突然のシフトや劣化の兆候がない。 HNTROJに対抗するために,複数のバックドア抵抗FLトレーニングアルゴリズムをHyperNetFLに適応させた。 複数のベンチマークデータセットを用いた広範な実験により、hntrojはデータ中毒やモデル置換攻撃を大きく上回り、堅牢なトレーニングアルゴリズムをバイパスしていることが示された。

This paper explores previously unknown backdoor risks in HyperNet-based personalized federated learning (HyperNetFL) through poisoning attacks. Based upon that, we propose a novel model transferring attack (called HNTROJ), i.e., the first of its kind, to transfer a local backdoor infected model to all legitimate and personalized local models, which are generated by the HyperNetFL model, through consistent and effective malicious local gradients computed across all compromised clients in the whole training process. As a result, HNTROJ reduces the number of compromised clients needed to successfully launch the attack without any observable signs of sudden shifts or degradation regarding model utility on legitimate data samples making our attack stealthy. To defend against HNTROJ, we adapted several backdoor-resistant FL training algorithms into HyperNetFL. An extensive experiment that is carried out using several benchmark datasets shows that HNTROJ significantly outperforms data poisoning and model replacement attacks and bypasses robust training algorithms.
翻訳日:2022-01-20 13:14:08 公開日:2022-01-19
# (参考訳) SAR画像における航空機検出のための注意的特徴補正とアライメントネットワーク

Attentional Feature Refinement and Alignment Network for Aircraft Detection in SAR Imagery ( http://arxiv.org/abs/2201.07124v2 )

ライセンス: CC BY 4.0
Yan Zhao, Lingjun Zhao, Zhong Liu, Dewen Hu, Gangyao Kuang, Li Liu(参考訳) SAR(Synthetic Aperture Radar)画像における航空機検出は、航空機の非常に離散的な外観、明らかなクラス内変異、小さなサイズ、深刻な背景の干渉により、SAR自動目標認識(SAR ATR)領域において難しい課題である。 本稿では,sar画像中の航空機を検出するために,注目的特徴改善・アライメントネットワーク(afran)と呼ばれる単発検出器を提案する。 具体的には,航空機の情報特性の精細化・整合化のために,注意機能融合モジュール(AFFM),変形性横方向接続モジュール(DLCM),アンカー誘導検出モジュール(ADM)の3つの重要なコンポーネントを慎重に設計する。 干渉の少ない航空機の特性を表現するため、AFFMにおいて低レベルのテクスチャと高レベルのセマンティックな特徴を融合して洗練する。 航空機の離散後方散乱点と畳み込みサンプリングスポットのアライメントはDLCMで促進される。 最終的に航空機の位置は、改良されたアンカーによって修正された整列した特徴に基づいてADMで正確に予測される。 本手法の性能を評価するため,自作SAR航空機スライスデータセットと大シーンSAR画像を収集した。 詳細な分析による広範囲な量的・質的実験により,提案する3成分の有効性が示された。 さらに、DAPN、PADN、一般的なCNNベースの手法(FPN、Cascade R-CNN、SSD、RefineDet、RDDetなど)と比較して、最も高い検出精度と競合速度が得られた。

Aircraft detection in Synthetic Aperture Radar (SAR) imagery is a challenging task in SAR Automatic Target Recognition (SAR ATR) areas due to aircraft's extremely discrete appearance, obvious intraclass variation, small size and serious background's interference. In this paper, a single-shot detector namely Attentional Feature Refinement and Alignment Network (AFRAN) is proposed for detecting aircraft in SAR images with competitive accuracy and speed. Specifically, three significant components including Attention Feature Fusion Module (AFFM), Deformable Lateral Connection Module (DLCM) and Anchor-guided Detection Module (ADM), are carefully designed in our method for refining and aligning informative characteristics of aircraft. To represent characteristics of aircraft with less interference, low-level textural and high-level semantic features of aircraft are fused and refined in AFFM throughly. The alignment between aircraft's discrete back-scatting points and convolutional sampling spots is promoted in DLCM. Eventually, the locations of aircraft are predicted precisely in ADM based on aligned features revised by refined anchors. To evaluate the performance of our method, a self-built SAR aircraft sliced dataset and a large scene SAR image are collected. Extensive quantitative and qualitative experiments with detailed analysis illustrate the effectiveness of the three proposed components. Furthermore, the topmost detection accuracy and competitive speed are achieved by our method compared with other domain-specific,e.g., DAPN, PADN, and general CNN-based methods,e.g., FPN, Cascade R-CNN, SSD, RefineDet and RPDet.
翻訳日:2022-01-20 12:45:04 公開日:2022-01-19
# GradTail: 勾配ベースのサンプル重み付けによる長期学習

GradTail: Learning Long-Tailed Data Using Gradient-based Sample Weighting ( http://arxiv.org/abs/2201.05938v2 )

ライセンス: Link先を確認
Zhao Chen, Vincent Casser, Henrik Kretzschmar, Dragomir Anguelov(参考訳) 長文トレーニングデータ分布に直面するモデル性能を改善するために勾配を用いたアルゴリズムであるgradtailを提案する。 収束した、おそらく過適合なモデルで動作する従来のロングテール分類器とは異なり、勾配ドット製品契約に基づくアプローチは、モデルトレーニング中に早期にロングテールデータを分離し、そのデータに対して高いサンプル重量を動的に取り込むことで、性能を向上させることができることを示す。 このような重み付けは分類モデルと回帰モデルの両方にモデル改善をもたらし、後者はロングテールの文献では比較的未検討であり、勾配アライメントによって発見されたロングテールの例は、私たちの意味的期待と一致していることを示している。

We propose GradTail, an algorithm that uses gradients to improve model performance on the fly in the face of long-tailed training data distributions. Unlike conventional long-tail classifiers which operate on converged - and possibly overfit - models, we demonstrate that an approach based on gradient dot product agreement can isolate long-tailed data early on during model training and improve performance by dynamically picking higher sample weights for that data. We show that such upweighting leads to model improvements for both classification and regression models, the latter of which are relatively unexplored in the long-tail literature, and that the long-tail examples found by gradient alignment are consistent with our semantic expectations.
翻訳日:2022-01-20 12:15:53 公開日:2022-01-19
# SNCSE:ソフトネガティブサンプルを用いた教師なし文のコントラスト学習

SNCSE: Contrastive Learning for Unsupervised Sentence Embedding with Soft Negative Samples ( http://arxiv.org/abs/2201.05979v2 )

ライセンス: Link先を確認
Hao Wang, Yangguang Li, Zhen Huang, Yong Dou, Lingpeng Kong, Jing Shao(参考訳) 教師なし文の埋め込みは、文の意味を反映する最も適切な埋め込みを得ることを目的としている。 対照的な学習は注目を浴びている。 文に対して、現在のモデルは様々なデータ拡張法を用いて正のサンプルを生成する一方、他の独立した文を負のサンプルとみなす。 その後、正のペアの埋め込みを引っ張り、負のペアの埋め込みを分散させるためにインフォデンスロスを採用する。 これらのモデルは文の埋め込みに大きな進歩をもたらしたが、機能抑制に悩まされる可能性がある。 モデルはテキストの類似性とセマンティックな類似性を区別し分離することができない。 そして、実際の意味の違いにかかわらず、類似したテキストを持つ任意のペアの意味的類似性を過大評価することができる。 これは、教師なしのコントラスト学習における正のペアは、データ拡張によって同じテキストでも類似しているためである。 特徴抑圧を緩和するために,ソフト・ネガティブ・サンプル(SNCSE)を組み込んだ教師なし文のコントラスト学習を提案する。 ソフトな負のサンプルは、非常に類似したテキストを共有しているが、明らかに元のサンプルと異なる意味を持っている。 具体的には、原文の否定をソフトな負のサンプルとみなし、正と負のサンプルのみを含む従来のコントラスト学習フレームワークにそれらを導入するために、双方向マージン損失(BML)を提案する。 実験の結果,sncseは,平均スピアマン相関係数78.97%,ロバータベース79.23%で意味的テキスト類似性(sts)タスクの最先端性能を得ることができた。 さらに,SNCSEの弱点を検出するために,ランクに基づく誤り解析手法を採用した。

Unsupervised sentence embedding aims to obtain the most appropriate embedding for a sentence to reflect its semantic. Contrastive learning has been attracting developing attention. For a sentence, current models utilize diverse data augmentation methods to generate positive samples, while consider other independent sentences as negative samples. Then they adopt InfoNCE loss to pull the embeddings of positive pairs gathered, and push those of negative pairs scattered. Although these models have made great progress on sentence embedding, we argue that they may suffer from feature suppression. The models fail to distinguish and decouple textual similarity and semantic similarity. And they may overestimate the semantic similarity of any pairs with similar textual regardless of the actual semantic difference between them. This is because positive pairs in unsupervised contrastive learning come with similar and even the same textual through data augmentation. To alleviate feature suppression, we propose contrastive learning for unsupervised sentence embedding with soft negative samples (SNCSE). Soft negative samples share highly similar textual but have surely and apparently different semantic with the original samples. Specifically, we take the negation of original sentences as soft negative samples, and propose Bidirectional Margin Loss (BML) to introduce them into traditional contrastive learning framework, which merely involves positive and negative samples. Our experimental results show that SNCSE can obtain state-of-the-art performance on semantic textual similarity (STS) task with average Spearman's correlation coefficient of 78.97% on BERTbase and 79.23% on RoBERTabase. Besides, we adopt rank-based error analysis method to detect the weakness of SNCSE for future study.
翻訳日:2022-01-20 12:15:38 公開日:2022-01-19
# sture: オンラインマルチオブジェクト追跡におけるロバストデータアソシエーションのための空間-時間間相互表現学習

STURE: Spatial-Temporal Mutual Representation Learning for Robust Data Association in Online Multi-Object Tracking ( http://arxiv.org/abs/2201.06824v2 )

ライセンス: Link先を確認
Haidong Wang, Zhiyong Li, Yaping Li, Ke Nai, Ming Wen(参考訳) オンラインマルチオブジェクトトラッキング(MOT)は、コンピュータビジョンとインテリジェントな車両プラットフォームのための長年のタスクである。 現在、主要なパラダイムはトラッキング・バイ・検出であり、このパラダイムの主な難しさは、現在の候補検出と過去のトラックレットを関連付ける方法である。 しかし、motのシナリオでは、各履歴トラックレットはオブジェクトシーケンスで構成され、各候補検出は単なるフラットイメージであり、オブジェクトシーケンスの時間的特徴を欠いている。 現在の候補検出と履歴トラックレットの特徴の違いは、オブジェクトの関連性をはるかに難しくする。 そこで,本稿では,現在候補検出と歴史的シーケンス間の空間時間表現を相互表現空間で学習する空間-時間間相互表現学習(sture)手法を提案する。 歴史的トラケレットの場合、検出学習ネットワークは、相互表現空間におけるシーケンス学習ネットワークの表現と一致せざるを得ない。 提案手法は,オブジェクト連想における各種設計損失を用いて,検出とシーケンス表現をより識別する手法である。 その結果、現在の検出特徴を強化するために時空間特徴を相互に学習し、特徴差を緩和することができる。 STUREのロバスト性を証明するために、パブリックMOTチャレンジベンチマークに適用され、ID保存メトリクスに基づく様々な最先端のオンラインMOTトラッカーと比較してよく機能する。

Online multi-object tracking (MOT) is a longstanding task for computer vision and intelligent vehicle platform. At present, the main paradigm is tracking-by-detection, and the main difficulty of this paradigm is how to associate the current candidate detection with the historical tracklets. However, in the MOT scenarios, each historical tracklet is composed of an object sequence, while each candidate detection is just a flat image, which lacks the temporal features of the object sequence. The feature difference between current candidate detection and historical tracklets makes the object association much harder. Therefore, we propose a Spatial-Temporal Mutual {Representation} Learning (STURE) approach which learns spatial-temporal representations between current candidate detection and historical sequence in a mutual representation space. For the historical trackelets, the detection learning network is forced to match the representations of sequence learning network in a mutual representation space. The proposed approach is capable of extracting more distinguishing detection and sequence representations by using various designed losses in object association. As a result, spatial-temporal feature is learned mutually to reinforce the current detection features, and the feature difference can be relieved. To prove the robustness of the STURE, it is applied to the public MOT challenge benchmarks and performs well compared with various state-of-the-art online MOT trackers based on identity-preserving metrics.
翻訳日:2022-01-20 12:15:08 公開日:2022-01-19
# 誰が救急部を増やすの? オレゴン健康保険実験の新たな知見

Who Increases Emergency Department Use? New Insights from the Oregon Health Insurance Experiment ( http://arxiv.org/abs/2201.07072v2 )

ライセンス: Link先を確認
Augustine Denteh, Helge Liebert(参考訳) オレゴン州の救急医療機関(ED)がオレゴン州の実験で利用したことに対する新たな知見を提供する。 非パラメトリック因果機械学習法を用いて,メディケイド被覆がED使用に与える影響について,経済的に意味のある治療効果がみられた。 効果分布は広く分散しており、有意な効果は高用量個体に集中している。 参加者の約14%の小さなグループで、ed使用が大幅に増加したことで、全体的な効果が向上した。 個々の治療効果の残りは、ゼロまたは負と区別できない。 平均治療効果は、ほとんどの人の個別治療効果を表すものではない。 対象は,男性,スナップ前参加者,50歳未満の成人,初診前ed使用者の4群である。 以上の結果から, メディケイドは, ED使用に慣れており, 救急部門をあらゆる種類のケアに利用している人の間で, 有効利用率を高めることが示唆された。 我々は、異種効果を利用して最適な割り当てルールを推定し、同様の拡張における保険適用を優先順位付けする。

We provide new insights into the finding that Medicaid increased emergency department (ED) use from the Oregon experiment. Using nonparametric causal machine learning methods, we find economically meaningful treatment effect heterogeneity in the impact of Medicaid coverage on ED use. The effect distribution is widely dispersed, with significant positive effects concentrated among high-use individuals. A small group - about 14% of participants - in the right tail with significant increases in ED use drives the overall effect. The remainder of the individualized treatment effects is either indistinguishable from zero or negative. The average treatment effect is not representative of the individualized treatment effect for most people. We identify four priority groups with large and statistically significant increases in ED use - men, prior SNAP participants, adults less than 50 years old, and those with pre-lottery ED use classified as primary care treatable. Our results point to an essential role of intensive margin effects - Medicaid increases utilization among those already accustomed to ED use and who use the emergency department for all types of care. We leverage the heterogeneous effects to estimate optimal assignment rules to prioritize insurance applications in similar expansions.
翻訳日:2022-01-20 12:14:45 公開日:2022-01-19
# h&e-adversarial network: ヘマトキシリンとエオシン回帰による染色不変特徴学習のための畳み込みニューラルネットワーク

H&E-adversarial network: a convolutional neural network to learn stain-invariant features through Hematoxylin & Eosin regression ( http://arxiv.org/abs/2201.06329v2 )

ライセンス: Link先を確認
Niccol\'o Marini, Manfredo Atzori, Sebastian Ot\'alora, Stephane Marchand-Maillet, Henning M\"uller(参考訳) コンピュータ病理学(Computational pathology)は、スライド画像全体 (WSI) と呼ばれる大規模なデジタル組織像を自動的に解析するアルゴリズムを開発することを目的とした分野である。 WSIは、特定の構造を可視化するために染色された薄い組織サンプルを走査する。 医療センター間で異なる準備とスキャン設定により、染色色の不均一性を示す。 色の不均一性は、ほとんどの計算病理タスクの最先端アルゴリズムである畳み込みニューラルネットワーク(CNN)を訓練する問題である。 いくつかの方法が開発されているにもかかわらず、染色色の不均一性は、いくつかの医療センターのデータに基づいて一般化できるCNNの開発を制限する未解決の課題である。 本稿では,複数の色変化を含むデータをより一般化するcnnの訓練手法を提案する。 H&E-adversarial CNNと呼ばれるこの手法は、トレーニング中にH&Eマトリックス情報を利用して、染色不変の特徴を学習する。 この方法は,11種類の異種データセットを含む大腸および前立腺病理画像の分類において評価され,染色色多様性を扱うために用いられる他の5つの手法と比較された。 H&E-adversarial CNNは、他のアルゴリズムと比較して性能が向上し、色の不均一な画像の染色に有効であることを示す。

Computational pathology is a domain that aims to develop algorithms to automatically analyze large digitized histopathology images, called whole slide images (WSI). WSIs are produced scanning thin tissue samples that are stained to make specific structures visible. They show stain colour heterogeneity due to different preparation and scanning settings applied across medical centers. Stain colour heterogeneity is a problem to train convolutional neural networks (CNN), the state-of-the-art algorithms for most computational pathology tasks, since CNNs usually underperform when tested on images including different stain variations than those within data used to train the CNN. Despite several methods that were developed, stain colour heterogeneity is still an unsolved challenge that limits the development of CNNs that can generalize on data from several medical centers. This paper aims to present a novel method to train CNNs that better generalize on data including several colour variations. The method, called H&E-adversarial CNN, exploits H&E matrix information to learn stain-invariant features during the training. The method is evaluated on the classification of colon and prostate histopathology images, involving eleven heterogeneous datasets, and compared with five other techniques used to handle stain colour heterogeneity. H&E-adversarial CNNs show an improvement in performance compared to the other algorithms, demonstrating that it can help to better deal with stain colour heterogeneous images.
翻訳日:2022-01-20 12:12:27 公開日:2022-01-19
# マルチエージェントピックアップおよび配送タスクのためのスタンバイベースデッドロック回避方法

Standby-Based Deadlock Avoidance Method for Multi-Agent Pickup and Delivery Tasks ( http://arxiv.org/abs/2201.06014v2 )

ライセンス: Link先を確認
Tomoki Yamauchi, Yuki Miyashita and Toshiharu Sugawara(参考訳) 複数のエージェントが衝突せずに反復的に材料を運ぶマルチエージェントピックアップ・アンド・デリバリー(MAPD)問題に注目が集まっている。 しかし、従来のMAPDアルゴリズムの多くは、自動倉庫など、特定の設計のグリッドのような環境を前提としている。 そのため、長い期間エージェントが滞在できるピックアップと配送の場所が多く、またグリッド内の移動の自由による衝突を避けるために多くの回り道がある。 対照的に、捜索救助や建設現場のような迷路のような環境は、ピックアップ/配達の場所が少なく、その数は不均衡である可能性があるため、多くのエージェントはそのような場所に集中し、効率の悪さを招き、しばしば立ち往生またはデッドロックされる。 そこで我々は,迷路型制限環境においても輸送効率を向上させるために,スタンバイベースデッドロック回避(SBDA)と呼ばれるデッドロック回避手法を提案する。 SBDAは調音点探索アルゴリズムを用いてリアルタイムに決定された待機ノードを使用し、エージェントは有限時間滞在することが保証される。 提案手法が従来の手法より優れていることを示す。 また,待機ノード選択のパラメータが性能に与える影響についても検討した。

The multi-agent pickup and delivery (MAPD) problem, in which multiple agents iteratively carry materials without collisions, has received significant attention. However, many conventional MAPD algorithms assume a specifically designed grid-like environment, such as an automated warehouse. Therefore, they have many pickup and delivery locations where agents can stay for a lengthy period, as well as plentiful detours to avoid collisions owing to the freedom of movement in a grid. By contrast, because a maze-like environment such as a search-and-rescue or construction site has fewer pickup/delivery locations and their numbers may be unbalanced, many agents concentrate on such locations resulting in inefficient operations, often becoming stuck or deadlocked. Thus, to improve the transportation efficiency even in a maze-like restricted environment, we propose a deadlock avoidance method, called standby-based deadlock avoidance (SBDA). SBDA uses standby nodes determined in real-time using the articulation-point-finding algorithm, and the agent is guaranteed to stay there for a finite amount of time. We demonstrated that our proposed method outperforms a conventional approach. We also analyzed how the parameters used for selecting standby nodes affect the performance.
翻訳日:2022-01-20 12:12:01 公開日:2022-01-19